Technik, die sich gut anfühlt

Heutige Assistenzsysteme agieren immer selbstständiger, in der Regel ohne Möglichkeit für Nutzer*innen zu einer direkten Rückmeldung. Die Anpassung von Assistenzverhalten an die individuellen Bedürfnisse der Nutzer*innen durch ein Brain-Computer-Interface zur Affekterkennung kann Nutzungsbarrieren abbauen und Akzeptanz fördern.

Herausforderung

Fortschritte in der Sensortechnik und Künstlicher Intelligenz machen es möglich, dass technische Systeme immer flexibler und selbstständiger agieren können. Die Beispiele reichen von einer einfachen Anpassung der Bildschirmhelligkeit an Tageszeit und Umgebungsbeleuchtung über Spurhalte- und Abstandsassistenten im Fahrzeug bis zu kooperierenden Industrierobotern und Servicerobotern für die heimische Nutzung. Damit intelligente Technik auch im Kontakt mit Menschen gewinnbringend eingesetzt werden kann, ist es wichtig, dass auch emotionale Zustände und Präferenzen der Nutzer*innen angemessen berücksichtigt werden. Nur wenn die Technik sensibel und prompt auf ihre Nutzer*innen reagiert, werden intelligente Systeme als kooperativ und menschengerecht wahrgenommen und als Hilfestellung oder Partner*innen akzeptiert. Hierfür kann es beispielsweise von Vorteil sein, die affektive Reaktion der Nutzer*innen kontinuierlich zu erkennen. 

Methodik

Das Projekt EMOIO hat sich das Ziel gesetzt, die subjektiv empfundene Angemessenheit eines adaptiven Systemverhaltens live zu erkennen, um daraufhin die Assistenzfunktionen optimal an die individuellen Bedürfnisse und Präferenzen der Nutzer*innen anzupassen. In der ersten Projektphase wurden positive und negative Emotionen mit Hilfe der neurophysiologischen Verfahren Elektroenzephalographie (EEG) und funktionale Nahinfrarotspektroskopie (fNIRS) während der Mensch-Technik-Interaktion erfasst und mittels maschineller Lernverfahren in einem sogenannten Brain-Computer-Interface klassifiziert. Diese Informationen können als Bewertung des Systemverhaltens (Zustimmung/ like und Ablehnung/ dislike) interpretiert werden. In der zweiten Projektphase wurden Mechanismen entwickelt, um die erkannten Affektreaktionen an das adaptive System zurückzumelden, sodass dieses seine systeminitiierten Assistenzfunktionen entsprechend anpassen kann. 

Ergebnis

Das Projekt hat mehrere Studien zur Identifikation von positivem und negativem Affekt mittels neurophysiologischer Methoden (EEG und fNIRS) in der Mensch-Technik-Interaktion durchgeführt. In den Studien wurden Nutzer*innen unterschiedlicher Altersstufen berücksichtigt. Diese dienten als Grundlage zur Entwicklung eines Algorithmus zur Live-Klassifikation von affektiven Nutzerreaktionen mittels neurophysiologischer Signale wie der EEG und fNIRS. Weiterhin wurde eine mobile App entwickelt, die den Nutzer*innen die klassifizierten affektiven Reaktionen live anzeigt. Die Funktionsfähigkeit des Brain-Computer-Interfaces wurde nun in realitätsnahen Anwendungsszenarien erprobt. Die betrachteten Anwendungsfelder umfassen interaktive Roboter, das smarte Zuhause und das Fahren im intelligenten Auto. 

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Emotionserkennung per Brain-Computer-Interface