Heutige Assistenzsysteme agieren immer selbstständiger, in der Regel ohne Möglichkeit für Nutzer*innen zu einer direkten Rückmeldung. Die Anpassung von Assistenzverhalten an die individuellen Bedürfnisse der Nutzer*innen durch ein Brain-Computer-Interface zur Affekterkennung kann Nutzungsbarrieren abbauen und Akzeptanz fördern.
Fortschritte in der Sensortechnik und Künstlicher Intelligenz machen es möglich, dass technische Systeme immer flexibler und selbstständiger agieren können. Die Beispiele reichen von einer einfachen Anpassung der Bildschirmhelligkeit an Tageszeit und Umgebungsbeleuchtung über Spurhalte- und Abstandsassistenten im Fahrzeug bis zu kooperierenden Industrierobotern und Servicerobotern für die heimische Nutzung. Damit intelligente Technik auch im Kontakt mit Menschen gewinnbringend eingesetzt werden kann, ist es wichtig, dass auch emotionale Zustände und Präferenzen der Nutzer*innen angemessen berücksichtigt werden. Nur wenn die Technik sensibel und prompt auf ihre Nutzer*innen reagiert, werden intelligente Systeme als kooperativ und menschengerecht wahrgenommen und als Hilfestellung oder Partner*innen akzeptiert. Hierfür kann es beispielsweise von Vorteil sein, die affektive Reaktion der Nutzer*innen kontinuierlich zu erkennen.
Das Projekt EMOIO hat sich das Ziel gesetzt, die subjektiv empfundene Angemessenheit eines adaptiven Systemverhaltens live zu erkennen, um daraufhin die Assistenzfunktionen optimal an die individuellen Bedürfnisse und Präferenzen der Nutzer*innen anzupassen. In der ersten Projektphase wurden positive und negative Emotionen mit Hilfe der neurophysiologischen Verfahren Elektroenzephalographie (EEG) und funktionale Nahinfrarotspektroskopie (fNIRS) während der Mensch-Technik-Interaktion erfasst und mittels maschineller Lernverfahren in einem sogenannten Brain-Computer-Interface klassifiziert. Diese Informationen können als Bewertung des Systemverhaltens (Zustimmung/ like und Ablehnung/ dislike) interpretiert werden. In der zweiten Projektphase wurden Mechanismen entwickelt, um die erkannten Affektreaktionen an das adaptive System zurückzumelden, sodass dieses seine systeminitiierten Assistenzfunktionen entsprechend anpassen kann.
Das Projekt hat mehrere Studien zur Identifikation von positivem und negativem Affekt mittels neurophysiologischer Methoden (EEG und fNIRS) in der Mensch-Technik-Interaktion durchgeführt. In den Studien wurden Nutzer*innen unterschiedlicher Altersstufen berücksichtigt. Diese dienten als Grundlage zur Entwicklung eines Algorithmus zur Live-Klassifikation von affektiven Nutzerreaktionen mittels neurophysiologischer Signale wie der EEG und fNIRS. Weiterhin wurde eine mobile App entwickelt, die den Nutzer*innen die klassifizierten affektiven Reaktionen live anzeigt. Die Funktionsfähigkeit des Brain-Computer-Interfaces wurde nun in realitätsnahen Anwendungsszenarien erprobt. Die betrachteten Anwendungsfelder umfassen interaktive Roboter, das smarte Zuhause und das Fahren im intelligenten Auto.