Die Technologie zur Emotionserkennung analysiert Gesichtsausdrücke, um menschliche Emotionen zu identifizieren. Dieser Artikel befasst sich mit der Funktionsweise, den Anwendungsbereichen und den Auswirkungen dieser innovativen Technologie. Erfahren Sie mehr über die Fortschritte, Vorteile und möglichen Nachteile der Emotionserkennungstechnologie in verschiedenen Branchen.
Table of Contents
Einführung in die Technologie zur Erkennung von Emotionen
Was passiert, wenn man lächelt? Für die Außenwelt ist es offensichtlich, dass sich die Muskeln an den Mundwinkeln nach oben ziehen und sich die Wangen heben, doch es spielt sich noch viel mehr ab, als man auf den ersten Blick sieht. Deine Pupillen weiten sich möglicherweise, deine Herzfrequenz kann sich vorübergehend verlangsamen und die Schweißdrüsen an der Hautoberfläche werden aktiv [1,2,3]. Beim Erlernen und Entschlüsseln von Emotionen sind diese Informationen von unschätzbarem Wert – doch ohne spezielle Technologie bleibt vieles davon verborgen. Hier kommt die Technologie zur Emotionserkennung ins Spiel.
Unter Emotionserkennungstechnologie versteht man eine Reihe von Hard- und Softwarekomponenten, die entwickelt wurden, um gezeigte menschliche Emotionen – in ihrer ganzen Komplexität – zu erkennen und in Daten umzuwandeln. Diese Daten können dann analysiert und sogar von einem Computer verarbeitet werden. Das mag wie Science-Fiction klingen, wird aber zunehmend zur alltäglichen Realität.
Im Falle des oben beschriebenen Lächelns könnte die Emotion durch eine Gesichtsausdrucksanalyse (wozu lediglich eine Kamera und spezielle Software erforderlich sind), fEMG (Gesichts-Elektromyographie), EKG (Elektrokardiographie) und EDA (Elektrodermale Aktivität) erkannt werden. Allerdings sind nicht unbedingt alle diese Methoden gleichzeitig erforderlich, doch jede einzelne kann einen weiteren Aspekt zur Entschlüsselung menschlicher Emotionen beitragen.
Warum ist diese Technologie von Bedeutung? Für die meisten Menschen mag das Erkennen einer Emotion wie eine triviale Aufgabe erscheinen, doch da wir immer mehr Zeit unseres Lebens inmitten von Technologie verbringen, ist es wichtig, dass eben diese Technologie auch dazu in der Lage ist. Im Folgenden werden wir einige Beispiele durchgehen, die zeigen, warum das so ist – und einige Prognosen darüber abgeben, in welche Richtung sich die Technologie entwickeln wird.
Technologie zur Emotionserkennung in der Automobilindustrie
Einer der größten Anwender von Technologien zur Emotionserkennung ist die Automobilindustrie. Angesichts von über 287 Millionen Autos in den USA und einer durchschnittlichen Zeit, die pro Woche im Auto verbracht wird, von etwas mehr als 8 Stunden, besteht ein klarer Anreiz, das Fahrerlebnis zu verbessern. Automobilhersteller können sich von der Masse abheben, indem sie Erlebnisse schaffen, die die Sicherheit erhöhen und das Fahren angenehmer machen.

Ein klares Anwendungsziel für Technologien zur Emotionserkennung ist die Erkennung von Fahrermüdigkeit – auch wenn es sich dabei nicht um eine Emotion im eigentlichen Sinne handelt, ist jeder Biosensor bestens dafür geeignet, das Einsetzen von Müdigkeit zu erkennen. Allein in den USA ereignen sich jedes Jahr über 100.000 Unfälle aufgrund von Aufmerksamkeitsstörungen, die durch solche Müdigkeit verursacht werden – ein Großteil davon könnte durch integrierte Systeme verhindert werden, die den Fahrer warnen, wenn er am Steuer einzunicken beginnt. Emotionserkennungstechnologie kann dies durch eine Reihe von Methoden erkennen – von Dashcams, die Eye-Tracking oder Gesichtsausdrucksanalysen durchführen, über integrierte Sensoren zur Messung der elektrodermalen Aktivität [4,5] bis hin zu EEG-Sensoren [6].
Jeder Sensor ist in der Lage, zunehmende Müdigkeit präzise zu erkennen, was ein Warnsystem auslösen könnte, das den Fahrer dazu auffordert, anzuhalten. Darüber hinaus könnten diese Systeme auch Veränderungen der Emotionen am Steuer erkennen – und beispielsweise auf Anzeichen von aggressivem Fahrverhalten reagieren. Diese Systeme sind bestens geeignet, um für alle Verkehrsteilnehmer ein sichereres Fahrerlebnis zu schaffen.
Angesichts des Aufkommens autonomer Fahrzeuge liegt es auf der Hand, dass man im Auto weniger Zeit mit dem Fahren verbringen wird – da man nicht mehr am Steuer sitzen muss, kann sich das Auto in einen ganz anderen Raum verwandeln. Technologien zur Emotionserkennung können solche Räume in Zukunft aufwerten, sodass sie reaktionsfähiger und letztlich menschlicher werden.
Technologie zur Emotionserkennung im Gesundheitswesen
Technologien zur Emotionserkennung finden auch im Gesundheitswesen breite Anwendung, um sowohl die Diagnose als auch die Behandlung von Patienten zu verbessern. Ein Paradebeispiel hierfür ist ihr Einsatz bei der Früherkennung von Autismus. Autismus ist eine neurologische Entwicklungsstörung, von der knapp 1 % aller Kinder betroffen ist und die sich vor allem durch Schwierigkeiten in der sozialen Kommunikation (sowohl sprachlich als auch nonverbal) sowie durch repetitive Verhaltensweisen auszeichnet.
Die von iMotions betriebene „Janssen Autism Knowledge Engine“ nutzt einen multisensorischen Ansatz, um die frühesten Zeitpunkte zu ermitteln, zu denen Autismus bei Kindern erkennbar sein könnte [7].

Da sich gezeigt hat, dass frühzeitige Interventionen bei Autismus den größten Einfluss auf die späteren sozialen Fähigkeiten haben, kann eine frühzeitige Diagnose dazu beitragen, dass Kinder mit Autismus die bestmögliche Betreuung erhalten [8]. Darüber hinaus hilft die Technologie zur Emotionserkennung Menschen mit Autismus auch im späteren Leben dabei, ihre sozialen Fähigkeiten zu verbessern, sei es durch spielbasiertes Training unter Einbeziehung der Gesichtsausdrucksanalyse [9] oder durch spontane Anleitung zu emotionalen Reaktionen [10].
Die Technologie zur Emotionserkennung wird auch im therapeutischen Kontext eingesetzt, um Menschen zu helfen, die unter sozialer Angst leiden. Ein aktuelles Forschungsprojekt, bei dem iMotions zum Einsatz kommt, kombiniert EKG, Hautleitfähigkeitsmessung (EDA) und Eye-Tracking, um zu beobachten, wie Patienten auf sozial belastende virtuelle Umgebungen reagieren.
Die Patienten erhalten Anleitungen zum Umgang mit ihrem Stresslevel, wobei das langfristige Ziel darin besteht, dass „… ängstliche Patienten die VR-Ausrüstung mit nach Hause nehmen können und die Behandlung dadurch persönlicher, flexibler und kostengünstiger gestaltet werden kann“ (Mia Beck Lichtenstein, Leiterin des Zentrums für Telepsychiatrie in Süddänemark und Projektleiterin).
To see how these concepts are applied in practice, explore our Behavioral Research Resources page.
Technologie zur Erkennung von Emotionen für Schulungen, Simulationen und Spiele
Auch außerhalb der Klinik wird die Technologie zur Emotionserkennung eingesetzt, um die emotionalen Reaktionen von Personen in schwierigen Situationen zu trainieren. So kann beispielsweise in Flugsimulationen die Technologie zur Emotionserkennung ähnlich wie beim Autofahren genutzt werden – um Schläfrigkeit oder unangemessene emotionale Zustände zu erkennen. Durch das Verständnis, wie Piloten während des Fluges emotional reagieren, lassen sich bessere Trainingsmethoden entwickeln [11].

Die Auswertung emotionaler Reaktionen wurde auch durchgeführt, um die empathischen Reaktionen in virtuellen Gesundheitssimulationen zu verbessern [12, 13]. Durch detailliertes, objektives Feedback zur Patientenversorgung können medizinische Fachkräfte besser verstehen, wie sie sicherere und angenehmere Umgebungen für Patienten schaffen können. In virtuellen Umgebungen wird Emotionserkennungstechnologie auch für Spiele genutzt, bei denen das Spielgeschehen je nach Emotion des Spielers angepasst werden kann. Durch die Erfassung von EMG- (Elektromyographie) und EDA-Daten konnten Forscher Emotionen in Echtzeit verfolgen, die dann zur Anpassung der erlebten Umgebung genutzt werden können [14, 15]. Zukünftige Spiele könnten sich stärker an die Emotionen des Spielers anpassen und so wirklich reaktionsfähige und immersive Erlebnisse schaffen.
Fazit
Die Technologie zur Emotionserkennung ist mittlerweile ausgereift. Dies erforderte im letzten Jahrzehnt Fortschritte nicht nur bei der Biosensor-Hardware, sondern auch bei der Software und den Algorithmen, die die Emotionsauswertung steuern. Ein besseres Verständnis dafür, wie Kombinationen von Biosensoren aussagekräftige Emotionsdaten liefern können, hat ebenfalls zum Fortschritt dieser Technologie beigetragen.
Wir stellen zwar einige Beispiele für den heutigen Einsatz von Technologien zur Emotionserkennung vor, doch gibt es noch zahlreiche weitere Anwendungsbereiche, in denen diese Technologie zum Einsatz kommt, und viele weitere, in denen sie in naher Zukunft zum Einsatz kommen wird. Die Technologie der Zukunft ist schon immer intelligenter geworden, doch nun wird sie auch menschlicher.
Weiterführende Literatur
Wenn Sie mehr darüber erfahren möchten, wie Emotionserkennungstechnologie Ihre Forschung bereichern kann, laden Sie sich unten unseren umfassenden „Complete Pocket Guide“ zum menschlichen Verhalten herunter:
Literaturverzeichnis
[1] Chołoniewski, J., Chmiel, A., Sienkiewicz, J., Hołyst, J., Küster, D. & Kappas, A. (2016). Zeitliche Taylor-Skalierung der Gesichts-Elektromyographie und der elektrodermalen Aktivität im
Verlauf emotionaler Stimulation. Chaos, Solitons & Fractals, 90, 91–100. https://doi.org/10.1016/j.chaos.2016.04.023.
[2] Alghowinem, S., AlShehri, M., Goecke, R. & Wagner, M. (2014). Untersuchung der Augenaktivität als Indikator für emotionale Zustände mithilfe eines Eye-Tracking-Sensors. In L. Chen, S. Kapoor & R. Bhatia (Hrsg.), Intelligente Systeme für Wissenschaft und Information (S. 261–276). Cham, Schweiz: Springer International. https://dx.doi.org/10.1007/978-3-319-04702-7_15
[3] Anttonen, J. und Surakka, V. (2005). Emotionen und Herzfrequenz beim Sitzen auf einem Stuhl. In: Proceedings of the ACM Conference on Human Factors in Computing Systems. ACM, New York,
491–499
[4] Ooi, J.S.K., Ahmad, S.A., Chong, Y.Z., Ali, S.H.M., Ai, G., Wagatsuma, H. (2016). Rahmenkonzept zur Erkennung von Fahrerempfindungen auf der Grundlage von Messungen der elektrodermalen Aktivität unter simulierten Fahrbedingungen. Tagungsband der IEEE EMBS-Konferenz für Biomedizintechnik und Biowissenschaften (IECBES) 2016, S. 365–369.
[5] Kajiwara, S. (2014). Bewertung der mentalen Belastung des Fahrers anhand der Gesichtstemperatur und der elektrodermalen Aktivität unter simulierten Fahrbedingungen. Int. J. Automot. Technol. 15, 65–70.
[6] Zander, T. O., Andreessen, L. M., Berg, A., Bleuel, M., Pawlitzki, J., Zawallich, L. u. a. (2017). Bewertung eines trockenen EEG-Systems für die Anwendung passiver Gehirn-Computer-Schnittstellen im autonomen Fahren. Front. Hum. Neurosci. 11:78. doi: 10.3389/fnhum.2017.00078
[7] Ness SL, Bangerter A, Manyakov NV, Lewin D, Boice M, Skalkin A, et al. (2019). Eine Beobachtungsstudie mit der Janssen Autism Knowledge Engine (JAKE®) bei Personen mit Autismus-Spektrum-Störung. Front Neurosci, 13:111.
[8] McEachin, S. J., Smith, T. & Lovaas, O. I. (1993). Langzeitverlauf bei Kindern mit Autismus, die eine frühzeitige intensive Verhaltenstherapie erhalten. American Journal of Mental Retardation, 97, 359–372 (sowie Diskussion, S. 373–391).
[9] Garcia-Garcia, J. M., Penichet, V. M. R., Lozano, M. D. & Fernando, A. (2021). Einsatz von Technologien zur Emotionserkennung, um Kindern mit Autismus-Spektrum-Störungen beizubringen, Emotionen zu erkennen und auszudrücken. Universal Access in the Information Society, https://doi.org/10.1007/s10209-021-00818-y
[10] M. Alharbi und S. Huang. (2020). Ein unterstützendes System mit Gesichts- und Emotionserkennung zur Verbesserung der sozialen Kompetenzen von Kindern mit Autismus-Spektrum-Störungen. 2020 IEEE International Systems Conference (SysCon), S. 1–6, doi: 10.1109/SysCon47679.2020.9275659.
[11] César Cavalcanti Roza, V., & Adrian Postolache, O. (2019). Multimodaler Ansatz zur Emotionserkennung auf der Grundlage simulierter Flugversuche. Sensors, 19(24), 5516. https://doi.org/10.3390/s19245516
[12] Mano, Leandro & Mazzo, Alessandra & Torres Neto, José & Meska, Mateus & Giancristofaro, Gabriel & Ueyama, Jó & Pereira Junior, Gerson. (2019). Einsatz der Emotionserkennung zur Bewertung simulationsbasierten Lernens. Nurse Education in Practice. 36. 10.1016/j.nepr.2019.02.017.
[13] Schreckenbach, T., Ochsendorf, F., Sterz, J. et al. Emotionserkennung und Extraversion von Medizinstudierenden wirken zusammen, um deren von simulierten Patienten wahrgenommene empathische Kommunikation vorherzusagen. BMC Med Educ, 18, 237 (2018). https://doi.org/10.1186/s12909-018-1342-8
[14] A. Nakasone, H. Prendinger und M. Ishizuka. (2005). Emotionserkennung anhand von Elektromyographie und Hautleitfähigkeit. Tagungsband des Internationalen Workshops zur Interpretation von Biosignalen, S. 219–222.
[15] Garner, T., & Grimshaw, M. N. (2013). Die Physiologie von Angst und Geräuschen: Einsatz biometrischer Verfahren zur automatisierten Emotionserkennung in adaptiven Spielsystemen. Proceedings of IADIS International Journal, Band 11, Nr. 2, S. 77–91. ISSN: 1645-7641
[16] H. Yong, J. Lee und J. Choi. (2019). Emotionserkennung bei Spielern mit Head-Mounted-Display. 2019 IEEE-Konferenz über virtuelle Realität und 3D-Benutzeroberflächen (VR), S. 1251–1252, doi: 10.1109/VR.2019.8797736.
