Erfahren Sie, wie die Tools zur Gesichtsausdrucksanalyse von Affectiva die weltweit größte Emotionsdatenbank nutzen. Entdecken Sie die treibenden Kräfte hinter dieser innovativen Technologie und erfahren Sie, wie sie die emotionale Intelligenz revolutionieren. Erkunden Sie die komplexen Funktionsweisen der hochmodernen Tools von Affectiva und deren Einfluss auf die Verbesserung der Fähigkeiten zur Emotionserkennung.
Table of Contents
Die Emotionsdatenbank von Affectiva umfasst mittlerweile fast 6 Millionen analysierte Gesichter aus 90 Ländern. Genauer gesagt haben wir inzwischen mehr als 13.000.000 Gesichtsvideos gesammelt, was insgesamt 38.944 Stunden an Daten entspricht und über 7 Milliarden analysierte Gesichtsbilder umfasst.

Dieser globale Datensatz ist der größte seiner Art – er erfasst spontane emotionale Reaktionen von Verbrauchern, während diese verschiedenen Aktivitäten nachgehen. Bislang besteht der Großteil unserer Datenbank aus Zuschauern, die Medieninhalte konsumieren (z. B. Werbung, Filmtrailer, Fernsehsendungen und virale Online-Kampagnen). Im vergangenen Jahr haben wir unseren Datenbestand um weitere Kontexte erweitert, darunter Videos von Menschen beim Autofahren, Menschen in Gesprächssituationen sowie animierte GIFs.
Transparenz ist uns bei Affectiva sehr wichtig, daher möchten wir Ihnen erläutern, wie wir diese Daten erheben und wie wir sie nutzen. Im Wesentlichen ermöglichen uns diese umfangreichen Daten die Erstellung äußerst präziser Emotionskennzahlen und liefern uns faszinierende Einblicke in das emotionale Verhalten des Menschen. Lassen Sie uns dies etwas näher betrachten.
Wie erfassen wir diese Emotionsdaten?
Woher stammen diese Daten?
Wir haben inzwischen 5.313.751 Gesichtsvideos mit einer Gesamtdauer von 38.944 Stunden gesammelt, was etwa 2 Milliarden analysierten Gesichtsbildern entspricht. „Gesichtsvideos“ sind Videoaufnahmen von Menschen, während sie einer Tätigkeit nachgehen, wie zum Beispiel Online-Videos ansehen oder Auto fahren. Affectiva sammelt diese Gesichtsvideos im Rahmen unserer Zusammenarbeit mit Marktforschungspartnern wie Millward Brown, Unruly, Lightspeed, Added Value, Voxpopme und LRW sowie mit Partnern aus den Bereichen Automobil, Robotik und Personalwesen.
Diese Daten werden spontan in natürlichen Umgebungen erfasst: beispielsweise bei Menschen zu Hause, im Büro vor ihren Geräten oder im Auto. Tatsächlich haben wir bereits über 4,4 Millionen Einzelbilder mit Emotionsdaten analysiert, die von Menschen während der Autofahrt aufgenommen wurden.
Die Bedeutung der Einwilligung
Es ist wichtig zu beachten, dass jede Person, deren Gesicht analysiert wurde, ausdrücklich gebeten wurde, der Aufzeichnung ihres Gesichts und der Analyse ihrer emotionalen Ausdrucksformen zuzustimmen. Die Menschen haben jederzeit die Möglichkeit, ihre Zustimmung zu widerrufen – wir sind uns bewusst, dass Emotionen privat sind und nicht jeder möchte, dass sein Gesicht aufgezeichnet wird. Darüber hinaus erfolgt die Datenerhebung anonym; wir erfahren niemals, zu welcher Person das Gesicht gehört.
Spontane Daten, in freier Wildbahn gesammelt
Die riesige Emotionsdatenbank von Affectiva basiert auf spontanen Daten, die in der realen Welt – oder wie wir es nennen: „in the wild“ – erhoben wurden. Die Daten spiegeln Menschen wider, die einer bestimmten Tätigkeit nachgehen, beispielsweise dem Anschauen von Inhalten, ganz gleich, wo auf der Welt sie sich gerade befinden – sei es am Küchentisch in Bangkok oder auf dem Sofa in Rio de Janeiro. Die Gesichtsvideos zeigen zudem echte, spontane Gesichtsausdrücke: ungefilterte und unverfälschte Emotionen als Reaktion auf die Inhalte, die diese Menschen sich ansehen, oder auf das, was sie gerade tun. Außerdem erfassen diese Daten schwierige Bedingungen wie Schwankungen in der Beleuchtung, unterschiedliche Kopfbewegungen und Abweichungen in den Gesichtszügen aufgrund von ethnischer Zugehörigkeit, Alter, Geschlecht, Bartwuchs und Brillen.

Es gibt noch weitere Datensätze, die häufig im akademischen Umfeld erstellt und fast immer in Laborumgebungen unter kontrollierten Kamera- und Lichtbedingungen erfasst werden. Auch diese Datensätze enthalten oft übertriebene Mimik: Die Personen werden gebeten, bestimmte Emotionen darzustellen, wodurch sogenannte „gestellte“ Daten entstehen.
Häufig führen diese akademischen Datensätze zu Verzerrungen, da die Testpersonen oft aus der Studentenschaft stammen und eine bestimmte Bevölkerungsgruppe repräsentieren (z. B. Hochschulstudenten im Alter von 18 bis 22 Jahren, weiß, männlich usw.). Wenn Sie Ihr Modell anhand dieser künstlich zusammengestellten Datensätze trainieren und testen, mag die Genauigkeit zwar hoch sein, doch die Leistung in der Praxis ist aufgrund der verzerrten Daten und der daraus resultierenden verzerrten Software schlecht.
Die weltweite Vielfalt unserer Daten
Wie bereits erwähnt, haben wir diese Daten in über 75 Ländern erhoben. Die Daten zeichnen sich durch eine große Vielfalt aus. Das ist wichtig, da die Menschen weltweit nicht alle gleich aussehen: Es gibt Unterschiede hinsichtlich Alter, Geschlecht und ethnischer Zugehörigkeit – und unsere Daten spiegeln diese demografischen und kulturellen Unterschiede wider.
Da unser Unternehmen seinen Hauptsitz in den USA hat, könnte man leicht annehmen, dass der Großteil unserer Daten aus Nordamerika oder Westeuropa stammt. Das ist jedoch nicht der Fall. Tatsächlich sind dies die Top 10 der Länder, aus denen wir die meisten Videos erhalten:
Die Tatsache, dass wir in asiatischen Ländern so stark vertreten sind, ist von entscheidender Bedeutung: Diese Regionen stehen für Kulturen, in denen der Ausdruck von Emotionen eher zurückhaltend ist (zum Beispiel das „höfliche Lächeln“). Dies steht im Gegensatz zu eher individualistisch geprägten westlichen Ländern wie den USA, wo Menschen ihre Emotionen oft verstärkt zeigen, insbesondere in Gruppen. Infolgedessen haben wir festgestellt, dass die Kultur einen Einfluss auf die Intensität der zum Ausdruck gebrachten Emotionen hat. Mit diesen globalen Daten können wir unsere Algorithmen entsprechend trainieren, sodass wir in einzigartiger Weise in der Lage sind, nuancierte und subtile Emotionen mit hoher Genauigkeit zu erkennen.

Was wir mit diesen Daten machen
Trainieren und testen Sie unsere Algorithmen.
Unser Wissenschaftsteam hat eine robuste Infrastruktur auf Basis von Methoden des maschinellen Lernens und des Deep Learning aufgebaut, die es uns ermöglicht, unsere Algorithmen in großem Maßstab zu trainieren und zu testen. Wie trainiert man also eine Maschine, Emotionen zu erkennen und zwischen einem Lächeln und einem Grinsen zu unterscheiden? Man füttert die Lerninfrastruktur mit vielen Beispielen für ein Lächeln und vielen Beispielen für ein Grinsen. Das System identifiziert die Schlüsselmerkmale jeder Emotion und lernt daraus, sodass der Algorithmus beim nächsten Mal, wenn er ein Grinsen sieht, sagt: „Aha, das habe ich schon einmal gesehen! Das ist ein Grinsen.“
Wir nutzen unsere Gesichtsvideo-Datenbank, um unsere Algorithmen zur Erkennung von Gesichtsausdrücken zu trainieren und weiterzuentwickeln – in der Sprache des maschinellen Lernens auch als „Klassifikatoren“ bezeichnet. Es ist eigentlich ein unglaublicher Gedanke, dass unsere Technologie als positives Rückkopplungssystem funktioniert – sie wird jeden Tag intelligenter, indem sie immer mehr ihrer eigenen Daten auswertet. Um dies zu ermöglichen, haben wir die erste Version eines sogenannten „Active Learning“-Systems entwickelt, einer Software, die automatisch entscheidet, welche Daten dem System helfen können, sich schneller zu verbessern – das ist maschinelles Lernen mit Big Data.
Um Tausende von Menschen zu finden, die lächeln oder grinsen, werten wir unseren Datensatz mit fast 6 Millionen Gesichtern aus aller Welt aus. Das Ziel dieser Auswertung ist es, weitere Beispiele und eine größere Vielfalt an Gesichtsausdrücken zu entdecken, von denen unser System lernen kann. Bei diesem Prozess kommen unsere sich ständig verbessernden Ausdruckserkennungsalgorithmen zum Einsatz, um Fälle herauszufiltern, in denen das System unsicher ist.
Unser Team aus menschlichen FACS-Codierern überprüft diese Ausdrücke und fügt sie einem ständig wachsenden Pool an Trainingsdaten hinzu. Dabei bestätigen sie, ob ein Ausdruck vorhanden ist. Diese gekennzeichneten Daten dienen als Referenz, anhand derer der Algorithmus getestet wird. In gewisser Weise gleicht dies der Zusammenarbeit zwischen einem Lehrer und einem Schüler bei der Lösung einer schwierigen Aufgabe. Der Lehrer (die menschlichen Kodierer) gibt dem Schüler (unseren Algorithmen) aktiv Anleitung. Auf diese Weise verbessert sich das System kontinuierlich: ein Prozess, der als aktives Lernen bekannt ist.
Diese fortlaufende Datenerfassung erhöht die Vielfalt und Anzahl der Gesichtsausdrücke, von denen unsere Algorithmen lernen können, erheblich. Anstatt in einem isolierten Klassenzimmer unterrichtet zu werden, sind unsere Modelle um die Welt gereist und haben Gesichter beobachtet. Sie sind mit einer Vielzahl von Menschen, Kulturen und Gesichtsausdrücken in Berührung gekommen. Anstelle eines naiven Schülers mit seiner begrenzten Weltanschauung ist unsere Technologie zur Emotionserkennung nun ein erfahrener Weltenbummler mit jahrelanger Erfahrung in der weltweiten Analyse von Gesichtsausdrücken.
Branchenführende Standards und Benchmarks entwickeln
Anhand unseres Datensatzes konnten wir zudem die mit Abstand weltweit größte normative Datenbank für Gesichtsausdrücke aufbauen – einen Maßstab dafür, welche Reaktionen in den verschiedenen Regionen der Welt zu erwarten sind. Wir werten unsere Daten aus, um zu verstehen, wie Emotionen in verschiedenen Kulturen zum Ausdruck kommen, und stellen dabei faszinierende Unterschiede fest – beispielsweise im Vergleich zwischen Amerikanern und Zuschauern in Südostasien.
Es ist zudem wichtig zu untersuchen, wie sich bestimmte Faktoren (unabhängig davon, ob wir Daten bei den Menschen zu Hause oder vor Ort erfassen) und die Art der Inhalte, die sie sich ansehen (z. B. Werbung, Filmtrailer, Fernsehsendungen), auf den Ausdruck von Emotionen auswirken. Wir haben diese Normwerte in unserem Marktforschungsprodukt veröffentlicht, damit unsere Kunden die Leistung ihrer Anzeigen nach geografischen Gesichtspunkten, Produktkategorien und Medienlänge vergleichen können. Kein anderer Anbieter von Emotionsanalysen stellt solche Normwerte zur Verfügung.
Auf der Suche nach interkulturellen Erkenntnissen
Schließlich gewinnen wir einige wirklich erstaunliche Erkenntnisse, wenn wir diese Emotionsdaten auswerten. Wir verfügen über einen wahren Schatz an Erkenntnissen über menschliche emotionale Reaktionen, aufgeschlüsselt nach Geschlecht, Alter, Kultur und geografischer Herkunft.
Wenn wir uns eingehender mit geschlechtsspezifischen und kulturellen Aspekten befassen, gewinnen wir interessante Erkenntnisse, die uns ein besseres Verständnis dafür vermitteln, worauf Frauen und Männer weltweit unterschiedlich reagieren.
- Frauen sind ausdrucksstärker als Männer. Das ist keine Überraschung, aber unsere Daten zeigen auch, dass Frauen nicht nur mehr lächeln, sondern dass ihr Lächeln auch länger anhält.
- In einer Studie, die wir mit 1.862 Teilnehmern durchgeführt haben, konnten wir tatsächlich feststellen, dass Frauen 32 % häufiger lächelten als Männer und dass Männer 12 % häufiger die Stirn runzelten (ein typischer Ausdruck von Wut) als Frauen.
- In den USA lächeln Frauen 40 % häufiger als Männer, doch interessanterweise konnten wir im Vereinigten Königreich keinen Unterschied zwischen Männern und Frauen feststellen.
- Frauen in ihren Zwanzigern lächeln viel mehr als Männer im gleichen Alter – vielleicht ist das beim Dating einfach notwendig?
- Die Spanier sind ausdrucksstärker als die Ägypter, doch offenbar zeigen die Ägypter mehr positive Emotionen.
- Menschen ab 50 Jahren sind um 25 % emotionaler als jüngere Menschen. Das hat mich persönlich überrascht, da ich eigentlich das Gegenteil angenommen hatte.
- Es stellt sich auch heraus, dass wir ziemlich ausdrucksstark sind, wenn wir alleine vor unseren Geräten sitzen! Und dabei geht es nicht nur darum, Katzenvideos auf Facebook anzuschauen! Wir drücken ständig Gefühle aus, sei es beim E-Mail-Schreiben, beim Online-Shopping oder sogar beim Ausfüllen der Steuererklärung!
- Auch der Grad der Geselligkeit einer Situation beeinflusst die Mimik der Menschen. In formellen Gruppensituationen, wie beispielsweise in einem Forschungslabor oder einer Fokusgruppe, neigen Menschen aus asiatischen Kulturen dazu, weniger ausdrucksstark zu sein, während Menschen aus westlichen Kulturen tendenziell ausdrucksstärker sind. In informellen Situationen, wie beispielsweise zu Hause, sind diese Unterschiede deutlich geringer.
Was für ein langer Weg
Vor 15 Jahren verfügte Affectiva über etwa 25.000 Gesichtsvideos. Vor drei Jahren hatte sich diese Zahl auf 250.000 verzehnfacht. Im Jahr 2013 erreichten wir dann die Millionengrenze, was wir als Zeichen für das beispiellose Wachstum und die breite Akzeptanz von Affectiva werteten. Und erst kürzlich haben wir die 5-Millionen-Marke geknackt. Gestern erhielt ich einen Bericht: Wir haben nun 5.313.751 Gesichter analysiert. Unsere Datenbank wächst jeden Tag.
Wie geht es weiter?
Wir glauben, dass dies erst der Anfang ist. Unsere Vision ist es, Technologie mit unserer Software menschlicher zu gestalten und sicherzustellen, dass die intelligenten Geräte und fortschrittlichen KI-Systeme, die uns umgeben, unsere Emotionen erkennen und sich an diese anpassen können. Und dass wir weiterhin mit hoher Genauigkeit messen können, wie Verbraucher auf digitale Inhalte reagieren. Während wir unsere Emotionsdatenbank kontinuierlich erweitern, sammeln wir immer mehr Daten in spezifischen Kontexten, wie beispielsweise Videos von Menschen in Gesprächssituationen, animierte GIFs und Menschen beim Autofahren.
Ich stelle mir eine Zukunft vor, in der Affectiva es Menschen ermöglicht, ihre emotionalen Profile zu erstellen, die sie dann auf allen Geräten und in allen digitalen Erlebnissen, die sie im Alltag nutzen, mitnehmen können – es wird unser „Emotionspass“ sein, der unsere digitalen Erlebnisse persönlicher, effektiver und authentischer macht.
Wir sind sehr daran interessiert, weitere Datenpartnerschaften aufzubauen, um diese erstklassige Emotionsdatenbank weiterzuentwickeln: Wenn Sie daran interessiert sind, mit uns daran zu arbeiten, melden Sie sich bei uns!