Die 5 wichtigsten Veröffentlichungen des Jahres 2025

Written by:

Laila Mowla

Jedes Jahr veröffentlichen wir eine Liste der fünf beliebtesten Veröffentlichungen, in der wir die beliebtesten wissenschaftlichen Artikel würdigen, die im vergangenen Jahr mit iMotions erstellt wurden – und 2025 ist das nicht anders!

Jedes Jahr nutzen Forscher aus verschiedenen Disziplinen iMotions, um zu untersuchen, wie Menschen als Reaktion auf ihre Umgebung denken, fühlen und sich verhalten. Von den Neurowissenschaften über das Marketing bis hin zur Mensch-Computer-Interaktion und der Gesundheitsforschung – das Jahr 2025 brachte eine besonders umfangreiche Reihe von Veröffentlichungen hervor, die sowohl methodische Innovationen als auch praktische Relevanz hervorheben.

Die diesjährige Auswahl an Publikationen beleuchtet Studien, die wichtige Trends widerspiegeln, die die Verhaltensforschung heute prägen: multimodale Messverfahren, emotional intelligente Technologien, die Nutzung digitaler Medien und die zunehmende Bedeutung der KI für das Verständnis menschlichen Verhaltens.

Die 5 wichtigsten Veröffentlichungen des Jahres 2025 mit iMotions

Nachfolgend finden Sie – in keiner bestimmten Reihenfolge – unsere Top 5 der Veröffentlichungen aus dem Jahr 2025, in denen iMotions vorgestellt wird.

Es kommt nicht nur darauf an, was gesagt wird, sondern auch wie: Wie von Nutzern geäußerte Emotionen die Zufriedenheit mit Sprachassistenten in verschiedenen Kontexten vorhersagen

Von: John Vara Prasad Ravi, Jan-Hinrich Meyer, Ramon Palau-Saumell, Divya Seernani

IQS School of Management, Universitat Ramon Llull, iMotions

Da Sprachassistenten immer stärker in den Alltag integriert werden, gewinnt das Verständnis emotionaler Dynamiken in sprachbasierten Interaktionen zunehmend an Bedeutung. In diesem Beitrag wird ein neuartiger multimodaler Ansatz verfolgt, bei dem sowohl der Sprachinhalt als auch der Tonfall analysiert werden, um die Nutzerzufriedenheit bei verschiedenen Aufgaben, Gerätetypen und Graden der Anthropomorphisierung vorherzusagen.

In mehreren Laborstudien zeigen die Autoren, dass die Art und Weise, wie Nutzer sprechen – und nicht nur das, was sie sagen –, eine entscheidende Rolle bei der Zufriedenheit spielt. Die Ergebnisse zeigen, dass die Stimmlage besonders bei aufgabenbezogenen Interaktionen einen großen Einfluss hat, während der Inhalt der Äußerungen an Bedeutung gewinnt, wenn Nutzer den Assistenten selbst bewerten.

Neurophysiologische Marker für durch Design hervorgerufene kognitive Veränderungen: Eine Machbarkeitsstudie mit handelsüblichen mobilen EEG-Geräten

Von: Nathalie Gerner, David Pickerle, Yvonne Höller, Arnulf Josef Hartl

Paracelsus-Medizinische Universität

Diese Studie untersucht, wie gestalterische Entscheidungen kognitive Prozesse messbar beeinflussen können, wobei mittels EEG die mentale Arbeitsbelastung und die Aufmerksamkeit als Reaktion auf visuelle Gestaltungselemente gemessen werden. Wichtig ist, dass die Untersuchung zeigt, dass handelsübliche EEG-Geräte in Kombination mit einer robusten Versuchsplattform aussagekräftige Erkenntnisse liefern können, die traditionell mit teureren Laboraufbauten verbunden sind.

Durch die Kombination von EEG-Messungen mit Verhaltensdaten zeigen die Autoren, wie sich subtile Designänderungen mit neurophysiologischen Indikatoren für kognitive Anstrengung in Verbindung bringen lassen. Diese Arbeit verdeutlicht einen wachsenden Trend in der Neurowissenschaft und der UX-Forschung: den Übergang von Selbstauskünften hin zu objektiven, multimodalen Messungen der Kognition.

Dieser Trend hin zu objektiven, multimodalen Ansätzen ist heute ein Eckpfeiler der modernsten verhaltenswissenschaftlichen Forschung. Um einen tieferen Einblick zu gewinnen, wie führende Institutionen diese Arbeit vorantreiben, werfen Sie einen Blick auf die wegweisenden Studien der Arizona State University.

Weltweit ähnliche Reaktionen im Gesichtsausdruck auf Werbung: Hinweise auf universelle Gesichtsausdrücke als Reaktion auf Werbung

Von: Kenneth Preston, Graham Page

Affectiva-iMotions

Sind emotionale Reaktionen auf Werbung kulturspezifisch oder grundsätzlich universell? Diese groß angelegte Studie geht dieser Frage nach, indem sie Daten zu Gesichtsausdrücken aus verschiedenen geografischen Regionen analysiert.

Mithilfe der Mimikanalyse stellten die Forscher fest, dass die emotionalen Reaktionsmuster auf Werbebotschaften kulturübergreifend bemerkenswert einheitlich sind. Auch wenn der kulturelle Kontext nach wie vor eine Rolle spielt, deuten die Ergebnisse darauf hin, dass bestimmte emotionale Reaktionen auf visuelles Storytelling universeller sein könnten als bisher angenommen.

Kurzvideos: Eine explorative Studie zu den Auswirkungen von Untertiteln und ASMR-Optionen im Split-Screen-Format unter Verwendung von Blickverfolgungs- und Gesichtsausdrucksdaten

Von: Nate Pascale, Omar Tinawi, João Vítor Moraes Barreto, Adnan Aldaas, Dinko Bačić

Loyola-Universität

Diese explorative Studie untersucht, wie Untertitel und ASMR-Inhalte im Split-Screen-Format das Zuschauerengagement, die visuelle Aufmerksamkeit und die affektiven Reaktionen beeinflussen.

Mithilfe von Eye-Tracking und der Analyse von Gesichtsausdrücken zeigen die Autoren, dass Untertitel und Split-Screen-Formate die Muster der visuellen Aufmerksamkeit erheblich verändern, während ASMR-gestützte Split-Screens das positive emotionale Engagement steigern können. Interessanterweise führten diese verstärkten emotionalen Reaktionen nicht zwangsläufig zu einer besseren Erinnerung, was die komplexe Beziehung zwischen Aufmerksamkeit, Emotion und Gedächtnis in Kurzform-Medien verdeutlicht.

Entwicklung eines KI-gestützten multimodalen Ansatzes zur Visualisierung der Leistungsfähigkeit resilienter Teams: Gemeinsame Aufmerksamkeitsfokussierung durch Blickkontakt und Sprache in simulierten Notfallszenarien

Von: Atsushi Miyazaki, Frank Coffey, Hitoshi Sato, Andrew K. Mackenzie, Kyota Nakamura, Kazuya Bise

Medizinisches Zentrum der Universität Yokohama, Nottingham Trent University

Diese Studie bewegt sich an der Schnittstelle zwischen künstlicher Intelligenz, Teamarbeit und Entscheidungen mit hohem Einsatz. In simulierten Notfallszenarien kombinieren die Autoren Blickdaten und Sprachanalysen, um zu untersuchen, wie Teams unter Druck ihre Aufmerksamkeit und Kommunikation aufeinander abstimmen.

Mithilfe einer KI-gestützten multimodalen Analyse visualisiert die Studie Muster gemeinsamer Aufmerksamkeit, die mit einer belastbaren Teamleistung in Verbindung stehen. Die Ergebnisse zeigen, wie synchronisierte Blick- und Kommunikationsmuster als Indikatoren für eine effektive Zusammenarbeit in zeitkritischen Situationen dienen können.

Lesen Sie mehr über unsere Top 5 der Veröffentlichungen aus dem Jahr 2025 – auf unserer Seite „Veröffentlichungen“.


Get Richer Data

About the author

Written by:

Laila Mowla


Erfahren Sie, was als Nächstes in der Verhaltensforschung kommt

Abonnieren Sie unseren Newsletter, um die neuesten Erkenntnisse und Veranstaltungen direkt in Ihr Postfach zu erhalten.