Table of Contents
Mit dem jüngsten iOS-Update für Barrierefreiheit hat Apple still und leise eine neue Funktion eingeführt: die kamerabasierte Blickverfolgung. Diese Funktion ermöglicht es Nutzern, ihr iPhone allein durch ihren Blick zu steuern und mit ihm zu interagieren – eine Entwicklung, die bei Forschern und Technologen Neugier geweckt hat, da sie als potenzieller Weg zur Datenerfassung in der Zukunft gilt.
Es ist ein spannender Moment für die breite Einführung von Technologien zur Erfassung des menschlichen Verhaltens. Eye-Tracking, das früher auf Labore und Forschungsumgebungen beschränkt war, findet nun Einzug in Geräte, die Millionen von Menschen bereits besitzen.
Für Forscher, UX-Teams und Neurowissenschaftler stellt sich jedoch eine wichtige Frage:
Bedeutet das, dass handelsübliche Smartphones nun in der Lage sind, Eye-Tracking-Systeme für Forschungszwecke oder sogar Webcam-Eye-Tracking für Forschungszwecke zu ersetzen?
Die kurze Antwort: Noch nicht … und möglicherweise noch lange nicht.
Was Eye-Tracking heute auf dem iPhone leistet
Apples Umsetzung ist in erster Linie auf Interaktion ausgelegt, nicht auf den Datenexport.
Die Funktion nutzt die Frontkamera des iPhones, um die Blickrichtung zu ermitteln und diese in eine Steuerung der Benutzeroberfläche umzusetzen. Nutzer können ein Element ansehen, kurz innehalten und so einen Fingertipp auslösen – dies verbessert die Barrierefreiheit und ermöglicht eine freihändige Navigation.
Also:
- Wie funktioniert Eye-Tracking auf dem iPhone? Mithilfe der Kamera und geräteinterner Modelle für maschinelles Lernen, die abschätzen, wohin der Nutzer blickt, und dies in eine Eingabe für die Benutzeroberfläche umwandeln.
- Was leistet Eye Tracking auf dem iPhone? Es ermöglicht die Steuerung und Navigation – nicht jedoch Messungen, Analysen oder Aufzeichnungen in Forschungsqualität.
Was es nicht kann: Daten exportieren oder für Forschungszwecke aufbereiten
Die Technologie ist zwar beeindruckend und benutzerfreundlich, weist jedoch für den Einsatz in der Forschung deutliche Einschränkungen auf:
| Fähigkeit | iPhone-System-Eye-Tracking | Professionelles Eye-Tracking für Forschungszwecke (z. B. im iMotions-Ökosystem) |
| Export von Rohdaten | ❌ Nein | ✔ Verfügbar |
| Fixationen, Sakkaden, AOI-Metriken | ❌ Nein | ✔ Ja |
| Konsistente Meldung der Abtastrate | ❌ Nicht angegeben | ✔ Standardisiert |
| Kalibrierungskontrolle | ❌ Begrenzt | ✔ Vom Benutzer gesteuert + validiert |
| Multimodale Datensynchronisation (EEG, GSR, EKG, Mimik, Verhalten) | ❌ Nicht unterstützt | ✔ Vollständig unterstützt |
Apple weist zudem darauf hin, dass die Blickdaten aus der Barrierefreiheitsfunktion auf dem Gerät verbleiben, was bedeutet, dass Entwickler und Forscher keinen Zugriff darauf haben, um sie für Studien, Analysen oder wissenschaftliche Arbeitsabläufe zu nutzen.

Da diese grundlegende Funktion zum Exportieren von Daten fehlt, sind die derzeitigen integrierten Funktionen von Apple für ernsthafte Forschungszwecke ungeeignet. Wenn Sie jedoch konkrete Eye-Tracking-Tests auf Mobilgeräten durchführen möchten, gibt es bereits zuverlässige Lösungen zur Erfassung und Analyse dieser wichtigen Daten.
Warum diese Entwicklung nach wie vor von Bedeutung ist
Auch ohne Exportfunktionen signalisiert die Einführung von Eye-Tracking auf dem iPhone etwas Wichtiges:
Eye-Tracking entwickelt sich von einer Nischentechnologie zu einer alltäglichen Interaktionsform.
Die Geschichte zeigt uns, wie es weiterging. Als Kameras in Handys zum Standard wurden, brauchten wir zwar weiterhin DSLRs, begannen aber, anders über Fotografie nachzudenken. Solche Funktionen, die den Zugang erleichtern, werden oft zum Sprungbrett für eine breitere Akzeptanz und den künftigen Zugang für Entwickler.
In Forschungsbereichen wie Psychologie, Neuromarketing, UX und Mensch-Computer-Interaktion eröffnet dieser Wandel neue Perspektiven und Möglichkeiten.
Wo iMotions in der Zukunft seinen Platz findet
Wir bei iMotions sehen dies als den Beginn einer Konvergenz:
- Verbrauchergeräte werden die Vertrautheit fördern.
- Professionelle Tools werden auch weiterhin für Genauigkeit, Validierung und multimodale Integration sorgen.
- Und schließlich werden hybride Arbeitsabläufe entstehen, die von der Fern-Früherkennung bis hin zu kontrollierten Studien auf Laborniveau reichen.
Sollten Apple oder Frameworks von Drittanbietern den Zugriff auf Rohdaten zur Blickverfolgung ermöglichen, werden Plattformen wie iMotions, die für den Vergleich, die Synchronisierung und die Analyse multimodaler Signale entwickelt wurden, bereitstehen.
Bis dahin ist die Eye-Tracking-Funktion des iPhones ein Meilenstein, den man im Auge behalten sollte: nicht, weil sie Forschungsinstrumente ersetzt, sondern weil sie die Vorstellung etabliert, dass unsere Technologie verstehen sollte, wie wir schauen, interagieren und reagieren.
Zusammenfassend
Das iPhone unterstützt nun Eye-Tracking, was einen bedeutenden Schritt in Richtung einer breiten Akzeptanz darstellt. Derzeit ist diese Funktion jedoch auf Barrierefreiheit und Interaktion ausgelegt und nicht auf wissenschaftliche Messungen oder den Datenexport.
Angesichts der rasanten Entwicklung in diesem Bereich wird die Zukunft der Verhaltensforschung nicht nur davon abhängen, Signale zu erfassen, sondern diese auch gründlich zu analysieren, modalitätsübergreifend zu kombinieren und in Erkenntnisse umzuwandeln.
Genau hier kommen Fachwissen, Methodik und speziell entwickelte Forschungsökosysteme nach wie vor zum Tragen.
