GreenBook-Interview mit Peter Hartzbech

iMotions

Written by:

iMotions

Dieses Interview wurde ursprünglich von Leonard Murphy bei GreenBook – The Future of Insights geführt und am 8. Dezember 2021 veröffentlicht. Es wird mit freundlicher Genehmigung auf diesem Blog wiedergegeben. Den Originalbeitrag finden Sie hier.

Von: Leonard Murphy

8. Dezember 2021

Ich bin seit vielen Jahren ein begeisterter Anhänger der angewandten Verhaltensforschung im Bereich der Marktforschung. Nicht nur ist es generell unendlich faszinierend, die unbewussten Triebkräfte von Verhalten und Entscheidungen zu ergründen, sondern erstaunliche technologische Fortschritte haben auch die Möglichkeit eröffnet, unbewusste Erkenntnisse in einem Umfang zu gewinnen, der sich fast täglich zu erweitern scheint. Bis vor relativ kurzer Zeit hat die Marktforschungs- und Analysebranche diese Fortschritte jedoch nur zögerlich übernommen. Wie in so vielen Bereichen hat die Pandemie einen grundlegenden Wandel ausgelöst. Die Kombination aus einer massiven, digital geprägten Veränderung des Verbraucherverhaltens und dem dringenden Bedarf der Käufer von Insights, die sich rasch wandelnden Werte und Entscheidungsprozesse der Verbraucher zu verstehen, hat zu einem bedeutenden Wachstum der Verhaltenswissenschaften geführt.

Viele Unternehmen haben von diesem Wachstum profitiert, doch in letzter Zeit hat sich ein klarer Marktführer herauskristallisiert. Smart Eye AB, der weltweit führende Anbieter von KI-Lösungen für Human Insights, hat kürzlich den Emotion-AI-Pionier Affectiva übernommen und sich mit iMotions, der führenden Softwareplattform für Biosensoren, zusammengeschlossen, um ein echtes, integriertes Kraftpaket zu schaffen, das unvergleichliche Einblicke in menschliches Verhalten liefert.

Im heutigen Interview unserer CEO-Reihe spreche ich mit Peter Hartzbech, dem CEO von iMotions, über die Hintergründe der Zusammenführung dieser drei Unternehmen unter einem Dach und darüber, was die Zukunft der Technologie zur Messung unbewusster Prozesse bringen könnte.

Peter und ich hatten zuvor noch nicht miteinander gesprochen, und ich war sehr beeindruckt von seiner Energie und seiner Vision. Er hat eine mutige Strategie entwickelt, um ein wahrhaft globales Vorzeigeunternehmen aufzubauen, das neue Anwendungsfälle, technologische Innovationen und geschäftliche Erfolge auf eine Weise vorantreiben wird, wie es nur wenige andere schaffen werden. Allerdings gibt es viele andere Unternehmen mit ihren eigenen einzigartigen Angeboten, die ebenfalls rasant wachsen – man darf davon ausgehen, dass die Marktkräfte weiterhin dafür sorgen werden, dass alle Beteiligten vorankommen.

Im Laufe unseres Gesprächs kamen wir überein, dass es interessant wäre, ihn, Martin und Rana zu einer Gruppendiskussion über die Zukunft der technologiegetriebenen angewandten Verhaltenswissenschaft einzuladen. Darauf könnt ihr euch Anfang nächsten Jahres freuen. In der Zwischenzeit wird euch dieser Beitrag sicherlich sehr interessant, fesselnd und zum Nachdenken anregend erscheinen. Viel Spaß beim Lesen!

Transkript (zur besseren Verständlichkeit überarbeitet)

Lenny Murphy: Hallo zusammen. Hier ist Lenny Murphy mit einer weiteren Folge unserer CEO-Reihe. Und heute ist es mir eine Ehre und ein Privileg, Peter Hartzbech bei mir zu haben, den Gründer und CEO von iMotions – ein Unternehmen, das, wie ihr vielleicht aus den Nachrichten wisst, in letzter Zeit einige coole Projekte auf die Beine gestellt hat. Also, Peter, herzlich willkommen.

Peter Hartzbech: Vielen Dank, Leonard. Es ist toll, heute hier zu sein. Hier in Dänemark ist es bereits Nachmittag, daher tut es mir leid, dass ich dich so früh wecken musste. [LACHT]

Lenny Murphy: Oh, das ist gut. Weißt du, du weißt ja sicher, dass ich viele Kinder habe. Früh aufstehen ist also – das passiert so oder so. Wäre es ein Samstag gewesen, wäre ich vielleicht etwas mürrischer gewesen, aber es geht uns gut. Vielen Dank dafür. [LACHT]

Wie ich bereits erwähnt habe: Wer die beispiellosen M&A- und Finanzierungsaktivitäten auf dem Markt verfolgt hat, dem ist iMotions sicherlich schon öfter im Zusammenhang mit einigen Ihrer Transaktionen aufgefallen. Ich möchte Ihnen aber nicht die Show stehlen. Erzählen Sie uns doch bitte ein wenig über die Geschichte von iMotions und darüber, wo Sie derzeit auf diesem massiven Wachstumskurs stehen, den Sie eingeschlagen haben.

Peter Hartzbech: Ja. Nun, vielen Dank. Ja, das werde ich tun, ich werde versuchen, es bald zu erledigen. [LACHT] Wie Sie wahrscheinlich wissen, war es eine 17-jährige Reise. Ich habe also 2004, 2005 in der Eye-Tracking-Branche angefangen. Ich glaube, wir waren damals auf einigen Messen vertreten, auf der AIF und der MIA und all diesen. Daran erinnere ich mich noch.

Aber seitdem war es eine wilde Fahrt – viele Höhen und Tiefen, wie es bei den meisten Start-ups der Fall ist. Seit 2011 sind wir jedoch profitabel und wachsen jedes Jahr erheblich. Es war also eine ziemlich spannende [UNVERSTÄNDLICH] Strategie, die natürlich viele Unternehmen nicht verfolgen. Aber genau deshalb haben wir die Corona-Krise auch so gut überstanden, denn wir sind ein sehr stabiles Unternehmen und hatten über viele Jahre hinweg zahlreiche Kunden, die uns unterstützt haben.

Vielleicht sollte ich kurz erklären, was iMotions ist – für alle, die es noch nicht wissen. Im Grunde genommen sind wir ein Softwarehaus. Unser Schwerpunkt liegt also auf Software. Angefangen haben wir mit Eye-Trackern und Eye-Tracking. Heute beschäftigen wir uns jedoch mit dem, was man als multimodale Forschung bezeichnet. Das heißt, wir vereinen viele verschiedene Biosensoren in einer einzigen, benutzerfreundlichen Softwareplattform.

Wenn Sie zum Beispiel eine Website haben, können Sie diese testen. Mithilfe des Eye-Trackers können wir genau messen, wohin die Blicke der Nutzer wandern. Und dann könnten Sie beispielsweise den GSR einsetzen, ein Signal, das als galvanische Hautreaktion bezeichnet wird und das gewissermaßen die Intensität Ihrer emotionalen Reaktion misst. Wenn Sie frustriert oder gereizt sind, steigt Ihr GSR-Wert bzw. Ihre Erregung.

Außerdem messen wir auch den Gesichtsausdruck. Wir arbeiten zum Beispiel mit Affectiva und Realeyes zusammen, vor allem aber mit Affectiva. Diese Firma hat eine Gesichtsausdrucks-Engine entwickelt, die anhand Ihres Gesichtsausdrucks viele Dinge erfassen kann, wie zum Beispiel das Zusammenziehen der Augenbrauen, wenn Sie beim Betrachten der Website frustriert sind, oder Freude und so weiter.

Das ist also die Grundlage unseres Unternehmens. Wie bereits erwähnt, konzentrieren wir uns auf Software, haben aber auch ein umfangreiches Netzwerk von Lieferanten aufgebaut. Alle Hardware-Anbieter, an die sich Forscher aus dem akademischen oder kommerziellen Bereich wenden, haben wir mehr oder weniger in unsere Plattform integriert. Wir sind also eine zentrale Anlaufstelle für alle, die in die biometrische Forschung einsteigen möchten. Sie können sowohl die Hardware als auch die Software bei uns erwerben, sodass wir Ihnen beim Aufbau Ihres Labors behilflich sein können.

Darüber hinaus sind wir jedoch nicht nur auf Laborsoftware beschränkt. Wir bieten auch eine Online-Lösung an, die Gesichtsausdrücke, Eye-Tracking und Umfragen kombiniert, sowie unsere mobile Plattform, auf der man im Grunde genommen – das ist die Zukunft des Forschungslabors – ein Smartphone nutzen und Sensoren über einen längeren Zeitraum tragen kann, sodass Längsschnittstudien der Vergangenheit angehören. Das sind also gewissermaßen die drei wichtigsten Entwicklungsbereiche für unsere Forschungsprodukte.

Ja, genau, und dann hast du ja die M&A-Aktivitäten angesprochen. Wir haben uns also Gedanken darüber gemacht, wie wir das Unternehmen in Sachen Wachstum auf die nächste Stufe bringen können und so weiter. Da wir uns aus eigenen Mitteln finanzieren, war das eine ziemlich harte Zeit. Man muss erst mal Geld verdienen. Dann investiert man in neue Mitarbeiter für das Vertriebsteam. Das muss dann hochgefahren werden und so weiter.

Es ist natürlich auch ein steiniger Weg, aber sozusagen ein sehr sicherer. Deshalb wollten wir herausfinden, wie wir das Wachstum und das Potenzial dieser Art von Verhaltensforschung – oder des Marktes für Verhaltensforschung – in Zukunft ankurbeln könnten. Und genau aus diesem Grund wurden wir nun von Smart Eye übernommen.

Und ich kann vielleicht kurz darüber sprechen, was Smart Eye bisher gemacht hat. Außerdem – nun ja, das Unternehmen gibt es schon seit 22 Jahren oder so. Martin, der CEO von Smart Eye, ist also schon seit 22 Jahren dabei. Ich bin dagegen noch ein Teenager. Ich arbeite erst seit 17 Jahren in der Branche. [LACHT] In dieser Beziehung bin ich also der Teenager.

Bislang haben sie Eye-Tracker vor allem für hochspezialisierte Forschungslabore wie die NASA und ähnliche Einrichtungen entwickelt, aber auch für viele Automobilunternehmen – also für [UNVERSTÄNDLICH] Zwecke. Auf dieser Grundlage haben sie dann den Sprung in die Automobilindustrie geschafft. Im Grunde genommen sind sie weltweit führend bei Sicherheitssystemen in Autos, den sogenannten Fahrüberwachungssystemen – also im Grunde genommen der Kamera, die einen hinter dem Steuer beobachtet. Und laut Gesetz muss man, ich glaube bis 2025, sowohl in der EU als auch in den USA tatsächlich ein Fahrüberwachungssystem in den Autos haben. Es ist also ein super spannender Bereich, in dem man arbeiten kann.

Und dann der dritte Teil dieser – man könnte sagen – M&A-Aktivitäten: Tatsächlich hat Smart Eye Affectiva übernommen – was die meisten von Ihnen sicher auch wissen –, vielleicht vor allem wegen der Medienanalyse-Websites, auf denen sie eine Engine zur Erkennung von Gesichtsausdrücken für Werbetests, Videoanzeigen und so weiter entwickelt haben – unter anderem für Trailer-Tests und Ähnliches. Tatsächlich lag ihr Schwerpunkt aber auch auf der Automobilindustrie.

Aber sie beschäftigen sich nicht mit Fahrüberwachungssystemen. Sie gehörten eher zur nächsten Generation von Technologien, die als „Innenraumüberwachung“ bezeichnet wird. Es geht also im Grunde genommen um eine umfassendere Beobachtung des gesamten Fahrzeugs, sodass man beispielsweise erkennen kann, ob sich ein Baby im Auto befindet – das System weiß dann, dass ein Baby im Auto ist. Wenn man das Auto also bei 38 Grad Celsius draußen stehen lässt, würde das Auto einen warnen, denn leider sterben jedes Jahr tatsächlich 50 Babys daran.

Das nennt man also „Interior Sensing“ im Fahrzeuginnenraum. Man kann also sagen, dass es sowohl eine Übereinstimmung zwischen den drei Unternehmen in Bezug auf die Automobilindustrie gibt, als auch in Bezug auf die Verhaltensforschung und die multimodale Forschung. Das ist wirklich unglaublich spannend. Ich kann – das betrifft wohl hauptsächlich die Verhaltensforschung, denke ich, aber ich glaube – also vielleicht kann ich hier noch kurz auf den automobiltechnischen Aspekt eingehen.

Die nächste Generation davon – die erste war das Fahrerüberwachungssystem. Als Nächstes kommt die Innenraumüberwachung. Und genau darin war Affectiva wirklich einer der weltweit führenden Anbieter. Und die nächste Welle ist sozusagen eine Art multimodale Fahrzeugsicherheit, bei der man mehr Sensoren im Fahrzeuginneren hat. Und genau hier kann iMotions natürlich wirklich wichtiges Know-how einbringen, nämlich die Kombination verschiedener Sensoren und Bildraten und so weiter für die nächste Generation im Automobilbereich.

Das ist also total spannend. Ja, und es ist wirklich cool. Ich habe mit beiden Ranas zusammengearbeitet – sie sind persönliche Freunde, Rana und Martin Krantz von Smart Eye. Und ich freue mich darauf, dass wir künftig gemeinsam mit dem CFO das Führungsteam leiten werden, mit den drei Unternehmen zusammen. In gewisser Weise ist es also eher wie eine Fusion dreier Unternehmen. Aber natürlich handelte es sich hierbei um eine Übernahme.

Aber ich sehe darin eine langfristige Zukunft für iMotions. Und ich bin nach wie vor sehr begeistert davon und hoffe, noch viele Jahre dabei zu bleiben und weiter am Aufbau zu arbeiten. Aber jetzt, da die Plattform tatsächlich an der Börse notiert ist, nicht wahr? Da Smart Eye an der Börse notiert war, konnte dieser Deal sozusagen auch zustande kommen. Und nun sind alle drei Unternehmen dort vertreten. Ja, und es ist natürlich möglich, bei Bedarf erhebliche Mittel für die Zukunft zu beschaffen.

Also ja, das ist kurz gesagt die Situation – ich meine, derzeit haben wir bei iMotions etwa 1.300 Kunden in 80 Ländern. Jetzt geht es darum, wie wir diese Zahl auf 5.000 oder 10.000 Kunden steigern und dann weiter vorankommen können.

Lenny Murphy: Ja, das ist eine spannende Geschichte, nicht wahr? Und da ich euch alle drei kenne, insbesondere Rana – ich meine, Rana betrachte ich seit Jahren als eine persönliche Freundin. Und ich finde es einfach toll, wenn großartige Menschen zusammenkommen, um Großes zu leisten. Das ist also ebenso herzerwärmend wie aus geschäftlicher Sicht spannend.

Aus dieser Perspektive betrachtet gab es meiner Meinung nach bis 2020 zwei Arten von aufstrebenden Kategorien in der Branche. Die eine war die digitale qualitative Forschung in all ihren Ausprägungen, die andere die Messung unbewusster Prozesse, die damals noch nicht in großem Maßstab umgesetzt wurde – es gab viele coole Innovationen und jede Menge großartige Aktivitäten.

Und das ist mir definitiv aufgefallen – ich meine, auf der qualitativen Seite war es offensichtlich, dass [SCHNIPPT MIT DEN FINGERN] ja, das sich umgekehrt hat. Aber es war – ich habe erwartet, und ich glaube, das hast du auch bestätigt, dass, als die Welt aus der Not heraus digital wurde, Eye-Tracking und Facial Coding und einfach das Verstehen emotionaler Zustände im Allgemeinen, wenn alle irgendwie denken: „Ah, die Welt verändert sich so schnell, und die Reaktionen und das Verhalten der Verbraucher ändern sich so schnell“, ebenfalls sehr gefragt werden würden. Und ich glaube, wir haben gesehen, wie sich das in der gesamten Kategorie ausgewirkt hat.

Andere Unternehmen in Ihrer Branche setzen auf Varianten desselben Themas, sei es implizite oder gesichtsbezogene Kodierung, Eye-Tracking oder die galvanische Hautreaktion – was auch immer der Fall sein mag. Alle – diese steigende Flut hat alle Boote angehoben.

Peter Hartzbech: Ja.

Lenny Murphy: Und du bist also ein Vorbild, denn genau das passiert, wenn solche Entwicklungen einsetzen – dann kommt es zu Konsolidierungen, um Synergien zu nutzen und das Ganze weiter auszubauen. Es ist also spannend zu sehen, wie du das umsetzt. In dieser Branche ist es an der Zeit, dass solche Entwicklungen stattfinden. Und ich finde das unglaublich bahnbrechend und interessant. Hut ab!

Peter Hartzbech: Nun, danke, danke. Ja, und ich denke, wenn ich das noch ergänzen darf: Dieser Markt war anfangs sehr fragmentiert, nicht wahr? Es gab einige wenige Unternehmen, die Hardware für Eye-Tracking anboten. Sie führten zwar Eye-Tracking-Messungen durch, aber darüber hinaus auch einige Analysen. Es gab GSR-Unternehmen und EEG-Unternehmen. Es war alles sehr fragmentiert, und niemand hat wirklich zusammengearbeitet, nicht wahr?

Und dann kam iMotions etwa 2011 ins Spiel und dachte: „Okay, wie können wir all diese Dinge mit einem eher horizontalen Ansatz verbinden?“ Und jetzt, da wir die Technologien an einem Ort zusammenführen, möchte ich jedoch betonen, dass wir sehr darauf bedacht sind, unsere Ökosysteme zu erhalten. iMotions wird also weiterhin eigenständig agieren. Das ist auch der Grund, warum ich CEO geblieben bin, und das gesamte Team und Management bei iMotions ist dasselbe geblieben, denn es ist uns sehr wichtig, diese Hardware-Partner und andere Software-Algorithmen zu haben, damit wir sicherstellen können, dass der Forscher das bestmögliche Produkt erhält, nicht wahr?

Aber natürlich gibt es langfristig gesehen viele Möglichkeiten, wie wir dazu beitragen können, die Produkte in die richtige Richtung zu lenken, sowohl im Bereich der Mimik als auch beim Eye-Tracking. Aber ich denke, genau das ist das Spannende daran: dass es auch Möglichkeiten gibt, neue Geschäftsmodelle zu entwickeln, und dass man, wenn man sowohl die Technologie als auch die Software selbst kontrolliert, auch präzisere Geschäftsmodelle schaffen kann, die den Bedürfnissen der Kunden besser entsprechen. Und ich denke, das ist vielleicht eines der Dinge, mit denen die meisten zu kämpfen hatten.

Wenn man zum Beispiel ein Eye-Tracking-Unternehmen betreibt, muss man teure Hardware verkaufen und dazu noch ein bisschen Software anbieten. Aber man muss jedes Jahr wieder bei Null anfangen. Es ist sehr schwer, wiederkehrende Umsätze zu erzielen und ein großes, nachhaltiges Unternehmen aufzubauen. Deshalb glaube ich, dass die Kombination dieser drei Unternehmen wirklich sehr, sehr spannend sein wird.

Lenny Murphy: Ja. Nun – ich möchte zwar auf die Zeit achten, aber es gibt hier auch zwei Dinge, die interessant sind. Ich glaube nämlich, dass es in diesem Bereich auch einen Aspekt gibt, der für Leute aus dem Gesundheits- und Wellnessbereich und insbesondere aus der Diagnostik von Bedeutung ist – also, wie wird sich das weiterentwickeln, wenn man das weiter untersucht? Als jemand mit einer neurologischen Erkrankung finde ich es interessant, darüber nachzudenken. Also ja.

Peter Hartzbech: Also, für mich persönlich ist das sehr wichtig. Natürlich kann ich nicht genau kontrollieren, was gemacht wird. Aber der ursprüngliche Grund, warum wir auf multimodale Ansätze umgestiegen sind und tatsächlich die multimodale Lösung von iMotions entwickelt haben, war, dass meine Mutter an Parkinson gestorben ist, nicht wahr? Und man konnte all diese körperlichen Anzeichen sehen, aber wir konnten – sie konnte es nicht in Worte fassen. Und wissen Sie, erst nach dem Tod konnte man tatsächlich die Diagnose stellen.

Also, für die betroffenen Familien ist es ja schon ein Problem, dass sie einfach nicht wissen, was los ist, oder? Man kann sie also nicht behandeln. Man kann mit diesen Patienten nicht arbeiten. Das ist wirklich ein ganz wichtiger Teil der Vision von iMotions. Und wir hoffen, dass wir auch weiterhin viel in dieser Richtung tun können.

Ich sehe das so, dass iMotions im Allgemeinen in der Forschung und Entwicklung tätig ist – also beispielsweise im Gesundheitswesen, aber auch in der Gaming-Branche und vielen anderen Branchen. Speziell im Gesundheitswesen haben wir jedoch bereits viele Kunden, sowohl im akademischen als auch im kommerziellen Bereich, die unsere Software tatsächlich nutzen, um Autismus, Alzheimer, Parkinson, Zwangsstörungen, posttraumatischen Stress und all diese Erkrankungen zu diagnostizieren. Das ist meiner Ansicht nach ein sehr wichtiger Teil der Zukunft.

Und wann genau das sein wird, ob es überhaupt dazu kommt und wie es ablaufen wird – das weiß ich natürlich nicht. ABER zumindest auf der Ebene von Forschung und Entwicklung geht es darum, dies fortzusetzen und nicht nur das Laborprodukt, sondern auch das Smartphone-Produkt weiterzuentwickeln, denke ich. Das Labor nutzt das Smartphone für Langzeitstudien. Man kann die Patienten zu Hause beobachten, sie tragen also die Patches und so weiter, während man das Smartphone nutzt. Ich denke, das ist ein wirklich, wirklich wichtiger Teil der Zukunft für iMotions und die Gruppe.

Lenny Murphy: Das ist spannend. Weißt du, ich weiß nicht, wie es dir geht, aber – großen kommerziellen Erfolg zu haben und gleichzeitig Gutes zu tun – das ist meiner Meinung nach die beste Kombination, die es gibt.

Peter Hartzbech: Genau. Und ich glaube, diese drei Unternehmen – das ist einer der Gründe, warum wir das auch gemacht haben. Ich denke, aus Sicht von iMotions ist es so: Ich kenne Rana, wie gesagt, sehr gut, und Martin auch. Und das sind wirklich tolle Leute, die ebenfalls die Welt verändern und Leben retten wollen und so weiter.

Die Unternehmenskultur und die Vision der drei Unternehmen sind also bereits sehr gut aufeinander abgestimmt. Natürlich birgt so etwas ein großes Risiko. Aber ich bin auch in dieser Hinsicht sehr zuversichtlich, da unsere Teams seit vielen Jahren unternehmensübergreifend zusammenarbeiten. Ich glaube, wir haben mehr als sieben Jahre mit Affectiva zusammengearbeitet und das Unternehmen in den akademischen Markt eingeführt. Und mit Smart Eye sind es, glaube ich, mittlerweile etwa fünf Jahre. Mit Menschen zusammenzuarbeiten, die die Welt verändern wollen und groß denken, das ist wirklich spannend.

Lenny Murphy: Auf jeden Fall. Also, ich weiß nicht, wie es dir geht, aber je älter ich werde, desto mehr gilt für mich: Ich möchte nur Dinge tun, die mir Spaß machen, und zwar mit Menschen, die ich mag.

Peter Hartzbech: Ja.

Lenny Murphy: Nun, natürlich läuft das Leben nicht immer so. Aber es ist auf jeden Fall ein erstrebenswertes Ziel.

Peter Hartzbech: Und es ist [UNVERSTÄNDLICH]

Lenny Murphy: Ja. Also, letzte Frage – lassen Sie uns die letzten paar Minuten darüber sprechen. Es gibt derzeit jede Menge Diskussionen und Aktivitäten rund um das Metaversum. Für diejenigen, die vielleicht „Ready Player One“ gelesen oder den Film gesehen haben: Das ist der Kontext, an den ich denke – okay, wir werden das OASIS aufbauen, also dieses Konstrukt, oder „Matrix“. Ich weiß nicht, welches davon [LACHT] vielleicht zutreffender ist. Aber was die Funktionsweise dieser Technologie angeht, scheint es sicherlich eine unglaublich vielversprechende Möglichkeit für die Integration verschiedener biometrischer und unbewusster Messungen sowohl in Hardware als auch in Software zu sein.

Also, mal ganz allgemein: Wenn wir in den nächsten fünf Jahren alle VR-Headsets haben, weil Zuckerberg beschließt, dass er alles darauf setzt – wie würde das aussehen, insbesondere aus Sicht der Forschung? Ich meine, ich kann mir vorstellen, wie sich der Regaltest verändern würde, wenn alles auf VR basiert. Ich denke, solche Dinge können gleichzeitig wirklich spannend und beängstigend sein. Was denkst du darüber?

Peter Hartzbech: Ja, wir beschäftigen uns also schon seit, ich würde sagen, vielleicht vier oder fünf Jahren mit VR. Angefangen hat alles mit einigen VR-Headsets, die fast schon selbst gebastelt waren. Damit haben wir angefangen und haben Eye-Tracking eingesetzt. Heute, zum Beispiel mit dem Varjo-Headset, ist es wirklich wie im echten Leben. Es sieht so aus, als stünden wir beide hier, oder?

Die Technologie ist also vorhanden. Was die Preise angeht, muss wahrscheinlich noch etwas nachgegeben werden, damit das Ganze Realität wird. Aber schon jetzt gibt es in den VR-Headsets eine extrem präzise Eye-Tracking-Funktion. Diese wird auch für das Rendering genutzt, um es optimaler zu gestalten – damit beispielsweise nicht zu viel gerendert wird, wo man gerade nicht hinschaut.

Ich denke also, dass Eye-Tracking generell eine Kernkomponente von VR ist. Aber ich denke natürlich auch an andere Sensoren, wie wir bereits besprochen haben – ich kenne viele Unternehmen, die sich mit bestimmten Pflastern beschäftigen, die man hier anbringen kann. Damit lassen sich beispielsweise Gesichtsausdrücke erfassen oder, wenn das Gesicht warm wird, die Erregung messen und so weiter. Es besteht also kein Zweifel, dass sich auch das weiter verbreiten wird. Und ich denke, wenn das im Metaversum und so weiter passieren soll, würde ich die Entscheidung darüber Zuckerberg überlassen. Aber wenn es in kleinerem Maßstab geschieht, sind wir darauf vorbereitet. Wir sind auch auf den größeren Maßstab vorbereitet.

Aber natürlich mache ich mir auch ein bisschen Sorgen um den Datenschutz, denn es ist schon ein wenig beängstigend, wenn man da sitzt und man im Grunde alles, was gerade passiert, und alles, was man sich ansieht, und so weiter, vollständig nachvollziehen kann. Und weißt du, ich persönlich bin ein bisschen – ich finde es eher gut, dass es eine Anwendung gibt, die nützlich ist, und die Leute sich dafür entscheiden, daran teilzunehmen, oder? Nehmen wir zum Beispiel die Diagnose mittels VR, wenn man unter posttraumatischem Stress leidet oder Arachnophobie hat – da kommt eine Spinne auf einen zu, und man kann sich selbst trainieren.

Ich glaube, solche Anwendungen haben ein riesiges Potenzial. Und das wird auf jeden Fall passieren. Darauf konzentrieren wir uns derzeit vielleicht am meisten. Ich denke also, es wird einige Diskussionen zum Thema Datenschutz geben, wenn wir eines Tages in dieses riesige OASIS-Netzwerk einsteigen und einfach von zu Hause aus daran teilnehmen. [LACHT] Aber ja, es ist wirklich spannend.

Für Forschungszwecke ist es jedoch bereits relativ beliebt. Natürlich befindet es sich noch in einem frühen Stadium, aber wir haben dennoch viele Kunden, die sich derzeit damit beschäftigen. Und wie Sie bereits sagten, wird es beispielsweise für Selbsttests und Ähnliches bereits von vielen großen Konsumgüterunternehmen eingesetzt und so weiter.

Ich denke aber, die Herausforderung besteht darin, wie man solche Umgebungen – wie zum Beispiel virtuelle Umgebungen – schnell erstellen kann, etwa mit Unity.

Lenny Murphy: Nicht skalierbar. Ja.

Peter Hartzbech: Unity muss sich noch ein bisschen weiterentwickeln, damit sich auch normale Forscher damit beschäftigen können. All das, was man in einer so umfangreichen Bibliothek von Standards vorfindet – auch für Knieoperationen oder was auch immer man für Trainingszwecke nutzen möchte –, muss noch viel weiter ausgebaut werden. Und genau das ist es im Grunde, was das Ganze derzeit ein wenig bremst: dass die Leute viel Zeit aufwenden müssen, um beispielsweise einen Operationssaal für einen Arzt zu erstellen, in dem er eine Knieoperation durchführen muss. Das kann Monate oder ein halbes Jahr oder länger dauern. Das ist also der Punkt, an dem es etwas schneller vorangehen muss. Und dann denke ich, dass es definitiv klappen wird.

Lenny Murphy: Ja. Ja, da stimme ich voll und ganz zu. Das war schon immer die Herausforderung, selbst bei den – vor 15 Jahren haben wir diese virtuellen Magazin-Blätterfunktionen noch in Flash umgesetzt, oder? Aus wissenschaftlicher Sicht toll und interessant, aber die Umsetzung war unglaublich zeitaufwendig und teuer. Also stimme ich zu, das war schon immer so – Gamification als Ganzes, diese Idee, es ist diese Rendering-Komponente

Peter, das war großartig. Ich glaube, wir beide könnten noch ewig so weitermachen. Und hoffentlich ergibt sich bald wieder eine Gelegenheit dazu. Ich würde mich sogar sehr freuen, irgendwann einmal ein Gespräch zu dritt mit dir, Rana und Simon zu führen.

Peter Hartzbech: Los geht’s.

Lenny Murphy: Ja, machen wir das. Aber Hut ab. Ein großes Lob. Du hast eine Barriere in der Branche durchbrochen, die durchbrochen werden musste, um Skaleneffekte zu erzielen und zu zeigen, dass diese Technologien definitiv vielfältige Anwendungsmöglichkeiten haben – nicht nur im Forschungsbereich –, und dass sie auf breiter Front ein unglaublich spannendes Geschäftsmodell darstellen können. Herzlichen Glückwunsch also zu all dem Erfolg.

Peter Hartzbech: Vielen Dank.

Lenny Murphy: Und vielen Dank, dass Sie sich heute Zeit für uns genommen haben.

Peter Hartzbech: Es dreht sich alles um das Team, Mann. Das Team hat das geschafft. Deshalb möchte ich ihnen meinen Dank aussprechen. Also ja, super. Vielen Dank.

Lenny Murphy: Danke, Peter. Ich denke, es ist noch nicht zu früh, euch frohe Feiertage zu wünschen. Wir haben es also fast geschafft.

Peter Hartzbech: [UNVERSTÄNDLICH] Ich wünsche Ihnen frohe Feiertage.

Lenny Murphy: Das können wir ruhig sagen. In Ordnung, vielen Dank. Ich wünsche Ihnen einen schönen Tag.

Peter Hartzbech: Danke.

Lenny Murphy: Tschüss. Tschüss.


Get Richer Data

About the author

iMotions

Written by:

iMotions


Erfahren Sie, was als Nächstes in der Verhaltensforschung kommt

Abonnieren Sie unseren Newsletter, um die neuesten Erkenntnisse und Veranstaltungen direkt in Ihr Postfach zu erhalten.