オンライン面接:オンラインでの感情的関与と感情の向きを効果的に測定する方法

AIを活用した生体認証研究の実践ガイド

オンライン面接では自己申告に頼ることが多いが、感情的な関与や感情の極性は言葉で表現するのが難しい。本稿では、iMotionsとaudEERINGが、標準的なウェブカメラとマイクを用いて、表情や声の分析を通じて感情的反応をリアルタイムかつ客観的に測定する仕組みについて考察する。

はじめに:人々の言葉には限界がある

オンラインインタビューやフォーカスグループは、市場調査、UX、コミュニケーション、社会科学の分野において、質的調査の主流の手法となっています。しかし、回答者の発言のみに依存することには根本的な問題があります。それは、人間は自分の感情状態を正確に伝えるのが極めて苦手だということです。人は自分の感情を合理化したり、自己検閲したり、社会的規範に合わせたりするほか、時には実際に感じていることを表現する言葉そのものが不足していることもあります。

感情の価値(感情がどの程度肯定的または否定的であるか)と、感情的関与(その人が体験にどれほど深く没頭しているか)は、研究者がインタビューで捉えることができる最も重要な指標の2つである。しかし、従来のインタビュー手法では、事後の自己報告や熟練したモデレーターによる主観的な解釈に頼るため、これら2つの要素はほぼ完全に測定されていないのが現状である。

AIを活用した新世代の生体認証ツールが、この状況を一変させようとしている。表情分析(FEA)と音声ベースの感情AIを組み合わせることで、研究者は標準的なウェブカメラとマイクを使用し、オンライン面接中の感情の「価値(ヴァレンス)」や「関与度」を客観的かつリアルタイムに測定できるようになった。

iMotionsでは、この変化が、マルチモーダル行動データと高度な音声分析技術の統合が進んでいることに表れていると考えています。当社のさまざまなプラットフォームを活用し、AIを活用した音声・音声分析の分野でドイツを拠点とする専門企業であるaudEERINGなどのパートナーと連携することで、研究者は生理的信号、行動信号、音声信号を組み合わせ、人間の反応をより深く理解することが可能になります。

1. エンゲージメントとは何か?

方法論について詳しく説明する前に、アフェクティブ・サイエンスの文脈において、これらの用語が具体的に何を意味するのかを明確にしておく価値がある。

原子価

「ヴァレンス」とは、感情状態のポジティブさまたはネガティブさを指す。これは、感情研究で広く用いられている枠組みである「感情サーカムプレックスモデル」の2つの主要な次元(もう一方は「覚醒度」)の一つである。心温まる物語を見ている人は、高いポジティブ・ヴァレンスを示している。 一方、イライラするような取扱説明書を読んでいる人は、負のヴァレンスを示す。ヴァレンスは強度とは区別され、人は「ほのかに幸せ」(正のヴァレンス、低覚醒)を感じたり、「激しく喜び」(正のヴァレンス、高覚醒)を感じたりすることがある。

インタビューの文脈において、ヴァレンスとは、回答者がどのような発言をしたかに関わらず、あるトピック、刺激、あるいは質問に対して示した感情的な反応が、根本的に好ましいものか、それとも好ましくないものかを示す指標です。この区別は非常に重要です。なぜなら、回答者は製品について「まあまあ」と表現しながらも、その話題について話し合っている間中、顔に否定的な感情を表している可能性があるからです。

エンゲージメント

行動研究において測定される「エンゲージメント」とは、ある刺激や状況に対して、人が示す表現力や積極的な関与の度合いを指します。これは、単にその体験に対してどのような感情を抱いているかだけでなく、その体験にどれほど「没頭」しているかを捉えるものです。エンゲージメントの高さは、肯定的でも否定的でもあり得ます。例えば、激怒している人はエンゲージメントが高く、退屈している人はそうではありません。

インタビュー調査において、エンゲージメントは関連性や重要性の指標となります。エンゲージメントが高いトピックは、参加者にとって重要なトピックです。回答者が詳細な口頭での回答をしているにもかかわらず、エンゲージメント指標が横ばいとなるトピックは、回答者が感情的にではなく、知的に処理しているトピックである可能性があります。

性的興奮と支配

感情研究で一般的に用いられる3つ目の次元は「覚醒度」であり、これは感情状態に伴う生理的・心理的な活性化のレベルを指す。リラックスや退屈は低覚醒度の端に位置し、興奮や怒りは高覚醒度の端に位置する。あまり一般的ではないが、4つ目の次元として「支配感」があり、これは人が状況をどの程度コントロールできていると感じているかを表す。

覚醒度と支配性は、いずれも声の特性から測定可能です。iMotionsの音声分析モジュールに統合されたaudEERINGのデバイス技術は、3つの次元(価値、覚醒度、支配性)すべてを、連続的な尺度でリアルタイムに出力します。この感情表現の3次元的な全体像は、「幸せ」や「悲しい」といった単純な分類ラベルよりも、はるかに多くのニュアンスを捉えることができます。

2. 2つの信号源:顔と声

オンライン面接中に、感情的な関与や感情の価値を遠隔で測定できる主な非侵襲的な手段は、参加者の顔と声の2つです。これらはウェブカメラとマイクを通じて記録されます。

表情――オンライン面接の参考資料

表情分析(FEA)

表情分析では、コンピュータビジョンを用いて、顔の筋肉の動きをリアルタイムで検知・定量化します。その科学的根拠となっているのは、心理学者ポール・エクマンとウォレス・フリーゼンによって開発された「顔面動作コーディングシステム(FACS)」であり、これは目に見えるすべての顔の筋肉の動きについて、解剖学に基づいた客観的な分類体系を提供しています。これらは「アクション・ユニット(AU)」と呼ばれています。

FACS(顔面行動分類システム)に基づくシステムは、単に「笑顔」とラベル付けするのではなく、表情を構成する具体的な筋肉の動きを特定します。例えば、頬を持ち上げると同時に口角を引き上げる動きは、喜びを表しています。 iMotionsは、現在利用可能な自動顔面コーディングシステムの中で最も広く検証されているAffectiva社のAFFDEXエンジンを統合しており、1フレームあたり最大20のアクションユニットを検出するとともに、7つの主要な感情分類(喜び、怒り、恐怖、驚き、悲しみ、軽蔑、嫌悪)に加え、特に重要な点として、感情の価値(ヴァレンス)と関与度(エンゲージメント)に関する複合指標も検出します。

iMotions FEAが測定する項目

  • 7つの基本感情:喜び、怒り、恐怖、驚き、悲しみ、軽蔑、嫌悪
  • 最大20のアクションユニット(AU) — 筋肉の動きに関する生データ
  • ヴァレンス — ポジティブからネガティブへと連続する感情の基調
  • エンゲージメント — 参加者の表現力と積極的な関与
  • 頭の姿勢とまばたきの指標
  • 3D頭部姿勢および注視位置のインジケーター
7つの基本的な感情 — FACSアクションユニット
喜び

重要な点として、iMotions FEAは、本格的なデスクトップラボ環境だけでなく、オンラインおよびリモートデータ収集(RDC)プラットフォームを通じて、参加者のウェブカメラを介してブラウザ上で直接実行することも可能です。これにより、特別なハードウェアや参加者の移動を必要とせずに、FEAを世界規模で大規模に展開することが可能になります。

オンライン面接における音声分析

音声分析:隠された感情のサイン

表情が感情の外的な表れを捉える一方で、人間の声には、それとは並行し、かつ補完的な感情情報の流れが込められており、これは回答者が意識的にコントロールするのがより難しいものです。声の高さ、話す速度、音量、抑揚といった声の特徴は、感情の状態に応じて体系的に変化し、感情タグが付けられた音声の膨大なコーパスで学習されたAIシステムによって、これらの変化を検出し、定量化することが可能です。

iMotionsの音声分析モジュールは、audEERINGのdevAIceテクノロジーを採用しています。 2012年にミュンヘン工科大学からスピンオフして設立されたaudEERINGは、10年以上にわたり、音声表現分析のためのAIモデルの構築と検証に取り組んできました。同社のdevAIceプラットフォームは、発声、調音、韻律といった音声の側面を網羅する約7,000の音響パラメータを分析し、現在利用可能な音声分析システムの中でも最も包括的なものの一つとなっています。

iMotionsボイス分析(audEERINGデバイス)が測定する項目

  • ヴァレンス — 声に込められた感情のニュアンス(ポジティブからネガティブまで)
  • アロウサル — 音声信号に含まれる活性化度またはエネルギーレベル
  • 支配性 — 話し手の声から感じられる支配力や自信
  • 感情の状態(カテゴリー別):怒り、喜び、悲しみ、無感情
  • 韻律的特徴:音高、音量、話し速度、およびイントネーション
  • 話者の特徴:推定年齢と性別

devAIceシステムは、2つのモデルを同時に稼働させます。1つは、声を覚醒度、感情の極性、支配性の連続的な尺度上に位置づける次元モデルであり、もう1つは、声を離散的な感情カテゴリに分類するカテゴリカル分類器です。この二重のアプローチにより、同一の分析プロセスにおいて、微妙なニュアンスを含む連続データと、解釈可能なカテゴリカルな出力の両方を提供します。

両方のチャネルが重要な理由:マルチモーダル戦略の利点

顔と声には、重なり合いながらも明確に区別できる感情情報が込められている。人は、緊張した高揚感のある声で話しながらも笑顔を見せることがある。また、混乱や懸念に関連する「アクションユニット」である、わずかな眉間のしわを見せつつ、穏やかで落ち着いた口調で話すこともある。こうした不一致は、単なる方法論上のノイズではなく、意味のあるデータなのである。

コミュニケーション研究において、顔と声の感情信号が一致するか、あるいは不一致であるかという点自体が、一つの研究結果となります。顔と声の感情が一致している回答者は、本物の、統合された感情的反応を示している可能性が高いと言えます。一方、顔には肯定的な感情が表れているものの、声には高い興奮状態や中立的な感情が表れている回答者は、「ポジティブを演じている」可能性があり、つまり、あなたが聞きたいと思っていることを言っているだけかもしれません。

iMotionsプラットフォームは、顔の動きと音声データをミリ秒単位で同期させ、両方のデータストリームを刺激イベントや調査への回答と、単一の統合されたタイムライン上で整合させます。これにより、インタビューのどの瞬間においても、参加者が何を話したか、その表情が何を表していたか、声からどのような感情が読み取れるか、そしてどの刺激や質問に対して反応していたかを確認することができます。

3. 技術スタック:iMotions + audEERING

iMotions:研究プラットフォーム

iMotionsは、ある特定の課題を解決するために設立されました。それは、生体認証センサーによって、データ形式やサンプリングレート、ソフトウェアインターフェースが異なるという問題です。例えば、アイトラッキングと表情分析、そして生理的センサーを組み合わせたいと考える研究者たちは、統合作業の難題に直面していました。そこでiMotionsは、これらすべての信号を単一の環境で取り込み、同期させ、表示する統合プラットフォームを構築しました。

現在、iMotionsは世界トップ100大学の4分の3以上で採用されており、学術界や産業界の研究者から信頼を得ています。 その製品群には、iMotions Lab(研究室での研究向けの完全なデスクトップ環境)、iMotions Online/Education(教育および簡易な研究向けのブラウザベースのツール)、およびリモートデータ収集(RDC)プラットフォーム(インターネット経由でリモート展開される、研究室レベルの完全な機能)が含まれます。

オンラインインタビューには、「リモートデータ収集プラットフォーム」が適しています。このプラットフォームでは、ウェブカメラによるアイトラッキング、Affectiva AFFDEXを用いた表情分析、audEERING devAIceを用いた音声分析、およびウェブカメラによる呼吸測定を、すべて標準的なブラウザを通じて実施でき、参加者にソフトウェアのインストールは不要です。調査はiMotions Labソフトウェアで設計し、共有リンクを介して配信し、iMotionsの完全な分析環境で解析を行います。

audEERING:音声AIのパイオニア

ミュンヘン近郊のギルヒングに本社を置くaudEERING GmbHは、AIを活用した音声分析分野のマーケットリーダーです。同社はミュンヘン工科大学での学術研究を基盤として発展し、20年にわたる研究実績を有しています。同社の主力製品である「devAIce」は、iMotionsの「Voice Analysis Module」を支えるエンジンとなっています。

devAIceは、SDK、Web API、およびゲームエンジンやXRプラットフォーム向けのプラグインとして利用可能です。iMotionsのRDC環境内では、統合モジュールとして動作します。参加者の音声データは研究者のハードウェア上でローカルに処理されるため、データの主権が確保され、GDPRへの準拠が保証されます。音声データが外部サーバーに送信されることはありません。

iMotionsとaudEERINGの提携は、2023年8月に発表されました。 audEERINGのCEO、ダグマー・シュラー氏は次のように述べています。「両社が協力することで、科学的なプロセスの改善に大きく貢献し、人間行動分析の新たな時代を切り拓いていきます。」この統合は自然な流れでした。iMotionsには最高水準の音声AIコンポーネントが必要であり、audEERINGには、科学および商業研究の現場で自社の技術を展開するための世界クラスの研究プラットフォームが必要だったからです。

4. 感情測定のためのオンライン面接調査の設計

iMotions RDCを使用すれば、オンラインインタビュー中に顔や声のデータを収集することは技術的には容易です。方法論上の課題は研究デザインにあり、収集したデータが解釈可能であり、参加者間で比較可能となるようインタビューを構成することにあります。

刺激の設計と標準化

生体反応を用いたインタビュー研究から得られる最も重要な教訓の一つは、インタビューの流れにばらつきがあるとデータの比較が困難になるという点である。参加者ごとに会話の流れが異なれば、特定の瞬間に感情的な反応を引き起こした要因を特定することは難しくなる。

iMotionsの調査およびUX実務者によるベストプラクティスの推奨事項では、提示されたコンセプト、再生された動画、または尋ねられた特定の質問といった重要な刺激の瞬間が、すべての参加者で一貫するようにインタビューを構成することが提案されています。iMotionsのスタディビルダーを使用すると、研究者は刺激(画像、動画、ウェブコンテンツ)をインタビューの流れに直接埋め込み、タイムライン上でこれらをイベントマーカーとしてマークすることができます。 これにより、感情データを特定の刺激と時間軸上で紐付けることが可能になり、特定の感情のピークが発生した瞬間に画面に何が表示されていたか、あるいはどのような質問が投げかけられていたかを正確に把握できるようになります。

ウェブカメラとマイクの設定

iMotions RDC によるデータ収集には、ウェブカメラとマイクのみが必要です。参加者は標準的なブラウザのリンクから調査にアクセスします。参加者側でのソフトウェアのインストールは不要です。このプラットフォームはブラウザのネイティブメディアAPIを利用しており、GDPRに準拠したデータ処理を行うため、ドイツと米国にサーバーを配置しています。

ウェブカメラを用いた有限要素解析(FEA)において、照明は最も一般的な品質上の問題です。被験者は、正面から光が当たる(背後からではなく)明るい環境にいる必要があります。iMotionsには、解析開始前にトラッキング状態の不良を検知するためのキャリブレーション手順と品質チェック機能が含まれています。

アンケートと生体認証の統合

自己報告データは、生体測定データを補完する上で依然として極めて重要な役割を果たしています。iMotions RDCには、尺度、動画、画像、分岐ロジックに対応した調査ツールが組み込まれており、サードパーティ製の調査プラットフォームとの連携も可能です。研究者は、インタビューの各セグメントの前、最中、後に調査項目を組み込むことができ、参加者が自覚的に報告した感情(明示的な自己報告)と、顔や声から読み取れる潜在的な感情とを直接比較することが可能になります。

この「三角測量」――明示的な自己報告と暗黙的な生体信号の併用――は、感情研究におけるゴールドスタンダードである。いずれの手段も単独では決定的なものではない。自己報告には合理化や社会的望ましさバイアスが生じやすく、生体信号は慎重な文脈解釈を必要とする。これらを併用することで、参加者の実際の感情体験について、はるかに詳細な全体像を把握することができる。

標本サイズの検討事項

オンラインでの生体認証調査は、実験室での調査では不可能な規模で展開できます。参加者が自身のデバイスから調査にアクセスするため、iMotions RDC を利用すれば、地理的・時間帯の制約を超えて同時に被験者を募集することが可能です。インタビュー調査の場合、パターンの特定には通常、20~50名のサンプルサイズで十分ですが、サンプル数を増やすことで、グループ間の比較における統計的な信頼性は向上します。

このプラットフォームはパネルプロバイダーとの連携に対応しており、標準的な市場調査インフラを通じてターゲット層のサンプルを募集しつつ、完全な生体認証データを収集することが可能です。

5. データの概要:主要指標と成果

表情の測定指標

iMotionsのFEAモジュールは、ウェブカメラのフレームレート(通常は毎秒15~30フレーム)で、各指標のタイムスタンプ付きスコアを出力します。iMotionsのシグナルビューアでは、これらはオーディオ、ビデオ、およびイベントマーカーと同期して、調査タイムライン上に重ねて表示される波形として表示されます。主な出力項目は以下の通りです:

  • ヴァレンススコア(連続変数、負から正):各フレームにおける感情の全体的な傾向
  • エンゲージメントスコア(連続変数、0~1):顔の表情の豊かさと没入度のレベル
  • 個々のAU強度スコア:詳細な分析のための生体筋活動データ
  • 感情確率スコア:7つの主要な感情それぞれに対する発生確率値
  • 頭の位置と注意の指標

研究者は、個々の参加者のタイムラインを可視化したり、参加者全体の信号を集計して感情のピークや谷を特定したりできるほか、iMotionsの「比較」タブを使用して、異なる刺激に対する感情反応や参加者グループ間の反応を比較することができます。

音声分析指標

音声分析モジュールは、音声信号から次元データおよびカテゴリカルな感情データを出力します。主な出力項目は以下の通りです:

  • 語調(連続的):話者の声に表れる肯定的または否定的なニュアンス
  • 興奮度(持続的):声のエネルギーや活性化のレベル
  • 支配性(持続的):声から感じられる自信や支配力
  • 感情のカテゴリー別ラベル:怒り、喜び、悲しみ、または無感情の分類
  • 韻律的特徴:音高、音量、発話速度、およびイントネーションの豊かさ

iMotionsプラットフォームには、インタビューの音声を文字起こしし、研究者が感情的に重要な単語やフレーズを特定できるようにする音声文字変換モジュールも搭載されています。これにより、声の興奮度のピークを、その瞬間に参加者が発していた正確な言葉と結びつけることが可能となり、遠隔調査環境ではこれまで不可能だった質的・量的データの統合を実現します。

クロスモーダル解析

iMotionsプラットフォーム上で顔面データと音声データが時間同期されているため、研究者はこれら2つのチャネル間の瞬間ごとの一致度を算出することができます。一般的な分析課題としては、顔面と音声の感情価値がいつ乖離するか、顔面の関与度が高い一方で音声の覚醒度が低い瞬間があり、それが感情的な処理ではなく知的な処理を示唆しているか、参加者はモダリティを超えて一貫した感情的反応を示しているか、あるいは印象管理を示唆するような体系的な不一致が見られるか、といった点が挙げられます。

6. インタビュー調査における実践的な応用

市場調査およびコンセプトテスト

市場調査担当者にとって、FEA(顔面表情分析)や音声分析を組み合わせたオンラインインタビューは、コンセプト、製品、あるいはキャンペーンについて回答者が述べた内容を検証したり、その真偽を問うたりする手段となります。例えば、ある回答者が製品コンセプトを「興味深い」と表現しながらも、議論の全編を通じて中立から否定的な表情の傾向を示し、関与度が低い場合、その回答者は真に興味を持っているのではなく、単に礼儀正しく距離を置いているだけである可能性があります。この見極めは、製品開発の意思決定の方向性を変えることになり得ます。

audEERINGの市場調査資料によると、感情の強度(valence)と興奮度(arousal)のスコアから、無関心、苛立ち、興奮、リラックスといった具体的な感情の側面を導き出すことができ、単なるカテゴリー別のアンケート回答だけでは得られない、より詳細な市場調査パラメータを提供できる。

通信およびメッセージのテスト

コミュニケーション研究において、メッセージが意図する感情的な影響と、聴衆の実際の感情的反応との整合性は、極めて重要な課題である。iMotionsのコミュニケーション・リサーチ・ラボでは、FEA(感情分析)と音声分析を組み合わせることで、メッセージ、演説、キャンペーンに対する聴衆の反応を測定している。これにより、研究者は、コミュニケーションのどの瞬間が肯定的な感情や関与を促し、どの瞬間が関与の低下や否定的な感情を引き起こしているかを、従来の調査手法では得られない「瞬間ごとの」レベルで特定することができる。

UXリサーチと思考発話法

ユーザーが製品を操作しながら自分の考えを声に出して述べる「思考発話法」は、UXリサーチの標準的な手法です。音声分析は、言葉の内容だけでは捉えきれない要素、すなわち参加者の発言に込められた感情の色合いを明らかにします。 「これでいい」という言葉を、苛立ちを帯びた高興奮状態の声で発するユーザーと、穏やかで肯定的な口調で同じ言葉を口にするユーザーでは、伝えている内容が異なります。iMotionsは、音声分析をアイトラッキングやFEA(感情分析)と統合することで、音声から読み取れる感情状態と、その瞬間にユーザーがどこを見ていたか、何を行っていたかを正確に照合することを可能にしています。

医療および遠隔医療の研究

音声分析は臨床研究において長い歴史を持ち、うつ病、パーキンソン病、アルツハイマー病などの疾患に関する音声バイオマーカーの検出に活用されてきました。 遠隔医療の面談において、患者と医療従事者のやり取り中に音声特性を受動的にモニタリングできることは、早期発見や経過観察の可能性を秘めています。audEERING社のdevAIceは医療研究の現場で活用されており、iMotions社のプラットフォームは、IRB(倫理委員会)の基準に準拠した臨床研究を支援するための研究デザインおよびデータ管理インフラを提供しています。

7. 倫理的配慮とデータガバナンス

顔表情データおよび音声記録は生体認証データに該当し、ほとんどの法域においてデータ保護規制の対象となります。欧州では、これらはいずれもGDPRの適用対象となります。米国では、多くの状況において州レベルの生体認証プライバシー法(イリノイ州BIPAを含む)が適用されます。iMotions FEAおよび音声分析を研究目的で利用するには、顔映像データと音声データの収集、保存、分析について、参加者から明示的なインフォームド・コンセントを得る必要があります。

生体認証を用いた面接調査を実施する際の主な倫理的要件には、以下のものが含まれる:

  • 学術研究および臨床研究におけるIRB(倫理委員会)の承認
  • 収集される特定の生体信号について、参加者が十分な情報を得た上での明示的な同意
  • 参加者に対して、データの保存および削除に関する方針を明確に伝達する
  • 可能かつ必要な場合は、データの匿名化を行う
  • AI分析ツールの活用とその限界に関する透明性

iMotionsのRDCプラットフォームは、データ主権に関する懸念に直接対応しています。音声および動画データは、研究者のハードウェア上でローカルに処理されます。同様に、iMotionsとの連携において、audEERINGのdevAIceもデフォルトで音声をローカルに処理するため、分析中に生体認証データがサードパーティのサーバーに送信されることはありません。欧州の研究者向けに、iMotionsは米国に加え、ドイツにもサーバーインフラを保有しています。

また、参加者と関係者に、感情の自動測定は決定論的ではなく確率論的なものであることを伝えることも重要です。FEA(顔面表情分析)や音声分析システムは、観察可能な信号、顔の筋肉の動き、音響的特徴を測定し、これらの信号から感情状態を推測します。こうした推測は確固たる科学的根拠に裏付けられていますが、決して間違いがないわけではありません。これらは、自己報告データや質的インタビューの結果に代わるものではなく、それらと併せて解釈されるべきものです。

結論:言葉では言い表せない

質的調査の未来は、純粋に質的であるだけではありません。AIを活用した生体認証ツールがオンライン上でより利用しやすくなり、大規模に導入可能になるにつれ、最も厳密なインタビュー調査においても、人間同士の会話が持つ深みと、継続的な感情測定がもたらす客観性が、日常的に組み合わされるようになるでしょう。

iMotionsとaudEERINGの組み合わせは、オンラインインタビュー環境において、この分野における最先端のソリューションです。iMotionsの「Remote Data Collection」プラットフォームは、研究設計、データ収集、同期、および分析のためのインフラストラクチャを提供します。一方、audEERINGのdevAIceテクノロジーは、音声に基づく感情分析機能を提供します。 これらを組み合わせることで、研究者はこれまで設備の整った実験室でしか得られなかったもの、すなわち参加者が口にする言葉だけでなく、彼らが実際に感じていることをミリ秒単位でリアルタイムに把握できるようになります。

必要なツールはすでに存在し、その有効性も実証されている。あとは方法論の転換と、感情的な関与や感情の向きを、主観的なモデレーターの判断ではなく、測定可能な研究変数として扱う姿勢さえあればよい。その転換を図る研究者にとって、オンラインインタビューはこれまでとは全く異なるものになるだろう。

主なポイント

  • オンライン面接中、表情や声から、感情の価値(ポジティブ/ネガティブなニュアンス)やエンゲージメント(関与の度合い)をリアルタイムで測定することができる。
  • iMotionsのリモートデータ収集プラットフォームは、参加者のウェブカメラとマイクのみを使用して両方の信号を収集します。特別なハードウェアや実験室は不要です。
  • 表情分析は、FACSフレームワークに基づいたAffectiva社のAFFDEXエンジンによって駆動され、フレームごとに「感情の極性(valence)」、「関与度(engagement)」、「7つの主要感情」、および最大20個のアクションユニット(Action Units)を出力します。
  • 音声分析は、audEERINGのdevAIceテクノロジーによって実現されており、感情の分類に加え、好感度、興奮度、支配性を連続的な尺度で出力します。
  • iMotionsでは、両方の信号がミリ秒単位で同期されるため、特定の刺激、質問、または瞬間に対する感情的反応のクロスモーダル分析やタイムロックが可能になります。
  • 生体認証データは、常に自己申告による調査データと照合すべきである。いずれのデータ源も、単独では決定的な証拠とはならない。
  • 顔データおよび音声データは生体認証データに該当するため、インフォームド・コンセント、倫理委員会の承認、およびGDPRへの準拠が必要となります。
  • 調査設計の標準化――刺激の一貫性、質問順序の一貫性――は、解釈可能かつ比較可能な生体認証面接データを得るために不可欠である。

リソース


Get Richer Data

About the author


See what is next in human behavior research

Follow our newsletter to get the latest insights and events send to your inbox.