概要と主なポイント
iMotionsはマルチモーダル研究を基盤として構築されています。つまり、人間の行動は、個々のシグナルを単独で分析するのではなく、複数のデータソースを同期させて組み合わせることで、より深く理解できるという考えに基づいています。このプラットフォームは、以下のような幅広いモダリティに対応しています:
iMotions Labは中核となるプラットフォームです:
- 研究設計、同期化されたデータ収集、可視化、および分析を統合した環境
- あらゆる形態の実験室研究に対応するように設計されています
iMotions Onlineは、遠隔でのマルチモーダル研究を可能にします:
- ブラウザベースの
- ウェブカメラを活用したデータ収集に注力
iMotions Educationは、ブラウザベースの環境における教育および学術研修向けに、マルチモーダルツールを最適化しています。Media Analyticsは、専門的で効率的なソリューションです:
- メディアおよび動画広告のテストに特化
- Labほど柔軟性はないが、標準的なユースケースではより高速である
iMotionsにおいて、マルチモーダリティとは、単に複数の孤立したセンサーを指すのではなく、同期され、相互運用可能な信号を意味します。このエコシステムは、さまざまな環境にわたる研究を支援するように設計されています:
実験室、リモート、教室、現場、VR、および大規模メディアのテスト
Table of Contents
iMotionsにおけるマルチモーダリティとは、単一の研究ワークフロー内で、行動、生理、感情、および文脈に関するデータストリームを同期して取得・分析することを指します。このプラットフォームは、研究デザイン、刺激提示、データ収集、可視化、および分析を1つのスイートに統合するように構築されており、研究者は視覚的注意、感情表現、生理的覚醒、認知プロセス、および身体の動きを、個別にではなく一体として検討することができます。
これは重要な点です。なぜなら、単一の測定手法だけでは行動を説明しきれないからです。アイトラッキングは、被験者が何を見たかを明らかにします。EDA(皮膚電気活動)やGSR(皮膚抵抗)は、刺激が自律神経系の興奮を引き起こしたかどうかを示します。EEG(脳波)は、認知的・感情的な処理の側面を明らかにします。表情分析は、表れた感情や関与の度合いを推定します。ECG(心電図)や呼吸データは、心臓や呼吸に関連する情報を補完します。これらを組み合わせることで、何がいつ起こったのかについて、より詳細で、より説明可能な全体像が浮かび上がります。
マルチモーダル製品の中心となる製品:iMotions Lab
iMotions Labは、iMotions製品群の中核となるマルチモーダルソフトウェアです。iMotions Labは、研究設計、刺激提示、データ収集、可視化、分析を統合したモジュール式のソフトウェアであり、研究者はこれを使用してセンサーを同期させ、注意力、感情、覚醒度、認知、および動作に関する疑問を解明しています。また、iMotions Labはハードウェアに依存せず、主要なメーカーの製品と互換性があることも特徴です。
「Labモジュール概要」を見ると、そのアーキテクチャが明確になります。iMotions Coreが基盤となり、追加モジュールによって特定の測定手法がシステムに拡張されます。Coreにはすでにアンケート、動画の撮影・注釈付け、データ可視化機能が含まれており、アドオンによってアイトラッキング、生理学的測定、脳波測定、動作測定、遠隔データ収集といった機能が拡張されます。
iMotionsが対応しているモダリティ
視線追跡
iMotionsは、Lab内で画面ベースのアイトラッキング、アイトラッキング用メガネ、VRアイトラッキング、ウェブカメラによるアイトラッキングなど、複数のアイトラッキング方式に対応しています。Labが画面ベース、メガネ、ウェブカメラ、VRのアイトラッキングに対応していることを明確に示しており、これによりアイトラッキングはエコシステムにおいて最も柔軟性の高いマルチモーダル機能の一つとなっています。
表情分析
「Facial Expression Analysis」モジュールは、Affectiva社のAFFDEXを統合しており、ライブのウェブカメラデータやインポートされた動画を分析することができます。iMotions社によると、このモジュールは7つの主要な感情を識別し、感情の極性(ヴァレンス)やエンゲージメントの指標を提供するため、アイトラッキング、アンケートデータ、生理的信号と組み合わせる一般的なマルチモーダル分析ツールとなっています。
音声分析
音声分析モジュールは、iMotionsの広範なマルチモーダル・スタックの一部であり、同社のリモートデータ収集ソリューションにも組み込まれています。iMotionsは、音声分析を、声の高さ、トーン、リズムから行動的・心理的な洞察を導き出す非侵襲的な手法であると説明しています。
EDA / GSR
EDA/GSRモジュールは、自律神経の覚醒度やストレスの指標として皮膚電気伝導度を測定します。iMotionsでは、自動ピーク検出機能、生データおよび処理済みデータのエクスポート機能、他のセンサーとの同期使用が特長です。これにより、研究者が覚醒の瞬間を視線、感情、または刺激イベントと関連付けたい場合、EDA/GSRはマルチモーダルな測定環境において特に有用となります。
脳波
iMotionsでは、EEGモジュールを使用して、認知処理や感情処理に関連する脳の電気的活動を測定します。iMotionsは、このモジュールをハードウェアに依存しないものとしており、主要なEEGメーカーの複数製品に対応しているほか、生データの収集、可視化、エクスポート、統合された品質保証などの機能を備えていると説明しています。
筋電図
このEMGモジュールは、複数の筋肉群からの筋電図測定に対応しており、VR環境における顔面筋電図の測定にも使用可能です。iMotions社は、EMGが身体および顔の反応の測定に適していると説明しており、他の生体センサーとの組み合わせについても明示的に言及しています。これは、まさにマルチモーダルな活用事例と言えます。
心電図
ECGモジュールは心電信号を測定し、iMotions社によれば、心拍リズムは環境や自律神経活動に応じて変化するため、生理的および感情的な状態に関する情報を提供します。ECGは、多角的な研究において、覚醒度、ストレス、回復度、または没入度の補完的な指標として機能することがよくあります。
呼吸
iMotionsは、接触型呼吸測定とウェブカメラによる呼吸測定の両方をサポートしています。標準の呼吸測定モジュールには、自動フィルタリング、呼吸検出、呼吸数、呼吸サイクル数、呼吸サイクル時間が含まれており、ウェブカメラモジュールは、標準的なウェブカメラを通じて、遠隔かつ非接触での呼吸分析を可能にします。
fNIRS
fNIRSモジュールは、オキシヘモグロビンおよびデオキシヘモグロビンの変化を追跡することで、脳の血行動態測定機能を追加します。iMotions社は、fNIRSを「携帯可能で、非侵襲的、かつ動きに耐性がある」技術と位置付けており、従来の脳画像診断では不可能な、より自然な動きを必要とするマルチモーダル研究において特に有用です。
モーションキャプチャー
新しいモーションキャプチャ・モジュールは、マルチモーダリティの適用範囲を運動学の分野へと拡大します。iMotions社は、これを「スーツやマーカーを必要としない、動画からのモーションキャプチャ」と説明しており、身体部位の追跡、動作メトリクス、バッチ処理機能を備えています。また、iMotions社は発表時の報道において、このモーションキャプチャがEMG、アイトラッキング、表情分析、その他の計測手法とシームレスに連携すると述べています。
GPS
このGPSモジュールは、実世界の位置情報、速度、移動軌跡を時系列信号として追加します。iMotions社によると、GPSはアイトラッキング、GSR、EEG、モーションキャプチャなどの生体信号と同期させることが可能であり、移動行動、都市行動、スポーツ科学、人間工学のフィールド調査において特に有用であるとのことです。
調査、動画、注釈、および分析
iMotionsにおけるマルチモーダリティは、バイオセンサーだけに限定されません。プラットフォームの中核機能には、アンケート調査、動画撮影、アノテーション、データ可視化、および分析が含まれます。また、このプラットフォームは、透明性が高くカスタマイズ可能な分析ワークフローを実現するための統合型Rノートブックもサポートしています。
遠隔調査におけるマルチモーダリティ:iMotions Onlineと遠隔データ収集
iMotions Onlineは、iMotionsエコシステムにおけるブラウザベースのサービスです。iMotionsは、画像、動画、アンケートを用いた調査作成機能を備えた、遠隔生体計測研究のためのWebプラットフォームと位置付けています。その中核となる組み込み機能は、ウェブカメラを利用したアイトラッキングと表情分析です。
より広範なリモート・マルチモーダリティを実現するため、iMotionsはLabエコシステム内の「リモートデータ収集」機能についても説明しています。同社のモジュール概要によると、この機能により、ウェブカメラによるアイトラッキング、表情分析、音声分析、および呼吸測定を用いたリモート生体データ収集が可能になります。同社の最新のリモートデータ収集に関する資料では、ウェブカメラによるアイトラッキング、AIを活用した表情分析、ウェブカメラによる呼吸測定、AIを活用した音声分析、およびオンライン調査機能を用いたインターネットベースの研究について解説されています。
つまり、iMotionsにおけるリモート・マルチモーダリティは、実験室でのフル・マルチモーダリティほど包括的ではありませんが、それでも有意義なものです。遠隔地の研究者は、専用の実験室用ハードウェアがなくても、注意、視覚的な感情表現、音声から得られる信号、呼吸、およびアンケート回答を組み合わせることができます。
教育におけるマルチモーダリティ:iMotions Education
iMotions Educationは、完全なオープンエンド型の実験プラットフォームというよりは、ブラウザベースの教育ツールです。ウェブカメラによるアイトラッキング、フェイシャルコーディング、アンケート機能を組み合わせることで、学生は通常のノートパソコンを使って、研究計画を立案し、共有可能なリンクを通じてデータを収集し、結果を分析し、視覚資料を作成することができます。また、教育分野全体での展開を視野に入れているため、拡張性や、授業、インターンシップ、学生プロジェクトでの活用も重視されています。
つまり、「Education」はマルチモーダルですが、より軽快で、教育を主眼としたものです。これは、Labが提供するマルチモーダルな機能のすべてに代わるものではなく、iMotionsのマルチモーダルな哲学の一環として、体系化され、利用しやすいサブセットであると捉えるのが最も適切です。
メディアテストにおけるマルチモーダリティ:メディア分析
Media Analyticsは、フェイシャルコーディングとキャリブレーション不要のアイトラッキングを活用し、メディアや動画広告のテストにおける注目度とエンゲージメントを測定するターンキーソリューションです。このため、マルチモーダル製品群の一員ではありますが、Labよりも適用範囲が限定されています。つまり、センサーに依存しないオープンな研究デザインではなく、特定のメディアテストのユースケースにおける注目度とエンゲージメントを測定するようにあらかじめ設定されているのです。
iMotionsのマルチモーダリティが実務において有用である理由
iMotionsのマルチモダリティ機能の中核となる価値は、同期化にあります。iMotionsは、さまざまなセンサーからのデータを取得・同期し、タイムラインベースのインターフェースと統合された分析機能を通じて、ユーザーが研究内容と関連付けてデータを視覚的に探索できるようにするソフトウェアスイートです。
これにより、研究者が解明できる質問の性質が変わります。参加者が何かを見たかどうかだけを問うのではなく、研究者は、参加者がそれを見たか、感情的な反応を示したか、生理的な覚醒が見られたか、呼吸に変化があったか、心拍リズムが変化したか、動作の変化が見られたか、あるいは後日それに関心を示したか、といった点まで問うことができるようになります。その利点は、単に「データ量が増える」ことだけではありません。その利点は、モダリティを横断した時間軸に沿った解釈が可能になることです。これこそが、マルチモーダル研究の核心となる論理です。
マルチモーダル解析およびワークフロー機能
iMotionsのマルチモーダル機能の真価は、単に信号を収集することだけではありません。それらを統合して分析可能にすることにもあります。このプラットフォームは、組み込みの可視化機能、透明性が高くカスタマイズ可能なRノートブック、複数のモダリティに対応した自動処理、そして自動AOI(関心領域)設定などの専用モジュールを重視しています。
自動AOIは、動的な刺激を用いるマルチモーダルな視線追跡研究において特に有用です。iMotionsは、フレームをまたいで事前に定義された関心領域を自動的に検出し、再ターゲット設定を行うため、手動での再ターゲット設定の手間を軽減します。これにより、研究者は動的な視線分析と、顔面データ、皮膚電気活動(EDA)、脳波(EEG)、その他の時間同期データとをより効率的に組み合わせることができます。
iMotionsはLSLにも対応しており、Lab Streaming Layerをサポートするハードウェアであれば、ネイティブに対応していない幅広いハードウェアからのストリーミングが可能になります。これにより、iMotionsがネイティブに統合しているデバイスだけでなく、マルチモーダリティの拡張性がさらに広がります。
iMotionsにおけるマルチモーダリティに関するよくある誤解
よくある誤解として、iMotionsにおけるマルチモーダリティとは単に「アイトラッキングと、もう1つのセンサー」を組み合わせたものに過ぎないと思われがちです。しかし、現在のiMotionsの資料では、EEG、ECG、EMG、EDA/GSR、呼吸、fNIRS、モーションキャプチャ、GPS、表情分析、音声分析、アンケート調査など、はるかに幅広い測定項目が組み合わされた構成が示されています。
もう一つの誤解は、すべてのiMotions製品が同等のマルチモーダル機能を備えているというものです。実際にはそうではありません。「Lab」は明らかに最も広範なマルチモーダル環境であり、「Online」と「Education」はブラウザベースの機能に制限されたサブセットであり、「Media Analytics」はさらに範囲が狭く、特定の用途に特化したものです。
3つ目の誤解は、マルチモーダリティが実験室での研究にしか適用できないというものです。iMotionsの現在の資料では、ウェブカメラによるアイトラッキング、表情分析、音声分析、呼吸測定などを通じて遠隔研究へと、またGPSやモーションキャプチャなどのモジュールを通じて実地調査へと、マルチモーダリティの適用範囲が拡大していることが示されています。
よくある質問
iMotionsにおけるマルチモーダリティとは何ですか?
iMotionsにおけるマルチモーダリティとは、通常はiMotions Lab内で、行動、生理、感情、および文脈に関する複数のデータストリームを、単一の研究ワークフロー内で同期させることを指します。
iMotionsはどのようなモダリティに対応していますか?
現在、iMotionsが対応しているデータソースには、アイトラッキング、表情分析、EDA/GSR、EEG、EMG、ECG、呼吸、ウェブカメラによる呼吸、音声分析、fNIRS、モーションキャプチャ、GPS、アンケート、動画、アノテーションなどが含まれており、LSLのサポートによりさらなる拡張が可能です。
iMotionsのソフトウェアの中で、最もマルチモーダルなものはどれですか?
iMotions Labは、同社の製品ラインナップの中で最もマルチモーダルな製品です。iMotions社は、これを「オールインワンのマルチモーダル研究プラットフォーム」であり、多種多様なバイオセンサーと解析機能を同期させるソフトウェアであると説明しています。
iMotions Onlineはマルチモーダルですか?
はい、ただし、ブラウザベースの機能に限定された形となります。iMotions Onlineは、ウェブカメラによる視線追跡と表情分析を中核としていますが、より広範なリモートデータ収集エコシステムには、音声分析、ウェブカメラによる呼吸測定、およびアンケート調査も含まれています。
iMotions Educationはマルチモーダルですか?
はい。iMotions Educationは、教育や学生の研究のために、ブラウザベースのウェブカメラによる視線追跡、フェイシャルコーディング、およびアンケートを組み合わせています。
メディア分析は、iMotionsのマルチモーダリティの一部ですか?
はい、ですがこれは専門的なターンキー製品です。iMotions社によれば、これはメディアや動画広告のテスト向けに、フェイシャルコーディングとキャリブレーション不要のアイトラッキングを組み合わせたものとのことです。
iMotionsは、運動と生理学を組み合わせることができるのでしょうか?
はい。現在の資料によると、モーションキャプチャやGPSが他の生体信号と併用されており、マルチモーダリティの適用範囲が野外行動や運動学にまで拡大されています。
最後に得た教訓
iMotionsは、複数のモダリティにわたるデータ収集と分析の同期化を中核とした、人間の行動に関するマルチモーダル研究エコシステムです。その構成要素として、主力プラットフォームである「iMotions Lab」、リモートで利用できるブラウザベースのプラットフォーム「iMotions Online」、教室での利用に特化した「iMotions Education」、そしてメディアテスト向けのより即戦力となる注目度・関与度測定製品「Media Analytics」があります。
Free 52-page Human Behavior Guide
For Beginners and Intermediates
- Get accessible and comprehensive walkthrough
- Valuable human behavior research insight
- Learn how to take your research to the next level

