表情分析で愛を測ることができるでしょうか?

表情分析が、目に見える顔の筋肉の動きを捉える一方で、愛のような複雑で文脈に依存する感情を完全に説明することには限界があることを解説します。また、より包括的な感情測定を行うためには、文化的差異や個人差、さらには心拍数、皮膚電気反応、アイトラッキングといった生理的信号を組み合わせたマルチモーダルなアプローチが重要であることを強調します。

表情分析とは、その名の通り、顔に表れる表情を測定するものです。これは、顔の筋肉の変化を測定するプロセスを自動化するものです。特定の表情の組み合わせ(例えば、頬を上げて笑うような表情)は、喜びといった根底にある感情を示唆しているかもしれませんが、感情は私たちが顔に表すものよりもはるかに複雑です。

その笑顔が純粋な喜びに根ざしているとしても、私たちが顔に表す喜びは、状況に左右される感情の表れ、あるいは結果に過ぎない。顔に喜びを表すからといって、私たちが喜びを感じているわけではない。喜びを感じているからこそ、それを顔に表すのだ。  

私たちが顔に表す感情は、文化特有の「感情表現のルール」によって導かれています。これは、どのような状況でどのような感情を表現するのが適切かについて、私たちが文化を通じて学ぶルールです。さらに、人がどれほど感情を表現できるか――それは奔放に表現するか、抑制するか、あるいはその中間か――は、訓練によるものかもしれません。俳優は合図があれば感情を表現できますが、仕事上では本物の感情をほとんど表に出さないこともあります。

したがって、表情やその表出方法にはすでに多くの個人差が存在するため、人が抱いているであろう根底にある感情との関係を解きほぐすことは、さらに困難になっている。

や信頼といった複雑な感情は、分析しようとするとさらに微妙なニュアンスを帯びてくる。デートの夜にパートナーへの愛情を表現するときと、犬とボール遊びをする際に犬への愛情を表現するときとでは、おそらく同じ顔の筋肉を使っているだろう。しかし、たとえ「愛」を特定の文脈、例えばデート中の好意といったものに限定したとしても、個人差は依然として極めて大きい。 

表情分析で愛を測ることができるでしょうか?

上記の社会的交流に関わった二人の間では、互いへの好意をどのように、いつ表現するかという点において、依然として大きな違いが見られます。彼らは冗談を聞いて微笑んでいちゃつくのか、それとも目を回してから笑うのか、あるいは唇を噛みしめて眉をひそめるのか。相手はこれらの表情の一つひとつにどう反応し、その反応に応じて自分たちの表情はどのように変化していくのでしょうか。 

たとえ、周囲の人々に対して抱く深い愛情のほんの一部に過ぎない、単一の社会的文脈における「魅力」という限定的な定義にさえ、そこで「魅力の表情」を作り出すことはほぼ不可能に近い。これほど深く、個人差があり、文脈に依存し、かつ変動しやすいものを研究するのに、顔の筋肉の動きだけを調べれば十分だと考えるのは、人間の経験を過度に単純化している。

では、もし可能だとすれば、愛をどのように測定すればよいのでしょうか。ここで最も重要なのは、前述のように研究課題を明確に定義することです。愛とは何を包含するのか、そのうちのどの部分を測定したいのか、そしてどのような文脈において測定するのか。また、研究対象とする概念の持つ多様な側面を理解し、具体的にどの側面を研究したいのかを特定することも重要です。 

愛は、人生においても、またそれを測る上でも、複雑な感情です。ご存知の通り、複雑な問題には往々にして複雑な解決策が求められます。先ほど触れたデート中の二人の例に照らせば、より広い視点を得るためには、研究の範囲を広げる必要があるかもしれません。

例えば、ストレス反応を測定するために心拍数データを追加したり、胸のざわめきを数値化するために皮膚電気反応のデータを追加したり、あるいは注意がどこに向けられ、どのように向けられているかを測定するためにアイトラッキングを導入したりすることが考えられます。 

iMotionsでは、私たちは恋愛の専門家ではありませんが、感情とその測定方法の専門家であり、マルチモーダルなアプローチこそが間違いなく最適な方法です。 

最後に、自分の研究成果を共有し、その実施方法を報告することを忘れないでください。そうすることで、他の人もあなたの研究を再現できるようになります。 

何しろ、たった一つの研究だけでは、愛のような深遠なものを解き明かすことはできないのだから。