Simple Science

最先端の科学をわかりやすく解説

# 生物学# 神経科学

顔の動きと感情のコミュニケーション

この研究は、顔の表情が感情の知覚や脳の活動にどんな影響を与えるかを調べてるよ。

― 1 分で読む


顔の感情を読み解く顔の感情を読み解くるかがわかった。研究によると、顔が感情の認識にどう影響す
目次

人間は社交的な存在で、顔を使ってユニークにコミュニケーションする方法があるんだ。顔は私たちが誰で、どう感じているかについて多くの情報を示す。顔の違う部分がその人のアイデンティティ、年齢、性別、人種、魅力を教えてくれる。一方で、顔は幸せ、悲しみ、怒り、驚き、恐れ、嫌悪といった気持ちを表現することもできるんだ。

コミュニケーションの時、これらの動きはアクションユニット(AU)と呼ばれる。これらのAUは単独でも、組み合わせてさまざまな表情を作り出す。たとえば、笑顔は複数のAUが一緒に働くことによって生まれるんだ。

顔の信号を理解する

社会的な状況では、私たちは顔の動きを通じて感情のメッセージを送り、受け取っている。私たちの顔を見ている人はその動きを解釈し、それが感情の理解につながる。私たちの研究は、顔の動きが人々の交流中の行動にどうつながっているかを探っているよ。

顔を見ると、脳は情報処理のために異なる経路を使う。一つの経路はその人が誰かを認識するのを助け、もう一つの経路は感情や行動を理解することに焦点を当てている。最近、研究者たちは社交的な動きや感情を処理する新しい経路を見つけた。この新しい経路は、顔の表情が変わることで脳がどう反応するかを理解するのを助けてくれる。

研究の焦点

私たちの研究は、この新しい経路が基本的な6つの感情(幸せ、驚き、恐れ、嫌悪、怒り、悲しみ)を知覚して分類する時にどう機能するかを理解するギャップを埋めることを目的にしている。これらの顔の動きがどこで、いつ、どのように感情認識や行動に影響を与えるのかを知りたいんだ。

そのために、私たちは:

  1. 感情がどう表現されるかを正確に反映した制御された顔の動きの刺激を作る。
  2. 個人の顔の動きに基づいた感情の知覚における違いを考慮する。
  3. これらの顔の特徴を動的に処理する際の脳の反応を追跡する。

顔の表情制御

リアルな顔の動きを作るのは難しい。従来の研究では静的な画像や動画を使っていて、特定の顔の動きを制御することができなかった。私たちのアプローチは、リアルに動く4Dの顔の刺激を作ることを含んでいる。この方法で、特定のAUが脳の反応や行動にどのように影響するかを観察できるんだ。

個人の違い

誰もが同じ顔の動きを使って感情を表現するわけじゃないから、私たちは各参加者が自分の表現に基づいた独自のモデルを持てるように研究を設計した。この理解は、個々の違いが感情の知覚にどう影響するかを見るのに役立つんだ。

参加者がさまざまな顔の表情を分類している間に、脳の活動を追跡して、彼らが使った異なるAUについて詳しい情報を集めた。

脳の経路のマッピング

最終目標は、異なる脳の経路が感情信号をどう処理するかを追跡することだ。ほとんどの研究は一回限りの表現に焦点を当てているけど、脳が静的および動的な顔の特徴に対してリアルタイムでどう反応するかを見る必要がある。

脳の反応を継続的にモニタリングすることで、顔の特徴が社会的文脈でどう処理され、理解されるかに新しい洞察を提供できることを願っているよ。

方法論の概要

私たちの研究は、顔の表情と感情の反応を研究する上での課題に対処するために構造化された方法論に従っている。

  1. 顔の表情の生成:ユニークな顔の表情を生成するために、顔の動きのライブラリを作った。それぞれのアニメーションは、基本的な6つの感情を表現するためにさまざまなAUを組み合わせた。

  2. データ収集:参加者には生成したアニメーションを見せて、彼らが知覚した感情に基づいてそれぞれを分類してもらった。

  3. 脳活動の記録:参加者がこれらの顔の表情を見ている間の脳活動を測定した。これにより、脳がこれらの表情をどう処理するかを調査できた。

  4. データ分析:参加者が各表情をどう分類し、脳が異なるAUにどう反応したかを分析するために詳細な統計的方法を使った。

人間の顔の動き

私たちはアクションユニットに基づいた人間の顔の動きのモデルを作った。AUは顔の表情の基礎を成し、コミュニケーションにとって重要なんだ。私たちのモデルは、AUのためのさまざまな動的パラメータを含み、自然な顔の動きを可能にした。

モデルをテストするために、参加者が感情を識別できない場合「わからない」と分類した2,400のユニークな顔のアニメーションを生成した。

実験手順

各試行では、参加者が表情アニメーションを見て、その後に分類反応を示すようになっている。彼らはアニメーションを1.25秒見た後、妨げられることなく感情を分類した。

試行の構造は、参加者が次の感情に集中できるように設計されていて、正確なデータ収集を確保している。

感情モデル

各参加者の感情の知覚モデルを開発した。感情分類プロセスでどのAUが重要だったかを特定した。AUと感情反応の間の相関関係を使って、各参加者のための詳細なモデルを作成した。

このプロセスは、各感情が特定のAUによってどう表され、それが感情の分類にどのように影響を与えるかを明確にするのに役立ったんだ。

MEG実験

次のステップでは、参加者が別のセッションに戻り、脳活動を磁気脳波計(MEG)で測定した。これにより、彼らの自分の顔の表現モデルに対する脳の反応を見れるようになった。

各アニメーションを見ている間にAUの強さを変えて、これが反応にどう影響するかを見た。目的は、感情の意思決定プロセスにおいてどのAUが重要かを特定することだった。

脳活動の分析

脳が異なる感情をどう表現しているかを理解するために、MEGデータを分析した。脳の反応が時間を追って感情の分類とどのように結びついているかを計算した。

この分析は、脳が感情をどう処理するかの具体的なダイナミクスを明らかにし、脳が感情情報とアイデンティティ情報に異なる反応を示すことを示した。

感情の動的表現

私たちの研究結果は、異なる感情が脳の中で異なるタイミングで表現されることを示した。たとえば、初期の表現は後頭葉皮質に現れ、後には社会的知覚やアイデンティティに関する領域で表現が現れた。

感情の表現を時間を追って追跡することで、脳に感情情報を処理するための特定の経路があることを確認できた。

アクションユニットの表現

次に、個々のAUが脳でどのように表現されているかを詳しく見た。私たちの分析は、AUの強度の変化に対して特定の脳の領域が反応することを示した。つまり、顔の表情が変わると、脳はリアルタイムで反応するんだ。

このプロセスを通じて、社会的知覚に関与する脳の領域がAUを効果的に通信し、感情の分類における重要な役割を担っていることが確認された。

脳内のAUのコミュニケーション

AUが異なる脳の領域間でどのように共有されているかも探求した。脳の領域間のコミュニケーションを測定することで、後頭葉皮質から社会的知覚領域への情報の流れの異なるパターンを見つけた。

このコミュニケーションプロセスは、脳が顔の信号に基づいて感情を理解し、分類する上で重要な役割を果たす。

行動とアクションユニット

脳がAUを表すことが行動にどう影響するかを理解することは、感情の分類を把握する上で重要だ。私たちの研究は、特定のAUが感情の分類に混乱を引き起こす可能性があることを示した。特に、2つの感情が似た特徴を持つ場合に。

たとえば、参加者が嫌悪や怒りの表情を見せられたとき、共有されたAUがしばしば表現の分類で混乱を引き起こすことがあった。でも、異なるAUの存在がこれらの感情を区別するのに役立ったんだ。

結論

私たちの研究は、脳が動的な社会的信号を処理して感情を効果的に分類する方法を示した。顔の動きの生成モデルを使うことで、感情認識のための機能的経路を示した。

この研究から得られた洞察は、社会的な相互作用や顔の表情が感情を伝える役割に関するより深い理解を提供することができる。この基礎は、ボディランゲージや声のトーンなど、さまざまなタイプの社会的信号が感情コミュニケーションにどのように協力するかについてのさらなる研究の道を開くんだ。

これらのネットワークを理解することは、社会神経科学の広い分野への貢献となり、私たちが社会的世界をどう解釈し、ナビゲートするかを探求する手助けをするよ。

オリジナルソース

タイトル: The Brain Computes Dynamic Facial Movements for Emotion Categorization Using a Third Pathway

概要: Recent theories suggest a new brain pathway dedicated to processing social movement is involved in understanding emotions from biological motion, beyond the well-known ventral and dorsal pathways. However, how this social pathway functions as a network that computes dynamic biological motion signals for perceptual behavior is unchartered. Here, we used a generative model of important facial movements that participants (N = 10) categorized as "happy," "surprise," "fear," "anger," "disgust," "sad" while we recorded their MEG brain responses. Using new representational interaction measures (between facial features, MEGt source, and behavioral responses), we reveal per participant a functional social pathway extending from occipital cortex to superior temporal gyrus. Its MEG sources selectively represent, communicate and compose facial movements to disambiguate emotion categorization behavior, while occipital cortex swiftly filters out task-irrelevant identity-defining face shape features. Our findings reveal how social pathway selectively computes complex dynamic social signals to categorize emotions in individual participants.

著者: Philippe G. Schyns, Y. Yan, J. Zhan, O. Garrod, C. Chen, R. A. A. Ince, R. Jack

最終更新: 2024-05-08 00:00:00

言語: English

ソースURL: https://www.biorxiv.org/content/10.1101/2024.05.06.592699

ソースPDF: https://www.biorxiv.org/content/10.1101/2024.05.06.592699.full.pdf

ライセンス: https://creativecommons.org/licenses/by-nc/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた biorxiv に感謝します。

著者たちからもっと読む

類似の記事