感情が俺たちの選択にどう影響するか
感情や報酬が意思決定にどんな役割を果たすか探ってる。
― 1 分で読む
良い選択をする方法を学ぶことは、私たちの生活の大きな部分を占めてるんだ。私たちの選択は、期待する報酬やその報酬に対する感情によって左右されることが多い。科学者たちは、時々うまくいかない選択をする理由に興味を持ってるんだ。この分野の重要なアイデアの一つは、報酬予測誤差(PEs)と呼ばれるもの。これは、期待していたものと実際にもらったものの違いを表す。例えば、$5もらえると思ってたのに$2しかもらえなかったら、その違いが報酬予測誤差だよ。
報酬学習の基本
簡単に言うと、決定を下すとき、報酬について考えるよね。これにはお金や褒められること、さらには幸せを感じることが含まれる。過去の経験から学ぶことで、より良い結果を得るために未来の選択を調整する。これは強化学習というもので、私たちが過去の出来事に基づいて行動を適応させる方法を説明してるんだ。
研究者たちは、この概念を使って多くの基本的な行動を説明してきた。例えば、お金を失うのを避けたり、知らない場所で道を見つけることを学んだりすることがある。もっと複雑な行動には、誰を信頼するかを見極めることがあるんだ。
報酬と現実生活のギャップ
報酬についてよく話すけど、実際の生活で定義するのは難しいこともある。社会的な状況では、報酬が明確でない場合も多い。お金や笑顔は報酬と見なされることがあるけど、それらは多くの要因に影響されて測定したり理解したりするのが難しいこともある。ここで重要な質問が浮かび上がる:私たちは「報酬」というのを具体的にどう定義して、脳はそれをどう処理してるの?
研究者たちが注目している一つの分野は、感情と選択の関係だ。科学者たちは、感情が私たちの選択に大きな影響を与えることを何年も示してきた。異なる感情体験は、期待する報酬に対する感じ方を変えることがある。例えば、ストレスを感じたり幸せを感じたりすると、決定にも影響が出るんだ。
感情を学習のシグナルとして
感情が私たちの選択を導くという考えを基に、過去の研究では感情体験のサプライズが決定にも影響を与えることが示唆されてきた。特定の感情反応を期待していたのに違うことを体験すると、その違いが将来の社会的相互作用における選択を導くことがあるんだ。
これを詳しく研究するために、科学者たちは参加者が「ウルティマタムゲーム」というゲームをプレイしている間に、脳波計(EEG)というタイプの脳イメージングを使った。このゲームでは、参加者は異なる相手からの金銭的オファーを受け入れるか拒否するかを決める必要があった。その際、研究者たちは脳の電気信号を見て、報酬や感情に関する情報をどう処理しているのかを理解しようとしたんだ。
実験のデザイン
ウルティマタムゲームでは、参加者がいくつかのパートナーとやり取りをしてオファーを受けた。いくつかのオファーは公平で、いくつかは中立的、そしていくつかは不公平だった。参加者は、どれくらいのお金をもらえると思っているか、オファーを受けた後にどんな気持ちになると思うかを予測するように求められた。
ゲーム中、参加者は自分が期待する感情と実際の感情を、どれくらい快適かまたは激しいかを基にした2次元のグリッドで評価した。この設定は、報酬予測誤差(期待した金額と実際に受け取った金額の違い)と感情予測誤差(期待した感情と実際の感情の違い)を測定するのに役立った。
結果の検討
結果は、報酬予測誤差と感情予測誤差の両方が選択を導く重要な役割を果たしていることを示した。特に、感情予測誤差は決定に強い影響を与えることが多く、特に参加者がパートナーの行動について不確かだったときに顕著だった。ゲームが進むにつれて、参加者がパートナーについてもっと学ぶと、報酬予測誤差の重要性が増した。
脳の反応
EEGデータは、これらの予測誤差に関連した2つの重要な脳の反応を明らかにした。一つはフィードバック関連負の反応(FRN)と呼ばれ、報酬予測誤差により密接に関連しているようだった。もう一つはP3b成分で、感情予測誤差により強く関連していた。
これは、他の人からのオファーを最初に考えるとき、脳が報酬の驚きに焦点を合わせ、その後に感情的評価が行われることを示唆してる。FRN信号はオファーを受けた後に早く現れ、P3b信号が続くことで、感情的反応には処理に時間がかかることが示されている。
時間と共に変化すること
興味深いことに、研究はこれらの信号と選択との関係が時間と共に変わることを示した。ゲームの初期段階では、感情信号が意思決定に重要だった。しかし、参加者がパートナーに慣れてくるにつれて、報酬信号にもっと依存するようになった。
この変化は、不確実な状況では感情がより大きな役割を果たし、期待することを学ぶにつれて明確な報酬がより重要になるパターンを反映している。このシフトは、私たちの意思決定プロセスが経験に基づいてどう適応するかを示してるんだ。
学習メカニズムの作用
この発見は、私たちが報酬と感情に対処するために異なる方法を使っていることを強調している。どちらも私たちの学習に役立つけど、これらの要素に対する期待を調整する方法は異なる。参加者はゲームを通じて報酬期待を洗練させる傾向があり、特に初期の驚きの後にそうすることが多かった。それに対して、感情の期待はゲームが進むにつれて安定していた。
これは、私たちが報酬について期待することを調整することで学ぶ一方で、感情体験は異なる方法で調整される可能性があり、時間が経つにつれて感情反応が減少することに繋がっているみたい。
意思決定への影響
この研究は、選択を理解するために感情と報酬の両方を考慮する重要性を強調している。感情は、特に社会的な状況での決定を導く上で重要な役割を果たすことが示されてる。研究は、感情と報酬の学習シグナルが脳の異なる部分に表現されており、各々が社会的相互作用に関する情報を処理する上でユニークな役割を果たしていることを示してる。
私たちがどうやって選択を学ぶのかを探求する中で、この研究は単に報酬を見るだけでは不十分だということを示唆している。感情を私たちの決定における重要なシグナルとして理解することで、人間の行動のより包括的な視点を提供するんだ。
今後の研究
今後の研究では、不確実な環境で私たちがどのように学ぶかに影響を与えるさまざまな要因を調べるといいかも。結果のランダムネスや、時間が私たちの選択にどう影響するかを探ることで、学習のダイナミクスに対する理解が深まるかもしれない。感情反応が時間と共にどう変わるかや、決定時に人々が感情を調整するためにどんな戦略を使うかを研究することも有益だろう。
結論として、この研究は、選択を学ぶ上での報酬と感情の複雑な相互作用の理解に貢献してる。両方の側面を研究することで、研究者たちは社会的文脈における人間の行動を推進する要因をよりよく把握でき、意思決定プロセスの改善にも繋がるはずだよ。
タイトル: Dissociable neural signals for reward and emotion prediction errors
概要: Reinforcement learning models focus on reward prediction errors (PEs) as the driver of behavior. However, recent evidence indicates that deviations from emotion expectations, termed affective PEs, play a crucial role in shaping behavior. Whether there is neural separability between emotion and reward signals remains unknown. We employ electroencephalography during social learning to investigate the neural signatures of reward and affective PEs. Behavioral results reveal that while affective PEs predict choices when little is known about how a partner will behave, reward PEs become more predictive overtime as uncertainty about a partners behavior diminishes. This functional dissociation is mirrored neurally by engagement of distinct event-related potentials. The FRN indexes reward PEs while the P3b tracks affective PEs. Only the P3b predicts subsequent choices, highlighting the mechanistic influence of affective PEs during social learning. These findings present evidence for a neurobiologically viable emotion learning signal that is distinguishable--behaviorally and neurally--from reward. SignificanceFor nearly a century, scientists have asked how humans learn about their worlds. Learning models borrowed from computer science--namely, reinforcement learning--provide an elegant and simple framework that showcases how reward prediction errors are used to update ones knowledge about the environment. However, a fundamental question persists: what exactly is reward? This gap in knowledge is problematic, especially when we consider the multiplicity of social contexts where external rewards must be contextualized to gain value and meaning. We leverage electroencephalography to interrogate the role of emotion prediction errors--violations of emotional expectations--during learning. We observe distinct neural signals for reward and emotion prediction errors, suggesting that emotions may act as a bridge between external rewards and subjective value.
著者: Oriel FeldmanHall, J. Heffner, R. Frömer, M. Nassar
最終更新: 2024-01-25 00:00:00
言語: English
ソースURL: https://www.biorxiv.org/content/10.1101/2024.01.24.577042
ソースPDF: https://www.biorxiv.org/content/10.1101/2024.01.24.577042.full.pdf
ライセンス: https://creativecommons.org/licenses/by-nc/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた biorxiv に感謝します。