Simple Science

最先端の科学をわかりやすく解説

# 健康科学# 精神医学と臨床心理学

より良い感情認識スキルのためのトレーニング

新しいトレーニングタスクが感情認識の向上に期待できそう。

― 0 分で読む


感情認識トレーニングのイン感情認識トレーニングのインサイトな方法があるんだって。研究によると、感情認識を向上させる効果的
目次

顔の感情を認識するのは、他の人とコミュニケーションを取ったり、交流したりする上で大事な部分だよね。言葉を使わずに、他の人が何を感じて考えているのかを理解するのに役立つ。この能力は、社交的な行動にも影響を与えて、他の人と関わるか距離を置くかの選択にも関わってくる。誰かが感情を認識するのに困難を感じると、社交の場や学業の場、総合的な社交スキルに問題が出てくることもある。この課題は、うつ病や自閉症などのメンタルヘルスの問題を抱える人に見られることがあるんだ。

感情認識の不良の影響

感情を認識するのが難しいことは、いくつかのメンタルヘルスや発達障害と関連していることがある。たとえば、うつ病の人は感情を正しく感じ取るのが難しいことが多く、それがうつ症状の持続に影響するかもしれない。そして、自閉症スペクトラムの人は、感情を正確に認識するのが難しいことがあって、それが社交的な交流や発達に影響を与えることもある。感情認識のスキルを向上させることは、こうした人たちや似たような課題を抱える人たちにとって有益だと思う。

感情認識を向上させるためのトレーニング

研究によれば、トレーニングによって顔の表情から感情を認識する能力が改善される可能性があるんだ。一部の研究では、短いトレーニングタスクが感情認識のバイアスを減少させることが示されていて、特に不安やうつ病を抱える人にとって効果があるかもしれないってことだ。つまり、ターゲットを絞ったトレーニングが、感情認識に困っている人に治療的な利益をもたらすかもしれないってこと。

でも、トレーニングプログラムは特定の感情に焦点を当てることが多く、異なる顔や文脈での感情を認識することには広がらないことがあるから、新しいトレーニング方法が必要だよね。教えるだけでなく、さまざまなシチュエーションでの認識スキルも向上させるようなやつね。

新しいトレーニングタスクのデザイン

我々は、顔の表情で感情を認識するトレーニング専用のコンピュータベースのタスクを開発したんだ。このタスクは、参加者がどれだけ感情を特定できるかを測定し、認識スキルを向上させるために適応できるかを見るためにデザインされた。初期の証拠は、自閉症スペクトラムの人など、この領域で困難を抱える人にとって有益な介入を作るために重要だった。

一般化の重要性

トレーニングプログラムを作るときは、改善がトレーニング環境の外の現実世界に適用されることが重要だよね。ほとんどの既存の感情認識の研究は、顔の表情の静止画像を使用している。いくつかの研究では、トレーニングが異なる文脈や異なる刺激での感情認識の改善につながることが示されているから、我々のトレーニング方法が同様の一般化を達成できるかどうかを評価することが大事なんだ。

実施した研究

我々のトレーニングタスクが感情認識の正確性を向上させるかどうかを調べるために、3つのオンライン研究を実施したんだ。それぞれの研究は、我々のトレーニング方法の異なる側面を評価するようにデザインされている。

  1. 研究1では、怒り、幸福、悲しみ、恐れの4つの感情を扱うトレーニングタスクをテストした。
  2. 研究2では、6つの感情を使ったタスクをテストし、嫌悪と驚きを追加した。
  3. 研究3では、新しい未確認の顔でトレーニング効果が見えるかどうかを調べた。

各研究で、アクティブなトレーニングを受けた参加者が、シャムトレーニングを受けた参加者に比べてトレーニングタスク後に感情認識が良くなると仮定したんだ。

参加者と方法論

総計で、我々の研究のために健康なボランティアをオンラインプラットフォームで募集した。参加者は18歳以上で英語が流暢である必要があり、特定のメンタルヘルスの問題や視覚障害のある人は参加を除外された。

研究1では110人、研究2では116人、研究3では136人の参加者がいた。全参加者は、アクティブなトレーニングを受けるグループと顔の表情を使わないシャムトレーニングを受けるグループにランダムに振り分けられた。

参加者はトレーニングの前後で、感情認識の正確性を測るテストを受けた。彼らには、異なる難易度とスピードで顔の感情を特定するよう求められ、応答についてフィードバックが与えられた。

研究結果:トレーニングの効果

我々の研究1の結果では、アクティブなトレーニング後に感情認識の正確性がわずかに改善されているのが観察された。ただ、その違いは統計的に有意ではなく、参加者が最初からうまくできていたため、改善の余地が限られていたってことだ。

研究2では、新しい感情が追加されたことで、アクティブなグループがシャムグループに比べてより大きな改善を示した。これにより、タスクの複雑さが増したことで、トレーニングされた参加者とされていない参加者との明確な区別ができたことが分かった。特に、怖がっている感情と悲しい感情の認識の改善が特記された。

研究3では、トレーニングが同じ顔でも異なる顔でも効果的であったことを示すために、整合したグループと整合しないグループ全体で感情認識の正確性が改善されたことが確認された。

主観的評価と経験

参加者は、トレーニングの経験について、どれくらい疲れたか、面白かったか、挑戦的だったかなどの主観的評価も提供した。全体的に、これらの主観的な測定においてトレーニンググループ間に有意な違いはなかったため、トレーニング内容の違いにもかかわらず、両グループが似たような経験をしていたことが示唆された。

将来の研究への示唆

我々の研究は、この感情認識トレーニングタスクが、顔の感情を認識する正確性を向上させる可能性があることを示唆している。この発見は、特に自閉症スペクトラムの人やメンタルヘルスの課題を抱える人にとって、こうしたタスクを介入として利用する可能性を裏付けるものだ。

将来の研究では、既存の困難を抱える人に対するこのトレーニングの効果をさらに掘り下げてみることができる。また、複数のトレーニングセッションの影響を探ることで、持続的な改善についての洞察が得られるかもしれない。多様な顔でトレーニングを試すことで、結果がどれだけ一般化できるかを評価することも有益だと思う。

考慮すべき制限

我々の研究は期待が持てる結果を出したけど、いくつかの制限も認識するべきだよね。たとえば、最初の研究では明確なトレーニング効果が示されず、これは参加者がトレーニング前からすでに良いパフォーマンスを発揮していたための天井効果があったかもしれない。また、オンライン形式の研究は参加者の関与や注意に問題を引き起こす可能性があったけど、この方法により広範な参加者の募集が可能だったんだ。

最後の考え

要するに、我々の研究は、感情認識トレーニングタスクが顔の感情を正確に特定するスキルを向上させる可能性を強調している。感情を認識する能力は社交にとって重要で、この領域で困っている人に大きく役立つかもしれない。特定のグループに合わせたトレーニングプログラムの研究と開発を続けることで、有効な介入やサポートツールの道が開けると思うよ。

オリジナルソース

タイトル: Assessing the effectiveness of online emotion recognition training in healthy volunteers

概要: BackgroundDifficulties in facial emotion recognition are associated with a range of mental health and neurodevelopmental conditions and can negatively impact longer term social functioning. Interventions that target facial emotion recognition may therefore have important clinical potential, for example for autistic individuals. We investigated the effect of an emotion recognition training (ERT) task on emotion recognition ability and, importantly, whether training generalises to novel (non-trained) faces. MethodsWe conducted three online experimental studies with healthy volunteers completing a single ERT session to test: 1) the efficacy of our four-emotion ERT (training to improve recognition of angry, happy, sad and scared emotional expressions) (N=101), 2) the efficacy of our six-emotion ERT (adding disgusted and surprised) (N=109), and 3) the generalisability of ERT to novel (non-trained) facial stimuli (N=120). In all three studies, our primary outcome was total correct hits across all emotions. In Studies 1 and 2, this was compared across active training and control (sham) training groups (randomised). In Study 3, this was compared across groups who were trained on stimuli that were either the same identity (stimulus-congruent), or a different identity (stimulus-incongruent) to those they were tested on (randomised). Linear mixed effects models were used to test for effects of training. ResultsThe effect estimate from Study 1 was in the direction of improvement in the active training group, however, confidence intervals were wide (b=0.02, 95% CI=-0.02 to 0.07, p=0.27) and our effect may have been reduced due to ceiling effects. Study 2, with the additional emotions, indicated total hits were greater following active (vs. sham) training, which remained following inclusion of baseline covariates (b=0.07, 95% CI=0.03 to 0.12, p=0.002). Study 3 demonstrated that improvement post-training was similar across stimulus-congruent and incongruent groups (b=-0.01, 95% CI=-0.05 to 0.02, p = 0.52). ConclusionOur results indicate that ERT improves emotion recognition and that this improvement generalises to novel stimuli. Our data suggest six emotions should be used rather than four to avoid ceiling effects in training. Future studies should explore generalisability of facial stimuli of different ages and ethnicities as well as examining longer-term effects of ERT. The application of ERT as an intervention may be particularly beneficial to populations with known emotion recognition difficulties, such as autistic individuals.

著者: Zoe E Reed, S. Suddell, A. Eastwood, L. Thomas, I. Dwyer, I. S. Penton-Voak, C. Jarrold, M. R. Munafo, A. S. Attwood

最終更新: 2023-03-10 00:00:00

言語: English

ソースURL: https://www.medrxiv.org/content/10.1101/2023.03.10.23286897

ソースPDF: https://www.medrxiv.org/content/10.1101/2023.03.10.23286897.full.pdf

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。

著者たちからもっと読む

類似の記事