動く物体を予測する私たちの脳の仕組み
研究によると、脳は動く形の位置を処理の遅れにもかかわらず予測することがわかった。
William Turner, C. Sexton, P. A. Johnson, E. Wilson, H. Hogendoorn
― 1 分で読む
物が動いてるのを見ると、たとえばテニスボールがこっちに飛んでくるとき、脳はその視覚情報をすぐに処理しなきゃいけないんだけど、処理にはちょっと時間がかかるんだよね。これが問題を引き起こすことがある。例えば、テニスプレーヤーがボールを見るのに遅れがあると、ボールの位置を正確に見積もれなくて、ショットを外しちゃうかもしれない。
研究によると、脳は動いている物体がどこにいるかを、実際に見る前に予測できるらしい。これってウサギやサルなど、いろんな動物で見られる現象で、彼らの視覚システムが物の動きを予測してるみたい。じゃあ、人間の場合はどうなってるの、特に視覚情報の処理に遅れがあるときは?
その解明のために、科学者たちは人が静止した物体や動いている物体を見ているときの脳の活動を記録したんだ。すると、脳は似たような動きの過去の経験を利用して、動いている物体の位置を予測できることがわかった。つまり、処理に遅れがあっても、脳は物がどこにいるかを比較的正確に推測できるってこと。
さらに詳しく調べるために、研究者たちはEEGっていう方法を使って、頭皮にセンサーを置いて脳の活動を測定した。参加者は画面上でいくつかの形が点滅するのを見て、それからその形が動くのを観察した。研究者たちは、実験中に記録された脳の活動を使って、これらの動きを正確に追跡できるかどうか見たかった。
実験の設定
18人の参加者がこの研究に参加した。彼らは合計4000枚の静止画像と1920個の動く形を見た。形はスムーズに動いたり、思わぬ方向にランダムに変わったりした。
実験中、参加者が形に集中しているときに脳の活動が記録された。研究者たちは、脳がどれだけうまく形の位置を予測できるかを、その活動パターンに基づいて調べた。
脳の活動から位置情報を見つける
脳が形の位置をどれだけ予測できるかを調べるために、研究者たちは統計モデルを作った。このモデルは、脳の電気的活動と画面上の形の実際の位置を比較した。
平均して、脳は形が現れてから約75ミリ秒後に、正確な位置情報を与え始めた。この情報は約半秒間続いた。形の位置を最もよく予測できたのは、脳の後ろの部分、後頭葉からの活動だった。
研究者たちは、脳が時間の経過とともに動く物体をどう追跡し続けるかも調べた。形が方向を変えたときでも、予測にはオーバーシュートが見られた。つまり、脳は時々形の実際の位置よりも先にいると見積もってたんだ。
脳内の動く物体のマッピング
静止した形の位置を追跡できることが確認できたら、次のステップは動いている形を追跡できるか見ることだった。静止した形のデータでモデルをトレーニングして、同じモデルを動いている形に適用して、その位置を正確にマッピングできるか試した。
研究者たちは、脳の活動に基づいて動いている形がどこにいるかの動的マップを作成できることを発見した。これは重要で、スムーズに動く物体を追跡するのは、静止した物体よりも複雑だから。動く物体には脳が反応するための明確な始まりや終わりのポイントがないからだ。
この確率マップを作ることで、研究者たちは動く形を観察する間に脳の活動が時間とともにどう変化するかを可視化できた。予測可能な動きにさらされると、マップは形のリアルタイムの位置にシフトすることがわかった。
脳の活動における予測的ダイナミクス
脳が動く物体の位置を予測できる理由を理解するために、研究者たちは脳の処理のさまざまな段階がどのように関与しているかを調べた。形が現れた後のさまざまなタイミングで、脳の予測が時間とともにどう変わるかを見たんだ。
形が動いているのを見ると、形の位置に関連する活動パターンが予測可能な動きに反応して早く現れることがわかった。つまり、脳は視覚情報を処理するのにかかる時間を補償して、より正確な予測を実現しているってこと。
データを分析した結果、脳の動いている形の位置に関する予測は、即時の反応だけでなく、似た動きの過去の経験から得た情報にも基づいていることがわかった。
位置追跡のモデルを開発する
これらの発見をさらに説明するために、研究者たちは脳が動いている物体の視覚情報をどう処理するかをシミュレートするモデルを開発した。彼らはスパイクタイミング依存可塑性(STDP)というタイプの学習メカニズムを使った。このプロセスは、神経の発火のタイミングに基づいて脳内の接続を強化するのを助ける。
モデルでは、視覚処理の異なる段階を表す層のネットワークを作成した。動いている物体を観察するにつれて、ネットワーク内の接続が調整されて、その物体の将来の位置を予測するのに役立つことがわかった。これはEEGデータで観察されたことと似ている。
ネットワークは、時間が経つにつれて学習することがより良い予測につながる様子を示して、脳が進行中の視覚入力に基づいて物体の位置の理解を抽象化し、シフトさせ続けることができることを示した。
発見と示唆
この研究の全体的な発見は、人間の脳が物体が方向や速度を変えるときにその位置を迅速に予測できることを強く示している。この予測能力は、神経処理のダイナミクスと学習経験の組み合わせに基づいている。
この研究は、特にスポーツや運転、速く動く環境といったリアルタイムのシナリオで、視覚処理がどう行われるかを理解する重要性を強調してる。物体がどこにいるかを予測できる能力は、より効果的でタイムリーな反応を可能にするんだ。
この研究は、脳が視覚情報をどう解釈するか、そしてその理解が実用的な応用にどう活用できるかをさらに探求する可能性を開く。たとえば、スポーツのトレーニングプログラムや視覚処理能力を高める方法など。
未来の研究方向
今後、研究者たちはこの研究の発見がさまざまな分野でどう応用できるかを考えるかもしれない。たとえば、脳の予測能力を理解すれば、スポーツのトレーニング方法を改善できて、選手たちがタイミングや反応を洗練させて競争力を高めるかもしれない。
さらに、動く物体の速さが位置の予測にどう影響するかを研究することで、視覚処理に関する理解が深まる。これによって、運転のようなシナリオで、動いている物体の迅速かつ正確な推定が重要であることがよくわかるようになる。
この研究の示唆は、臨床の場にも及ぶ。視覚処理メカニズムがどう機能するかを調べることで、視覚処理障害のある人々に役立つ治療法に対する情報をより良く提供でき、最終的には影響を受けた人々の生活の質を向上させることにつながる。
結論
要するに、人間の脳は動いている物体がどこにいるかを予測するのがすごく得意で、処理に遅れがあっても大丈夫だってわかった。EEG measurementsや高度なモデリングを使った研究を通じて、研究者たちは視覚処理や動きの外挿の複雑さを少しずつ解明してきた。この発見は、脳の本来の能力に光を当てて、さまざまな分野での今後の探求や応用のエキサイティングな道を示している。
オリジナルソース
タイトル: Progressive multi-stage extrapolation of predictable motion in human visual cortex
概要: Neural processing of sensory information takes time. Consequently, to estimate the current state of the world, the brain must rely on predictive processes - for example, extrapolating the motion of a ball to determine its probable present position. Mounting evidence suggests that extrapolation occurs during early (retinal) processing, however it remains unclear whether extrapolation continues during later-stage (cortical) processing. Moreover, we currently lack a spatially precise characterisation of extrapolation effects in the human brain, with most studies relying on invasive neurophysiological techniques in animals. Here, we address these issues by demonstrating how precise probabilistic maps can be constructed from human EEG recordings. Participants (N = 18) viewed a stimulus moving along a circular trajectory while EEG was recorded. Using LDA classification, we extracted maps of stimulus location over time and found evidence of a widespread temporal shift occurring across distinct processing stages. This accelerated emergence of position representations indicates progressive extrapolation occurring at multiple stages of processing, with representations across the hierarchy shifted closer to real-time. We further show evidence of representational overshoot during early-stage processing following unexpected changes to an object's trajectory, and demonstrate that the observed dynamics can emerge spontaneously in a simulated neural network via spike-timing-dependent plasticity.
著者: William Turner, C. Sexton, P. A. Johnson, E. Wilson, H. Hogendoorn
最終更新: 2025-01-02 00:00:00
言語: English
ソースURL: https://www.biorxiv.org/content/10.1101/2024.04.22.590502
ソースPDF: https://www.biorxiv.org/content/10.1101/2024.04.22.590502.full.pdf
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた biorxiv に感謝します。