Comprendre comment nos cerveaux traitent le rythme de la parole
Une étude sur l'activité cérébrale en écoutant la parole naturelle révèle des interactions complexes.
― 7 min lire
Table des matières
Quand on écoute quelqu'un parler, notre cerveau est occupé à traiter plein d'infos en même temps. Le langage naturel crée un schéma sonore qui nous aide à comprendre. Les chercheurs ont étudié comment notre cerveau réagit à la parole depuis des années. Une trouvaille importante, c'est que notre cerveau réagit aux sons de manière rythmique, ce qui nous aide à nous concentrer sur ce qui est dit. Mais, on ne sait pas vraiment si ce rythme vient de la parole elle-même ou si notre cerveau suit son propre rythme interne en écoutant.
Syllabes et rythme dans la parole
Les syllabes dans la parole apparaissent à un moment précis, environ toutes les 200 millisecondes. Ce timing est lié à la façon dont le volume de la parole change, ce qui se produit environ cinq fois par seconde. On pense que notre cerveau fait correspondre ce timing avec un rythme dans le cerveau qui fonctionne à une vitesse similaire, connu sous le nom de rythme thêta (4-7 Hz). Mais quand on regarde de plus grands groupes de mots, c'est plus difficile de voir cette correspondance. Un bon exemple, c'est que les phrases dans la parole peuvent avoir des rythmes qui durent environ une seconde. Ces phrases pourraient être suivies par un rythme plus lent dans le cerveau appelé rythme delta (en dessous de 2 Hz).
Le rôle de la Prosodie
On a vu dans d'autres études que notre cerveau peut suivre ces phrases rythmiques dans la plage delta. Cependant, certaines recherches suggèrent que ce rythme delta pourrait aussi refléter les efforts de notre cerveau pour décomposer des phrases et assembler des significations de plusieurs mots. Par exemple, le rythme dans notre cerveau peut prédire quand un groupe de mots va se terminer, même sans pauses claires dans la parole. Pourtant, la prosodie, qui fait référence aux motifs d'accentuation et d'intonation dans la parole, joue un rôle essentiel dans la façon dont on interprète le langage.
Conception de l'expérience
Dans cette étude, on voulait comprendre comment ces différents processus fonctionnent ensemble quand on écoute une parole naturelle. On a examiné comment le rythme de notre cerveau interagit avec les caractéristiques acoustiques de la parole - comme les pauses et les changements de son - tout en considérant la signification des phrases composées de plusieurs mots.
Pour ça, on a demandé aux participants d'écouter une histoire pendant qu'on enregistrait leur activité cérébrale. Pendant l'expérience, on a modifié les pauses naturelles dans l'histoire. Dans une partie, on a gardé l'histoire telle qu'elle était, et dans l'autre partie, on a changé aléatoirement la longueur des pauses tout en laissant la structure générale intacte. Comme ça, on pouvait voir comment les changements dans le rythme de la parole influençaient la réponse du cerveau.
Analyse de l'activité cérébrale
Notre but était de déterminer comment le cerveau traite les signaux acoustiques liés aux sons de la parole et le Contexte dans lequel ces sons se produisent. Pendant l'expérience, on s'est concentré sur comment l'activité cérébrale dans les plages de fréquence delta et gamma changeait selon les conditions d'écoute.
Après avoir écouté l'histoire, on a examiné de près comment différentes zones du cerveau réagissaient aux sons de la parole. On a constaté que, quand le rythme naturel de la parole était perturbé, la capacité du cerveau à se synchroniser avec la parole dans la plage delta diminuait. En revanche, à mesure que l'alignement delta chutait, on a vu une augmentation de l'activité gamma, suggérant un changement dans la façon dont le cerveau traite la parole entrante.
Activité delta et gamma
On a observé que quand la parole était prévisible, le cerveau montrait un fort alignement dans le rythme delta. Quand la parole devenait imprévisible, l'alignement delta s'affaiblissait, mais la cohérence gamma augmentait. Cette relation suggère que quand notre cerveau prédit quelque chose et que ça ne se produit pas, il réagit en augmentant l'activité gamma, ce qui peut aider à traiter l'information inattendue.
Traitement des groupes de mots
On voulait aussi vérifier si l'alignement delta du cerveau était évident aux frontières des phrases de plusieurs mots. En général, on pense que ces phrases aident à intégrer des significations de groupes de mots. On a identifié ces morceaux de plusieurs mots en utilisant un algorithme spécifique, ce qui nous a aidé à analyser la relation entre les groupes de mots et l'activité cérébrale qui leur correspond.
Dans nos résultats, on a trouvé qu'il y avait encore un alignement delta pour les débuts de morceaux qui n'avaient pas de pause claire. Ça veut dire que nos cerveaux peuvent capter des signaux contextuels même s'il n'y a pas de pauses claires dans la parole.
Traitement contextuel des morceaux
Ensuite, on a examiné si reconnaître des morceaux de mots dans la parole améliorait la précision de nos modèles qui prédisaient l'activité cérébrale. On a créé deux modèles : un qui incluait les morceaux et un autre qui ne les incluait pas. Le modèle qui incluait les morceaux a mieux fonctionné, ce qui indique que nos cerveaux utilisent le contexte pour comprendre la parole.
Pour s'assurer que ces résultats étaient fiables, on a analysé comment l'activité de phase delta était liée à la performance de nos modèles. On a découvert un lien significatif entre la précision du modèle et la présence d'un alignement delta aux débuts de morceaux qui manquaient de pauses. Ça suggère que reconnaître des morceaux de plusieurs mots est lié à la façon dont le cerveau s'aligne avec l'activité rythmique lente.
Interactions entre les processus
Les résultats indiquent que notre cerveau traite la parole de manière superposée. Le traitement "bottom-up" se concentre sur les sons et les rythmes, tandis que le traitement "top-down" s'appuie sur le contexte et les attentes. Les deux types de traitement sont importants pour nous aider à mieux comprendre la parole.
Quand la structure naturelle de la parole est perturbée, comme avec nos changements de pauses, ça conduit à une réduction de la prévisibilité. Ce changement oblige le cerveau à s'adapter, causant un décalage dans l'équilibre entre ces deux types de traitement.
Résumé des résultats
Pour résumer, notre recherche montre que nos cerveaux travaillent pour traiter les aspects rythmiques de la parole tout en intégrant des informations contextuelles. Le rythme delta semble être plus aligné avec la façon dont on s'attend à ce que les phrases se déroulent, tandis que l'activité gamma reflète la façon dont nos cerveaux réagissent à des informations inattendues.
En manipulant la structure de la parole dans l'histoire, on a découvert que les changements de timing affectent la façon dont le cerveau synchronise son activité avec les mots prononcés. Les deux rythmes fonctionnent en parallèle, permettant au cerveau de mélanger les entrées sensorielles avec des connaissances et des expériences pour mieux comprendre la parole.
Conclusion
La façon dont on traite le langage parlé est complexe et implique de nombreux systèmes interactifs. Nos découvertes révèlent que les motifs rythmiques dans la parole et les informations contextuelles jouent des rôles essentiels dans notre compréhension du langage. En continuant d'explorer ces processus, ça pourrait mener à de nouvelles approches pour aider les gens avec des difficultés linguistiques ou améliorer les technologies de communication.
Comprendre comment ces éléments fonctionnent ensemble pourrait apporter des éclairages sur les nuances du traitement de la parole et l'importance du rythme et du contexte dans nos interactions quotidiennes.
Titre: Dissociating endogenous and exogenous delta activity during natural speech comprehension
Résumé: Decoding human speech requires the brain to segment the incoming acoustic signal into meaningful linguistic units, ranging from syllables and words to phrases. Integrating these linguistic constituents into a coherent percept sets the root of compositional meaning and hence understanding. One important cue for segmentation in natural speech are prosodic cues, such as pauses, but their interplay with higher-level linguistic processing is still unknown. Here we dissociate the neural tracking of prosodic pauses from the segmentation of multi-word chunks using magnetoencephalography (MEG). We find that manipulating the regularity of pauses disrupts slow speech-brain tracking bilaterally in auditory areas (below 2 Hz) and in turn increases left-lateralized coherence of higher frequency auditory activity at speech onsets (around 25 - 45 Hz). Critically, we also find that multi-word chunks--defined as short, coherent bundles of inter-word dependencies--are processed through the rhythmic fluctuations of low frequency activity (below 2 Hz) bilaterally and independently of prosodic cues. Importantly, low-frequency alignment at chunk onsets increases the accuracy of an encoding model in bilateral auditory and frontal areas, while controlling for the effect of acoustics. Our findings provide novel insights into the neural basis of speech perception, demonstrating that both acoustic features (prosodic cues) and abstract processing at the multi-word timescale are underpinned independently by low-frequency electrophysiological brain activity.
Auteurs: Nikos Chalas, L. Meyer, C.-W. Lo, H. Park, D. S. Kluger, O. Abbasi, C. Kayser, R. Nitsch, J. Gross
Dernière mise à jour: 2024-02-01 00:00:00
Langue: English
Source URL: https://www.biorxiv.org/content/10.1101/2024.02.01.578181
Source PDF: https://www.biorxiv.org/content/10.1101/2024.02.01.578181.full.pdf
Licence: https://creativecommons.org/licenses/by-nc/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à biorxiv pour l'utilisation de son interopérabilité en libre accès.