Comment notre cerveau relie la musique et le langage
Des recherches montrent qu'il y a des ressources neuronales partagées pour le traitement de la musique et du langage dans le cerveau.
― 7 min lire
Table des matières
La relation entre la musique et le langage est un sujet qui intéresse depuis longtemps. Les scientifiques utilisent maintenant les neurosciences pour étudier comment notre cerveau traite ces formes de communication. Il y a des preuves qui suggèrent qu'il existe des zones spécifiques dans le cerveau qui s'occupent du langage et de la musique, mais il y a aussi une possibilité que ces zones partagent des ressources.
Ça soulève des questions sur la façon dont le cerveau encode ou représente l'information. Ces représentations sont-elles spécifiques à un stimulus, ou sont-elles plus générales et partagées entre différents types de stimuli ? Comprendre ça pourrait nous aider à en apprendre plus sur notre façon de penser et sur le fonctionnement de notre cerveau.
Questions Clés
Une des principales questions est de savoir si le cerveau traite le langage et la musique séparément ou ensemble. Une autre question importante concerne comment l'information est représentée dans le cerveau. Les chercheurs veulent savoir si le cerveau utilise quelques neurones dédiés pour chaque type de son ou s'il répartit l'information sur de nombreux neurones. C'est important parce que si un petit nombre de neurones peut représenter un grand nombre de sons, il nous faudrait beaucoup de neurones pour tous les sons possibles si la représentation est spécifique.
La plupart des études suggèrent que nos cerveaux utilisent des groupes de neurones pour identifier les sons, indiquant qu'il y a une façon plus distribuée de traiter. Ça veut dire que même si certains neurones sont plus actifs quand on traite des stimuli spécifiques, beaucoup d'autres neurones sont toujours impliqués.
Évidence Mixte
Les études en neurosciences montrent des résultats variés sur la façon dont nos cerveaux gèrent le langage et la musique. Certaines études soutiennent que certaines zones du cerveau sont strictement pour le langage, tandis que d'autres indiquent que les mêmes zones sont aussi impliquées dans le traitement de la musique. Cette confusion peut venir de différentes façons dont les chercheurs définissent les parties du cerveau qu'ils étudient.
Par exemple, certaines études utilisent des courts extraits audio pour tester les réponses du cerveau. Bien que ces courts extraits puissent montrer qu'une zone du cerveau s'active pour un son particulier, ils ne représentent peut-être pas comment on entend réellement des sons plus longs et plus complexes dans la vraie vie. La musique, par exemple, a souvent une durée plus longue que la parole, ce qui peut provoquer des différences dans la façon dont le cerveau réagit.
De plus, équilibrer la complexité des sons vocaux et musicaux dans ces études peut être délicat, en simplifiant souvent les stimuli musicaux à de simples mélodies au lieu d'utiliser des compositions plus complexes. Cette simplification pourrait ne pas engager tous les systèmes de traitement du cerveau comme la musique naturelle le fait.
Conception de l'Étude
Dans une étude novatrice, des chercheurs ont examiné comment le cerveau réagit à des enregistrements longs et naturels de discours et de musique. Ils ont étudié des patients atteints d'épilepsie qui avaient des électrodes implantées dans leur cerveau. Ces électrodes ont permis aux chercheurs de regarder l'activité cérébrale pendant que les patients écoutaient environ dix minutes de narration et de musique instrumentale.
Les chercheurs ont observé comment différentes parties du cerveau réagissaient à ces sons et ont classé cette réponse en trois groupes : réponses partagées, réponses sélectives et réponses préférées. Les réponses partagées se produisent lorsque plusieurs types de sons activent les mêmes zones du cerveau. Les réponses sélectives indiquent qu'un type de son active principalement une zone spécifique, tandis que les réponses préférées indiquent que, bien que les deux types de sons activent une région, l'un est plus fort que l'autre.
Résultats sur les Réponses Neurales
L'étude a trouvé que la plupart des réponses cérébrales pendant l'écoute de la parole et de la musique étaient partagées. Environ 70% des canaux connectés au cerveau ont montré des réponses significatives qui étaient communes aux deux types de sons. La catégorie préférée était plus petite, montrant seulement 3% à 15% de réponses. Les réponses sélectives apparaissaient principalement dans les Bandes de fréquence basse et étaient moins courantes dans les bandes de fréquence plus haute.
La distribution spatiale des réponses était alignée avec des réseaux cérébraux typiquement impliqués dans le traitement de la parole et de la musique. Ce réseau comprenait des zones au-delà du Cortex auditif, indiquant que le traitement de ces sons engage une gamme plus large de fonctions cérébrales.
Importance des Bandes de Fréquence
Différentes bandes de fréquence dans l'activité cérébrale étaient cruciales pour comprendre comment les sons sont traités. L'étude a souligné l'importance d'analyser non seulement l'activité à haute fréquence, mais une gamme complète de fréquences, des basses aux hautes. L'activité neuronale à basse fréquence s'est révélée meilleure pour encoder la dynamique des sons, indiquant que les fréquences basses jouaient un rôle significatif dans la façon dont le cerveau comprenait la parole et la musique.
Connectivité Entre les Régions Cérébrales
L'étude a également examiné comment le cortex auditif se connectait avec d'autres parties du cerveau. Elle a trouvé que les connexions pendant la perception de la musique et de la parole étaient généralement partagées entre les deux types de stimuli, avec 70% des connexions observées comme partagées. Cela suggère que différentes zones du cerveau collaborent étroitement lors du traitement de ces sons.
En analysant les connexions, les chercheurs ont remarqué que des réponses sélectives se produisaient, mais étaient principalement dans des réseaux spécifiques aux fréquences plutôt que liées à des régions cérébrales spécifiques. Cela signifie que même si certaines zones semblent plus réactives à un type de son, les connexions globales à travers le cerveau tendent à être partagées.
Implications des Résultats
Ces résultats remettent en question les croyances antérieures selon lesquelles certaines zones du cerveau sont strictement responsables de la musique ou du langage. Au lieu de cela, les preuves suggèrent que notre cerveau utilise un réseau hautement interconnecté et flexible pour traiter ces sons. Cette interconnexion suggère que notre compréhension de la musique et du langage existe sur un spectre, plutôt que d'être catégoriquement séparée.
L'absence de sélectivité régionale stricte implique que le traitement auditif du cerveau est adaptable et peut passer de façon flexible entre le traitement de la parole et de la musique selon les besoins. Cela indique une vision plus complexe de la façon dont nous traitons l'information auditive, suggérant que l'organisation du cerveau n'est pas rigide mais adaptable en fonction de l'expérience et du contexte.
Conclusion
En gros, cette recherche éclaire l'approche du cerveau pour traiter la musique et le langage. Les résultats suggèrent que la musique et le langage partagent une quantité significative de ressources neuronales, remettant en question l'idée qu'ils sont strictement séparés dans le fonctionnement de notre cerveau. Cette compréhension pourrait aider à développer de meilleures approches pour l'éducation, la réhabilitation et les thérapies destinées à ceux qui ont des difficultés de traitement du langage et de la musique.
Les recherches futures doivent continuer à explorer comment différents types de stimuli musicaux et linguistiques impactent le cerveau, ainsi que comment ces processus changent dans des contextes plus naturels et interactifs. D'autres études pourraient aider à clarifier notre compréhension des complexités du traitement auditif et des capacités du cerveau humain.
Titre: Speech and music recruit frequency-specific distributed and overlapping cortical networks
Résumé: To what extent does speech and music processing rely on domain-specific and domain-general neural networks? Using whole-brain intracranial EEG recordings in 18 epilepsy patients listening to natural, continuous speech or music, we investigated the presence of frequency-specific and network-level brain activity. We combined it with a statistical approach in which a clear operational distinction is made between shared, preferred, and domain-selective neural responses. We show that the majority of focal and network-level neural activity is shared between speech and music processing. Our data also reveal an absence of anatomical regional selectivity. Instead, domain-selective neural responses are restricted to distributed and frequency-specific coherent oscillations, typical of spectral fingerprints. Our work highlights the importance of considering natural stimuli and brain dynamics in their full complexity to map cognitive and brain functions.
Auteurs: Noemie A.G. te Rietmolen, M. Mercier, A. Trebuchon, B. Morillon, D. Schon
Dernière mise à jour: 2024-03-20 00:00:00
Langue: English
Source URL: https://www.biorxiv.org/content/10.1101/2022.10.08.511398
Source PDF: https://www.biorxiv.org/content/10.1101/2022.10.08.511398.full.pdf
Licence: https://creativecommons.org/licenses/by-nc/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à biorxiv pour l'utilisation de son interopérabilité en libre accès.