Simple Science

La science de pointe expliquée simplement

# Sciences de la santé# Pédiatrie

Utiliser des modèles de parole pour évaluer la gravité de l'autisme

Des chercheurs analysent la parole des enfants pour améliorer le diagnostic et le soutien de l'autisme.

― 8 min lire


Analyse de la parole dansAnalyse de la parole dansle diagnostic del'autismel'autisme.compréhension des symptômes deDe nouvelles techniques améliorent la
Table des matières

Le trouble du spectre autistique (TSA) est une condition qui influence la façon dont une personne communique et interagit avec les autres. Les enfants avec autisme ont souvent du mal avec les compétences sociales et peuvent montrer des comportements spécifiques. Ces comportements peuvent inclure des répétitions d'actions ou de phrases et le respect des routines. Beaucoup d'enfants autistes ont des retards dans le développement de la parole quand ils sont jeunes. Certains n'utilisent que quelques mots durant leur enfance.

Fait intéressant, la façon dont les enfants autistes parlent peut en dire plus sur leur condition que le nombre de mots qu'ils utilisent. Par exemple, certains peuvent avoir une manière de parler unique, comme une voix aiguë ou des schémas de parole irréguliers. Ils peuvent répéter des phrases qu'ils ont entendues avant ou utiliser des mots différemment de ce qu'on attend. Des études montrent que les enfants autistes ont souvent des schémas vocaux différents de ceux de leurs pairs qui se développent normalement. Ils peuvent utiliser moins de sons en parlant, prendre moins de tours dans les conversations et parfois exprimer leur détresse par des pleurs ou des cris plus souvent que leurs camarades.

Le rôle de l'analyse de la parole dans le diagnostic du TSA

Ces dernières années, les chercheurs ont commencé à utiliser la technologie pour analyser les schémas de parole des enfants autistes. En examinant des caractéristiques spécifiques de la parole, les chercheurs peuvent distinguer les enfants autistes de ceux qui se développent normalement. Certaines études se concentrent sur le langage utilisé par les enfants, tandis que d'autres regardent les sons de leur parole, comme la hauteur et le volume.

Quelques études ont poussé les choses plus loin, en utilisant des techniques d'apprentissage automatique et d'apprentissage profond pour évaluer la sévérité de l'autisme. Dans ces cas, des professionnels formés utilisent des évaluations structurées, comme l'Autism Diagnostic Observation Schedule (ADOS), pour déterminer à quel point les symptômes d'un enfant sont graves. Ils utilisent ensuite ces informations pour entraîner des Algorithmes à analyser les enregistrements de parole.

Création d'un grand ensemble de données pour l'analyse de la parole

Pour améliorer l'exactitude de ces technologies, les chercheurs ont créé une grande collection d'enregistrements de parole. Cet ensemble de données comprend des milliers de vocalisations d'enfants diagnostiqués avec de l'autisme. Cette vaste collection permet aux algorithmes d'apprendre à partir d'une grande variété de schémas de parole et de comportements.

Dans une étude récente, les chercheurs ont collecté des enregistrements d'environ 200 enfants lors de leurs évaluations ADOS. Certains de ces enfants ont été enregistrés plusieurs fois au cours de plusieurs années, ce qui a fourni des informations précieuses sur l'évolution de leurs schémas de parole en grandissant. Cet ensemble de données complet a donné aux chercheurs une base solide pour former leurs algorithmes d'analyse de la parole.

Le processus d'analyse des schémas de parole

Les chercheurs se sont concentrés sur la façon dont les enfants autistes vocalisaient pendant leurs évaluations. Ils ont étiqueté les parties des enregistrements où les enfants faisaient des sons, incluant la parole, les rires, les pleurs et autres vocalisations. Ils ont supprimé les sons très courts qui ne contenaient pas de parole significative et ont divisé les sons restants en groupes pour analyse.

Pour chaque vocalisation, les chercheurs ont extrait de nombreuses caractéristiques. Ces caractéristiques peuvent inclure des choses comme la hauteur (à quel point la voix est aiguë ou grave), les niveaux d'énergie (à quel point le son est fort), et le nombre de fois que les enfants ont parlé. En examinant ces caractéristiques, les chercheurs peuvent reconnaître des schémas qui pourraient indiquer de l'autisme et évaluer la sévérité des symptômes d'un enfant.

Formation des algorithmes de parole

Une fois les données de parole collectées, les chercheurs ont formé leurs algorithmes en utilisant des enregistrements d'enfants autistes. Ils ont développé des modèles séparés pour analyser les différents symptômes : ceux liés à l'interaction sociale et ceux liés aux comportements répétitifs. En se concentrant sur ces deux domaines, les chercheurs pouvaient ajuster les algorithmes pour mieux prédire à quel point les symptômes d'un enfant étaient graves.

Ils ont testé ces algorithmes sur un groupe complètement différent d'enfants pour voir comment les modèles fonctionnaient. En comparant les scores estimés par les algorithmes avec les scores réels déterminés par des cliniciens, les chercheurs pouvaient évaluer l'exactitude de leur analyse de la parole.

Validation de l'exactitude et de la fiabilité

Les chercheurs ont découvert que les algorithmes étaient efficaces pour estimer la sévérité des symptômes sociaux chez les enfants autistes en analysant les résultats des enregistrements de parole. L'exactitude de ces prédictions était assez forte, suggérant que les schémas de parole contiennent des informations précieuses sur la sévérité des symptômes d'autisme.

Fait intéressant, les algorithmes ont mieux fonctionné pour évaluer les symptômes sociaux par rapport aux comportements répétitifs. Cela pourrait être dû à la nature des caractéristiques vocales sélectionnées pour l'analyse. Les interactions sociales impliquent une plus grande variété de caractéristiques vocales, tandis que les comportements répétitifs peuvent être moins variés dans leur expression.

Différences selon l'âge et le sexe

Pour s'assurer que les algorithmes fonctionnaient bien dans différents groupes, les chercheurs ont également observé comment l'exactitude variait en fonction de l'âge et du sexe. Ils ont analysé des enfants plus jeunes et plus âgés, ainsi que des garçons et des filles. Globalement, les algorithmes ont montré des performances similaires dans différents groupes, indiquant leur utilité pour une large gamme d'enfants diagnostiqués avec l'autisme.

Bien que le système ait bien fonctionné pour les deux sexes, de légères variations dans l'exactitude ont été notées. Cependant, ces différences n'étaient pas suffisamment grandes pour indiquer que les algorithmes devraient être ajustés en fonction du sexe ou de l'âge.

Directions futures pour l'analyse de la parole dans la recherche sur l'autisme

Les résultats de cette recherche s'ajoutent à l'ensemble grandissant de preuves suggérant que l'analyse de la parole peut fournir des informations importantes sur les défis de communication rencontrés par les enfants autistes. En partageant leurs résultats et l'ensemble de données, les chercheurs espèrent que d'autres pourront s'appuyer sur leur travail et continuer à améliorer ces technologies.

Les futures études pourraient élargir ce travail en incluant davantage de facteurs. Par exemple, les chercheurs pourraient analyser non seulement la parole, mais aussi le langage corporel et le contact visuel lors des évaluations. Combiner ces différentes formes de communication pourrait conduire à des outils encore meilleurs pour comprendre et soutenir les enfants avec autisme.

Aborder les limitations

Bien que prometteuse, cette recherche a quelques limitations. Par exemple, les chercheurs n'ont pas analysé les mots réels utilisés par les enfants, ce qui pourrait offrir plus de profondeur à leurs résultats. Ils ne se sont pas non plus concentrés sur des schémas vocaux spécifiques comme l'écholalie, qui est courante chez les enfants autistes et pourrait donner des aperçus supplémentaires sur leur comportement.

De plus, le bruit de fond dans l'environnement d'enregistrement n'a pas été minimisé, ce qui peut affecter la clarté de l'analyse des données. Le ratio homme-femme dans l'échantillon de l'étude n'était pas équilibré, ce qui pourrait potentiellement influencer les résultats. Ces limitations soulignent des domaines pour de futures recherches et des améliorations dans les méthodologies d'analyse de la parole.

Conclusion

Cette recherche démontre que les enregistrements de parole contiennent des informations précieuses sur la sévérité des symptômes d'autisme chez les enfants. Les algorithmes développés montrent un grand potentiel pour évaluer avec précision ces symptômes. Cela ouvre la porte à des outils plus efficaces que les cliniciens peuvent utiliser pour évaluer et soutenir les enfants avec autisme. Au fur et à mesure que les chercheurs continuent de peaufiner ces méthodes et de partager leurs résultats, l'avenir semble prometteur pour une meilleure compréhension et des stratégies d'intervention pour le trouble du spectre autistique.

Source originale

Titre: Reliably quantifying the severity of social symptoms in children with autism using ASDSpeech

Résumé: Several studies have demonstrated that the severity of social communication problems, a core symptom of Autism Spectrum Disorder (ASD), is correlated with specific speech characteristics of ASD individuals. This suggests that it may be possible to develop speech analysis algorithms that can quantify ASD symptom severity from speech recordings in a direct and objective manner. Here we demonstrate the utility of a new open-source AI algorithm, ASDSpeech, which can analyze speech recordings of ASD children and reliably quantify their social communication difficulties across multiple developmental timepoints. The algorithm was trained and tested on the largest ASD speech dataset available to date, which contained 99,193 vocalizations from 197 ASD children recorded in 258 Autism Diagnostic Observation Schedule, 2nd edition (ADOS-2) assessments. ASDSpeech was trained with acoustic and conversational features extracted from the speech recordings of 136 children, who participated in a single ADOS-2 assessment, and tested with independent recordings of 61 additional children who completed two ADOS-2 assessments, separated by 1-2 years. Estimated total ADOS-2 scores in the test set were significantly correlated with actual scores when examining either the first (r(59) = 0.544, P < 0.0001) or second (r(59) = 0.605, P < 0.0001) assessment. Separate estimation of social communication and restricted and repetitive behavior symptoms revealed that ASDSpeech was particularly accurate at estimating social communication symptoms (i.e., ADOS-2 social affect scores). These results demonstrate the potential utility of ASDSpeech for enhancing basic and clinical ASD research as well as clinical management. We openly share both algorithm and speech feature dataset for use and further development by the community.

Auteurs: Marina Eni, M. Ilan, Michaelovski, H. Golan, G. Meiri, I. Menashe, I. Dinstein, Y. Zigel

Dernière mise à jour: 2024-03-19 00:00:00

Langue: English

Source URL: https://www.medrxiv.org/content/10.1101/2023.10.27.23297600

Source PDF: https://www.medrxiv.org/content/10.1101/2023.10.27.23297600.full.pdf

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires