Entendiendo el Procesamiento de Voz en Entornos Desafiantes
Este estudio examina cómo la capacidad auditiva afecta la comprensión del habla en entornos ruidosos.
― 8 minilectura
Tabla de contenidos
El habla humana consiste en diferentes partes que se juntan para crear significado. Estas partes van desde sonidos pequeñitos llamados fonemas hasta estructuras más grandes como palabras, frases e incluso párrafos enteros. Cada una de estas partes es procesada por nuestros cerebros en diferentes lapsos de tiempo. Los fonemas se reconocen en una fracción de segundo, mientras que entender ideas complejas como párrafos puede llevar unos minutos. Los investigadores aún están tratando de averiguar cómo nuestros cerebros gestionan estas diferentes unidades de habla mientras escuchamos.
En el mundo visual, sabemos que nuestro cerebro organiza la información de forma estructurada. Por ejemplo, se encuentran neuronas que responden a formas o colores simples en áreas tempranas del cerebro, mientras que las regiones que manejan imágenes más complejas toman input de estas áreas más simples. Se cree que una idea similar existe en la forma en que nuestros cerebros procesan los sonidos. Las áreas auditivas primarias manejan rápidamente los cambios en los sonidos, como los fonemas, mientras que las áreas responsables del pensamiento de mayor nivel gestionan frases o oraciones más largas.
Estudios recientes usando técnicas de imagen avanzadas han indicado que nuestro cerebro procesa diferentes aspectos del lenguaje en diferentes áreas. Por ejemplo, algunas investigaciones mostraron que cuando las personas escuchaban historias, diferentes partes del cerebro se iluminaban dependiendo de si se enfocaban en palabras sueltas o en oraciones completas. Algunos hallazgos sugieren que la respuesta de nuestro cerebro cambia dependiendo de si estamos escuchando una sola voz o muchas voces a la vez, como en un lugar lleno de gente.
Escuchar a varias personas hablando al mismo tiempo, a menudo referido como una situación de “fiesta de cóctel”, también plantea desafíos. En este contexto, debemos elegir la voz que queremos escuchar mientras filtramos el ruido de fondo. Estudios han mostrado que incluso con audición normal, las personas pueden enfocarse en hablantes específicos y procesar mejor su habla en comparación con conversaciones en competencia.
Muchos factores pueden afectar cuán bien alguien puede seguir el habla en tales condiciones. Un aspecto importante es cómo nuestros cerebros responden a los sonidos y significados del habla. Curiosamente, algunos estudios se han centrado más en los sonidos básicos y menos en cómo procesamos significados de nivel superior.
La Importancia de la Investigación
Entender cómo nuestros cerebros procesan el habla en entornos desafiantes es crucial, especialmente para las personas con discapacidades auditivas. Para entenderlo mejor, los investigadores han diseñado experimentos que observan cómo las personas con audición normal y aquellas con pérdida auditiva manejan conversaciones cuando hay varios hablantes presentes.
En estos experimentos, los participantes escuchan Discursos de varios hablantes (condición de múltiples hablantes) y luego discursos de un solo hablante (condición de un solo hablante). A los participantes se les pide que se enfoquen en hablantes específicos mientras escuchan. El objetivo de este estudio es ver cómo diferentes tipos de habla, y los desafíos que presentan, afectan la comprensión en personas con audición normal en comparación con las que tienen discapacidades auditivas.
Metodología
En este estudio, se involucraron dos grupos de participantes: un grupo con pérdida auditiva y otro grupo con audición normal. Se pidió a todos los participantes que escucharan grabaciones que incluían discursos de hablantes masculinos y femeninos. Los participantes escucharían los discursos en diferentes condiciones, a veces con múltiples hablantes y a veces con solo un hablante.
El equipo de investigación utilizó modelos computacionales sofisticados para analizar cómo la información de diferentes partes del discurso, desde sonidos básicos hasta oraciones completas, es procesada por el cerebro. Al combinar los datos de Actividad cerebral con los datos del habla, los investigadores pudieron ver qué tan bien responde el cerebro a diferentes tipos de habla.
Participantes
El estudio involucró a 41 participantes con pérdida auditiva de alta frecuencia extendida, que es un tipo de pérdida auditiva que afecta la capacidad de escuchar sonidos de tonos más altos. El otro grupo estaba compuesto por 33 personas con capacidades auditivas normales. Los investigadores querían comparar cómo estos dos grupos entendían el habla, especialmente en situaciones de escucha complejas.
Diseño Experimental
Los participantes completaron varias tareas durante el estudio. En la condición de múltiples hablantes, se reproducían grabaciones de hablantes masculinos y femeninos al mismo tiempo, y los participantes se enfocaban en un hablante específico. En la condición de un solo hablante, los discursos de cada hablante se reproducían por separado. Este diseño ayudó a los investigadores a entender qué tan bien podían los participantes seguir el habla cuando había mucho ruido de fondo.
Después de escuchar, los participantes calificaron qué tan bien entendieron los discursos. Este feedback ayudaría a los investigadores a analizar las diferencias en la comprensión entre los dos grupos.
Resultados
Los resultados mostraron patrones interesantes. Los participantes con audición normal generalmente obtuvieron mejores puntuaciones en la comprensión tanto de los discursos mezclados como de los discursos individuales en comparación con aquellos con pérdida auditiva. Los participantes con audición normal encontraron más fácil seguir los discursos cuando solo había un hablante presente, mientras que aquellos con pérdida auditiva tuvieron más dificultades, especialmente cuando varias voces hablaban al mismo tiempo.
Comparación de Grupos
En términos de actividad cerebral medida a través de EEG, el estudio encontró que para los individuos con audición normal, su cerebro respondió más fuerte al habla atendida (el hablante en el que se estaban enfocando) en comparación con el habla no atendida (el ruido de fondo). Esto indicó que sus cerebros estaban filtrando efectivamente la información irrelevante.
Sin embargo, los participantes con pérdida auditiva mostraron menos diferenciación en sus respuestas cerebrales a la habla atendida versus la no atendida. Esto sugiere que pueden encontrar más difícil enfocarse en un solo hablante cuando hay ruido de fondo, lo cual se alinea con sus calificaciones de inteligibilidad del habla.
Procesamiento de Diferentes Tipos de Habla
Ambos grupos mostraron distintas capacidades para procesar diferentes aspectos del habla. Por ejemplo, los participantes con audición normal tuvieron mejores ajustes del modelo tanto para características acústicas (la calidad del sonido del habla) como para características lingüísticas (el significado de las palabras) al escuchar a hablantes individuales frente a múltiples hablantes. Por el contrario, los participantes con discapacidades auditivas no mostraron tanta variación en la respuesta, lo que sugiere más dificultad para identificar elementos críticos del habla en entornos ruidosos.
Los hallazgos también indicaron que, aunque ambos grupos tenían capacidades similares para entender aspectos más elevados del habla, como palabras y frases, el procesamiento de niveles más bajos (sonidos y sílabas) era más problemático para aquellos con pérdida auditiva.
Implicaciones para las Discapacidades Auditivas
Entender cómo las personas con discapacidades auditivas procesan el habla es importante, ya que puede ayudar a desarrollar mejores estrategias para la comunicación. Los desafíos identificados en este estudio enfatizan la necesidad de mejorar los audífonos y el apoyo en la comunicación, particularmente en entornos con ruido de fondo.
Más importante aún, la investigación destaca la conexión entre el Procesamiento Auditivo básico y la comprensión del lenguaje a un nivel más alto. Esta relación es crucial para mejorar la experiencia de escucha para aquellos que tienen dificultades en entornos con sonidos en competencia.
Conclusión
Este estudio proporciona valiosos conocimientos sobre cómo los oyentes, particularmente aquellos con discapacidades auditivas, procesan el habla en entornos desafiantes. Al comparar el rendimiento de los participantes con audición normal con los que tienen pérdida auditiva, la investigación arroja luz sobre las dificultades que enfrentan las personas con discapacidades auditivas y mejora nuestra comprensión del procesamiento del lenguaje en el cerebro.
La naturaleza jerárquica del procesamiento del lenguaje sugiere que entender el habla requiere equilibrar tanto los sonidos de bajo nivel como los significados de alto nivel. Más investigación en esta área puede continuar descubriendo las complejidades de la comprensión del habla y llevar a mejores apoyos para aquellos con retos auditivos.
Título: Multi-talker speech comprehension at different temporal scales in listeners with normal and impaired hearing
Resumen: Comprehending speech requires deciphering a range of linguistic representations, from phonemes to narratives. Prior research suggests that in single-talker scenarios, the neural encoding of linguistic units follows a hierarchy of increasing temporal receptive windows. Shorter temporal units like phonemes and syllables are encoded by lower-level sensory brain regions, whereas longer units such as sentences and paragraphs are processed by higher-level perceptual and cognitive areas. However, the brains representation of these linguistic units under challenging listening conditions, such as a cocktail party situation, remains unclear. In this study, we recorded electroencephalogram (EEG) responses from both normal-hearing and hearing-impaired participants as they listened to individual and dual speakers narrating different parts of a story. The inclusion of hearing-impaired listeners allowed us to examine how hierarchically organized linguistic units in competing speech streams affect comprehension abilities. We leveraged a hierarchical language model to extract linguistic information at multiple levels--phoneme, syllable, word, phrase, and sentence--and aligned these model activations with the EEG data. Our findings showed distinct neural responses to dual-speaker speech between the two groups. Specifically, compared to normal-hearing listeners, hearing-impaired listeners exhibited poorer model fits at the acoustic, phoneme, and syllable levels as well as the sentence levels, but not at the word and phrase levels. These results suggest that hearing-impaired listeners experience disruptions at both shorter and longer temporal scales, while their processing at medium temporal scales remains unaffected.
Autores: Jixing Li, Q. Wang, Q. Zhou, L. Yang, Y. Shen, S. Huang, S. Wang, L. Pylkkänen, Z. Huang
Última actualización: 2024-06-26 00:00:00
Idioma: English
Fuente URL: https://www.biorxiv.org/content/10.1101/2024.06.20.599315
Fuente PDF: https://www.biorxiv.org/content/10.1101/2024.06.20.599315.full.pdf
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a biorxiv por el uso de su interoperabilidad de acceso abierto.