Usando datos de redes sociales para avanzar en la investigación de salud
Los investigadores aprovechan las redes sociales para obtener información sobre salud y desarrollar herramientas de IA.
― 8 minilectura
Tabla de contenidos
- Usando Datos de Redes Sociales para Estudios de Salud
- La Promesa de los Datos de Voz en el Diagnóstico
- El Impacto de las Variantes de COVID-19 en la Investigación
- Construyendo un Dataset Rico desde YouTube
- El Papel del Reconocimiento Automático de la Voz
- Distinguiendo entre COVID-19 y Otras Condiciones
- Resultados del Análisis de IA
- Beneficios y Limitaciones
- Direcciones Futuras en IA y Salud Pública
- Conclusión
- Fuente original
Las Redes Sociales son una parte enorme del mundo de hoy, con miles de millones de personas usándolas para compartir información y experiencias. Solo YouTube ve millones de horas de video subidas cada minuto. Esta gran cantidad de Datos puede ser una mina de oro para los investigadores, especialmente para los que trabajan en inteligencia artificial (IA) y salud. Al analizar videos y audios de plataformas como YouTube, los investigadores pueden desarrollar nuevas herramientas de IA que ayuden a diagnosticar y entender enfermedades.
Usando Datos de Redes Sociales para Estudios de Salud
Muchos estudios pasados han mostrado que las redes sociales pueden ayudar en tareas relacionadas con la salud. Por ejemplo, los investigadores han usado tweets para predecir condiciones cardíacas graves con mejor precisión que los métodos tradicionales que miran demografía y riesgos de salud. Otros estudios han examinado textos e imágenes en Twitter para entender problemas de salud mental. Aunque Twitter suele ser el enfoque, otras plataformas como YouTube también se han usado para evaluar condiciones de salud, aunque menos frecuentemente.
Un ejemplo notable incluye videos de niños que ayudaron a identificar el autismo. Además, los investigadores han usado YouTube para detectar problemas de salud mental como la depresión y el trastorno obsesivo-compulsivo (TOC). Con el reciente interés en usar voz y habla para la salud digital, está claro que las redes sociales pueden ser una rica fuente de información para desarrollar nuevas herramientas de diagnóstico.
La Promesa de los Datos de Voz en el Diagnóstico
Los datos de voz y audio pueden ofrecer perspectivas únicas sobre las condiciones de salud. Por ejemplo, los investigadores han analizado sonidos de respiración asociados con COVID-19. En un estudio, la IA pudo identificar casos de COVID-19 al analizar sonidos de tos de un pequeño grupo de pacientes. Este método mostró promesa, especialmente para reconocer la enfermedad incluso en aquellos que no mostraban síntomas.
Las bases de datos de audio crowdsourced, como "Coswara", han surgido como una forma de reunir muestras de sonido respiratorio. Los voluntarios suben grabaciones de sus toses y respiraciones, que se categorizan según si tienen COVID-19. Los investigadores han usado estas muestras para entrenar modelos de IA para detectar COVID-19, logrando frecuentemente alta precisión. Sin embargo, estos estudios a veces enfrentan desafíos, como la falta de datos diversos sobre enfermedades respiratorias.
El Impacto de las Variantes de COVID-19 en la Investigación
Con la aparición de nuevas variantes de COVID-19, especialmente Omicron, los investigadores han tenido que adaptar sus métodos. Esta variante se comporta de manera diferente, afectando principalmente al sistema respiratorio superior, lo que lleva a síntomas como dolor de garganta. Como resultado, se volvió crítico estudiar estas variantes para mejorar los modelos de IA para diagnosticar COVID-19.
En respuesta a estos cambios, se desarrolló un nuevo enfoque usando modelos de IA con datos de audio de YouTube. Este método tenía como objetivo detectar casos de COVID-19 y clasificar variantes basándose únicamente en grabaciones de personas hablando sobre sus experiencias de salud. Esto es importante porque ofrece una forma de recopilar información de salud sin pruebas de laboratorio extensivas o imágenes médicas.
Construyendo un Dataset Rico desde YouTube
Para crear un dataset para entrenar modelos de IA, los investigadores recopilaron audio de videos de YouTube donde los hablantes hablaban sobre su salud. El conjunto de datos incluía grabaciones de individuos que informaron tener COVID-19, COVID prolongado, otras enfermedades respiratorias y controles sanos. Esta variedad permite a los investigadores entender mejor cómo se presentan diferentes enfermedades respiratorias en los datos de audio.
Todos los videos fueron cuidadosamente revisados para asegurar la precisión, garantizando que el estado de salud reportado por los hablantes coincidiera con su contenido. La colección se dividió en varios grupos, incluidos aquellos con síntomas de COVID-19 autoinformados y aquellos que discutían otras condiciones respiratorias. Al clasificar estas grabaciones, los investigadores buscaron analizar cómo el habla y la voz proporcionan pistas sobre el estado de salud.
El Papel del Reconocimiento Automático de la Voz
Para manejar el gran volumen de datos de audio, los investigadores utilizaron tecnología de reconocimiento automático de voz (ASR). Esto ayudó a convertir palabras habladas en texto, facilitando el análisis del contenido. El siguiente paso implicó crear indicaciones para asegurar que los modelos de IA pudieran interpretar la información transcrita de manera efectiva.
Se utilizaron modelos de IA, como GPT-4, para determinar si los hablantes estaban discutiendo sobre COVID-19 u otros problemas de salud. Los modelos se centraron en síntomas, experiencias y otros factores relevantes mientras ignoraban discusiones no relacionadas. Este enfoque permite a los investigadores obtener una imagen más clara del estado de salud de cada hablante.
Distinguiendo entre COVID-19 y Otras Condiciones
Una de las tareas clave fue determinar si el audio indicaba un caso actual o pasado de COVID-19. Los modelos de IA también fueron entrenados para identificar casos de COVID prolongado por separado, reconociendo que esto requería consideraciones diferentes. Si las grabaciones de audio de la misma persona variaban, los resultados se agrupaban para un análisis más completo.
Al analizar las variantes, los investigadores tomaron medidas para centrarse exclusivamente en la información de salud y evitar cualquier mención de nombres de variantes específicas o fechas. Esto fue crucial ya que el momento de las grabaciones podría influir involuntariamente en las predicciones de la IA.
Resultados del Análisis de IA
Los resultados mostraron que los modelos de IA podían identificar con precisión si un hablante estaba discutiendo síntomas de COVID-19 o COVID prolongado. Los modelos funcionaron bien y demostraron que podían diferenciar entre diversas enfermedades respiratorias. Cuando se les pidió identificar qué variante de COVID-19 se discutía, los modelos alcanzaron buenas tasas de precisión, incluso cuando se limitaron por la incertidumbre de la calidad del audio variable.
Por ejemplo, al identificar la variante Omicron, los modelos hicieron énfasis en síntomas específicos, como dolor de garganta y tos, que se sabe que están asociados con esta variante. En cambio, las predicciones relacionadas con variantes anteriores reflejaron otros síntomas, destacando cómo el modelo se adaptó exitosamente a la naturaleza cambiante del virus.
Beneficios y Limitaciones
Los beneficios potenciales de usar datos de redes sociales para la salud pública son significativos. La capacidad de analizar grandes cantidades de audio no estructurado podría proporcionar información rápida durante crisis de salud o pandemias. Las herramientas de IA entrenadas con datos disponibles libremente podrían ser más asequibles y accesibles, especialmente en áreas con recursos de salud limitados.
Sin embargo, existen varias limitaciones. Los datos recolectados dependieron en gran medida de información autoinformada, lo que puede llevar a sesgos. Factores como grupo de edad y alfabetización en salud pueden influir en lo que la gente comparte en línea, sesgando potencialmente los resultados. Además, los modelos fueron entrenados usando conjuntos de datos limitados, lo que puede afectar su generalizabilidad.
Direcciones Futuras en IA y Salud Pública
A medida que la importancia de la IA en la salud pública crece, también lo hace la oportunidad de utilizar mejor los datos de redes sociales. Proyectos futuros podrían explorar insights más profundos sobre enfermedades emergentes u otras condiciones de salud. La amplia disponibilidad de datos de audio de diversas fuentes permitirá a los investigadores refinar algoritmos de IA y mejorar su precisión.
Los esfuerzos para expandir conjuntos de datos e incluir una mayor variedad de condiciones de salud serán cruciales para hacer que estos modelos sean robustos. Al utilizar datos del mundo real y comprensivos, los investigadores pueden estar mejor preparados para los desafíos de salud pública.
Conclusión
Esta exploración del uso de redes sociales y IA resalta la prometedora convergencia de tecnología y salud. Al aprovechar las vastas cantidades de datos de audio disponibles en plataformas como YouTube, los investigadores pueden desarrollar modelos que mejoren la detección y el manejo de enfermedades. Este trabajo subraya el potencial de los datos de audio no estructurados para impulsar la innovación en la salud pública, haciendo posible responder de manera más efectiva a desafíos de salud actuales y emergentes. A medida que más fuentes de audio diversas se vuelvan disponibles, la capacidad de la IA para ayudar a entender y manejar enfermedades seguirá creciendo, allanando el camino para intervenciones más efectivas y mejores resultados de salud.
Título: Omicron detection with large language models and YouTube audio data
Resumen: Publicly available audio data presents a unique opportunity for the development of digital health technologies with large language models (LLMs). In this study, YouTube was mined to collect audio data from individuals with self-declared positive COVID-19 tests as well as those with other upper respiratory infections (URI) and healthy subjects discussing a diverse range of topics. The resulting dataset was transcribed with the Whisper model and used to assess the capacity of LLMs for detecting self-reported COVID-19 cases and performing variant classification. Following prompt optimization, LLMs achieved accuracies of 0.89, 0.97, respectively, in the tasks of identifying self-reported COVID-19 cases and other respiratory illnesses. The model also obtained a mean accuracy of 0.77 at identifying the variant of self-reported COVID-19 cases using only symptoms and other health-related factors described in the YouTube videos. In comparison with past studies, which used scripted, standardized voice samples to capture biomarkers, this study focused on extracting meaningful information from public online audio data. This work introduced novel design paradigms for pandemic management tools, showing the potential of audio data in clinical and public health applications.
Autores: James Anibal, A. Landa, H. Nguyen, M. Song, A. Peltekian, A. Shin, H. B. Huth, L. Hazen, A. Christou, J. Rivera, R. Morhard, U. Bagci, M. Li, Y. Bensoussan, D. Clifton, B. Wood
Última actualización: 2024-03-27 00:00:00
Idioma: English
Fuente URL: https://www.medrxiv.org/content/10.1101/2022.09.13.22279673
Fuente PDF: https://www.medrxiv.org/content/10.1101/2022.09.13.22279673.full.pdf
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a medrxiv por el uso de su interoperabilidad de acceso abierto.