Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Ciencias de la Salud# Radiología e Imagen

IA en Radiología Intervencionista: Un Paso Adelante

Un estudio muestra que la IA puede ayudar a redactar informes de radiología de manera eficiente.

― 6 minilectura


IA en Radiología: AhorraIA en Radiología: Ahorratiempoclínicos de manera eficiente.La IA promete en redactar informes
Tabla de contenidos

La radiología intervencionista (RI) es un área especializada de la medicina que usa técnicas de imagen para guiar procedimientos mínimamente invasivos. Las herramientas de imagen que se suelen usar en este campo incluyen fluoroscopia, ultrasonido, tomografía computarizada y resonancia magnética. Recientemente, ha surgido interés en cómo la automatización, especialmente a través de la inteligencia artificial (IA), puede ayudar en la redacción de Informes médicos, lo que puede ser muy tedioso para los doctores.

Tradicionalmente, los Radiólogos intervencionistas pasan gran parte de su tiempo haciendo tareas administrativas, incluyendo escribir informes de procedimientos. Estas tareas se suelen ver como aburridas y no impactan directamente en la atención al paciente. A medida que crece la demanda de servicios de imagenología médica, se vuelve cada vez más importante encontrar maneras de ahorrar tiempo en estas tareas administrativas. La idea es que las herramientas de IA, como los modelos de procesamiento de lenguaje natural, podrían acelerar el proceso de redacción de informes, beneficiando no solo a los doctores, sino también a los pacientes y a la administración del hospital.

Para investigar esto, los investigadores analizaron si una herramienta de IA, como ChatGPT, podría redactar informes de manera efectiva basándose en un template específico proporcionado por la Sociedad Radiológica de América del Norte para catéteres centrales insertados periféricamente (PICC). El estudio tenía como objetivo ver si estos informes generados por IA podían cumplir con los estándares requeridos en la documentación médica.

Metodología del Estudio

Los investigadores diseñaron un estudio que involucró la creación de tres casos diferentes, cada uno con detalles específicos sobre los pacientes y los procedimientos realizados. Luego, le dieron instrucciones a ChatGPT para redactar informes para estos casos usando el template de la RSNA. En total, se generaron 15 informes para analizar qué tan bien se desempeñó la IA.

Después de completarlos, ocho radiólogos experimentados evaluaron los informes. Evaluaron cada informe según varios criterios, incluyendo si se incluía toda la información necesaria, si la estructura del informe era lógica y si el texto parecía escrito por una máquina. Usaron un sistema de puntuación para expresar sus opiniones sobre cada informe.

La experiencia de los radiólogos variaba, algunos tenían muchos años en el campo, mientras que otros aún estaban en formación. Esta mezcla proporcionó una perspectiva amplia sobre los informes generados por IA.

Hallazgos Preliminares

Los resultados iniciales sugirieron que la IA podría generar informes que los radiólogos consideraban aceptables. Los radiólogos generalmente coincidieron en que los informes contenían toda la información relevante y seguían una estructura satisfactoria. Sin embargo, había algunas áreas que podrían mejorarse, particularmente en cuanto a la inclusión de complicaciones potenciales relacionadas con los procedimientos.

Los radiólogos dieron retroalimentación sobre los informes, indicando que aunque el texto generado por IA era a menudo útil, podía omitir detalles importantes que esperarían ver en un informe redactado por un humano. Por ejemplo, las recomendaciones sobre tratamiento médico fueron señaladas como un elemento que faltaba.

Evaluando la Similitud de los Textos

Para medir cuán similares eran los informes generados por IA con respecto a los comandos originales dados a ChatGPT, se usó un método llamado similitud coseno. Esta técnica ayuda a entender qué tan bien coinciden las respuestas escritas con la información proporcionada en los comandos. Los resultados mostraron que aunque la IA podía adaptar su escritura a variaciones en la entrada, la estructura general a menudo cambiaba, lo que llevaba a diferencias en cómo se presentaba la información.

Evaluación con Tarjeta de Puntuación

Los radiólogos usaron una tarjeta de puntuación para calificar los informes basándose en cinco preguntas. Evaluaron si toda la información relevante estaba incluida, la estructura del informe, si el texto parecía generado por IA, si enviarían el informe a un médico derivador sin ediciones, y si la herramienta de IA les ahorraba tiempo en su trabajo de documentación. Generalmente, la retroalimentación fue positiva, especialmente con respecto a las primeras cuatro preguntas.

Curiosamente, muchos radiólogos estaban en desacuerdo con la idea de que los informes fueran fácilmente identificables como escritos por IA. Esto apunta a la creciente capacidad de la IA para producir texto similar al humano, lo que podría reducir las preocupaciones sobre el uso de esta tecnología en el campo médico.

Acuerdo entre Evaluadores y Fiabilidad

El estudio también examinó cuán consistentes eran las calificaciones entre los radiólogos participantes. El análisis indicó que cuando los informes eran vistos como de mayor calidad, el desacuerdo entre evaluadores disminuyó. Por el contrario, cuando la calidad se percibía como baja, la variación en las puntuaciones aumentó. Esta observación se alinea con experiencias del mundo real, donde la necesidad de discusión sugiere opiniones diferentes sobre la calidad del informe.

Los hallazgos destacaron que aunque la IA puede ayudar en la redacción de informes, todavía existe variabilidad en cómo los doctores individuales pueden percibir e interpretar la calidad de esos informes. Por ejemplo, mientras que un radiólogo podría encontrar un informe aceptable, otro podría señalar que necesita revisiones importantes.

Conclusión y Consideraciones Futuras

El estudio muestra resultados prometedores en cuanto al uso de IA, específicamente ChatGPT, en la redacción de informes de radiología intervencionista para inserciones de catéteres PICC. La retroalimentación de los radiólogos sugiere que la IA puede ahorrar tiempo en tareas de documentación. Sin embargo, también resalta la importancia de asegurar que los informes generados por IA contengan toda la información necesaria y cumplan con los estándares clínicos.

La investigación futura deberá profundizar en los beneficios y posibles desventajas del uso de IA en la redacción de informes médicos. Temas como la confianza en el contenido generado por IA, la responsabilidad compartida por la atención al paciente entre humanos y IA, y la privacidad del paciente son todos temas esenciales que necesitan más exploración. A medida que la tecnología de IA continúa desarrollándose e integrándose en la práctica médica, entender estos factores será crítico para su implementación exitosa en entornos de atención médica.

En última instancia, el objetivo es mejorar la eficiencia en la documentación médica, asegurando que los profesionales de la salud puedan enfocarse más en el cuidado del paciente mientras se benefician de las capacidades de las herramientas de IA en su trabajo diario.

Fuente original

Título: ChatGPT may free time needed by the interventional radiologist for administration / documentation: A study on the RSNA PICC line reporting template.

Resumen: MotiveDocumentation and administration, unpleasant necessities, take a substantial part of the working time in the subspecialty of interventional radiology. With increasing future demand for clinical radiology predicted, time savings from use of text drafting technologies could be a valuable contribution towards our field. MethodThree cases of peripherally inserted central catheter (PICC) line insertion were defined for the present study. The current version of ChatGPT was tasked with drafting reports, following the Radiological Society of North America (RSNA) template. Key resultsScore card evaluation by human radiologists indicates that time savings in documentation / administration can be expected without loss of quality from using ChatGPT. Further, automatically generated texts were not assessed to be clearly identifiable as AI-produced. ConclusionsPatients, doctors, and hospital administrators would welcome a reduction of the time that interventional radiologists need for documentation and administration these days. If AI-tools as tested in the present study are brought into clinical application, questions about trust into those systems eg with regard to medical complications will have to be addressed.

Autores: Wolfram A Bosbach, J. F. Senge, M. T. Mc Murray, F. Haupt, P. S. Breiding, C. Beisbart, K. Daneshvar, A. Komarek, G. Noeldge, F. Mosler

Última actualización: 2023-07-16 00:00:00

Idioma: English

Fuente URL: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578

Fuente PDF: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578.full.pdf

Licencia: https://creativecommons.org/licenses/by-nc/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a medrxiv por el uso de su interoperabilidad de acceso abierto.

Artículos similares