Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Ciencias de la Salud# Informática sanitaria

El impacto de la IA en la toma de decisiones en salud

Explorando cómo la IA influye en las decisiones de los doctores en el cuidado de los pacientes.

― 7 minilectura


IA en la Toma deIA en la Toma deDecisiones Clínicasdecisiones de salud.Analizando el papel de la IA en las
Tabla de contenidos

La Inteligencia Artificial (IA) se está volviendo una herramienta clave en la salud, sobre todo para ayudar a los médicos a tomar decisiones importantes. Aunque al final los médicos deciden sobre el cuidado del paciente, entender cómo las sugerencias de IA afectan sus elecciones es esencial. Estudios recientes han mostrado que la gente percibe los consejos de la IA de manera diferente que los de otros humanos. En el ámbito de la salud, donde las decisiones pueden tener consecuencias significativas, saber cómo humanos y IA trabajan juntos es vital para asegurar la seguridad del paciente.

El Rol de la IA en la Toma de Decisiones

Los sistemas de IA pueden ayudar en varias situaciones, pero el juicio final recae en los profesionales humanos. Esto es especialmente importante en áreas de alto riesgo como la salud, donde las herramientas de IA pueden ayudar pero también conllevan altos riesgos. Las herramientas de IA han avanzado en el análisis de datos de pacientes pasados, pero hay preocupaciones sobre cómo traducir estos hallazgos a la práctica diaria. Por ejemplo, en el manejo de problemas cardiovasculares durante infecciones, los mejores enfoques de tratamiento aún no están claros, lo que dificulta evaluar la seguridad y efectividad de la IA.

Importancia de las Pruebas en el Mundo Real

Aunque los investigadores han trabajado para mejorar la seguridad de la IA en entornos hospitalarios, hay una necesidad fuerte de evaluaciones reales que involucren a profesionales de la salud. Un ejemplo de esto es un sistema de alerta para lesiones renales que funcionó bien en estudios pero tuvo resultados negativos al usarse en hospitales reales. Esto resalta la necesidad de pruebas cuidadosas e implementación de herramientas de IA en la práctica.

Para entender mejor cómo funciona la IA en situaciones reales de salud, los investigadores llevaron a cabo un estudio en un entorno simulado que imita escenarios clínicos reales. Este tipo de pruebas ayuda a los médicos a reaccionar de manera más natural a las sugerencias de IA, ya que se alinea estrechamente con su trabajo regular. Además, a medida que las regulaciones exigen una IA más centrada en el ser humano, evaluar cómo humanos y IA funcionan juntos es crucial.

Objetivos del Estudio

El estudio tenía como objetivo observar cómo los médicos interactuaban con las recomendaciones de IA durante el cuidado simulado de pacientes. Los investigadores se centraron en cómo las sugerencias de IA seguras e inseguras influían en las decisiones médicas. Usando tecnología de seguimiento ocular, recopilaron datos sobre dónde miraban los médicos durante las simulaciones, proporcionando información sobre su atención y procesos de toma de decisiones.

Diseño Experimental

En el estudio, participaron 38 médicos de cuidados intensivos en simulaciones que involucraban pacientes que necesitaban atención urgente. A cada médico se le dieron diferentes escenarios para evaluar y prescribir tratamientos, tanto antes como después de recibir recomendaciones de IA. Estos escenarios incluían sugerencias de IA seguras e inseguras para ver cómo respondían los médicos.

Los médicos trabajaron en un entorno realista equipado con todas las fuentes de datos estándar que encontrarían en su trabajo regular. Se les instruyó a prescribir dosis de fluidos y medicamentos para los pacientes mientras también podían consultar los consejos de IA. Después de ver las recomendaciones de IA, los participantes evaluaron su confianza en sus decisiones y si querían asistencia de un senior.

Observaciones sobre la Influencia de la IA

Los resultados mostraron que cuando se enfrentaban a sugerencias inseguras de IA, los médicos a menudo las rechazaban. De hecho, la mayoría de las recomendaciones inseguras fueron detenidas, y aquellos que buscaban opiniones de seniors tendían a ser más cautelosos. El estudio resaltó que los médicos más jóvenes eran más propensos a pedir ayuda cuando estaban inseguros sobre el consejo de la IA.

También se analizaron los patrones de mirada de los médicos para ver cuánto prestaban atención a varias fuentes de información. Antes de recibir recomendaciones de IA, su atención estaba distribuida equitativamente entre las fuentes de datos tradicionales. Después de ver recomendaciones inseguras de IA, se concentraron más en la pantalla de IA. Esto sugiere que las sugerencias inseguras los llevaron a prestar más atención, aunque no dependieron más de las explicaciones de IA, lo que plantea preguntas sobre si estas explicaciones ayudaron a entender el consejo de IA.

Variabilidad en las Decisiones Clínicas

El estudio también encontró diferencias significativas en cómo los médicos prescribían tratamientos, incluso cuando se les daba la misma información. Esta variabilidad estaba influenciada por detalles específicos de los escenarios del paciente. Las recomendaciones de IA llevaron a cambios en las Decisiones de Tratamiento casi la mitad del tiempo, lo que indica que la IA puede moldear el juicio humano.

Entendiendo la Interacción Humano-IA

El experimento permitió a los investigadores investigar tanto las interacciones humano-IA como humano-humano. La mayoría de las decisiones clínicas involucran equipos, y otros miembros del equipo pueden influir en cómo se reciben las recomendaciones de IA. Por eso, las simulaciones realistas son importantes para estudiar estas dinámicas.

Los hallazgos apuntan a factores importantes en cómo deberían diseñarse y entrenarse los sistemas de IA. Los médicos senior a menudo jugaron un papel en guiar a los médicos junior, mostrando que el Trabajo en equipo es esencial para usar la IA de manera efectiva.

Limitaciones del Estudio

A pesar de los conocimientos útiles, hay limitaciones en el estudio. Por ejemplo, la forma en que se prescribieron los tratamientos en la simulación no refleja completamente la práctica clínica real, donde los médicos podrían ajustar las dosis basándose en observaciones en curso. Además, las definiciones de recomendaciones seguras e inseguras fueron creadas por los investigadores y pueden no alinearse siempre con los juicios clínicos del mundo real.

Direcciones Futuras

A medida que los sistemas de IA se vuelven más avanzados, es importante considerar cómo se pueden integrar de manera segura en la práctica médica. Los reguladores también están presionando por pautas más claras sobre cómo deberían usarse estos sistemas. Investigaciones como esta pueden ayudar a dar forma a políticas y programas de capacitación para asegurar que los profesionales de la salud puedan trabajar de manera efectiva con herramientas de IA.

El estudio enfatiza la necesidad de educación continua para el personal médico sobre los sistemas de IA. Entender las limitaciones y el uso adecuado de estas herramientas mejorará su integración en los flujos de trabajo clínicos.

Conclusión

En conclusión, el estudio ilumina la compleja relación entre las recomendaciones de IA y la toma de decisiones clínicas. Si bien la IA tiene el potencial de ayudar a los profesionales de la salud, es crucial que mantengan el pensamiento crítico y se involucren activamente con las sugerencias proporcionadas. La formación continua y las pruebas realistas son esenciales para asegurar que las herramientas de IA se usen de manera segura y efectiva en el cuidado del paciente. Al reconocer las dinámicas de la interacción humano-IA, la industria de la salud puede avanzar hacia un futuro donde la IA sirva como un valioso sistema de apoyo para las decisiones clínicas.

Fuente original

Título: Evaluating the Human Safety Net: Observational study of Physician Responses to Unsafe AI Recommendations in high-fidelity Simulation

Resumen: In the context of Artificial Intelligence (AI)-driven decision support systems for high-stakes environments, particularly in healthcare, ensuring the safety of human-AI interactions is paramount, given the potential risks associated with erroneous AI outputs. To address this, we conducted a prospective observational study involving 38 intensivists in a simulated medical setting. Physicians wore eye-tracking glasses and received AI-generated treatment recommendations, including unsafe ones. Most clinicians promptly rejected unsafe AI recommendations, with many seeking senior assistance. Intriguingly, physicians paid increased attention to unsafe AI recommendations, as indicated by eye-tracking data. However, they did not rely on traditional clinical sources for validation post-AI interaction, suggesting limited "debugging." Our study emphasises the importance of human oversight in critical domains and highlights the value of eye-tracking in evaluating human-AI dynamics. Additionally, we observed human-human interactions, where an experimenter played the role of a bedside nurse, influencing a few physicians to accept unsafe AI recommendations. This underscores the complexity of trying to predict behavioural dynamics between humans and AI in high-stakes settings.

Autores: A Aldo Faisal, P. Festor, M. Nagendran, A. C. Gordon, M. Komorowski

Última actualización: 2023-10-03 00:00:00

Idioma: English

Fuente URL: https://www.medrxiv.org/content/10.1101/2023.10.03.23296437

Fuente PDF: https://www.medrxiv.org/content/10.1101/2023.10.03.23296437.full.pdf

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a medrxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares