Navegando la confianza en la IA en decisiones de salud
Examinando cómo la incertidumbre de la IA afecta la toma de decisiones en la salud.
― 8 minilectura
Tabla de contenidos
- La Importancia de la Dependencia Apropiada
- Presentando Incertidumbre en las Predicciones de IA
- El Impacto de las Decisiones Iniciales de los Usuarios
- Demografía de los Usuarios
- Contexto del Estudio
- Hallazgos y Discusión
- Diseño para una Colaboración Efectiva
- Direcciones Futuras
- Conclusión
- Fuente original
- Enlaces de referencia
El trabajo de colaboración entre humanos e IA se está volviendo cada vez más importante, especialmente en áreas como la salud. Una parte clave de esta asociación es cuánto dependen las personas de la IA para obtener apoyo. Es esencial encontrar el equilibrio adecuado donde los humanos usen la IA cuando sea confiable, pero todavía tomen sus propias Decisiones cuando sea necesario. Este artículo analiza cómo mostrar la Incertidumbre en las predicciones de la IA puede afectar la forma en que los usuarios toman decisiones. También examina el papel de las decisiones iniciales de los usuarios y la demografía de los usuarios en la Toma de decisiones asistida por IA.
La Importancia de la Dependencia Apropiada
Para que humanos e IA trabajen bien juntos, los usuarios deben saber cuánto confiar en el consejo de la IA. Si los usuarios dependen demasiado de la IA, su rendimiento puede verse afectado, especialmente si la IA comete errores. Para mejorar el trabajo en equipo entre humanos e IA, es crucial entender cómo guiar a los usuarios en su Confianza en la IA.
Investigaciones han mostrado que los usuarios a menudo luchan por saber cuándo confiar en la IA. En muchos estudios, las personas han confiado más en la IA que en su propio juicio, lo que ha llevado a malos resultados en algunos casos. Este problema puede ser especialmente serio en situaciones de alto riesgo, como la toma de decisiones médicas. Por ejemplo, si un usuario confía demasiado en la IA para diagnosticar cáncer de piel, puede llevar a consecuencias dañinas.
Presentando Incertidumbre en las Predicciones de IA
Una forma de ayudar a los usuarios a manejar su dependencia de la IA es a través de la presentación de la incertidumbre del modelo. Cuando una IA proporciona una predicción, mostrar cuán segura está de esa predicción puede guiar a los usuarios en decidir si aceptar o cuestionar el consejo de la IA. Este estudio examina cómo diferentes formas de presentar esta información de incertidumbre pueden afectar los comportamientos de confianza de los usuarios.
Hay varios métodos para presentar la incertidumbre de la IA. Un método común es mostrar un porcentaje de confianza junto a la predicción de la IA. Por ejemplo, si una IA dice que una lesión cutánea es cancerosa con un 90% de confianza, esto puede dar al usuario contexto para su toma de decisiones. Sin embargo, simplemente mostrar porcentajes de confianza puede no ser siempre efectivo.
Algunos investigadores sugieren usar presentaciones basadas en frecuencia. En lugar de decir "90% seguro", los usuarios podrían ver algo como "En 100 casos similares, 90 resultaron ser cancerosos." Este enfoque de frecuencia a menudo puede ser más fácil de interpretar para los usuarios y puede llevar a una dependencia más apropiada de la IA.
El Impacto de las Decisiones Iniciales de los Usuarios
Las decisiones que los usuarios toman antes de ver las sugerencias de la IA también juegan un papel importante. Estas elecciones iniciales pueden sesgar cuánto confían en la IA. Por ejemplo, si un usuario cree que una lesión cutánea es benigna basado en su propia evaluación, puede ser menos probable que confíe en una IA que diga lo contrario, sin importar el nivel de confianza de la IA.
En nuestra investigación, encontramos que los usuarios que inicialmente estaban inseguros sobre sus decisiones eran más propensos a cambiar su respuesta final después de ver la recomendación de la IA. Por el contrario, los usuarios que estaban muy seguros de su evaluación inicial eran menos propensos a cambiar de opinión, incluso cuando la predicción de la IA estaba en desacuerdo.
Esta tendencia muestra cuán importante es considerar los procesos de pensamiento iniciales de los usuarios al diseñar sistemas de IA. Saber cómo la primera decisión de un usuario puede influir en su confianza en la IA puede ayudar a mejorar el trabajo en equipo general entre humanos e IA.
Demografía de los Usuarios
Los antecedentes de los usuarios, como su edad y familiaridad con estadísticas, también influyen en cómo interactúan con la IA. Los usuarios más jóvenes o aquellos con menos conocimientos de estadísticas pueden tener dificultades para interpretar los niveles de confianza de la IA. También pueden ser más propensos a depender demasiado de la IA porque se sienten menos seguros de su propio juicio.
Por otro lado, los usuarios mayores o aquellos con más experiencia en estadísticas pueden ser más escépticos con la IA. Comprender estos factores demográficos puede ayudar a los diseñadores a crear sistemas de IA más efectivos adaptados a diferentes grupos de usuarios.
Contexto del Estudio
Para investigar estas ideas, se realizó un estudio centrado en la detección de cáncer de piel. Se pidió a los participantes que evaluaran imágenes de lesiones cutáneas y proporcionaran sus opiniones mientras recibían asistencia de IA. El objetivo era ver cómo diferentes formas de mostrar la incertidumbre de la IA afectarían la toma de decisiones.
Los participantes se dividieron en grupos para recibir diferentes tipos de información de incertidumbre: algunos no recibieron información de incertidumbre, mientras que otros recibieron confianza como un porcentaje o en forma de frecuencia. Después, se registraron sus decisiones y niveles de confianza para entender su dependencia de la IA.
Hallazgos y Discusión
Los resultados mostraron que simplemente usar porcentajes de confianza no mejoró significativamente la toma de decisiones de los usuarios en comparación con proporcionar ninguna información de incertidumbre. Muchos usuarios lucharon por interpretar estos números de confianza, lo que llevó a malentendidos sobre cuánto deberían confiar en la IA.
En contraste, las presentaciones basadas en frecuencia parecían mejorar la comprensión de los usuarios sobre las predicciones de la IA. Los usuarios que recibieron información de incertidumbre en formato de frecuencia eran más propensos a ajustar su confianza en la IA según la confianza que la IA expresaba.
El estudio también destacó el impacto de las decisiones iniciales. Los usuarios con baja confianza inicial fueron más adaptables a las sugerencias de la IA, mientras que los usuarios con mayor confianza inicial a menudo se aferraron firmemente a sus evaluaciones originales, incluso cuando la IA estaba en desacuerdo.
Los factores demográficos también emergieron como influencias significativas. Los participantes más jóvenes y aquellos con menos familiaridad con estadísticas tendían a confiar más en la IA, mientras que los usuarios mayores y quienes sabían más sobre estadísticas eran más críticos con las sugerencias de la IA.
Diseño para una Colaboración Efectiva
Dado los hallazgos, queda claro que diseñar sistemas de IA requiere una comprensión matizada de cómo los usuarios interpretan la información y toman decisiones. Presentar la incertidumbre de la IA de manera efectiva puede empoderar a los usuarios para navegar mejor su dependencia de la IA.
Adaptar las presentaciones de la IA según la demografía del usuario y sus decisiones iniciales puede llevar a una colaboración más efectiva entre humanos e IA. Por ejemplo, los usuarios más jóvenes o menos experimentados pueden beneficiarse más de presentaciones de frecuencia, mientras que los usuarios mayores o más conocedores pueden necesitar contexto adicional para sentirse cómodos con las sugerencias de la IA.
Direcciones Futuras
Para futuros trabajos, los investigadores deberían seguir explorando cómo diferentes grupos de usuarios interactúan con la IA y cómo sus factores demográficos influyen en esta interacción. El objetivo es crear sistemas de IA más personalizados que se adapten a las necesidades de los usuarios, mejorando sus capacidades de toma de decisiones.
Además, investigar otras formas de apoyo al usuario, como explicaciones sobre las predicciones de la IA y capacitar a los usuarios para mejorar su comprensión de la IA, podría ser beneficioso. Al proporcionar un enfoque integral para comprender la IA, se puede cultivar mejor confianza y dependencia.
Conclusión
El estudio ilustra cómo presentar la incertidumbre en las predicciones de la IA afecta la dependencia y la toma de decisiones de los usuarios. Muestra que las presentaciones de frecuencia pueden mejorar la comprensión, mientras que las decisiones iniciales de los usuarios y la demografía impactan significativamente en el comportamiento de confianza y dependencia. Estos conocimientos ayudan a informar el diseño de mejores sistemas de IA para la colaboración humana, especialmente en campos de alto riesgo como la salud. Al considerar los antecedentes de los usuarios y adaptar las presentaciones de la IA en consecuencia, podemos mejorar la efectividad general del trabajo en equipo entre humanos e IA.
Título: Designing for Appropriate Reliance: The Roles of AI Uncertainty Presentation, Initial User Decision, and User Demographics in AI-Assisted Decision-Making
Resumen: Appropriate reliance is critical to achieving synergistic human-AI collaboration. For instance, when users over-rely on AI assistance, their human-AI team performance is bounded by the model's capability. This work studies how the presentation of model uncertainty may steer users' decision-making toward fostering appropriate reliance. Our results demonstrate that showing the calibrated model uncertainty alone is inadequate. Rather, calibrating model uncertainty and presenting it in a frequency format allow users to adjust their reliance accordingly and help reduce the effect of confirmation bias on their decisions. Furthermore, the critical nature of our skin cancer screening task skews participants' judgment, causing their reliance to vary depending on their initial decision. Additionally, step-wise multiple regression analyses revealed how user demographics such as age and familiarity with probability and statistics influence human-AI collaborative decision-making. We discuss the potential for model uncertainty presentation, initial user decision, and user demographics to be incorporated in designing personalized AI aids for appropriate reliance.
Autores: Shiye Cao, Anqi Liu, Chien-Ming Huang
Última actualización: 2024-01-15 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2401.05612
Fuente PDF: https://arxiv.org/pdf/2401.05612
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.