Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Ciencias de la Salud# Informática sanitaria

Confianza en la IA: Un estudio sobre el papel de ChatGPT en la salud

Examinando la confianza de los usuarios en ChatGPT para decisiones relacionadas con la salud.

― 8 minilectura


Problemas de confianzaProblemas de confianzacon ChatGPT en el cuidadode la saludsalud.confianza en la IA en decisiones deExaminando preocupaciones sobre la
Tabla de contenidos

ChatGPT es un tipo de inteligencia artificial (IA) creada por OpenAI. Se ha vuelto popular por su capacidad para producir texto que suena similar a lo que diría un humano. Muchas personas usan ChatGPT por diferentes razones, incluyendo tener conversaciones, responder preguntas y crear contenido escrito, como artículos o documentos legales.

A medida que la tecnología sigue desarrollándose, las formas en que usamos herramientas de IA como ChatGPT se han expandido. Aunque inicialmente fue diseñado para chatear, la gente ha comenzado a utilizarlo para muchos propósitos, desde redactar trabajos académicos hasta crear piezas de arte. Sin embargo, este cambio en el uso de la tecnología también conlleva riesgos. La efectividad de la IA como ChatGPT depende de los datos con los que fue entrenada. Esto significa que la calidad de sus respuestas puede variar con el tiempo, dependiendo de la información que recibe. Por ejemplo, los Usuarios pueden encontrar consejos médicos confiables un mes y ser engañados al siguiente, dependiendo de si los datos han cambiado o se han vuelto inexactos.

Construyendo Confianza en la IA

Para que los usuarios se sientan cómodos usando IA, generalmente necesitan confiar en ella. La confianza a menudo crece a partir de un rendimiento consistente y confiable. Sin embargo, en el caso de la IA, la confianza puede ser un problema si los usuarios pasan por alto el hecho de que las respuestas de la IA pueden cambiar debido a cambios en los datos en los que se basa. Muchos factores impactan cuánto confían las personas en la IA, incluyendo cuestiones éticas, características técnicas, rasgos del usuario y experiencias personales. Cuando los usuarios entienden mejor cómo funciona ChatGPT, pueden usarlo de manera más sabia en sus procesos de toma de decisiones. Por otro lado, si los usuarios no comprenden completamente cómo opera ChatGPT, pueden tener expectativas poco realistas, lo que puede llevar a errores, especialmente en situaciones importantes como la atención médica.

Las creencias personales, las políticas organizacionales y las propiedades del sistema de IA también afectan la confianza. Por ejemplo, si las personas sienten que un sistema de IA es transparente, es más probable que confíen en él. Los estudios han mostrado que las personas tienden a confiar en sistemas que entienden.

Persuasión de ChatGPT

La capacidad de ChatGPT para presentar información de manera convincente también puede impactar cómo las personas lo usan. Si la IA expone bien sus puntos, los usuarios pueden sentirse más seguros en sus sugerencias. Sin embargo, la persuasión necesita estar equilibrada con la precisión. Si alguien se deja llevar por las palabras de una IA pero la información es incorrecta, esto puede llevar a malas decisiones, particularmente en contextos sensibles como la atención médica.

Otro aspecto que influye en la confianza es la fiabilidad y Seguridad de la IA. Si hay fallas conocidas, como la que reportó Google en diciembre de 2023, los usuarios pueden preocuparse por posibles violaciones de privacidad. ChatGPT tiende a recordar lo que ha sido entrenado, lo que puede plantear problemas de privacidad, especialmente si los datos incluyen información sensible. Aunque se hacen esfuerzos para evitar que sistemas de IA como ChatGPT filtren demasiados datos de su entrenamiento, los riesgos todavía existen, particularmente si el sistema es objeto de ataques maliciosos.

Comprendiendo las Percepciones de los Usuarios sobre ChatGPT

A medida que más personas consideran usar ChatGPT para decisiones de salud, se hace necesario explorar cómo los usuarios lo ven y dependen de él. Nuestro estudio examina las percepciones de los usuarios sobre ChatGPT, especialmente aquellos que lo usaron para preguntas relacionadas con la salud. Al analizar factores como competencia, fiabilidad, transparencia, Confiabilidad, seguridad y persuasión, buscamos entender cómo los usuarios dependen de ChatGPT para tomar decisiones relacionadas con la salud. Esta indagación es crucial a medida que las herramientas de IA como ChatGPT se vuelven más comunes en los sistemas de atención médica.

Antes del estudio, nos aseguramos de que cumpliera con los estándares éticos, obteniendo las aprobaciones necesarias y asegurando el consentimiento de los participantes, manteniendo la anonimidad.

Proceso de Recolección de Datos

Realizamos una encuesta en línea para adultos en Estados Unidos que usan ChatGPT al menos una vez al mes. La encuesta se llevó a cabo del 1 de febrero al 30 de marzo de 2023. Inicialmente, probamos la encuesta con un pequeño grupo de 40 personas para identificar cualquier problema antes de distribuirla más ampliamente. La encuesta usó la plataforma Qualtrics y llegó a participantes a nivel nacional a través de un servicio de audiencia pagada. Consistió en 17 preguntas escaladas y dos preguntas abiertas. Para asegurar respuestas reflexivas, incluimos una pregunta para verificar si los participantes estaban prestando atención.

Análisis de los Resultados

El análisis de las respuestas se dividió en dos categorías: cuantitativa y cualitativa. En la sección cuantitativa, examinamos las calificaciones de las preguntas escaladas para determinar tendencias centrales y variaciones. Nos enfocamos específicamente en las respuestas de usuarios que acudieron a ChatGPT para decisiones relacionadas con la salud.

Para evaluar la fuerza y dirección de las relaciones entre los atributos percibidos de ChatGPT, usamos pruebas de correlación bayesianas. También comparamos modelos para identificar factores que influyen en la creencia de los usuarios de que ChatGPT puede ayudar en la toma de decisiones.

El componente cualitativo reveló preocupaciones distintas de los usuarios según su uso de ChatGPT. Aquellos interesados en atención médica mostraron un mayor énfasis en la seguridad y la confianza en comparación con otros usuarios, que expresaron preocupaciones sobre la usabilidad y mejoras técnicas.

Hallazgos: Preocupaciones y Confianza de los Usuarios

Recopilamos respuestas de más de 600 individuos en el país, con solo un pequeño número usando ChatGPT para preguntas de salud. Otros utilizaron la IA para recopilar información, entretenimiento o resolución de problemas. Mientras algunos participantes plantearon preocupaciones sobre la privacidad, aquellos que tomaban decisiones de salud estaban particularmente enfocados en la importancia de la seguridad y la necesidad de información confiable debido a los altos riesgos involucrados en decisiones de salud.

Los usuarios que necesitaban respuestas relacionadas con la salud expresaron un fuerte deseo de claridad y fiabilidad, ya que sus decisiones impactaban directamente su bienestar. Mientras tanto, los participantes que usaban ChatGPT para otros propósitos buscaban una mejor experiencia de usuario y interacciones más atractivas.

Tendencias Generales en la Confianza del Usuario

Nuestro estudio reveló que la confiabilidad jugó un papel significativo en la dependencia de los usuarios de ChatGPT para consultas de salud. Dada la importancia de las decisiones de salud, los usuarios necesitan tener confianza en la información que reciben. La complejidad de los temas de salud hace necesario que los usuarios confíen en la fiabilidad de la IA.

Además, a medida que la tecnología evoluciona, la pregunta de cómo equilibrar los avances con la privacidad y la seguridad se vuelve más crítica. Existe el riesgo de que entrenar a la IA como ChatGPT con datos sensibles de salud pueda llevar a violaciones de privacidad o filtraciones de datos, lo que podría dañar la confianza pública en la tecnología de atención médica.

Importancia de la Confianza en los Sistemas de IA

Con la IA como ChatGPT volviéndose más integrada en la atención médica y otros sectores, la confianza se vuelve primordial. Si los usuarios ven a la IA como confiable, es más probable que la utilicen de manera efectiva en la toma de decisiones. Sin embargo, para que la IA gane esta confianza, debe demostrar no solo habilidades avanzadas, sino también un manejo seguro de los datos. Asegurarse de que la IA opere de manera transparente y ética puede fomentar la confianza crucial que los usuarios exigen.

Direcciones Futuras para la Investigación y el Desarrollo

Como sugieren nuestros hallazgos, el contexto del uso de la IA influye significativamente en las expectativas de los usuarios. En atención médica, los usuarios priorizan la precisión, claridad y seguridad, mientras que aquellos que no están en entornos de salud pueden enfocarse más en la eficiencia y la experiencia del usuario. Los diseñadores y desarrolladores de sistemas de IA deberían tener en cuenta estas diferencias para crear soluciones personalizadas.

La investigación futura podría profundizar en estas preferencias basadas en el contexto, proporcionando información para hacer que las aplicaciones de IA sean más personales y efectivas en varios dominios.

Conclusión

En conclusión, nuestro estudio resalta la necesidad de construir confianza en los sistemas de IA como ChatGPT, especialmente cuando se usan para decisiones de salud. La confiabilidad, transparencia y seguridad son factores clave que a los usuarios les importan. A medida que la IA sigue creciendo en importancia en nuestras vidas, entender las percepciones de los usuarios y abordar sus preocupaciones es crucial para una integración efectiva de la IA en la atención médica y más allá.

Fuente original

Título: Exploring factors influencing user perspective of ChatGPT as a technology that assists in healthcare decision making: A cross sectional survey study.

Resumen: As ChatGPT emerges as a potential ally in healthcare decision-making, it is imperative to investigate how users leverage and perceive it. The repurposing of technology is innovative but brings risks, especially since AIs effectiveness depends on the data its fed. In healthcare, where accuracy is critical, ChatGPT might provide sound advice based on current medical knowledge, which could turn into misinformation if its data sources later include erroneous information. Our study assesses user perceptions of ChatGPT, particularly of those who used ChatGPT for healthcare-related queries. By examining factors such as competence, reliability, transparency, trustworthiness, security, and persuasiveness of ChatGPT, the research aimed to understand how users rely on ChatGPT for health-related decision-making. A web-based survey was distributed to U.S. adults using ChatGPT at least once a month. Data was collected from February to March 2023. Bayesian Linear Regression was used to understand how much ChatGPT aids in informed decision-making. This analysis was conducted on subsets of respondents, both those who used ChatGPT for healthcare decisions and those who did not. Qualitative data from open-ended questions were analyzed using content analysis, with thematic coding to extract public opinions on urban environmental policies. The coding process was validated through inter-coder reliability assessments, achieving a Cohens Kappa coefficient of 0.75. Six hundred and seven individuals responded to the survey. Respondents were distributed across 306 US cities of which 20 participants were from rural cities. Of all the respondents, 44 used ChatGPT for health-related queries and decision-making. While all users valued the content quality, privacy, and trustworthiness of ChatGPT across different contexts, those using it for healthcare information place a greater emphasis on safety, trust, and the depth of information. Conversely, users engaging with ChatGPT for non-healthcare purposes prioritize usability, human-like interaction, and unbiased content. In conclusion our study findings suggest a clear demarcation in user expectations and requirements from AI systems based on the context of their use.

Autores: Avishek Choudhury, S. Elkefi, A. Tounsi

Última actualización: 2023-12-12 00:00:00

Idioma: English

Fuente URL: https://www.medrxiv.org/content/10.1101/2023.12.07.23299685

Fuente PDF: https://www.medrxiv.org/content/10.1101/2023.12.07.23299685.full.pdf

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a medrxiv por el uso de su interoperabilidad de acceso abierto.

Artículos similares