Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Interacción Persona-Ordenador# Inteligencia artificial

Confianza en la IA: Ideas de las Apps de Identificación de Aves

Examinando las experiencias de los usuarios para entender la confianza en la tecnología de IA.

― 9 minilectura


Problemas de confianza enProblemas de confianza enlas aplicaciones de IAcomplejas en la tecnología de IA.revelan dinámicas de confianzaLas experiencias de los usuarios
Tabla de contenidos

En el mundo de hoy, la Inteligencia Artificial (IA) se está convirtiendo en parte de nuestras vidas diarias. Muchas personas ahora usan aplicaciones impulsadas por IA para ayudar con diversas tareas. Una pregunta importante que surge es cuánto confían las personas en estos sistemas de IA. La confianza es crucial porque puede afectar cómo las personas usan y se benefician de la tecnología. Si los usuarios no confían en una IA, puede que no la utilicen, incluso si es útil.

Este artículo tiene como objetivo simplificar el concepto de confianza en la IA al examinar cómo los usuarios reales interactúan con una aplicación basada en IA para identificar aves. Esta app específica permite a los usuarios subir fotos o sonidos de aves y recibir información sobre qué especies podrían estar viendo o escuchando. Al observar las experiencias de los usuarios con esta app, podemos obtener información sobre los factores que influyen en su confianza en la IA.

La Importancia de la Confianza en la IA

La confianza juega un papel vital en cómo las personas se sienten al interactuar con sistemas de IA. A menudo, las personas necesitan confiar en estos sistemas para depender de sus recomendaciones o acciones. Por ejemplo, si alguien está usando una app de identificación de aves, necesita creer que la app puede identificar con precisión las aves que intenta reconocer. Si no confían en ella, pueden dudar de su exactitud y, por lo tanto, no usarla cuando la necesitan.

Tanto la confianza excesiva como la insuficiente pueden llevar a problemas. Si alguien tiene confianza infundada, puede asumir que la IA siempre está en lo correcto, lo que podría llevar a errores, especialmente en situaciones importantes. Por otro lado, si alguien es demasiado escéptico, puede perderse los beneficios que la IA puede proporcionar.

¿Qué es la Confianza en la IA?

En el contexto de la IA, la confianza se puede entender como la creencia de que la IA puede realizar sus tareas de manera efectiva y actuará de una manera que satisfaga las expectativas del usuario. Esta creencia puede estar influenciada por varios factores, incluyendo:

  1. Experiencia con la App: Los usuarios suelen formar su confianza en base a qué tan bien ha funcionado la app para ellos en el pasado.
  2. Reputación de los Desarrolladores: La credibilidad de la empresa u organización que creó la app puede afectar la confianza. Por ejemplo, una institución conocida puede hacer que los usuarios se sientan más seguros.
  3. Conocimiento del Usuario: El conocimiento previo de un usuario sobre aves y IA puede influir en cómo evalúan los resultados de la app.
  4. Contexto Situacional: Las circunstancias específicas bajo las cuales se utiliza la app también pueden jugar un papel en la formación de la confianza.

Cómo Estudiamos la Confianza en la App de Identificación de Aves

Para entender mejor la confianza en la IA, hablamos con 20 personas que usaban activamente la app de identificación de aves. Nuestro objetivo era escuchar sobre sus experiencias y cómo dependían de la app. Realizamos entrevistas en las que preguntamos a los usuarios sobre sus pensamientos sobre la app, con qué frecuencia la usaban y las razones detrás de su confianza o escepticismo.

Antecedentes de los Participantes

Los usuarios que entrevistamos tenían diferentes antecedentes y niveles de experiencia tanto en identificación de aves como en tecnología de IA. Algunos eran observadores de aves experimentados con un sólido conocimiento sobre especies de aves, mientras que otros eran principiantes. Su familiaridad con la IA iba desde aquellos que solo habían oído hablar de ella hasta aquellos que tenían experiencia práctica usando sistemas de IA.

Hallazgos sobre la Confiabilidad

Al hablar sobre confianza, los participantes compartieron que en general veían la app como confiable. Muchos señalaron su efectividad general en la identificación de aves basándose en sus experiencias. También hablaron positivamente sobre la habilidad de la app, lo que contribuyó a su confianza.

  1. Habilidad: Los usuarios sintieron que la app era competente basándose en sus experiencias pasadas, estimando su precisión como alta. La mayoría de los usuarios expresaron que encontraban correcta la app la mayor parte del tiempo al identificar aves.

  2. Integridad: La reputación de la organización que desarrolló la app jugó un papel importante en la confianza del usuario. Muchos usuarios eran conscientes de que la app provenía de una institución reputada conocida por su trabajo en ciencia de aves, lo que les ayudó a confiar más en la app.

  3. Benevolencia: Muchos usuarios creyeron que la app fue creada con buenas intenciones, ya que sentían que buscaba ayudar a las personas a aprender sobre aves en lugar de explotar sus datos para obtener ganancias.

Cómo los Usuarios Verificaron los Resultados de la App

Aunque los participantes generalmente confiaban en la app, no aceptaban siempre sus resultados sin cuestionamientos. Muchos usuarios empleaban estrategias específicas para verificar las sugerencias de la app. Por ejemplo, comparaban los resultados de la app con información conocida o consultaban otras fuentes, como comunidades en línea o amigos conocedores.

  1. Comprobando Probabilidades: Los usuarios indicaron que se sentían más cómodos aceptando el resultado de la app cuando el ave identificada era común en su área. Por el contrario, expresaron escepticismo cuando el ave era rara.

  2. Dificultad de la Tarea: Los participantes mencionaron que era más probable que confiaran en las salidas de la app en tareas sencillas, como identificar aves fácilmente reconocibles. Sin embargo, al enfrentarse a identificaciones más desafiantes, eran más dudosos.

  3. Verificación Cruzada: Para confirmar la salida de la app, los usuarios comparaban las sugerencias de la app con su conocimiento o buscaban imágenes de referencia para ver si las características coincidían.

Confianza y Toma de Decisiones en Situaciones Críticas

Mientras los usuarios a menudo usaban la app, también les preguntamos cómo responderían en situaciones críticas, como tener que identificar un ave enferma. Esto nos permitió entender mejor sus procesos de toma de decisiones.

  1. En Uso Real: Los participantes mencionaron que usaban la app regularmente sin dudar, ya que sabían que tenía bajos costos asociados a su uso. Dado que la app es gratis, el único esfuerzo involucrado es introducir datos.

  2. Situaciones Hipotéticas de Alto Riesgo: Los participantes mostraron un enfoque más cauteloso al discutir escenarios críticos. Por ejemplo, cuando se les preguntó si recomendarían la app para identificar un ave enferma para un veterinario, muchos usuarios sopesaron la efectividad de la app frente a las posibles consecuencias de un error.

  3. Familiaridad y Facilidad de Uso: Los participantes a menudo citaban la familiaridad con la app como una razón para confiar en ella, señalando que se sentía natural usarla. En situaciones más apremiantes, algunos expresaron una preferencia por otros recursos si sentían que los riesgos eran demasiado altos.

Observaciones Clave sobre la Confianza en la IA

De nuestras entrevistas, surgieron varias observaciones importantes sobre la confianza en los sistemas de IA:

  1. Naturaleza Compleja de la Confianza: La confianza no es un solo elemento, sino que comprende varios componentes. Los usuarios podrían confiar en la app en general, pero aún así evaluar los resultados caso por caso.

  2. Influencia del Conocimiento del Usuario: El conocimiento previo de un usuario sobre aves impactó significativamente cómo interactuaron con la app. Aquellos con más conocimiento se sentían más seguros al evaluar la precisión de la app.

  3. El Contexto Importa: El contexto en el que se usa la app puede cambiar la percepción de confianza de los usuarios. La familiaridad con la tarea y la comprensión de los riesgos potenciales pueden llevar a diferentes niveles de confianza en la app.

  4. Necesidad de Verificación: Muchos usuarios no aceptaron ciegamente los resultados de la app. En cambio, buscaban activamente la verificación, reforzando su confianza cautelosa en la app.

Implicaciones para el Desarrollo Futuro de IA

Entender cómo los usuarios confían en los sistemas de IA puede informar un mejor diseño y funcionalidad para estas aplicaciones. Aquí hay algunas recomendaciones para los desarrolladores de IA:

  1. Construir Confiabilidad: Los desarrolladores deberían centrarse en crear sistemas de IA confiables que puedan desempeñarse bien en situaciones del mundo real. Una comunicación clara sobre cómo funciona la IA y sus limitaciones también puede fomentar la confianza.

  2. Fomentar la Educación del Usuario: Proporcionar a los usuarios recursos para aprender sobre IA y sus capacidades puede ayudar a construir confianza. Cuando los usuarios entienden cómo funciona una app, es más probable que la usen y confíen en ella.

  3. Facilitar la Verificación: Las características que permiten a los usuarios verificar fácilmente las salidas de la IA pueden aumentar la confianza. Por ejemplo, mostrar imágenes de referencia o proporcionar enlaces a información adicional puede ayudar a los usuarios a sentirse más seguros en sus decisiones.

  4. Considerar la Diversidad del Usuario: Las aplicaciones de IA son usadas por una amplia gama de personas con diferentes niveles de experiencia. Los diseñadores deberían considerar esta diversidad al desarrollar características y evaluar las interacciones del usuario.

Conclusión

La confianza en la IA es un tema multifacético que requiere una cuidadosa consideración por parte de desarrolladores e investigadores. Al observar cómo los usuarios reales interactúan con la tecnología, podemos entender mejor los factores que contribuyen a la confianza y cómo mejorarla. El caso de la app de identificación de aves resalta estos aspectos y ofrece lecciones valiosas para futuras aplicaciones de IA. A medida que la IA continúa evolucionando, establecer y mantener la confianza será esencial para el compromiso y la satisfacción del usuario.

Fuente original

Título: Humans, AI, and Context: Understanding End-Users' Trust in a Real-World Computer Vision Application

Resumen: Trust is an important factor in people's interactions with AI systems. However, there is a lack of empirical studies examining how real end-users trust or distrust the AI system they interact with. Most research investigates one aspect of trust in lab settings with hypothetical end-users. In this paper, we provide a holistic and nuanced understanding of trust in AI through a qualitative case study of a real-world computer vision application. We report findings from interviews with 20 end-users of a popular, AI-based bird identification app where we inquired about their trust in the app from many angles. We find participants perceived the app as trustworthy and trusted it, but selectively accepted app outputs after engaging in verification behaviors, and decided against app adoption in certain high-stakes scenarios. We also find domain knowledge and context are important factors for trust-related assessment and decision-making. We discuss the implications of our findings and provide recommendations for future research on trust in AI.

Autores: Sunnie S. Y. Kim, Elizabeth Anne Watkins, Olga Russakovsky, Ruth Fong, Andrés Monroy-Hernández

Última actualización: 2023-05-15 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2305.08598

Fuente PDF: https://arxiv.org/pdf/2305.08598

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares