Confiança na IA: Insights de Apps de Identificação de Pássaros
Analisando as experiências dos usuários pra entender a confiança na tecnologia de IA.
― 9 min ler
No mundo de hoje, a Inteligência Artificial (IA) tá cada vez mais presente na nossa vida. Muita gente já usa aplicativos com IA pra ajudar em várias tarefas. Uma pergunta importante que surge é até que ponto as pessoas confiam nesses sistemas de IA. A confiança é fundamental porque influencia como as pessoas usam e se beneficiam da tecnologia. Se os usuários não confiam numa IA, pode ser que nem a usem, mesmo que ela seja útil.
Esse artigo pretende simplificar a ideia de confiança na IA, olhando como usuários reais interagem com um app baseado em IA pra identificar pássaros. Esse app específico permite que os usuários enviem fotos ou sons de pássaros pra receber informações sobre quais espécies eles podem estar olhando ou ouvindo. Ao analisar as experiências dos usuários com esse app, dá pra entender os fatores que afetam a confiança deles na IA.
A Importância da Confiança na IA
A confiança tem um papel vital em como as pessoas se sentem ao interagir com sistemas de IA. Muitas vezes, elas precisam confiar nesses sistemas pra confiar nas recomendações ou ações deles. Por exemplo, se alguém tá usando um app de identificação de pássaros, essa pessoa precisa achar que o app consegue identificar corretamente os pássaros que ela tá tentando reconhecer. Se não confiar, pode duvidar da precisão e, por isso, não o usar quando precisar.
Tanto confiar demais quanto confiar de menos pode causar problemas. Se alguém confia sem motivos, pode achar que a IA tá sempre certa, o que pode levar a erros, principalmente em situações importantes. Por outro lado, se alguém é muito cético, pode perder os benefícios que a IA pode oferecer.
O que é Confiança na IA?
No contexto da IA, confiança pode ser vista como a crença de que a IA consegue desempenhar suas funções de forma eficaz e vai agir de um jeito que corresponda às expectativas do usuário. Essa crença pode ser influenciada por vários fatores, incluindo:
- Experiência com o App: Os usuários geralmente formam sua confiança com base em quão bem o app funcionou pra eles no passado.
- Reputação dos Desenvolvedores: A credibilidade da empresa ou organização que criou o app pode afetar a confiança. Por exemplo, uma instituição conhecida pode fazer os usuários se sentirem mais seguros.
- Conhecimento do Usuário: O conhecimento prévio de um usuário sobre pássaros e IA pode influenciar como ele avalia as saídas do app.
- Contexto Situacional: As circunstâncias específicas em que o app é usado também podem influenciar a confiança.
Como Estudamos a Confiança no App de Identificação de Pássaros
Pra entender melhor a confiança na IA, conversamos com 20 pessoas que usavam ativamente o app de identificação de pássaros. Nosso objetivo era ouvir sobre as experiências deles e como eles dependiam do app. Fizemos entrevistas em que perguntamos aos usuários sobre o que achavam do app, com que frequência usavam e os motivos por trás da confiança ou ceticismo deles.
Perfis dos Participantes
Os usuários que entrevistamos tinham diferentes perfis e níveis de experiência tanto com identificação de pássaros quanto com tecnologia de IA. Alguns eram observadores experientes de pássaros com bom conhecimento sobre espécies, enquanto outros eram iniciantes. O conhecimento deles sobre IA variava entre quem só tinha ouvido falar até quem tinha experiência prática usando sistemas de IA.
Descobertas sobre Confiabilidade
Quando falamos sobre confiança, os participantes compartilharam que, de modo geral, viam o app como confiável. Muitos notaram sua eficácia geral na identificação de pássaros com base nas experiências deles. Eles também falaram positivamente sobre a capacidade do app, o que aumentou a confiança.
Capacidade: Os usuários achavam que o app era competente com base nas experiências passadas deles, estimando que a precisão era alta. A maioria disse que achava o app correto na maioria das vezes ao identificar pássaros.
Integridade: A reputação da organização que desenvolveu o app foi um fator significativo na confiança do usuário. Muitos sabiam que o app vinha de uma instituição respeitável conhecida pelo trabalho em ciência dos pássaros, o que ajudou a aumentar a confiança.
Benevolência: Muitos usuários acreditavam que o app foi criado com boas intenções, já que sentiam que ele tinha o objetivo de ajudar as pessoas a aprender sobre pássaros em vez de explorar os dados delas pra lucro.
Como os Usuários Verificavam as Saídas do App
Embora os participantes geralmente confiassem no app, eles não aceitavam suas saídas sem questionar. Muitos usaram estratégias específicas pra verificar as sugestões do app. Por exemplo, compararam os resultados do app com informações conhecidas ou consultaram outras fontes, como comunidades online ou amigos que entendiam do assunto.
Verificando Probabilidade: Os usuários disseram que se sentiam mais confortáveis aceitando a saída do app quando o pássaro identificado era comum em sua área. Por outro lado, eles expressaram ceticismo quando o pássaro era raro.
Dificuldade da Tarefa: Os participantes mencionaram que estavam mais propensos a confiar nas saídas do app em tarefas simples, como identificar pássaros fáceis de reconhecer. Contudo, quando enfrentavam identificações mais desafiadoras, eram mais duvidosos.
Verificação Cruzada: Pra confirmar a saída do app, os usuários comparavam as sugestões do app com seu conhecimento ou buscavam imagens de referência pra ver se as características batiam.
Confiança e Tomada de Decisões em Situações Críticas
Enquanto os usuários costumavam usar o app, também perguntamos como eles reagiriam em situações críticas, como precisar identificar um pássaro doente. Isso nos ajudou a entender melhor os processos de tomada de decisão deles.
No Uso da Vida Real: Os participantes mencionaram que usavam o app regularmente sem hesitar, já que sabiam que havia poucos custos associados ao uso. Como o app é gratuito, o único esforço envolvido é inserir os dados.
Situações Hipotéticas Críticas: Os participantes mostraram uma abordagem mais cautelosa ao discutir situações de alto risco. Por exemplo, quando perguntados se recomendariam o app pra identificar um pássaro doente pra um veterinário, muitos ponderaram a eficácia do app em relação às possíveis consequências de um erro.
Familiaridade e Facilidade de Uso: Os participantes frequentemente citaram a familiaridade com o app como um motivo pra confiar nele, observando que era natural usá-lo. Em situações mais urgentes, alguns expressaram preferência por outros recursos se sentissem que os riscos eram muito altos.
Observações Principais sobre Confiança na IA
Das nossas entrevistas, surgiram várias observações importantes sobre a confiança em sistemas de IA:
Natureza Complexa da Confiança: A confiança não é um elemento único, mas consiste em várias componentes. Os usuários podem confiar no app de forma geral, mas ainda assim avaliar as saídas caso a caso.
Influência do Conhecimento do Usuário: O conhecimento prévio de um usuário sobre pássaros impactou significativamente como eles interagiram com o app. Aqueles com mais conhecimento se sentiram mais confiantes ao avaliar a precisão do app.
O Contexto Importa: O contexto em que o app é usado pode mudar a percepção de confiança dos usuários. Familiaridade com a tarefa e compreensão dos riscos potenciais podem levar a diferentes níveis de confiança no app.
Necessidade de Verificação: Muitos usuários não aceitavam as saídas do app de olhos fechados. Em vez disso, eles buscavam ativamente a verificação, reforçando sua confiança cautelosa no app.
Implicações para o Desenvolvimento Futuro da IA
Entender como os usuários confiam nos sistemas de IA pode ajudar a informar um design e funcionalidade melhores pra esses aplicativos. Aqui estão algumas recomendações pros desenvolvedores de IA:
Construir Confiabilidade: Os desenvolvedores devem focar em criar sistemas de IA confiáveis que funcionem bem em situações do mundo real. Comunicações claras sobre como a IA funciona e suas limitações também podem promover confiança.
Incentivar a Educação dos Usuários: Oferecer recursos pra os usuários aprenderem sobre IA e suas capacidades pode ajudar a construir confiança. Quando os usuários entendem como um app funciona, têm mais chances de usá-lo e confiar nele.
Facilitar Verificações: Recursos que permitam aos usuários verificar facilmente as saídas da IA podem aumentar a confiança. Por exemplo, mostrar imagens de referência ou fornecer links pra informações adicionais pode ajudar os usuários a se sentirem mais seguros em suas decisões.
Considerar a Diversidade dos Usuários: Aplicativos de IA são usados por uma variedade de pessoas com diferentes níveis de expertise. Os designers devem considerar essa diversidade ao desenvolver recursos e avaliar as interações dos usuários.
Conclusão
A confiança na IA é uma questão multifacetada que requer uma consideração cuidadosa por parte de desenvolvedores e pesquisadores. Ao observar como usuários reais interagem com a tecnologia, conseguimos entender melhor os fatores que contribuem pra confiança e como aprimorá-la. O caso do app de identificação de pássaros destaca esses aspectos e oferece lições valiosas pros futuros aplicativos de IA. À medida que a IA continua a evoluir, estabelecer e manter a confiança será essencial pra engajamento e satisfação dos usuários.
Título: Humans, AI, and Context: Understanding End-Users' Trust in a Real-World Computer Vision Application
Resumo: Trust is an important factor in people's interactions with AI systems. However, there is a lack of empirical studies examining how real end-users trust or distrust the AI system they interact with. Most research investigates one aspect of trust in lab settings with hypothetical end-users. In this paper, we provide a holistic and nuanced understanding of trust in AI through a qualitative case study of a real-world computer vision application. We report findings from interviews with 20 end-users of a popular, AI-based bird identification app where we inquired about their trust in the app from many angles. We find participants perceived the app as trustworthy and trusted it, but selectively accepted app outputs after engaging in verification behaviors, and decided against app adoption in certain high-stakes scenarios. We also find domain knowledge and context are important factors for trust-related assessment and decision-making. We discuss the implications of our findings and provide recommendations for future research on trust in AI.
Autores: Sunnie S. Y. Kim, Elizabeth Anne Watkins, Olga Russakovsky, Ruth Fong, Andrés Monroy-Hernández
Última atualização: 2023-05-15 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2305.08598
Fonte PDF: https://arxiv.org/pdf/2305.08598
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.