Entendendo a Incerteza Humana em Sistemas de IA
Este artigo examina como a IA lida com input humano incerto, especialmente na área da saúde.
― 7 min ler
Índice
- Modelos de IA Baseados em Conceitos
- Importância da Incerteza Humana
- Conjuntos de dados para Investigar Incerteza
- Perguntas de Pesquisa
- Incerteza Simulada em Modelos de IA
- Treinamento com Incerteza
- Incerteza Humana Real
- Desafios da Incerteza Grosseira
- Incerteza Fina com CUB-S
- Intervenções com CUB-S
- Abordando Desafios Abertos
- Conclusão
- Fonte original
- Ligações de referência
Nos últimos anos, a inteligência artificial (IA) avançou rapidão e agora tá sendo usada em várias áreas, incluindo a saúde. Mas, uma preocupação grande ao usar IA é como esses sistemas lidam com inputs incertos ou errados dos humanos, principalmente em situações críticas como diagnóstico médico. Esse artigo explora a questão da Incerteza humana ao interagir com sistemas de IA que usam modelos baseados em conceitos.
Modelos de IA Baseados em Conceitos
Modelos baseados em conceitos são um tipo de sistema de aprendizado de máquina que depende de conceitos definidos pelos usuários pra melhorar as previsões. Diferente dos modelos tradicionais que usam dados brutos diretamente (como pixels numa imagem), esses modelos deixam os usuários darem feedback baseado em conceitos que eles entendem. Por exemplo, num ambiente médico, um radiologista pode indicar conceitos como "lesões pulmonares" ou "fraturas" ao interpretar imagens de raio-X.
Esses sistemas de IA geralmente assumem que os humanos que dão feedback sempre estão confiantes e certos, agindo como "oráculos." Mas, na real, os humanos costumam ficar inseguros, e essa incerteza pode afetar as decisões deles. Nosso estudo foca em como esses modelos baseados em conceitos lidam com input incerto dos usuários.
Importância da Incerteza Humana
Quando humanos interagem com IA, a incerteza deles pode trazer desafios. Por exemplo, se um médico não tiver certeza se uma condição tá presente, o feedback dele pode ser menos confiável. Por isso, entender como esses modelos conseguem lidar com a incerteza humana é crucial pra melhorar o desempenho e a segurança deles em aplicações do dia a dia.
Conjuntos de dados para Investigar Incerteza
Pra estudar essa questão, desenvolvemos dois conjuntos de dados:
UMNIST: Um conjunto visual onde a incerteza é simulada com base em dígitos escritos à mão. Esse conjunto permite controlar o nível de incerteza enquanto estudamos o desempenho dos modelos de IA.
CUB-S: Uma nova versão de um conjunto de dados de pássaros com anotações detalhadas que refletem a incerteza humana. Esse conjunto traz informações ricas sobre como os humanos expressam incerteza em relação a vários conceitos.
Usando esses conjuntos de dados, conseguimos avaliar como os modelos baseados em conceitos se saem quando enfrentam inputs incertos.
Perguntas de Pesquisa
Esse estudo busca responder perguntas chave sobre a incerteza humana em sistemas de IA:
- Como os sistemas baseados em conceitos existentes lidam com a incerteza humana durante os testes?
- Como esses sistemas podem ser melhorados pra apoiar melhor a incerteza humana?
- Como o tipo e o nível da incerteza influenciam o desempenho?
Incerteza Simulada em Modelos de IA
Primeiro, analisamos como os modelos baseados em conceitos reagem à incerteza simulada usando o conjunto de dados UMNIST. Esse conjunto nos deixou introduzir a incerteza de forma deliberada nas etiquetas dos conceitos. Comparamos o desempenho de diferentes modelos sob vários níveis de incerteza nas previsões deles.
Os resultados mostraram que modelos que não foram treinados pra lidar com incerteza tiveram dificuldades consideráveis ao enfrentar inputs incertos. Até uma pequena quantidade de incerteza pode causar grandes quedas no desempenho. Isso sugere que os modelos precisam ser treinados pensando na incerteza pra serem eficazes.
Treinamento com Incerteza
Exploramos também como treinar modelos com etiquetas de conceitos incertos poderia melhorar o desempenho deles. Permitindo que os modelos aprendessem com dados incertos, descobrimos que eles conseguiam lidar melhor com situações reais onde a incerteza é comum. No entanto, havia um nível ótimo de incerteza pra treinamento - os modelos se saíam melhor quando o nível de incerteza do treinamento combinava com a incerteza que encontravam durante os testes.
Incerteza Humana Real
Depois de analisar a incerteza simulada, focamos na incerteza humana real. No conjunto CUB-S, coletamos anotações de participantes humanos, permitindo que eles expressassem sua incerteza em vários conceitos de pássaros. Esse conjunto traz expressões de incerteza mais sutis e ricas em comparação à incerteza mais grosseira do conjunto anterior.
Classificamos a incerteza em duas formas:
Incerteza Grosseira: Esse tipo de incerteza é expresso através de níveis simples de confiança, como "Chutando," "Provavelmente," ou "Definitivamente." O desafio aqui é mapear esses níveis discretos em valores contínuos de incerteza que os modelos possam usar pra previsões.
Incerteza Fina: Essa forma representa a incerteza de maneira mais precisa, permitindo que os usuários atribuam probabilidades a vários atributos dentro de um conceito. Esse nível de detalhe fornece informações mais úteis pros modelos.
Desafios da Incerteza Grosseira
Ao analisar a incerteza grosseira, enfrentamos vários desafios. Primeiro, foi difícil determinar quão confiante o usuário estava ao expressar incerteza. Segundo, como essas anotações eram frequentemente ambíguas, ficou complicado pros modelos interpretá-las com precisão.
Pra entender melhor esses desafios, estudamos como diferentes métodos de lidar com a incerteza grosseira impactavam o desempenho dos modelos. As descobertas mostraram que variar a forma como interpretamos esses escores discretos pode levar a diferenças significativas em quão bem os modelos funcionam.
Incerteza Fina com CUB-S
Com o conjunto CUB-S, fornecemos aos usuários uma interface pra expressar a incerteza fina. Isso permitiu que os participantes atribuíssem probabilidades a vários atributos dos conceitos de pássaros, oferecendo uma compreensão mais profunda de como os humanos percebem a incerteza.
Nossos experimentos indicaram que os anotadores humanos conseguiam expressar a incerteza de forma mais eficaz por esse método. Observamos que indivíduos têm diferentes graus de calibração na compreensão da incerteza, o que pode levar a inconsistências nas anotações deles.
Intervenções com CUB-S
Depois, aplicamos os aprendizados de ambos os conjuntos de dados pra testar como os modelos baseados em conceitos lidam com intervenções usando o CUB-S. O estudo mostrou que, embora a riqueza das anotações humanas possa melhorar as previsões do modelo, nem todos os inputs incertos são benéficos. Alguns tipos de feedback incerto podem, na verdade, diminuir o desempenho do modelo.
Os resultados destacaram a importância de discernir quais anotações incertas são úteis e quais podem ser enganosas. Isso pede intervenções mais precisas pra guiar os modelos de forma eficaz.
Abordando Desafios Abertos
Durante nossa pesquisa, identificamos vários desafios abertos que precisam ser abordados:
Complementaridade da Incerteza Humana e de Máquina: Compreender como a incerteza humana se sobrepõe à incerteza da máquina poderia levar a processos de decisão melhores. Os modelos precisam aprender quando confiar no input humano e quando se basear nas próprias previsões.
Tratamento da Calibração no Input Humano: Considerando que diferentes indivíduos têm níveis variados de calibração ao expressar sua incerteza, encontrar maneiras de melhorar essa calibração poderia aumentar o desempenho dos modelos.
Escalando a Elicitação de Incerteza Humana: Coletar anotações ricas sobre a incerteza humana pode ser demorado e caro. Novas estratégias são necessárias pra agilizar esse processo e reunir conjuntos de dados mais extensos.
Conclusão
Nossas descobertas mostram que a incerteza humana desempenha um papel fundamental na eficácia dos sistemas de IA baseados em conceitos. Reconhecer e lidar com essa incerteza pode aumentar a confiabilidade e a segurança desses sistemas em aplicações do dia a dia. Desenvolvendo novas metodologias pra coletar e interpretar o input humano, esperamos melhorar a colaboração entre humanos e IA, levando a resultados melhores em várias áreas, especialmente em áreas críticas para a segurança como a saúde.
Título: Human Uncertainty in Concept-Based AI Systems
Resumo: Placing a human in the loop may abate the risks of deploying AI systems in safety-critical settings (e.g., a clinician working with a medical AI system). However, mitigating risks arising from human error and uncertainty within such human-AI interactions is an important and understudied issue. In this work, we study human uncertainty in the context of concept-based models, a family of AI systems that enable human feedback via concept interventions where an expert intervenes on human-interpretable concepts relevant to the task. Prior work in this space often assumes that humans are oracles who are always certain and correct. Yet, real-world decision-making by humans is prone to occasional mistakes and uncertainty. We study how existing concept-based models deal with uncertain interventions from humans using two novel datasets: UMNIST, a visual dataset with controlled simulated uncertainty based on the MNIST dataset, and CUB-S, a relabeling of the popular CUB concept dataset with rich, densely-annotated soft labels from humans. We show that training with uncertain concept labels may help mitigate weaknesses of concept-based systems when handling uncertain interventions. These results allow us to identify several open challenges, which we argue can be tackled through future multidisciplinary research on building interactive uncertainty-aware systems. To facilitate further research, we release a new elicitation platform, UElic, to collect uncertain feedback from humans in collaborative prediction tasks.
Autores: Katherine M. Collins, Matthew Barker, Mateo Espinosa Zarlenga, Naveen Raman, Umang Bhatt, Mateja Jamnik, Ilia Sucholutsky, Adrian Weller, Krishnamurthy Dvijotham
Última atualização: 2023-03-22 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2303.12872
Fonte PDF: https://arxiv.org/pdf/2303.12872
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.