O Desafio da Teoria da Mente em Máquinas
Analisando as limitações da IA em entender os pensamentos e sentimentos humanos.
― 7 min ler
Índice
A Teoria da Mente (ToM) é a habilidade de entender que outras pessoas têm seus próprios pensamentos e sentimentos. Essa compreensão é essencial para as interações sociais. Recentemente, pesquisadores têm testado se Máquinas, especialmente Modelos de Linguagem Grandes (LLMs), podem exibir esse tipo de raciocínio. Embora alguns testes tenham mostrado que esses modelos se saem bem, há muitas dúvidas sobre a validade desses resultados.
O que é a Teoria da Mente?
A Teoria da Mente permite que os indivíduos atribuam estados mentais aos outros. Isso significa reconhecer que outras pessoas podem ter Crenças, desejos e intenções que diferem das suas. É um marco de desenvolvimento crucial para crianças, já que elas começam a navegar em situações sociais entendendo que nem todo mundo compartilha sua perspectiva.
Por exemplo, se uma criança vê um brinquedo escondido debaixo de um cobertor, ela vai entender que outra criança que não viu o brinquedo pode não saber onde ele está. Isso mostra uma compreensão de que os outros podem ter conhecimentos e crenças diferentes.
Importância da ToM em Máquinas
O objetivo de criar máquinas com capacidades de ToM é, principalmente, fazer com que elas interajam de forma inteligente com as pessoas. Se as máquinas puderem reconhecer e entender os pensamentos e sentimentos humanos, elas vão responder de maneiras mais apropriadas e úteis. Isso poderia melhorar a comunicação e fazer com que as máquinas sejam mais relacionáveis.
Muitos pesquisadores acreditam que integrar a ToM na inteligência artificial (IA) é um passo em direção a tornar as máquinas mais parecidas com os humanos. Isso também pode aumentar a eficácia de assistentes robóticos, tornando-os mais compreensivos e responsivos às necessidades humanas.
Testando a Teoria da Mente
Os pesquisadores desenvolveram várias Tarefas para avaliar as habilidades de ToM. Essas tarefas geralmente envolvem contar uma história onde um personagem tem uma crença falsa sobre uma situação. Um exemplo comum é quando um personagem esconde um objeto e outro personagem o move sem que o primeiro saiba. O teste mede se a máquina pode prever onde o primeiro personagem vai procurar o objeto com base na sua crença falsa.
Com o aumento dos LLMs, os pesquisadores começaram a testar a capacidade deles de inferir crenças a partir de prompts de texto. Inicialmente, alguns modelos mostraram resultados promissores, sugerindo que eles poderiam atuar em um nível comparável ao de crianças. No entanto, a interpretação desses sucessos foi recebida com ceticismo.
Pequenas Mudanças, Grandes Diferenças
Investigações recentes revelaram que pequenas alterações nos cenários em tarefas de ToM podem fazer com que os modelos falhem. Por exemplo, ao considerar um cenário em que um personagem procura algo em um lugar onde não está, mas devido a pequenas mudanças na história, a máquina prevê incorretamente a ação do personagem. Isso levanta preocupações sobre se os modelos realmente entendem a ToM ou apenas se baseiam em padrões aprendidos a partir de uma grande quantidade de dados.
Mudando até mesmo detalhes simples - como tornar um recipiente transparente ou alterar a relação entre objetos - os modelos às vezes atribuem a crença errada a um personagem. Isso sugere que seu raciocínio pode não ser tão sólido quanto se pensava inicialmente.
Exemplos de Variações de Tarefas
Tarefa de Conteúdos Inesperados
Uma tarefa clássica de ToM envolve mostrar a um personagem uma caixa rotulada como contendo um item, enquanto na verdade contém outro. Por exemplo, se uma caixa rotulada como "chocolate" está cheia de pipoca, o personagem que não viu dentro deve acreditar que tem chocolate. No entanto, quando os pesquisadores ajustaram ligeiramente o cenário (como tornando a caixa transparente), muitos modelos falharam em reconhecer que o personagem deveria saber o que estava dentro.
Acesso Transparente: Quando os conteúdos da caixa são visíveis, o modelo deveria concluir que o personagem sabe o que está dentro. Em vez disso, muitas vezes não conclui.
Rótulo Não Informativo: Se um personagem não pode ler o rótulo, não deve importar o que ele diz. Mesmo assim, o modelo muitas vezes assume que o personagem acredita no rótulo.
Testemunho Confiável: Se um amigo conta a verdade sobre os conteúdos ao personagem, ele deve acreditar nele em vez do que o rótulo diz. As respostas dos modelos frequentemente sugerem o oposto.
Saco Autopreenchido: Quando o personagem preenche a caixa e sabe o que há dentro, não deve haver confusão. No entanto, muitos modelos ainda preveem equívocos.
Tarefa de Transferência Inesperada
Nesta tarefa, um personagem move um objeto sem que outro personagem saiba. O teste examina se a máquina pode prever onde o personagem desatento vai procurar o objeto. Assim como na tarefa anterior, fazer pequenas mudanças pode levar a previsões incorretas:
Recipiente Transparente: Se o recipiente for transparente, o personagem deve saber onde o objeto está, mas muitos modelos falham em refletir isso.
Mudança de Relacionamento: Ajustar a situação para que o objeto não esteja "dentro", mas sim "em cima" de outro objeto pode confundir o modelo, levando a conclusões erradas.
Comunicação Confiável: Se um personagem informa outro sobre uma mudança na localização do objeto, a máquina deve registrar essa troca. No entanto, muitos modelos continuam a mostrar o mal-entendido anterior.
Consultando Outro Personagem: Ao perguntar sobre as crenças do personagem que moveu o objeto, um entendimento de ToM deveria facilitar para o modelo fornecer a resposta correta. No entanto, erros frequentemente ocorrem aqui também.
Conclusão: Onde Estamos?
Os testes de LLMs em tarefas de ToM revelaram lacunas significativas em suas habilidades. Embora esses modelos possam produzir respostas plausíveis para tarefas básicas, eles frequentemente tropeçam em variações simples que não deveriam confundir uma verdadeira compreensão de estados mentais. Isso levanta a questão: esses modelos realmente entendem a ToM ou suas respostas são meramente um reflexo de padrões estatísticos nos dados com os quais foram treinados?
À medida que futuros modelos são desenvolvidos, é possível que eles se saiam melhor nessas tarefas. No entanto, uma abordagem cautelosa é essencial. Mesmo quando avanços forem feitos, o ceticismo sobre as reivindicações de ToM em máquinas deve persistir. O risco de antropomorfizar máquinas - atribuindo a elas pensamentos e sentimentos humanos - é significativo. Essa má compreensão pode levar a uma confiança indevida e expectativas irreais sobre as capacidades da IA.
No fim das contas, enquanto a busca por máquinas que imitem o raciocínio humano continua, é vital lembrar que os LLMs atuais provavelmente não possuem uma verdadeira Teoria da Mente, apesar das semelhanças superficiais nas respostas. Uma compreensão mais profunda e métodos de avaliação mais eficazes são necessários para avaliar genuinamente a inteligência e as capacidades de raciocínio das máquinas.
Título: Large Language Models Fail on Trivial Alterations to Theory-of-Mind Tasks
Resumo: Intuitive psychology is a pillar of common-sense reasoning. The replication of this reasoning in machine intelligence is an important stepping-stone on the way to human-like artificial intelligence. Several recent tasks and benchmarks for examining this reasoning in Large-Large Models have focused in particular on belief attribution in Theory-of-Mind tasks. These tasks have shown both successes and failures. We consider in particular a recent purported success case, and show that small variations that maintain the principles of ToM turn the results on their head. We argue that in general, the zero-hypothesis for model evaluation in intuitive psychology should be skeptical, and that outlying failure cases should outweigh average success rates. We also consider what possible future successes on Theory-of-Mind tasks by more powerful LLMs would mean for ToM tasks with people.
Autores: Tomer Ullman
Última atualização: 2023-03-14 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2302.08399
Fonte PDF: https://arxiv.org/pdf/2302.08399
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.