Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computação e linguagem

Investigando Modelos Através de Perguntas e Respostas Imaginárias

Estudar como os modelos de linguagem respondem a perguntas fictícias revela características em comum.

― 6 min ler


Modelos e QuestionamentoModelos e QuestionamentoFiccionalprompts fictícios.precisão surpreendente ao responder aModelos de linguagem mostram uma
Índice

Modelos de linguagem grandes (LLMs) viraram moda nos últimos anos. Eles são usados em várias tarefas, desde escrever até responder perguntas. Mesmo que esses modelos venham em tamanhos e níveis de desempenho diferentes, eles compartilham várias características. Por exemplo, eles costumam usar designs de modelo semelhantes, tipos de dados de treinamento e métodos de aprendizado. Isso levanta uma pergunta interessante: será que esses modelos pensam igual?

Pra responder essa pergunta, a gente introduz uma nova tarefa chamada resposta a perguntas imaginárias (IQA). Nessa tarefa, um modelo cria perguntas imaginárias baseadas em ideias completamente inventadas. Outro modelo então tenta responder essas perguntas. Surpreendentemente, mesmo quando as perguntas são totalmente fictícias, os modelos conseguem responder corretamente na maior parte das vezes. Essa descoberta sugere que esses modelos podem operar em um espaço compartilhado de imaginação, levando a respostas semelhantes a estímulos fictícios.

Resposta a Perguntas Imaginárias (IQA)

O setup da IQA consiste em dois tipos de perguntas: Perguntas Diretas (DQs) e perguntas de contexto (CQs). No caso das DQs, um modelo gera uma pergunta do zero sobre um tópico fictício. Para as CQs, o modelo primeiro escreve um parágrafo curto sobre uma ideia inventada e, em seguida, faz uma pergunta baseada nesse parágrafo. Embora essas perguntas sejam impossíveis de responder usando lógica, o modelo ainda precisa fornecer uma resposta "correta".

Nos nossos experimentos, usamos 13 LLMs diferentes de quatro famílias de modelos. Descobrimos que esses modelos tiveram uma taxa média de sucesso de 54% nas DQs, o que é bem mais alto do que adivinhação aleatória. A precisão aumenta ainda mais nas CQs, chegando a impressionantes 86%. Os resultados indicam um forte acordo entre os modelos em suas respostas fictícias, destacando o conceito de "imaginação compartilhada".

Setup do Experimento e Descobertas

Testamos os modelos usando 17 matérias acadêmicas como matemática, ciência e literatura. Cada modelo gerou um conjunto de perguntas, com 20 sendo perguntas diretas e 20 sendo perguntas de contexto para cada matéria. O desempenho foi medido por quantas perguntas foram respondidas corretamente e quantos modelos responderam de fato.

De modo geral, o desempenho foi acima do acaso. Quando o modelo de resposta (aquele que fornece as respostas) era o mesmo ou da mesma família que o modelo de pergunta (aquele que gera as perguntas), a taxa de sucesso melhorou. Para as CQs, a taxa de precisão foi ainda maior, com vários pares de modelos alcançando taxas de sucesso próximas a 96%.

Análise Adicional

Depois de observar essas altas taxas de precisão, queríamos entender por que essa imaginação compartilhada existe. Consideramos várias perguntas:

1. Características dos Dados

Olhamos para a linguagem usada nas perguntas geradas. Descobrimos que certas palavras apareciam com frequência nas DQs e CQs. Isso sugere que existem padrões ou estruturas comuns que esses modelos usam ao criar perguntas.

2. Adivinhando Respostas Humanas

Pra entender melhor as perguntas geradas, pedimos pra humanos tentarem responder 340 perguntas escolhidas aleatoriamente. A taxa de sucesso dos humanos foi significativamente menor do que a dos modelos, especialmente nas CQs. Isso indica que os modelos podem estar usando um raciocínio mais sofisticado do que os adivinhadores humanos conseguem.

3. Seleção de Respostas

Analisamos como o comprimento da escolha de resposta correta influencia a taxa de sucesso. Nas DQs, qualquer comprimento de resposta teve quase a mesma chance de ser correta, enquanto nas CQs, a resposta mais longa frequentemente era a correta. Essa consistência entre os vários modelos sugere mais uma vez características compartilhadas na forma como eles geram e lidam com perguntas.

4. Reconhecimento de Ficcionalidade

Outro aspecto interessante é como esses modelos lidam com a ficcionalidade. Testamos se os modelos podiam identificar que algumas perguntas eram baseadas em conceitos totalmente fictícios. Acontece que eles frequentemente falharam em reconhecer o conteúdo fictício, optando por responder perguntas mesmo quando não faziam sentido.

Resultados sobre Ficcionalidade

Enquanto a taxa de resposta foi alta, isso levanta preocupações sobre se os modelos entendem completamente a natureza das perguntas que estão respondendo. Pra explorar isso, demos a eles a opção de indicar que uma pergunta era fictícia. A seleção dessa opção foi notavelmente menor nas CQs em comparação com as DQs. Assim, mesmo quando podiam identificar a ficcionalidade durante perguntas diretas, tinham dificuldades em aplicar esse conhecimento ao responder.

O Papel do Aquecimento

Outra razão potencial pela qual a precisão melhorou nas CQs pode ser a ideia de "aquecimento". Isso sugere que quando os modelos geram um contexto anterior, isso ajuda eles a se saírem melhor em perguntas relacionadas. No nosso experimento, à medida que os modelos geraram mais perguntas em sequência, sua precisão aumentou constantemente. Isso indica que a familiaridade com o conteúdo possivelmente permite que os modelos entreguem melhores resultados.

Universalidade do Fenômeno

A gente também queria ver se esse comportamento de imaginação compartilhada era universal entre diferentes tipos de modelos. Testamos modelos adicionais pra notar seu desempenho. Enquanto alguns modelos foram bem, outros mal conseguiram superar a adivinhação aleatória. Essa observação indica que a capacidade de compartilhar respostas imaginativas pode vir do tipo de dados de treinamento aos quais os modelos foram expostos.

Resultados de Escrita Criativa

Exploramos também se essa habilidade imaginativa se estende a tarefas de escrita criativa. Nesse cenário, pedimos aos modelos que escrevessem histórias criativas baseadas em certos temas. As perguntas geradas eram frequentemente muito fictícias, e os modelos ainda mantinham uma taxa de sucesso acima da média nessas tarefas. No entanto, a melhoria de precisão de DQs para CQs foi menos significativa em comparação com experimentos anteriores, mostrando que, enquanto conseguiam gerar narrativas interessantes, seu desempenho não disparou tanto.

Conclusão

Resumindo, a tarefa de resposta a perguntas imaginárias (IQA) nos dá uma visão do comportamento dos LLMs em relação ao conteúdo imaginário. A capacidade dos modelos de responder a perguntas fictícias com precisão sugere que eles compartilham semelhanças aprendidas durante o treinamento. Essa imaginação compartilhada oferece possibilidades intrigantes para estudos futuros sobre semelhanças entre modelos, detecção de alucinações e até mesmo tarefas de escrita criativa.

Pesquisas futuras poderiam expandir isso incluindo famílias de modelos e tipos mais diversos. Entender como diferentes modelos respondem a perguntas fictícias pode levar a melhores modelos e aplicações no futuro. Além disso, explorar como esses modelos podem melhorar sua capacidade de reconhecer quando o conteúdo não faz sentido pode ser crucial para construir sistemas confiáveis.

Fonte original

Título: Shared Imagination: LLMs Hallucinate Alike

Resumo: Despite the recent proliferation of large language models (LLMs), their training recipes -- model architecture, pre-training data and optimization algorithm -- are often very similar. This naturally raises the question of the similarity among the resulting models. In this paper, we propose a novel setting, imaginary question answering (IQA), to better understand model similarity. In IQA, we ask one model to generate purely imaginary questions (e.g., on completely made-up concepts in physics) and prompt another model to answer. Surprisingly, despite the total fictionality of these questions, all models can answer each other's questions with remarkable success, suggesting a "shared imagination space" in which these models operate during such hallucinations. We conduct a series of investigations into this phenomenon and discuss implications on model homogeneity, hallucination, and computational creativity.

Autores: Yilun Zhou, Caiming Xiong, Silvio Savarese, Chien-Sheng Wu

Última atualização: 2024-07-23 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2407.16604

Fonte PDF: https://arxiv.org/pdf/2407.16604

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes