Entendendo a Diferença de Conhecimento em LLMs
Pesquisadores encontram maneiras de melhorar como modelos de linguagem grandes expressam seu conhecimento.
Xingjian Tao, Yiwei Wang, Yujun Cai, Zhicheng Yang, Jing Tang
― 7 min ler
Índice
- O Problema com as Respostas
- Conhecimento vs. Expressão
- Analisando a Situação
- Uma Nova Maneira de Medir Conhecimento
- Estimulando Respostas Melhores
- A Influência dos Dados
- Respostas Não Informativas: Os Assassinos Silenciosos
- A Opção "Inseguro"
- Melhorando o Desempenho por Filtragem
- Conclusão: Um Futuro Brilhante para os LLMs
- Fonte original
- Ligações de referência
Modelos de linguagem grandes (LLMs) são ferramentas impressionantes que conseguem gerar texto e responder perguntas com base na vasta informação que foram treinados. Mas, eles têm uma certa fama de dar umas escorregadas nas Respostas, deixando a galera na dúvida se eles realmente sabem do que estão falando. É um clássico caso de "eu sei a resposta, mas não tô conseguindo dizer direito".
O Problema com as Respostas
Muita gente já passou por essa situação estranha ao interagir com LLMs. Você faz uma pergunta e eles podem te dar uma resposta totalmente errada, tipo afirmar que a capital do Canadá é Vancouver em vez de Ottawa. Mas aqui que tá a sacada: mesmo quando eles erram, ainda assim "sabem" a resposta certa. É como ter um amigo que às vezes fala besteira, mas que também sabe todos os fatos, só que escolhe a hora errada pra compartilhar!
Esse comportamento meio esquisito fez alguns especialistas darem uma olhada mais a fundo em como os LLMs lembram e expressam as informações que têm na cabeça. No fundo, parece que eles conseguem guardar Conhecimento, mas têm dificuldade pra expressá-lo de um jeito que faça sentido às vezes.
Expressão
Conhecimento vs.Pra deixar claro, conhecimento refere-se às informações que os LLMs têm – fatos, dados e tal – enquanto expressão é como eles transmitem esse conhecimento nas respostas. Os pesquisadores descobriram que os LLMs têm o hábito de guardar as respostas certas, mas costumam dar respostas erradas. Então, se você já sentiu que um LLM tá jogando um jogo de "Quem é?" com as respostas, você não tá sozinho!
Analisando a Situação
Os cientistas têm explorado o funcionamento interno desses modelos pra entender melhor o que tá rolando. Eles perceberam um padrão curioso: mesmo se um LLM dá a resposta errada, muitas vezes ele ainda atribui altas probabilidades à resposta certa quando olha pras suas probabilidades internas. É quase como se o modelo estivesse dizendo: "Eu sei a resposta, mas vou ficar quieto por enquanto."
Por exemplo, numa pergunta sobre a capital do estado de Washington, um LLM pode afirmar com confiança "Seattle", enquanto secretamente pensa que "Olympia" tem muito mais chance de estar certa. Essa desconexão entre conhecimento guardado e conhecimento expresso é bem fascinante e sugere que os LLMs poderiam se sair melhor se conseguissem expressar melhor o que sabem.
Uma Nova Maneira de Medir Conhecimento
Pra investigar melhor essa diferença entre conhecimento e expressão, os pesquisadores desenvolveram uma nova métrica pra avaliar quanto conhecimento um LLM realmente retém, independente de compartilhar a resposta certa ou não. Eles descobriram que os LLMs costumavam guardar muito mais conhecimento do que os testes convencionais mostravam. É como se esses modelos estivessem acumulando trivia como um veterano em um hall de bingo, mas simplesmente não conseguem dar o passo pra compartilhar!
Estimulando Respostas Melhores
Usando os insights das descobertas, os pesquisadores queriam melhorar a capacidade dos LLMs de expressar o conhecimento que tinham armazenado. Em vez de treinar o modelo inteiro de novo – que pode consumir muitos recursos – eles sugeriram um método pra filtrar respostas que não ajudam e recuperar o conhecimento escondido que o modelo tava mantendo em segredo. Essa nova abordagem permite que os LLMs melhorem sua Precisão sem precisar ir pra academia pra mais uma rodada de treinamento.
Durante os testes, esse método levou a aumentos significativos na precisão em várias tarefas, o que significa que os LLMs finalmente estavam encontrando uma maneira de compartilhar um pouco daquele conhecimento precioso em vez de guardá-lo só pra eles. É como uma criança tímida numa festa finalmente se sentindo à vontade pra entrar no jogo de mímica.
A Influência dos Dados
Os pesquisadores também examinaram como diferentes tipos de perguntas e conjuntos de dados influenciavam a capacidade dos LLMs de recordar informações. Acabou que os modelos se saíam de maneiras diferentes dependendo de quão populares ou frequentemente questionadas eram as perguntas. Se um fato era comum ou amplamente conhecido, as chances eram de que os modelos lembrassem melhor do que algo obscuro, como a capital de uma nação insular minúscula. Basta imaginar tentar lembrar o nome de todos os doces já feitos – é difícil!
Isso levou à conclusão de que algumas perguntas eram simplesmente mais fáceis de serem respondidas pelos modelos do que outras, dependendo de quão familiarizados eles estavam com os dados. Em resumo, o que é popular é lembrado; o que não é, bem, boa sorte com isso!
Respostas Não Informativas: Os Assassinos Silenciosos
Uma das coisas mais perplexas sobre os LLMs é a tendência deles de dar respostas não informativas. Imagine pedir conselhos pro seu amigo e, em vez disso, ele só fica te olhando em branco ou dá respostas vagas tipo "hum, talvez". Esse tipo de resposta pode ser bem frustrante pra quem espera uma orientação sólida.
Quando os LLMs respondem sem fornecer informações úteis, isso pode levar à confusão e frustração. Essas respostas não informativas podem ter muitas formas, desde repetir uma frase até ignorar completamente a pergunta. É como se o modelo tivesse o conhecimento, mas estivesse tímido demais pra compartilhar.
A Opção "Inseguro"
Pra ajudar a reduzir as chances dessas respostas não informativas, os pesquisadores sugeriram incluir uma opção "inseguro" nos prompts. Assim, um LLM pode admitir incerteza em vez de soltar uma resposta errada. Pense nisso como uma rede de segurança pra quando o modelo estiver se sentindo um pouco sobrecarregado – ninguém quer ser a pessoa que dá a resposta errada na noite de trivia!
Melhorando o Desempenho por Filtragem
Com todos esses insights em mente, os pesquisadores perceberam que resolver aquelas respostas não informativas era a chave pra liberar um desempenho melhor nos LLMs. Eles se propuseram a filtrar essas respostas vazias ou irrelevantes enquanto recuperavam o conhecimento interno valioso que poderia ser usado pra dar respostas mais precisas.
O método deles envolvia identificar e remover tokens (pedaços de texto ou palavras) que eram considerados inúteis, garantindo que só informações relevantes fossem levadas em conta. A ideia era usar um par de óculos pra enxergar as partes mais críticas das informações escondidas atrás da bagunça.
Como resultado, quando os pesquisadores testaram essa abordagem, observaram taxas de precisão mais altas, especialmente pra perguntas onde o modelo tinha acesso a conhecimento relevante. Era como se os modelos de repente decidissem fazer um curso intensivo de como jogar trivia e melhorassem seu jogo da noite pro dia.
Conclusão: Um Futuro Brilhante para os LLMs
Em resumo, modelos de linguagem grandes são como aquele amigo que sabe tudo, mas às vezes mistura os fatos ou não compartilha as coisas importantes. Eles guardam um tesouro de conhecimento, mas frequentemente expressam isso de forma ruim. Ao se aprofundar em como os LLMs armazenam e expressam conhecimento, os pesquisadores estão descobrindo as chaves pra melhorar seu desempenho.
Graças a métodos inovadores que filtram o ruído e utilizam melhor o conhecimento armazenado, os LLMs agora podem oferecer respostas que não são só precisas, mas também relevantes. É um grande passo pra esses modelos e um futuro brilhante pra quem procura informações confiáveis. Então, da próxima vez que você fizer uma pergunta a um LLM, lembre-se: ele pode estar finalmente se organizando!
Fonte original
Título: Are LLMs Really Not Knowledgable? Mining the Submerged Knowledge in LLMs' Memory
Resumo: Large language models (LLMs) have shown promise as potential knowledge bases, yet they often struggle with question-answering tasks and are prone to hallucinations. While previous research attributes these issues to knowledge gaps in the model's parameters, our investigation reveals a different phenomenon: LLMs often retain correct knowledge even when generating incorrect answers. Through analysis of model's internal representations, we find that correct answers frequently appear among high-probability tokens despite not being selected as final outputs. Based on this observation, we introduce Hits@k, a new metric to assess knowledge retention independent of expression accuracy. Our extensive experiments demonstrate that LLMs store significantly more knowledge than their QA performance suggests. Building on these findings, we develop SkipUnsure, a method to improve answer accuracy by leveraging detected but unexpressed knowledge. Experiments on both open-domain and specific-domain datasets show consistent improvements, with accuracy gains of up to 11.8% on DBPedia and 6.3% on IMDB, without requiring model retraining.
Autores: Xingjian Tao, Yiwei Wang, Yujun Cai, Zhicheng Yang, Jing Tang
Última atualização: 2024-12-30 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2412.20846
Fonte PDF: https://arxiv.org/pdf/2412.20846
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://platform.openai.com/docs/models/gpt-3-5-turbo
- https://arxiv.org/abs/2210.11416
- https://arxiv.org/abs/2302.13971
- https://arxiv.org/abs/2307.09288
- https://ai.meta.com/blog/meta-llama-3/
- https://arxiv.org/abs/2310.06825
- https://arxiv.org/abs/2403.08295
- https://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/