Simple Science

Ciência de ponta explicada de forma simples

# Informática# Aprendizagem de máquinas# Inteligência Artificial# Computação e linguagem

Melhorando Modelos de Linguagem: Um Novo Método de Treinamento

Novas estratégias melhoram a capacidade dos modelos de linguagem de recuperar conhecimento com precisão.

― 7 min ler


Reformulando oReformulando oTreinamento de Modelos deLinguagemmodelos.recuperação de conhecimento nosNovos métodos de treinamento melhoram a
Índice

Os modelos de linguagem evoluíram bastante. Eles conseguem criar textos que parecem inteligentes e coerentes. Mas, ainda têm um grande problema: eles costumam errar nos fatos ou inventar coisas. Esse problema é chamado de "alucinação". A alucinação acontece quando um modelo fornece informações falsas que não estavam nos dados de treinamento. Isso é especialmente preocupante em áreas onde informações precisas são críticas.

Um problema-chave que leva à alucinação é conhecido como "maldição da reversão". Isso significa que a forma como as palavras são organizadas no treinamento afeta como um modelo recupera informações depois. Por exemplo, se um modelo aprende que "Paris é a capital da França", ele pode conseguir responder "Qual é a capital da França?", mas pode ter dificuldade com "Paris é a capital de qual país?". Mesmo que as duas perguntas estejam perguntando a mesma coisa, a ordem das palavras faz diferença na capacidade do modelo de responder.

Para ajudar a corrigir a maldição da reversão, muitos pesquisadores tentaram mudar os dados de treinamento para incluir exemplos onde a ordem dos tokens é invertida. Isso significa treinar o modelo tanto com frases originais quanto com frases invertidas. Neste artigo, exploramos uma abordagem diferente: focar em como montamos tarefas para o modelo aprender.

Entendendo a Maldição da Fatoração

Ao tentar lidar com a maldição da reversão, introduzimos o conceito de maldição da fatoração. Essa ideia ajuda a explicar por que alguns modelos de linguagem têm dificuldade em recuperar informações. A maldição da fatoração descreve como os modelos quebram a entrada em partes que preveem o que vem a seguir. Se essa divisão for muito rígida, o modelo se limita na sua capacidade de aprender a partir de diferentes arranjos da mesma informação.

Quando um modelo aprende principalmente a prever a próxima palavra em uma frase a partir das palavras anteriores, seu entendimento se baseia apenas naquela ordem de palavras. Como resultado, ele tem dificuldade quando a informação é apresentada de forma diferente. Basicamente, se ele vê um arranjo específico durante o treinamento, pode falhar em reconhecer os mesmos fatos quando apresentados de outra forma.

A Nova Abordagem: Treinamento Agnóstico à Fatoração

Diante dos desafios impostos pela maldição da fatoração, propomos uma alternativa: treinamento agnóstico à fatoração. Esse método de treinamento envolve ensinar os modelos de um jeito que eles prestem menos atenção à ordem específica dos tokens, enquanto ainda entendem o significado geral. Isso pode ajudar os modelos a lembrar melhor as informações sem ficarem presos na ordem das palavras.

Para verificar essa ideia, realizamos vários testes para ver como diferentes métodos de treinamento permitem que os modelos armazenem e recuperem Conhecimento. Nossos experimentos incluíram trabalhar com condições controladas e dados do mundo real para avaliar como essas diferentes abordagens se saem.

Experimentos com Estratégias Agnósticas à Fatoração

Montamos uma tarefa de recuperação controlada para medir o quão bem cada método de aprendizado funciona. Nessa tarefa, criamos pares de sequências de chave-valor. Por exemplo, poderíamos treinar um modelo com uma chave como "capital da França" e seu valor correspondente "Paris". Depois, testamos quão bem o modelo conseguia recuperar chaves a partir dos valores e vice-versa.

Também examinamos outras relações e cenários onde simplesmente inverter os tokens não ajudou a melhorar o desempenho. Em vez disso, descobrimos que usar uma abordagem mais flexível permitiu que modelos treinados sob condições agnósticas à fatoração se saíssem melhor em diferentes tipos de perguntas.

Avaliações Realistas Usando Conhecimento da Wikipedia

Para adicionar mais complexidade aos nossos testes, criamos um setup de avaliação prática usando dados da Wikipedia. Ao ajustar os modelos em artigos reais e suas relações, pudemos imitar situações do mundo real onde esses modelos seriam aplicados.

Nesse setup, focamos em perguntas e respostas de livro fechado. Isso significa que os modelos tinham que depender apenas do seu treinamento sem nenhuma dica externa. Criamos perguntas que exigiam raciocínio sobre as entidades e suas relações em ambas as direções, para frente e para trás.

Insights dos Experimentos

Através dos nossos experimentos, aprendemos que modelos treinados de uma forma agnóstica à fatoração conseguem generalizar melhor para várias tarefas. Por exemplo, ao pedir a um modelo para recordar informações, sua resposta tende a ser precisa, independentemente de como a pergunta foi formulada. Isso é uma grande vantagem, porque significa que o modelo pode lidar com uma variedade maior de perguntas sem ser limitado por como aprendeu.

Também notamos que durante tarefas de raciocínio reverso, modelos que usavam métodos tradicionais de treinamento tinham dificuldades. O problema desses métodos é que eles geralmente se concentram na sequência para frente. Quando a tarefa exigia trabalhar de forma reversa, os modelos frequentemente falhavam.

Curiosamente, descobrimos que até setups mais simples podem esclarecer como quebrar a informação. Permitir que modelos aprendam a partir de vários exemplos da mesma informação em diferentes sequências melhorou drasticamente seu desempenho.

A Importância de Variação nos Métodos de Treinamento

Uma grande conclusão do nosso trabalho é que variar os métodos de treinamento pode levar a resultados melhores. A abordagem tradicional de taxas de máscara fixas ou inverter sequências de tokens nem sempre traz bons resultados. Em contraste, nossos métodos agnósticos à fatoração permitiram que os modelos percebessem diferentes maneiras de interpretar a mesma informação de forma mais eficaz.

Métodos de treinamento que permitem uma ampla gama de previsões contextuais-como adivinhar qualquer contexto a partir de qualquer outro, independentemente da ordem-mostraram resultados promissores. Essas estratégias podem ser comparadas a permitir que os alunos abordem um assunto de múltiplas maneiras, facilitando a compreensão de tópicos complexos.

Capacidades de Planejamento em Modelos de Linguagem

Outro resultado interessante do nosso estudo é o potencial para melhorar as capacidades de planejamento em modelos de linguagem. Quando confrontados com tarefas que exigem algum tipo de planejamento, modelos treinados com estratégias agnósticas à fatoração pareciam mais preparados para o desafio. Isso sugere que esses modelos podem não apenas recordar fatos, mas também aplicá-los em cenários práticos, como descobrir uma sequência de passos para atingir um objetivo.

Por exemplo, ao receber uma tarefa envolvendo navegação por caminhos, modelos que foram treinados com nossos métodos podiam prever eficientemente quais caminhos seguir sem perder de vista suas decisões anteriores. Isso contrasta com modelos autorregressivos tradicionais que não conseguiam seguir eficientemente tarefas que exigiam previsão.

Direções Futuras e Considerações

Embora nossas descobertas sejam promissoras, também reconhecemos que desafios permanecem. A complexidade geral das tarefas significa que os modelos precisam de uma forma melhor de transitar de tarefas mais simples para cenários mais complexos. Ainda há necessidade de mais estudos para garantir que os modelos possam aprender de forma eficaz sem serem prejudicados pelas intricadas ordens da linguagem.

Além disso, os insights obtidos a partir deste trabalho podem gerar novo interesse em métodos de treinamento que ajustam sua abordagem com base nas tarefas em questão. É essencial continuar buscando métodos que permitam aos modelos extrair conhecimento de uma perspectiva mais ampla, aprimorando suas capacidades gerais.

Conclusão

Resumindo, os modelos de linguagem avançaram significativamente em produzir textos coerentes e sensatos. No entanto, os desafios relacionados à recuperação de conhecimento e alucinações destacam a necessidade de métodos de treinamento aprimorados. A maldição da fatoração ressalta como as abordagens tradicionais podem restringir a compreensão e o uso das informações por um modelo.

Ao adotar uma abordagem de treinamento agnóstico à fatoração, mostramos que os modelos de linguagem podem armazenar e recuperar conhecimento de forma melhor, se tornando mais aptos a responder perguntas, independentemente de como são formuladas. Este trabalho abre caminho para futuros avanços no treinamento de modelos de linguagem, com a esperança de construir modelos ainda mais confiáveis e capazes.

Fonte original

Título: The Factorization Curse: Which Tokens You Predict Underlie the Reversal Curse and More

Resumo: Today's best language models still struggle with hallucinations: factually incorrect generations, which impede their ability to reliably retrieve information seen during training. The reversal curse, where models cannot recall information when probed in a different order than was encountered during training, exemplifies this in information retrieval. We reframe the reversal curse as a factorization curse - a failure of models to learn the same joint distribution under different factorizations. Through a series of controlled experiments with increasing levels of realism including WikiReversal, a setting we introduce to closely simulate a knowledge intensive finetuning task, we find that the factorization curse is an inherent failure of the next-token prediction objective used in popular large language models. Moreover, we demonstrate reliable information retrieval cannot be solved with scale, reversed tokens, or even naive bidirectional-attention training. Consequently, various approaches to finetuning on specialized data would necessarily provide mixed results on downstream tasks, unless the model has already seen the right sequence of tokens. Across five tasks of varying levels of complexity, our results uncover a promising path forward: factorization-agnostic objectives can significantly mitigate the reversal curse and hint at improved knowledge storage and planning capabilities.

Autores: Ouail Kitouni, Niklas Nolte, Diane Bouchacourt, Adina Williams, Mike Rabbat, Mark Ibrahim

Última atualização: 2024-06-07 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2406.05183

Fonte PDF: https://arxiv.org/pdf/2406.05183

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes