Aprimorando a Precisão em Modelos de Linguagem
A pesquisa analisa técnicas de prompts pra melhorar a confiabilidade das saídas de modelos de linguagem.
― 4 min ler
Modelos de linguagem grandes (LLMs) muitas vezes geram informações enganosas ou falsas, mesmo sendo treinados com dados factuais. Isso pode trazer sérios riscos, especialmente quando suas respostas são usadas em situações do mundo real. Para resolver esse problema, pesquisadores têm buscado métodos para melhorar a Precisão desses modelos. Uma abordagem interessante envolve usar comandos específicos para incentivar esses modelos a se referirem ou citarem os dados nos quais foram treinados.
O Problema da Informação Falsa
Apesar de serem treinados com uma grande quantidade de informações, os LLMs às vezes criam conteúdo que não é verdadeiro. Isso é frequentemente chamado de "alucinação". O desafio é que esses modelos podem produzir respostas que parecem plausíveis, mas não estão enraizadas na realidade. Isso pode fazer com que os usuários tomem decisões com base em informações incorretas.
O Papel do Prompting
Prompting é uma técnica onde os usuários dão instruções específicas para guiar os modelos sobre como responder. Por exemplo, adicionar frases como "De acordo com a Wikipedia" pode ajudar o modelo a focar nas informações disponíveis daquela fonte. Fazendo isso, os pesquisadores esperam ver respostas mais factuais que citem os textos originais diretamente.
Novas Técnicas de Medição
Para avaliar a eficácia dessa abordagem de prompting, os pesquisadores desenvolveram novas métricas. Essas métricas medem o quanto da saída do modelo pode ser correspondente diretamente com os Dados de Treinamento. Assim, eles podem ver se os prompts levam a respostas mais precisas e fundamentadas. O objetivo é criar um sistema onde os usuários possam confiar nas informações fornecidas por esses modelos.
Evidências Experimentais
Pesquisas mostram que usar prompts específicos pode melhorar significativamente a frequência com que os LLMs se referem aos seus dados de treinamento. Em experimentos, os modelos receberam instruções para fundamentar suas respostas na Wikipedia. Os resultados mostraram aumentos notáveis na porcentagem de texto que correspondia aos dados de treinamento. Isso não apenas tornou as respostas mais precisas, mas também manteve ou até melhorou o desempenho geral da tarefa.
Implicações para Aplicações do Mundo Real
À medida que os LLMs são cada vez mais usados em várias aplicações, é essencial garantir que as informações que eles fornecem sejam precisas. Usando estratégias de prompting, os desenvolvedores podem aumentar a confiabilidade desses modelos. Isso é especialmente importante em áreas como educação, saúde e jornalismo, onde a precisão factual é crítica.
Comparação de Vários Modelos
A eficácia do prompting foi testada em diferentes modelos. Os resultados mostraram que modelos maiores tendem a ter um desempenho melhor quando são solicitados a citar seus dados de treinamento. Por outro lado, modelos menores podem ter dificuldade em gerar respostas precisas ou coerentes ao usar esses métodos. O Ajuste de Instruções, que envolve treinar modelos especificamente para seguir os prompts, também desempenha um papel crucial nesse processo.
A Popularidade das Entidades
O sucesso dessas técnicas de prompting também parece estar relacionado à popularidade dos assuntos discutidos. Os modelos foram melhores em citar informações sobre entidades bem conhecidas. Essa correlação ressalta a importância do contexto em que os prompts são usados.
Direções Futuras
Os resultados dessa pesquisa levantam perguntas importantes para o futuro dos modelos de linguagem. Ao focar nos prompts e em como eles são estruturados, os desenvolvedores podem criar sistemas mais eficazes. Pesquisas adicionais podem explorar mais profundamente os vários fatores que impactam o quão bem os LLMs podem citar seus dados de treinamento. Isso, por sua vez, pode levar a sistemas de IA ainda mais confiáveis que estejam alinhados com fontes factuais.
Conclusão
Melhorar a fundamentação dos modelos de linguagem através de prompting direcionado parece ser uma avenida promissora para garantir a precisão. À medida que os modelos continuam a ser desenvolvidos e ampliados, entender suas capacidades e limitações será crucial. O trabalho contínuo nessa área visa cultivar sistemas de IA que não apenas produzam textos coerentes, mas também firmemente enraizados em informações factuais. Isso, no final, aumentará a confiança dos usuários nesses modelos e suas saídas em diversas aplicações.
Através de pesquisas contínuas e do uso de técnicas inovadoras como o prompting, os LLMs podem avançar rumo a se tornarem ferramentas confiáveis para recuperação de informações e tomada de decisões.
Título: "According to ...": Prompting Language Models Improves Quoting from Pre-Training Data
Resumo: Large Language Models (LLMs) may hallucinate and generate fake information, despite pre-training on factual data. Inspired by the journalistic device of "according to sources", we propose according-to prompting: directing LLMs to ground responses against previously observed text. To quantify this grounding, we propose a novel evaluation metric (QUIP-Score) that measures the extent to which model-produced answers are directly found in underlying text corpora. We illustrate with experiments on three corpora (Wikipedia, PubMed, and the U.S. legal tax code) that these prompts improve grounding under our metrics, with the additional benefit of often improving end-task performance. Furthermore, prompts that ask the model to decrease grounding (or to ground to other corpora) indeed decrease QUIP-Score, indicating the ability of LLMs to increase or decrease grounded generations on request.
Autores: Orion Weller, Marc Marone, Nathaniel Weir, Dawn Lawrie, Daniel Khashabi, Benjamin Van Durme
Última atualização: 2024-02-26 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2305.13252
Fonte PDF: https://arxiv.org/pdf/2305.13252
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.