Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computação e linguagem# Inteligência Artificial# Aprendizagem de máquinas

Avançando Modelos de Linguagem Menores para um Planejamento Eficaz

Um novo framework pra melhorar as habilidades de planejamento em modelos de linguagem menores.

― 7 min ler


Planejamento mais espertoPlanejamento mais espertopara modelos menoreseficientes.tarefas de planejamento proceduralAprimorando modelos pequenos para
Índice

Planejamento é uma habilidade essencial que permite que máquinas dividam metas complexas em uma série de passos organizados. Por exemplo, se alguém quer "ver um filme", pode precisar "procurar horários de filmes", "escolher um filme" e "comprar ingressos". As máquinas precisam fazer algo parecido para ajudar os humanos em várias tarefas.

Os modelos avançados atuais, conhecidos como grandes modelos de linguagem (LLMs), são bons em entender e gerar texto, mas eles têm alguns desafios. Primeiro, podem ser caros de usar porque exigem alta capacidade computacional. Segundo, podem não ser sempre confiáveis devido a problemas de reprodutibilidade, ou seja, a mesma entrada pode não gerar a mesma saída toda vez.

Este artigo propõe um novo método para melhorar as habilidades de planejamento de modelos de linguagem menores. Usando modelos menos custosos, queremos torná-los melhores em gerar planos e lidar com situações complexas.

Planejamento e sua Importância

Planejamento envolve dividir uma tarefa grande em passos menores e gerenciáveis. Isso é chamado de planejamento procedimental. Por exemplo, agendar uma consulta médica envolve vários passos, como decidir o horário e confirmar a consulta.

Na nossa vida cotidiana, muitas vezes realizamos essas tarefas de planejamento sem nem pensar nelas. Contudo, para as máquinas, isso pode ser bem difícil. Para realizar essas tarefas, as máquinas precisam usar o bom senso e entender o contexto. Elas frequentemente enfrentam cenários contrafactuais, onde um plano precisa mudar conforme uma situação diferente.

Por exemplo, se alguém quer agendar uma consulta médica mas não pode usar o telefone, a máquina precisa criar um plano que leve essa limitação em conta.

Desafios Atuais com Grandes Modelos de Linguagem

Grandes modelos de linguagem mostraram resultados promissores em várias tarefas, incluindo planejamento procedimental. No entanto, seu uso tem algumas desvantagens. Eles requerem muito tempo e recursos, tornando-os caros para uso generalizado. Esses problemas podem impedir sua adoção em aplicações práticas.

As pessoas estão buscando métodos para melhorar modelos menores, tornando-os mais eficientes e eficazes para tarefas semelhantes. Este artigo discute uma nova estrutura que visa fornecer habilidades de planejamento necessárias para que modelos de linguagem menores enfrente esses desafios.

A Estrutura Proposta

Apresentamos uma estrutura em duas partes projetada para melhorar modelos de linguagem menores para compreensão procedimental. A primeira parte trata de transferir conhecimento procedimental de forma eficaz para modelos menores. A segunda parte foca em criar um algoritmo que permita que esses modelos raciocinem melhor durante tarefas de planejamento.

Destilação de Conhecimento

A destilação de conhecimento é um processo onde o conhecimento de um modelo maior é transferido para um menor. O modelo maior é treinado primeiro, gerando uma riqueza de conhecimento procedimental. Esse conhecimento é então usado para treinar o modelo menor, permitindo que ele aprenda habilidades de planejamento precisas e úteis.

Nossa abordagem consiste em duas etapas:

  1. Geração de Conhecimento: O modelo maior gera um conjunto de tarefas de planejamento com base em vários objetivos.
  2. Transferência de Conhecimento: O conhecimento gerado é então usado para treinar o modelo menor, equipando-o com a capacidade de criar planos eficazes.

Planejamento Contrafactual

Além das tarefas de planejamento padrão, introduzimos um novo tipo de planejamento chamado planejamento contrafactual. Isso envolve criar ou ajustar planos com base em cenários hipotéticos. Por exemplo, se alguém não pode usar um telefone, a máquina precisaria ajustar seu plano de acordo.

Nosso método ajuda os modelos menores a gerar planos mais abrangentes que levam essas condições adicionais em conta.

Coleta de Dados e Metodologia

Criar um conjunto de dados eficaz é crucial para treinar nossos modelos. Coletamos dados voltados para várias tarefas:

  1. Planejamento Baseado em Objetivos: Dividir um objetivo de alto nível em uma sequência de passos.
  2. Planejamento Contrafactual: Planejamento enquanto se satisfaz condições específicas.
  3. Revisão de Planos: Ajustar um plano inicial com base em novas condições.

Processo de Geração de Dados

Nosso processo de geração de dados envolve duas etapas principais:

  1. Geração de Instâncias: Começamos gerando um grande conjunto de objetivos. Estes são então usados para criar passos ordenados que compõem os planos.
  2. Filtragem Automática de Dados: Para garantir alta qualidade, filtramos amostras geradas que são inválidas ou de baixa qualidade. Um plano deve ser lógico, pertinente e completo para ser considerado válido.

Por exemplo, se um plano gerado sugere ações que não se conectam logicamente ao objetivo, ele será sinalizado para remoção.

Verbalização do Conhecimento

Para melhorar o processo de transferência de conhecimento, verbalizamos o conhecimento de planejamento gerado pelo modelo maior. Ao gerar um conjunto de dados que contém pares de objetivo e plano, criamos um recurso robusto para treinar modelos menores.

Treinando Modelos Menores

Uma vez que temos um conjunto de dados sólido de conhecimento procedimental, podemos começar a treinar nossos modelos menores. Implementamos duas estratégias:

  1. Treinamento Específico para Tarefas: Cada modelo pequeno é treinado em uma tarefa específica usando o conhecimento gerado. Isso foca o processo de aprendizado do modelo.
  2. Treinamento Multitarefa: Essa abordagem envolve treinar um único modelo em múltiplas tarefas relacionadas para melhorar suas habilidades de generalização.

Decodificação Guiada por Verificador

Durante o processo de planejamento, os modelos podem gerar passos que não são logicamente sólidos ou corretamente ordenados. Para resolver isso, usamos um método chamado decodificação guiada por verificador.

O verificador checa a validade de cada passo no plano. Em vez de gerar planos todos de uma vez, o modelo os gera passo a passo, considerando o feedback do verificador em cada etapa. Esse processo de checagem dupla ajuda a garantir que o plano final seja coerente e completo.

Resultados: Desempenho de Modelos Menores

Através de experimentos, descobrimos que nossos modelos menores, treinados usando os métodos propostos, melhoraram significativamente na capacidade de gerar planos. Especificamente, esses modelos mostraram melhorias notáveis tanto em tarefas de planejamento padrão quanto em cenários contrafactuais.

Métricas de Avaliação

Para avaliar o sucesso da nossa abordagem, analisamos várias métricas, incluindo:

  • Ordem: Quão bem ordenados estão os passos no plano.
  • Completude: Quão bem o plano cobre os passos necessários.
  • Qualidade Geral: Uma avaliação geral da eficácia do plano.

Análise Comparativa

Comparando nossos modelos destilados com modelos de referência maiores, demonstramos que modelos menores podem igualar ou até superar o desempenho dos maiores em certas tarefas. Por exemplo, alguns dos nossos melhores modelos performaram de forma comparável a modelos muito maiores, enquanto eram significativamente menores em escala.

Conclusão

O trabalho apresentado aqui destaca o potencial dos modelos de linguagem menores para realizar tarefas de planejamento procedimental de forma eficaz. Ao aproveitar a destilação de conhecimento e a decodificação guiada por verificador, mostramos que é possível melhorar o desempenho de modelos compactos.

Esse desenvolvimento é crucial para tornar as capacidades de planejamento avançadas mais acessíveis e baratas. Nossas descobertas estabelecem uma base para trabalhos futuros focando em refinar as habilidades de modelos menores em vários contextos, incluindo aplicações do mundo real.

Enquanto continuamos a explorar as possibilidades com modelos menores, esperamos abrir novas avenidas para pesquisa e desenvolvimento no campo da inteligência artificial e aprendizado de máquina.

Fonte original

Título: PlaSma: Making Small Language Models Better Procedural Knowledge Models for (Counterfactual) Planning

Resumo: Procedural planning, which entails decomposing a high-level goal into a sequence of temporally ordered steps, is an important yet intricate task for machines. It involves integrating common-sense knowledge to reason about complex and often contextualized situations, e.g. ``scheduling a doctor's appointment without a phone''. While current approaches show encouraging results using large language models (LLMs), they are hindered by drawbacks such as costly API calls and reproducibility issues. In this paper, we advocate planning using smaller language models. We present PlaSma, a novel two-pronged approach to endow small language models with procedural knowledge and (constrained) language planning capabilities. More concretely, we develop symbolic procedural knowledge distillation to enhance the commonsense knowledge in small language models and an inference-time algorithm to facilitate more structured and accurate reasoning. In addition, we introduce a new related task, Replanning, that requires a revision of a plan to cope with a constrained situation. In both the planning and replanning settings, we show that orders-of-magnitude smaller models (770M-11B parameters) can compete and often surpass their larger teacher models' capabilities. Finally, we showcase successful application of PlaSma in an embodied environment, VirtualHome.

Autores: Faeze Brahman, Chandra Bhagavatula, Valentina Pyatkin, Jena D. Hwang, Xiang Lorraine Li, Hirona J. Arai, Soumya Sanyal, Keisuke Sakaguchi, Xiang Ren, Yejin Choi

Última atualização: 2024-09-18 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2305.19472

Fonte PDF: https://arxiv.org/pdf/2305.19472

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes