Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computação e linguagem

Aumentando a Eficiência na Criação de Prompts

Aprenda como a engenharia de prompt ativa melhora as tarefas para modelos de linguagem.

― 5 min ler


Aumentando as Saídas deAumentando as Saídas deModelos de Linguagemrespostas do modelo de forma eficiente.A engenharia de prompt ativa melhora as
Índice

A engenharia de prompts é um processo usado pra guiar modelos de linguagem grandes (LLMs) a completar tarefas específicas de forma eficiente. Isso envolve criar com cuidado as instruções dadas ao modelo pra garantir que ele mande bem. Muitas vezes, esse processo requer várias tentativas e ajustes pra encontrar a melhor maneira de pedir ao modelo pra fornecer a saída desejada.

Uma técnica importante na engenharia de prompts é incluir exemplos que mostram ao modelo como responder corretamente. Esses exemplos podem facilitar a compreensão do que tá sendo pedido. No entanto, encontrar os melhores exemplos não é sempre simples. Muitas vezes, é preciso filtrar um monte de opções pra escolher as que vão ser mais úteis.

O que é Engenharia de Prompt Ativa?

Engenharia de prompt ativa é uma ferramenta pensada pra refinar prompts de forma sistemática. Essa ferramenta utiliza um método chamado aprendizado ativo, que ajuda a selecionar os exemplos que vão levar às melhores respostas do modelo. A ideia é identificar quais exemplos são confusos pro modelo e, então, buscar feedback humano sobre esses exemplos pra melhorar a qualidade geral dos prompts usados.

Em termos mais simples, essa ferramenta é uma forma de tornar a engenharia de prompts mais fácil e eficiente. Ela visa encontrar os exemplos que provavelmente levarão o modelo a cometer erros e depois foca em obter opiniões humanas pra corrigir esses erros.

O Processo de Engenharia de Prompts

A engenharia de prompts pode ser vista como tendo algumas etapas principais:

  1. Descrição da Tarefa: Uma explicação clara do que se espera que o modelo faça.
  2. Demonstração com Poucos Exemplos: Um pequeno número de exemplos úteis é incluído pra mostrar ao modelo como abordar a tarefa.
  3. Entrada da Tarefa e Pedido de Conclusão: Os dados de entrada reais são compartilhados e o modelo é solicitado a gerar uma resposta.

Embora as duas primeiras etapas possam exigir alguma reflexão e mudanças, geralmente são tarefas rápidas. No entanto, escolher os exemplos mais úteis pode levar muito tempo e esforço, pois há muitas possibilidades a considerar.

Importância dos Exemplos com Poucos Exemplos

Quando se trabalha com LLMs, muitas vezes é útil fornecer exemplos do que se espera. Esses exemplos, conhecidos como exemplos com poucos shots, ajudam o modelo a alinhar suas respostas com o que os usuários querem. Eles se tornam especialmente importantes quando a tarefa é complexa ou pouco clara.

Enquanto os LLMs podem, às vezes, se sair bem mesmo sem exemplos, seu desempenho tende a melhorar muito quando recebem algumas demonstrações bem escolhidas juntamente com os prompts.

Estratégias de Amostragem na Engenharia de Prompt Ativa

O foco principal da engenharia de prompt ativa é encontrar os melhores exemplos pra incluir nos prompts. Diferentes métodos podem ser usados pra selecionar esses exemplos, e podem ser amplamente classificados em duas categorias: amostragem aleatória e amostragem de auto-consistência.

Amostragem Aleatória

Esse é um método simples onde uma seleção aleatória de exemplos é escolhida de um conjunto. Embora esse método seja rápido e funcione pra tarefas simples, pode não ser eficaz pra tarefas mais complexas. A probabilidade de escolher exemplos aleatórios que realmente ajudem o modelo a melhorar é bem baixa.

Amostragem de Auto-consistência

Pra resolver as limitações da amostragem aleatória, a amostragem de auto-consistência é introduzida. Esse método usa diferentes variações do mesmo prompt pra rodar várias vezes, permitindo que o modelo gere várias respostas. Ao observar quão consistentes essas respostas são, conseguimos identificar exemplos onde o modelo pode ter dificuldades ou estar incerto.

Essa abordagem utiliza a ideia de que, se várias tentativas geram resultados diferentes, os exemplos envolvidos podem precisar de uma revisão humana adicional. Ao coletar feedback sobre esses exemplos incertos, podemos criar melhores prompts.

Amostragem Incremental vs. Fixa

A engenharia de prompt ativa pode empregar duas abordagens de amostragem diferentes: amostragem incremental e amostragem fixa.

  • Amostragem Incremental: Nesse método, os exemplos que recebem feedback em cada rodada de amostragem são coletados ao longo do tempo, construindo um conjunto abrangente de exemplos pra usar no prompt final.

  • Amostragem Fixa: Esse método seleciona um número fixo de exemplos em cada rodada sem adicioná-los aos anteriores. Cada rodada é tratada independentemente, o que pode limitar o potencial de melhoria ao longo do tempo.

O Papel da Anotação Humana

Uma parte essencial da engenharia de prompt ativa é o input de anotadores humanos. Por exemplo, revisores humanos podem ser solicitados não apenas a confirmar se a previsão do modelo tá correta, mas também a fornecer explicações pros seus julgamentos. Essa camada adicional de detalhe ajuda a esclarecer porque certos exemplos são escolhidos pra futuros prompts.

Essa interação humana enriquece a qualidade geral dos prompts e melhora o desempenho do modelo.

Conclusão

A engenharia de prompt ativa se destaca como uma ferramenta útil pra ajustar os prompts dados aos modelos de linguagem grandes. Ao selecionar sistematicamente os exemplos mais informativos e incorporar feedback humano, o processo geral se torna mais eficiente e eficaz.

Através de uma combinação de estratégias de amostragem e input humano, a engenharia de prompts pode melhorar significativamente a forma como os LLMs funcionam. Isso resulta em respostas mais precisas e relevantes, tornando essa abordagem valiosa no desenvolvimento de aplicações que dependem dessas ferramentas poderosas.

Focando nessas técnicas, podemos aprimorar as capacidades dos LLMs, garantindo que eles se saiam melhor em várias tarefas. À medida que esse campo continua a crescer, o foco em refinar os prompts e torná-los mais intuitivos levará a avanços ainda maiores no uso dos modelos de linguagem.

Fonte original

Título: APE: Active Learning-based Tooling for Finding Informative Few-shot Examples for LLM-based Entity Matching

Resumo: Prompt engineering is an iterative procedure often requiring extensive manual effort to formulate suitable instructions for effectively directing large language models (LLMs) in specific tasks. Incorporating few-shot examples is a vital and effective approach to providing LLMs with precise instructions, leading to improved LLM performance. Nonetheless, identifying the most informative demonstrations for LLMs is labor-intensive, frequently entailing sifting through an extensive search space. In this demonstration, we showcase a human-in-the-loop tool called APE (Active Prompt Engineering) designed for refining prompts through active learning. Drawing inspiration from active learning, APE iteratively selects the most ambiguous examples for human feedback, which will be transformed into few-shot examples within the prompt. The demo recording can be found with the submission or be viewed at https://youtu.be/OwQ6MQx53-Y.

Autores: Kun Qian, Yisi Sang, Farima Fatahi Bayat, Anton Belyi, Xianqi Chu, Yash Govind, Samira Khorshidi, Rahul Khot, Katherine Luna, Azadeh Nikfarjam, Xiaoguang Qi, Fei Wu, Xianhan Zhang, Yunyao Li

Última atualização: 2024-07-29 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2408.04637

Fonte PDF: https://arxiv.org/pdf/2408.04637

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes