Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computação e linguagem# Recuperação de informação

PE-Rank: Uma Nova Abordagem para Reclassificação de Passagens

PE-Rank melhora a eficiência de classificação de passagens com embeddings de passagem únicas.

― 4 min ler


PE-Rank paraPE-Rank paraReclassificação Eficientede Passagensembeddings.do ranqueamento de trechos comMelhorando a velocidade e o desempenho
Índice

Estudos recentes mostram que grandes modelos de linguagem (LLMs) conseguem classificar passagens de forma eficaz. Métodos listwise, como o RankGPT, estabeleceram novos padrões nessa área. No entanto, o RankGPT enfrenta limites devido ao seu comprimento máximo de contexto e à latência mais alta durante a inferência. Este artigo apresenta o PE-Rank, que usa embeddings de passagens únicas para uma melhor compressão de contexto na reclassificação listwise. Ao tratar cada passagem como um token especial, conseguimos inserir esses embeddings nos LLMs, reduzindo o comprimento da entrada. Também apresentamos uma técnica de inferência que muda o espaço de decodificação para esses tokens especiais, acelerando a decodificação. Para o treinamento, aplicamos perda de aprendizado listwise para classificação. A avaliação em vários benchmarks mostra que o PE-Rank melhora a eficiência, mantendo bons resultados de Ranking.

Contexto

A classificação de passagens é vital em muitas aplicações, incluindo busca na web. O método comum é "recuperar e depois reclassificar", onde um conjunto de candidatos é primeiro recuperado e depois reclassificado para melhores resultados. Na fase de recuperação, modelos densos usando uma estrutura de bi-encoder são populares. Esses modelos codificam texto em embeddings de baixa dimensão, capturando relevância semântica por meio da similaridade de vetores.

Comparação entre RankGPT e PE-Rank

O RankGPT usa passagens completas e fornece saídas ordenadas. Em contraste, o PE-Rank usa uma lista de tokens especiais tanto para entrada quanto para saída, como mostrado em seus resultados de reclassificação. Durante a fase de reclassificação, podemos aplicar modelos mais avançados para melhorar a performance. LLMs, como o GPT-4, também foram testados para reclassificação zero-shot, com métodos listwise como o RankGPT alcançando um desempenho notável ao gerar uma lista final de classificação para várias passagens.

Desafios com Abordagens Listwise

Embora eficazes, esses métodos enfrentam desafios. Primeiro, os LLMs são limitados pelo comprimento do contexto, tornando difícil classificar várias passagens de uma vez. Em segundo lugar, incluir passagens inteiras nos prompts aumenta os custos de inferência e latência. Assim, comprimir prompts listwise é crucial. Métodos existentes de compressão de contexto tendem a ter baixas taxas de compressão e focam em passagens únicas, tornando-os inadequados para necessidades de classificação.

Proposta do PE-Rank

O PE-Rank usa embeddings de passagens únicas como representações comprimidas. Obtemos esses embeddings de um modelo de recuperação densa e substituímos as entradas de texto originais por eles. Em seguida, conectamos o modelo de recuperação aos LLMs usando um projetor. O PE-Rank se adapta à tarefa de classificação por meio de novos métodos de inferência e treinamento. Para uma inferência eficaz, usamos "Decodificação Dinâmica Constrangida", ajustando os espaços de decodificação para incluir apenas tokens especiais para classificação.

Avaliação

O PE-Rank foi avaliado nos benchmarks TREC DL e BEIR. Os resultados mostram que ele mantém um desempenho competitivo em comparação com métodos descomprimidos, enquanto melhora significativamente a eficiência. Notavelmente, ao reclassificar os 100 melhores candidatos do BM25 no DL19, a degradação no desempenho foi inferior a 2%, enquanto a latência foi reduzida em 4,5 vezes.

Conclusão

Apresentamos o PE-Rank como uma abordagem nova e eficaz para reclassificação listwise de passagens, aproveitando embeddings para compressão de contexto. As avaliações mostram desempenho competitivo e ganhos consideráveis em eficiência, marcando um passo significativo na área de classificação.

Trabalhos Futuros

Este trabalho tem limitações, incluindo a necessidade de embeddings de passagens e decodificação dinâmica, que adicionam complexidade e uso de memória. Além disso, usar diferentes modelos de embedding requer ajustes finos tanto do MLP quanto do LLM. Pesquisas futuras poderiam buscar uma abordagem mais simples, permitindo o uso apenas do MLP. Por fim, os modelos usados neste estudo eram relativamente pequenos, e uma investigação adicional é necessária para entender como modelos maiores podem afetar os métodos propostos.

Fonte original

Título: Leveraging Passage Embeddings for Efficient Listwise Reranking with Large Language Models

Resumo: Recent studies have demonstrated the effectiveness of using large language language models (LLMs) in passage ranking. The listwise approaches, such as RankGPT, have become new state-of-the-art in this task. However, the efficiency of RankGPT models is limited by the maximum context length and relatively high latency of LLM inference. To address these issues, in this paper, we propose PE-Rank, leveraging the single passage embedding as a good context compression for efficient listwise passage reranking. By treating each passage as a special token, we can directly input passage embeddings into LLMs, thereby reducing input length. Additionally, we introduce an inference method that dynamically constrains the decoding space to these special tokens, accelerating the decoding process. For adapting the model to reranking, we employ listwise learning to rank loss for training. Evaluation results on multiple benchmarks demonstrate that PE-Rank significantly improves efficiency in both prefilling and decoding, while maintaining competitive ranking effectiveness. {The Code is available at \url{https://github.com/liuqi6777/pe_rank}.}

Autores: Qi Liu, Bo Wang, Nan Wang, Jiaxin Mao

Última atualização: 2024-06-20 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2406.14848

Fonte PDF: https://arxiv.org/pdf/2406.14848

Licença: https://creativecommons.org/licenses/by-sa/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes