PE-Rank: Uma Nova Abordagem para Reclassificação de Passagens
PE-Rank melhora a eficiência de classificação de passagens com embeddings de passagem únicas.
― 4 min ler
Índice
Estudos recentes mostram que grandes modelos de linguagem (LLMs) conseguem classificar passagens de forma eficaz. Métodos listwise, como o RankGPT, estabeleceram novos padrões nessa área. No entanto, o RankGPT enfrenta limites devido ao seu comprimento máximo de contexto e à latência mais alta durante a inferência. Este artigo apresenta o PE-Rank, que usa embeddings de passagens únicas para uma melhor compressão de contexto na reclassificação listwise. Ao tratar cada passagem como um token especial, conseguimos inserir esses embeddings nos LLMs, reduzindo o comprimento da entrada. Também apresentamos uma técnica de inferência que muda o espaço de decodificação para esses tokens especiais, acelerando a decodificação. Para o treinamento, aplicamos perda de aprendizado listwise para classificação. A avaliação em vários benchmarks mostra que o PE-Rank melhora a eficiência, mantendo bons resultados de Ranking.
Contexto
A classificação de passagens é vital em muitas aplicações, incluindo busca na web. O método comum é "recuperar e depois reclassificar", onde um conjunto de candidatos é primeiro recuperado e depois reclassificado para melhores resultados. Na fase de recuperação, modelos densos usando uma estrutura de bi-encoder são populares. Esses modelos codificam texto em embeddings de baixa dimensão, capturando relevância semântica por meio da similaridade de vetores.
Comparação entre RankGPT e PE-Rank
O RankGPT usa passagens completas e fornece saídas ordenadas. Em contraste, o PE-Rank usa uma lista de tokens especiais tanto para entrada quanto para saída, como mostrado em seus resultados de reclassificação. Durante a fase de reclassificação, podemos aplicar modelos mais avançados para melhorar a performance. LLMs, como o GPT-4, também foram testados para reclassificação zero-shot, com métodos listwise como o RankGPT alcançando um desempenho notável ao gerar uma lista final de classificação para várias passagens.
Desafios com Abordagens Listwise
Embora eficazes, esses métodos enfrentam desafios. Primeiro, os LLMs são limitados pelo comprimento do contexto, tornando difícil classificar várias passagens de uma vez. Em segundo lugar, incluir passagens inteiras nos prompts aumenta os custos de inferência e latência. Assim, comprimir prompts listwise é crucial. Métodos existentes de compressão de contexto tendem a ter baixas taxas de compressão e focam em passagens únicas, tornando-os inadequados para necessidades de classificação.
Proposta do PE-Rank
O PE-Rank usa embeddings de passagens únicas como representações comprimidas. Obtemos esses embeddings de um modelo de recuperação densa e substituímos as entradas de texto originais por eles. Em seguida, conectamos o modelo de recuperação aos LLMs usando um projetor. O PE-Rank se adapta à tarefa de classificação por meio de novos métodos de inferência e treinamento. Para uma inferência eficaz, usamos "Decodificação Dinâmica Constrangida", ajustando os espaços de decodificação para incluir apenas tokens especiais para classificação.
Avaliação
O PE-Rank foi avaliado nos benchmarks TREC DL e BEIR. Os resultados mostram que ele mantém um desempenho competitivo em comparação com métodos descomprimidos, enquanto melhora significativamente a eficiência. Notavelmente, ao reclassificar os 100 melhores candidatos do BM25 no DL19, a degradação no desempenho foi inferior a 2%, enquanto a latência foi reduzida em 4,5 vezes.
Conclusão
Apresentamos o PE-Rank como uma abordagem nova e eficaz para reclassificação listwise de passagens, aproveitando embeddings para compressão de contexto. As avaliações mostram desempenho competitivo e ganhos consideráveis em eficiência, marcando um passo significativo na área de classificação.
Trabalhos Futuros
Este trabalho tem limitações, incluindo a necessidade de embeddings de passagens e decodificação dinâmica, que adicionam complexidade e uso de memória. Além disso, usar diferentes modelos de embedding requer ajustes finos tanto do MLP quanto do LLM. Pesquisas futuras poderiam buscar uma abordagem mais simples, permitindo o uso apenas do MLP. Por fim, os modelos usados neste estudo eram relativamente pequenos, e uma investigação adicional é necessária para entender como modelos maiores podem afetar os métodos propostos.
Título: Leveraging Passage Embeddings for Efficient Listwise Reranking with Large Language Models
Resumo: Recent studies have demonstrated the effectiveness of using large language language models (LLMs) in passage ranking. The listwise approaches, such as RankGPT, have become new state-of-the-art in this task. However, the efficiency of RankGPT models is limited by the maximum context length and relatively high latency of LLM inference. To address these issues, in this paper, we propose PE-Rank, leveraging the single passage embedding as a good context compression for efficient listwise passage reranking. By treating each passage as a special token, we can directly input passage embeddings into LLMs, thereby reducing input length. Additionally, we introduce an inference method that dynamically constrains the decoding space to these special tokens, accelerating the decoding process. For adapting the model to reranking, we employ listwise learning to rank loss for training. Evaluation results on multiple benchmarks demonstrate that PE-Rank significantly improves efficiency in both prefilling and decoding, while maintaining competitive ranking effectiveness. {The Code is available at \url{https://github.com/liuqi6777/pe_rank}.}
Autores: Qi Liu, Bo Wang, Nan Wang, Jiaxin Mao
Última atualização: 2024-06-20 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2406.14848
Fonte PDF: https://arxiv.org/pdf/2406.14848
Licença: https://creativecommons.org/licenses/by-sa/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://www.latex-project.org/help/passageation/encguide.pdf
- https://github.com/liuqi6777/pe_rank
- https://huggingface.co/jinaai/jina-embeddings-v2-base-en
- https://huggingface.co/cross-encoder/ms-marco-MiniLM-L-6-v2
- https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2
- https://huggingface.co/BAAI/bge-base-en-v1.5