Simple Science

Ciência de ponta explicada de forma simples

# Informática# Recuperação de informação

Aprimorando Sistemas de Recomendação com Modelos de Linguagem

Um novo framework melhora as recomendações de usuários por meio de um melhor processamento de dados.

― 9 min ler


Reformulação deReformulação deRecomendações com LLMsusuários mais inteligentes.Uma nova abordagem para sugestões de
Índice

Sistemas de recomendação são uma parte fundamental de muitas plataformas online hoje, ajudando os usuários a encontrar produtos, filmes, músicas e muito mais que possam gostar. Eles filtram grandes quantidades de dados para reduzir as opções, tornando a experiência de navegação mais agradável e personalizada. Esses sistemas são amplamente utilizados no comércio eletrônico, serviços de streaming e plataformas de mídias sociais.

O uso de grandes modelos de linguagem (LLMs) em sistemas de recomendação ganhou muito interesse. LLMs são modelos avançados de aprendizado de máquina que podem entender e gerar texto semelhante ao humano. Eles podem analisar as preferências e comportamentos dos usuários para melhorar as recomendações. No entanto, esses modelos ainda enfrentam desafios quando se trata de compreender completamente os comportamentos e preferências dos usuários, especialmente quando se trata de dados numéricos, como classificações e carimbos de data/hora.

Desafios na Utilização de Grandes Modelos de Linguagem para Recomendações

Apesar dos avanços nos LLMs, existem dois desafios principais que dificultam sua eficácia em fazer recomendações personalizadas.

Insensibilidade Numérica

O primeiro desafio é o que chamamos de insensibilidade numérica. LLMs frequentemente têm dificuldade em interpretar dados numéricos com precisão. Por exemplo, quando um modelo encontra uma classificação numérica como "5 estrelas", ele pode tratar isso apenas como mais um pedaço de texto, em vez de entender que transmite um nível de satisfação. Isso significa que informações importantes sobre as preferências dos usuários podem se perder na tradução.

Além disso, o aspecto temporal das interações do usuário é frequentemente negligenciado. Por exemplo, as preferências de um usuário podem evoluir ao longo do tempo, mas os LLMs podem falhar em capturar essas preferências em mudança devido a limitações no processamento de dados relacionados ao tempo.

Sobrecarga de Codificação

O segundo desafio é a sobrecarga de codificação. LLMs exigem recursos computacionais significativos e têm limites rigorosos sobre a quantidade de dados que podem processar de uma vez (conhecido como "janelas de diálogo"). Isso torna difícil incluir todas as informações relevantes, como o histórico do usuário e várias características secundárias dos itens.

Quando os usuários interagem com muitos itens, filtrar essas informações para se encaixar nas restrições do modelo frequentemente leva à omissão de dados valiosos. Como resultado, o modelo acaba com uma visão incompleta dos interesses de cada usuário, o que prejudica o desempenho geral do motor de recomendação.

Soluções Propostas

Para enfrentar esses desafios, propomos uma nova abordagem que aprimora a forma como os LLMs podem entender e utilizar informações numéricas e categóricas em recomendações. Os principais componentes de nossa abordagem incluem um método exclusivo para combinar diferentes tipos de dados e uma estrutura que permite um processamento de dados mais eficiente.

Co-Propragação de Recursos

Uma das ideias centrais em nosso método é usar uma técnica chamada co-propagação de recursos. Isso significa que recursos numéricos (como classificações) serão processados junto com recursos categóricos (como o gênero de um filme) ao mesmo tempo. Ao fazer isso, podemos ajudar o modelo a criar uma compreensão mais rica das preferências dos usuários que leva em conta ambos os tipos de dados.

O modelo proposto alcança isso usando uma Rede de Atenção Gráfica (GAT). Esse tipo de rede é particularmente bom em lidar com relacionamentos complexos em dados. Ela ajuda a estabilizar diferentes tipos de informação e permite que o modelo represente as preferências dos usuários de forma mais eficaz.

Prompt Aumentado de Interação Recente (RAP)

Outro aspecto significativo de nossa abordagem é o Prompt Aumentado de Interação Recente (RAP). Esta é uma maneira especial de construir prompts de entrada para o LLM, que garante que interações recentes dos usuários sejam incluídas e enfatiza as últimas tendências nas preferências dos usuários. O sistema RAP permite capturar não apenas um instantâneo das preferências de um usuário, mas também como essas preferências mudaram ao longo do tempo.

Ao integrar tanto os comportamentos recentes quanto um histórico mais amplo de interações, o template RAP garante que os LLMs obtenham uma visão mais completa dos interesses dos usuários. Esse contexto adicional leva a melhores recomendações, uma vez que o modelo pode adequar suas sugestões com base no que o usuário gostou recentemente.

Implementação da Estrutura

Em nossa estrutura, as etapas para processar os dados e fornecer recomendações estão organizadas em quatro etapas principais.

1. Construção do Template

Começamos criando um template que os dados de entrada seguirão. Este template é construído usando dois conjuntos diferentes de dados de interação do usuário: um conjunto foca nas interações mais recentes e o outro recupera interações relevantes do histórico do usuário. Ao combinar esses dois conjuntos, podemos formar uma visão abrangente dos interesses do usuário.

2. Treinamento da Rede GAT Especialista

Em seguida, empregamos uma rede GAT especialista para analisar o comportamento do usuário. Essa rede ajuda a codificar as interações históricas do usuário, classificações numéricas e outras características em uma única representação. O GAT é particularmente eficaz para essa tarefa porque pode focar nos aspectos mais importantes dos dados enquanto ignora sinais menos relevantes.

3. Injetando Preferências do Usuário

Uma vez que temos a representação das preferências do usuário, injetamos isso no espaço semântico do LLM. Isso é feito usando um mecanismo simples que requer apenas um ajuste menor na estrutura existente do modelo. Isso nos permite adicionar informações ricas sem sobrecarregar o modelo ou complicar os requisitos de processamento.

4. Ajuste Fino do Modelo

Finalmente, realizamos um ajuste fino adicional do LLM usando as representações injetadas. Isso adapta ligeiramente os parâmetros do modelo para acomodar melhor as novas informações, levando a uma recuperação melhor de recomendações úteis.

Avaliação da Estrutura

Para validar a eficácia de nossa estrutura proposta, realizamos experimentos em três grandes conjuntos de dados. Cada um desses conjuntos contém diferentes interações e preferências dos usuários, permitindo-nos avaliar o desempenho de nosso modelo de forma abrangente.

Comparação com Modelos de Referência

Comparamos nossa estrutura com vários modelos de referência que representam diferentes estratégias para recomendação. Alguns modelos focam exclusivamente em interações de recursos, enquanto outros se apoiam em sequências de comportamento do usuário. Nosso método proposto mostrou melhoria consistente em várias métricas, demonstrando sua superioridade no processamento e geração de recomendações.

Principais Métricas de Desempenho

Várias métricas foram utilizadas para medir o desempenho, incluindo:

  • AUC (Área Sob a Curva): Isso avalia como o modelo distingue bem entre diferentes classes.
  • Log Loss: Isso mede a precisão das probabilidades previstas, penalizando erros mais severamente.
  • Precisão: Isso simplesmente rastreia a porcentagem de previsões que estavam corretas.

Os resultados indicaram que nosso modelo superou os métodos existentes, enfatizando os benefícios obtidos ao abordar a insensibilidade numérica e a sobrecarga de codificação.

Análise Detalhada das Características de Interação do Usuário

Para investigar ainda mais o impacto do template RAP e da rede GAT especialista, realizamos estudos adicionais.

Efeito do Template RAP

Analisamos como o template RAP aprimora a compreensão do modelo sobre sequências de usuários. Ao comparar resultados com e sem o RAP, descobrimos que incluir tanto interações recentes quanto históricas melhorou significativamente o desempenho, validando nossa abordagem.

Importância da Rede GAT Especialista

Estudamos também a importância da rede GAT especialista, removendo sequencialmente características chave, como carimbos de tempo e classificações do modelo. Os resultados mostraram que as classificações eram cruciais para entender as preferências dos usuários, pois permitiam ao modelo distinguir entre diferentes níveis de interesse entre os itens históricos. Mesmo sem essas características, no entanto, nosso modelo ainda teve um desempenho melhor do que os métodos tradicionais.

Eficiência em Tempo do Modelo

Uma das forças de nossa estrutura é sua eficiência nas fases de treinamento e inferência. Ao utilizar a rede GAT durante o treinamento e exigir apenas ajustes menores durante a inferência, minimizamos a carga computacional tipicamente associada aos LLMs.

Comparação de Tempo de Treinamento e Inferência

Em nossos estudos, comparamos os tempos de treinamento e inferência de nosso modelo com outros métodos. Apesar de incorporar características adicionais, nosso modelo não aumentou substancialmente o tempo necessário em comparação com outros que não tinham nossas otimizações.

Redução no Comprimento de Entrada

Nossa abordagem também levou a uma redução no comprimento médio do prompt de entrada, demonstrando uma maneira mais eficiente de organizar os dados sem sacrificar a qualidade. Isso é importante para garantir que o modelo possa funcionar dentro de suas limitações de janela de diálogo enquanto ainda fornece recomendações significativas.

Eficiência de Dados

Exploramos quão eficazmente nossa estrutura pode aprender com conjuntos de dados menores. Ao variar o número de exemplos de treinamento usados, observamos que mesmo com dados limitados, nosso método manteve um desempenho melhor em comparação com outros modelos. Isso sugere que nossa abordagem é não apenas eficaz, mas também capaz de extrair insights úteis de conjuntos de dados menores.

Conclusão

Em conclusão, nossa estrutura proposta apresenta uma maneira promissora de melhorar os sistemas de recomendação, abordando efetivamente os principais desafios no uso de grandes modelos de linguagem. Ao co-propagar características numéricas e categóricas e utilizar o Prompt Aumentado de Interação Recente, fornecemos um método que aprimora significativamente a compreensão do modelo sobre as preferências dos usuários.

Nossas avaliações demonstram que essa abordagem leva a melhores recomendações, tornando-a altamente benéfica para várias aplicações, incluindo plataformas de comércio eletrônico e entretenimento. Com o desenvolvimento contínuo, esses avanços podem abrir caminho para sistemas de recomendação ainda mais personalizados e precisos no futuro.

Fonte original

Título: ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation

Resumo: Large language models have been flourishing in the natural language processing (NLP) domain, and their potential for recommendation has been paid much attention to. Despite the intelligence shown by the recommendation-oriented finetuned models, LLMs struggle to fully understand the user behavior patterns due to their innate weakness in interpreting numerical features and the overhead for long context, where the temporal relations among user behaviors, subtle quantitative signals among different ratings, and various side features of items are not well explored. Existing works only fine-tune a sole LLM on given text data without introducing that important information to it, leaving these problems unsolved. In this paper, we propose ELCoRec to Enhance Language understanding with CoPropagation of numerical and categorical features for Recommendation. Concretely, we propose to inject the preference understanding capability into LLM via a GAT expert model where the user preference is better encoded by parallelly propagating the temporal relations, and rating signals as well as various side information of historical items. The parallel propagation mechanism could stabilize heterogeneous features and offer an informative user preference encoding, which is then injected into the language models via soft prompting at the cost of a single token embedding. To further obtain the user's recent interests, we proposed a novel Recent interaction Augmented Prompt (RAP) template. Experiment results over three datasets against strong baselines validate the effectiveness of ELCoRec. The code is available at https://anonymous.4open.science/r/CIKM_Code_Repo-E6F5/README.md.

Autores: Jizheng Chen, Kounianhua Du, Jianghao Lin, Bo Chen, Ruiming Tang, Weinan Zhang

Última atualização: 2024-06-26 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2406.18825

Fonte PDF: https://arxiv.org/pdf/2406.18825

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes