Simple Science

Ciência de ponta explicada de forma simples

# Informática# Recuperação de informação# Inteligência Artificial# Computação e linguagem# Redes Sociais e de Informação

Abordando o Problema do Frio no Início das Recomendações

Um novo método enfrenta desafios de arranque a frio em sistemas de recomendação usando modelos de linguagem.

― 7 min ler


RevolucionandoRevolucionandoRecomendações: PromptRecpara desafios de início frio.Nova abordagem melhora recomendações
Índice

Sistemas de Recomendação são ferramentas que ajudam os usuários a encontrar produtos ou conteúdos que eles podem gostar com base no comportamento anterior. Por exemplo, quando você faz compras online, o site pode sugerir itens que combinam com seus interesses. Mas tem uns desafios quando um sistema novo começa e não tem dados suficientes sobre os usuários ou itens. Essa situação é chamada de problema do cold-start. Isso afeta muitas empresas, especialmente as startups, já que elas não têm dados históricos de interação.

O Problema do Cold-start

O problema do cold-start aparece de várias formas. Às vezes, acontece porque um usuário novo ainda não interagiu com nada, tornando difícil para o sistema sugerir algo que seja a cara dele. Outras vezes, rola quando novos itens são introduzidos sem nenhum feedback anterior. Para nossa conversa, tem uma versão chamada cold-start do sistema, onde o próprio sistema de recomendação não tem interações ou dados prévios para se basear.

Soluções e Limitações Existentes

Muitos métodos existentes para problemas de cold-start focam em usuários ou itens separadamente. Por exemplo, os sistemas podem oferecer itens populares ou sugestões sazonais, mas isso geralmente é genérico e não personaliza a experiência para o usuário. Além disso, muitos desses métodos tradicionais dependem bastante de ter algum tipo de interações anteriores, que não estão disponíveis em cenários de cold-start do sistema.

Uma Nova Abordagem: PromptRec

Para lidar com o problema do cold-start do sistema de forma mais eficaz, apresentamos uma nova abordagem chamada PromptRec. Esse método usa modelos de linguagem, que são sistemas treinados para entender e gerar texto. Utilizando esses modelos, conseguimos transformar tarefas de recomendação em tarefas mais simples de análise de texto com base nos perfis de usuários e itens. Assim, o sistema consegue fazer recomendações mesmo sem interações anteriores, interpretando os dados que tem.

O Papel dos Modelos de Linguagem

Modelos de linguagem grandes mostraram habilidades incríveis em entender contexto e gerar texto relevante. Mas usar esses modelos diretamente pode ser lento e caro, especialmente quando se faz recomendações online em tempo real. Isso levanta uma questão: modelos de linguagem menores também podem ser eficazes em recomendações de cold-start?

Melhorando Modelos de Linguagem Menores

Proponho um método para aprimorar as habilidades de modelos de linguagem menores para tarefas de recomendação. Isso envolve duas etapas principais:

  1. Criar um conjunto de dados refinado para pré-treinamento do modelo, permitindo que ele entenda os tipos de interações de usuário-item que podem ocorrer.
  2. Projetar um template ou prompt flexível que ajude o modelo a usar seu treinamento de forma eficaz ao fazer recomendações.

Estrutura Teórica

Para entender melhor como as recomendações funcionam nesse contexto, fornecemos uma estrutura teórica. Isso conecta o processo de fazer recomendações com o funcionamento dos modelos de linguagem, permitindo uma imagem mais clara de como eles podem ser usados em situações de cold-start.

Benchmark para Recomendações de Cold-start

Para avaliar como nossa abordagem funciona, apresentamos um benchmark para recomendações de cold-start. Esse benchmark consiste em diferentes conjuntos de dados que simulam cenários do mundo real onde os métodos tradicionais enfrentam dificuldades. Testando nossa abordagem nesses conjuntos de dados, conseguimos ver como ela se sai em comparação com outros métodos.

Conjuntos de Dados Usados no Benchmark

  1. Recomendação de Cupons em Veículos: Esse conjunto de dados avalia como um sistema pode prever descontos para motoristas.
  2. Recomendação de Restaurantes no México: Avalia quão bem as preferências dos usuários por restaurantes podem ser previstas.
  3. MovieLens-100K: Esse conjunto examina como os modelos podem recomendar filmes para usuários com base em suas preferências.

Metodologia para Recomendações de Cold-start

No nosso método, configuramos uma tarefa de previsão de Taxa de Clique (CTR). Cada registro indica se um usuário clicou em um item. O objetivo é prever a probabilidade de um usuário interagir com um item com base em seus perfis, mesmo quando não existem dados históricos.

Passos para Criar o Sistema de Recomendação

Quando lidamos com um cenário de cold-start do sistema, nosso sistema de recomendação tem que funcionar sem dados de interação histórica. Em vez disso, ele se baseia nos perfis de usuários e itens para fazer sugestões. Veja como funciona:

  1. Características do Perfil: Cada usuário e item tem características específicas que os descrevem, como idade, gênero ou tipo de item. Essas características são transformadas em descrições em linguagem natural.

  2. Design do Prompt: Criamos um template que reformata a tarefa de recomendação em uma tarefa de modelagem de linguagem. Assim, o sistema pode prever como os usuários podem se sentir em relação a determinados itens.

  3. Fazendo Previsões: Para cada par usuário-item, o modelo estima a probabilidade de um usuário interagir com um item com base no contexto fornecido.

Desafios em Recomendações de Cold-start

Em uma situação de cold-start, dois desafios principais surgem:

  1. Encontrar um conjunto de dados adequado para pré-treinar os modelos pequenos para tarefas de recomendação.
  2. Criar um template de prompt que funcione bem em diferentes tipos de recomendações.

Refinando Dados para Pré-treinamento do Modelo

Para resolver o primeiro desafio, refinamos um conjunto de dados geral maior extraindo informações que são mais relevantes para interações potenciais na situação de cold-start. Isso garante que nosso modelo possa se concentrar em dados úteis, em vez de informações irrelevantes.

Projetando um Prompt Transferível

Para o segundo desafio, projetamos prompts que separam a tarefa do contexto específico da recomendação. Isso significa que certos aspectos do prompt podem ser reutilizados em diferentes cenários, permitindo maior flexibilidade.

Avaliando o Desempenho do PromptRec

Nós avaliamos quão bem o PromptRec funciona em diferentes modelos e conjuntos de dados. Isso inclui comparar o desempenho de modelos de linguagem grandes com os menores. Nossas descobertas mostram que modelos menores podem alcançar resultados comparáveis aos maiores quando aprimorados corretamente.

Resultados do Benchmark

Os resultados dos nossos experimentos revelam insights significativos:

  • Generalização entre Modelos: O PromptRec funciona bem em vários tipos de modelos de linguagem, indicando seu design robusto.
  • Sensibilidade ao Tamanho dos Modelos: O desempenho geralmente melhora com modelos maiores, mas modelos menores podem se sair bem com ajustes finos.

Insights dos Experimentos

Nossos experimentos mostram duas descobertas principais:

  1. Modelos de linguagem pequenos aprimorados podem fazer recomendações eficazes com tempos de inferência consideravelmente menores.
  2. A combinação de treinamento de corpus refinado e treinamento de prompt transferível pode melhorar significativamente o desempenho de modelos pequenos em situações de cold-start.

Conclusão e Direções Futuras

Esse trabalho destaca o potencial dos modelos de linguagem pequenos para fazer recomendações personalizadas em cenários de cold-start. Nossa abordagem incentiva pesquisas futuras a explorar situações de cold-start em várias tarefas de recomendação. Também enfatiza a importância de prompts bem projetados e dados de treinamento relevantes para melhorar sistemas de recomendação.

Resumindo, o PromptRec oferece uma solução prática para os desafios enfrentados por sistemas de recomendação em novos ambientes, podendo beneficiar muitas empresas que buscam melhorar suas interações com os clientes. O futuro provavelmente verá mais avanços nessa área, abrindo caminho para sistemas ainda mais eficazes e personalizados.

Fonte original

Título: Could Small Language Models Serve as Recommenders? Towards Data-centric Cold-start Recommendations

Resumo: Recommendation systems help users find matched items based on their previous behaviors. Personalized recommendation becomes challenging in the absence of historical user-item interactions, a practical problem for startups known as the system cold-start recommendation. While existing research addresses cold-start issues for either users or items, we still lack solutions for system cold-start scenarios. To tackle the problem, we propose PromptRec, a simple but effective approach based on in-context learning of language models, where we transform the recommendation task into the sentiment analysis task on natural language containing user and item profiles. However, this naive approach heavily relies on the strong in-context learning ability emerged from large language models, which could suffer from significant latency for online recommendations. To solve the challenge, we propose to enhance small language models for recommender systems with a data-centric pipeline, which consists of: (1) constructing a refined corpus for model pre-training; (2) constructing a decomposed prompt template via prompt pre-training. They correspond to the development of training data and inference data, respectively. The pipeline is supported by a theoretical framework that formalizes the connection between in-context recommendation and language modeling. To evaluate our approach, we introduce a cold-start recommendation benchmark, and the results demonstrate that the enhanced small language models can achieve comparable cold-start recommendation performance to that of large models with only $17\%$ of the inference time. To the best of our knowledge, this is the first study to tackle the system cold-start recommendation problem. We believe our findings will provide valuable insights for future works. The benchmark and implementations are available at https://github.com/JacksonWuxs/PromptRec.

Autores: Xuansheng Wu, Huachi Zhou, Yucheng Shi, Wenlin Yao, Xiao Huang, Ninghao Liu

Última atualização: 2024-03-04 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2306.17256

Fonte PDF: https://arxiv.org/pdf/2306.17256

Licença: https://creativecommons.org/licenses/by-nc-sa/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes