Simple Science

La science de pointe expliquée simplement

# Informatique# Recherche d'informations# Intelligence artificielle# Calcul et langage# Réseaux sociaux et d'information

Résoudre le problème du démarrage à froid dans les recommandations

Une nouvelle méthode s'attaque aux défis de démarrage à froid dans les systèmes de recommandation en utilisant des modèles linguistiques.

― 8 min lire


Révolutionner lesRévolutionner lesrecommandations :PromptRecdémarrage à froid.recommandations pour les défis deNouvelle approche améliore les
Table des matières

Les Systèmes de recommandation sont des outils qui aident les utilisateurs à trouver des produits ou du contenu qui pourraient leur plaire en fonction de leur comportement passé. Par exemple, quand tu magasines en ligne, le site peut te suggérer des articles qui correspondent à tes intérêts. Cependant, il y a des défis quand un nouveau système commence et n’a pas assez de données sur ses utilisateurs ou articles. Cette situation s’appelle le problème de cold-start. Ça affecte beaucoup d'entreprises, surtout les startups, car elles manquent de données d'interaction historiques.

Le Problème du Cold-start

Le problème de cold-start se présente sous différentes formes. Parfois, ça arrive parce qu'un nouvel utilisateur n'a pas encore interagi avec les articles, ce qui rend difficile pour le système de faire des suggestions personnalisées. D'autres fois, ça se produit quand de nouveaux articles sont introduits sans aucun retour précédent. Pour notre discussion, il y a une autre version connue sous le nom de cold-start système, où le système de recommandation lui-même n’a pas d'interactions ou de données antérieures à utiliser.

Solutions Existantes et Limitations

De nombreuses méthodes existantes pour les problèmes de cold-start se concentrent soit sur les utilisateurs, soit sur les articles séparément. Par exemple, les systèmes peuvent offrir des articles populaires ou des suggestions saisonnières, mais celles-ci sont souvent génériques et ne personnalisent pas l’expérience pour l’utilisateur. De plus, beaucoup de ces méthodes traditionnelles comptent énormément sur des interactions passées, ce qui n'est pas disponible dans les scénarios de cold-start système.

Une Nouvelle Approche : PromptRec

Pour résoudre le problème de cold-start système de manière plus efficace, nous introduisons une nouvelle approche appelée PromptRec. Cette méthode utilise des modèles de langage, qui sont des systèmes entraînés pour comprendre et générer du texte. En utilisant ces modèles, nous pouvons transformer les tâches de recommandation en tâches d'analyse de texte plus simples basées sur les profils des utilisateurs et des articles. Cela permet au système de faire des recommandations même sans interactions précédentes en interprétant les données qu'il a.

Le Rôle des Modèles de Langage

Les grands modèles de langage ont montré des capacités remarquables à comprendre le contexte et à générer du texte pertinent. Cependant, utiliser ces modèles directement peut être lent et coûteux, notamment lors de recommandations en temps réel en ligne. Cela soulève une question : les petits modèles de langage peuvent-ils aussi être efficaces pour les recommandations de cold-start ?

Améliorer les Petits Modèles de Langage

Nous proposons une méthode pour améliorer les capacités des petits modèles de langage pour les tâches de recommandation. Cela implique deux étapes principales :

  1. Créer un ensemble de données affiné pour le pré-entraînement du modèle, lui permettant de comprendre les types d'interactions utilisateur-article qui pourraient se produire.
  2. Concevoir un modèle ou un prompt flexible qui aide le modèle à utiliser son entraînement de manière efficace lors des recommandations.

Cadre Théorique

Pour mieux comprendre comment fonctionnent les recommandations dans ce contexte, nous fournissons un cadre théorique. Cela relie le processus de faire des recommandations à la manière dont les modèles de langage fonctionnent, permettant d’avoir une image plus claire de la façon dont ils peuvent être utilisés dans des situations de cold-start.

Évaluation des Recommandations de Cold-start

Pour évaluer l’efficacité de notre approche, nous introduisons une évaluation pour les recommandations de cold-start. Cette évaluation se compose de différents ensembles de données qui simulent des scénarios réels où les méthodes traditionnelles éprouvent des difficultés. En testant notre approche contre ces ensembles de données, nous pouvons voir à quel point elle performe par rapport à d'autres méthodes.

Ensembles de Données Utilisés dans l'Évaluation

  1. Recommandation de Coupons en Véhicule : Cet ensemble de données évalue à quel point un système peut prédire des réductions pour les conducteurs.
  2. Recommandation de Restaurants au Mexique : Il évalue à quel point les préférences des utilisateurs pour les restaurants peuvent être prédites.
  3. MovieLens-100K : Cet ensemble de données examine à quel point les modèles peuvent recommander des films aux utilisateurs en fonction de leurs préférences.

Méthodologie pour les Recommandations de Cold-start

Dans notre méthode, nous mettons en place une tâche de prédiction de Taux de clics (CTR). Chaque enregistrement indique si un utilisateur a cliqué sur un élément. L'objectif est de prédire la probabilité qu'un utilisateur interagisse avec un article en fonction de ses profils, même en l'absence de données historiques.

Étapes pour Créer le Système de Recommandation

Lorsqu'on est confronté à un scénario de cold-start système, notre système de recommandation doit fonctionner sans données d'interaction historiques. Au lieu de cela, il s'appuie sur les profils d'utilisateurs et d'articles pour faire des suggestions. Voici comment ça fonctionne :

  1. Caractéristiques de Profil : Chaque utilisateur et article a des caractéristiques spécifiques qui les décrivent, comme l'âge, le sexe ou le type d'article. Ces caractéristiques sont transformées en descriptions en langage naturel.

  2. Conception de Prompt : Nous créons un modèle qui reformate la tâche de recommandation en une tâche de modélisation linguistique. Ce faisant, le système peut prédire comment les utilisateurs pourraient réagir à certains articles.

  3. Faire des Prédictions : Pour chaque paire utilisateur-article, le modèle estime la probabilité qu'un utilisateur s'engage avec un article en fonction du contexte fourni.

Défis dans les Recommandations de Cold-start

Dans une situation de cold-start, deux défis principaux se posent :

  1. Trouver un ensemble de données approprié pour pré-entraîner les petits modèles pour les tâches de recommandation.
  2. Créer un modèle de prompt qui fonctionne bien à travers différents types de recommandations.

Affiner les Données pour le Pré-entraînement des Modèles

Pour relever le premier défi, nous affinons un grand ensemble de données général en extrayant les informations les plus pertinentes pour les interactions potentielles dans la situation de cold-start. Cela garantit que notre modèle peut se concentrer sur des données utiles plutôt que sur des informations non pertinentes.

Concevoir un Prompt Transférable

Pour le deuxième défi, nous concevons des prompts qui séparent la tâche du contexte spécifique de la recommandation. Cela signifie que certains aspects du prompt peuvent être réutilisés à travers différents scénarios, permettant une plus grande flexibilité.

Évaluer la Performance de PromptRec

Nous évaluons l’efficacité de PromptRec à travers différents modèles et ensembles de données. Cela inclut la comparaison des performances des grands modèles de langage avec ceux des plus petits. Nos résultats montrent que les petits modèles peuvent obtenir des résultats comparables à ceux des plus grands lorsqu'ils sont correctement améliorés.

Résultats de l'Évaluation

Les résultats de nos expériences révèlent des informations significatives :

  • Généralisation à Travers les Modèles : PromptRec fonctionne bien à travers divers types de modèles de langage, indiquant sa conception robuste.
  • Sensibilité à la Taille des Modèles : La performance s'améliore généralement avec des modèles plus grands, mais les petits modèles peuvent bien performer avec un ajustement adéquat.

Informations des Expérimentations

Nos expériences montrent deux découvertes clés :

  1. Les petits modèles de langage améliorés peuvent faire des recommandations efficaces avec des temps d'inférence considérablement plus faibles.
  2. La combinaison d'un entraînement de corpus affiné et d'un entraînement de prompt transférable peut significativement améliorer la performance de petits modèles dans des situations de cold-start.

Conclusion et Directions Futures

Ce travail souligne le potentiel des petits modèles de langage à faire des recommandations personnalisées dans des scénarios de cold-start. Notre approche encourage les recherches futures à explorer les situations de cold-start dans diverses tâches de recommandation. Elle souligne également l'importance de prompts bien conçus et de données d'entraînement pertinentes pour améliorer les systèmes de recommandation.

En résumé, PromptRec offre une solution pratique aux défis rencontrés par les systèmes de recommandation dans de nouveaux environnements, pouvant bénéficier à de nombreuses entreprises cherchant à améliorer leurs interactions avec les clients. L’avenir devrait voir davantage d’avancées dans ce domaine, ouvrant la voie à des systèmes encore plus efficaces et personnalisés.

Source originale

Titre: Could Small Language Models Serve as Recommenders? Towards Data-centric Cold-start Recommendations

Résumé: Recommendation systems help users find matched items based on their previous behaviors. Personalized recommendation becomes challenging in the absence of historical user-item interactions, a practical problem for startups known as the system cold-start recommendation. While existing research addresses cold-start issues for either users or items, we still lack solutions for system cold-start scenarios. To tackle the problem, we propose PromptRec, a simple but effective approach based on in-context learning of language models, where we transform the recommendation task into the sentiment analysis task on natural language containing user and item profiles. However, this naive approach heavily relies on the strong in-context learning ability emerged from large language models, which could suffer from significant latency for online recommendations. To solve the challenge, we propose to enhance small language models for recommender systems with a data-centric pipeline, which consists of: (1) constructing a refined corpus for model pre-training; (2) constructing a decomposed prompt template via prompt pre-training. They correspond to the development of training data and inference data, respectively. The pipeline is supported by a theoretical framework that formalizes the connection between in-context recommendation and language modeling. To evaluate our approach, we introduce a cold-start recommendation benchmark, and the results demonstrate that the enhanced small language models can achieve comparable cold-start recommendation performance to that of large models with only $17\%$ of the inference time. To the best of our knowledge, this is the first study to tackle the system cold-start recommendation problem. We believe our findings will provide valuable insights for future works. The benchmark and implementations are available at https://github.com/JacksonWuxs/PromptRec.

Auteurs: Xuansheng Wu, Huachi Zhou, Yucheng Shi, Wenlin Yao, Xiao Huang, Ninghao Liu

Dernière mise à jour: 2024-03-04 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2306.17256

Source PDF: https://arxiv.org/pdf/2306.17256

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires