Améliorer les recommandations avec une augmentation positive des articles
Une nouvelle méthode améliore la précision et la variété des systèmes de recommandation.
― 7 min lire
Table des matières
Les systèmes de recommandations personnalisées aident les utilisateurs à trouver des trucs qu'ils risquent d'aimer en se basant sur leurs comportements passés. Mais un problème courant, c'est qu'ils manquent souvent de données suffisantes. Beaucoup d'utilisateurs n'interagissent pas avec assez de trucs pour que le système puisse vraiment comprendre leurs préférences. Du coup, ça donne des recommandations pourries, parce que le système galère à identifier ce que les utilisateurs veulent.
Pour améliorer les recommandations, il faut créer des exemples positifs supplémentaires d'articles que les utilisateurs pourraient aimer. On appelle ça l'augmentation des articles positifs. Cependant, juste ajouter plus d'articles ne suffit pas. Le système doit s'assurer que ces nouveaux articles soient à la fois précis et variés pour éviter de montrer toujours le même genre de contenu.
Sparsité des données
Le Problème de laDans beaucoup de systèmes de recommandations, les utilisateurs ont des historiques de clics, d'achats ou de vues qui sont minimes comparés au grand nombre d'articles disponibles. Par exemple, réfléchis au nombre d'articles sur des plateformes comme les services de streaming ou les sites de commerce en ligne. Les utilisateurs ont peut-être seulement interagi avec quelques-uns de ces articles, ce qui rend la compréhension de leurs préférences réelles assez limitée. Cette sparsité de données complique la tâche des algorithmes de recommandation pour identifier ce qui intéresse réellement les utilisateurs.
Pour remédier à ce souci, beaucoup de chercheurs ont exploré différentes méthodes pour augmenter la quantité de retours positifs utilisés pour l'entraînement. Certaines approches vont chercher des infos de sources variées ou prennent même en compte le comportement d'utilisateurs avec des intérêts similaires. Une autre méthode consiste à créer de nouveaux exemples au sein du même ensemble de données pour améliorer l'entraînement sans avoir besoin d'informations extérieures.
Approche pour l'Augmentation des Articles Positifs
La méthode proposée se concentre sur la création d'un ensemble d'exemples d'articles positifs plus précis et variés. Ça implique de collecter des articles potentiels sous plusieurs angles. D'abord, le système examine les comportements passés d'un utilisateur pour rassembler des articles qui correspondent à leurs intérêts à long et court terme. Ça se fait grâce à trois stratégies principales :
- Récupération Utilisateur à Article (u2i) : Cette stratégie récolte des articles en fonction des intérêts globaux d'un utilisateur, en prenant en compte son comportement à long terme.
- Récupération Article à Article (i2i) : Cette méthode se concentre sur les intérêts immédiats de l'utilisateur liés directement aux articles avec lesquels il a interagi.
- Récupération Utilisateur à Utilisateur à Article (u2u2i) : Cette stratégie examine ce que des utilisateurs similaires ont aimé et recommande ces articles.
Une fois ces articles positifs potentiels rassemblés, le système utilise une méthode appelée auto-distillation. C'est une manière de revoir et d'affiner les articles sélectionnés, pour s'assurer qu'ils soient de bonne qualité et suffisamment diversifiés pour satisfaire différents goûts d'utilisateurs.
Amélioration des Recommandations
L'objectif est de rendre les recommandations plus précises et diversifiées. Quand de nouveaux articles positifs sont ajoutés au processus d'entraînement, ils devraient aider le modèle à mieux apprendre. Des recommandations variées peuvent garder les utilisateurs engagés et éviter qu'ils tombent dans une routine de voir toujours le même type de contenu.
Pour mesurer l'efficacité du système proposé, les chercheurs ont réalisé des tests à la fois hors ligne (en utilisant des données historiques) et en ligne (dans des situations réelles). Ça a inclus un test A/B où le nouveau système a été comparé aux méthodes existantes pour voir s'il offrait vraiment de meilleures recommandations.
Expérimentation et Résultats
Dans les évaluations, le système proposé a montré des améliorations notables par rapport aux méthodes existantes. La recherche a été réalisée en utilisant deux grands ensembles de données. Le premier comportait des millions d'utilisateurs et d'articles, permettant des tests précis dans un scénario réel.
Lors de ces expériences, des mesures telles que la fréquence à laquelle les utilisateurs cliquaient sur les articles recommandés (taux de clics) et la satisfaction générale des utilisateurs ont été suivies. Les résultats ont montré que la nouvelle méthode pouvait augmenter le nombre d'interactions positives, prouvant que les utilisateurs étaient plus enclins à s'engager avec les articles suggérés.
En utilisant les trois stratégies de récupération, le système a pu rassembler une grande variété de recommandations. Les résultats ont indiqué que les utilisateurs recevaient un ensemble de suggestions plus diversifié par rapport aux méthodes traditionnelles, qui s'appuyaient principalement sur ce que les utilisateurs avaient déjà consulté.
Test en Ligne
Pour confirmer l'efficacité de la méthode, un test A/B en ligne a été réalisé. Dans ce test, le nouveau système de recommandations a été mis en pratique, permettant à de vrais utilisateurs de faire l'expérience des changements. La performance a été évaluée en suivant deux indicateurs principaux : le nombre moyen de lectures par personne et le taux d’achèvement des vidéos.
Les résultats étaient prometteurs. Quand le système traditionnel a été remplacé par la nouvelle méthode, des améliorations significatives ont été enregistrées dans les deux indicateurs. Ça a montré que les utilisateurs trouvaient non seulement plus de choses à regarder mais restaient également engagés plus longtemps avec le contenu.
Comprendre la Diversité dans les Recommandations
La diversité dans les recommandations est essentielle. Cela aide à éviter ce qu'on appelle les "bulles de filtres", où les utilisateurs ne voient qu'une gamme restreinte de contenu qu'ils connaissent déjà et apprécient. La nouvelle méthode a montré qu'elle pouvait proposer une plus large variété d'articles aux utilisateurs. Cela a été validé en analysant combien d'articles distincts étaient recommandés par rapport à la méthode traditionnelle.
En évaluant la diversité des recommandations, il était clair que la nouvelle approche offrait plus de trois fois plus d'articles uniques à considérer pour les utilisateurs. Cette variété peut améliorer l'expérience utilisateur et maintenir un haut niveau d'engagement.
Conclusion et Directions Futures
L'augmentation des articles positifs est une partie essentielle de l'amélioration des systèmes de recommandations. En combinant des méthodes pour rassembler un ensemble diversifié de recommandations potentielles et en les affinant par auto-distillation, cette nouvelle approche s'est révélée efficace.
Le déploiement de cette méthode dans des systèmes réels montre sa valeur pratique, impactant un grand nombre d'utilisateurs. Les futurs travaux chercheront à créer encore plus de moyens d'améliorer les recommandations d'articles positifs et à analyser comment différents ajustements peuvent encore bénéficier aux utilisateurs.
En mettant l'accent sur l'amélioration de la précision et de la diversité, l'objectif est de créer un système de recommandations qui comprend vraiment et répond aux préférences individuelles des utilisateurs, assurant qu'ils restent engagés et satisfaits du contenu qu'ils reçoivent.
Titre: Learning from All Sides: Diversified Positive Augmentation via Self-distillation in Recommendation
Résumé: Personalized recommendation relies on user historical behaviors to provide user-interested items, and thus seriously struggles with the data sparsity issue. A powerful positive item augmentation is beneficial to address the sparsity issue, while few works could jointly consider both the accuracy and diversity of these augmented training labels. In this work, we propose a novel model-agnostic Diversified self-distillation guided positive augmentation (DivSPA) for accurate and diverse positive item augmentations. Specifically, DivSPA first conducts three types of retrieval strategies to collect high-quality and diverse positive item candidates according to users' overall interests, short-term intentions, and similar users. Next, a self-distillation module is conducted to double-check and rerank these candidates as the final positive augmentations. Extensive offline and online evaluations verify the effectiveness of our proposed DivSPA on both accuracy and diversity. DivSPA is simple and effective, which could be conveniently adapted to other base models and systems. Currently, DivSPA has been deployed on multiple widely-used real-world recommender systems.
Auteurs: Chong Liu, Xiaoyang Liu, Ruobing Xie, Lixin Zhang, Feng Xia, Leyu Lin
Dernière mise à jour: 2023-08-15 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2308.07629
Source PDF: https://arxiv.org/pdf/2308.07629
Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.