Évaluation de l'augmentation de données dans les systèmes de recommandation séquentiels
Examiner le rôle de l'augmentation des données par rapport à l'apprentissage par contraste dans les recommandations.
― 10 min lire
Table des matières
- Systèmes de Recommandation Séquentielle
- Techniques d'Augmentation de Données
- Insertion d'Éléments
- Suppression d'Éléments
- Remplacement d'Éléments
- Recadrage d'Éléments
- Masquage d'Éléments
- Réorganisation d'Éléments
- Division de Sous-ensembles
- Fenêtre Glissante
- Questions de Recherche
- Configuration Expérimentale
- Modèles de Base
- Détails de Mise en Œuvre
- Résultats Généraux
- Performance des Stratégies d'Augmentation de Données
- Stratégies Combinées
- Performance au Démarrage à Froid
- Impact de la Popularité des Éléments
- Taille des Augmentations de Données
- Comparaison d'Efficacité
- Analyse et Discussion
- Directions Futures
- Source originale
- Liens de référence
Les systèmes de recommandation séquentielle (SRS) visent à prédire ce que les utilisateurs vont faire ensuite en se basant sur leur comportement passé. Les utilisateurs interagissent avec des éléments dans un certain ordre, et les SRS essaient de comprendre ce schéma pour suggérer des éléments futurs. Un problème courant auquel sont confrontés ces systèmes est la rareté des données, ce qui signifie qu'il pourrait ne pas y avoir assez de données d'interaction utilisateur-élément en raison du grand nombre d'utilisateurs et d'éléments. Pour y remédier, des études récentes ont commencé à utiliser une méthode appelée Apprentissage contrastif (CL) pour mieux exploiter les données disponibles.
Le CL fonctionne en s'assurant que des éléments similaires (ou des séquences d'interactions) sont plus proches les uns des autres dans un certain espace de représentation tout en gardant les éléments dissemblables à l'écart. Cela se fait souvent par le biais de l'Augmentation de données, où les données d'interaction originales sont altérées de manière spécifique pour créer de nouvelles données d'entraînement. Malgré l'augmentation de l'utilisation du CL, le rôle de l'augmentation de données dans l'amélioration des recommandations n'a pas été exploré en profondeur.
Cela soulève une question importante : peut-on obtenir de bons résultats de recommandation juste en utilisant des techniques d'augmentation de données sans s'appuyer sur des méthodes d'apprentissage contrastif ? Pour le découvrir, diverses méthodes d'augmentation de données ont été testées par rapport à des approches de recommandation populaires basées sur le CL.
Systèmes de Recommandation Séquentielle
Les SRS sont importants dans de nombreux domaines comme le shopping en ligne, le streaming musical et les réseaux sociaux. Leur objectif principal est de prédire le prochain élément qu'un utilisateur pourrait aimer en fonction de ses interactions passées. Cependant, le défi de la rareté des données rend difficile l'entraînement efficace de ces modèles, car de nombreux utilisateurs n'ont peut-être interagi qu'avec quelques éléments.
Ces dernières années, les chercheurs se sont concentrés sur l'utilisation de l'apprentissage contrastif pour améliorer la représentation des éléments en extrayant des signaux utiles à partir des données d'interaction utilisateur-élément. Plusieurs approches de CL ont été développées, et elles suivent généralement deux étapes : créer des vues positives et négatives par le biais de l'augmentation de données, puis ajuster le modèle pour minimiser la distance entre les vues similaires tout en maximisant la distance entre les vues différentes.
Malgré l'accent mis sur le CL, il y a encore un besoin d'analyser à quel point l'augmentation directe de données peut être efficace pour améliorer les performances de recommandation. Peu d'études ont systématiquement comparé l'augmentation de données traditionnelle avec les méthodes basées sur le CL.
Techniques d'Augmentation de Données
L'augmentation de données comprend plusieurs techniques appliquées pour créer de nouvelles séquences à partir de séquences existantes. Ces techniques sont des transformations simples visant à préserver les éléments essentiels des données originales tout en fournissant plus d'exemples d'entraînement.
Voici quelques techniques courantes d'augmentation de données :
Insertion d'Éléments
Cette méthode consiste à ajouter un nouvel élément à une séquence existante. Une position dans la séquence est choisie pour insérer un élément de la pool disponible, ce qui donne une séquence augmentée.
Suppression d'Éléments
Dans cette technique, un élément est sélectionné au hasard pour être retiré de la séquence, ce qui génère une séquence augmentée plus courte.
Remplacement d'Éléments
Cela consiste à remplacer un élément existant dans la séquence par un élément différent de la pool.
Recadrage d'Éléments
Ici, un segment continu de la séquence originale est sélectionné en fonction d'une longueur spécifiée, créant une version recadrée de la séquence.
Masquage d'Éléments
Dans cette technique, un élément choisi dans la séquence est masqué, ce qui signifie que son identité est substituée par un symbole de remplacement.
Réorganisation d'Éléments
Cette méthode mélange une portion sélectionnée de la séquence tout en maintenant l'ordre des autres parties, ce qui donne une séquence mixte.
Division de Sous-ensembles
Cela implique de créer une nouvelle séquence qui n'inclut qu'un sous-ensemble d'éléments de la séquence originale en fonction d'une certaine probabilité pour chaque élément.
Fenêtre Glissante
Dans cette approche, une fenêtre de longueur fixe glisse sur la séquence originale pour créer plusieurs nouveaux exemples d'entraînement, où la séquence actuelle d'éléments est utilisée pour prédire le prochain élément à venir.
Questions de Recherche
Pour comprendre comment différentes stratégies d'augmentation fonctionnent par rapport aux méthodes CL, l'étude se concentre sur plusieurs questions clés :
- Comment diverses stratégies d'augmentation de données se comparent-elles aux méthodes de recommandation basées sur le CL à la pointe de la technologie ?
- Comment ces méthodes se comportent-elles dans des scénarios de Démarrage à froid où peu de données utilisateur sont disponibles ?
- Comment gèrent-ils les éléments de popularité variée ?
- La taille des augmentations a-t-elle un impact sur la performance ?
- Comment se comparent-ils en termes d'efficacité computationnelle ?
Configuration Expérimentale
Les tests ont été réalisés sur quatre ensembles de données bien connus avec diverses caractéristiques. Les ensembles de données consistaient en des interactions utilisateur telles que des évaluations ou des achats. Les ensembles de données ont été prétraités pour exclure les éléments et les utilisateurs ayant moins de cinq interactions afin d'assurer des données de qualité.
Pour l'évaluation, deux métriques principales ont été utilisées : le rappel et le NDCG. Ces métriques aident à évaluer à quel point les recommandations correspondent aux préférences des utilisateurs. Pendant les tests, une approche de leave-one-out a été utilisée, où les deux derniers éléments dans chaque séquence utilisateur étaient conservés pour les tests, tandis que le reste était utilisé pour l'entraînement.
Modèles de Base
L'étude a évalué huit stratégies d'augmentation de données en utilisant un modèle de base appelé SASRec, ainsi que trois méthodes d'apprentissage contrastif. Ces méthodes de référence sont essentielles pour comprendre comment les nouvelles stratégies proposées fonctionnent et si elles offrent des avantages.
Détails de Mise en Œuvre
Tous les modèles ont été implémentés à l'aide d'une plateforme unifiée conçue pour les systèmes de recommandation. L'entraînement a impliqué le réglage des hyperparamètres pour une performance optimale, y compris l'utilisation de techniques spécifiques pour l'augmentation de données et les ajustements de l'architecture du modèle.
Résultats Généraux
Performance des Stratégies d'Augmentation de Données
La performance de chaque stratégie d'augmentation de données a été analysée individuellement. La plupart des stratégies ont été trouvées pour améliorer la performance du modèle de base. Parmi les stratégies, l'approche de la fenêtre glissante a montré les améliorations les plus significatives, tandis que des techniques comme le masquage et le remplacement ont conduit à une performance moins bonne en raison du bruit qu'elles ont introduit.
Certaines stratégies d'augmentation ont mieux performé que les méthodes d'apprentissage contrastif dans certaines situations. Cela met en évidence que l'augmentation directe de données peut être un outil puissant à part entière.
Stratégies Combinées
En explorant les combinaisons de stratégies, il a été trouvé que certaines combinaisons, en particulier celles impliquant la méthode de la fenêtre glissante, ont conduit à de meilleures performances que l'utilisation de la fenêtre glissante seule. Cela indique qu'il pourrait y avoir des synergies entre différentes approches d'augmentation de données.
Cependant, la performance des stratégies combinées avec des méthodes CL n'a généralement montré des améliorations significatives que lorsqu'elles étaient associées à la stratégie de la fenêtre glissante.
Performance au Démarrage à Froid
Dans des scénarios où les données utilisateur étaient rares, les stratégies d'augmentation ont régulièrement surpassé les méthodes CL, en particulier avec de plus faibles quantités de données d'entraînement. Cela suggère que la simple augmentation de données peut améliorer considérablement les performances face à des limitations de données.
Impact de la Popularité des Éléments
L'étude a également évalué comment différentes méthodes se comportaient avec des éléments de popularité variée. Il a été noté que les méthodes avaient tendance à mieux performer pour les éléments populaires, mais il y avait également des améliorations significatives des performances pour les éléments moins populaires en utilisant la méthode de la fenêtre glissante.
Taille des Augmentations de Données
L'analyse de l'impact de la taille des augmentations a révélé que la performance s'améliorait généralement avec plus d'augmentations au départ. Cependant, un bruit excessif dû à trop d'augmentations pouvait nuire à la performance, en particulier lorsqu'il était utilisé en conjonction avec la méthode de la fenêtre glissante.
Comparaison d'Efficacité
Malgré l'augmentation du volume de données d'entraînement, les méthodes d'augmentation de données nécessitaient généralement moins de temps d'entraînement et de mémoire que les méthodes CL. Cela démontre les avantages computationnels d'opter pour des stratégies d'augmentation de données directes plutôt que des méthodes CL complexes.
Analyse et Discussion
En conclusion, une évaluation systématique a montré que les stratégies d'augmentation de données ont le potentiel d'améliorer significativement les systèmes de recommandation séquentielle. Certaines stratégies peuvent rivaliser avec ou même surpasser des méthodes d'apprentissage contrastif populaires, en particulier dans des scénarios avec des données limitées.
Les résultats suggèrent que bien que l'apprentissage contrastif soit une approche utile, ce n'est peut-être pas la seule voie nécessaire pour aborder les problèmes de rareté des données dans les recommandations séquentielles. L'utilisation de méthodes d'augmentation de données directes présente une alternative viable.
Directions Futures
Les travaux futurs impliqueront d'étendre la gamme de stratégies d'augmentation de données et de méthodes d'apprentissage contrastif incluses dans de telles études. Des efforts de benchmarking plus complets sont nécessaires pour valider comment diverses approches peuvent fonctionner ensemble et les raisons théoriques derrière leur efficacité.
En continuant à enquêter et à affiner ces techniques, les chercheurs peuvent mieux équiper les systèmes de recommandation séquentielle pour gérer les préférences et l'engagement des utilisateurs, rendant finalement les recommandations meilleures dans divers domaines.
Titre: Is Contrastive Learning Necessary? A Study of Data Augmentation vs Contrastive Learning in Sequential Recommendation
Résumé: Sequential recommender systems (SRS) are designed to predict users' future behaviors based on their historical interaction data. Recent research has increasingly utilized contrastive learning (CL) to leverage unsupervised signals to alleviate the data sparsity issue in SRS. In general, CL-based SRS first augments the raw sequential interaction data by using data augmentation strategies and employs a contrastive training scheme to enforce the representations of those sequences from the same raw interaction data to be similar. Despite the growing popularity of CL, data augmentation, as a basic component of CL, has not received sufficient attention. This raises the question: Is it possible to achieve superior recommendation results solely through data augmentation? To answer this question, we benchmark eight widely used data augmentation strategies, as well as state-of-the-art CL-based SRS methods, on four real-world datasets under both warm- and cold-start settings. Intriguingly, the conclusion drawn from our study is that, certain data augmentation strategies can achieve similar or even superior performance compared with some CL-based methods, demonstrating the potential to significantly alleviate the data sparsity issue with fewer computational overhead. We hope that our study can further inspire more fundamental studies on the key functional components of complex CL techniques. Our processed datasets and codes are available at https://github.com/AIM-SE/DA4Rec.
Auteurs: Peilin Zhou, You-Liang Huang, Yueqi Xie, Jingqi Gao, Shoujin Wang, Jae Boum Kim, Sunghun Kim
Dernière mise à jour: 2024-03-17 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2403.11136
Source PDF: https://arxiv.org/pdf/2403.11136
Licence: https://creativecommons.org/publicdomain/zero/1.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.