Simple Science

La science de pointe expliquée simplement

# Informatique# Recherche d'informations

Améliorer les recommandations de prochains paniers pour l'équité et la diversité

Découvrez comment le cadre TREx améliore les recommandations d'achats en ligne.

― 6 min lire


Recommandations deRecommandations derefonte dans le commerceen lignedes suggestions d'achat.TREx améliore la précision et l'équité
Table des matières

Ces dernières années, le shopping en ligne est devenu une grande partie de nos vies. Les gens achètent souvent plusieurs articles en même temps, créant ce qu'on appelle un "panier". La Recommandation de Panier Suivant (RPS) se concentre sur la prévision des articles que les utilisateurs vont acheter ensuite en fonction de leurs achats passés. Traditionnellement, l'objectif a été de donner des recommandations précises. Cependant, on commence à réaliser qu'il faut aussi faire attention à l'Équité et à la diversité dans les recommandations.

Recommandation de Panier Suivant (RPS)

La RPS est un type de recommandation unique qui aide les utilisateurs à choisir leur prochain ensemble d'articles. Cette méthode examine la séquence des achats passés d'un utilisateur pour faire des suggestions pour les futurs. Par exemple, si un acheteur achète souvent des pâtes, il est probable qu'il les achète à nouveau et pourrait aussi être intéressé par des articles complémentaires comme de la sauce pour pâtes ou du fromage.

Accent Historique

Auparavant, les recherches sur la RPS se concentraient principalement sur la réalisation de recommandations précises. L'idée était simple : si un système pouvait suggérer ce que les clients achèteraient probablement ensuite, il serait un succès. Cependant, cette approche néglige d'autres facteurs importants comme l'équité, qui garantit que tous les articles ont une chance équitable d'être recommandés, et la diversité, qui s'assure que les utilisateurs voient une gamme variée de produits.

Avancée dans la Compréhension des Besoins des Utilisateurs

Des découvertes récentes montrent que les recommandations peuvent être divisées en deux types : recommander des articles répétés (articles que l'utilisateur a déjà achetés) et explorer de nouveaux articles (articles que l'utilisateur n'a pas encore achetés). Le défi est que, tandis que recommander des articles répétés est souvent plus facile et donne une meilleure précision, recommander des articles exploratoires est plus complexe et moins efficace en termes de satisfaction des utilisateurs.

Besoin d'une Approche Équilibrée

Ce déséquilibre soulève une question cruciale : comment peut-on trouver un équilibre entre précision et autres mesures importantes comme l'équité et la diversité ? Pour y remédier, une nouvelle approche est nécessaire-une qui permet à la fois une haute précision et des métriques au-delà de la précision améliorées.

Le Cadre TREx

Pour s'attaquer aux problèmes dans la RPS, nous proposons un nouveau cadre appelé TREx. Ce cadre sépare les recommandations en deux parties : une pour les articles répétés et une autre pour les articles exploratoires. En traitant ces deux recommandations différemment, on peut s'assurer que la précision et les métriques au-delà de la précision sont prises en compte.

Composants de TREx

  1. Module de Répétition : Cette partie se concentre sur la prévision précise des articles qu'un utilisateur a déjà achetés. Elle se base sur la fréquence des achats et l'intérêt de l'utilisateur pour faire des prédictions informées.

  2. Module d'Exploration : Ce module vise à introduire de nouveaux produits à l'utilisateur. Les stratégies pour ce module privilégient l'équité et la diversité. Par exemple, il pourrait recommander des articles moins populaires pour éviter le biais envers les articles fréquemment achetés.

  3. Génération de Panier : L'ensemble final des articles recommandés est créé en combinant les sorties des deux modules. L'objectif ici est de s'assurer que le panier a un mélange d'articles répétés et exploratoires, équilibrant ainsi la familiarité de l'utilisateur avec de nouvelles options.

Expériences et Résultats

Pour tester l'efficacité du cadre TREx, nous avons mené des expériences en utilisant des données de deux ensembles de données de courses bien connus.

Performance sur la Précision

Nos expériences ont montré que TREx pouvait atteindre une performance à la pointe de la technologie en termes de précision juste en se concentrant sur les articles répétés. Cela correspond à notre hypothèse selon laquelle recommander des articles répétés est une tâche plus simple.

Performance sur les Métriques au-delà de la Précision

Lorsque nous avons tourné notre attention vers l'équité et la diversité, TREx a encore une fois donné des résultats impressionnants. Nous avons constaté des améliorations sur plusieurs métriques d'équité, ce qui signifie que nos recommandations n'étaient pas seulement précises, mais aussi réparties plus uniformément entre les articles moins populaires. Cela représente une étape importante vers la création d'un système de recommandation plus équitable.

Équilibrage de la Précision avec la Diversité et l'Équité

Nos résultats suggèrent qu'en utilisant TREx, nous pouvons offrir de meilleures recommandations qui sont à la fois précises et diversifiées. En termes simples, il est possible d'aider les utilisateurs à découvrir de nouveaux articles sans sacrifier la familiarité des achats répétés.

Réflexion sur les Pratiques Actuelles

Bien que notre cadre montre des promesses, il met aussi en lumière les limites des méthodes d'évaluation existantes dans la RPS. Beaucoup de ces méthodes s'appuient fortement sur la performance globale, ce qui peut masquer l'efficacité réelle d'un système de recommandation.

Réévaluation du Succès dans les Recommandations

En réfléchissant aux résultats de nos expériences, il devient évident que simplement obtenir de meilleurs scores globaux ne suffit pas. Nous devons considérer comment le système performe sur différents types d'articles-à la fois répétés et exploratoires. Une analyse fine pourrait révéler des problèmes cachés dans les approches traditionnelles.

Conclusion

Le cadre TREx représente une avancée significative dans la RPS, nous permettant d'affiner les recommandations pour à la fois la précision et les métriques au-delà de la précision. En comprenant que recommander des articles familiers est différent d'introduire de nouveaux, nous pouvons créer une meilleure expérience de shopping pour les utilisateurs.

Directions Futures

En avançant, plus de recherches sont nécessaires pour explorer l'équilibre entre précision et métriques au-delà de la précision dans la RPS. Alors que le comportement des consommateurs continue d'évoluer, nos approches à la RPS doivent aussi évoluer. L'objectif doit toujours être de créer un système de recommandation qui aide les utilisateurs à trouver ce dont ils ont besoin tout en promouvant l'équité et la diversité sur le marché.

En résumé, le cadre TREx ne seulement redéfinit notre façon de penser les recommandations, mais ouvre aussi la voie à une expérience de shopping plus équitable et plus diversifiée dans le commerce en ligne.

Source originale

Titre: Are We Really Achieving Better Beyond-Accuracy Performance in Next Basket Recommendation?

Résumé: Next basket recommendation (NBR) is a special type of sequential recommendation that is increasingly receiving attention. So far, most NBR studies have focused on optimizing the accuracy of the recommendation, whereas optimizing for beyond-accuracy metrics, e.g., item fairness and diversity remains largely unexplored. Recent studies into NBR have found a substantial performance difference between recommending repeat items and explore items. Repeat items contribute most of the users' perceived accuracy compared with explore items. Informed by these findings, we identify a potential "short-cut" to optimize for beyond-accuracy metrics while maintaining high accuracy. To leverage and verify the existence of such short-cuts, we propose a plug-and-play two-step repetition-exploration (TREx) framework that treats repeat items and explores items separately, where we design a simple yet highly effective repetition module to ensure high accuracy, while two exploration modules target optimizing only beyond-accuracy metrics. Experiments are performed on two widely-used datasets w.r.t. a range of beyond-accuracy metrics, viz. five fairness metrics and three diversity metrics. Our experimental results verify the effectiveness of TREx. Prima facie, this appears to be good news: we can achieve high accuracy and improved beyond-accuracy metrics at the same time. However, we argue that the real-world value of our algorithmic solution, TREx, is likely to be limited and reflect on the reasonableness of the evaluation setup. We end up challenging existing evaluation paradigms, particularly in the context of beyond-accuracy metrics, and provide insights for researchers to navigate potential pitfalls and determine reasonable metrics to consider when optimizing for accuracy and beyond-accuracy metrics.

Auteurs: Ming Li, Yuanna Liu, Sami Jullien, Mozhdeh Ariannezhad, Mohammad Aliannejadi, Andrew Yates, Maarten de Rijke

Dernière mise à jour: 2024-05-02 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2405.01143

Source PDF: https://arxiv.org/pdf/2405.01143

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires