Simple Science

La science de pointe expliquée simplement

# Informatique # Recherche d'informations

Améliorer la recherche de produits en ligne avec des modèles de langue

Améliorer la pertinence dans le e-commerce grâce à des techniques de classement avancées.

Qi Liu, Atul Singh, Jingbo Liu, Cun Mu, Zheng Yan

― 7 min lire


Amélioration du Amélioration du classement de recherche e-commerce une meilleure visibilité des produits. Exploiter les modèles de langue pour
Table des matières

Le shopping en ligne fait partie intégrante de la vie quotidienne pour beaucoup de gens. Quand les utilisateurs cherchent des produits, ils s'attendent à voir les meilleures options pertinentes disponibles. Ça rend le classement des recherches produit super important, un domaine où la technologie peut vraiment aider. En utilisant des méthodes informatiques avancées, les entreprises cherchent à montrer aux utilisateurs les produits qu'ils veulent vraiment selon leurs recherches.

Une façon d'améliorer le classement des recherches produit, c'est d'utiliser des grands modèles de langage (LLMs). Ces modèles peuvent analyser et comprendre le texte, ce qui les rend utiles pour faire correspondre les recherches avec les bons produits. Ils peuvent aider à déterminer à quel point un produit est adapté à une recherche donnée, ce qu'on appelle la pertinence du classement.

La pertinence du classement peut se diviser en deux grandes parties : la pertinence basée sur le contenu et la pertinence basée sur l'engagement. La pertinence basée sur le contenu regarde à quel point les caractéristiques d'un produit correspondent aux termes de recherche tapés par les utilisateurs. Par exemple, si quelqu'un cherche une chemise rouge, le titre et la description de la chemise sont essentiels pour déterminer sa pertinence. D'un autre côté, la pertinence basée sur l'engagement prend en compte comment les clients interagissent avec les produits, comme à quelle fréquence ils cliquent, ajoutent au panier ou achètent des articles.

En utilisant des LLMs, les entreprises peuvent améliorer les deux parties de la pertinence du classement. Ces modèles peuvent aider à générer de meilleures étiquettes pour entraîner les ordinateurs à faire des prédictions sur les produits qui devraient être montrés en premier. En analysant d'énormes quantités de données, les LLMs peuvent créer des scores de pertinence plus précis pour les produits selon leur contenu et les interactions des clients.

Cependant, entraîner des modèles de classement peut être compliqué. Il n'y a pas de norme unique pour déterminer quel produit doit être classé plus haut qu'un autre. Pour cette raison, les entreprises s'appuient souvent sur des données clients historiques, qui ne sont pas toujours représentatives. Au lieu de se fier uniquement aux comportements passés, il peut être utile de créer une vue plus nuancée qui inclut à la fois des métriques de contenu et d'engagement.

Pour y parvenir, les LLMs peuvent être utilisés non seulement pour générer des scores de pertinence, mais aussi pour créer des caractéristiques, qui sont les différents types d'informations qui aident le modèle à comprendre un produit. Par exemple, en plus d'utiliser des données historiques, les LLMs peuvent analyser les descriptions et les caractéristiques des produits, améliorant ainsi les données disponibles pour entraîner les modèles de classement. Cela donne lieu à une approche plus équilibrée du classement, où le contenu et l'engagement sont tous deux pris en compte.

Le processus commence par diviser le score de pertinence en deux composants. Le score de pertinence basé sur le contenu est dérivé des attributs du produit et reflète à quel point il correspond aux termes de recherche. Par exemple, pour l'exemple de la chemise rouge, la pertinence du contenu examine sa couleur, sa marque et son type. Le score d'engagement, quant à lui, est basé sur les actions des utilisateurs, comme combien de fois la chemise a été ajoutée au panier ou cliquée.

Une amélioration clé vient de l'application de transformations aux scores de pertinence générés par les LLMs. En utilisant des fonctions mathématiques spécifiques appelées transformations sigmoïdes, on peut polariser les scores. Ça signifie que les produits qui sont moyens en pertinence de contenu peuvent être poussés à une extrémité de la plage des scores, mettant en évidence leurs différences. Par exemple, si deux produits ont des scores de pertinence similaires, la transformation peut aider à les différencier, permettant au modèle de classement de se concentrer sur l'engagement réel des clients pour déterminer leurs positions.

Cette transformation est essentielle car elle optimise non seulement la façon dont les scores de pertinence sont calculés, mais elle permet aussi aux modèles de se concentrer sur les produits de la meilleure qualité pour les positions élevées. En pratique, ça veut dire que quand les utilisateurs effectuent une recherche, ils voient les produits les plus susceptibles de les intéresser en haut de la liste.

Quand on teste ces approches, les résultats peuvent être évalués de deux manières principales : par des évaluations hors ligne et des tests en ligne. Les évaluations hors ligne impliquent de recueillir des jugements humains sur la pertinence des produits classés par rapport aux requêtes de recherche. Un ensemble de requêtes est échantillonné, et les évaluateurs humains examinent à quel point les meilleurs produits correspondent à la pertinence attendue. Ça mène généralement à des calculs de scores qui aident à comparer les performances des modèles.

Les tests en ligne concernent plutôt les interactions réelles des utilisateurs. En exposant les utilisateurs à différents classements générés par les modèles dans des environnements en direct, on peut voir comment ces changements affectent le comportement réel des clients. Les métriques clés comprennent le nombre d'articles ajoutés aux paniers et si les utilisateurs s'engagent avec les produits.

Les résultats des tests hors ligne et en ligne montrent des améliorations positives en pertinence de contenu tout en maintenant les niveaux d'engagement des utilisateurs. Ce qui est particulièrement intéressant, c'est comment les compromis entre les métriques de contenu et d'engagement se manifestent. Dans des cas où un modèle optimisé pour la pertinence de contenu a produit de bons résultats, il a parfois compromis l'engagement. Inversement, les modèles qui se concentraient sur l'amélioration de l'engagement ne classaient pas toujours le contenu aussi haut.

En ajustant les paramètres utilisés dans la transformation sigmoïde, les entreprises peuvent trouver un meilleur équilibre entre ces deux aspects. Un accent plus fort sur la pertinence du contenu peut entraîner moins de produits engagés, mais cela peut garantir que seuls les meilleurs produits apparaissent en haut. Équilibrer ces aspects est crucial, surtout quand l'objectif est de fournir aux utilisateurs la meilleure expérience de shopping possible.

De plus, l'intégration des LLMs permet de mieux générer des caractéristiques. Comme mentionné, les caractéristiques sont les divers facteurs utilisés dans le modèle de classement. En générant ces caractéristiques de manière dynamique, les entreprises peuvent s'assurer qu'elles sont à la fois pertinentes et actuelles. Par exemple, quand un utilisateur effectue une recherche, les caractéristiques peuvent être générées sur la base des dernières données et tendances, s'assurant que les produits montrés sont en ligne avec les demandes actuelles du marché.

En conclusion, l'utilisation de grands modèles de langage dans le classement des recherches produit en e-commerce peut considérablement améliorer la pertinence des résultats de recherche. En décomposant le classement en pertinence de contenu et d'engagement, et en utilisant des techniques avancées comme les transformations sigmoïdes, les entreprises peuvent créer une approche plus équilibrée pour montrer aux utilisateurs les produits qu'ils recherchent. Des tests approfondis ont montré que cette méthode améliore non seulement la pertinence de contenu, mais maintient aussi l'engagement des utilisateurs à un niveau sain.

Merci à ceux qui ont contribué à cette recherche et aux efforts continus pour améliorer les technologies de recherche. L'avenir de l'e-commerce semble prometteur avec l'intégration de ces méthodes avancées, ouvrant la voie à des systèmes encore plus intelligents qui peuvent mieux servir les clients dans leurs expériences d'achat.

Source originale

Titre: Towards More Relevant Product Search Ranking Via Large Language Models: An Empirical Study

Résumé: Training Learning-to-Rank models for e-commerce product search ranking can be challenging due to the lack of a gold standard of ranking relevance. In this paper, we decompose ranking relevance into content-based and engagement-based aspects, and we propose to leverage Large Language Models (LLMs) for both label and feature generation in model training, primarily aiming to improve the model's predictive capability for content-based relevance. Additionally, we introduce different sigmoid transformations on the LLM outputs to polarize relevance scores in labeling, enhancing the model's ability to balance content-based and engagement-based relevances and thus prioritize highly relevant items overall. Comprehensive online tests and offline evaluations are also conducted for the proposed design. Our work sheds light on advanced strategies for integrating LLMs into e-commerce product search ranking model training, offering a pathway to more effective and balanced models with improved ranking relevance.

Auteurs: Qi Liu, Atul Singh, Jingbo Liu, Cun Mu, Zheng Yan

Dernière mise à jour: 2024-09-25 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2409.17460

Source PDF: https://arxiv.org/pdf/2409.17460

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires