Améliorer la classification des requêtes pour les pubs en ligne
Une méthode pour améliorer la classification des requêtes en utilisant différentes stratégies de modèles.
― 7 min lire
Table des matières
- L'Importance de la Classification des requêtes
- Défis Actuels
- Le Besoin de Meilleures Solutions
- La Méthode Proposée
- Comprendre les Modèles
- Le Cadre de Constatation de Connaissances
- Stratégie Multi-Expert Diversifiée
- Résultats des Expériences
- Résumé des Conclusions
- Conclusion
- Directions Futures
- Source originale
- Liens de référence
Dans le monde numérique d'aujourd'hui, les entreprises s'appuient beaucoup sur la pub en ligne pour toucher des clients potentiels. Un élément clé de ce processus est de comprendre ce que les utilisateurs veulent quand ils cherchent des produits. Cette compréhension aide à montrer les bonnes pubs aux bonnes personnes. Cependant, classifier les requêtes de recherche pose pas mal de défis. Cet article va parler d'une méthode qui améliore la façon dont on classe ces requêtes, en utilisant un mélange de modèles simples et complexes pour rendre les pubs plus efficaces.
Classification des requêtes
L'Importance de laLa classification des requêtes est super importante pour les plateformes de shopping en ligne. Quand les utilisateurs cherchent des articles, la plateforme doit déterminer rapidement leur intention. Par exemple, si quelqu'un tape "chaussures de course", le système doit savoir qu'il faut montrer des pubs liées à cette catégorie. Une classification précise mène à une meilleure expérience utilisateur et à des ventes plus élevées. Cependant, classifier les requêtes n'est pas simple à cause des variations dans le comportement des utilisateurs et de la vaste gamme de produits disponibles.
Défis Actuels
Beaucoup de plateformes utilisent des modèles simples, comme FastText, pour classifier les requêtes parce qu'ils sont rapides. Cependant, ces modèles ne performent pas toujours bien, surtout sur des requêtes moins connues qui n'ont pas beaucoup de données historiques. D'un autre côté, des modèles plus avancés, comme BERT, peuvent mieux comprendre des requêtes complexes mais nécessitent plus de puissance de traitement et de temps. Cet équilibre entre vitesse et précision est une préoccupation majeure pour les plateformes en ligne.
Le Besoin de Meilleures Solutions
Pour relever ces défis, il est essentiel de trouver des moyens d'améliorer le processus de classification. La solution doit garantir qu'elle ne compromet pas la vitesse tout en améliorant la précision. Donc, combiner les forces de différents modèles peut être une approche prometteuse. En faisant cela, les plateformes peuvent obtenir de meilleurs résultats en classification des requêtes tout en maintenant des temps de réponse bas.
La Méthode Proposée
Cet article va présenter une méthode appelée Constatation de Connaissances (CC). La CC est conçue pour améliorer la classification des requêtes en mélangeant les capacités de différents modèles. L'idée principale est d'utiliser un modèle plus complexe pour fournir des données d'entraînement supplémentaires à un modèle plus simple et rapide. Cela permet au modèle simple d'apprendre des expériences passées et des nouvelles données, améliorant ainsi ses performances.
Comprendre les Modèles
FastText
FastText est un modèle léger qui traite le texte rapidement. Il est idéal pour les tâches nécessitant de la vitesse, comme les pubs en ligne où les utilisateurs s'attendent à des résultats instantanés. Cependant, FastText peut avoir du mal avec des requêtes qui n'ont jamais été vues auparavant ou qui n'ont pas beaucoup de données historiques. Ce manque de représentation le rend moins efficace dans certaines situations.
BERT
BERT, d'un autre côté, est un modèle complexe qui excelle à comprendre le contexte et le sens derrière les mots. Sa capacité à généraliser et à comprendre de nouvelles requêtes en fait un outil puissant. Toutefois, BERT est plus lourd et prend plus de temps à exécuter, ce qui le rend moins adapté aux applications en temps réel.
Le Cadre de Constatation de Connaissances
Le cadre de Constatation de Connaissances combine les forces de FastText et BERT. Voici comment ça marche :
Entraînement Hors Ligne avec BERT : La première étape consiste à utiliser BERT pour analyser les données historiques. En comprenant le comportement des utilisateurs passés, BERT aide à trouver des données pertinentes dont le modèle FastText plus simple peut apprendre.
Génération de Données : En utilisant les insights tirés de BERT, de nouvelles données d'entraînement sont générées. Cet ensemble de données enrichi inclut des exemples que FastText n'a pas pu rencontrer auparavant.
Entraînement de FastText : FastText est ensuite entraîné sur ce nouvel ensemble de données. L'objectif est d'équiper FastText avec une meilleure connaissance des différents types de requêtes, surtout les moins courantes.
Service en Ligne : Finalement, le modèle FastText entraîné est remis en service pour la classification de requêtes en direct.
Stratégie Multi-Expert Diversifiée
Pour rendre ce cadre encore plus efficace, une stratégie qui implique plusieurs modèles spécialisés est introduite. Cette méthode reconnaît que différentes requêtes nécessitent un traitement différent selon leur fréquence et leur contexte. L'approche consiste à entraîner plusieurs modèles qui se concentrent sur des types de requêtes spécifiques - haute, moyenne et basse fréquence. De cette façon, chaque modèle peut devenir un expert dans son domaine, améliorant les résultats globaux de classement.
Résultats des Expériences
Pour évaluer l'efficacité de cette approche combinée, plusieurs tests ont été réalisés. Le processus de test a impliqué des expériences hors ligne et des tests A/B en ligne dans un environnement réel. Les résultats ont montré une nette amélioration de la performance de classification des requêtes après la mise en œuvre du cadre de Constatation de Connaissances.
Validation Hors Ligne
Lors des tests hors ligne, les modèles ont été évalués sur plusieurs métriques, y compris la précision et l'exactitude. Le cadre a montré une augmentation constante de la performance par rapport à FastText seul, validant que de nouvelles données d'entraînement améliorent significativement les résultats.
Test A/B en Ligne
Une validation supplémentaire a eu lieu grâce à des tests A/B en ligne. Dans ce scénario, les utilisateurs ont été divisés en deux groupes - l'un utilisant le modèle FastText traditionnel et l'autre le modèle amélioré avec la méthode de Constatation de Connaissances. Des métriques telles que les pages vues, les clics sur les articles et les taux de conversion ont indiqué que la nouvelle approche a conduit à un engagement et une satisfaction utilisateur plus importants.
Résumé des Conclusions
Les résultats de ces expériences ont montré que la Constatation de Connaissances a réussi à améliorer la performance de classification de FastText. Elle a aidé le modèle à mieux apprendre des données historiques et des nouvelles données générées. La stratégie multi-expert a encore renforcé cela en permettant des solutions adaptées selon la fréquence des requêtes.
Conclusion
Alors que le paysage numérique continue d'évoluer, le besoin d'une classification efficace et efficiente des requêtes devient de plus en plus important. Le cadre de Constatation de Connaissances offre une solution prometteuse qui combine les forces de différents modèles, garantissant une meilleure compréhension et récupération des pubs pertinentes. En améliorant ainsi le processus de classification, les plateformes en ligne peuvent améliorer l'expérience utilisateur et générer des ventes plus élevées.
Directions Futures
En regardant vers l'avenir, il y a des opportunités pour peaufiner davantage le cadre de Constatation de Connaissances. Quelques domaines potentiels d'exploration incluent :
- Intégration de Données en Temps Réel : Incorporer des retours de données en direct pour améliorer encore les modèles.
- Plus de Diversité de Modèles : Élargir au-delà de trois modèles pour inclure des experts plus spécialisés selon différents critères.
- Compréhension de l'Intention Utilisateur : Développer des mécanismes plus solides pour saisir l'intention de l'utilisateur, permettant un ciblage publicitaire encore plus précis.
Grâce à une amélioration et une innovation continues, l'avenir de la publicité en ligne peut devenir plus convivial et efficace, profitant finalement à la fois aux entreprises et aux consommateurs.
Titre: Towards Better Query Classification with Multi-Expert Knowledge Condensation in JD Ads Search
Résumé: Search query classification, as an effective way to understand user intents, is of great importance in real-world online ads systems. To ensure a lower latency, a shallow model (e.g. FastText) is widely used for efficient online inference. However, the representation ability of the FastText model is insufficient, resulting in poor classification performance, especially on some low-frequency queries and tailed categories. Using a deeper and more complex model (e.g. BERT) is an effective solution, but it will cause a higher online inference latency and more expensive computing costs. Thus, how to juggle both inference efficiency and classification performance is obviously of great practical importance. To overcome this challenge, in this paper, we propose knowledge condensation (KC), a simple yet effective knowledge distillation framework to boost the classification performance of the online FastText model under strict low latency constraints. Specifically, we propose to train an offline BERT model to retrieve more potentially relevant data. Benefiting from its powerful semantic representation, more relevant labels not exposed in the historical data will be added into the training set for better FastText model training. Moreover, a novel distribution-diverse multi-expert learning strategy is proposed to further improve the mining ability of relevant data. By training multiple BERT models from different data distributions, it can respectively perform better at high, middle, and low-frequency search queries. The model ensemble from multi-distribution makes its retrieval ability more powerful. We have deployed two versions of this framework in JD search, and both offline experiments and online A/B testing from multiple datasets have validated the effectiveness of the proposed approach.
Auteurs: Kun-Peng Ning, Ming Pang, Zheng Fang, Xue Jiang, Xi-Wei Zhao, Chang-Ping Peng, Zhan-Gang Lin, Jing-He Hu, Jing-Ping Shao
Dernière mise à jour: 2023-11-19 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2308.01098
Source PDF: https://arxiv.org/pdf/2308.01098
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.