Le moteur de recherche de LinkedIn a eu une grosse mise à jour
LinkedIn améliore sa fonction de recherche pour une meilleure expérience utilisateur.
Xin Yang, Rachel Zheng, Madhumitha Mohan, Sonali Bhadra, Pansul Bhatt, Lingyu, Zhang, Rupesh Gupta
― 6 min lire
Table des matières
- Le Changement de Comportement de Recherche
- La Solution : Appariement Sémantique
- Métriques Clés pour le Succès
- La Structure du Nouveau Moteur de Recherche
- Couche de Récupération
- Couche de Classement en Plusieurs Étapes
- Avantages de la Nouvelle Approche
- À l’Avenir
- Conclusion
- Source originale
- Liens de référence
Dans le monde du réseautage pro, LinkedIn est un mastodonte. Avec des millions d’utilisateurs qui s’engagent activement sur la plateforme, il est devenu clair que la façon dont les gens cherchent du contenu devait changer. Fini les simples termes de recherche comme "emploi" ou "conseils de réseautage." Maintenant, les gens tapent des questions longues, demandant des trucs comme : "Quelles sont les stratégies efficaces pour négocier une augmentation de salaire ?"
Pour répondre aux besoins de ses utilisateurs, LinkedIn a décidé de donner un coup de neuf à son moteur de recherche. Cette mise à jour permet une nouvelle façon de comprendre les requêtes des utilisateurs qui va au-delà du simple match de mots-clés. Pensez à ça comme transformer un haricot pinto standard en un burrito délicieux – c’est tout sur les ingrédients supplémentaires !
Le Changement de Comportement de Recherche
Avec de plus en plus d'utilisateurs qui adoptent des questions complexes dans leurs recherches, les moteurs de recherche traditionnels basés sur les mots-clés peinent à suivre. Ils peuvent renvoyer des résultats qui ne montrent pas tout le tableau ou, parfois, ne fournissent aucun post pertinent. C’est frustrant !
Imaginez demander un moteur de recherche des conseils pour un changement de carrière et obtenir des réponses qui ne répondent pas à votre question. C’est comme demander à un barista une recommandation de café et se retrouver avec un cours sur l’histoire de l’espresso. Pas très utile !
La Solution : Appariement Sémantique
Pour régler ce souci, LinkedIn a introduit une nouvelle fonctionnalité dans son moteur de recherche appelée l’appariement sémantique. Cela permet au moteur de chercher au-delà des mots tapés par l’utilisateur. Au lieu de ça, il essaie de comprendre le sens derrière la requête.
Avec l’appariement sémantique, le moteur de recherche peut plonger dans son trésor de posts pour trouver des réponses, même si ces réponses ne contiennent pas tous les mots spécifiques utilisés dans la question originale. C’est un peu comme un ami qui peut t’aider à trouver le bon resto même si tu ne te souviens plus de son nom !
Métriques Clés pour le Succès
Pour mesurer le succès de la mise à jour, LinkedIn se concentre sur deux métriques principales :
-
Taux de Pertinence : Cette métrique regarde à quel point les posts renvoyés répondent effectivement à la requête de l’utilisateur. Un post utile reçoit un pouce en l’air, et un moins utile reçoit un pouce en bas.
-
Durée de Lecture : Ça mesure combien de temps les utilisateurs passent à lire les posts retournés par la recherche. Si les utilisateurs restent un moment, c’est que le post doit avoir quelque chose de bien à dire. Personne ne veut lire un article qui ressemble à une conférence de huit heures sur la croissance de l’herbe !
La Structure du Nouveau Moteur de Recherche
Le moteur de recherche rénové se compose de deux couches principales : une couche de récupération et une couche de classement en plusieurs étapes.
Couche de Récupération
La première couche, c’est là que la magie commence. Quand un utilisateur soumet une requête, la couche de récupération essaie de sélectionner des réponses potentielles parmi des milliards de posts. Elle fait ça par deux méthodes :
-
Récupérateur Basé sur des Mots (TBR) : Cette approche trouve des posts qui correspondent exactement aux mots-clés dans la requête de l’utilisateur. C’est un peu à l’ancienne mais ça peut être utile quand tu as besoin de précision. Imagine un chien courant directement vers le bâton lancé, sans se soucier des autres trucs en chemin.
-
Récupérateur Basé sur l’Embedding (EBR) : C’est la méthode plus récente qui utilise un modèle d’IA intelligent pour trouver des posts. Au lieu de se focaliser sur des mots exacts, cette méthode comprend le contexte et le sens. Imagine un ami qui peut se souvenir de l’essence de ta conversation et te suggérer des trucs qui correspondent à ton ambiance, plutôt que de répéter ce que tu as dit.
Couche de Classement en Plusieurs Étapes
Une fois que les posts potentiels sont sélectionnés, ils vont vers la couche de classement. Ici, une analyse plus détaillée a lieu. Cette couche peut examiner des choses comme la qualité du post, combien le contenu est pertinent pour les besoins de l’utilisateur, et même des facteurs comme la popularité de l’auteur.
Le classement se compose de deux étapes :
-
Première Étape (Classement L1) : Un modèle plus simple examine tous les posts candidats et extrait les quelques centaines de meilleures options.
-
Deuxième Étape (Classement L2) : Une analyse plus complexe a lieu ici. Un modèle plus malin note chacun de ces quelques centaines de posts, aidant à décider lesquels vont en haut.
Avantages de la Nouvelle Approche
L’introduction de ces méthodes a conduit à des améliorations intéressantes. Les utilisateurs peuvent maintenant trouver des posts utiles qui répondent mieux à leurs questions complexes. Il ne s’agit pas seulement de ce qu’ils demandent, mais de ce qu’ils ont vraiment besoin de savoir. Le nouveau moteur de recherche a apparemment boosté l’engagement et la satisfaction des utilisateurs, rendant plus probable que les gens restent et lisent du contenu, un peu comme les clients qui traînent autour du dessert dans un bon resto.
À l’Avenir
Bien que le nouveau moteur de recherche soit déjà une grande amélioration, LinkedIn reconnaît qu’il y a toujours place à l’amélioration. Ils travaillent actuellement sur une nouvelle métrique pour mieux évaluer la qualité du contenu basée sur la variété des requêtes utilisateur. En utilisant des modèles de langage avancés, ils prévoient d’améliorer encore l’expérience de recherche, espérant relever d’autres défis que le langage complexe peut poser.
Pensez à ça comme un chef qui peaufine une recette. Juste au moment où vous pensez que ça ne pourrait pas être mieux, il ajoute une pincée d’épices qui rend le tout irrésistible !
Conclusion
Alors que LinkedIn continue d'améliorer ses capacités de recherche, la plateforme devient un outil plus puissant pour les pros partout. La capacité de comprendre et de répondre à des questions complexes signifie que les utilisateurs peuvent trouver l’information dont ils ont besoin plus rapidement et plus efficacement. C'est comme avoir un coach carrière dans votre poche, toujours prêt avec des conseils quand vous en avez besoin.
Avec ces mises à jour, LinkedIn prouve que le futur de la recherche ne concerne pas seulement les mots mais le contexte et la compréhension. Et ça, mes amis, c’est une recette pour le succès !
Source originale
Titre: Introducing Semantic Capability in LinkedIn's Content Search Engine
Résumé: In the past, most search queries issued to a search engine were short and simple. A keyword based search engine was able to answer such queries quite well. However, members are now developing the habit of issuing long and complex natural language queries. Answering such queries requires evolution of a search engine to have semantic capability. In this paper we present the design of LinkedIn's new content search engine with semantic capability, and its impact on metrics.
Auteurs: Xin Yang, Rachel Zheng, Madhumitha Mohan, Sonali Bhadra, Pansul Bhatt, Lingyu, Zhang, Rupesh Gupta
Dernière mise à jour: 2025-01-02 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2412.20366
Source PDF: https://arxiv.org/pdf/2412.20366
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.