Propulsée par les tendances des recherches de mots-clés naturels, LinkedIn a annoncé que sa toute nouvelle fonctionnalité de recherche d'emplois assistée par l'intelligence artificielle est désormais disponible pour tous les utilisateurs. Cette innovation utilise un modèle raffiné et finement ajusté, entraîné sur la base de connaissances du réseau professionnel social LinkedIn, afin de permettre aux chercheurs d'emploi de décrire leurs aspirations professionnelles avec un langage plus naturel et oralisé, ce qui améliore la précision et la pertinence des recommandations d'emplois en fonction de leurs besoins.
Erran Berger, vice-président du développement produit chez LinkedIn, a déclaré dans une interview accordée à VentureBeat : « Cette nouvelle expérience de recherche permet aux membres de décrire leurs objectifs dans leur propre langue et d'obtenir des résultats qui reflètent réellement leurs besoins. C'est le premier pas vers un voyage plus vaste qui rendra le processus de recherche d'emploi plus intuitif, inclusif et accessible à tous. »
Une enquête menée précédemment par LinkedIn a révélé que les utilisateurs ont tendance à se fier excessivement à des requêtes de mots-clés précis lorsqu'ils cherchent des emplois sur la plateforme. Ce problème entraîne souvent des résultats peu satisfaisants, comme la présentation simultanée de postes de journalistes de médias et de journalistes de tribunaux, alors qu'ils exigent des compétences totalement différentes. Zhang Wenjing, vice-présidente de l'ingénierie chez LinkedIn, a souligné que cette mise à jour vise à mieux comprendre les besoins des utilisateurs et à complètement transformer la manière dont les gens trouvent les emplois qui leur conviennent le mieux.
« Par le passé, lorsque nous utilisions des mots-clés, nous les examinions essentiellement et tentions de trouver des réponses parfaitement correspondantes. Parfois, une description d'emploi mentionnait "journaliste", mais cela ne correspondait pas nécessairement à la réalité des candidats ; nous continuions tout de même à récupérer ces informations, ce qui n'était pas idéal pour les candidats », a expliqué Zhang Wenjing.
Maintenant, LinkedIn a amélioré sa capacité à comprendre les requêtes des utilisateurs, permettant ainsi aux chercheurs d'emploi d'utiliser des mots-clés plus riches. Par exemple, au lieu de simplement chercher "ingénieur logiciel", ils peuvent entrer "trouver des emplois récemment publiés pour ingénieurs logiciels dans la Silicon Valley", et le système comprendra et correspondra plus précisément aux informations pertinentes.
Pour atteindre cet objectif, LinkedIn a d'abord entièrement réformé la capacité de compréhension de ses fonctions de recherche. Zhang Wenjing a expliqué que ce processus se divise en trois étapes : d'abord comprendre la requête de l'utilisateur, ensuite rechercher des informations pertinentes dans la gigantesque base de données d'emplois, et enfin classer correctement les résultats pour présenter les postes les plus pertinents en premier.
LinkedIn s'appuyait auparavant sur des méthodes fixées basées sur des taxonomies, des modèles de classement et des LLM anciens avec une faible capacité de compréhension sémantique profonde. Aujourd'hui, l'entreprise s'est tournée vers des modèles de langage de grande taille (LLM) modernes, finement ajustés, pour renforcer ses capacités de traitement automatique du langage naturel (NLP).
En raison du coût élevé de calcul des LLM, LinkedIn a adopté une méthode de distillation de données pour réduire les coûts. Ils ont divisé l'utilisation des LLM en deux étapes : une pour la recherche et la récupération d'informations, et une autre pour classer les résultats. En utilisant des modèles enseignants pour trier les requêtes et les emplois, LinkedIn a réussi à harmoniser les modèles de recherche et de classement et à simplifier son système de recherche d'emplois en réduisant les étapes de neuf à un processus plus fluide.
De plus, LinkedIn a développé un moteur de requêtes capable de générer des suggestions personnalisées d'emplois pour les utilisateurs.
LinkedIn n'est pas la seule entreprise à reconnaître le potentiel des recherches d'entreprise basées sur les LLM. Google avait prédit que grâce à des modèles avancés, l'année 2025 marquerait une année où les recherches d'entreprises deviendraient bien plus puissantes. Des modèles comme Cohere's Rerank3.5 contribuent également à briser les îlots linguistiques internes des entreprises. Les divers produits "profonds" d'OpenAI, Google et Anthropic montrent que les organisations ont une demande croissante d'accès et d'analyse de leurs sources de données internes.
Sur la dernière année, LinkedIn a progressivement introduit plusieurs fonctionnalités basées sur l'intelligence artificielle. En octobre dernier, la société a lancé un assistant IA destiné à aider les recruteurs à trouver les meilleurs candidats de manière plus efficace, consolidant ainsi davantage son rôle de leader dans le domaine des réseaux professionnels.