Pourquoi Google SGE est bloqué dans Google Labs et quelle est la prochaine étape

Google Search Generative Experience (SGE) devait expirer en tant qu'expérience de Google Labs à la fin de 2023, mais sa durée en tant qu'expérience a été discrètement prolongée, indiquant clairement que SGE ne viendra pas effectuer de recherche dans un avenir proche. Étonnamment, laisser Microsoft prendre les devants aurait pu être la meilleure approche, peut-être involontaire, pour Google.

La stratégie d'IA de Google pour la recherche

La décision de Google de conserver SGE en tant que projet de Google Labs s'inscrit dans la tendance plus large de l'histoire de Google consistant à préférer intégrer l'IA en arrière-plan. La présence de l’IA n’est pas toujours apparente, mais elle fait partie de la recherche Google en arrière-plan depuis plus longtemps que la plupart des gens ne le pensent. La toute première utilisation de l'IA dans la recherche faisait partie de l'algorithme de classement de Google, un système connu sous le nom de RankBrain. RankBrain a aidé les algorithmes de classement à comprendre comment les mots des requêtes de recherche sont liés aux concepts du monde réel. Selon Google : « Lorsque nous avons lancé RankBrain en 2015, il s'agissait du premier système d'apprentissage profond déployé dans la recherche. À l’époque, c’était révolutionnaire… RankBrain (comme son nom l’indique) est utilisé pour aider à classer – ou à décider du meilleur ordre pour – les meilleurs résultats de recherche. La mise en œuvre suivante était Neural Matching, qui a aidé les algorithmes de Google à comprendre des concepts plus larges dans les requêtes de recherche et les pages Web. Et l’un des systèmes d’IA les plus connus déployés par Google est le modèle unifié multitâche, également connu sous le nom de Google MUM. MUM est un système d'IA multimodal qui englobe la compréhension des images et du texte et est capable de les placer dans les contextes tels qu'ils sont écrits dans une phrase ou une requête de recherche. SpamBrain, l'IA anti-spam de Google, est probablement l'une des implémentations les plus importantes de l'IA dans le cadre de l'algorithme de recherche de Google, car elle aide à éliminer les sites de mauvaise qualité. Ce sont tous des exemples de l'approche de Google consistant à utiliser l'IA en arrière-plan pour résoudre différents problèmes de recherche dans le cadre de l'algorithme de base plus large. Il est probable que Google aurait continué à utiliser l’IA en arrière-plan jusqu’à ce que les grands modèles de langage (LLM) basés sur des transformateurs puissent passer au premier plan. Mais l'intégration de ChatGPT par Microsoft dans Bing a obligé Google à prendre des mesures pour ajouter l'IA de manière plus avant-gardiste avec sa Search Generative Experience (SGE).

Pourquoi garder SGE dans Google Labs ?

Étant donné que Microsoft a intégré ChatGPT dans Bing, il peut sembler curieux que Google n'ait pas pris une mesure similaire et conserve plutôt SGE dans Google Labs. Il y a de bonnes raisons pour l’approche de Google. L'un des principes directeurs de Google pour l'utilisation de l'IA est de ne l'utiliser qu'une fois que la technologie s'est avérée efficace et qu'elle est mise en œuvre d'une manière fiable et responsable. Ce sont deux choses dont l'IA générative n'est pas capable aujourd'hui.

Il y a au moins trois problèmes majeurs qui doivent être résolus avant que l’IA puisse être intégrée avec succès au premier plan de la recherche  :

  1. Les LLM ne peuvent pas être utilisés comme système de recherche d'informations car ils doivent être complètement recyclés afin d'ajouter de nouvelles données
  2. L'architecture du transformateur est inefficace et coûteuse
  3. L’IA générative a tendance à créer des faits erronés, un phénomène appelé hallucination

Pourquoi l'IA ne peut pas être utilisée comme moteur de recherche

L’un des problèmes les plus importants à résoudre avant que l’IA puisse être utilisée comme backend et frontend d’un moteur de recherche est que les LLM sont incapables de fonctionner comme un index de recherche où de nouvelles données sont continuellement ajoutées. En termes simples, ce qui se passe c'est que dans un moteur de recherche classique, l'ajout de nouvelles pages Web est un processus par lequel le moteur de recherche calcule la signification sémantique des mots et des expressions dans le texte (un processus appelé « intégration »), ce qui les rend consultables et prêt à être intégré à l'index. Ensuite, le moteur de recherche doit mettre à jour l’intégralité de l’index afin de comprendre (pour ainsi dire) où les nouvelles pages Web s’intègrent dans l’index de recherche global. L'ajout de nouvelles pages Web peut changer la façon dont le moteur de recherche comprend et relie toutes les autres pages Web dont il a connaissance, de sorte qu'il parcourt toutes les pages Web de son index et met à jour leurs relations les unes avec les autres si nécessaire. Il s'agit d'une simplification visant à communiquer le sens général de ce que signifie ajouter de nouvelles pages Web à un index de recherche. Contrairement à la technologie de recherche actuelle, les LLM ne peuvent pas ajouter de nouvelles pages Web à un index car l'ajout de nouvelles données nécessite un recyclage complet de l'ensemble du LLM. Google recherche comment résoudre ce problème afin de créer un moteur de recherche LLM basé sur un transformateur, mais le problème n'est pas résolu, voire proche. Pour comprendre pourquoi cela se produit, il est utile de jeter un coup d'œil rapide à un récent article de recherche de Google co-écrit par Marc Najork et Donald Metzler (et plusieurs autres co-auteurs). Je mentionne leurs noms parce que ces deux chercheurs sont presque toujours associés à certaines des recherches les plus importantes menées par Google. Donc, si l’un ou l’autre de leurs noms y figure, la recherche est probablement très importante. Dans l'explication suivante, l'index de recherche est appelé mémoire car un index de recherche est une mémoire de ce qui a été indexé. Le document de recherche s'intitule  : « DSI++  : mise à jour de la mémoire du transformateur avec de nouveaux documents » (PDF). L'utilisation des LLM comme moteurs de recherche est un processus qui utilise une technologie appelée indices de recherche différenciables (DSI). La technologie actuelle d’index de recherche est référencée comme un double encodeur.

Le document de recherche explique  :

«… la construction d'un index à l'aide d'un DSI implique la formation d'un modèle Transformer. Par conséquent, le modèle doit être recyclé à partir de zéro à chaque fois que le corpus sous-jacent est mis à jour, ce qui entraîne des coûts de calcul prohibitifs par rapport aux doubles encodeurs. L'article poursuit en explorant les moyens de résoudre le problème des LLM qui « oublient », mais à la fin de l'étude, ils déclarent qu'ils n'ont fait que progresser vers une meilleure compréhension de ce qui doit être résolu dans les recherches futures.

Ils concluent :

« Dans cette étude, nous explorons le phénomène d'oubli lié à l'ajout de documents nouveaux et distincts dans l'indexeur. Il est important de noter que lorsqu'un nouveau document réfute ou modifie un document précédemment indexé, le comportement du modèle devient imprévisible, nécessitant une analyse plus approfondie. De plus, nous examinons l'efficacité de notre méthode proposée sur un ensemble de données plus vaste, tel que l'ensemble de données MS MARCO complet. Cependant, il convient de noter qu’avec cet ensemble de données plus vaste, la méthode présente des oublis importants. En conséquence, des recherches supplémentaires sont nécessaires pour améliorer les performances du modèle, en particulier lorsqu’il s’agit d’ensembles de données à plus grande échelle.

Les LLM ne peuvent pas vérifier eux-mêmes les faits

Google et bien d’autres recherchent également de multiples façons de permettre à l’IA de vérifier elle-même les faits afin d’éviter de donner de fausses informations (appelées hallucinations). Mais jusqu’à présent, ces recherches n’ont pas progressé de manière significative.

L'expérience de Bing en matière d'IA au premier plan

Bing a emprunté une voie différente en intégrant l’IA directement dans son interface de recherche dans une approche hybride associant un moteur de recherche traditionnel à une interface d’IA. Ce nouveau type de moteur de recherche a réorganisé l'expérience de recherche et a différencié Bing dans la concurrence pour les utilisateurs des moteurs de recherche. L'intégration de l'IA de Bing a initialement créé un buzz important, attirant les utilisateurs intrigués par la nouveauté d'une interface de recherche basée sur l'IA. Cela a entraîné une augmentation de l’engagement des utilisateurs de Bing. Mais après près d’un an de buzz, la part de marché de Bing n’a connu qu’une augmentation marginale. Des rapports récents, dont celui du Boston Globe, indiquent une croissance de moins de 1 % de la part de marché depuis l'introduction de Bing Chat.

La stratégie de Google est validée avec le recul

L'expérience de Bing suggère que l'IA au premier plan d'un moteur de recherche n'est peut-être pas aussi efficace qu'espéré. La modeste augmentation de la part de marché soulève des questions sur la viabilité à long terme d'un moteur de recherche basé sur le chat et valide l'approche prudente de Google concernant l'utilisation de l'IA en arrière-plan. La focalisation de Google sur l'IA en arrière-plan de la recherche est justifiée à la lumière de l'échec de Bing à inciter les utilisateurs à abandonner Google pour Bing. La stratégie consistant à garder l'IA en arrière-plan, là où elle fonctionne le mieux à l'heure actuelle, a permis à Google de conserver les utilisateurs pendant que la technologie de recherche par l'IA mûrit dans les laboratoires Google, où elle appartient. L'approche de Bing consistant à utiliser l'IA au premier plan sert désormais presque de mise en garde sur les pièges liés à la précipitation d'une technologie avant que ses avantages ne soient pleinement compris, donnant un aperçu des limites de cette approche. Ironiquement, Microsoft trouve de meilleurs moyens d'intégrer l'IA en tant que technologie d'arrière-plan sous la forme de fonctionnalités utiles ajoutées à ses produits bureautiques basés sur le cloud.

L'avenir de l'IA dans la recherche

L'état actuel de la technologie de l'IA suggère qu'elle est plus efficace en tant qu'outil prenant en charge les fonctions d'un moteur de recherche plutôt que de servir de back-end et de front-end complets à un moteur de recherche ou même d'approche hybride que les utilisateurs ont refusé d'adopter. La stratégie de Google consistant à publier de nouvelles technologies uniquement lorsqu'elles ont été entièrement testées explique pourquoi Search Generative Experience a sa place dans Google Labs. Certes, l’IA jouera un rôle plus audacieux dans la recherche, mais ce jour n’est certainement pas aujourd’hui. Attendez-vous à voir Google ajouter davantage de fonctionnalités basées sur l'IA à un plus grand nombre de ses produits et il ne serait peut-être pas surprenant de voir Microsoft poursuivre également sur cette voie. Image en vedette par Shutterstock/ProStockStudio

Tags: ,