La nouvelle capacité de recherche multiple fait partie des tentatives continues de Google d’utiliser l’IA pour créer des expériences d’information véritablement conversationnelles, multimodales et individualisées. La capacité de recherche multiple est intégrée à Google Lens, l’outil de reconnaissance d’images disponible via l’application Google. Pour le moment, l’outil n’est accessible qu’en version bêta pour les utilisateurs aux États-Unis effectuant une recherche avec du texte en anglais. Il est également optimisé pour les recherches d’achats. Source : https://blog.google/products/search/multisearch/ On peut utiliser la multi-recherche pour poser une question sur un objet ou pour affiner la recherche par couleur, marque ou aspect visuel. Essayez-le en utilisant Lens pour :
/li>/li>
Ensuite, glissez vers le haut et appuyez sur le bouton « + Ajouter à votre recherche » pour ajouter du texte. Google a affirmé qu’il envisageait également d’améliorer la fonction en utilisant MUM (Multitask Unified Model), le dernier modèle d’IA de Google. Le géant de la technologie a récemment révélé comment il utilise MUM et d’autres modèles d’IA pour transmettre plus efficacement des informations sur l’aide de crise à ceux qui en ont besoin. Références:
- https://blog.google/products/search/multisearch/
- https://www.zdnet.com/article/googles-multisearch-feature-lets-you-search-with-text-and-images-at-the-same-time/