SAN FRANCISCO– Google injecte dans son moteur de recherche davantage d’intelligence artificielle qui permettra aux utilisateurs d’exprimer des questions sur les images et parfois d’organiser une page entière de résultats, malgré les offres passées d’informations trompeuses de la technologie.
Les derniers changements annoncés jeudi annoncent la prochaine étape d’une refonte basée sur l’IA que Google lancé à la mi-mai lorsqu’il a commencé à répondre à certaines requêtes avec des résumés rédigés par la technologie en haut de sa page de résultats influente. Ces résumés, baptisés « Aperçus de l’IA », ont fait craindre aux éditeurs que moins de personnes cliquent sur les liens de recherche vers leurs sites Web et réduisent le trafic nécessaire pour vendre des publicités numériques qui aident à financer leurs opérations.
Google répond à certaines de ces inquiétudes persistantes en insérant encore plus de liens vers d’autres sites Web dans les aperçus de l’IA, ce qui a déjà réduit les visites d’éditeurs d’informations générales tels que le New York Times et de spécialistes de l’analyse technologique tels que TomsGuide.com, selon à une analyse publiée le mois dernier par le spécialiste du trafic de recherche BrightEdge.
Mais la décision de Google d’injecter encore plus d’IA dans le moteur de recherche qui reste le joyau de son empire de 2 000 milliards de dollars ne laisse aucun doute sur le fait que la société de Mountain View, en Californie, lie son avenir à une technologie qui propulse le plus grand changement de l’industrie depuis qu’Apple a dévoilé le premier. iPhone il y a 17 ans.
La prochaine phase de l’évolution de l’IA de Google s’appuie sur sa fonctionnalité Lens, vieille de 7 ans, qui traite les requêtes sur les objets dans une image. L’option Lens génère désormais plus de 20 milliards de requêtes par mois, et est particulièrement appréciée des utilisateurs de 18 à 24 ans. Il s’agit d’un groupe démographique plus jeune que Google essaie de cultiver alors qu’il fait face à la concurrence des alternatives d’IA alimentées par ChatGPT et Perplexité qui se positionnent comme des moteurs de réponses.
Désormais, les gens pourront utiliser Lens pour poser une question en anglais sur quelque chose qu’ils regardent à travers l’objectif d’un appareil photo – comme s’ils en parlaient avec un ami – et obtenir des résultats de recherche. Les utilisateurs inscrits pour tester les nouvelles fonctionnalités de recherche à commande vocale de Google Labs pourront également prendre des vidéos d’objets en mouvement, tels que des poissons nageant autour d’un aquarium, tout en posant une question conversationnelle et se voir présenter une réponse via un aperçu de l’IA.
« L’objectif est de rendre la recherche plus simple à utiliser pour les gens, plus facile à utiliser et de la rendre plus disponible afin que les gens puissent effectuer des recherches de n’importe quelle manière, où qu’ils soient », a déclaré Rajan Patel, vice-président de l’ingénierie de recherche de Google et co- fondateur de la fonctionnalité Lens.
Bien que les progrès de l’IA offrent le potentiel de rendre la recherche plus pratique, la technologie crache parfois de mauvaises informations – un risque qui menace de nuire à la crédibilité du moteur de recherche de Google si les inexactitudes deviennent trop fréquentes. Google a déjà connu quelques épisodes embarrassants avec ses aperçus de l’IA, notamment conseiller aux gens de mettre de la colle sur la pizza et de manger des pierres. La société blâmé ces faux pas sur les vides de données et les fauteurs de troubles en ligne qui tentent délibérément d’orienter sa technologie d’IA dans la mauvaise direction.
Google est désormais tellement convaincu d’avoir corrigé certains des angles morts de son IA qu’il s’appuiera sur la technologie pour décider quels types d’informations présenter sur la page de résultats. Malgré ses précédents mauvais conseils culinaires sur la pizza et les rochers, l’IA sera dans un premier temps utilisée pour la présentation des résultats des requêtes en anglais sur les recettes et les idées de repas saisies sur les appareils mobiles. Les résultats organisés par l’IA sont censés être décomposés en différents groupes de clusters composés de photos, de vidéos et d’articles sur le sujet.