Google redéfinit l'expérience de recherche avec le lancement de son Mode IA, une fonctionnalité désormais disponible pour tous aux États-Unis. Cette évolution majeure intègre des capacités d'intelligence artificielle avancées pour comprendre et répondre à des requêtes complexes, qu'elles soient textuelles, vocales ou visuelles. Le Mode IA s'appuie sur le modèle Gemini 2.5 de Google, capable d'analyser une scène entière d'une image pour fournir des réponses riches et contextuelles, dépassant la simple correspondance de mots-clés. Les utilisateurs peuvent désormais télécharger une image et demander des recommandations similaires, le Mode IA analysant le contenu pour suggérer des titres comparables avec des liens d'achat directs.
Cette approche multimodale, combinant Google Lens et Gemini 2.5, permet une exploration visuelle plus naturelle et intuitive. La technologie "visual search fan-out" décompose une image pour exécuter plusieurs requêtes en arrière-plan, assurant une analyse exhaustive des détails. Cette avancée technologique promet une découverte de contenu plus précise et personnalisée.
Les implications pour les consommateurs sont considérables, notamment dans le domaine du shopping. Grâce au "Shopping Graph" de Google, qui actualise plus de 2 milliards d'offres de produits chaque heure, les utilisateurs peuvent décrire leurs recherches de manière conversationnelle. Le Mode IA présente les produits avec des détails tels que les avis, les promotions et la disponibilité, provenant de détaillants du monde entier. Initialement lancé en anglais pour les utilisateurs américains, cette fonctionnalité sera déployée à l'international dans les prochaines semaines. Google continue ainsi d'affiner son écosystème de recherche, plaçant l'IA au cœur de l'expérience utilisateur pour un outil plus puissant et intuitif, répondant aux besoins d'exploration, de planification et d'achat.