Google hat mit der Einführung seines KI-Modus in der Suchmaschine eine neue Ära der Informationsbeschaffung eingeläutet. Diese innovative Funktion ermöglicht es Nutzern, Suchen nicht nur mit Text, sondern auch mit Bildern durchzuführen und detaillierte Antworten zu erhalten, die auf dem visuellen Inhalt basieren. Angetrieben durch die fortschrittliche Google Lens-Technologie und das leistungsstarke benutzerdefinierte Gemini 2.5 KI-Modell, das die Argumentation und das multimodale Verständnis verbessert, kann der KI-Modus die gesamte Szene eines Bildes erfassen und dabei Objekte, Materialien, Farben und Formen präzise identifizieren. Dies eröffnet völlig neue Möglichkeiten, um Informationen zu finden und zu verstehen.
Ein herausragendes Merkmal des KI-Modus ist seine Fähigkeit, komplexe Anfragen zu bearbeiten. Anstatt sich auf einfache Stichwörter zu verlassen, kann der Nutzer nun detaillierte Fragen stellen, die über die reine Textsuche hinausgehen. Beispielsweise kann ein Nutzer ein Foto eines Buches hochladen und nach ähnlichen Empfehlungen fragen. Der KI-Modus analysiert das Bild, erkennt das Buch und schlägt vergleichbare Titel mit direkten Kaufmöglichkeiten vor. Diese multimodale Herangehensweise, die Text, Sprache und Bilder kombiniert, macht die Suche intuitiver und zugänglicher. Der KI-Modus ist auch für konversationelle Verfeinerungen konzipiert, die es Nutzern ermöglichen, ihre Suche schrittweise einzugrenzen. Beispielsweise könnte ein Nutzer, der Designinspiration sucht, mit „maximalistische Schlafzimmerinspiration“ beginnen und diese mit „mehr Optionen mit dunklen Tönen und kräftigen Mustern“ verfeinern, wobei der KI-Modus den Kontext der ursprünglichen Anfrage beibehält. Über visuelle Anfragen hinaus verarbeitet der KI-Modus auch komplexe textuelle Anfragen effektiv, liefert detaillierte Antworten und erleichtert Folgefragen für eine tiefere Erkundung.
Die Integration von Google Lens ermöglicht es Nutzern, ihre Smartphone-Kamera in Echtzeit für visuelle Suchen zu nutzen. So können Fragen zu Objekten in der unmittelbaren Umgebung gestellt werden, und der KI-Modus liefert entsprechende Antworten und Vorschläge. Diese Funktion ist besonders nützlich, um die Welt um uns herum besser zu verstehen und schnell auf visuelle Informationen zuzugreifen. Der KI-Modus ist derzeit für Nutzer in den Vereinigten Staaten in englischer Sprache verfügbar und wird in den kommenden Wochen vollständig ausgerollt. Zukünftig sind auch breitere internationale Verfügbarkeit und weitere Sprachunterstützung geplant. Diese Erweiterung ist Teil von Googles fortlaufenden Bemühungen, das Sucherlebnis durch KI-Integration und multimodale Fähigkeiten zu verbessern und den Nutzern ein leistungsfähigeres und intuitiveres Werkzeug an die Hand zu geben.
Der KI-Modus ist auch in Googles Shopping Graph integriert, der über 50 Milliarden Produktlisten enthält und konversationelle Einkaufserlebnisse ermöglicht. Nutzer können gewünschte Artikel ohne traditionelle Filter beschreiben, indem sie beispielsweise nach „Barrel Jeans, die nicht zu weit sind“ fragen und die Suche weiter verfeinern, indem sie „Ich möchte mehr Knöchellänge“ angeben.
Die zugrundeliegende Technologie, wie das „Query Fan-Out“-Verfahren, ermöglicht es dem KI-Modus, eine komplexe Anfrage in mehrere Unteranfragen aufzuteilen und diese parallel zu bearbeiten. Dies führt zu einer umfassenderen und tiefergehenden Informationsbeschaffung, als es mit traditionellen Suchmethoden möglich wäre. Darüber hinaus wird die Fähigkeit zur Verarbeitung von visuellen Anfragen durch eine neue Technik namens „Visual Search Fan-Out“ erweitert, die eine detailliertere Analyse von Bildern ermöglicht und auch subtile Details und sekundäre Objekte erkennt. Dies unterstreicht Googles Engagement, die Grenzen der Informationssuche kontinuierlich zu verschieben und den Nutzern ein reichhaltigeres und kontextbezogeneres Erlebnis zu bieten.