Google hat seine neue Funktion "Search Live" in den Vereinigten Staaten für alle englischsprachigen Nutzer der Google App auf Android und iOS eingeführt. Diese Neuerung wandelt die traditionelle Textsuche in ein dynamisches, dialogorientiertes Erlebnis um, das die Nutzung von Stimme und Kamera des Smartphones ermöglicht. Search Live basiert auf einer benutzerdefinierten Version des Gemini-KI-Modells von Google und ermöglicht Nutzern, Fragen zu stellen und KI-generierte, konversationelle Antworten zu erhalten.
Die Kernfunktionalität von Search Live erlaubt es Nutzern, in Echtzeit mit der Google Suche zu interagieren. Dies geschieht durch natürliche Sprachbefehle, auf die die KI mit Audioantworten reagiert, was eine freihändige Bedienung ermöglicht. Der Dialog bleibt offen, sodass Folgefragen gestellt werden können, wobei der Kontext der gesamten Unterhaltung erhalten bleibt. Ergänzend werden relevante Weblinks angezeigt, die zu tiefergehenden Informationen führen.
Ein wesentlicher Fortschritt ist die nahtlose Integration der Kamerafunktion. Nutzer können ihre Smartphone-Kamera aktivieren, um Google Search visuelle Informationen zu liefern. Dies eröffnet vielfältige Anwendungsmöglichkeiten, wie die Identifizierung unbekannter Objekte, das Verständnis komplexer Anleitungen oder die Hilfe bei alltäglichen Aufgaben. Die KI kann die visuelle Umgebung interpretieren und entsprechend reagieren, was eine multimodale Herangehensweise darstellt. Diese visuelle Suchfunktion ist auch in Google Lens integriert, wobei die Kamerateilung standardmäßig aktiviert ist, wenn die Option "Live" ausgewählt wird.
Search Live repräsentiert eine tiefgreifende Veränderung in der Interaktion mit digitalen Informationen. Indem Google die Suche von einer reinen Frage-Antwort-Sitzung in ein fortlaufendes Gespräch umwandelt, fördert das Unternehmen eine tiefere Auseinandersetzung mit Themen und ermutigt zur Entdeckung neuer Verbindungen zwischen Informationen.