Google DeepMind revolutioniert Robotik mit Gemini 1.5 und ER 1.5 für fortschrittliche Autonomie

Bearbeitet von: Veronika Radoslavskaya

Google DeepMind hat am 25. September 2025 die Einführung seiner neuesten KI-Modelle, Gemini Robotics 1.5 und Gemini Robotics-ER 1.5, bekannt gegeben. Diese fortschrittlichen Systeme sollen die Autonomie, Anpassungsfähigkeit und Entscheidungsfindung von Robotern in komplexen physischen Umgebungen erheblich verbessern. Gemini Robotics 1.5 ist ein Vision-Language-Action (VLA)-Modell, das visuelle Eingaben und Anweisungen in motorische Befehle umwandelt und Robotern ermöglicht, Aufgaben wie das Sortieren von Wäsche nach Farben auszuführen. Eine bemerkenswerte Funktion ist die Übertragung erlernter Bewegungen über verschiedene Roboterplattformen hinweg, was die Entwicklung und den Einsatz von Robotern beschleunigen dürfte. Das Modell "denkt, bevor es handelt" und macht seine Entscheidungsprozesse transparent, was eine genauere Einschätzung und Ausführung komplexer Aufgaben ermöglicht.

Gemini Robotics-ER 1.5 hingegen ist ein Embodied Reasoning (ER)-Modell, das sich auf das Verständnis physischer Räume und die Planung mehrstufiger Aufgaben spezialisiert. Dieses Modell kann auf externe Werkzeuge wie die Google-Suche zugreifen, um Informationen zu sammeln, und benutzerdefinierte Funktionen nutzen. Es ist in der Lage, komplexe Anfragen zu verstehen und detaillierte, mehrstufige Pläne zu erstellen, um eine Mission zu erfüllen. Die beiden Modelle sind darauf ausgelegt, kollaborativ zu arbeiten, wobei das ER-Modell die Aktionen orchestriert und das VLA-Modell diese ausführt.

Diese Weiterentwicklungen stellen einen bedeutenden Schritt in Richtung der Schaffung von Allzweckrobotern dar, die in der Lage sind, die Komplexität der physischen Welt mit Intelligenz und Geschicklichkeit zu meistern. Die Modelle ermöglichen es Robotern, über reine Befehlsausführung hinauszugehen und stattdessen zu schlussfolgern, zu planen und sich anzupassen. Die Verfügbarkeit von Gemini Robotics-ER 1.5 über die Gemini API im Google AI Studio soll Entwicklern die Innovation und breitere Akzeptanz fördern. Während Gemini Robotics 1.5 zunächst ausgewählten Partnern zur Verfügung steht, signalisiert die allgemeine Ausrichtung eine schrittweise Einführung, die auf eine Zukunft hindeutet, in der Roboter integriertere und fähigere Partner bei physischen Aufgaben sind.

Die neuen Gemini Robotics-Modelle bauen auf den ursprünglichen Versionen auf, die im März 2025 eingeführt wurden und damals nur einzelne Aufgaben ausführen konnten. Die Fähigkeit, Gelerntes über verschiedene Roboter hinweg zu übertragen, ist ein entscheidender Fortschritt, da sie die Notwendigkeit einer umfangreichen Neuprogrammierung für jede neue Hardwarekonfiguration reduziert. Dies beschleunigt die allgemeine Lernfähigkeit und Vielseitigkeit von Robotern erheblich. Die Integration von Werkzeugen wie der Google-Suche ermöglicht es Robotern beispielsweise, standortspezifische Recyclingregeln online nachzuschlagen, um Abfall korrekt zu sortieren. Diese Fortschritte sind entscheidend für die Entwicklung intelligenterer und vielseitigerer Roboter, die ihre Umgebungen aktiv verstehen und komplexe, mehrstufige Aufgaben auf allgemeine Weise bewältigen können.

Quellen

  • Silicon Republic

  • Google DeepMind Unveils Gemini Robotics 1.5 and ER 1.5 Models

  • Gemini Robotics - Google DeepMind

  • Gemini Robotics-ER 1.5 | Gemini API | Google AI for Developers

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.