Google DeepMind revolutioniert Robotik mit Gemini 1.5 und ER 1.5 für fortschrittliche Autonomie
Bearbeitet von: Veronika Radoslavskaya
Google DeepMind hat am 25. September 2025 die Einführung seiner neuesten KI-Modelle, Gemini Robotics 1.5 und Gemini Robotics-ER 1.5, bekannt gegeben. Diese fortschrittlichen Systeme sollen die Autonomie, Anpassungsfähigkeit und Entscheidungsfindung von Robotern in komplexen physischen Umgebungen erheblich verbessern. Gemini Robotics 1.5 ist ein Vision-Language-Action (VLA)-Modell, das visuelle Eingaben und Anweisungen in motorische Befehle umwandelt und Robotern ermöglicht, Aufgaben wie das Sortieren von Wäsche nach Farben auszuführen. Eine bemerkenswerte Funktion ist die Übertragung erlernter Bewegungen über verschiedene Roboterplattformen hinweg, was die Entwicklung und den Einsatz von Robotern beschleunigen dürfte. Das Modell "denkt, bevor es handelt" und macht seine Entscheidungsprozesse transparent, was eine genauere Einschätzung und Ausführung komplexer Aufgaben ermöglicht.
Gemini Robotics-ER 1.5 hingegen ist ein Embodied Reasoning (ER)-Modell, das sich auf das Verständnis physischer Räume und die Planung mehrstufiger Aufgaben spezialisiert. Dieses Modell kann auf externe Werkzeuge wie die Google-Suche zugreifen, um Informationen zu sammeln, und benutzerdefinierte Funktionen nutzen. Es ist in der Lage, komplexe Anfragen zu verstehen und detaillierte, mehrstufige Pläne zu erstellen, um eine Mission zu erfüllen. Die beiden Modelle sind darauf ausgelegt, kollaborativ zu arbeiten, wobei das ER-Modell die Aktionen orchestriert und das VLA-Modell diese ausführt.
Diese Weiterentwicklungen stellen einen bedeutenden Schritt in Richtung der Schaffung von Allzweckrobotern dar, die in der Lage sind, die Komplexität der physischen Welt mit Intelligenz und Geschicklichkeit zu meistern. Die Modelle ermöglichen es Robotern, über reine Befehlsausführung hinauszugehen und stattdessen zu schlussfolgern, zu planen und sich anzupassen. Die Verfügbarkeit von Gemini Robotics-ER 1.5 über die Gemini API im Google AI Studio soll Entwicklern die Innovation und breitere Akzeptanz fördern. Während Gemini Robotics 1.5 zunächst ausgewählten Partnern zur Verfügung steht, signalisiert die allgemeine Ausrichtung eine schrittweise Einführung, die auf eine Zukunft hindeutet, in der Roboter integriertere und fähigere Partner bei physischen Aufgaben sind.
Die neuen Gemini Robotics-Modelle bauen auf den ursprünglichen Versionen auf, die im März 2025 eingeführt wurden und damals nur einzelne Aufgaben ausführen konnten. Die Fähigkeit, Gelerntes über verschiedene Roboter hinweg zu übertragen, ist ein entscheidender Fortschritt, da sie die Notwendigkeit einer umfangreichen Neuprogrammierung für jede neue Hardwarekonfiguration reduziert. Dies beschleunigt die allgemeine Lernfähigkeit und Vielseitigkeit von Robotern erheblich. Die Integration von Werkzeugen wie der Google-Suche ermöglicht es Robotern beispielsweise, standortspezifische Recyclingregeln online nachzuschlagen, um Abfall korrekt zu sortieren. Diese Fortschritte sind entscheidend für die Entwicklung intelligenterer und vielseitigerer Roboter, die ihre Umgebungen aktiv verstehen und komplexe, mehrstufige Aufgaben auf allgemeine Weise bewältigen können.
Quellen
Silicon Republic
Google DeepMind Unveils Gemini Robotics 1.5 and ER 1.5 Models
Gemini Robotics - Google DeepMind
Gemini Robotics-ER 1.5 | Gemini API | Google AI for Developers
Weitere Nachrichten zu diesem Thema lesen:
Googles Gemini integriert SynthID und C2PA zur Demokratisierung der KI-Herkunftsnachverfolgung
Alibaba stürmt mit Quark AI-Brillen in den Smart-Glasses-Markt und setzt auf ganztägige Akkulaufzeit
Perplexity führt Gedächtnisfunktion für KI-Assistenten ein und personalisiert den Kontext über Modellgrenzen hinweg
Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?
Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.
