Nvidia prezentuje Alpamayo-R1: Otwarty model rozumowania VLA dla „Fizycznej Sztucznej Inteligencji”

Edytowane przez: Veronika Radoslavskaya

Firma Nvidia oficjalnie zaprezentowała model Alpamayo-R1 (AR1) podczas konferencji AI NeurIPS. Wydarzenie to stanowi kluczowy krok techniczny w strategicznym zwrocie dyrektora generalnego Jensena Huanga w kierunku „Fizycznej Sztucznej Inteligencji”. Koncepcja ta zakłada wdrażanie inteligencji, która bezpośrednio steruje maszynami wchodzącymi w interakcję ze światem fizycznym. AR1 jest promowany jako otwarty wizualno-językowy model rozumowania, którego celem jest umożliwienie autonomicznej jeździe wyjścia poza sztywne, z góry zaprogramowane reguły. Ma to prowadzić do procesu decyzyjnego bardziej zbliżonego do ludzkiego, opartego na zdrowym rozsądku. Model ten ma zademonstrować praktyczną ścieżkę dla badań dążących do osiągnięcia Poziomu 4 autonomii (pełna samokierowalność w określonych warunkach).

Sedno przełomu technologicznego tkwi w systemie Vision-Language-Action (VLA), który stanowi rdzeń AR1. Ten potok przetwarzania danych analizuje dane wizualne pochodzące z kamer równolegle z danymi wejściowymi w języku naturalnym. Co istotne, integruje on interpretowalny mechanizm rozumowania typu Łańcuch Przyczynowości bezpośrednio z planowaniem trajektorii. Dzięki zastosowaniu tej zaawansowanej struktury rozumowania, AR1 skutecznie radzi sobie z problemem kruchości tradycyjnych modeli uczenia przez naśladowanie typu end-to-end. Problem ten ujawnia się zwłaszcza w nieprzewidywalnych, krytycznych dla bezpieczeństwa sytuacjach drogowych, gdzie rozumienie przyczynowo-skutkowe jest często ograniczone.

Zamiast jedynie reagować na bieżące bodźce, model AR1 jest zdolny do oceny złożonych scenariuszy i przewidywania ruchów innych uczestników ruchu drogowego. To systematyczne podejście oparte na rozumowaniu zaowocowało znaczącą poprawą dokładności planowania w porównaniu do bazowych modeli opartych wyłącznie na trajektorii, co wykazano w wymagających symulacjach. Jednocześnie, podczas testów drogowych przeprowadzanych w pojazdach, model zademonstrował wydajność w czasie rzeczywistym przy niskich opóźnieniach. To dowód na to, że teoria przekłada się na praktyczne, szybkie działanie w warunkach drogowych.

Aby wspierać szeroki rozwój i adaptację tej architektury, Nvidia równolegle udostępniła na platformie GitHub Cosmos Cookbook. Ten kompleksowy pakiet zasobów zawiera niezbędne przewodniki, narzędzia i przepływy pracy, które mają pomóc deweloperom we wdrażaniu i dostrajaniu podstawowej platformy Cosmos. Zastosowania obejmują szeroki wachlarz dziedzin, w tym robotykę i systemy autonomiczne. Poprzez strategiczne udostępnienie wag modelu i narzędzi, Nvidia umacnia swoją pozycję jako dostawca technologii fundamentalnych. Wzmacnia to ambicje firmy, by jej sprzęt i oprogramowanie stały się niezbędnym kręgosłupem dla nadchodzącej rewolucyjnej fazy interakcji maszyn.

Źródła

  • Punto Informatico

  • Nvidia Releases New AI Model Alpamayo-R1, Advancing Autonomous Driving Research

  • Nvidia Drops Alpamayo R1 As Open Source Leap Toward Level 4 Autonomy

  • NVIDIA Open Sources Reasoning Model for Autonomous Driving at NeurIPS 2025 | AIM

  • Nvidia lancia modello AI per la guida autonoma Alpamayo-R1

  • NVIDIA debuts Cosmos Reason AI model to advance physical AI and robotics

Czy znalazłeś błąd lub niedokładność?

Rozważymy Twoje uwagi tak szybko, jak to możliwe.