Nvidia 發表 Alpamayo-R1:專為「實體 AI」打造的開放式 VLA 推理模型
编辑者: Veronika Radoslavskaya
在 NeurIPS 人工智慧會議上,Nvidia 正式推出了 Alpamayo-R1 (AR1) 模型,這標誌著執行長黃仁勳(Jensen Huang)策略轉向「實體 AI」的重大技術進展。實體 AI 旨在部署能夠直接控制機器與物理世界互動的智慧系統。AR1 被定位為一個開放式視覺推理語言模型,其核心目標是讓自動駕駛技術能夠擺脫僵化的預設程式規則,轉向更貼近人類的常識決策過程。此模型的推出,為研究人員在特定條件下實現第四級自動駕駛(L4 級別)提供了一條務實的研究路徑。
AR1 的技術核心突破在於其獨特的視覺-語言-動作 (VLA) 系統。這個處理流程能夠整合來自攝影機的視覺數據與自然語言輸入,並將可解釋的因果鏈推理直接嵌入到軌跡規劃之中。透過運用這種先進的推理框架,AR1 有效地應對了傳統端到端模仿學習模型在面對不可預測、攸關安全的駕駛情境時所顯現的脆弱性,因為後者在因果理解方面往往有所欠缺。AR1 不僅僅是對即時刺激做出反應,它還能系統性地評估複雜的場景,並預測其他道路使用者的動向。
在模擬測試中,這種系統化的推理方法相較於僅依賴軌跡的基準模型,在規劃準確性上取得了顯著的提升。更值得一提的是,在實際道路測試中,該模型展現了低延遲的即時性能,證明了其在車載應用中的可行性。這項技術的成功,意味著 AI 在處理動態、高風險的物理環境決策時,正邁向一個更為穩健的階段。
為了加速這種架構的廣泛開發與採用,Nvidia 也在 GitHub 上同步釋出了 Cosmos Cookbook。這套詳盡的資源套件包含了開發者部署和微調基礎 Cosmos 平台所需的關鍵指南、工具和工作流程,適用範圍涵蓋機器人技術和自主系統等多元應用領域。Nvidia 透過策略性地公開模型權重與相關工具,鞏固了其作為基礎技術供應商的地位,進一步強化了其願景,即其硬體與軟體將成為下一波機器互動革命的關鍵骨幹。
來源
Punto Informatico
Nvidia Releases New AI Model Alpamayo-R1, Advancing Autonomous Driving Research
Nvidia Drops Alpamayo R1 As Open Source Leap Toward Level 4 Autonomy
NVIDIA Open Sources Reasoning Model for Autonomous Driving at NeurIPS 2025 | AIM
Nvidia lancia modello AI per la guida autonoma Alpamayo-R1
NVIDIA debuts Cosmos Reason AI model to advance physical AI and robotics
閱讀更多有關此主題的新聞:
发现错误或不准确的地方吗?
我们会尽快处理您的评论。
