Nvidia 發表 Alpamayo-R1:專為「實體 AI」打造的開放式 VLA 推理模型

编辑者: Veronika Radoslavskaya

在 NeurIPS 人工智慧會議上,Nvidia 正式推出了 Alpamayo-R1 (AR1) 模型,這標誌著執行長黃仁勳(Jensen Huang)策略轉向「實體 AI」的重大技術進展。實體 AI 旨在部署能夠直接控制機器與物理世界互動的智慧系統。AR1 被定位為一個開放式視覺推理語言模型,其核心目標是讓自動駕駛技術能夠擺脫僵化的預設程式規則,轉向更貼近人類的常識決策過程。此模型的推出,為研究人員在特定條件下實現第四級自動駕駛(L4 級別)提供了一條務實的研究路徑。

AR1 的技術核心突破在於其獨特的視覺-語言-動作 (VLA) 系統。這個處理流程能夠整合來自攝影機的視覺數據與自然語言輸入,並將可解釋的因果鏈推理直接嵌入到軌跡規劃之中。透過運用這種先進的推理框架,AR1 有效地應對了傳統端到端模仿學習模型在面對不可預測、攸關安全的駕駛情境時所顯現的脆弱性,因為後者在因果理解方面往往有所欠缺。AR1 不僅僅是對即時刺激做出反應,它還能系統性地評估複雜的場景,並預測其他道路使用者的動向。

在模擬測試中,這種系統化的推理方法相較於僅依賴軌跡的基準模型,在規劃準確性上取得了顯著的提升。更值得一提的是,在實際道路測試中,該模型展現了低延遲即時性能,證明了其在車載應用中的可行性。這項技術的成功,意味著 AI 在處理動態、高風險的物理環境決策時,正邁向一個更為穩健的階段。

為了加速這種架構的廣泛開發與採用,Nvidia 也在 GitHub 上同步釋出了 Cosmos Cookbook。這套詳盡的資源套件包含了開發者部署和微調基礎 Cosmos 平台所需的關鍵指南、工具和工作流程,適用範圍涵蓋機器人技術和自主系統等多元應用領域。Nvidia 透過策略性地公開模型權重與相關工具,鞏固了其作為基礎技術供應商的地位,進一步強化了其願景,即其硬體與軟體將成為下一波機器互動革命的關鍵骨幹。

來源

  • Punto Informatico

  • Nvidia Releases New AI Model Alpamayo-R1, Advancing Autonomous Driving Research

  • Nvidia Drops Alpamayo R1 As Open Source Leap Toward Level 4 Autonomy

  • NVIDIA Open Sources Reasoning Model for Autonomous Driving at NeurIPS 2025 | AIM

  • Nvidia lancia modello AI per la guida autonoma Alpamayo-R1

  • NVIDIA debuts Cosmos Reason AI model to advance physical AI and robotics

发现错误或不准确的地方吗?

我们会尽快处理您的评论。