英伟达发布Alpamayo-R1:面向“物理AI”的开放式VLA推理模型
编辑者: Veronika Radoslavskaya
在NeurIPS人工智能会议上,英伟达(Nvidia)正式推出了Alpamayo-R1(AR1)模型。此举标志着其在首席执行官黄仁勋所倡导的“物理AI”战略转型中迈出了关键技术一步。“物理AI”旨在部署能够直接指导机器与物理世界进行交互的智能系统。AR1被定位为一个开放的视觉推理语言模型,其核心目标是帮助自动驾驶技术摆脱僵化的预设规则,转而采用更接近人类的常识性决策制定流程。该模型的推出,为致力于实现L4级别自动驾驶(在特定条件下完全自动驾驶)的研究人员展示了一条切实可行的路径。
AR1在技术上的核心突破在于其视觉-语言-动作(VLA)系统。该系统能够处理来自摄像头的视觉数据以及自然语言输入,并将可解释的因果链推理直接整合到轨迹规划过程中。通过采用这种先进的推理框架,AR1有效应对了传统端到端模仿学习模型固有的脆弱性,尤其是在不可预测且对安全性要求极高的驾驶场景中,这些场景往往缺乏充分的因果理解。AR1不再仅仅是对即时刺激做出反应,而是能够评估复杂情况并预判其他道路使用者的动态。
这种系统化的推理方法在复杂的模拟测试中取得了显著成效。与单纯依赖轨迹的基准模型相比,AR1在规划准确性方面实现了显著提升。更重要的是,在实际的车辆道路测试中,该模型展现出了实时性能和低延迟的运行能力,这对于实际部署至关重要。
为了促进这种架构的广泛开发和采纳,英伟达同时在GitHub上发布了Cosmos Cookbook。这一内容详尽的资源包提供了关键指南、工具和工作流程,旨在协助开发者在包括机器人技术和自主系统在内的多种应用场景中,部署和微调其基础的Cosmos平台。通过战略性地公开发布模型的权重和相关工具,英伟达巩固了其作为基础技术提供商的地位,并强化了其愿景:即其软硬件将成为下一轮机器交互革命浪潮中不可或缺的支柱。
来源
Punto Informatico
Nvidia Releases New AI Model Alpamayo-R1, Advancing Autonomous Driving Research
Nvidia Drops Alpamayo R1 As Open Source Leap Toward Level 4 Autonomy
NVIDIA Open Sources Reasoning Model for Autonomous Driving at NeurIPS 2025 | AIM
Nvidia lancia modello AI per la guida autonoma Alpamayo-R1
NVIDIA debuts Cosmos Reason AI model to advance physical AI and robotics
阅读更多关于该主题的新闻:
你发现了错误或不准确的地方吗?
我们会尽快考虑您的意见。
