英伟达在2026年CES上宣布“实体AI的ChatGPT时刻”:携手Alpamayo与Vera Rubin引领新时代
编辑者: Veronika Radoslavskaya
在2026年国际消费电子展(CES)上,英伟达(Nvidia)首席执行官黄仁勋掷地有声地宣告,整个行业已经迈入了“实体人工智能的ChatGPT时刻”。这标志着一个关键的转折点,即自主系统将具备在真实世界中进行推理和决策的能力。本次发布会的重头戏是推出了Alpamayo开源视觉-语言-动作(VLA)模型系列,以及专为下一代机器人技术和自动驾驶车辆提供海量算力支持的Vera Rubin超级计算机平台。
Alpamayo:为自动驾驶提供开源推理能力
Alpamayo 1模型是本次发布的核心亮点之一。作为一个拥有100亿参数的VLA模型,它的设计目标是帮助开发者攻克驾驶场景中的“长尾问题”——那些传统AI算法难以有效应对的复杂、罕见的边缘案例。
- 思维链推理集成:Alpamayo 1内建了强大的推理机制,使其不仅能处理视觉数据并生成行车轨迹,还能为其所做出的决策提供清晰的逻辑依据。
- “教师模型”策略:需要强调的是,Alpamayo并非直接作为消费级汽车的运行时“主脑”,而是扮演一个强力的“教师”角色,用于训练和验证面向量产的自动驾驶(AV)堆栈。
- 开放生态加速发展:为了加速自动驾驶技术的迭代,英伟达已将Alpamayo 1的模型权重在Hugging Face平台上公开发布。此外,配套的AlpaSim仿真框架和Physical AI Open Datasets(包含超过1700小时的多样化驾驶数据)也一同开放,构建了一个开放的生态系统。
梅赛德斯-奔驰与MB.OS的深度融合
英伟达与梅赛德斯-奔驰的合作迈入了新的里程碑,即将推出的CLA车型将成为首款集成英伟达全栈自动驾驶解决方案并深度嵌入MB.OS平台的量产汽车。这标志着双方战略联盟的深化。
- 全球部署计划:该项技术的首次投放市场定于美国市场,随后将逐步扩展至全球其他地区。
- 可扩展的AI能力:此次合作充分利用了英伟达端到端的底层基础设施,通过借鉴和应用从Alpamayo模型中获得的洞察,显著提升量产车型的安全性和自主驾驶性能。
Vera Rubin:驱动AI工业革命的基础设施
为了支撑这些前沿的AI发展,英伟达正式揭晓了作为Blackwell架构继任者的Vera Rubin超级计算机平台。这套基础设施是实现大规模实体AI训练和部署的关键。
- 架构与性能飞跃:该平台集成了Vera CPU和Rubin GPU。其核心的NVL72机架系统专为极端的推理和训练负载设计,Rubin GPU能够提供高达50 PFLOPS的NVFP4计算能力,相较于前代产品,推理性能提升了五倍之多。
- 效率的指数级提升:Vera Rubin平台在处理专家混合模型(MoE)时展现出更高的效率,预计可实现每Token推理成本降低十倍的目标,极大地降低了AI服务的经济门槛。
- AI超级工厂的部署:微软已被确认为关键合作伙伴,将基于Rubin NVL72架构部署Fairwater AI超级工厂,目标是将整个数据中心视为一个统一的计算单元进行管理和运营。
拓展机器人技术的前沿疆界
英伟达的“实体AI”战略远不止于自动驾驶领域,它还涵盖了面向人形及工业机器人的Cosmos和GR00T框架。通过提供标准化的开源模型以及Vera Rubin平台提供的强大硬件支撑,英伟达正致力于为所有具身智能——从复杂的物流操作到日常的消费服务机器人——奠定坚实的基础设施。
21 查看
来源
telex
Frenchweb
NVIDIA
NDTV
Korea JoongAng Daily
NVIDIA
The Tech Buzz
TechRadar
FXStreet
MK
Engadget
阅读更多关于该主题的新闻:
你发现了错误或不准确的地方吗?
我们会尽快考虑您的意见。
