CES 2026|英伟达加速机器人与自动驾驶布局

2026-01-11 19:31:23
关注
摘要 CES 2026 英伟达首席执行官黄仁勋主题演讲中,有关自动驾驶和机器人的部分,我们单独拿出来讨论下。主要的核心要点:英伟达首款全栈自动驾驶汽车将于 2026 年第一季度在美国上路测试。
html

CES 2026|英伟达加速机器人与自动驾驶布局

在即将于2026年举办的国际消费电子展(CES)上,英伟达展示了其在自动驾驶与机器人技术领域的最新进展。该公司计划在2026年第一季度在美国启动全栈自动驾驶汽车的实地测试,并于2027年与合作伙伴共同推出L4级自动驾驶出租车(Robotaxi)服务,实现特定区域内的无干预运行。

这一战略目标是将自动驾驶业务打造为继AI之后的第二大增长引擎。L4级自动驾驶依托于基础模型、端到端架构和推理模型等AI核心技术,使其能够应对复杂的道路环境。初期测试将采取“有限开放”模式,英伟达亦不再局限于芯片和软件的供应,而是积极向自动驾驶车队运营方向拓展。

英伟达CEO黄仁勋指出,机器人技术与自动驾驶是仅次于AI的重要增长领域。他设想,未来将有十亿辆自动驾驶车辆上路,涵盖个人所有和租赁运营两种形式。

双系统架构:提升自动驾驶安全性

在算法层面,英伟达采用了“双系统”安全策略:一套基于“端到端”视觉语言模型的AI系统,负责感知环境与路径规划;另一套则是严格规则驱动的“安全栈”,用于在AI决策存在不确定性时(例如识别停止标志)强制接管车辆,从而保障行驶安全。

2026年底,英伟达计划使奔驰车型具备城市导航能力,并在2028年实现消费级车辆的“点对点”自动驾驶。长远目标则是借助生成式AI技术,使汽车具备类似人类的交互与驾驶能力。

物理AI的“ChatGPT时刻”即将到来

在机器人领域,黄仁勋提出一个关键判断:物理AI正迎来类似自然语言处理领域的“ChatGPT时刻”。当前,物理世界的复杂性极高,而真实世界数据的采集成本高、效率低,无论投入多少都难以满足需求。因此,合成数据不再是可有可无的辅助手段,而是成为不可或缺的路径。

围绕这一趋势,英伟达推出了Cosmos——一个用于理解和生成物理世界视频的平台,以及面向机器人和自动驾驶的基础模型体系,包括机器人通用模型Isaac GR00T和视觉-语言-行动模型Alpamayo。

这些开源的物理AI模型基于大量视频、真实驾驶和机器人数据,并结合3D仿真进行预训练,旨在理解“世界是如何运转”的,同时将语言、图像、三维结构和动作行为统一纳入同一模型框架。

  • Cosmos:展现了物理AI能力的上限,具备生成内容、进行物理推理的能力,例如仅凭一张图像预测运动轨迹,或基于3D场景生成逼真视频。
  • Alpamayo:专为自动驾驶设计,是首个开源的视觉-语言-行动(VLA)推理模型。

与以往仅开放算法或代码不同,此次英伟达直接提供了从数据、训练到部署的完整开发资源,构建了一个“推理型”自动驾驶模型。

传统自动驾驶系统通常基于“感知-规划-控制”的流水线逻辑,执行预设规则,如识别红灯则刹车、检测行人则减速。而Alpamayo则能够进行复杂场景中的因果推理,理解其他交通参与者的意图并完成多步决策。

例如,在十字路口,Alpamayo不仅能识别“前方有一辆车”,还能进一步判断“那辆车可能要左转,因此我应该等待它先行通过”,迈向更接近人类思维的自动驾驶。

黄仁勋在CES上宣布,英伟达DRIVE系统已进入量产阶段。首款应用该系统的车型是全新梅赛德斯-奔驰CLA,计划于2026年在美国上路。该车将搭载L2++级自动驾驶系统,采用“端到端AI模型+传统流水线”的混合架构。

全球机器人企业依托英伟达平台开发产品

Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics和XRlabs等全球领先机器人公司,正在基于英伟达Isaac平台和GR00T基础模型开发各类产品。

从人形机器人、双足与轮式服务机器人,到工业机械臂、工程机械、无人机和手术辅助设备,不同形态与用途的机器人正广泛采用物理AI技术,结合RubinAI计算平台与推理上下文内存存储平台,以及英伟达开源AI“全家桶”解决方案。

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

广告
提取码
复制提取码
点击跳转至百度网盘