![]()
在2026年CES的聚光灯下,黄仁勋没有仅仅谈论芯片的算力,而是描绘了一个即将被智能体深度融入的现实世界。
“AI的第二个拐点已经到来——从理解语言到理解物理世界,从软件智能体到具身智能体”。
当地时间1月5日,英伟达CEO黄仁勋身穿标志性皮衣登台,围绕“物理AI”展开了一场90分钟的主题演讲。
![]()
英伟达CEO黄仁勋
他指出,物理AI不仅涵盖视觉与语言理解,更融合重力、摩擦、惯性等物理动态,能够在真实世界中执行复杂任务,未来将重塑全球1000万家工厂与20万个仓库的运作模式。
这一愿景背后,依托三大技术支撑:Newton物理引擎,实时计算物理世界模型,响应时间低于0.01秒,适用于机器人及自动驾驶场景;Cosmos基础模型平台,支持多模态物理世界理解,已训练1000亿参数,推理延迟降至1毫秒;GPU+LPU混合算力架构,GPU负责训练,LPU专注低延迟推理,效率提升100倍,成本降低90%。
黄仁勋强调:“AI的价值不再仅由算力决定,而由场景定义。物理世界正是AI最大的应用场景。”
为此,英伟达将持续提供算力基石,并在自动驾驶、机器人等领域推动开源产品落地。黄仁勋指出,“开放模型已触及前沿,虽然仍稳固地落后前沿模型六个月,但每隔六个月,一个新的模型就会出现。英伟达不仅开源模型,还将开源训练数据,让开发者真正理解模型的构建过程。”
01
Rubin架构正式登场,下半年量产
任何技术革命都离不开底层算力的支撑。“我们必须每年推动计算技术向前进步,一刻也不能延迟。”发布会上,黄仁勋正式发布了英伟达下一代AI数据中心机柜架构——Vera Rubin。
该架构命名致敬天文学家Vera Rubin,她在暗物质研究领域取得了突破性进展,其研究成果彻底改变了人类对宇宙的认知。
![]()
而这,也是每一代英伟达GPU架构的命名习惯。
黄仁勋此次披露了Rubin架构的更多细节:它由六类芯片构成,包括Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4数据处理单元和Spectrum-6以太网交换机,共同组成Vera Rubin NVL72机架。
![]()
作为首款定制CPU+GPU协同设计的产品,采用台积电2nm工艺,集成了Rubin GPU与专为智能体推理打造的Vera CPU,算力实现显著跃升。
Rubin架构包含3360亿个晶体管,NVFP4数据类型下,Rubin GPU推理性能达到50 PFLOPS,是Blackwell GB200的5倍;NVFP4训练性能高达35 PFLOPS,是Blackwell的3.5倍。
![]()
为满足庞大的计算资源需求,每款Rubin GPU都配备了8个HBM4显存堆栈,提供288GB的容量和22 TB/s的带宽。
与此同时,随着大型语言模型从激活所有参数以生成给定输出词元的密集架构,转向每个词元仅激活部分可用参数的专家混合(MoE)架构,这些模型的扩展效率得以相对提高。然而,模型内部专家之间的通信需要大量的节点间带宽。
为此,Vera Rubin数据中心架构引入了用于规模内扩展网络的NVLink 6,将单GPU的互连带宽提升至3.6 TB/s(双向)。每颗NVLink 6交换芯片提供28 TB/s的带宽,而每个Vera Rubin NVL72机架配备9颗这样的交换芯片,总规模内带宽达到260 TB/s。
![]()
NVIDIAVera CPU集成了88个定制的Olympus Arm核心,采用“spatial multi-threading”(空间多线程)设计,最多可同时运行176个线程。用于将Vera CPU与Rubin GPU进行一致性连接的NVLink C2C互连,其带宽提升了一倍,达到1.8 TB/s。每颗Vera CPU可寻址最多1.5 TB的SOCAMM LPDDR5X内存,内存带宽最高可达1.2 TB/s。
为了将Vera Rubin NVL72机架扩展为每组包含八个机架的DGX SuperPod,英伟达推出了两款采用Spectrum-6芯片的Spectrum-X以太网交换机,每颗Spectrum-6芯片可提供102.4 Tb/s的带宽,Nvidia将其应用于两款交换机中。
![]()
据黄仁勋介绍,每个Vera Rubin NVL72机架可提供3.6 exaFLOPS的NVFP4推理性能、2.5 exaFLOPS的NVFP4训练性能,连接至Vera CPU的54 TBLPDDR5X内存,以及20.7 TB的HBM4内存,带宽达1.6 PB/s。
“与Blackwell相比,Vera Rubin在训练MoE模型时所需的GPU数量仅为四分之一;在MoE推理场景下,其每token成本最高可降低10倍”。黄仁勋表示,Rubin能在相同机架空间内大幅提升训练速度,并输出更多token。
他透露,Rubin系列芯片已经全面投产,并将于今年下半年推出,重要应用于物理AI训练、机器人模拟、自动驾驶仿真等领域,其订单规模已达3000亿美元,微软下一代Fairwater AI超级工厂、CoreWeave等将成为首批应用者。
除了发布新产品,黄仁勋也公布了一些“老朋友”的进展:Blackwell Ultra量产加速,2026年Q2全面供货,单机算力提升50%的同时功耗降低30%,适配机器人边缘计算场景。
02
从自动驾驶到机器人,构建开放技术栈
芯片是算力的基石,场景则是“物理AI”的价值所在。其中,自动驾驶是核心落地场景之一。
在黄仁勋看来,当前辅助驾驶系统在应对“长尾场景”时仍面临挑战。传统将感知与规划分离的辅助驾驶架构,在突发或异常情况下存在泛化与可解释性不足的问题。
为此,英伟达发布首个专为自动驾驶汽车设计的“推理”AI:Alpamayo,这是一个新系列的开放模型、模拟工具和数据集,专为基于推理的驾驶系统而设计。该系列引入基于思维链的VLA(Vision-Language-Action)推理模型,用于对复杂驾驶场景进行逐步推演和逻辑表达,以提升决策透明度。
![]()
Alpamayo系列包括三部分:
一是Alpamayo1,一款约100亿参数规模的思维链推理模型,已在Hugging Face上开源,以使汽车能够理解周围环境并解释其行动,用于研究、模型蒸馏及开发辅助工具。
二是AlpaSim,一套完全开源的端到端辅助驾驶仿真框架,已在GitHub发布,支持在多种环境和边缘案例中进行闭环训练和评估。
三是物理AI开放数据集,包含超过1700小时的真实道路驾驶数据,覆盖不同区域和环境条件,并包含一定比例的复杂和罕见场景。
这些工具共同构成了一个自我强化的开发闭环,助力构建基于推理的自动驾驶技术栈。
不过,Alpamayo模型并非直接在车端运行,而是作为大规模的“教师模型”。开发者可以对其进行微调和蒸馏,转化为各自完整自动驾驶技术栈的核心骨架。黄仁勋指出,Alpamayo系列为一个内聚的开放生态系统,任何汽车开发商或研究团队都可以在此基础上进行开发。
![]()
据黄仁勋透露,Alpamayo将率先搭载于2025款梅赛德斯-奔驰CLA车型,后续通过OTA升级逐步推送高速公路脱手驾驶、城市全场景自动驾驶、端到端自动泊车等功能,并逐步登陆美、欧、亚市场。“Lucid、捷豹路虎、Uber和DeepDrive等企业也希望基于Alpamayo实现L4级自动驾驶。”
有意思的是,知名特斯拉投资者Sawyer Merritt分享了英伟达发布会视频和相关细节,指出Alpamayo将率先搭载梅赛德斯CLA。特斯拉CEO马斯克很快回复道:“这正是特斯拉正在做的。他们会发现,达到99%很容易,但解决分布的长尾问题超级难。”
此外,黄仁勋还指出,升级后的Drive Thor算力达到2000TOPS,已斩获15+车企订单,将于2027年量产。
![]()
“我们的愿景是,未来有一天,每一辆汽车、每一辆卡车都将实现自动驾驶。”黄仁勋指出,自动驾驶汽车的时代已经全面到来,自动驾驶汽车将成为“首个大规模的、面向主流市场”的物理AI应用场景。
除了自动驾驶以外,具身智能也是物理AI的一大应用市场。英伟达为机器人推出的“大脑”Cosmos也再度升级,它主要被用来生成符合现实世界物理规律的合成数据。
![]()
此次Cosmos主要升级了三部分。
CosmosTransfer 2.5和Cosmos Predict 2.5:开源、完全可定制的世界模型,为物理AI实现基于物理原理的合成数据生成与机器人策略评估的仿真支持。
Cosmos Reason 2:开源推理视觉语言模型(VLM),使智能机器能够像人类一样看见、理解物理世界并采取行动。
IsaacGR00T N1.6:专为人形机器人打造的开放式推理视觉语言行动(VLA)模型,可解锁全身控制能力,并借助Cosmos Reason增强推理和上下文理解。
从重新定义算力极限的Rubin架构,到为自动驾驶注入思维链的Alpamayo,机器人“大脑”Cosmos升级,英伟达的战略图谱清晰显现:它正致力于成为智能体理解并行动于物理世界的“使能层”。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.