![]()
编辑|晓楠、杜伟、泽南
「每隔 10 到 15 年,计算行业就会革新一次,每次都会催生出新形态的平台。现在,有两个转变在同时进行:应用将会构建于 AI 之上,你构建软件的方式也将改变。」
就在今天凌晨,在拉斯维加斯 CES 2026 展会现场,英伟达创始人黄仁勋身穿经典皮衣现身!

黄仁勋展示的第一张幻灯片是:「人工智能的发展超越了大型语言模型。」
随着大语言模型技术的进步,未来的物理世界 AI 将可以理解真实世界的结构,独立完成任务,并随着时间的推移进行学习。他表示,「宇宙中任何存在信息、任何存在结构的地方」都可以用来训练人工智能。
![]()
老黄分享了下一代加速计算与人工智能将如何变革每一个行业,并一一介绍了英伟达在芯片、人工智能模型、开源开放等领域的最新进展,主要包括如下:
- 下一代 Rubin 平台;
- 全新的视觉 - 语言 - 动作模型(VLA)——Alpamayo 1;
- 面向物理 AI 的新开放模型、框架和 AI 基础设施。
不仅包括新一代 GPU,也有引领业界的开源 AI 模型。可见到了 2026 年,英伟达正准备以全栈的形式引领技术发展。
Rubin 平台问世 —— 六款全新芯片,一台划时代 AI 超算
![]()
首先,最引人关注的是下一代计算架构 ——NVIDIA Rubin 平台,刚刚推出的六款全新芯片,目标是构建一台在成本、性能与安全性上全面领先的 AI 超级计算机,加速 AI 在主流场景中的落地。
这六款芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 Switch、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU 和 NVIDIA Spectrum-6 Ethernet Switch,极致的协同设计,将大幅缩短训练时间,降低推理 Token 成本。
![]()
「Rubin 的到来恰逢其时,因为训练和推理的 AI 计算需求正在激增,」黄仁勋表示,「我们以每年一代 AI 超级计算机的节奏持续前进,而 Rubin 通过六款全新芯片的极致协同设计,向 AI 的下一个前沿迈出了关键一步。」
据了解,Rubin 平台以美国天文学家 Vera Florence Cooper Rubin 命名,她的研究彻底改变了人类对宇宙的认知。该平台包括 NVIDIA Vera Rubin NVL72 机架级解决方案和 NVIDIA HGX Rubin NVL8 系统。
![]()
Rubin 平台引入了五项创新,包括最新一代 NVIDIA NVLink 互连技术、Transformer 引擎、机密计算和 RAS 引擎,以及 NVIDIA Vera CPU。这些突破将加速智能体 AI、高级推理和大规模混合专家(MoE)模型推理,其每 Token 成本比 NVIDIA Blackwell 平台低高达 10 倍。与前代产品相比,NVIDIA Rubin 平台训练 MoE 模型所需的 GPU 数量减少了 4 倍,从而加速了 AI 普及。
专为扩展智能而生
智能体 AI 和推理模型,以及最先进的视频生成工作负载,正在重新定义计算的极限。多步问题解决需要模型在长序列 Token 中处理、推理和行动。旨在满足复杂 AI 工作负载需求的 Rubin 平台包含五项突破性技术:
- 第六代 NVIDIA NVLink:提供当今大规模 MoE 模型所需的快速、无缝的 GPU 到 GPU 通信。每个 GPU 提供 3.6TB/s 的带宽,而 Vera Rubin NVL72 机架总带宽高达 260TB/s,比整个互联网的带宽还多。凭借用于加速集体操作的内置网内计算,以及用于增强可维护性和弹性的新功能,NVIDIA NVLink 6 switch 可实现更快、更高效的大规模 AI 训练和推理。
- NVIDIA Vera CPU:专为智能体推理设计的 NVIDIA Vera 是大型 AI 工厂中最节能的 CPU,采用 88 个英伟达自研 Olympus 核心,完全兼容 Armv9.2,并具有超快的 NVLink-C2C 连接。Vera 提供卓越的性能、带宽和行业领先的效率,可支持全方位的现代数据中心工作负载。
- NVIDIA Rubin GPU:配备具有硬件加速自适应压缩的第三代 Transformer 引擎,Rubin GPU 可为 AI 推理提供 50 petaflops 的 NVFP4 计算能力。
- 第三代 NVIDIA 机密计算:Vera Rubin NVL72 是首个提供英伟达机密计算的机架级平台,可在 CPU、GPU 和 NVLink 域之间维护数据安全,保护全球最大的专有模型、训练和推理工作负载。
- 第二代 RAS 引擎:Rubin 平台涵盖 GPU、CPU 和 NVLink,具有实时健康监测、容错和主动维护功能,可最大限度地提高系统生产力。机架的模块化、无线缆设计使组装和维护速度比 Blackwell 快高达 18 倍。
AI 原生存储和安全、软件定义基础设施
Rubin 平台引入了 NVIDIA 推理上下文内存存储平台,这是面向千亿级推理上下文规模(gigascale) 设计的新一代 AI 原生存储架构。
该平台由 NVIDIA BlueField-4 驱动,可在 AI 基础设施中实现 KV Cache 数据的高效共享和重用,提高响应能力和吞吐量,同时实现可预测、能效友好的智能体 AI 扩展。
BlueField-4 还引入了高级安全可信资源架构(ASTRA),这是一种系统级信任架构,可为 AI 基础设施构建者提供统一、可信的控制点,以便在不影响性能的情况下安全预置、隔离和操作大规模 AI 环境。
随着 AI 应用向多轮智能体推理发展,AI 原生组织必须在用户、会话和服务之间管理和共享更多推理上下文。
针对不同工作负载的不同形态
NVIDIA Vera Rubin NVL72 提供了一个统一、安全的系统,集成了 72 个 NVIDIA Rubin GPU、36 个 NVIDIA Vera CPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC 和 NVIDIA BlueField-4 DPU。
英伟达还将推出 NVIDIA HGX Rubin NVL8 平台,这是一款服务器主板,可通过 NVLink 连接八个 Rubin GPU,以支持基于 x86 的生成式 AI 平台。HGX Rubin NVL8 平台可加速 AI 和高性能计算工作负载的训练、推理和科学计算。
NVIDIA DGX SuperPOD 可作为大规模部署基于 Rubin 系统时的参考,它集成了 NVIDIA DGX Vera Rubin NVL72 或 DGX Rubin NVL8 系统,并搭配 NVIDIA BlueField-4 DPU、NVIDIA ConnectX-9 SuperNIC、NVIDIA InfiniBand 网络和 NVIDIA Mission Control 软件。
NVIDIA Spectrum-6 以太网是下一代 AI 网络以太网,旨在以更高的效率和更强的弹性扩展基于 Rubin 的 AI 工厂,并由 200G SerDes 通信电路、共封装光学器件和 AI 优化结构提供支持。
基于 Spectrum-6 架构,Spectrum-X 以太网光子共封装光交换系统可为 AI 应用提供 10 倍的可靠性和 5 倍的更长正常运行时间,同时实现 5 倍的更高能效,与传统方法相比,每瓦性能最大化。Spectrum-XGS 以太网技术是 Spectrum-X 以太网平台的一部分,可使相距数百公里甚至更远的设施作为一个统一的 AI 环境运行。
这些创新共同定义了下一代 NVIDIA Spectrum-X 以太网平台,该平台采用与 Rubin 极致协同设计,旨在实现大规模 AI 工厂,并为未来的百万 GPU 环境铺平道路。 Rubin 准备就绪
NVIDIA Rubin 已全面投产,基于 Rubin 的产品将于 2026 年下半年通过合作伙伴上市。
首批在 2026 年部署基于 Vera Rubin 实例的云服务提供商包括 AWS、Google Cloud、微软和 OCI,以及英伟达云合作伙伴 CoreWeave、Lambda、Nebius 和 Nscale。
CoreWeave 将与英伟达合作,帮助 AI 领域的先驱者充分利用 Rubin 在推理和 MoE 模型方面的进步,此外,思科、戴尔、HPE、联想和 Supermicro 预计将推出基于 Rubin 产品的服务器。
包括 Anthropic、Black Forest、Cohere、Cursor、Harvey、Meta、Mistral AI、OpenAI、OpenEvidence、Perplexity、Runway、Thinking Machines Lab 和 xAI 在内的 AI 实验室正在寻求利用 NVIDIA Rubin 平台来训练更大、功能更强大的模型,并以比前几代 GPU 更低的延迟和成本运行长上下文、多模态系统。
增强自动驾驶推理, Alpamayo 1 开源模型来了
英伟达认为,下一代面向 L4 的自动驾驶方案,需要基于拥有强推理性能的 VLA 模型。
英伟达今日发布了NVIDIA Alpamayo 系列开源 AI 模型、仿真工具及数据集,旨在加速下一代安全、基于推理的自动驾驶汽车(AV)开发。
![]()
自动驾驶汽车必须在极其广泛的驾驶条件下安全运行。那些稀少且复杂的场景(通常被称为「长尾问题」),依然是自动驾驶系统安全掌控的最严峻挑战之一。
传统的自动驾驶架构将感知与规划分离,当遇到全新或异常情况时,这种方式会限制系统的可扩展性。
虽然端到端学习在近期取得了显著进展,但要克服这些长尾极端案例,仍需要模型能够针对因果关系进行安全推理,尤其是在情况超出模型训练经验时。
Alpamayo 系列引入了基于思维链推理的视觉语言动作(VLA)模型,为自动驾驶决策带来了类似人类的思考方式。
这些系统可以分步骤思考新颖或罕见的场景,从而提升驾驶能力和可解释性。可解释性对于增强智能汽车的信任度与安全性至关重要。此外,该系列还得到了英伟达 Halos 安全系统的底层支持。
黄仁勋表示:「物理 AI 的 ChatGPT 时刻已经到来,机器开始理解、推理并对现实世界采取行动。
他接着说,Alpamayo 为自动驾驶汽车带来了推理能力,使它们能够思考罕见场景,在复杂环境中安全驾驶,并解释其驾驶决策。这些都是实现安全、可扩展自主驾驶的基石。
构建基于推理的自主驾驶完整开源生态
Alpamayo 将三大支柱(开源模型、仿真框架和数据集)整合为一个内聚的开放生态系统,任何汽车开发商或研究团队都可以在此基础上进行开发。
不过,Alpamayo 模型并非直接在车端运行,而是作为大规模的「教师模型」。开发者可以对其进行微调和蒸馏,转化为各自完整自动驾驶技术栈的核心骨架。
Alpamayo 1:全球首个面向自动驾驶汽车的开源大规模推理视觉语言动作(VLA)模型,不仅能让车辆深度理解周围环境,还能对其采取的驾驶行为给出合理解释。现已在 Hugging Face 上线。
Alpamayo 1 采用 100 亿参数架构,通过视频输入生成行驶轨迹及推理痕迹,展示每项决策背后的逻辑。开发者可以将 Alpamayo 1 改编为适合车辆开发的小型运行模型,或将其作为自动驾驶开发工具(如基于推理的评估器和自动标注系统)的基础。
Alpamayo 1 提供开放的模型权重和开源推理脚本。该系列未来的模型将具备更大的参数量、更详细的推理能力、更灵活的输入输出选项以及商业化用途。
AlpaSim:一个完全开源的端到端高保真自动驾驶开发仿真框架,可在 GitHub 上获取。它提供逼真感知的传感器建模、可配置的交通动态以及可扩展的闭环测试环境,能够实现快速验证和策略优化。
物理 AI 开源数据集:英伟达提供了最多样化的大规模自动驾驶开源数据集,包含超过 1700 小时的驾驶数据。这些数据采集自极其广泛的地域和环境,涵盖了对于推进推理架构至关重要的稀有且复杂的现实极端案例。这些数据集现已在 Hugging Face 上线。
这些工具共同构成了一个自我强化的开发闭环,助力构建基于推理的自动驾驶技术栈。
Alpamayo 已经得到了自动驾驶行业的广泛支持。包括 Lucid、捷豹路虎(JLR)、Uber 和 Berkeley DeepDrive 在内的出行领军者,都对利用 Alpamayo 开发基于推理的自动驾驶技术栈表示了浓厚兴趣,以实现 L4 级自动驾驶。
在 Keynote 上,老黄展示了奔驰新款 CLA 在旧金山市区点到点的全自动驾驶,英伟达表示,国内的一些汽车厂商如吉利和小米也会在晚些时候接入英伟达的智能驾驶模型。
全新物理 AI 模型,与全球合作伙伴推出新一代机器人
![]()
英伟达宣布推出针对物理人工智能(Physical AI)的全新开源模型、框架及 AI 基础设施,并携手全球合作伙伴展示了涵盖各行各业的机器人。
这些新技术加速了机器人开发全生命周期的工作流,助力开启下一波机器人浪潮,其中包括构建能够快速学习多项任务的通用型专家机器人。
包括波士顿动力、Caterpillar、Franka Robotics、Humanoid、LG 电子和 NEURA Robotics 在内的全球行业领军企业,正利用英伟达机器人技术栈推出全新的 AI 驱动型机器人。
黄仁勋表示:机器人的「ChatGPT 时刻」已经到来。物理 AI 领域的突破 —— 即能够理解现实世界、进行推理并规划行动的模型 —— 正在开启全新的应用场景。
![]()
新型开放模型推动机器人学习与推理
将当今成本高昂、任务单一且编程困难的机器转变为具有推理能力的通用型专家机器人,需要巨大的资本投入和构建基础模型的专业知识。
英伟达正在构建开源模型,让开发者能够绕过耗费资源的预训练阶段,专注于创造下一代 AI 机器人。这些模型均可在 Hugging Face 上获取,包括:
NVIDIA Cosmos Transfer 2.5 与 NVIDIA Cosmos Predict 2.5:开源、完全可定制的世界模型,可生成符合物理定律的合成数据,并在模拟环境中对物理 AI 的机器人策略进行评估。
NVIDIA Cosmos Reason 2:一款开源推理视觉语言模型(VLM),使智能机器能够像人类一样观察、理解并在物理世界中采取行动。
NVIDIA Isaac GR00T N1.6:一款专为人形机器人设计的开源推理视觉语言动作(VLA)模型,可实现全身控制,并利用 NVIDIA Cosmos Reason 获得更好的推理和情境理解能力。
助力机器人开发的全新开源模拟与计算框架
可扩展的模拟对于机器人的训练和评估至关重要,但当前的工作流依然零散且难以管理。基准测试通常依赖人工,难以规模化,而端到端流水线则需要在不同的计算资源之间进行复杂的协调。
英伟达今日在 GitHub 上发布了全新的开源框架,简化了这些复杂的流程,加速了从研究到实际应用场景的转化。
NVIDIA Isaac Lab-Arena 是一个在 GitHub 上提供的开源框架,为模拟环境中的大规模机器人策略评估和基准测试提供了一个协作系统,其评估层和任务层是与 Lightwheel 紧密合作设计的。它连接了 Libero 和 Robocasa 等行业领先的基准,实现了测试标准化,确保机器人技能在部署到物理硬件之前稳健可靠。
![]()
Isaac Lab-Arena 框架概览
NVIDIA OSMO 是一款云原生编排框架,将机器人开发统一到一个易于使用的中心控制台中。OSMO 允许开发者在从工作站到混合云实例的不同计算环境中,定义并运行合成数据生成、模型训练及软件在环测试等工作流,从而缩短开发周期。
OSMO 正在被 Hexagon Robotics 等开发者使用,并已集成到微软 Azure Robotics Accelerator 工具链中。
![]()
OSMO 框架概览
携手 Hugging Face 加速开源物理 AI 发展
机器人目前是 Hugging Face 上增长最快的类别,英伟达的开源模型和数据集在蓬勃发展的开源社区中下载量遥遥领先。
为了进一步支持该社区,英伟达正与 Hugging Face 合作,将开源的 Isaac 和 GR00T 技术集成到领先的 LeRobot 开源机器人框架中,提供更便捷的软硬件工具访问,加速端到端开发。
此次合作将英伟达的 200 万机器人开发者与 Hugging Face 的 1300 万 AI 构建者连接在一起。 GR00T N 系列模型和 Isaac Lab-Arena 现已在 LeRobot 库中上线,方便用户进行微调和评估。
Hugging Face 的开源人形机器人 Reachy 2 将与 NVIDIA Jetson Thor 机器人计算机完全互操作,支持开发者运行包括 GR00T N1.6 在内的任何 VLA 模型。
此外,Hugging Face 的开源桌面机器人 Reachy Mini 也与 NVIDIA DGX Spark 完全互操作,可利用本地运行的英伟达大语言模型、语音及视觉模型构建自定义体验。
人形机器人开发者采用 NVIDIA Jetson Thor
NVIDIA Jetson Thor 能够满足人形机器人推理所需的庞大算力。在 CES 上,人形机器人开发者展示了集成 Jetson Thor 的最新顶尖机器人。
其中,NEURA Robotics 推出了保时捷设计的三代人形机器人,以及一款针对灵巧控制优化的迷你人形机器人。Richtech Robotics 推出了 Dex,这是一款可在复杂工业环境中进行精细操作和导航的移动人形机器人。
智元机器人(AGIBOT)介绍了面向工业和消费领域的人形机器人,以及集成了 Isaac Sim 的机器人仿真平台 Genie Sim 3.0。
LG 电子则展示了一款旨在执行多种室内家务的新型家用机器人。 波士顿动力、Humanoid 和 RLWRLD 均已将 Jetson Thor 集成到现有人形机器人中,以增强其导航和操作能力。
更多细节信息请参考英伟达官方博客。
https://nvidianews.nvidia.com/news/alpamayo-autonomous-vehicle-development
https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
https://nvidianews.nvidia.com/news/nvidia-releases-new-physical-ai-models-as-global-partners-unveil-next-generation-robots?linkId=100000401170428
https://www.youtube.com/watch?v=0NBILspM4c4&t=3s
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.