公众号记得加星标⭐️,第一时间看推送不会错过。
英伟达周一表示,其下一代 Rubin AI 芯片已“全面投产”,并将于 2026 年下半年上市。同时,该公司还公布了备受期待的 Blackwell 系列继任者的更多细节。
“我们必须每年都推进计算技术的进步,一年也不能落后,” 英伟达首席执行官黄仁勋在 CES 2026 电子贸易展期间的主题演讲中表示。
鲁宾发表此番言论之际,人们越来越担心会出现“人工智能泡沫”,因为人们越来越质疑大规模人工智能基础设施建设还能持续多久。
这家芯片巨头通常会在加州圣何塞举行的 GTC 开发者大会上公布其人工智能芯片的最新进展,今年的 GTC 大会将于 3 月 16 日至 19 日举行。
英伟达在2025年3月的GTC大会上预览了Vera CPU和Rubin GPU,并表示Vera-Rubin芯片组将比其前代产品Grace-Blackwell提供更出色的AI训练和推理性能。推理是指使用训练好的AI模型来生成内容或执行任务。
在周一的发布会上,黄仁勋公布了Rubin系列产品的更多细节。Rubin GPU的推理计算性能是Blackwell的五倍,训练计算性能是Blackwell的3.5倍。与Blackwell相比,新一代芯片还能降低训练和推理成本,推理令牌成本最多可降低10倍。
Rubin 架构包含 3360 亿个晶体管,在处理 NVFP4 数据时可提供 50 petaflops 的性能。相比之下,Nvidia 上一代 GPU 架构 Blackwell 的性能最高为 10 petaflops。同时,Rubin 的训练速度提升了 250%,达到 35 petaflops。
芯片的部分计算能力由一个名为 Transformer Engine 的模块提供,该模块也随 Blackwell 一起发布。据英伟达称,鲁宾的 Transformer Engine 基于一种更新的设计,并具有一项名为硬件加速自适应压缩的性能提升功能。压缩文件可以减少其包含的比特数,从而减少 AI 模型需要处理的数据量,进而加快处理速度。
英伟达首席执行官黄仁勋表示:“Rubin 的问世恰逢其时,因为人工智能的训练和推理计算需求正呈爆炸式增长。凭借我们每年推出新一代人工智能超级计算机的节奏,以及六款全新芯片的深度协同设计,Rubin 的推出标志着我们向人工智能的下一个前沿领域迈出了巨大的一步。”
据英伟达称,Rubin 还将成为首款集成 HBM4 内存芯片的 GPU,其数据传输速度高达每秒 22 TB,比 Blackwell 有了显著提升。
该公司表示,Rubin 系列芯片已经“全面投产”,并将于今年下半年提高产量。
微软 Azure 和英伟达支持的云服务提供商 CoreWeave 将成为首批在 2026 年下半年提供由 Rubin 提供支持的云计算服务的公司之一。
在周日的一次媒体简报会上,英伟达高级总监迪翁·哈里斯表示,提前推出 Rubin 产品是因为这些芯片“在展示实际准备情况方面达到了一些非常关键的里程碑”,并补充说,该公司正在努力使生态系统做好准备,以采用 Vera-Rubin 架构。
“鉴于我们目前的准备情况,以及市场对 Vera-Rubin 的热情,我们认为这是一个绝佳的机会,可以在 CES 上推出这款产品,”哈里斯说。
然而,比预期更早发布的 Rubin 一代芯片并未给市场留下深刻印象,英伟达股价在周一盘后交易中下跌 0.13%,此前收于 188.12 美元。
黄仁勋身着一件闪亮的黑色皮夹克,这是他标志性皮夹克的改良版,在拉斯维加斯BleauLive剧院向3000名座无虚席的听众发表了主题演讲 。现场气氛热烈——这位CEO一出场就受到了欢呼、掌声和观众用手机拍照的热烈欢迎——这充分证明了这家公司如彗星般迅速崛起,如今它已被视为人工智能时代最重要的风向标。
首席执行官此前表示,即使没有中国或其他亚洲市场,该公司预计到 2026 年,其最先进的 Blackwell AI 芯片和 Rubin 的“早期产能提升”也将带来5000 亿美元的收入。
与此同时,黄仁勋认为人工智能的未来将主要体现在物理世界中。在CES 2026正式开幕前一天,也就是周一的场外活动中,英伟达宣布与多家制造商、机器人制造商和领先的汽车制造商达成合作,其中包括比亚迪、LG电子和波士顿动力公司。
黄仁勋表示:“机器人领域的 ChatGPT 时刻已经到来。物理人工智能的突破——能够理解现实世界、推理和规划行动的模型——正在解锁全新的应用。”他指的是开启生成式人工智能热潮的聊天机器人 ChatGPT。
英伟达发布Vera Rubin NVL72人工智能超级计算机
在2026年国际消费电子展(CES)上,人工智能无处不在,而英伟达GPU则是不断扩展的人工智能领域的核心。今天,在CES主题演讲中,英伟达首席执行官黄仁勋分享了公司将如何继续引领人工智能革命的计划,因为这项技术的应用范围将远远超出聊天机器人,扩展到机器人、自动驾驶汽车以及更广泛的物理世界。
首先,黄仁勋正式发布了英伟达下一代AI数据中心机架级架构Vera Rubin。Rubin是英伟达所谓的“极致协同设计”的成果,它由六种芯片组成:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4数据处理单元和Spectrum-6以太网交换机。这些组件共同构成了Vera Rubin NVL72机架。
对人工智能计算的需求永无止境,而每款 Rubin GPU 都承诺为这一代产品提供更强大的计算能力:NVFP4 数据类型的推理性能高达 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 训练性能高达 35 PFLOPS,是 Blackwell 的 3.5 倍。为了满足如此庞大的计算资源需求,每款 Rubin GPU 都配备了 8 个 HBM4 显存堆栈,提供 288GB 的容量和 22 TB/s 的带宽。
每个GPU的计算能力只是人工智能数据中心的一个组成部分。随着领先的大型语言模型从激活所有参数以生成给定输出词元的密集架构,转向每个词元仅激活部分可用参数的专家混合(MoE)架构,这些模型的扩展效率得以相对提高。然而,模型内部专家之间的通信需要大量的节点间带宽。
Vera Rubin推出用于纵向扩展网络的NVLink 6,将每个GPU的交换矩阵带宽提升至3.6 TB/s(双向)。每个NVLink 6交换机拥有28 TB/s的带宽,每个Vera Rubin NVL72机架配备9个这样的交换机,总纵向扩展带宽可达260 TB/s。
Nvidia Vera CPU 采用 88 个定制的 Olympus Arm 核心,并配备 Nvidia 所谓的“空间多线程”技术,可同时运行多达 176 个线程。用于将 Vera CPU 与 Rubin GPU 连接起来的 NVLink C2C 互连带宽翻倍,达到 1.8 TB/s。每个 Vera CPU 可寻址高达 1.5 TB 的 SOCAMM LPDDR5X 内存,内存带宽高达 1.2 TB/s。
为了将 Vera Rubin NVL72 机架扩展为每个包含八个机架的 DGX SuperPod,Nvidia 推出了两款采用 Spectrum-6 芯片的 Spectrum-X 以太网交换机,这两款交换机均集成了光模块。每颗 Spectrum-6 芯片可提供 102.4 Tb/s 的带宽,Nvidia 将其应用于两款交换机中。
更多产品同步发布
NVIDIA正式发布了面向AI数据中心的新型CPU“Vera”和GPU“Rubin”。虽然此前已有相关计划公布,但首席执行官黄仁勋于1月5日在拉斯维加斯的主题演讲中正式揭晓了这些产品。
此外,该公司还发布了高速网络产品,例如 NVLink 6 交换机(允许使用 Vera 和 Rubin 在机架内进行扩展)、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 以太网交换机(允许在数据中心内扩展此类机架)。
Rubin是当前一代GPU“Blackwell”(NVIDIA B300/B200/B100)的继任者,采用了全新的GPU架构和HBM4显存。根据NVFP4的计算,Blackwell的AI推理和训练性能为10 PFLOPS,而Rubin的推理性能达到50 PFLOPS,速度提升了5倍;训练性能达到35 PFLOPS,速度提升了3.5倍。
NVIDIA 正式宣布 Vera 是一款采用 Arm 架构的 CPU,配备 88 个 NVIDIA 定制设计的 Olympus 核心;Rubin 是一款面向 AI 数据中心的 GPU,将成为当前 Blackwell (B300/B200/B100) 产品的继任者。
这款以美国著名科学家库珀·鲁宾 (Cooper Rubin) 命名的 Rubin GPU,采用 Rubin 架构,相比 Blackwell 架构,能够实现更高效的 AI 计算。它还配备了全新的 HBM4 内存技术、第六代 NVLink、机密计算功能和 RAS 引擎,从而提升了平台级的性能和安全性。
通过这些改进,在使用 NVIDIA 的高级推理模型和实现智能体 AI 的 MoE(专家混合)模型时,推理的每个令牌成本最多可以降低十分之一,训练的每个令牌成本最多可以降低四分之一。
与上一代 Blackwell(可能是 GB200 中搭载的 B200)相比,Rubin 的 NVFP4 推理性能提升至 50 PFLOPS,性能提升 5 倍;训练性能提升至 35 PFLOPS,性能提升 3.5 倍(Blackwell 的这两项均为 10 PFLOPS)。HBM4 的内存带宽为 22 TB/s,是 Blackwell 的 2.8 倍;每个 GPU 的 NVLink 带宽为 3.6 TB/s,性能提升两倍。
![]()
另一方面,Vera 是一款搭载 88 个 NVIDIA 定制设计的 Olympus 核心的 Arm CPU。它支持 NVIDIA 的专有虚拟多线程 (SMT) 技术“NVIDIA Spatial Multi-threading”,启用后可作为 176 线程 CPU 使用。它可配备 1.5TB 的 LPDDR5X 内存(容量是上一代 Grace 的三倍),基于数据中心内存模块标准“SOCAMM”,内存带宽为 1.2TB/s。
与 Blackwell 系列一样,Vera Rubin 每个模块将包含一个 Vera 处理器和两个 Rubin 处理器。此外,还将推出 Vera Rubin NVL72,这是一款可扩展解决方案,可将 36 个 Vera Rubin 处理器集成到单个机架中。Vera Rubin NVL72 配备了支持第六代 NVLink 协议的 NVLink 6 交换机,单个机架可容纳 36 个 Vera CPU 和 72 个 Rubin GPU。
![]()
此外,NVIDIA 还计划推出“HGX Rubin NVL8”,这是一款面向 OEM 厂商的设计,将八个 Rubin 模块集成在一台服务器中;以及“DGX Rubin NVL8”,这是一款专为 x86 处理器设计的服务器。客户可以选择将 Rubin 与 NVIDIA 的 Arm CPU 或 x86 CPU 搭配使用。
同时,NVIDIA 还发布了用于横向扩展的高速网络新产品,包括 ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 以太网交换机。这些产品可以与前文提到的 Vera Rubin NVL72 和 HGX Rubin NVL8 配合使用,实现横向扩展。
该公司还发布了“DGX SuperPOD with DGX Vera Rubin NVL72”,这是一款由八块 Vera Rubin NVL72 GPU 组成的扩展型超级计算机,可作为人工智能超级计算机的参考设计。通过利用 CUDA 等软件解决方案,一台超级计算机即可使用 256 个 Vera CPU 和 512 个 Rubin GPU。
据该公司称,Vera 和 Rubin 计划于 2026 年下半年发布,并将通过四大云服务提供商(AWS、谷歌云、微软 Azure 和 Oracle 云基础设施)以及戴尔科技、HPE、联想和超微等原始设备制造商 (OEM) 提供。该公司解释说,OpenAI、Anthropic 和 Meta 等人工智能模型开发公司已经宣布了他们的采用计划。
英伟达五年来首次“缺席”CES展会
整个行业正陷入零部件短缺的困境,英伟达刚刚在X平台上宣布,其2026年CES主题演讲将“不会发布任何新的GPU”,这无疑给新PC组装商们仅存的一点希望泼了一盆冷水。这打破了英伟达连续五年在CES上发布新款GPU(无论是桌面级还是移动级)的惯例;这一次,将不会有任何新的硬件产品问世。
![]()
此次发布会的大部分内容可能都会聚焦于人工智能领域的最新进展。自2021年以来,微软每年都会在CES上展示其最新的芯片产品。最近,RTX 50系列显卡在拉斯维加斯标志性的CES展厅首次亮相,并且一直有传言称RTX 50 Super系列显卡也将在CES 2026上发布。
虽然官方从未正式确认,但DRAM短缺可能导致了此次发布计划的搁浅。否则,英伟达本可以在CES 2024上发布RTX 40 Super系列显卡,而这距离首款Ada Lovelace显卡发布仅一年之隔。此外,该公司最新的Blackwell GPU采用的是GDDR7显存,而GDDR7显存的生产难度更高。情况已经恶化到如此地步,甚至有传言称英伟达将重启RTX 3060的生产,因为该显卡采用的是GDDR6显存,并且采用的是三星较老的8nm工艺制造。
内存供应是问题的关键所在。如果背后的工厂完全瘫痪,英伟达就无法发布新的GPU。全球只有三家公司——美光、SK海力士和三星——能够生产尖端DRAM,而且它们都乐于将产品卖给AI客户以获取更高的利润。对通用人工智能(AGI)的渴求促使像OpenAI这样的公司制定了突破性的计算目标,这些目标远远超出了我们现有供应链的承载能力。
有些人可能会疑惑,为什么政府不介入帮助消费者?监管市场难道不是他们的职责吗?不幸的是,地缘政治因素使情况更加复杂,因为前沿人工智能代表着另一场军备竞赛,而华盛顿希望保持对中国的领先优势。
归根结底,不会有救星出现。就像2014年的内存危机和过去十年间各种GPU短缺一样,我们只能等到人工智能热潮停滞不前才能迎来转机。目前,英伟达显卡的价格尚未上涨,所以这或许是我们重返黄牛倒卖时代的最后时刻。不过,社区里有些人,比如蓝宝石的公关经理,仍然抱有希望,相信这场风暴最终能够过去。
https://pc.watch.impress.co.jp/docs/news/event/2075697.html
(来源:综合自日经等)
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4279期内容,欢迎关注。
加星标⭐️第一时间看推送,小号防走丢
求推荐
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.