2026年1月6日,CES 2026展会现场传来颠覆性消息——英伟达CEO黄仁勋在主题演讲中正式宣布,以天文学家薇拉·弗洛伦斯·库珀·鲁宾命名的新一代Rubin计算架构平台“已全面投产”。这款整合六款全新芯片的AI超级计算机,不仅实现了对前代Blackwell平台的全方位性能碾压,更以10倍推理成本降低、四分之一MoE训练GPU需求的突破性表现,为全球AI产业带来历史性变革。目前,平台六款核心芯片已完成合作制造回厂流程,通过关键测试后按计划推进,2026年将开启规模化部署热潮。
![]()
六芯联动:全栈芯片构筑算力基石
Rubin平台的核心优势源于其“六芯协同”的全栈设计,六款定制芯片各司其职又无缝衔接,覆盖计算、网络、数据处理等AI任务全流程,构建起无短板的算力生态。作为平台“算力调度核心”的VeraCPU,搭载88个定制Olympus核心与176线程,支持NVIDIA Spatial Multi-Threading技术,性能较前代翻倍的同时,更具备1.8TB/s NVLink-C2C互连速率、1.5TB系统内存(为Grace CPU的3倍)及1.2TB/s LPDDR5X内存带宽,2270亿晶体管的庞大体量,使其成为大规模AI工厂中能效顶尖的代理推理专用处理器。
![]()
算力核心Rubin GPU则展现出极致性能:NVFP4精度下推理算力达50 PFLOPS(为Blackwell的5倍),训练算力35 PFLOPS(3.5倍提升),22TB/s的HBM4带宽(2.8倍提升)与3.6TB/s单GPU NVLink带宽(2倍提升),配合3360亿晶体管的硬件支撑,再加上第三代Transformer引擎与硬件加速自适应压缩功能,轻松应对超大规模AI任务。网络与数据处理层面,ConnectX-9 SuperNIC支持800Gb/s以太网速率与200G PAM4串并转换技术,集成可编程RDMA与数据路径加速器,230亿晶体管赋予其线速加密、安全隔离等顶尖防护能力;BlueField-4 DPU搭载64核Grace CPU,网络性能较前代提升2倍,计算能力提升6倍,内存带宽提升3倍,1260亿晶体管使其成为智能网卡与存储处理器的标杆产品。此外,NVLink 6交换机与Spectrum-6以太网交换机形成双重网络支撑,前者实现单GPU 3.6TB/s全互联带宽,后者凭借共封装光子技术,打造出102.4Tb/s可扩展交换架构,支持128个800Gb/s端口或512个200Gb/s端口,3520亿晶体管的配置确保海量数据高速流转。
![]()
命名致敬先驱:双核心产品适配多元场景
Rubin平台的命名并非偶然,而是为了致敬美国先驱天文学家薇拉·弗洛伦斯·库珀·鲁宾——她的科学发现彻底改变了人类对宇宙的认知,这与英伟达希望通过算力创新重塑AI产业的愿景高度契合。基于这一核心架构,英伟达推出两款旗舰产品,分别适配机柜级大规模部署与服务器级灵活应用场景,覆盖不同用户的算力需求。
![]()
其中,Vera Rubin NVL72作为机柜级解决方案,整合72颗Rubin GPU与36颗Vera CPU,通过NVLink 6互连技术、ConnectX-9 SuperNIC及BlueField-4 DPU形成完整算力集群,260TB/s的整体带宽足以支撑超大规模混合专家模型(MoE)训练与高阶推理任务。而HGX Rubin NVL8系统则是专为x86架构生成式AI平台设计的服务器主板,通过NVLink技术连接8颗Rubin GPU,能够高效加速AI训练、推理及高性能计算(HPC)等多元化工作负载,为中小企业及科研机构提供高性价比的算力选择。
为了满足大规模部署需求,英伟达还推出DGX SuperPOD™参考架构,可灵活整合DGX Vera Rubin NVL72或DGX Rubin NVL8系统,搭配BlueField-4 DPU、ConnectX-9 SuperNIC、InfiniBand网络及Mission Control™管理软件,形成端到端的规模化AI算力部署方案,帮助用户快速搭建稳定、高效的AI计算中心,降低部署门槛与运维成本。
![]()
五大创新驱动:性能与成本的双重革命
Rubin平台的颠覆性不仅体现在硬件参数的跃升,更源于五项关键技术创新的深度融合,实现了性能提升与成本降低的双重突破。新一代NVLink互连技术构建起高速数据传输通道,确保多芯片协同工作时的低延迟与高带宽;第三代Transformer引擎针对AI任务优化,大幅提升模型训练与推理效率;机密计算技术为敏感AI数据提供全流程安全防护,满足金融、医疗等行业的合规需求;RAS引擎(可靠性、可用性与可维护性引擎)保障平台在7x24小时高负载运行下的稳定表现;再加上专为代理推理设计的Vera CPU,五大创新形成合力,推动AI算力应用迈入新阶段。
![]()
性能层面,Rubin平台的训练性能达到Blackwell的3.5倍,AI软件运行性能提升5倍,这意味着原本需要数周完成的大模型训练任务,如今可压缩至数天,极大缩短AI研发周期。成本层面的突破更为震撼:推理token生成成本最高可降低10倍,训练MoE模型所需GPU数量减少至原来的四分之一。对于AI企业而言,这不仅意味着硬件采购与运维成本的大幅下降,更能推动AI应用从“高成本试点”走向“规模化普及”——无论是智能客服、自动驾驶,还是药物研发、工业质检,都将因算力成本的降低而加速落地。
云厂集体跟进:2026年开启算力普惠时代
Rubin平台的量产消息一经发布,便获得全球云服务商的积极响应,一场算力升级热潮即将席卷全球。英伟达透露,亚马逊AWS、谷歌云、微软Azure和甲骨文云四大云巨头已确认将于2026年率先部署基于Vera Rubin的实例,让全球用户通过云服务即可便捷获取顶尖AI算力。与此同时,CoreWeave、Lambda、Nebius和Nscale等专注于AI算力服务的专业云合作伙伴也将陆续跟进,进一步扩大平台的覆盖范围。
![]()
这一合作生态的快速成型,不仅体现了市场对Rubin平台性能与成本优势的高度认可,更将推动AI算力从“少数巨头专属”走向“全民普惠”。对于AI创业公司与中小企业而言,此前因算力成本过高而受限的创新项目,未来可通过云服务轻松调用Rubin平台的超强算力,无需投入巨额资金自建硬件;对于科研机构而言,高效算力将加速基础科学研究与技术突破,推动AI在医疗、教育、环保等公益领域的深度应用。
随着Rubin平台的规模化部署,AI产业将迎来新一轮创新爆发期。更低的成本、更强的性能、更便捷的获取方式,将激活更多行业的AI应用潜力,推动数字经济与实体经济深度融合。Rubin平台的诞生,正是英伟达实现这一愿景的关键一步,也为人类社会迈向智能新时代奠定了坚实的算力基础。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.