这份由国海证券发布的计算机行业研究报告《从Blackwell到Rubin:计算、网络、存储持续升级——AI算力"卖水人"专题系列(七)》深入分析了AI算力产业链的最新发展动态,核心聚焦于英伟达新一代GPU架构的技术演进及其对产业链的带动效应。以下是主要内容总结:
核心观点
- 行业评级:维持计算机行业"推荐"评级,看好AI算力需求持续增长驱动的产业链机会。
- 核心逻辑:大模型训练与推理需求推动算力升级,英伟达Blackwell和Rubin架构的迭代将带动芯片、服务器、存储、液冷等全产业链技术革新。
一、GPU架构升级:Blackwell到Rubin
- Blackwell Ultra(B300)
- 性能提升:采用TSMC 4NP工艺与CoWoS-L封装,FP4算力达15PFLOPS(较B200提升50%),搭载288GB HBM3E显存。
- 能效优化:独立液冷板设计,支持130KW制冷能力,网络互联升级至ConnectX-8(800G带宽)。
- 应用场景:AI工厂性能较Hopper提升50倍,推理效率提升40倍。
2.Rubin架构(2026-2027年)
- Rubin NVL144:2026年推出,FP4算力3.6EFLOPS,HBM4内存13TB/s,NVLink 6.0带宽3.6TB/s。
- Rubin Ultra NVL576:2027年推出,FP4算力15EFLOPS(较B300提升14倍),HBM4E内存4.6PB/s,支持576颗GPU互联。
- Feynman架构:2028年推出,延续性能跃升趋势。
二、服务器与整机架构革新
- 从HGX到MGX
- HGX:由ODM厂商(如鸿海、广达)生产模组,交付品牌服务器厂商。
- MGX:开放模块化设计,支持快速定制,GB300 NVL72系统含18个计算托盘(72 GPU+36 CPU)和9个交换机托盘。
- Rubin Ultra NVL576:采用Kyber架构,PCB背板替代铜缆,提升机架密度。2.性能对比
- GB300 NVL72:HBM容量20.7TB(较GB200提升50%),NVLink带宽130TB/s,液冷方案升级至126片冷板(+133%)。
- 成本优化:快接头尺寸缩小至1/3,单价下降但用量翻倍。
三、网络与互联技术
- CPO(共封装光学)
- 优势:取代可插拔光模块,能效提升3.5倍,延迟降低,部署速度加快1.3倍。
- 应用:Quantum-X(InfiniBand)和Spectrum-X(以太网)交换机支持400Tbps吞吐量,2026年量产。
2.NVLink迭代
- NVLink 6.0:Rubin平台带宽3.6TB/s(双向)。
- NVLink Fusion:开放生态支持第三方芯片互联,推动异构计算(如CPU+GPU+XPU协同)。
3.铜缆技术
- GB300 NVL72采用5000+根NVLink铜缆(总长超2英里),1.6T速率满足高带宽需求。
四、存储:HBM技术突破
- HBM4(2026年量产)
- 性能:12/16层堆叠,带宽20.5TB/s,I/O接口2048位,溢价幅度或超30%。
- 厂商进展:SK海力士已交付样品,三星、美光跟进;SK海力士市占率超50%。
- 定制化趋势:英伟达、微软等与SK海力士合作开发专属HBM芯片。
2.远期路线图(至2038年)
- HBM8:容量达5TB+,带宽64TB/s,采用3D堆叠与嵌入式冷却技术。
五、液冷散热方案
- 技术路径
- 冷板式液冷:成熟方案,GB300采用独立冷板设计(每芯片一进一出),单机柜功耗150kW。
- 浸没式液冷:未来方向,Rubin Ultra NVL576或实现100%液冷。
- 2.市场空间
- 2026年GPU液冷市场规模或达800亿元(单机柜价值量约70万元)。
- 核心部件:冷板、快接头、CDU(冷分配单元)、歧管等需求激增。
结论
英伟达通过Blackwell和Rubin架构持续引领AI算力升级,带动计算、网络、存储、散热全产业链创新。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.