![]()
英伟达即将推出的“Vera Rubin”人工智能系统,计划于2026年夏末正式启动出货,采用VR200 NVL72机架级解决方案形态交付,该系统旨在为下一代人工智能模型提供强大算力支持。
然而,在关键的高带宽内存(HBM4)供应方面,据坊间最新爆料显示,美光(Micron)已正式无缘HBM4供应资格,仅剩三星(Samsung)和SK海力士(SK hynix)两家厂商成功斩获供货权。其中,SK海力士预计将占据VR200 NVL72系统HBM4供应份额的约70%,三星则分得剩余30%的市场份额。
需要强调的是,尽管美光未获准为英伟达VR200 NVL72系统提供HBM4内存,但该公司已明确转向供应“Vera”CPU所需的LPDDR5X内存。这类CPU可配置高达1.5TB的LPDDR5X内存容量,美光也得以在其他内存细分品类中弥补其在HBM4领域的市场损失。
据行业消息显示,“Vera”CPU采用SOCAMM2形态的LPDDR5X内存模块,而美光(Micron)在该领域具备显著技术与产能优势,有望成为该类内存的最大供应商乃至独家供应商。随着英伟达将“Vera”CPU定位为独立产品线,直接与英特尔Xeon、AMD EPYC系列服务器级CPU展开正面竞争,该产品线对SOCAMM2内存的需求也将同步攀升,美光借此在这一内存细分市场斩获了重要发展机遇。
据悉,此次HBM4供应格局的调整,与英伟达对VR200 NVL72系统性能的持续优化密切相关。英伟达最初于2025年3月设定的系统内存目标带宽为13TB/s,随后在同年9月将这一目标提升至20.5TB/s。直至2026年CES展会期间,英伟达正式确认,VR200 NVL72系统的内存带宽已成功突破22TB/s,较2025年3月的早期目标实现了近70%的显著增长。
这一带宽的大幅提升,源于英伟达对内存规格的严苛要求,其中就包括采用更高速率的HBM4堆栈设计,以此满足极端AI工作负载对内存带宽的苛刻需求。单颗Rubin GPU配备288GB HBM4内存,单颗GPU的内存带宽即可达到22TB/s,而整个NVL72机架的内存聚合带宽更是超过20TB,这一配置充分体现了英伟达在内存子系统领域的技术领先优势。
从产业发展角度分析,HBM4作为AI加速器的核心内存组件,其市场供应格局高度集中于少数几家厂商,核心限制因素主要集中在先进制程工艺、良率控制水平及产能合理分配等方面。其中,SK海力士凭借早期量产经验与深厚的技术积累占据了供应主导地位,三星则通过快速技术跟进与产能释放,实现了供应份额的有效补充。
美光虽在HBM4供应领域暂时错失机会,但该公司在LPDDR5X内存及SOCAMM2模块领域的核心专长,为其开辟了多元化的市场竞争路径。SOCAMM2作为数据中心级低功耗内存的新型形态,具备更高的容量密度与优异的能效表现,目前正逐渐成为AI服务器内存架构中的重要组成部分。英伟达的这一供应链布局调整,不仅优化了VR200 NVL72系统整体的供应链平衡,也为美光开辟了新的业绩增长空间。
总体而言,VR200 NVL72系统的内存供应格局,深刻反映出当前AI基础设施领域竞争的激烈程度。英伟达通过对系统规格的持续迭代升级,以及对供应商选择的战略优化调整,有效确保其AI平台在性能、带宽及生态兼容性上持续保持领先地位。美光(Micron)的角色转变则表明,在高度垂直整合的AI硬件生态体系中,单一领域的暂时失利并不等同于整体退出市场。
相反,企业通过在相邻细分领域的深耕细作,仍可实现自身价值贡献,并维持与核心客户的长期稳定合作。这一产业动态也为全球内存产业参与者提供了重要启示:在技术快速演进的AI赛道上,多元化的产品布局与灵活的技术适应能力,已成为企业维持市场地位、实现长远发展的核心关键。小编将持续关注相关动态,第一时间为大家分享更多最新资讯与行业爆料,敬请关注。
小编将在第一时间分享更多相关最新动态和爆料,敬请关注。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.