2024 年 3 月,中信建投发布研究报告指出,HBM 已成为 AI 算力体系中的关键内存瓶颈。彼时,这一判断更多被视为技术趋势的延伸,而不是产业格局的拐点。
![]()
但进入 2026 年,存储行业给出了远超预期的反馈。
美光 CEO 在年初明确表示,2026 年的 HBM 产能已被全部锁定,行业正面临结构性短缺。当前产能只能覆盖核心客户约一半至三分之二的需求,公司正在与客户谈判一种更长期、约束更强的供货协议。这种做法在存储行业并不常见,某种程度上意味着行业运行规则正在发生变化。
长期以来,存储芯片被视为典型的周期品,价格波动接近大宗商品逻辑:供给扩张、价格下行、减产出清,周而复始。但 AI 正在改变这一循环。
HBM:从“性能配件”到系统核心
如果将 GPU 比作发动机,那么内存带宽就是传动系统。算力再强,如果数据无法快速流动,性能同样会被严重限制。
随着大模型参数规模持续放大,传统 DRAM 架构已难以满足需求。HBM 通过 3D 堆叠和超宽总线,将内存带宽提升到 TB/s 级别,成为高性能计算不可替代的方案。
当前 HBM3E 带宽已突破 1TB/s,下一代 HBM4 将进一步提升容量和带宽。这一演进并非技术炫技,而是被模型规模和推理复杂度“倒逼”出来的结果。
一个直观的变化是,显存需求的增长速度,正在明显快于算力本身。模型不仅需要存储权重,还要在推理过程中不断扩展运行时内存,这使得 HBM 从“高端配置”逐渐变为“系统瓶颈”。
需求侧的变化,比技术本身更剧烈
相比技术进步,更深层的变化来自需求结构。
传统数据中心主要存储的是访问频率较低的“冷数据”,对延迟并不敏感。而 AI 场景下,存储的是需要被高频调用的“热模型”。等待时间不再只是性能损失,而会直接转化为算力浪费和商业效率下降。
这直接改变了云厂商的决策逻辑。为了确保算力持续可用,头部云服务商开始通过长期协议提前锁定高端存储产能,将原本零散、周期性的采购,转化为持续性的刚性需求。
存储不再是可随意替换的标准件,而逐渐演变为系统级资源。
供给端:寡头结构下的产能约束
与需求快速扩张形成对比的是,供给端的弹性极其有限。
DRAM 行业经过多年整合,已高度集中于三星、SK 海力士和美光三家。HBM 作为 DRAM 中技术门槛最高的分支,其进入壁垒更高:
- 工艺复杂,良率爬坡缓慢
- 单条产线投资规模巨大
- 建设周期长,无法快速扩产
从设备采购到稳定量产,HBM 产线通常需要 18–24 个月。这种长周期使得供给端很难对短期需求变化做出快速反应。
因此,在 AI 需求集中释放的背景下,产能紧张并非偶发事件,而是结构性结果。
存储行业,正在出现“分层定价”
这一轮变化并未彻底消除存储行业的周期性,但正在显著拉开不同赛道的差距。
- 高端存储(HBM)具备强定制性和客户绑定,价格和毛利更具韧性
- 传统 DRAM 和 NAND 仍然受整体周期影响
这意味着,行业正在从“统一周期”走向“结构性分化”。资本市场对存储企业的估值,也开始区分其在高端存储中的技术地位和客户关系,而不再只看库存和价格波动。
AI 时代,存储的角色已经改变
这场由 AI 引发的存储变革,本质上是算力体系重心的迁移。
过去,性能瓶颈主要集中在处理器;而现在,内存的带宽、容量和功耗,正在成为限制系统效率的关键因素。内存从成本项,逐渐转变为战略资源。
短期来看,供需紧张仍将持续;长期来看,技术演进和产能扩张终会缓解压力。但可以确定的是,存储行业已经不再回到过去那种单一的周期运行模式。
在 AI 驱动的计算体系中,谁掌握内存,谁就掌握了效率的上限。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.