“HBM价格暴涨500%,存储芯片板块开盘即涨停潮”——如果你最近没有注意到这条新闻,说明你错过了今年以来A股最炙手可热的投资主线。
2026年5月6日,节后首个交易日,A股存储芯片板块开盘即涨停潮:江波龙、朗科科技20CM涨停,澜起科技涨超18%,板块整体涨幅高达6.67%,高居全市场概念板块第一。此后一周,存储板块全线走强:5月11日,澜起科技港股、A股同步飙升超15%,江波龙冲高逾15%,兆易创新港股涨超9%,全球存储巨头SK海力士、三星电子当日也双双刷新历史纪录。
为什么存储板块突然“燃”了?核心答案只有一个词——HBM。
这不是一次普通的存储周期复苏,而是一场由AI算力驱动的“范式转移”。
![]()
HBM是什么?AI算力的“最后一公里”
在深入讨论行情之前,先搞清楚HBM到底是什么。
HBM的全称是高带宽内存,它是一种专门为高性能计算和AI设计的存储芯片。与普通DDR内存不同,HBM不是“平铺”在电路板上的,而是将多层DRAM芯片通过TSV(硅通孔)技术和微凸点垂直堆叠起来,再通过2.5D先进封装与GPU/CPU芯片集成在同一硅中介层上,实现极短的数据传输路径。
通俗地讲,普通内存像一张平铺的桌子,你需要的文件散落在桌上各处,拿起来费时费力;而HBM像一个多层抽屉柜,所有文件紧挨着计算核心,伸手就能拿到,而且能同时打开多个抽屉。
这种架构带来的直接效果是:带宽极高、功耗极低、占用面积极小。从H100的80GB、3.4TB/s带宽,到最新GB300的288GB、8.0TB/s带宽,不到三年时间,HBM的容量增长超过两倍,带宽提升约2.5倍。正是因为HBM的存在,今天的AI训练才能以超乎想象的速度处理万亿级参数的大模型。
但HBM的技术门槛之高,远非普通DRAM可比。TSV工艺要求在DRAM芯片上垂直打孔实现多层堆叠互联,孔径需控制在微米级,深度达到30至60微米,对刻蚀精度要求极高。生产1GB HBM需要消耗大约3倍于传统DRAM的晶圆产能。
更关键的是,HBM无法单独工作,必须与GPU/ASIC芯片通过2.5D/3D先进封装技术集成,而这需要台积电CoWoS这类全球屈指可数的封装产能来配合完成。这些技术壁垒构成了HBM供给端的“天然护城河”。
“内存墙”困局:为什么AI必须用HBM?
HBM的火爆,根源在于AI行业面临的一个根本矛盾——“内存墙”。
所谓的“内存墙”,是指计算速度与数据访问速度之间的巨大鸿沟。AI大模型的参数规模每两年增长约410倍,而单个AI芯片搭载的内存带宽同期仅增长约2倍。这条急剧分叉的曲线,直观揭示了存储器性能已成为制约AI发展的核心瓶颈。
具体到实际应用,问题更加严峻。当大模型推理的序列长度突破128K Token后,KV Cache显存需求呈指数级爆炸增长,导致GPU HBM显存瓶颈凸显,算力利用率降至个位数。即便单卡配备96GB HBM显存,经过优化后单卡可用KV Cache空间仅56GB,核心算力单元长期处于“饥饿”状态,有效算力利用率跌至50%以下。
![]()
打个比方:HBM相当于AI计算系统里那条最重要的“高速公路”。随着模型越做越大、推理越做越长,这条路必须不断扩宽。HBM凭借其超高带宽特性——单栈带宽已突破2TB/s——成为当前唯一能够匹配高端AI芯片数据吞吐需求的存储方案。
如果说算力芯片是AI时代的“发动机”,HBM就是连接发动机与车轮的“传动轴”。这个比喻很俗,但很真实。发动机再强,传动轴不给力,马力也传不到车轮上。
长城证券在行业报告中指出,AI需求驱动下,预计2025年/2026年HBM总位元需求量同比增速分别高达+89%/+67%。Counterpoint Research更预测,AI服务器ASIC对HBM的需求到2028年将达到2024年水平的35倍。这意味着HBM的增长不仅是短期的景气行情,而是由技术进步和产业趋势推动的结构性、长期性需求。
供给刚性:为什么产能就是追不上?
如果需求是指数级增长,那供给为什么跟不上?
原因在于HBM的供给存在三重刚性约束,每一道关卡都在延缓产能释放的速度。
第一重约束:极端的技术壁垒。
目前全球仅有三家公司能够大规模量产HBM:SK海力士、三星和美光。