你有没有注意到一件怪事?
去年这个时候,1TB的固态硬盘,两三百块随便挑。
现在你再去看看——便宜点的都要七八百,稍微好点的直接破千。
内存条更夸张。年初DDR5 16G还是400多块,现在?没有600块你别想拿下。
不只是硬盘。内存、闪存、存储模组……整个存储链条都在动。
但这还不是最魔幻的。
最魔幻的是:做存储芯片的SK海力士,今年一季度毛利率79.3%。你没看错,79.3%。
什么概念?
五粮液毛利率76%左右。贵州茅台毛利率91%。
也就是说,这家做内存的韩国公司,毛利率已经超过五粮液,逼近茅台。
你品品这个画面——卖芯片的,比卖高端白酒的还暴利。
所以问题来了:
为什么存储芯片突然这么赚钱?这波涨价,到底是天灾还是人祸?普通人要不要囤货?企业该怎么应对?
今天,咱们把这件事彻底聊透。
01 存储:一场“教科书级”的供需错配
先说闪存和内存。
这一波涨价,不是某一家在涨,是行业集体行动。三星、金士顿本月内已经两次提价,每次10%。消费级SSD涨价3到4倍,DDR5内存涨价5倍。
你可能会说:是不是厂商联手涨价,搞垄断啊?
还真不是。这波涨价的底层逻辑,比“阴谋论”复杂得多。
一切要从2023年说起。
那一年,存储芯片行业经历了史上最惨烈的熊市。三星、SK海力士、美光,三巨头集体亏损。产能严重过剩,库存堆积如山。怎么办?减产。三星减产,SK海力士减产,美光减产。
砍产能这件事,对这些巨头来说并不难。关几条产线、裁一批工人,数字马上就能降下来。
但问题是——产能这东西,砍下去容易,长回来难。
建一座先进的存储芯片工厂,从选址、环评、建厂、调试、量产,最快也要两年半到三年半。而且不是你想扩就能扩的。半导体制造设备全球就那么几家供应商,光刻机的交货周期都要等两三年。
所以2023年砍掉的产能,现在要想补回来,最快也要2027年甚至2028年。
![]()
也就是说,行业现在处于一个很尴尬的节点:
需求端已经开始爆发,但供给端还在消化2023年“节食”的后果。
那需求端为什么突然爆发?
三个字:AI来了。
你可能会问:AI不是云计算吗?跟我的SSD有什么关系?
关系大了。
英伟达最新的Llama架构,引入了一个新概念——闪存存储层级。单台AI服务器需要1152TB的SSD。
1152TB是多少?你家电脑的固态硬盘大概是1TB,对吧?
也就是说,一台AI服务器需要的存储空间,相当于1000多台普通电脑叠加在一起。
这还只是一台服务器。现在全球科技巨头都在疯狂采购AI服务器,你感受一下这个需求量级。
更何况,大模型在运行时会产生大量“中间计算结果”,需要高速存储暂存;AI智能体(Agent)还要记住每个用户的偏好、历史对话、长期任务状态……终端设备、边缘节点、云端服务器,每一层都在抢存储资源。
需求是跳跃式爆发的。但供给呢?前面说了,扩产要两年半到三年半。
2023年砍掉的产能,2027年才能补上。
![]()
这中间这几年,就是供需错配的窗口期。而在这个窗口期里,谁手里有产能,谁就是印钞机。
SK海力士今年一季度营收52.6万亿韩元,毛利率79.3%——这个数字,一点都不奇怪。
02 CPU:从“指挥官”变成了“大管家”
说完存储,再说说CPU。
你以为只有内存、硬盘在涨?错了。CPU也在涨。
消费级CPU涨价5%到10%,服务器CPU更猛——涨价10%到20%。英特尔宣布涨价,AMD也宣布涨价。
原因跟存储类似,但又不完全一样。
CPU涨价的核心驱动力,是AI智能体时代的“计算力重构”。
先搞清楚一件事:GPU和CPU,到底谁在干什么?
你可以这样理解——GPU是个“计算狂人”。它的强项是并行处理——一次能处理成千上万个任务。训练一个大模型、做图片生成,交给GPU最合适。
但GPU有个致命弱点——它很“笨拙”。你让它算一道数学题可以,但让它去“规划任务”、“调用工具”、“判断对错”,它就不行了。
这些“细碎”的活儿,得交给CPU。
CPU就像一个“全能管家”。单次计算能力不如GPU,但什么都能干——处理逻辑、调度资源、分析判断、读写数据。
那为什么AI智能体时代,CPU突然变重要了?
以前,我们跟AI的交互方式很简单:问一个问题,AI回答一个问题。问答结束,各回各家。这种模式下,CPU确实用不上多少。
但现在不一样了。
AI正在从“问答”进化到“执行”。
用一个比喻。以前我们去餐厅,点餐就行了。现在,我们直接把厨师请回了家,让他全权管家里的一日三餐。
点餐很简单,来了就问“你要什么”,上菜就完事。
但包厨就不一样了。
厨师得先搞清楚你家几口人、谁忌口、今天什么心情、冰箱里还有什么食材。然后制定菜单、去超市采购、回来做饭、摆盘上桌。中途如果发现盐不够了,还得临时应变……
这一整套流程里,真正“开火做菜”的时间只占一小部分。大量的时间,都花在了前期准备、协调调度、中途判断上。
AI智能体的工作模式,就是这样。
![]()
举个例子。你跟AI说:“帮我规划下周的出行行程。”
AI得先听懂你的意思,再把这件事拆成十几个小任务,然后一个一个地去调地图、查天气、翻日历……每调一次工具,CPU就要发一次指令、等一次结果、检查一次对不对。最后,把所有碎片拼成一段话反馈给你。
这一整套流程里,GPU只负责中间某几步的计算。其他的,全是CPU的活儿。
而且,一个智能体不是只服务一个用户。它可能同时服务成百上千个用户,每个用户都在走自己的“完整流程”。
这就出现了一个关键问题:GPU计算能力虽然强,但它很“挑剔”。你得先把数据喂给它,它才能开始干活。一旦数据供给跟不上,GPU就会空闲。GPU空闲一秒钟,企业就损失一秒钟的算力成本。
为了不让GPU闲着,企业必须维持庞大的CPU集群,专门负责给GPU输送数据、协调任务、处理结果。
这就是为什么,服务器里CPU和GPU的配比,从过去的1:12,变成了现在的1:2,甚至2:1。
以前,一颗CPU管12颗GPU,CPU主要负责“发号施令”,活儿都让GPU干。
现在,CPU从“指挥官”变成了“大管家”。它不只要发号施令,还要管数据、管工具、管验证、管协调……
以前是1个将军管12个士兵,现在是2到4个将军管2个专家。
CPU的数量需求,暴增了。
需求翻倍式增长,但CPU的产能跟上来了吗?
没有。
能生产高端CPU芯片的,全球就那么几家:台积电、三星、英特尔自己。而台积电的策略是“稳健扩产”——不激进扩张,优先保证毛利率。
换句话说,台积电拒绝大规模扩产。因为它知道,如果一口气扩太多,等这波AI需求过去,产能过剩会把自己拖垮。所以它选择慢慢扩、高价卖、保证利润。
先进制程的产能,就这样成了稀缺资源。
![]()
供需缺口,预计要延续到2026年甚至2027年。
03 这不只是你买硬盘的问题
你可能会想:存储涨价、CPU涨价,我又不买服务器,是不是跟我没关系?
还真不是。
这波涨价,不是某一个环节在动,是整条产业链在共振。
AI芯片的“黄金搭档”HBM(高带宽内存),一颗的价格比普通内存贵了十几倍,还经常买不到。先进封装产能紧张,价格水涨船高。晶圆代工,硅片,光刻胶——整条链子,从上游到下游,全在涨。
这意味着什么?
成本压力会从上游传导到下游,最终传导到每一个消费者身上。
你买的AI服务、用的智能音箱、坐的智能汽车……它们的核心部件成本都在涨。只不过这个涨价传导到你手上,可能需要几个月到一两年的滞后。
04 最后
说了这么多,你会发现一个规律:
AI的需求是爆发式的,而人类的产能是保守的。
2023年,大家看不到未来,集体砍产能。2024年,AI需求爆发,大家想扩产能,但设备交货周期、工厂建设周期、人才储备……全都在拖后腿。
最快要到2027年,新产能才能批量释放。
这波“芯片牛市”,大概率还有两到三年的持续期。
那问题来了——
当所有人都知道产能要到2027年才能跟上的时候,你会怎么做?
囤货?等涨?还是相信技术进步会带来意外的突破?
说实话,这个问题没有标准答案。
但有一点是确定的:
AI时代的竞争,已经不只是算法和应用的竞争了。它正在深入到最底层的“算力战争”。
谁掌握了产能,谁就掌握了定价权。谁掌握了定价权,谁就能在AI时代分到最大的蛋糕。
![]()
SK海力士79.3%的毛利率,已经说明了一切。
产能就是话语权。这场战争里,没有产能的人,只能接受别人定的价格。
芯片战争,才刚刚开始。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.