推理服务器如果从1:8走向1:4,再进一步走向1:2甚至1:1,CPU需求弹性会被重新打开。
服务器CPU这轮变化,核心看四件事:推理配置上修、新平台切换、产能接近上限,以及产业链反馈中的分层涨价。
一、推理服务器预期走向1:1,CPU需求逻辑被重新打开
产业链调研口径中,训练服务器常见配置是1颗CPU配8张GPU。部分更激进的低成本方案,甚至可能做到1颗CPU配12张甚至24张卡。
但推理服务器的逻辑不同。
训练阶段更像持续喂数据,CPU参与计算比例可能不到10%。推理阶段要做数据分配、结果比对、二次校正,还要承担一部分复杂计算,CPU占用比例可能提高到20%到30%。
这意味着,推理越复杂,CPU越难继续维持低配比。
当前高端推理服务器更现实的方案,是从过去的1:8向1:4过渡。但市场真正关注的,不只是1:4本身,而是后面有没有可能继续向1:2,甚至1:1靠近。
如果推理服务器最终向1:1演进,CPU需求逻辑就会发生明显变化。过去1颗CPU可以带8张GPU,后来变成带4张GPU,如果进一步变成1颗CPU对应1张GPU,同样规模的GPU集群,对CPU的需求量会被显著放大。
这也是服务器CPU重新受到关注的关键原因。
当然,1:1短期未必马上成为主流。它需要更高的服务器投入、更大的用电消耗,也需要下游算力需求持续兑现。但只要推理负载继续提升,CPU配比上修的方向就已经明确。
所以,这条线不能只看现在有多少1:4服务器,而要看预期差:推理服务器如果从1:8走向1:4,再进一步走向1:2甚至1:1,CPU需求弹性会被重新打开。
二、英特尔新一代至强平台进入切换窗口
产业链调研显示,英特尔新一代至强平台正在进入出货和切换阶段,新一代至强平台在2026年Q1开始放量,目前实际出货占比刚超过10%。如果把上一代相关新平台产品也算进去,整体占比接近40%。
所以,接下来的关键是下半年。
按照产业链订单节奏,新一代至强平台在2026年下半年出货占比有望超过50%,上一代平台会逐步退出主力位置。产业链口径显示,Q3订单已在五一前完成,Q4订单预计5月中旬启动。
而且,这代平台的变化主要有三点:
第一,已发布的高端Xeon 6 P-core平台采用Intel 3,较上一代平台制程继续推进。
第二,高端型号核心数提高,公开产品中已经有128核型号。
第三,高核心数摊薄单核成本,也让单颗CPU承担更多调度和管理任务。
这对推理服务器较为关键,因为推理不只是算,还要不断调度、比对、修正。CPU核心数越高,对数据调度和资源管理越有帮助,也更适合CXL共享池这类架构方向。
产业链口径显示,2026年Q1英特尔服务器CPU市占率约70%,Q2目标提升到75%,Q2订单比Q1多约50万片。
此外,2025年英特尔服务器CPU出货约970万颗。
2026年的目标约1200万颗,顺利情况下争取1300万颗。
按季度看,Q1大约250万颗,Q2已经排产300万颗,Q3预计还是300万颗左右。如果Q4也按300万颗计算,全年就是1200万颗左右。
不过,目前服务器CPU产线接近满负荷,单季300万颗接近现有产能上限。通过代工业务,理论上还能补大约100万颗,单季上限可能接近400万颗。
但这100万颗不等于高端AI服务器CPU有效产能。补充产能更多可能用于传统服务器和低端产品。
因为消费级CPU和服务器CPU不能简单互相转产,晶圆切割方式、设备和部分工艺存在差异。按产业链口径,一季度消费端CPU出货约3600万到3800万颗,平均单价200多美元。即使AI PC和换机周期带来消费端回暖,也不能直接缓解服务器CPU缺口。
所以后面的增量,不会主要靠大扩产。
更现实的路径,是先进制程成熟、核心数提高、能耗下降,以及单颗CPU管理能力增强。产业链口径对2027年的判断也比较克制,服务器CPU出货量可能在2026年基础上再增长10%到20%,但很难出现大幅跃升。
三、涨价已经发生,而且是分层涨价
产业链反馈显示,服务器CPU涨价已经开始体现。
头部客户上半年涨幅大约15%。非战略客户涨幅更高,大约25%到30%。Q4前还有进一步涨价计划,但推进会比较谨慎。AMD同期也有涨价,幅度大约15%。
为什么能涨?
第一,新品成本上去了。产业链口径认为,新平台生产成本比老品大约高10%,厂商有成本上涨和技术升级的提价理由。
第二,下游算力服务开始能算过账。客户虽然多付了硬件成本,但如果算力服务收入涨得更快,投入产出仍然划算。
所以这轮涨价不是简单提价,而是三个条件叠在一起:新品替代、供给偏紧、部分下游算力服务开始跑出收益。
四、CXL要等新平台,瓶颈不只是内存
CXL共享池要真正放量,关键看CPU平台。
产业链口径认为,CXL 2.0此前放量有限,一个原因是容量支持不够。CXL 3.0具备更高扩展空间,后续支持CXL 3.0的平台如果落地,会更有利于共享池推进。当前公开Xeon 6平台仍以CXL 2.0为主,因此不能把CXL 3.0写成已随现有平台全面落地。
还有一个容易被忽视的点:内存共享池主要看PCIe通道,不是传统内存通道。
当前CPU的PCIe通道冗余度较高,真正的瓶颈在CPU平台、调度能力和系统效率。Retimer、Switch芯片也需要CPU支持,但不一定非要最新CPU;产业链口径显示,如果是CXL Switch这类场景,客户更倾向用新CPU,因为反馈速度更快、能效更好,长期成本更低。
按产业链反馈,存储短期还不是服务器CPU出货的主要瓶颈。
去年部分OEM厂商已经备了一些内存库存,今年新增需求可以消化一部分库存。真正需要观察的,是端侧AI活跃度能不能持续。如果用户活跃度波动大,存储厂商也不会轻易大扩产。
五、ARM短期声量大,份额还很小
ARM在服务器端热度高,但短期份额还不高。
按该产业链口径,ARM服务器端2025年占比约1%点几,2026年可能到3%左右。增速看起来高,但基数很小。
短期问题主要有三个。
第一,软件生态还不够成熟。
第二,和x86混用需要转译,会浪费算力。
第三,按产业链口径,等量算力下,ARM采购成本现在并不低。
但长期不能忽视ARM。
ARM的优势是低功耗、多核扩展能力强,还有统一内存架构的潜力。如果到2028年到2030年,软硬件生态真正打通,ARM对x86的压力可能明显上升。
也就是说,短期AI服务器CPU主线仍然是x86。长期看,ARM真正的机会不只是芯片性能,而是端侧、云侧、软件生态和统一架构能不能连起来。
结语
整体看,这轮CPU产业逻辑的主要路径为,推理服务器从1:8向1:4过渡,1:4是当前更现实的主流方案;训练阶段CPU参与比例可能不到10%,推理阶段可能提高到20%到30%;新一代至强平台实际出货占比刚超过10%,下半年目标超过50%;英特尔2026年服务器CPU目标出货1200万到1300万颗,但单季300万颗已经接近现有产能上限;头部客户涨价约15%,非战略客户涨价约25%到30%。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.