文 | 象先志
吴泳铭在上月阿里财报会上,提过三个阿里云未来增长的最大动能:MaaS公有云,企业级内部推理和训练市场,以及以CPU为主的传统云计算需求。
前两个方面非常清晰,随着模型应用越来越广泛,云厂商既提供直接的Token API售卖,也支撑有更强能力和需求的企业做训练和推理。
第三个增长方向,相对来说没那么耀眼,但趋势正在被进一步验证。云计算产业链的上游,英特尔迎来顺风局。
过去几个季度,这家公司逐步走出此前的低谷。
以2026年第一季度为例,英特尔实现营收约136亿美元,同比增长约7%。
其中,数据中心与AI(DCAI)业务收入约51亿美元,同比增长超过20%,成为最主要的增长来源。相比之下,PC相关业务整体仍然处在相对平稳甚至略有波动的区间,已经不再承担增长引擎的角色。
利润端的情况更复杂。
GAAP口径下,英特尔仍录得约37亿美元的净亏损;但在非GAAP口径下,公司已经恢复到每股约0.29美元的盈利水平。
两者之间的差异,主要来自重组费用、股权激励以及部分一次性项目的调整,而不是日常经营成本本身。
现金流和支出结构也能反映出当前阶段的特征。英特尔仍在维持较高的资本开支强度,用于推进先进制程和扩建产能。
这意味着公司当前改善并不是单纯“收缩成本”中实现的,而是在投入仍然较高的情况下,由需求侧主导的修复。
市场的反应相对直接。
在连续几个季度表现好于预期之后,英特尔股价出现明显修复。投资者开始重新评估这家公司在AI周期中的位置,也开始重新讨论它的长期叙事是否需要调整。
![]()
老英的顺风局
把英特尔最新一季财报拆开看,这一轮回暖其实可以被更清晰量化。
2026年第一季度,英特尔实现营收136亿美元,同比增长约7%,同时明显超出市场预期(约124亿美元) 。这是公司连续第六个季度跑赢市场预期,意味着需求端的改善已经具有连续性,而非仅仅单次反弹。
其中客户端计算(CCG)收入约77亿美元,同比增长1%。数据中心与AI(DCAI)收入约51亿美元,同比增长22% 。
这两个数字放在一起看,很容易看出主导关系已经发生转移。
PC业务仍然是最大体量,但几乎不再提供增长。真正推动整体收入上行的力量,是数据中心和AI相关业务。
DCAI这一块不仅增长快,而且质量高:收入同比增加约10亿美元(从约41亿到51亿),经营利润率显著改善(接近30%水平) 。
再看利润端。GAAP每股亏损:-0.73美元;非GAAP每股收益:+0.29美元
制造端持续投入,折旧和前期成本较高,同时仍在消化过去几年的重组费用。
英特尔现在的状态是核心业务已经恢复赚钱能力,但整体仍被制造转型拖累。
Foundry收入约54亿美元,同比增长约16%,仍处于亏损状态 。 (Foundry里有大量是给Intel自家产品部门“内部制造”的分部收入,合并报表时必须抵消,不能当成外部客户收入和其他业务相加。)
这在当前阶段并不意外。
先进制程的推进需要持续投入,叠加过去几年积累的重组成本,使得GAAP口径下仍然承压。这种状态更像是一个“中间阶段”,需求已经恢复,但成本结构还没有完全调整完成。
好在顺风局还在持续。公司在财报和电话会中反复提到:服务器CPU需求强劲,AI相关负载带动通用计算需求,多个大客户签订长期供货协议。市场层面已经有更直接的表现,服务器CPU价格上涨、供给趋紧 。
现任掌舵人陈立武在2024年底正式接任英特尔 CEO。
相比此前的管理层,他的背景更偏向EDA和半导体生态(长期执掌Cadence),在产业链协同和资本配置上经验更深。上任之后的一年时间里,他的动作没有特别激进,但方向清晰。
![]()
2025年初开始,公司逐步推进组织收缩,减少非核心项目,降低内部复杂度。
与此同时,裁员和成本控制持续推进,属于过去几年重组的延续,但执行上更明确。资源配置开始明显向数据中心和企业侧倾斜,消费端和一些边缘业务的优先级被下调。
这样看来AI是真坏呀。夺走了显卡,夺走了内存,夺走了CPU,还可能要夺走我们的工作。
另一个变化体现在执行节奏上。过去几年,Intel同时推进多个方向,从GPU到代工,再到不同制程路线,整体节奏比较分散。
管理层调整之后,重点开始回到既定路线本身:优先保证数据中心产品的推进节奏,同时把制程节点按计划落地,而不是不断扩展新的尝试方向。
这种变化不一定会立刻体现在某一个指标上,但会逐渐反映在产品交付和收入结构中。
AI也跟CPU有关
AI产业最早的爆发,集中在模型训练。算力需求集中释放,对性能的要求极高,资源呈现出明显的集中使用特征。这也是为什么GPU在过去两年成为绝对核心。
但当模型开始进入大规模使用阶段,计算的形态发生了变化。训练只是大模型产出的起步环节 ,AI系统不可能训练完成就结束。模型需要被嵌入到具体业务中,接受用户的访问和请求,成为长期运行的基础设施。
一般的AI应用,它不需要极致算力,但需要持续处理大量请求,每一次对话都涉及模型调用、数据读取和状态维护。想想过去那道做开发的经典面试题,浏览器输入网址敲下回车后发生了什么。
从龙虾到爱马仕,一个agent往往不只是调用模型生成文本,还会执行完整流程:查询数据库、调用外部接口、处理结果并写回系统。这类任务更接近传统软件系统,而不是生成式计算。
这些场景带来的变化,意味着时间维度上,计算不再集中在短时间内,而是长期持续运行。负载形态上,请求数量在增长,但单次计算强度相对稳定,系统负载更加平滑。
算力需求从GPU到CPU和其他传统计算设施的溢出就自然发生。
GPU仍然承担训练和推理任务,但大量基础工作还是得由通用计算资源完成。CPU负责调度和控制,内存和存储支撑数据访问,网络负责连接各个模块。
整个系统更像一个持续运转的基础设施,而不只是一台专门用于高性能计算的机器。当AI的增长越来越体现在“使用频率”和“运行规模”上时,通用算力的重要性就会随之上升。
比如相较于放在家里时刻开机的Mac mini,云端Linux实例配置方便得多,而且成本算下来更低。
在服务器体系中,其实本来大量传统计算并不发生在GPU上,而是围绕数据处理、任务调度和系统运行展开,只是过去一段时间被训练需求高峰的突出性所掩盖。
英特尔在这一层有很深的积累,Xeon仍然是主流服务器平台之一,公司也在强化这一方向,通过产品更新和资源倾斜,优先满足数据中心需求。
制造能力是另一个需要单独看的变量。
英特尔仍然保留自有工厂,这是和大多数芯片设计公司不同的地方。在需求持续扩大的情况下,产能本身会成为约束条件之一。能够在内部保障一部分供给,对数据中心客户来说,是一个现实的优势。
不过,这种优势目前还不完整。
英特尔自身已经进入混合制造模式。以新一代客户端产品为例,不同模块分别采用自家工艺和台积电制程。在GPU和AI加速器方向,对外部代工的依赖更为明显。这意味着,公司在先进制程上的能力仍在追赶过程中。
Foundry业务代表的是一个长期方向,既会对利润形成持续压力,也增加了整体不确定性。
坦率的说,追赶台积电或者保证现有制程差距不扩大,如果你将其理解为制造业的一类细分行业,那英特尔的胜算可能不是那么高。
如果没有来自非商业因素的压力,我真怕老英随时步AMD的后尘,随时撂挑子不做了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.