01 这场AI战争,最先被打爆的不是GPU,而是“路”
今天全世界都在谈AI算力。
谈英伟达,谈H100,谈B200,谈“几万张卡一夜起飞”。
但你如果真的进过数据中心,就会发现一个残酷现实:
算力不是凭空出现的。
GPU再强,也只是一个“发动机”。
发动机想把车跑起来,你得有——
路(互连)
油(供电)
水(散热)
仓库(存储)
交通规则(网络协议)
而这其中,最先被打爆的,往往不是发动机,而是路。
当AI集群规模从“万卡”走向“十万卡”“百万卡”,整个系统最恐怖的瓶颈只有一个:
数据,跑不动了。
于是,一个以前不怎么上热搜的名字,开始频繁出现在云厂商的会议桌上——
Marvell(迈威尔)。
![]()
它不是GPU巨头,但它干的是更“硬”的活:
让数据在AI数据中心里跑得更快、更稳、更省电。
它自己的话说得很直白:
他们要做的,是“move、store、process、secure”全世界的数据。
说白了就是:
AI时代,谁掌握了数据的流动,谁就握住了算力的命门。02 Marvell到底是谁?它不是明星,它是“军火商”
很多人对Marvell的印象还停留在:“存储芯片”“网卡”“以太网交换”。
但你看它的企业概览就知道,这家公司压根不是“某个单点产品公司”。
它是一家全球fabless半导体供应商,1995年成立,员工6900+,专利10000+,FY25营收约58亿美元。
![]()
重点不是规模,而是定位。
Marvell的定位是:
数据基础设施(data infrastructure)公司。
它不是造“AI大脑”的。
它造的是“大脑的神经系统”。
而神经系统一旦崩了,大脑就只能瘫着。
03 AI数据中心的三大件:算力、互连、交换机 Marvell要做的是“全包”
在Marvell的叙事里,AI数据中心的“加速基础设施”主要分三块:
1)Custom Compute(定制计算)
包括 XPUs/CPUs/DPUs/NICs
2)Interconnect(互连)
包括 PAM/coherent/coherent-lite/AEC DSP、PCIe retimers、DCI模块、TIA/driver 等
3)Network Switching(网络交换)
包括 scale-up 和 scale-out 的交换芯片
你看出来了吗?
Marvell不是说“我只做某个点”,它是说:
我把AI数据中心里最容易卡脖子的环节,全给你包了。
这就是它的狠。
04 AI真正的增长引擎:不是大模型,是“数据中心资本开支”
Marvell在投资者材料里摆了一个很有冲击力的数字:
数据中心CAPEX在快速膨胀,甚至要冲到2028年1万亿美元级别。
什么意思?
这意味着未来几年,全球最有钱的一群公司——云厂商、AI巨头、国家算力项目——
都会把钱砸进数据中心。
但砸钱砸到后面会发现:
你能买到GPU,但你买不到“让GPU高效工作”的系统能力。
于是“隐形军火商”开始抬价。
05 迈威尔最核心的野心:吃掉“定制AI芯片”时代
过去,云厂商买芯片的逻辑很简单:
你(英特尔/英伟达)做什么
我就买什么
但AI时代,逻辑变了。
云厂商要的不是“通用最强”,而是:
我自己的业务,最省电、最便宜、最适配的那颗芯片。
于是定制化成为主线。
Marvell直接把这件事讲成了一个时代变化:
从“x86跑一切”到“异构计算”,再到“云优化硅(cloud-optimized silicon)”。
而在它的Custom AI Investor Event里,它把市场拆得非常清楚:
到2028年,Marvell认为数据中心TAM可到 94B美元,其中加速定制计算增长最猛
“定制XPU + XPU attach”会成为巨大增量
它甚至提出目标:在custom compute与attach里冲到20%份额
这就不是“卖芯片”了。
这是在抢AI时代的数据中心底座。
06 什么叫“XPU attach”?这才是Marvell的狠活
很多人只盯着“谁在做XPU”。
但Marvell说得更现实:
真正的爆发,可能不在XPU本身,而在XPU周围的“外挂生态”。
它把custom TAM定义成:
XPU + XPU attach
XPU attach是什么?
它包括:
网络接口
scale-up fabric
安全与主机管理协处理器
memory pooler/expander 等等
这东西的本质是:
当AI集群大到一定程度,芯片不再是一颗芯片,而是一套系统。
系统里每一个“外挂”,都能成为几亿美元、甚至十亿美元级的生意。
Marvell还给了一个非常刺激的描述:
pipeline机会 >50
客户 >10
生命周期收入 75B美元
这不是在卖产品,这是在做“长期绑定”。
07 真正的技术壁垒:SerDes、光、电、封装、工艺 这才是AI基础设施的“内功”
AI时代最反常识的一点是:
你以为决定胜负的是算法、模型、GPU。
但当集群规模上来,决定胜负的往往是:
谁能让信号跑得更快,功耗更低,误码更少。
Marvell在材料里反复强调它的“底层积累”:
5nm/3nm/2nm平台
高速混合信号能力(high-speed mixed signal)
多die集成、CPO(共封装光学)、in-package memory
你要注意:这些东西不性感,但它们决定了AI集群能不能活下去。
尤其是互连。
比如它的 Ara PAM4 DSP,就是典型的“AI互连硬通货”:
3nm工艺
8×200Gbps PAM4电接口
1.6Tbps总带宽
面向OSFP/QSFP-DD 1.6T光模块场景
换句话说:
当你开始谈1.6T光模块时,你已经进入了“AI数据中心下一代战争”。08 结尾:Marvell不是“下一家英伟达”,它是“AI时代的水电煤”
最后我们总结一下:
英伟达是AI时代的“发动机”。
但Marvell更像是——
电网(供电/稳压/能效)
高速公路(互连/SerDes/光电转换)
交通枢纽(交换芯片)
系统集成商(定制计算与XPU attach)
发动机可以换品牌。
但水电煤,你绕不开。
Marvell的核心叙事就一句话:
加速计算依赖加速基础设施。
而当全世界开始堆AI算力时,真正的赢家,往往不是站在聚光灯下的人。
而是那个在黑暗里,修路、铺电、架桥的人。
欢迎加入行业交流群,备注岗位+公司,请联系老虎说芯(加V:tigerchip)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.