![]()
Arm今天干了件35年来头一回的事——推出自家设计的成品芯片Arm AGI CPU,不是卖IP授权,不是卖架构方案,是直接能插电用的处理器。
这相当于米其林不只做轮胎配方,开始造整车了。过去Arm靠Neoverse平台养活了一堆云厂商的定制芯片,AWS Graviton、Google Axion、微软Cobalt、NVIDIA Vera都是它养大的孩子。现在亲爹下场,说"我来做个样板给你们看"。
AI数据中心正在变天。以前人类是瓶颈——你得敲键盘、点鼠标、等响应。现在软件代理(agentic AI)自己跑任务、协调模型、实时决策,CPU从"等人用"变成"全年无休"。
这就对处理器提出了变态要求:不是峰值性能多好看,是几千核并行时能不能持续输出,同时别把数据中心烤熟。
一张图看懂Arm AGI CPU的暴力堆料
Arm放出的参考设计像乐高说明书:1OU高度塞2颗芯片,272核;一个标准36kW风冷机柜塞30块板子,8160核。和Supermicro合作的液冷方案更夸张,200kW机柜塞336颗CPU,超过45000核。
对比最新x86系统,Arm号称单机柜性能翻倍。数字背后是设计哲学的差异——x86架构像瑞士军刀,什么都能干;Arm AGI CPU像专用流水线,为"大规模并行+持续高负载"这一件事优化到极致。
从频率到内存架构到I/O,每个环节都为"机柜里塞满代理程序同时跑"服务。这不是通用计算,是给AI基础设施造的专用引擎。
![]()
为什么现在下场?生态在逼宫
Arm Neoverse已经撑起主流云平台的AI底座,但合作伙伴的胃口越来越大。定制芯片周期长、投入重,很多客户想要"开箱即用"的选项。Arm AGI CPU填补了这个空档——你可以继续自研,可以买CSS方案,也可以直接搬Arm的成品。
三层选择背后是个残酷现实:AI基础设施迭代速度远超传统芯片周期。等一款定制芯片流片回来,模型架构可能已经换了两代。Arm亲自下场做"现货",相当于给生态系加了个保险档。
代理式AI的硬件隐喻
有个细节值得玩味:Arm把这款芯片命名为"AGI CPU",不是"AI加速卡"也不是"推理专用芯片"。它坚持CPU是AI数据中心的节拍器—— orchestrating(编排)加速器、管理内存、调度任务、在系统间搬运数据,现在还要协调成百上千个代理的扇出执行。
这有点像交响乐团里的指挥。不是音量最大的那个,但所有声部能不能对齐,全靠它。
当NVIDIA把GPU变成AI时代的通货,Arm似乎在押注另一个事实:再强的加速器也需要一个足够聪明的CPU来喂饱。单机柜8160核的配置,本质上是在问——如果每个代理都需要实时响应,你的指挥系统能同时盯多少个?
Arm的答案是:先造一个能盯8000多个的,看看市场要不要更多。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.