![]()
AI智能体的崛起,正在悄悄改写数据中心的权力结构。
过去两年,行业聚光灯一直打在GPU上,训练大模型需要算力,英伟达成了无可争议的主角。但随着AI的应用重心从模型训练转向推理执行,智能体开始大规模部署,CPU的角色被重新定义。
智能体生成的Token数量呈指数级增长,背后是CPU扛下推理、协同调度与数据迁移的繁重负载。随着企业不断扩大由智能体驱动的应用规模,数据中心对每GW功耗提供的CPU算力需求将增长至当前的四倍以上。
这意味着必须在相同功耗限制下实现算力的大幅提升——直接催生了专为AI规模化基础设施量身打造的新一代CPU。
当地时间2026年3月24日,Arm宣告推出自研Arm AGI CPU,卡位AI数据中心赛道,瞄准爆发式增长的代理式AI工作负载需求。
![]()
AGI CPU的亮相,暗藏着Arm的"平台级"战略升级:其业务版图不再局限于IP授权与计算子系统(CSS),还延伸至自主设计、可规模化量产的芯片产品。
"AI从根本上重塑了计算的构建与部署,代理式计算正进一步加速这一变革。今天标志着Arm计算平台迈入全新发展阶段,也成为公司发展的重要里程碑。"Arm首席执行官Rene Haas表示。
此前,x86的演进路径长期面向"人机交互"优化,追求高主频及复杂的指令集兼容性。这些特性在桌面和通用服务器时代是优势,但在Agentic AI数据中心,反而成了"额外的开销与复杂冗余"。
Arm AGI CPU的设计,则完全围绕AI时代的"刚需"展开。
性能上,单颗CPU集成多达136个Neoverse V3核心,在单核、SoC、刀片服务器及机架级均实现行业领先性能,同时配备每核心6GB/s内存带宽,时延低于100ns。300瓦TDP功耗规格配合独立线程核心架构,使其能在持续高负载运行中保持稳定确定性性能,有效避免降频与线程资源闲置。
![]()
能效层面,AGI CPU既支持风冷方案适配高密度1U服务器,单机架可部署8160个计算核心,也可通过液冷实现超45000核的机架级规模。更关键的是,其单机架性能达到x86平台的两倍以上,每GW AI数据中心算力的资本支出节省高达100亿美元。
一款芯片能否成功,产品定义只是第一步,生态的厚度才是决定天花板的关键。
Arm AGI CPU发布的同时,Meta的位置最为特殊——双方并非简单的供需关系,而是深度绑定的技术同盟。Meta不仅是早期客户,更参与了芯片的联合开发,从需求定义、架构优化到场景验证,全程深度介入。这种模式的商业逻辑很清晰:Meta需要一颗与其自研MTIA加速器完美协同的CPU,而Arm需要一家拥有"吉瓦级"数据中心规模的伙伴来打磨产品。
除Meta外,Arm已确认与Cerebras、Cloudflare、F5科技、OpenAI、Positron、Rebellions、SAP、SK电讯等企业达成商务合作。为了加快产品落地,Arm与永擎电子、联想、广达电脑、Supermicro等头部OEM及ODM厂商展开合作,早期系统现已推出,更广泛的商用部署预计将于2026年下半年落地。
亚马逊云科技、博通、谷歌、Marvell、美光、微软、NVIDIA、三星、SK海力士、台积公司等AI基础设施上下游关键玩家,均对Arm计算平台向芯片领域拓展表示支持。
当Agentic AI对CPU提出全新定义,Arm选择以实体产品回应市场的真实诉求。从卖蓝图到交钥匙,从影响生态到服务生态——Arm的计算平台正式进入全新阶段。
一位参与早期测试的工程师在内部反馈中写道:"我们原以为这只是另一颗Arm芯片,直到发现它能让机架里的GPU不再空等。"
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.