![]()
当地时间3月24日,从半导体IP厂商转型而来的Arm公司终于突破了其原有的产品矩阵和商业务模式,首次将产品矩阵延伸至量产芯片产品领域,正式发布了一款由 Arm 自主设计、面向人工智能 (AI) 数据中心的CPU——AGI CPU,旨在满足日益增长的代理式 AI (agentic AI) 工作负载需求,这一点从其“AGI ”(Agentic AI,代理型人工智能)的命名就能看出。互联网巨头Meta已经确认将是AGI CPU的首批客户。
![]()
Arm为什么要自研数据中心CPU?
近三十多年来,Arm作为全球最大的半导体IP提供商,为全球数千亿台设备提供了可扩展、高能效的计算能力。根据Arm在发布会上公布数据显示,目前基于Arm架构的芯片累计出货量已超过3500亿颗,全球每个家庭的 Arm 芯片数量平均达到了160个。
![]()
Arm过去的“授权+版权”的独特商业模式在半导体行业家喻户晓,其毛利率虽然接近98%,但收入规模受限于芯片厂商的授权量和芯片单价,营收规模一直也比较小,其2024自然年的营收还不足30亿美元。
因此,为了提升业务规模,Arm在2023年就推出了计算子系统(CSS),这是针对客户的需求来发展类似半定制化的IP整合包服务(预集成更多经验证的Arm IP)。Arm希望通过结合更高技术含量的CSS技术等平台产品,提高利润率,并提高其在每个芯片上收取的版税,来扩大收入并提高利润。在CSS业务的推动下(目前CSS收入在营收中的占比已经达到了20%),Arm在2025自然年的营收刚刚突破了40亿美元,但是这仍远低于其众多主要芯片客户的收入。
现任 Arm CEO就任后,一直在努力推动Arm突破现有的商业模式,不断探索通过打造基于Arm IP的完整芯片解决方案,直接向客户销售自研的物理芯片,达到根本性的营收提升。
另一方面,Arm也观察到,随着 AI 正在重塑全球计算基础设施,数据中心对于CPU的需求正在高速增长。十多年前的云计算服务都是基于CPU的,随着AI时代的到来,数据中心也开始进入基于GPU和AI加速器的加速计算时代,随着AI数据中心的建设高速增长,这对于CPU需求也在快速增长。目前,1吉瓦的数据中心就需要3000万个CPU核。
特别是随着AI需求由训练转向推理,AGI(Agentic AI,代理型人工智能)时代的到来,AI系统需要大规模、持续运行,自主完成复杂任务的规划与执行,这意味着对于数据中心的协调与调度的算力需求将会指数级增长。
比如,近期OpenClaw等Agent产品的爆发,让数据中心对算力的需求出现明显拐点。Agent的工作方式与传统AI推理存在本质区别:它需要7×24小时运行,而非单次响应请求;能够自主完成多步骤任务的规划与执行;并可与外部系统、API、用户进行复杂交互。
这些特性对CPU提出了全新要求:低延迟、高并发、可预测的性能表现,以及极致的能效比。因此,数据中心的算力需求正在发生结构性变化——CPU重新成为决定整个系统效率的关键。
![]()
根据Arm的预测,在当前传统数据中心架构下,每1吉瓦的数据中心算力,对CPU的需求的是3000万个CPU核。而在AGI时代,每1吉瓦的数据中心算力,对CPU的需求将会增长到1.2亿个,达到目前的约4倍。在此背景之下,对于数据中心的能源需求也将飙升,这对于CPU的能效表现也带来了更高的要求。而在数据中心市场,Arm CPU的高能效表现也正是其与x86 CPU竞争的关键优势。
![]()
正是这一需求上的变化,也推动了Arm突破其原有的产品矩阵和商业模式,在原有 IP、CSS计算子系统业务基础上,新增 Arm 自主设计的芯片产品,并且一开始瞄准的就是在AI浪潮之下高速增长且利润丰厚的数据中心CPU市场。
Arm 首席执行官 Rene Haas 表示:“AI 从根本上重塑了计算的构建与部署,代理式计算正进一步加速这一变革。今天标志着 Arm 计算平台迈入全新发展阶段,也成为公司发展的重要里程碑。随着Arm AGI CPU 芯片的推出,我们将基于 Arm 高性能、高能效的计算基石,为合作伙伴提供更多选择,助力代理式AI 基础设施实现全球规模化部署。”
AGI CPU:136个Neoverse V3核心,功率300瓦
作为Arm首个面向数据中心的自研CPU,AGI CPU基于台积电3nm制程,单个AGI CPU最多可支持136个Neoverse V3核心,主频3.2 GHz,最高频率3.7 GHz,每线程独立核心,可在持续负载下提供确定性性能,避免降频与线程闲置。这136个核心分布在两个小硅芯上,TDP在300瓦左右。
![]()
需要指出的是,Neoverse V3核心是Arm在2024年推出的新一代面向数据中心的CPU内核IP,集成于Neoverse CSS V3。而Arm AGI CPU之所以选择Neoverse V3核心,关键在于其面向AI做了非常大的改进,最多配备了八个128 位向量计算单元,在人工智能数据分析(AI data analytics)方面,性能相比Neoverse V2大幅跃升了84%。
在内存和接口支持方面,AGI CPU它支持 12 通道 DDR5 内存,最高可达 8800 MT/s,可提供超过 800 GB/s 的总内存带宽,或每核心 6GB/s的带宽,延迟低于100ns。I/O包含96条PCIe Gen6通道,并原生支持CXL 3.0以实现内存扩展和池化。
![]()
Arm表示,基于以上特性,AGI CPU能够实现更高的工作负载密度,更优的加速器利用率,并在现有功耗预算内释放更多可用算力。在 AI 基础设施持续扩展的过程中,这些都是至关重要的优势。
在具体性能表现上,根据Arm官方公布的数据显示,AGI CPU不论是单线程的持续性能、还是每机架的持续性能、以及每瓦特性能的表现上都远超X86 CPU平台。
![]()
Arm表示,AGI CPU 可实现单机架性能达到 x86 CPU平台的两倍以上。
![]()
在数据中心部署上,AGI CPU支持高密度 1U 服务器机箱的风冷部署方案,单机架可支持多达 8,160 个计算核心;同时也支持液冷系统,单机架可实现超过 45,000 个核心的部署规模。
Arm还推出了一个符合开放计算项目DC-MHS标准的10U双节点服务器
参考设计平台,每个刀片配置两颗AGI CPU,标准的风冷36kW机架可容纳30片刀片,共8,160个核心。Arm还与超微电脑(Supermicro)合作,开发了一款200kW液冷配置,拥有336颗AGI CPU和45,696个核心。
![]()
Arm还指出,基于Arm AGI CPU,每1吉瓦 AI 数据中心算力的资本支出 (CAPEX) 相比x86 CPU平台可节省高达 100 亿美元。
![]()
此外,Arm还披露了AGI CPU的路线图,2027年将会推出基于CSS V4的
AGI CPU 2,之后还将推出基于CSS V5的AGI CPU 3。
![]()
Meta成为首家客户,数十家合作伙伴入局
作为 Arm AGI CPU 的早期合作伙伴及联合开发者,Meta 利用该代理式 AI CPU 优化其全系应用的基础设施,并与其自研的 Meta 训练与推理加速器 (MTIA) 协同部署,从而在大规模 AI 系统中实现更高效的编排与调度。双方承诺将围绕 Arm AGI CPU 的多代芯片产品展开长期深度合作。
![]()
更值得关注的是,Meta计划在今年晚些时候通过Open Compute Project(OCP)开源AGI CPU的板卡和机架设计。这意味着其他厂商可以基于Meta的开源设计快速部署基于AGI CPU的服务器系统,这将极大加速该芯片的生态扩张。
Meta 基础设施负责人 Santosh Janardhan 表示:“要在全球规模化提供 AI 体验,需要一套稳健、可适配性的定制化芯片解决方案,专为加速 AI 工作负载、优化 Meta 全平台的性能而打造。我们与 Arm 携手开发 Arm AGI CPU,以部署一套高效的计算平台,在显著提升数据中心性能密度的同时,为我们持续演进的 AI 系统构建跨多代产品的技术发展路线图。”
除 Meta 外,Arm 已确认与 Cerebras、Cloudflare、F5 科技、OpenAI、Positron、Rebellions、SAP、SK 电讯等企业达成进一步的商务合作。这些客户将在代理式 CPU 核心应用场景中部署 Arm AGI CPU,覆盖加速器管理、控制平面处理、云与企业级 API、任务与应用托管等领域。
为加快产品落地与规模化部署,Arm 与永擎电子、联想、广达电脑、Supermicro 等头部 OEM 厂商及 ODM 厂商展开合作,早期系统现已推出,更广泛的商用部署预计将于今年下半年落地。
![]()
超大规模云服务商、云计算、芯片、内存、网络、软件、系统设计与制造等领域的 50 余家领军企业,均对 Arm 计算平台向芯片领域拓展表示支持。其中包括亚马逊云科技、博通、谷歌、Marvell、美光、微软、NVIDIA、三星、SK 海力士、台积公司等行业标杆企业。
![]()
目标市场将达1000亿美元
对于Arm来说,其突破原有商业模式,自研芯片来销售给终端客户,虽然能够快速增加新的收入来源,但是也将会带来成本的大幅提升、毛利率的下滑。并且还会出现与高通、联发科、谷歌、英伟达、亚马逊、微软等客户竞争的局面,这也确实可能会对其来自部分客户的未来收入造成一些负面影响。
Arm此前也曾表示,如果公司选择制造完整的芯片,它将蚕食公司的利润,并不能保证成功。因为,先进的人工智能芯片仅硅的制造的成本就高达5亿美元,支持它所需的服务器硬件和软件的成本可能更高。
不过,正如前面所提到的,Arm之所以亲自下场推出自研的CPU正是看到了AGI时代到来对于数据中心CPU的巨大需求。同时Arm目前的自研CPU也主要聚焦于数据中心市场,并不会与智能手机、汽车及物联网芯片客户产生竞争。所以,对于Arm现有客户的冲击是十分有限的。
另一方面,目前的Meta、亚马逊、微软等众多的云服务厂商本身就都有在自研基于Arm架构的数据中心CPU,而他们之所以选择自研,更多的也是出于一些定制化的需求和成本上的考量。如果Arm能够为他们提供符合他们需求的数据中心CPU,并且能够带来性能、能效、成本更优秀的解决方案,那么他们也就无需继续在自研数据中心CPU上投入更多的人力、物力和财力,这将会带来巨大的成本降低。更何况,他们目前的自研CPU很多也是与博通等第三方的芯片定制服务商合作推出的,而这些CPU本身就是基于Arm的IP。
Arm CEO Rene Haas也强调:“客户需求是推动公司做出这一决定(推出Arm AGI CPU)的重要原因。”这意味着,Arm并非要与客户抢生意,而是现有合作伙伴——尤其是超大规模云厂商——在AI算力爆发式增长的背景下,对定制化、高能效CPU的需求已经超出了单纯IP授权所能满足的范畴。
当然,对于Arm本身来说,推出自研的AGI CPU,直接向客户销售,将会迅速为Arm带来营收的大幅增长。要知道目前最贵的智能手机芯片也不过200美元左右(Arm通过版税收入所能拿到的就更低),而数据中心芯片的单价则可高达上万美元。
Rene Haas在发布会现场也直言,推出自研的AGI CPU芯片旨在“获得AI基础设施支出中更大份额”。在云数据中心的强劲发展态势,让Arm做过一个大胆的预估,Arm 架构将占据半数 2025 年出货到头部云服务提供商的算力。据悉,该目标在去年已经实现,但 Arm 的布局显然不止于此。在激烈的数据中心竞争中,想要撼动传统巨头地位、占据有利竞争优势并非易事,但随着 AGI CPU 的推出,这一目标有望逐步实现。
Rene Haas还预计,新自研CPU芯片业务到2030年的可用市场空间将高达1000亿美元,并且将会带动Arm整个的可用市场空间突破1万亿美元。
![]()
![]()
在此基础上,Arm预计,到2030年公司的自研芯片业务将会创造约150亿美元的年度营收,推动公司总销售额达到250亿美元,超过当前水平的五倍。
小结:
Arm AGI CPU的发布,标志着这家半导体IP巨头完成了从“幕后功臣”转向“台前巨头”的关键跃迁。
在AI基础设施支出持续膨胀的背景下,Arm决心跨出IP授权费和版税等IP与CSS的产品战略,而是选择直接参与万亿美元算力市场的价值分配。这一决策的风险显而易见——与现有客户的关系将变得更加复杂,竞争压力也急剧加大。
但Arm的赌注同样清晰:在Agentic AI时代,CPU的价值将被重新定义。那些能够提供极致能效、超高密度、可预测性能的CPU,将成为AI基础设施中不可或缺的算力底座。
正如Haas所言:“AI从根本上重新定义了计算的构建和部署方式。智能体计算正在加速这一变革,今天标志着Arm计算平台进入下一个阶段。”
目前,首批搭载Arm AGI CPU的服务器系统已在部分客户中投入使用,更大范围的商用部署预计将在2026年下半年展开。这场从幕后到台前的转型,其成败将决定Arm在未来十年AI算力版图中的最终位置。
编辑:芯智讯-浪客剑
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.