英国芯片设计公司 Arm 近日宣布推出全新 Arm AGI CPU,首次以自有量产芯片的身份进入数据中心市场,瞄准新兴的“代理型”(agentic)人工智能工作负载,这标志着这家长期以授权 IP 为主营业务的企业在商业模式上的重大转向。 在过去三十多年里,Arm 一直只提供架构与内核设计,由合作伙伴代工生产,如今则以 AGI CPU 系列直接参与到高性能数据中心处理器的前线竞争中。
![]()
据介绍,Arm AGI CPU 基于 3 nm 制程工艺打造,单颗芯片最多集成 136 个 Neoverse V3 内核,整卡热设计功耗为 300 W,每个内核可获得 6 GB/s 的内存带宽,并将访问延迟控制在 100 ns 以内,可支持单芯片最高 6 TB 内存容量,并兼容 DDR5-8800 规格。 I/O 方面,该处理器提供 96 条 PCIe Gen 6 通道,同时集成 CXL 3.0 以及 AMBA CHI(Coherent Hub Interface)互连以支撑高带宽、低延迟的协同计算需求。 每个内核可独立处理一个程序线程,Arm 表示,此设计有助于在持续高负载场景下避免线程被挤占或长时间空转,提高整体资源利用率。
![]()
在数据中心高度关心的算力密度方面,Arm 公布的数字显示,在风冷系统下,单机架最多可部署 8,160 个内核,而采用液冷方案则可将这一数字提升至 45,000 个以上。 Arm 预计,为满足未来 AI 发展需求,数据中心每吉瓦电力所需的 CPU 算力将较当前水平提升四倍以上,其认为传统 x86 架构在这一新型工作负载上存在过多开销与复杂性,不利于性能与能效的进一步提升。 官方给出的对比数据显示,Arm 方案在每机架性能上可实现超过两倍于 x86 的表现,并有潜力在每吉瓦 AI 数据中心算力规模上带来最高 100 亿美元成本节约空间。
![]()
在生态与落地层面,Meta 是本次 AGI CPU 的核心合作伙伴与主要部署方,将把该处理器与其自研 MTIA 加速器结合,用于其平台上的大规模 AI 调度与编排。 除 Meta 外,已有包括 OpenAI、Cloudflare、Cerebras、Rebellions、SAP 与 SK Telecom 在内的多家企业确认采用这一平台。 硬件整机方面,ASRock Rack、联想、广达与超微(Supermicro)等厂商正围绕该平台推出服务器产品,首批系统已经提供给部分客户,预计在今年下半年实现更大范围供货。
Arm 表示,该产品背后有超过 50 家生态伙伴参与支持,其中包括 AWS、Google、微软、英伟达、三星、台积电与美光等云服务、芯片制造与存储厂商,形成覆盖设计、制造、硬件系统到云端部署的完整链条。 对于 Arm 而言,AGI CPU 的推出不仅是一次技术布局,更意味着其角色从“架构提供者”向“完整解决方案提供者”延伸,在新一轮 AI 数据中心基础设施竞争中争夺更高的话语权。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.