芝能智芯出品
在跨入AI时代,阿里从电商的角色一下子转换成为一个AI科技公司。
所以在AI芯片端也是正式披露自研高端AI芯片“真武810E”,公布其PPU(Parallel Processing Unit 并行处理单元)芯片累计出货量已达数十万片,超越寒武纪跻身国产GPU厂商第一梯队。
从平头哥的成立到“通云哥”黄金三角的构建,阿里在AI芯片行业的地位还有雄厚资金实力,想象空间是挺大的。
![]()
Part 1
AI芯片产品布局:平头哥全栈发力
阿里芯片自研的核心载体是平头哥,是在2018年就成立的半导体公司,也是中国互联网企业从软道硬(自研芯片)的尝试,构建起覆盖AI推理、通用CPU、训推一体AI加速、SSD主控的全栈芯片产品矩阵。
![]()
当前的核心产品是真武810E PPU,在2020年就启动研发,2022年底完成研发与场景验证,2025年初进入规模化商业化阶段,2026年1月正式公开亮相(新闻报道里面惊鸿一瞥)。
真武810E全栈自研架构,配备96GB HBM2e高带宽内存,片间互联带宽700GB/s,功耗控制在400W以内,灵活适配AI训练、AI推理、自动驾驶等多场景需求。
真武810E已跻身国产芯片第一梯队,部分典型负载下可与华为昇腾910系列相提并论,在特定推理或受限算力场景中,综合表现超越英伟达A800,接近英伟达H20,仅在通用算力规模、显存带宽等核心指标上与英伟达H100、H200存在代际差距。
真武 810E 属于 训推一体的并行计算加速芯片(PPU),定位是覆盖 推理优先、训练补充 的主流 AI 云负载。
◎ 在部分典型推理负载、受限算力场景下,真武 810E 的综合表现已经进入国产第一梯队;
◎ 在能效、成本可预测性和供给稳定性上,具备明显优势;
◎ 但在超大规模训练、显存带宽、生态成熟度上,与英伟达最顶级产品仍有代际差距。
阿里做 PPU 的出发点,是“解决云里真实存在的算力问题”。
平头哥的其他产品也已实现规模化应用:
◎ 2019年推出的含光800 AI推理芯片,每秒可处理7.8万张图片,已应用于淘宝双11主搜场景;
◎ 2021年发布的倚天710通用CPU芯片,广泛应用于视频编解码、高性能计算等领域;
◎ 镇岳510 SSD主控芯片,出货量已超50万片,覆盖云计算数据中心、金融高频交易等低时延、高并发场景。
从阿里内部的使用结构看:
◎ 推理算力:优先采用平头哥 PPU;
◎ 训练算力:根据模型规模,混合使用 PPU 与第三方 GPU;
◎ 云侧对外:通过阿里云封装为算力产品,而非直接裸卖芯片。
Part 2
为什么是 PPU?
● 为什么是PPU
阿里使用 PPU(Parallel Processing Unit),这里是有一些差异的,也是路线选择。
◎ GPU 的传统竞争路径是:硬件性能 → 软件生态 → 开发者规模 → 应用锁定(CUDA 模式)。
◎ 平头哥走的是另一条路:场景驱动 → 云负载适配 → 模型协同 → 系统级优化
技术路径选择的前提是阿里拥有足够大的真实业务场景——电商、搜索、广告、推荐、企业 AI 服务,这些场景的共性是:推理密集、延迟敏感、成本敏感,但不追求极限算力。
PPU是在 AI 云时代,把算力变成一种工程资产,而非纯硬件能力。
● 数十万片出货,意味着什么?
“累计出货数十万片”是已经进入规模化部署阶段,从这个数量来看,芯片本身的稳定性已通过长周期验证。
云算力是最苛刻的使用环境之一,任何可靠性问题都会被迅速放大。
软件栈已具备可维护性,如果驱动、编译器、调度系统无法长期演进,是不可能支撑这个规模的。内部 ROI 是算得过账的,阿里云不会为了“战略正确”而无限贴钱部署一颗不可控芯片。
可以说通义(千问)负责模型能力与开源生态;阿里云负责算力调度、交付体系和客户触达;
平头哥负责提供一部分可被深度协同优化的底层算力资源,这三个方面是互相“校准”的关系:
◎ 模型的架构变化,会反向影响芯片的算子设计;
◎ 芯片的能力边界,会影响模型部署和云服务定价;
◎ 云的客户需求,又会反过来约束模型和芯片的演进方向。
小结
在 AI 云时代,算力并不一定只有一种形态,满足能被大规模部署、能被工程化维护和能与模型和云服务形成协同,就具备了长期存在的产业价值。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.