![]()
千呼万唤即将出炉的DeepSeek V4,跑在了华为昇腾950PR AI芯片上。
这无疑将4月宣布批量量产的昇腾950PR,推到了聚光灯之下。
让人吃惊的是,不止DeepSeek V4选择了昇腾950PR这个国产AI芯片,就连字节、阿里等科技大厂,中国电信等央企,都纷纷传出下了大订单的消息。
据消息,字节被传下了20万片之多的大单,而中国电信也不甘示弱,在其2026年首批AI服务器(国产化率高达67.5%)的占比当中,搭载昇腾950PR的Atlas 350推理平台大致有一半之多。
一时间,昇腾950PR被看作是化解“卡脖子”难题的新突破,是国产AI芯片从备胎走向主力的转折点。
1
昇腾950PR何以被寄予厚望?据最新消息,自4月进入批量量产阶段后,预计将在下半年实现客户交付,其全年出货量有望突破75万片。
这一全年出货量数据规模背后,昇腾950PR何以俘获字节、阿里、中国电信、DeepSeek等业内大客户?
大家都清楚,英伟达H200在中国市场报价约为25万元,而昇腾950PR报价仅为7万元,其是前者价格的三分之一还要少。这一价格相当诱人。
若光有性价比,没有可以替代的产品性能也是不行的。
公开信息显示,昇腾950PR的性能几乎接近英伟达H200的八成。
![]()
两个关键因素综合起来,代表着昇腾950PR颇为能打,在替代阉割版的英伟达芯片上,拥有了明显的优势地位。
具体来看,昇腾950PR也有劣势,它的绝对算力约为H200的一半。然而它拥有两大碾压级优势,从而对冲了上述劣势。
一是显存更大,多模态效率更高。112GB自研HBM显存比H200多出40%,在多模态生成、长上下文推理等场景下优势明显——实测多模态生成速度比H200快60%。
二是价格仅为三分之一,性价比无敌。同样的预算,企业可以买到3倍的算力总量,整体TCO(总拥有成本)降低60%以上。这对成本敏感的中小企业和创业公司吸引力巨大。
此外,昇腾950PR还做了多项针对性优化:内存访问颗粒度从512字节降至128字节,小算子访存效率提升4倍;支持INT4/FP8/FP16多精度混合计算;功耗控制在300W以内,对机房散热要求远低于英伟达高端芯片。
2
之所以连字节、阿里等科技大厂都下了大订单,除了昇腾950PR自身的优势之外,更为关键的是,整个生态正在趋于完善。
过往英伟达AI芯片之所以壁垒颇高,在于其CUDA架构下的代码迁移成本过高。如今昇腾950PR带来的CANN Next架构,有望改变这一局面。
CANN是华为昇腾的底层算子库和开发框架。最新版本实现了对CUDA生态的深度兼容。
其中包括:90%以上的CUDA代码可一键迁移,无需重写核心逻辑;整体迁移成本降低80%,中型项目迁移周期从3个月缩短到2周以内;同时兼容PyTorch、TensorFlow等主流框架,开发者几乎没有学习成本。
![]()
对于开发者来说,这意味着什么?
他们不用再从零开始适配昇腾生态。即便此前在英伟达GPU上跑的代码,只要稍作修改就能在昇腾芯片上高效运行。
据消息,昇腾950PR的客户测试反馈良好,对芯片与CUDA软件系统的更高兼容性和更快的反应速度,表示非常满意。
来自全球知名股权研究公司Bernstein Research的一组数据预测称,2026年华为将占据中国AI芯片市场50%的份额,成为该领域的绝对领导者。而英伟达的份额可能萎缩至8%。
这一数据也在无声佐证着中国AI芯片正从备胎走向主力的阶段性特征。
按照华为透露的未来计划,昇腾960将在明年推出,昇腾970将在后年推出。可见自今年开始的未来三年时间,华为AI芯片将实现“三级跳”。
算力自主权之战已经开始向纵深进击,大规模阵地战正取代突围战,国产算力的未来想象空间正逐渐被打开。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.