要发布一项AI领域的“突破性技术”,直接瞄准了当前行业最头疼的问题之一——算力资源利用率太低。据多家媒体报道,这项技术能将GPU、NPU等核心算力硬件的利用率从行业平均的30%-40%大幅提升至70%,相当于让现有硬件“一卡当两张用”。更关键的是,它走的是“以软件补硬件”的路线,目的就是应对先进制程受限下的芯片挑战,同时还能统一管理英伟达、昇腾乃至其他第三方算力,屏蔽硬件差异,为AI训练和推理提供更高效的支撑。
对标英伟达Run:ai,打造算力资源“智能调度中心”
这次华为的新技术,被普遍认为是直接对标英伟达在2024年底豪掷7亿美元收购的以色列公司Run:ai的核心能力。Run:ai的强项在于基于Kubernetes构建的软件平台,通过动态调度、资源池化和分片技术,优化GPU集群的使用效率。比如自动驾驶公司Wayve就曾借助其工具,把GPU效率从不足25%提升到80%以上。而华为的新技术也采用了类似思路,旨在通过软件层创新实现多类型算力的统一管理和高效利用,不管底层是英伟达还是昇腾芯片,都能像一个整体一样被灵活调配。这种“屏蔽硬件差异”的能力,对于正在加速国产替代的中国云服务商来说尤为重要,意味着他们可以在混合算力环境下依然保持高效率运行。
![]()
“以软补硬”战略再升级,系统级创新成破局关键
在当前高端芯片受到限制的背景下,华为一直坚持“以系统补单点、以软件补硬件”的技术路径。这次即将发布的新技术正是这一战略的延续。早在11月11日,华为公布的第六届“十大发明”中,排名第一的Scale-up超大规模超节点算力平台就已经展现了类似的思路:通过高速互联总线将CPU、内存、存储等资源整合成共享内存池,实现“一切皆可池化、一切皆可组合”,让数千个AI处理器像一台超级计算机协同工作。此次新发布的AI技术很可能是该架构的进一步深化,聚焦于资源调度与利用率优化,进一步释放整个系统的潜能,从而在不依赖顶级单芯片性能的前提下,实现整体算力效能的赶超。
算力效率革命或将重塑AI产业格局
AI是个烧钱的生意,而算力成本又是其中的大头。如果华为真能把主流算力利用率翻倍,那带来的不仅是企业运营成本的显著下降,更是对整个AI基础设施生态的潜在重构。对于国内用户而言,这意味着减少对英伟达生态的依赖成为可能;而对于全球市场来说,这也展示了另一种技术路径的可行性——不一定非要追求最先进制程的单颗芯片,通过强大的系统工程和软件创新,同样可以打造出高效、可持续的AI计算体系。这场由软件驱动的“算力效率革命”,或许会成为中国AI产业突围的关键一步。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.