- 2025年11月21日,华为在上海发布AI容器技术Flex:ai,通过“算力切分”与“共享算力池”两大创新,将单张GPU/NPU利用率从行业平均30%-40%提升至70%,相当于让硬件“翻倍增效”。这一技术不仅打破人力资源浪费困局,更推动AI基础设施从“拼硬件”转向“拼系统”,为全球AI产业注入新动能。
![]()
11月21日,华为发布AI容器技术Flex:ai
核心技术:单卡“分身”,算力“共享”
Flex:ai的核心突破在于两大技术:
- 算力切分:将单张GPU/NPU切分为多个虚拟单元,最小粒度达10%。例如,一张算力卡可同时运行3-10个AI小模型训练任务,资源利用率提升30%,解决“小任务独占整卡”的浪费问题。
- 共享算力池:聚合集群内闲置算力,形成全局资源池。通用服务器可通过高速网络调用远端GPU/NPU算力,使缺乏智能计算单元的服务器也能参与AI任务,资源利用率提升40%。
行业影响:从“硬件竞争”到“生态竞争”
Flex:ai的开源战略(魔擎社区)标志着AI基础设施竞争进入新阶段。其意义不仅在于技术突破,更在于生态重构:
- 国产算力自主可控:支持英伟达、昇腾等多品牌算力统一调度,减少对单一厂商依赖,推动国产算力生态融合。
- 降低AI应用门槛:中小企业可通过共享算力池低成本使用高端算力,加速AI技术普及。
- 重构产业链价值:云服务商、芯片厂商需优化硬件以适配切片技术,软件调度能力成为核心竞争力。
未来展望:AI算力的“共享经济”时代
Flex:ai的发布预示着AI算力正走向“共享化”与“精细化”。据Gartner预测,到2027年,75%的AI工作负载将采用容器化部署。华为通过软件创新重新定义算力使用规则,或将成为全球AI基础设施竞争的关键变量。当算力不再被硬件束缚,AI的未来将更依赖“系统智慧”而非“硬件堆砌”。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.