网易首页 > 网易号 > 正文 申请入驻

FlagOS完成DeepSeekV4八款芯片Day0 适配,实现三重技术突破

0
分享至

DeepSeek今日发布了DeepSeek-V4-Pro 1.6T 旗舰模型(1.86万亿参数)及DeepSeek-V4-Flash 284B 高效模型(2840亿)。由智源研究院牵头研发的众智FlagOS第一时间对两个“巨无霸”模型进行全量适配,已经完成 DeepSeek-V4-Flash在8款以上 AI 芯片上的全量适配与推理部署,包括海光、沐曦、华为昇腾、摩尔线程(FP8)、昆仑芯、平头哥真武、天数、英伟达(FP8)等芯片。FlagOS 同时正在推进 DeepSeek-V4-Pro 模型在多个芯片的迁移适配,后续即将开源。

首先完成在八款芯片适配的DeepSeek-V4-Flash 是深度求索推出的 V4 系列两大模型之一,采用混合专家(MoE)架构,总参数量 284B,激活参数仅 13B,支持 100 万 token上下文长度。该模型在架构上引入了混合注意力机制(结合压缩稀疏注意力CSA与高度压缩注意力HCA,大幅提升长上下文效率)、流形约束超连接(mHC,增强跨层 信号传播稳定性)以及Muon优化器(加速收敛、提升训练稳定性)。预训练数据超过32Ttoken,后训练采用两阶段范式——先通过SFT和GRPO强化学习独立培养领域专家,再通过在线策略蒸馏将多领域能力统一整合到单一模型中。在最大推理力度模式(Flash-Max)下,给予更大思考预算使其推理能力可接近Pro版本水平;受限于参数规模,在纯知识类任务和最复杂的Agent工作流上略逊于 Pro。 整体性能参考如下官方评测结果:



围绕DeepSeek-V4-Flash多芯适配,此次FlagOS系统软件技术栈突破了三大关键技术:FlagGems全算子替代(实现多芯片统一适配)为o-group采用独立张量并行策略解锁更多低显存场景、以及“FP4+FP8混合精度”的原生权重到 FP8/BF16 的精度路径转换。当下国内出货的AI芯片,都没有FP4的支持。英伟达也只有在Blackwell及之后的高端芯片才支持FP4。这三项关键技术,使得DeepSeekV4能够在当前各种厂商的主流AI芯片上稳定运行,而非仅限于支持 FP4 和大显存的少数高端AI加速卡。

三大技术突破:为什么对支持多种AI芯片十分重要

突破一:FlagGems 提供支持8种以上芯片的全算子替代——真正意义上的跨芯方案

本次DeepSeek-V4-Flash的适配,FlagGems 实现了模型推理链路中全部算子的替代。这意味着什么?

彻底脱离 CUDA 算子依赖:DeepSeek-V4-Flash的 MoE 专家调度、Attention 计算、RMSNorm、TopK 路由等全部核心计算模块,均由 FlagGems 基于 Triton/Triton-TLE语言重新实现,不调用任何 cuDNN/cuBLAS 等NVIDIA私有库。

无需芯片厂商逐一适配:传统模式下,每款新模型上线,芯片厂商需要投入工程团队做算子适配。现在通过FlagGems+FlagTree编译器的组合,新模型的算子可以直接编译到多款芯片后端,芯片厂商不需要做任何额外工作。

新算子即时可用:DeepSeek-V4-Flash引入的新计算模式(如 o-group 相关的分组路由机制),FlagGems 已经实现了对应的新算子,并通过 FlagTree 编译器统一编译到所有支持的芯片后端。

FlagGems 作为全球最大的 Triton 单一算子库,已拥有超过400 个大模型常用算子,并已正式进入 PyTorch 基金会生态合作项目。在 40 个主流模型上,推理任务算子覆盖度达到 90%~100%,完整支持 DeepSeek-V4-Flash的全部计算需求。

突破二:为o-group采用独立并行策略——解除张量并行最多单机8卡限制

DeepSeek-V4-Flash为了进一步降低计算开销采用了分组输出投影技术(Grouped Output Projection),配置为o-group=8,这导致在传统的张量并行时候,最多切8份。而当前一些主流国产芯片的单卡显存为 32GB 或 64GB,尤其在BF16格式情况下,需要张量并行大于8份才能放的下。为了解除这个限制,FlagOS专门针对o-groups进行了单独张量并行策略设计和实现,确保o-groups切分不超过8份的前提下,能够让模型其他部分还采用经典的张量并行策略,并且实现超过8份的切分。通过不同的张量并行策略组合,能够实现多于8台设备的张量并行运行。

FlagOS 团队对o-group张量并行改动有:

独立的并行策略:独立于已有的张量并行通信组之外,为o-group单独构建所需要的张量并行通信组,确保其他模型结构张量并行切分超过8的情况下,o-group的张量并行在8以内。

参数转换调整:对o-group相关的参数,也进行了对应单独的张量并行切分处理,以确保在新的独立张量并行策略下,也能够被正确加载。

覆盖面扩展:这一优化能够将 DeepSeek-V4-Flash在单独采用张量并行策略下,将可运行芯片范围从"仅限单机80GB以上显存的个别高端卡"扩展到"多机64GB/32GB的更多主流国产芯片",包括海光、沐曦、天数智芯等厂商的主力产品线。

突破三:从“FP4+FP8混合精度” 到 BF16的精度转换——打通主流芯片的计算路径

DeepSeek-V4-Flash模型发布时首次采用 FP4+FP8混合精度,该精度只有在Blackwell及之后的英伟达最新硬件上才有支持,但当前所有国内非英伟达 AI 芯片都未能支持,只有摩尔线程原生支持了FP8,其余依然以BF16为主。

FlagOS 完成了从 FP4 到 BF16 的完整精度转换:

权重反量化:将 FP4 量化权重转换为 BF16 格式。这不是简单的类型转换,而是需要根据 DeepSeek 的量化方案进行逆量化计算,确保数值精度。

计算路径重建:FP4 和 BF16 在底层计算上有本质差异——FP4 的动态范围更窄,累加精度、溢出处理策略均不同。FlagOS 对推理链路中的 GEMM、Attention、MoE 路由等关键计算节点逐一适配了 BF16 路径。

精度对齐验证:经过标准评测集验证,BF16 版本与 FP4 原生版本在核心能力指标上保持对齐,确保精度转换不引入业务层面的效果损失。

本次,FlagOS推出了FP8和BF16两种适配版本,让DeepSeek-V4-Flash不再是"只有最新 NVIDIA 卡才能跑"的模型,而是真正可以部署在 FP8 及 BF16 生态的主流国产芯片上。

FlagGems开源高性能新算子 全面支持 DeepSeek-V4-Flash

本次新发布的DeepSeek-V4-Flash共有大约67个算子,FlagGems已全量支持。新支持了Act Quant、hc_split_sinkhorn、FP8 MatMul、Sparse Attention、Hadamard Transform等5个新算子,实现了对DeepSeek-V4-Flash的全面支持,也为跨芯适配打下重要基础。

FlagGems 支持 DeepSeek-V4-Flash 新算子的性能对比

为了支持更多AI芯片的使用,FlagOS对DeepSeek-V4-Flash中使用的新算子使用Triton语言进行重新实现,基于FlagTree统一编译器,性能全部超过原生性能。



C++Wrapper技术是FlagOS技术社区专门为提升基于Triton语言的算子内核调用效率而打造的技术。目前已经支持了该技术的芯片包括华为昇腾、寒武纪、摩尔线程、平头哥真武、及英伟达等。使用了C++ Wrapper技术,在普通的Transformers框架下,可以显著提升使用了Triton算子的模型的端到端效率,实现跨芯普适、和高效推理的双重目标。通过端到端效果评测(NV H20,DeepSeek-V4-Flash FP8),C++ Wrapper + Triton 比 TileLang 快11%,比 Python Wrapper 版快 39%。



开发者极致体验:"发布即多芯" + "极简部署"

1. 核心能力与原生版本对齐

经 GPQA_Diamond、AIME等权威评测集验证,FlagOS 适配后的 DeepSeek-V4-Flash,在语言理解、复杂推理、代码生成、数学计算等核心能力上,与 CUDA 原生版本对齐,可放心应用于金融、教育、政企服务、代码开发等场景,无需担心适配导致业务效果折损。

评测数据:



注:本测试结果仅用于对迁移前(Nvidia-Origin)和迁移后(-FlagOS)版本的互相对齐验证,并不代表 DeepSeek 模型的官方性能,DeepSeek 模型的官方性能以 DeepSeek 官方公布数据为准。

2. 极简部署:开箱即用,底层优化无感知

FlagOS将核心算子库、编译器等技术组件前置内置到 DeepSeek-V4-Flash代码框架中,开发者加载模型时,底层优化代码自动生效,无需手动添加任何 FlagOS 初始化代码。同时,基于 FlagRelease 直接提供了多芯片版本的 DeepSeek-V4-Flash-FlagOS 模型版本,标准化 Docker 镜像 + 一键加速命令,解决了开发者最头疼的环境配置、效果对齐、性能优化等问题。

FlagOS 2.0 技术底座:从大模型到智能体时代的全栈升级

DeepSeek-V4-Flash的三重突破,依托的是 FlagOS 2.0 统一多芯片系统软件栈的全链路能力。从算子层、编译层、框架层到工具层,全链路为大模型跨芯适配提供技术支撑,将原本数周的适配周期缩短至数天,真正实现极速落地。



FlagOS:面向多种 AI 芯片的系统软件栈

1. 高性能算子库 FlagGems:核心算子深度适配,释放硬件算力

FlagGems 作为 FlagOS核心的高性能通用大模型算子库,基于 Triton 语言实现,针对 DeepSeek-V4-Flash推理链路的核心算子进行了深度适配与优化,包括 MoE 专家调度、Attention 计算、RMSNorm 等关键计算模块,同时原生支持 NVIDIA、摩尔线程、沐曦、清微智能、天数等接近 20 家 AI 芯片。

2. 统一 AI 编译器 FlagTree:一次编写,多芯编译

FlagTree 是 FlagOS 面向多 AI 芯片后端的统一编译器,基于 Triton 深度定制,可将 DeepSeek-V4-Flash的核心算子编译为英伟达、摩尔线程等十多种不同 AI 芯片后端可识别的指令,彻底解决不同芯片编译器生态割裂的问题,大幅降低算子跨芯片适配的开发成本。

3. 模型跨芯迁移发布工具 FlagRelease:半自动实现模型跨芯迁移与版本发布

依托 FlagOS 全栈技术能力,FlagRelease 已完成 DeepSeek-V4-Flash在多种芯片上的模型迁移、精度对齐与版本发布,覆盖 HuggingFace、魔搭等开源社区平台。开发者可直接下载使用,无需自行迁移。截至本文发布,FlagRelease 已发布覆盖 10+ 家芯片厂商、12+ 款硬件、70+ 个开源模型实例的跨芯适配版本。

4. 统一多芯片接入插件 vLLM-plugin-FL:无缝兼容原生使用习惯

vLLM-plugin-FL是 FlagOS 为 vLLM 推理服务框架打造的专属插件,基于 FlagOS 统一多芯片后端开发,在完全不改变 vLLM 原生接口与用户使用习惯的前提下,实现多芯片推理部署。目前 vLLM-plugin-FL 已经支持了英伟达、摩尔线程、海光、沐曦、平头哥真武、天数智芯、昆仑芯、华为等多家芯片。

开源共建:FlagOS持续做开发者的“跨芯适配后盾”

当下,"异构算力协同、大模型普惠落地"已成为全球开源开发者社区的核心热点,打破硬件生态隔离、让大模型在不同算力平台高效低成本运行,是无数开发者的核心诉求。FlagOS 从诞生之初就将开源开放、众智共建刻入技术基因,始终以开发者为中心,通过全栈开源的统一系统软件栈,把复杂的"M×N"硬件适配问题降维为"M+N",做每一位开发者最可靠的跨芯适配后盾。

目前,FlagOS 已形成完整的开源技术体系,所有核心组件均已开源在 GitHub,同时开放了数十款最新的主流基础大模型、十多款 AI 芯片的适配方案与最佳实践,开发者可自由获取、深度定制: 四大核心技术库:FlagGems通用大模型算子库、FlagTree 统一 AI 编译器、FlagScale 训练推理并行框架、FlagCX 统一通信库,覆盖算子开发、编译优化、并行计算、跨芯片通信全链路; 三大开源工具平台:FlagRelease大模型自动迁移发版平台、KernelGen 算子自动生成工具、FlagPerf 多芯片评测工具,提供从模型适配、性能评测到工程落地的一站式工具链; 全场景扩展生态:vLLM-plugin-FL、Megatron-LM-FL、TransformerEngine-FL 等框架增强组件,以及 FlagOS-Robo 具身智能工具包,覆盖大模型训练、推理、应用全场景。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
塔山之战到底多惨烈?战后9位将军长眠,总预备队为何最后都没上

塔山之战到底多惨烈?战后9位将军长眠,总预备队为何最后都没上

云霄纪史观
2026-04-25 20:37:30
“指纹锁”退出中国家庭?开锁师傅说了实话,我连夜换回了铁将军

“指纹锁”退出中国家庭?开锁师傅说了实话,我连夜换回了铁将军

巢客HOME
2026-04-08 15:48:09
告天下子女:再孝顺,也不要为年过70岁的老父母亲,做这三件事

告天下子女:再孝顺,也不要为年过70岁的老父母亲,做这三件事

游戏收藏指南
2026-04-25 21:21:11
贾国龙天边焖面两月评分暴跌3.8分,网友直言凶多吉少

贾国龙天边焖面两月评分暴跌3.8分,网友直言凶多吉少

铁锤妹妹是只猫
2026-04-25 23:03:39
不欺负孤儿寡母,是中国人的道德底线。

不欺负孤儿寡母,是中国人的道德底线。

张晓磊
2026-04-24 11:42:56
中超最新积分战报:浙江队4球惨败,北京国安爆冷,上海海港大胜

中超最新积分战报:浙江队4球惨败,北京国安爆冷,上海海港大胜

足球狗说
2026-04-25 21:55:44
震惊!广州一互联网公司招5名文员,收到4000余份简历,HR慌了…

震惊!广州一互联网公司招5名文员,收到4000余份简历,HR慌了…

火山詩话
2026-04-23 16:46:58
摸景甜胸侧,抱李雪琴胳膊,31岁的他综艺翻车,为何如此没分寸感

摸景甜胸侧,抱李雪琴胳膊,31岁的他综艺翻车,为何如此没分寸感

草莓解说体育
2026-04-15 04:23:51
让以色列心惊胆战的对手,终于猛龙过江了:既非土耳其,也非伊朗

让以色列心惊胆战的对手,终于猛龙过江了:既非土耳其,也非伊朗

遁走的两轮
2026-04-19 19:10:28
那场难忘的世界最大水库垮坝惨案:1975河南驻马店大水

那场难忘的世界最大水库垮坝惨案:1975河南驻马店大水

尚曦读史
2025-01-19 12:50:03
重磅!汉莎航空将取消约两万个航班

重磅!汉莎航空将取消约两万个航班

开元周游
2026-04-25 18:03:52
DeepSeek V4登榜,全球开源前5都是中国模型了

DeepSeek V4登榜,全球开源前5都是中国模型了

第一财经资讯
2026-04-25 15:46:49
上千业主入住多年无法办房产证背后:一开发商多个楼盘涉违建、超建 住建局:已成立专班

上千业主入住多年无法办房产证背后:一开发商多个楼盘涉违建、超建 住建局:已成立专班

红星新闻
2026-04-25 20:48:31
国家一级女演员陈丽云被逮捕!

国家一级女演员陈丽云被逮捕!

许三岁
2026-03-28 09:24:30
苏翊鸣朱易4年恋情结束!双方互相取关,女方晒眼泪照喊话向前走

苏翊鸣朱易4年恋情结束!双方互相取关,女方晒眼泪照喊话向前走

萌神木木
2026-04-24 11:41:28
芯片观察者:美国先将中国芯片锁死在28nm,然后打击成熟芯片扩产

芯片观察者:美国先将中国芯片锁死在28nm,然后打击成熟芯片扩产

蜉蝣说
2026-04-24 11:38:51
2026 年机关事业单位改革后,公务员和事业编的差距更大了

2026 年机关事业单位改革后,公务员和事业编的差距更大了

细说职场
2026-04-25 13:26:51
美国人意识到,贸易战后,将不会再有中国外的大规模工业化国家了

美国人意识到,贸易战后,将不会再有中国外的大规模工业化国家了

小陆搞笑日常
2026-04-25 12:29:20
这才是刚走完长征的毛主席相貌,美国人拍摄,满脸憔悴,瘦到脱相

这才是刚走完长征的毛主席相貌,美国人拍摄,满脸憔悴,瘦到脱相

史之铭
2026-04-25 19:39:39
iPhone电池大降价仅35元起,高容量续航更持久!

iPhone电池大降价仅35元起,高容量续航更持久!

果粉之家
2026-04-25 12:54:24
2026-04-26 00:28:49
前沿在线 incentive-icons
前沿在线
前沿在线官方账号,关注AI、机器人、智能车等前沿领域;
178文章数 1235关注度
往期回顾 全部

科技要闻

DeepSeek V4发布!黄仁勋预言的"灾难"降临

头条要闻

媒体:美军在中东罕见高密度集结 伊朗开始调整战术

头条要闻

媒体:美军在中东罕见高密度集结 伊朗开始调整战术

体育要闻

那一刻开始,两支球队的命运悄然改变了

娱乐要闻

《我们的爸爸2》第一季完美爸爸翻车了

财经要闻

90%订单消失,中东旺季没了

汽车要闻

2026款乐道L90亮相北京车展 乐道L80正式官宣

态度原创

手机
时尚
健康
艺术
公开课

手机要闻

最新手机市场份额出炉:华为断层第一,小米荣耀压力山大!

这些穿搭适合春天!外套彩色内搭白色、裤子穿基础款,舒适大方

干细胞如何让烧烫伤皮肤"再生"?

艺术要闻

蓬皮杜中心的韩国分馆,6月4日开幕!

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版