网易首页 > 网易号 > 正文 申请入驻

DeepSeek做大→Mega MoE,Tri Dao团队加快→SonicMoE

0
分享至



编辑|Panda

「快!」

说到索尼克,不管是刺猬索尼克还是音速索尼克,大家的第一印象多半就是「快」,而「快」也是现在许多 AI 模型和应用优化的一大核心目标。

近日,由普林斯顿大学 Tri Dao(FlashAttention 的一作)和加州大学伯克利分校 Ion Stoica 领导的一个联合研究团队也做出了一个超快的索尼克:SonicMoE



一作 Wentao Guo 的推文,他目前正在普林斯顿大学就读计算机科学博士

据介绍,SonicMoE 能在英伟达 Blackwell GPU 上以峰值吞吐量运行!并且运算性能超过了 DeepSeek 之前开源并引发巨大轰动的 DeepGEMM。

有趣的是,DeepSeek 前些天还在 DeepGEMM 库中开源了新的技术 Mega MoE,即巨型 MoE—— 从名字也能看出来,这与 SonicMoE(音速 MoE)显然是两个不同的方向,我们也期待能看到「」与「」这两个方向的更直接的对比。

下面我们就基于官方技术博客,简单了解下 SonicMoE。



  • 博客地址:https://tridao.me/blog/2026/sonicmoe-blackwell/
  • 代码库:https://github.com/Dao-AILab/sonic-moe
  • 论文地址:https://arxiv.org/abs/2512.14080

MoE 与它的隐患

要理解 SonicMoE 解决的是什么问题,先得认识一种正在主导前沿 AI 的架构设计 —— 混合专家模型(Mixture of Experts,MoE)。



细粒度 MoE 架构

想象一家医院。面对每一位患者,医院不会让所有科室同时出动,而是先由全科医生判断,再分诊给最合适的专科。MoE 架构的逻辑与此相似:模型内部有大量「专家」子网络,每一个输入的信息片段(即 token,可以理解为文字或词语)只会被路由到其中一小部分专家处理,而不是流经所有参数。

这样做的好处显而易见:用相对较少的计算量,撑起了一个参数规模庞大的模型

2024 年发布的 Mixtral 8x22B,以及近期的 DeepSeek V3.2、Kimi K2.5、Qwen3 等明星模型,都是 MoE 架构的忠实拥趸。按照模型缩放法则,专家越「细粒度」(即每个专家越小、数量越多),模型在同等计算量下的表现往往越好。于是在短短两年间,MoE 专家的粒度提升了整整 9 倍,每次激活的专家比例则降至原来的十二分之一。

然而,代价也随之而来。



标准 MoE 实现前向传播的工作流程。π 是存储路由元数据的二进制掩码。黄色框表示内核边界。蓝色框是 HBM 中的变量。红色标签表示在正向 / 反向传播过程中缓存的激活值。紫色框是最终输出。全局内存中每个变量旁边的橙色框表示对应 Qwen3-235B-A22B-Thinking-2507 MoE 模型在处理 32k 个 token 时的张量大小比例。



标准 MoE 实现的反向激活梯度传递工作流程。

当专家越来越多、越来越「细」,训练这样的模型会遭遇两堵越来越高的墙:

第一堵墙是显存。在训练神经网络时,前向传播的中间结果必须被保存下来,以便反向传播时计算梯度。对于细粒度 MoE 来说,这些中间结果(激活值)的规模与专家粒度成正比 —— 专家越细,显存占用越大,最终会逼近 GPU 显存的物理极限。

第二堵墙是内存带宽。GPU 的性能取决于两个维度:算力(每秒能做多少次运算)和带宽(每秒能搬多少数据)。当专家足够细时,每个专家处理的数据量太少,GPU 的算力根本来不及被填满,大量时间都花在了从内存「搬运」数据上。这正是所谓「内存瓶颈」。对于典型的 Qwen3 细粒度 MoE,其单位计算量的内存访问强度比等参数量的普通模型高出 12 倍。

现有的开源训练工具(如 ScatterMoE 和 MoMoE)对这两个问题都存在明显不足,尤其是随着模型越来越细粒度,差距愈发显著。而SonicMoE正是为此而生。



SonicMoE 的每一层激活记忆占用空间(左图)即使在专家粒度(嵌入维度 / 专家中间维度)增加时也保持不变,并且与现有的 MoE 训练核 ScatterMoE 和 MoMoE 相比,SonicMoE 可以实现 1.87-4.04 倍的相对加速。

核心创新:一次算法级的重新设计

SonicMoE 的关键洞察,乍听简单,却需要深厚的系统级思维才能想到:问题的根源在于,现有 MoE 训练框架在中间结果的存储上过于「慷慨」—— 它们把太多临时数据写入了显存,而这些数据本可以不存。

传统方法在执行 MoE 的前向传播和反向传播时,会在每个计算阶段之间将中间张量(即矩阵形式的中间数据)写入 GPU 的高带宽内存(HBM)。这就好比一个厨师每炒完一道中间步骤,就把食材装盘放进冰箱,下一步再取出来继续 —— 频繁的存取本身就是大量时间的浪费。



SonicMoE 的前向计算工作流程以及与 PyTorch 中标准 MoE 实现的比较。这里还比较了两种方法的激活内存和 IO 成本。

SonicMoE 的算法重设计从根本上改变了这一流程,核心有两点:

第一,激活内存与专家粒度解耦

在训练反向传播中,SonicMoE 通过重新设计计算顺序,完全避免了缓存任何与专家规模成比例的中间张量。

具体来说,它将原本需要缓存的「下投影输出」等关键中间量,通过重排矩阵乘法的收缩顺序来消除 —— 不再存储中间结果,而是在需要时通过聪明的计算路径直接推导出所需梯度。

这使得 SonicMoE 的每层激活内存占用,在专家粒度大幅增加时保持恒定,相当于一个相同激活参数量的稠密模型。

这一改进无需任何额外的矩阵重计算代价,正面回答了此前业界一直认为「鱼和熊掌不可兼得」的问题。

第二,IO 感知的算子融合

SonicMoE 将原本分散成多个 GPU 核函数(kernel)的操作大量融合在一起。

例如,「Gather 融合」技术让数据搬运操作在矩阵乘法计算核的执行过程中同步完成,而不是作为单独步骤先把数据重排好再交给矩阵乘法 —— 这不仅省去了一次完整的内存读写,还利用了 GPU L2 缓存的局部性优势,让缓存命中率从约 66% 提升至约 75%,进一步降低了访问慢速 HBM 的频率。

此外,SwiGLU 激活函数的计算也被融入矩阵乘法的尾声(epilogue)阶段,在数据还驻留在寄存器时就地完成,无需额外的内存读写。

在最关键的反向传播核函数(dH kernel)中,SonicMoE 还进一步利用 GPU 的异步执行特性,将数据搬运的等待时间与矩阵运算重叠起来。



SonicMoE 的 dH 工作流程图的语义与标准 PyTorch MoE 多核实现等效,同时 SonicMoE 显著降低了 IO 成本。

实测结果显示,即便该核函数的 HBM 数据流量增加了 24%,张量核心(Tensor Core)的利用率仅下降约 10%—— 内存开销几乎被算力完全「吸收」。



可以利用最新的 NVIDIA 硬件特性来隐藏 SonicMoE 的 dH 内核中的 IO 延迟,并大幅减少整体运行时间。

软件抽象层 QuACK:让创新能跨代迁移

SonicMoE 还有一个容易被忽视的工程亮点:研究团队开发了一套名为QuACK的统一软件抽象层,将所有 MoE 矩阵乘法核函数统一为「主循环 + 可定制尾声」的共同结构。



两个使用 QuACK 实现的 SonicMoE 内核。左侧:内核工作流程图。中间:QuACK 尾声混合类,其中每个内核重写 epi_visit_subtile(dH 为 88 行代码,上投影前向为 21 行代码)。右侧:SonicMoE 的简化内核启动调用。

这样的设计意味着,当 GPU 从上一代 Hopper 架构(H100)升级到最新的 Blackwell 架构(B200/B300)时,硬件特有的优化只需要在极少数地方做局部修改,核心算法逻辑无需重写。

Tri Dao 与 Ion Stoica 团队之所以能快速将 SonicMoE 移植到英伟达最新旗舰 Blackwell GPU 并达到峰值吞吐,很大程度上正是受益于这一前瞻性的软件架构。

实验结果

研究团队在英伟达最新 B300 GPU 上,以六个真实开源 MoE 模型配置为基准进行了全面测评,涵盖从 7B 到 685B 参数的不同规模,包括 OLMoE、Qwen3-235B、DeepSeek V3.2 等当下最受关注的 MoE 架构。



B300 上 6 种真实 MoE 配置的前向(左)和后向(右)TFLOPS。从左到右依次为:OLMoE-1B-7B-0125、gpt-oss-20b、Kimi-Linear-48B-A3B-Base、Qwen3-Next-80B-A3B-Thinking、Qwen3-235B-A22B-Thinking-2507 和 DeepSeek-V3.2-Exp。Triton 官方示例不支持后向传播,Qwen3-Next-80B 的前向传播也不支持 K=10。



SonicMoE 与基线模型在 B300 上针对 7B OLMoE 规模 MoE(T=32768,d=2048,n=1024,E=64,K=8)的运行时分解情况。

结果相当显著:

  • 与同样针对 Blackwell GPU 优化、由 DeepSeek 开发的 DeepGEMM 基准相比,SonicMoE 在前向传播上平均高出54%,在反向传播上平均高出35%—— 而 DeepGEMM 本身已是业界公认的高性能实现;
  • 与 Triton 官方 MoE 示例相比,SonicMoE 前向传播快21%
  • 与目前学术界和工业界广泛使用的 ScatterMoE、MoMoE 等训练框架相比,SonicMoE 的速度优势往往达到 近两倍甚至更高。

从核函数级别的运行时分析来看,SonicMoE 的加速主要来自两个方面:其一,Gather 融合消除了独立的数据搬运核函数,这是最主要的加速来源;其二,更快的分组矩阵乘法实现(得益于 Blackwell 独有的 CLC 调度器和 2CTA MMA 技术)贡献了额外约 10% 的提升。

在激活内存方面,当专家粒度从 Mixtral 时代提高到 Kimi K2.5 量级时,传统方案的每层激活内存会线性膨胀,而 SonicMoE 的占用则保持稳定。这对于在有限显存中训练更细粒度的未来模型,意味着更大的操作空间。

结语

SonicMoE 很快,同时还有更深层的意义:当硬件的进步受制于物理规律逐渐放缓,软件层面的创新正越来越多地扮演起「平权者」的角色。

SonicMoE 的论文标题是「硬件高效、软件可扩展的细粒度 MoE 蓝图」—— 这个「蓝图」二字,或许正是研究团队想传递的信号:这不只是一个工具,而是一种可以被复制和继承的设计哲学。

SonicMoE 目前已在 GitHub 和 PyPI 开源,支持 H100 和最新 B200/B300 GPU,未来计划扩展至专家并行、MXFP8/FP4 精度支持,以及下一代英伟达 Rubin GPU。

在内存和算力日益稀缺的今天,这种创新极具价值,毕竟这是在为整个 AI 生态节省真金白银的成本。

你更看好 DeepSeek 的 Mega MoE 还是今天介绍的 SonicMoE?

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
“打了一针脉不跳了”,央视曝光后,已有55人落网

“打了一针脉不跳了”,央视曝光后,已有55人落网

浙江之声
2026-05-04 22:58:05
王小波猝死,他妈其实对儿媳李银河很有意见,暗示有主要责任

王小波猝死,他妈其实对儿媳李银河很有意见,暗示有主要责任

刘宅宅
2026-05-05 11:54:42
降级接待,日本失望

降级接待,日本失望

安安说
2026-05-04 11:52:02
分居不分家?42岁吕一定居北京,丈夫在杭州,结婚10年无儿无女

分居不分家?42岁吕一定居北京,丈夫在杭州,结婚10年无儿无女

一盅情怀
2026-05-05 15:02:35
吴彦祖:被李美琪“折磨”到抑郁流泪,终遇恩爱23年的Lisa S

吴彦祖:被李美琪“折磨”到抑郁流泪,终遇恩爱23年的Lisa S

阿讯说天下
2026-05-05 05:13:20
农大博士男扮女装谋杀孕妻,连捅27刀,被捕后:她让我丢了自尊

农大博士男扮女装谋杀孕妻,连捅27刀,被捕后:她让我丢了自尊

墨策史
2026-05-04 10:50:11
《良陈美锦》首播,任敏古装再翻车,还真难压住4位漂亮女配

《良陈美锦》首播,任敏古装再翻车,还真难压住4位漂亮女配

东方不败然多多
2026-05-04 23:40:06
发现一个特点,凡是患上糖尿病的人,身体大多数有这4个表现

发现一个特点,凡是患上糖尿病的人,身体大多数有这4个表现

牛锅巴小钒
2026-05-05 14:36:26
别再跟风夸87岁吴彦姝有多优雅了,很多人只看到表面气质,

别再跟风夸87岁吴彦姝有多优雅了,很多人只看到表面气质,

小光侃娱乐
2026-05-05 16:45:04
闺蜜大婚我随了5000,她回礼雨伞,看见伞柄刻着地址和6个数字

闺蜜大婚我随了5000,她回礼雨伞,看见伞柄刻着地址和6个数字

磊子讲史
2026-01-23 16:54:49
张敬轩风波后续!开唱一场就因病退出,英皇不再死保争议艺人?

张敬轩风波后续!开唱一场就因病退出,英皇不再死保争议艺人?

林大师热点
2026-05-04 13:22:44
粟裕晚年谈华野六大头等主力,没上榜的虽令人不解,但也情有可原

粟裕晚年谈华野六大头等主力,没上榜的虽令人不解,但也情有可原

浩渺青史
2026-05-05 16:16:28
西方国家为什么都不喜欢中国?英国专家:中国有一个“老问题”

西方国家为什么都不喜欢中国?英国专家:中国有一个“老问题”

宋诉搞笑配音
2026-04-13 17:16:15
赖清德返台!桃源7分钟讲话:丧事喜办,一个字也不敢提大陆讲话

赖清德返台!桃源7分钟讲话:丧事喜办,一个字也不敢提大陆讲话

攒一兜星星
2026-05-05 14:55:58
夺冠概率暴跌至14.76%  55岁瓜帅茫然呆立 采访认输:曼城搞砸了

夺冠概率暴跌至14.76% 55岁瓜帅茫然呆立 采访认输:曼城搞砸了

我爱英超
2026-05-05 07:22:32
“大波小姐”来袭!

“大波小姐”来袭!

文刀万
2026-05-04 08:14:29
遍地倒闭、批量合并!央企国企扎堆成立的数科公司,为啥死了大半

遍地倒闭、批量合并!央企国企扎堆成立的数科公司,为啥死了大半

细说职场
2026-05-03 20:11:19
血色档案:决命临津江,朝鲜战争最悲壮一战,志愿军5个师战死

血色档案:决命临津江,朝鲜战争最悲壮一战,志愿军5个师战死

史政先锋
2026-05-05 12:56:52
你以为麻豆传媒是卖片的,其实它是卖人的

你以为麻豆传媒是卖片的,其实它是卖人的

创始人笔记
2026-04-23 21:44:50
韩国:正在讨论是否参与美方霍尔木兹海峡行动

韩国:正在讨论是否参与美方霍尔木兹海峡行动

新浪财经
2026-05-05 16:45:47
2026-05-05 17:24:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12917文章数 142642关注度
往期回顾 全部

科技要闻

传苹果考虑让英特尔、三星代工设备处理器

头条要闻

伊朗警告阿联酋:勿当以色列棋子 否则将得到难忘教训

头条要闻

伊朗警告阿联酋:勿当以色列棋子 否则将得到难忘教训

体育要闻

全世界都等着看他笑话,他带国米拿下冠军

娱乐要闻

英皇25周年演唱会 张敬轩被救护车拉走

财经要闻

五一假期,中国年轻人的“首尔病”犯了

汽车要闻

同比大涨190% 方程豹4月销量29138台

态度原创

教育
本地
时尚
健康
公开课

教育要闻

语法第3课(上)-英文造句的被动结构

本地新闻

用青花瓷的方式,打开西溪湿地

夏天最经典的银色,贵气十足!

干细胞治烧烫伤面临这些“瓶颈”

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版