网易首页 > 网易号 > 正文 申请入驻

Cursor为Blackwell构建MXFP8内核,MoE层提速3.5倍,端到端1.5倍

0
分享至



机器之心报道

编辑:+0

在构建更强大的 AI 模型的这场竞赛中,传统路径很简单:升级到最新最强大的硬件。但 Cursor 发现释放下一代 GPU 的真正潜力远非即插即用那么简单。



在从 NVIDIA 的 Hopper H100s 升级到新旗舰 Blackwell B200s 后,该团队遇到了一个「升级陷阱」:硬件性能翻倍,但实际训练速度却被 MoE 层的效率拖慢,新架构的设计反而放大了数据搬运和量化的开销。

这就像给一辆赛车换上了动力翻倍的新引擎,却发现原有的轮胎完全无法承载这股力量,导致速度反而下降。

他们的解决方案是回归基础,自己定制「赛车胎」:在 GPU 内核级别从零开始重写整个混合专家(MoE)训练层。

Cursor 不仅解决了瓶颈问题,还彻底释放了 Blackwell 架构的潜能。通过抛弃对现有 CUDA 库的依赖,他们能够:

  • 直接针对TMEM 的新特性设计数据流管线,避免无谓的寄存器搬运开销;
  • 量化与反量化逻辑融入内核计算流程,大幅压缩了内存带宽占用;
  • 优化MXFP8 的 microscaling 实现,在保证训练收敛质量的同时,把性能推到极限。

最终效果是:MoE 层在前向和反向传播中都实现了3.5倍提速,端到端训练速度在 Blackwell 上快了1.5倍,相比最初的 Hopper GPU 方案实现了2倍的加速。



与 BF16 相比,MXFP8 MoE 的相对加速(归一化为 1.0)。

Cursor 团队在博客中详细介绍了相关技术细节,并分享了他们的工程经验和性能数据。

  • 博客地址:https://cursor.com/en/blog/kernels

为什么现有 MoE 内核在 Blackwell 上失效?

为了降低计算成本,模型训练普遍采用低精度数据格式(如 FP8)。但简单地将高精度数字(如 0.0001)转换为 FP8 会导致其被四舍五入为零,丢失信息。

微缩放(MX)通过将张量(Tensor)分割成许多小数据块(例如每 32 个元素一块),并为每个块计算一个独立的缩放因子(scale factor)来解决这个问题。



MXFP8 量化示例:每个 1x32 块共享一个缩放因子。

这样,每个块内的数据都能被有效缩放到 FP8 的可表示范围内,从而在保留精度的同时享受低精度计算带来的性能优势。Cursor 使用的MXFP8就是这样一种格式。

张量内存(TMEM)瓶颈

在 Hopper (H100) 架构上,张量核心的计算结果直接累积在寄存器中,后续的「反量化」等操作可以流畅地进行。

然而,Blackwell (B200) 引入了新的张量内存(TMEM)来存储累加结果。这意味着任何自定义的算术操作都必须经历一次低效的数据往返:TMEM → 寄存器 → CUDA 核心处理 → TMEM。

这种异步数据传输会在张量核心的计算管线中产生「气泡」,大幅降低执行效率。更关键的是,尽管 Blackwell 的 FP8 张量核心吞吐量翻倍,其 CUDA 核心性能仅提升了约 33%,导致反量化速度严重滞后于计算速度。



该甘特图截取自我们定制的 Blackwell 注意力核。第一行显示了张量核心(QKT)的活动情况;第二行显示了 CUDA 核心的活动情况(数据从 TMEM 加载至寄存器,然后执行 softmax)。从 TMEM 到寄存器的加载延迟,导致了张量核心出现流水线气泡。

数据显示,在特定配置下,Blackwell 上的反量化耗时是矩阵乘法本身的 1.76 倍,远高于 Hopper 上的 1.03 倍。



Hopper 与 Blackwell 上的相对反量化成本。

被忽视的「量化税」

除了 TMEM 瓶颈,数据「量化」过程本身也成了性能杀手。

以一个典型的 MoE 矩阵乘法为例,计算本身可能仅需 1.16 毫秒,但将输入矩阵量化为 MXFP8 格式并写回内存就需要搬运近 2.9 GB 的数据,耗时约 0.44 毫秒,占到计算时间的近 40%。

在反向传播中,这个开销因需要转置-量化而翻倍,达到 0.88 毫秒,占比高达76%。这意味着,如果优化不当,MXFP8 带来的性能提升可能被完全抵消

此外,现有的开源量化内核不仅带宽利用率低,其生成的缩放因子(scale factor)布局还与 Blackwell 的硬件指令不兼容,需要额外的、拖慢性能的重塑操作。

Cursor 如何从零重写MoE 层?

面对这些挑战,并发现现有的开源库(如 NVIDIA 的 TransformerEngine)并非最佳选择,Cursor 团队选择放弃高层依赖,使用纯 CUDA 和 PTX 汇编语言亲自编写 MoE 层的 GPU 代码。

优化策略

  • 拥抱原生硬件指令

他们没有与 TMEM 架构对抗,而是围绕原生的 tcgen05.mma 指令构建内核。这使得 GPU 硬件自身能够处理 MXFP8 所需的缩放,完全消除了 TMEM 和 CUDA 核心之间低效的数据移动。

  • 设计高效的数据流水线

他们实现了一个复杂的流水线,采用了诸如「Warp 专精」(将特定任务分配给不同的线程组)和 2-CTA(协同线程阵列)模式等技术。

Warp 专精将特定的任务分配给不同的线程组(Warp)。例如,Warp 0 负责从主内存加载数据到共享内存,Warp 1 负责加载缩放因子,Warp 2 负责将缩放因子从共享内存移至 TMEM,而 Warp 3 则专门负责启动矩阵乘法计算。这使得各个环节可以高度并行。

2-CTA 模式允许两个 GPU 流式多处理器(SM)协同完成单个矩阵乘法,通过共享 B 矩阵来减少内存流量,带来了 15-20% 的性能提升。

  • 针对 MoE 工作负载进行优化

对于 MoE 训练中特有的分组矩阵乘法,他们应用了一种名为「专家级超分组」的 L2 缓存优化启发式算法。这确保了内存访问模式保持高效,将标准矩阵乘法与分组矩阵乘法之间的性能下降限制在仅 4%。

「秘密武器」:量化内核与低精度配方

该团队开发了一个自定义的 MXFP8 量化内核,他们称这是目前用于 MoE 训练的最快内核。微基准测试显示,其内核持续的内存带宽超过 6.2 TB/s,相比他们从现有开源工具测得的约 4.5 TB/s 有了显著提升。

至关重要的是,他们的内核输出的数据内存布局与 tcgen05.mma 指令所要求的完全一致,避免了其他工具所必需的、耗时的额外「重塑」步骤。



基于内存带宽利用率的 MXFP8 量化内核比较(E4M3,32 块大小的缩放)。

团队还确定了一种特定的低精度「配方」,能够在不影响训练质量的情况下提供最高速度。通过使用元素类型为 FP8E4M3、块大小为 32 的 MXFP8 格式,他们能够使训练损失的收敛情况与速度慢得多的 BF16 格式几乎完全匹配。

团队公布的训练损失曲线显示,两种方法几乎没有区别,证明了性能的提升并未以牺牲准确性为代价。



BF16 与 MXFP8 训练损失超过 10k 步:几乎无法区分。

更多技术细节请阅读原博客。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
89岁国民党前主席连战近况曝光!

89岁国民党前主席连战近况曝光!

看看新闻Knews
2026-01-14 19:49:08
每体:从皇马下课两天后,阿隆索被拍到和妻子在马德里散步

每体:从皇马下课两天后,阿隆索被拍到和妻子在马德里散步

懂球帝
2026-01-15 04:53:27
降息、降首付!降个税!2026年的货币政策开始启动了

降息、降首付!降个税!2026年的货币政策开始启动了

樱桃大房子
2026-01-15 19:38:02
古巴的领导纯是菜

古巴的领导纯是菜

求实处
2026-01-15 00:13:01
风向变了?央媒公开“点名”闫学晶,文案信息量大,冯巩一语成谶

风向变了?央媒公开“点名”闫学晶,文案信息量大,冯巩一语成谶

以茶带书
2026-01-15 13:09:24
震惊!大数据让贪官无处藏身,公职人员下班后行为曝光!

震惊!大数据让贪官无处藏身,公职人员下班后行为曝光!

特约前排观众
2026-01-15 00:20:03
苍天好轮回!徐帆回应离婚5个月后,冯小刚迎来"反噬"

苍天好轮回!徐帆回应离婚5个月后,冯小刚迎来"反噬"

素衣读史
2026-01-13 12:10:41
美通告全球,中方大抛美债,特朗普终于动手,八国央行向美宣战

美通告全球,中方大抛美债,特朗普终于动手,八国央行向美宣战

博览历史
2026-01-15 18:52:35
连赢世界第2+世界第8!国乒20岁黑马新星崛起:曾爆冷赢张本智和

连赢世界第2+世界第8!国乒20岁黑马新星崛起:曾爆冷赢张本智和

李喜林篮球绝杀
2026-01-16 00:15:16
“棋圣”聂卫平病逝,其女聂云菲发文:明明已经恢复那么好了,为什么上天这样无情,为何人生如此无常,子欲养而亲不待

“棋圣”聂卫平病逝,其女聂云菲发文:明明已经恢复那么好了,为什么上天这样无情,为何人生如此无常,子欲养而亲不待

极目新闻
2026-01-15 08:22:24
中国航天科技集团:2026年要全力突破重复使用火箭技术,大力发展商业航天、低空经济等战新产业

中国航天科技集团:2026年要全力突破重复使用火箭技术,大力发展商业航天、低空经济等战新产业

科创板日报
2026-01-15 21:00:25
深夜,9岁女儿突然大喊腿好疼,父母带她检查后瘫坐在沙发上,“我要怎么告诉孩子,她可能要失去一条腿…”

深夜,9岁女儿突然大喊腿好疼,父母带她检查后瘫坐在沙发上,“我要怎么告诉孩子,她可能要失去一条腿…”

极目新闻
2026-01-14 21:26:07
受够了AI脱衣?新《古墓丽影》劳拉演员宣布推特删号

受够了AI脱衣?新《古墓丽影》劳拉演员宣布推特删号

游民星空
2026-01-14 12:13:11
美女爆释永信猛料!姐妹住少林寺三天两晚,凌晨众人汇聚他的禅房

美女爆释永信猛料!姐妹住少林寺三天两晚,凌晨众人汇聚他的禅房

小涛叨叨
2026-01-09 16:43:27
美国与中国大陆将协议两岸统一!

美国与中国大陆将协议两岸统一!

雪中风车
2026-01-13 20:33:50
教育部扔下重磅炸弹:2026年开始,全国一律不准买校外商业试卷​

教育部扔下重磅炸弹:2026年开始,全国一律不准买校外商业试卷​

小熊侃史
2026-01-14 07:10:07
美国被中国再度拒绝了,美国官员很沮丧。

美国被中国再度拒绝了,美国官员很沮丧。

回京历史梦
2026-01-15 15:22:31
震撼!2025出生人口再创新低,小学幼师一年少24万?日后如何破局

震撼!2025出生人口再创新低,小学幼师一年少24万?日后如何破局

户外小阿隋
2026-01-14 13:46:37
古巴能源供应被切断,垃圾堆积如山

古巴能源供应被切断,垃圾堆积如山

昊轩看世界
2026-01-14 10:15:12
四川:多个“万人刨猪汤”活动相继宣布取消

四川:多个“万人刨猪汤”活动相继宣布取消

看看新闻Knews
2026-01-15 13:17:11
2026-01-16 04:59:00
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12126文章数 142536关注度
往期回顾 全部

科技要闻

阿里最狠的一次“自我革命”

头条要闻

美突袭委内瑞拉动用神秘武器:委士兵跪倒在地吐血

头条要闻

美突袭委内瑞拉动用神秘武器:委士兵跪倒在地吐血

体育要闻

聂卫平:黑白棋盘上的凡人棋圣

娱乐要闻

92岁陶玉玲去世,冯远征曹可凡悼念

财经要闻

央行再次结构性降息0.25个百分点

汽车要闻

吉利帝豪/缤越推冠军一口价 起售价4.88万

态度原创

数码
旅游
游戏
公开课
军事航空

数码要闻

部分内存条价格暴涨超300% 报告称存储市场进入超级牛市

旅游要闻

龙庆峡冰灯节“上新”

任天堂股价暴跌!为何索尼未收影响?专家分析来了

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

美国已正式开始出售委内瑞拉石油

无障碍浏览 进入关怀版