网易首页 > 网易号 > 正文 申请入驻

MiniMax M2采用“Full Attention”是开倒车?

0
分享至

本文转载自「MiniMax稀宇科技」

为什么M2是Full Attention? Guixianren,公众号:MiniMax 稀宇科技

作为MiniMax M2预训练的负责人,我收到了很多来自社区的询问:“为什么你们在MiniMax M2上开倒车,采用了 Full Attention 机制?” 在一次又一次的聊天中解释了背后的故事后,我觉得是时候在一篇blog里写下我们的心路历程。

我可以花一整个下午来讨论为什么应该构建应该做 Linear/Sparse Attention。同样,我也可以反过来花一整个下午来讨论为什么不应该去做。但所有这些纸上谈兵又有什么意义呢?回到实际情况里,我们要不要做呢?

先说结论:我们一直在研究它。但在一个现实的工业系统中,Efficient Attention想要打败Full Attention还有些距离。LLM发展到今天,整个链路越来越复杂,服务的场景越来越多,结构设计上需要考虑的点也爆炸式增长;Code/Math场景效果咋样、Agent场景下效果怎么样、多模态是什么表现、Long CoT行不行、RL能不能Scale上去、低精度运算下有没有坑、Interleaved Thinking怎么弄、线上怎么做cache、怎么做Speculative Decoding等等。

简而言之,现实与理论存在着较大差异,要为 Linear/Sparse Attention 正名,就要在满足了条件1到条件n,并解决了问题1到问题n之后。

为什么要做Efficient Attention?

如果你有无限算力,你会选择研究Linear Attention或者Sparse Attention吗?也许有人会说infinite context场景下,Softmax Attention的Attention Score会oversmoothing....但谁知道呢?在目前算力bound的前提下,还没有哪个模型真的把Softmax Attention打到能力上限。因此,从实际应用的角度来看,目前大家做Linear Attention或者Sparse Attention都是奔着省算力去的。

有没有可能奔着省token去呢——达到同样效果,需要的token量更少。如果你相信Scaling Law,想达到这个目的,应该不会选择走Efficient Attention这条路,而是其他途径。

说穿了就是,算力有限,我们需要有一个更省算力的结构,同算力消耗下(training compute and inference compute)有更好的效果。

需要解决的问题

我们希望做一个能被商用的模型,我们必须从用户所关心的问题出发:效果、速度(TPS)和价格。效果是底线,一个效果差的模型,即便免费也毫无价值。那么,怎么做一个效果足够好的Linear/Sparse/Hybrid Attention模型呢?这里最大的问题不是结构设计,而是评测的局限性。速度和价格受推理系统影响,当然优秀的模型自然有优秀的工程师来帮忙优化。

1.观测局限性

“只要你把bench建出来,我自然能找到办法打上去。”

纵观大模型发展的几年,榜单分数提升的速度是惊人的,不管多难的榜,就算榜单刚出来的时候SOTA只有个位数分数,只要入了各家的法眼,总能在几版迭代后刷爆。

怎么建一个全面、真能反应模型能力差异的评测链路?这是一个很难的课题,也是大模型迭代的重中之重。这个问题在模型结构,特别是Attention迭代中,将变得更加严峻。

  • Benchmark不够全面

“没有免费的午餐”,把attention的复杂度降下去,付出的代价是什么?

在做MiniMax-Text-01的时候,大家还普遍在看MMLU/BBH/Math/LongBench这类的榜单(现在已经被刷爆了)。以一年多前的视角来看,Ligntning Attention + Full Attention完全能打全Full Attention,毕竟这些榜单上都不差(我们端到端训了个Hybrid架构的小模型来验证)。

难道真有免费午餐?其实不然。这个代价在更大的模型上暴露出来了:复杂多跳推理任务有明显缺陷。

当问题暴露出来就好办了,对代理指标迭代优化!经过几轮迭代,代理指标看起来能打MHA了。但是scale上去后,代理指标和下游实际场景还能match上吗?还有其他的问题吗?谁知道呢,还没实验到这里。

模型越进步,评测越难做。但这是必经之路,加油评测人!

  • 观测成本高

针对复杂多跳推理任务,我们能找到训练更早期可以被观测的代理指标,但并不是所有任务在预训练阶段都可以被观测(起码现在还不行)。同时随着任务越来越难,想要到对应指标观测的置信区间,需要付出的算力代价也越来越大,这也导致了实验迭代比较缓慢(算力不够才来研究这玩意,研究这玩意吃算力也不少)。

除了评测榜单,还有模型优化问题,不scale上去,永远不知道会发生什么,很多问题在小规模试验中无法暴露。看过M1论文的朋友应该会发现M1 RL训练过程中有严重的精度问题,不做到这一步确实很难发现这个雷。基于这个现象再回过头去对Lightning Attention做数值收敛性分析,要怎么解决真的很通透了。发现问题,真的比解决问题要难得的多的多。

  • 其他变量

训练模型的变量太多太多,不同结构在不同数据分布下的表现大相径庭,不同结构适配的优化器也差异巨大。在数据高速迭代的周期里,用一个月前的数据做实验可能会得完全相反的结论。

我们很难做完备的观测,但在试图找更靠谱的实验策略。

2.Efficient Attention的基建

相比Full Attention,Linear Attention和Sparse Attention的基建要差的多,想要真的拿到收益,要补不少课。

以Linear Attention的基建问题为例:如果对现在已有的线性结构做计算强度分析,会发现不少结构都是访存bound(没错,训练的时候)。如果不能做极致的IO优化,从GPU算力利用来讲是吃亏的。

把视角再转到推理,这里需要解决的问题比训练要多不少了:如何提供一个真正更快更便宜的推理服务?Linear Attention的优势体现在线性计算强度,常数显存占用。那么和Full Attention的计算消耗和显存消耗必然存在一个交点,通常这个交点理论值在几K的大小,对于今天的大模型,这个长度并不长。但是注意,这里是理论值,我们需要解决下面几个问题来逼近这个数值:

  • States的低精度存储:当前Linear Attention对精度要求比Full Attention高得多;

  • 如何解决Prefix Cache:正常业务命中Cache的概率是很高的;

  • 如何优化Linear Attention上的投机解码

幸好,这些问题目前看起来都是可以解决的。

下一步是什么

Scaling这件事依旧是主旋律,Context Length是其中的关键之一,不管是Pretrain还是PostTrain,Context Length增长的趋势越来越明显。当GPU算力的增速慢于Data长度增长带来的算力压力增加的时候,Linear/Sparse Attention的收益会被逐渐释放。我们需要提前准备些东西:

  • 更多模态、信息更加丰富的长文数据

  • 更合理的评测体系和实验范式,帮助更快的迭代

  • 更完善的训推基建,榨干GPU的潜力

补充

开源推理代码swa的实现忘记删掉了,看到有人问为什么最后没有用。这里也简单回复下:当然是效果不行

这个地方实验的比较早,当时GPT-OSS还没有开源,看到GPT-OSS结构长这样还挺吃惊的。这里可以简单讲讲我们的一些失败经验。我们是CPT范式变成Hybrid SWA的思路,这里考虑了做层间混合和层内混合两种,做层内混合的出发点是这样层间的计算强度是均衡的,不管是训练做PP策略,还是推理的时候做PP或者AFD分离都更友好。

当然都没work,具体表现为Context越长性能下降越显著,这在Agent场景是不太能接受的。

在我们的分析里,这里有很多Global Attention Pattern(如retrieval head和induction head)在前期预训练阶段已经形成,通过CPT很难调整这些Attention Pattern。如果构建数据探针去检索对应的head并将其保留为Full Attention能极大的缓解对应问题,但是不幸的是,根据人类先验很难把这些Pattern全部探出来。

另外,这个问题和Attention sink没有关系。

如果大家对这种思路感兴趣的话,GPT-OSS、CWM、Gemma的性能大家可以分析下,特别是长文。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
吴石案发,还有一人比谷正文手段更狠,他才是覆灭地下党的关键

吴石案发,还有一人比谷正文手段更狠,他才是覆灭地下党的关键

历史有些冷
2025-11-06 21:20:03
碧桂园“赖账”成功

碧桂园“赖账”成功

好猫财经
2025-11-07 09:35:44
解禁复出才1年,赵心童再破天花板,让丁俊晖和整个体坛沉默了

解禁复出才1年,赵心童再破天花板,让丁俊晖和整个体坛沉默了

李橑在北漂
2025-11-07 07:04:09
郑丽文就职演说为何让马英九流泪?岛内媒体人:看见蓝营的希望

郑丽文就职演说为何让马英九流泪?岛内媒体人:看见蓝营的希望

海峡导报社
2025-11-02 14:31:05
62年,周总理强硬地顶撞过一次毛主席,直言:我不认为我有什么错

62年,周总理强硬地顶撞过一次毛主席,直言:我不认为我有什么错

百年人物志
2025-05-23 10:33:50
杭州教育局还是很坦诚的

杭州教育局还是很坦诚的

林中木白
2025-11-07 10:35:49
NO!库里伤病更新+归期未定,勇士阵容遭重击,詹姆斯复出倒计时

NO!库里伤病更新+归期未定,勇士阵容遭重击,詹姆斯复出倒计时

球童无忌
2025-11-07 23:13:51
官方:2026年世界杯洲际附加赛及欧洲区附加赛抽签日期确定

官方:2026年世界杯洲际附加赛及欧洲区附加赛抽签日期确定

懂球帝
2025-11-07 23:04:03
一旦武统台湾,这4个台湾人必上“斩首”名单,全都是罪有应得!

一旦武统台湾,这4个台湾人必上“斩首”名单,全都是罪有应得!

老闫侃史
2025-08-10 18:05:03
曾医生和副院长的视频已传到了外网,网友透露更多内幕

曾医生和副院长的视频已传到了外网,网友透露更多内幕

魔都姐姐杂谈
2025-11-07 11:06:49
10亿播放量歌手上音综被淘汰,评委常思思:你为什么不用自己大爆歌来参赛呢

10亿播放量歌手上音综被淘汰,评委常思思:你为什么不用自己大爆歌来参赛呢

极目新闻
2025-11-07 11:13:40
倪萍谈母亲:童年被她伤害太深,放学小流氓跟踪我,都想跟他们走

倪萍谈母亲:童年被她伤害太深,放学小流氓跟踪我,都想跟他们走

精彩背后的故事
2025-11-07 13:02:58
韩莉,被查

韩莉,被查

新京报政事儿
2025-11-07 11:50:27
演员温峥嵘自曝刷到AI盗播,抖音副总裁李亮回应

演员温峥嵘自曝刷到AI盗播,抖音副总裁李亮回应

界面新闻
2025-11-07 08:57:44
四川首条“自带地暖”的高速公路亮相,告别“暴雪即封路”

四川首条“自带地暖”的高速公路亮相,告别“暴雪即封路”

IT之家
2025-11-07 15:26:11
6亿打水漂?投资人揭《美人鱼2》不上映原因,劣迹艺人害惨周星驰

6亿打水漂?投资人揭《美人鱼2》不上映原因,劣迹艺人害惨周星驰

查尔菲的笔记
2025-09-02 00:48:54
天呐,这是黄晓明?不得不说,差点没认出来啊

天呐,这是黄晓明?不得不说,差点没认出来啊

乡野小珥
2025-10-21 14:40:30
为马宁撑腰!印尼2国脚因推搡他遭FIFA重罚 禁赛4场+共罚款48.4万

为马宁撑腰!印尼2国脚因推搡他遭FIFA重罚 禁赛4场+共罚款48.4万

我爱英超
2025-11-07 18:54:11
四中全会精神在基层|记者手记:不产一粒生豆,昆山何以打造千亿元级咖啡产业?

四中全会精神在基层|记者手记:不产一粒生豆,昆山何以打造千亿元级咖啡产业?

新华社
2025-11-07 09:54:05
为何说梅毒病是最脏的病?医生详细讲解,隔着屏幕都感到头皮发麻

为何说梅毒病是最脏的病?医生详细讲解,隔着屏幕都感到头皮发麻

小舟谈历史
2025-10-15 09:30:14
2025-11-08 00:31:01
开源中国 incentive-icons
开源中国
每天为开发者推送最新技术资讯
7415文章数 34479关注度
往期回顾 全部

科技要闻

75%赞成!特斯拉股东同意马斯克天价薪酬

头条要闻

家长称男婴被两个不满12周岁女孩害死:拿她们没办法

头条要闻

家长称男婴被两个不满12周岁女孩害死:拿她们没办法

体育要闻

是天才更是强者,18岁的全红婵迈过三道坎

娱乐要闻

王家卫的“看人下菜碟”?

财经要闻

荷兰政府:安世中国将很快恢复芯片供应

汽车要闻

美式豪华就是舒适省心 林肯航海家场地试驾

态度原创

房产
艺术
本地
健康
公开课

房产要闻

全国2025唯一“开盘即百亿”在广州诞生

艺术要闻

Donna Young:美国当代艺术家

本地新闻

这届干饭人,已经把博物馆吃成了食堂

超声探头会加重受伤情况吗?

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版