网易首页 > 网易号 > 正文 申请入驻

Mamba论文为什么没被ICLR接收?AI社区沸腾了

0
分享至

机器之心报道

编辑:张倩、蛋酱

基于 Mamba 的创新正不断涌现,但原论文却被 ICLR 放到了「待定区」。

2023 年,Transformer 在 AI 大模型领域的统治地位被撼动了。发起挑战的新架构名叫「Mamba」,它是一种选择性状态空间模型( selective state space model),在语言建模方面可以媲美甚至击败 Transformer。而且,它可以随上下文长度的增加实现线性扩展,其性能在实际数据中可提高到百万 token 长度序列,并实现 5 倍的推理吞吐量提升。

在发布之后的一个多月里,Mamba 逐渐展现出自己的影响力,衍生出了 MoE-Mamba、Vision Mamba、VMamba、U-Mamba、MambaByte 等多项工作,在克服 Transformer 短板方面表现出了越来越大的潜力。

但这样一颗冉冉升起的「新星」,却在 2024 年的 ICLR 会议中遭遇了滑铁卢。最新的公开结果显示,Mamba 的论文至今还没有被大会接收,我们只能在 Decision Pending(待定)一栏看到它的身影(可能是延迟决定,也可能是被拒)。

总体来看,给 Mamba 打分的总共有四位审稿人,他们分别给出了 8/8/6/3 的打分。有人表示,如果拿到这样的分数还被拒,那确实是一件很奇怪的事情。

要弄清其中的缘由,我们还得看一下打出低分的审稿人是怎么说的。

论文审稿页面:https://openreview.net/forum?id=AL1fq05o7H

为什么「not good enough」?

在评审反馈中,给出「3: reject, not good enough」打分的审稿人解释了自己对于 Mamba 的几点意见:

对模型设计的想法:

  • Mamba 的动机是解决递归模型的缺点,同时提高基于注意力模型的效率。有很多研究都是沿着这个方向进行的:S4-diagonal [1]、SGConv [2]、MEGA [3]、SPADE [4],以及许多高效的 Transformer 模型(如 [5])。所有这些模型都达到了接近线性的复杂度,作者需要在模型性能和效率方面将 Mamba 与这些作品进行比较。关于模型性能,一些简单的实验(如 Wikitext-103 的语言建模)就足够了。
  • 许多基于注意力的 Transformer 模型显示出长度泛化能力,即模型可以在较短的序列长度上进行训练,并在较长的序列长度上进行测试。这方面的例子包括相对位置编码(T5)和 Alibi [6]。由于 SSM 一般都是连续的,那么 Mamba 是否具有这种长度泛化能力呢?

对实验的想法:

  • 作者需要与更强的基线进行比较。作者表示 H3 被用作模型架构的动机,然而他们并没有在实验中与 H3 进行比较。根据 [7] 中的表 4,在 Pile 数据集上,H3 的 ppl 分别为 8.8(1.25 M)、7.1(3.55 M)和 6.0(1.3B),大大优于 Mamba。作者需要展示与 H3 的比较。
  • 对于预训练模型,作者只展示了零样本推理的结果。这种设置相当有限,结果不能很好地支持 Mamba 的有效性。我建议作者进行更多的长序列实验,比如文档摘要,输入序列自然会很长(例如,arXiv 数据集的平均序列长度大于 8k)。
  • 作者声称其主要贡献之一是长序列建模。作者应该在 LRA(Long Range Arena)上与更多基线进行比较,这基本上是长序列理解的标准基准。
  • 缺少内存基准。尽管第 4.5 节的标题是「速度和内存基准」,但只介绍了速度比较。此外,作者应提供图 8 左侧更详细的设置,如模型层、模型大小、卷积细节等。作者能否提供一些直观信息,说明为什么当序列长度非常大时,FlashAttention 的速度最慢(图 8 左)?

此外,另一位审稿人也指出 Mamba 存在的不足:该模型在训练过程中仍然像 Transformers 一样具有二次内存需求。

作者:已修改,求审阅

汇总所有审稿人的意见之后,作者团队也对论文内容进行了修改和完善,补充了新的实验结果和分析:

  • 增加了 H3 模型的评估结果

作者下载了大小为 125M-2.7B 参数的预训练 H3 模型,并进行了一系列评估。Mamba 在所有语言评估中都明显更胜一筹,值得注意的是,这些 H3 模型是使用二次注意力的混合模型,而作者仅使用线性时间 Mamba 层的纯模型在各项指标上都明显更优。

与预训练 H3 模型的评估对比如下:

  • 将完全训练过的模型扩展到更大的模型规模

如下图所示,与根据相同 token 数(300B)训练的 3B 开源模型相比,Mamba 在每个评估结果上都更胜一筹。它甚至可以与 7B 规模的模型相媲美:当将 Mamba(2.8B)与 OPT、Pythia 和 RWKV(7B)进行比较时,Mamba 在每个基准上都获得了最佳平均分和最佳 / 次佳得分。

  • 展示了超出训练长度的长度外推结果

作者附上了一张评估预训练 3B 参数语言模型长度外推的附图:

图中绘出了每个位置的平均损失(对数可读性)。第一个 token 的困惑度很高,因为它没有上下文,而 Mamba 和基线 Transformer(Pythia)的困惑度在训练上下文长度(2048)之前都有所提高。有趣的是,Mamba 的可解性在超过其训练上下文后有了显著提高,最高可达 3000 左右的长度。

作者强调,长度外推并不是本文模型的直接动机,而是将其视为额外功能:

  1. 这里的基线模型(Pythia)在训练时并没有考虑长度外推法,或许还有其他 Transformer 变体更具通用性(例如 T5 或 Alibi 相对位置编码)。
  2. 没有发现任何使用相对位置编码在 Pile 上训练的开源 3B 模型,因此无法进行这种比较。
  3. Mamba 和 Pythia 一样,在训练时没有考虑长度外推法,因此不具有可比性。正如 Transformer 有很多技术(如不同的位置嵌入)来提高它们在长度概括等轴上的能力一样,在未来的工作中,为类似的能力推导出 SSM 特有的技术可能会很有趣。
  • 补充了 WikiText-103 的新结果

作者分析了多篇论文的结果,表明 Mamba 在 WikiText-103 上的表现明显优于其他 20 多个最新的次二次序列模型。

尽管如此,两个月过去了,这篇论文还处于「Decision Pending」流程中,没有得到「接收」或者「拒绝」的明确结果。

被顶会拒绝的那些论文

在各大 AI 顶会中,「投稿数量爆炸」都是一个令人头疼的问题,所以精力有限的审稿人难免有看走眼的时候。这就导致历史上出现了很多著名论文被顶会拒绝的情况,包括 YOLO、transformer XL、Dropout、支持向量机(SVM)、知识蒸馏、SIFT,还有 Google 搜索引擎的网页排名算法 PageRank(参见:《大名鼎鼎的 YOLO、PageRank 影响力爆棚的研究,曾被 CS 顶会拒稿》)。

甚至,身为深度学习三巨头之一的 Yann LeCun 也是经常被拒的论文大户。刚刚,他发推文说,自己被引 1887 次的论文「Deep Convolutional Networks on Graph-Structured Data」也被顶会拒绝了。

在 ICML 2022 期间,他甚至「投了三篇,被拒三篇」。

所以,论文被某个顶会拒绝并不代表没有价值。在上述被拒的论文中,很多论文选择了转投其他会议,并最终被接收。因此,网友建议 Mamba 转投陈丹琦等青年学者组建的 COLM。COLM 是一个专注于语言建模研究的学术场所,专注于理解、改进和评论语言模型技术的发展,或许对于 Mamba 这类论文来说是更好的选择。

不过,无论 Mamba 最终能否被 ICLR 接收,它都已经成为一份颇具影响力的工作,也让社区看到了冲破 Transformer 桎梏的希望,为超越传统 Transformer 模型的探索注入了新的活力。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
爱泼斯坦案曝光霍金与身穿比基尼女子合影,霍金家人:系护理人员,他需要全天候照护;此前辟谣照片是合成伪造

爱泼斯坦案曝光霍金与身穿比基尼女子合影,霍金家人:系护理人员,他需要全天候照护;此前辟谣照片是合成伪造

观威海
2026-02-26 13:54:10
在岸人民币兑美元收盘大涨275点,创2023年3月以来新高

在岸人民币兑美元收盘大涨275点,创2023年3月以来新高

界面新闻
2026-02-26 16:40:26
詹晓武接受纪律审查和监察调查

詹晓武接受纪律审查和监察调查

吉刻新闻
2026-02-26 13:31:50
华为正式官宣:2月26日,新机全球发布!

华为正式官宣:2月26日,新机全球发布!

科技堡垒
2026-02-25 13:18:13
头号种子兹维列夫1-2不敌凯茨曼诺维奇,无缘阿卡普尔科站八强

头号种子兹维列夫1-2不敌凯茨曼诺维奇,无缘阿卡普尔科站八强

懂球帝
2026-02-26 11:10:31
热播短剧被指出现男演员揩油女演员镜头,目前争议镜头已删除,剧方尚未回应

热播短剧被指出现男演员揩油女演员镜头,目前争议镜头已删除,剧方尚未回应

潇湘晨报
2026-02-25 17:55:25
冲上热搜!中秋请3天假堪比春节,13天超长假期!最实用拼假攻略已备好

冲上热搜!中秋请3天假堪比春节,13天超长假期!最实用拼假攻略已备好

上观新闻
2026-02-25 14:08:57
最让大龄剩女崩溃的是什么?网友:为啥我一个单身狗看的津津有味

最让大龄剩女崩溃的是什么?网友:为啥我一个单身狗看的津津有味

带你感受人间冷暖
2026-02-22 16:13:39
事实证明,刘少奇在党内地位快速提升是有原因的

事实证明,刘少奇在党内地位快速提升是有原因的

尚书乔
2025-02-21 00:04:05
18线小县城的经济到底靠什么支撑?答案很扎心…

18线小县城的经济到底靠什么支撑?答案很扎心…

慧翔百科
2026-02-26 09:03:51
先敬罗衣后敬人!网友:很多服务行业,都是看菜下碟的

先敬罗衣后敬人!网友:很多服务行业,都是看菜下碟的

夜深爱杂谈
2026-02-19 22:20:41
台积电要当EUV钉子户?ASML急了,憋了个大招,逼台积电换

台积电要当EUV钉子户?ASML急了,憋了个大招,逼台积电换

科技专家
2026-02-26 15:53:30
云南大关县准备整体搬迁,昭通市划出一个镇,作为大关未来新县城

云南大关县准备整体搬迁,昭通市划出一个镇,作为大关未来新县城

宝哥精彩赛事
2026-02-26 14:25:19
泰山2-3海牛:炸出董路、米兰、海牛的三个“嘴嗨”!

泰山2-3海牛:炸出董路、米兰、海牛的三个“嘴嗨”!

刘哥谈体育
2026-02-26 11:04:19
1949年蒋介石密令炸毁青岛,此人冒险两劝刘安祺:不要做历史罪人

1949年蒋介石密令炸毁青岛,此人冒险两劝刘安祺:不要做历史罪人

漫步史书
2026-02-25 10:19:00
突然爆了!老登资产席卷全球

突然爆了!老登资产席卷全球

格隆汇
2026-02-26 16:39:07
杜富国成为英雄后,国家给予的3项特殊待遇,一般干部都难享受到

杜富国成为英雄后,国家给予的3项特殊待遇,一般干部都难享受到

搜史君
2026-02-20 12:25:05
别再同情她了!被教练性侵27次,却在奥运赛场上把队友撞出赛道

别再同情她了!被教练性侵27次,却在奥运赛场上把队友撞出赛道

徐醇老表哥
2026-02-24 15:53:18
对越反击战:我国不仅教训了越南,暗中还获得五大好处,哪五大?

对越反击战:我国不仅教训了越南,暗中还获得五大好处,哪五大?

天天都是好日子
2026-02-24 16:42:56
广东铭途总经理郜林:从国脚到总经理的心态蜕变

广东铭途总经理郜林:从国脚到总经理的心态蜕变

老皢尾声体育解说
2026-02-26 01:38:22
2026-02-26 17:20:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12368文章数 142569关注度
往期回顾 全部

科技要闻

单季营收681亿净利429亿!英伟达再次炸裂

头条要闻

女子家水费两个月1847元 整整一个月每天用水都是13吨

头条要闻

女子家水费两个月1847元 整整一个月每天用水都是13吨

体育要闻

从排球少女到冰壶女神,她在米兰冬奥练出6块腹肌

娱乐要闻

尼格买提撒贝宁滑雪被偶遇 17年老友情

财经要闻

人民币升破6.85,创3年新高

汽车要闻

别克君越/昂科威Plus直降5000元 限时优惠价15.49万起

态度原创

教育
时尚
旅游
数码
艺术

教育要闻

毁掉一个孩子最快的方式:父母既要又要还要(推荐)

无论几岁,好心态万岁!

旅游要闻

冬日暖阳下的约克:一座中世纪小城的奇幻漫步

数码要闻

PC怎能不涨价!惠普:内存已占电脑成本1/3以上

艺术要闻

2025年百家金陵画展 | 油画作品选刊

无障碍浏览 进入关怀版