网易首页 > 网易号 > 正文 申请入驻

被忽略的起点?Karpathy揭秘注意力论文被Transformer光芒掩盖

0
分享至

机器之心报道

编辑:Panda

几个小时前,著名 AI 研究者、OpenAI 创始成员之一 Andrej Karpathy 发布了一篇备受关注的长推文,其中分享了注意力机制背后一些或许少有人知的故事。

其中最值得注意的一个故事是真正首次提出注意力机制的论文其实是 Dzmitry Bahdanau、Kyunghyun Cho 和 Yoshua Bengio 的《Neural Machine Translation by Jointly Learning to Align and Translate》,这比《Attention is All you Need》还早 3 年,但很显然,这篇论文并没有收获后者那般的关注。

Karpathy 长推文的不完整截图

实际上,这个故事来自 Dzmitry Bahdanau 发给 Karpathy 的一封邮件。Bahdanau 是 ServiceNow Research 的研究科学家和研究负责人以及麦吉尔大学兼职教授。

他在发给 Karpathy 的这封邮件中分享了自己发现注意力机制的旅程以及 Attention 这个术语的由来——其实来自 Yoshua Bengio。此外,他也提到了 Alex Graves 的 NMT 论文和 Jason Weston 的记忆网络(Memory Networks)论文各自独立发现类似机制的故事。

Karpathy 推文发布后反响热烈,短时间内就已有超过 20 万阅读量,很多读者都被这个注意力背后的故事吸引。

有读者在看过这个故事后发出感叹:2013-2017 年间的深度学习宇宙中有很多隐藏的英雄。

也有人分享自己对注意力机制的看法。

Hyperbolic Labs 创始人和 CTO Yuchen Jin 更是打趣说《Attention Is All You Need》的另一项重要贡献是将后面的 AI 论文标题带歪了:「吸引注意力的标题才是 All You Need」。

注意力机制的背后故事

下面我们就来看看 Karpathy 的推文究竟说了什么:

「attention」算子——也就是提出了 Transformer 的《Attention is All you Need》中的那个注意力,背后的(真实)开发和灵感故事。来自大约 2 年前与作者 @DBahdanau 的个人电子邮件通信,在此发布(经许可)。此前几天,网上流传着一些关于其开发过程的假新闻。

Attention 是一种出色的(数据依赖型)加权平均运算。它是一种形式的全局池化、归约、通信。它是一种从多个节点(token、图块等)聚合相关信息的方法。它富有表现力、功能强大、具有足够的并行性,并且可以高效优化。甚至多层感知器(MLP)实际上也可以大致重写为数据独立型权重上的 Attention(第一层权重是查询,第二层权重是值,键就是输入,softmax 变为元素级,删除了规范化)。简单来说,注意力非常棒,是神经网络架构设计中的重大突破。

《Attention is All You Need》获得的…… 呃…… 注意力差不多是 3 年前真正提出 Attention 的论文的 100 倍,即 Dzmitry Bahdanau、Kyunghyun Cho 和 Yoshua Bengio 的论文《Neural Machine Translation by Jointly Learning to Align and Translate》。在我看来,这一直有点出人意料。顾名思义,《Attention is All You Need》的核心贡献是提出:Transformer 神经网络就是删除注意力之外的一切,然后基本上就是将其堆叠在带有 MLP(根据上述内容,这也可以大致被视为注意力)的 ResNet 中。但我确实认为这篇 Transformer 论文有自己独特的价值,因为它一次性添加了其它许多令人惊叹的想法,包括位置编码、缩放式注意力、多头注意力、各向同性的简单设计等。在我看来,直到今天(大约 7 年过去了),Transformer 基本上还保持着 2017 年的形式,只有相对较少的微小修改,也许除了使用更好的位置编码方案(RoPE 等)。

总之,我先把完整邮件贴在下面,其中也暗示了这个运算一开始被称为 Attention 的原因 —— 它源自对源句子中词的关注(attending)并同时以顺序方式输出翻译结果的词,并且之后 Yoshua Bengio 在 RNNSearch 中将其引入成了一个术语(感谢上帝?:D)。同样有趣的是,该设计的灵感来自人类的认知过程/策略,即按顺序来回关注一些数据。最后,从发展进步的本质来看,这个故事相当有趣——类似的想法和表述「早就已经在空气中回荡」,特别要提到当时 Alex Graves(NMT)和 Jason Weston(记忆网络)的工作。

谢谢你的故事 @DBahdanau !

之后,Karpathy 还做了一些补充:ChatGPT 以及绝大多数现代 AI 模型都是巨型 Transformer。「所以LLM 的核心神奇之处来自于反复应用注意力,一遍又一遍地关注输入的 token,以预测下一个 token 是什么。」

Dzmitry Bahdanau 的原始邮件内容

Karpathy 也一并分享了 Dzmitry Bahdanau 的原始邮件内容:

嗨,Andrej,

很高兴告诉你 8 年前发生的故事!

我在雅各布大学 Herbert Jaeger 的指导下完成硕士课程的第一年后,作为实习生来到了 Yoshua 的实验室。

我告诉 Yoshua 我很乐意做任何事情。Yoshua 让我参与机器翻译项目,与 Kyunghyun Cho 和团队一起工作。我当时非常怀疑将词序列塞入向量的想法。但我也非常想获得博士学位。所以我撸起袖子,开始做我擅长的事情——编写代码、修复错误等等。在某个时候,我表现得很了解我做的东西了,Yoshua 邀请我攻读博士学位(2014 年是一个很好的时机,表现得很了解就已经足够了——美好的旧时光!)。我非常高兴,我认为可以开始享受乐趣并发挥创造力了。

所以我开始思考如何避免编码器和解码器 RNN 之间的瓶颈。我的第一个想法是构建一个带有两个「光标」的模型,一个在源序列中移动(由一个 BiRNN 编码),另一个在目标序列中移动。使用动态规划(dynamic programming)可以将光标轨迹边缘化。KyungHyun Cho 认为这相当于 Alex Graves 的 RNN Transducer 模型。之后,我可能还读了 Graves 的手写识别论文。不过,这种方法看起来不适合机器翻译。

在我实习的剩余 5 周内,上述使用光标的方法很难实现。所以我尝试了一种更简单的方法——两个光标同时同步移动(实际上是硬编码的对角注意力)。这种方法有点效果,但方法不够优雅。

所以有一天,我想到如果能让解码器 RNN 学会在源序列中搜索放置光标的位置就好了。这多少受到我中学时学习英语时的翻译练习的启发。翻译时,你的目光会在源序列和目标序列之间来回移动。我将这种软性搜索表示为 softmax,然后对 BiRNN 状态进行加权平均。它的效果很好,从第一次尝试,到后来振奋人心。我将这个架构称为 RNNSearch,我们急于发表一篇 arXiv 论文,因为我们知道谷歌的 Ilya 和同事领先于我们,他们有巨大的 8 GPU LSTM 模型(而 RNN Search 仍在 1 GPU 上运行)。

后来发现,这个名字并不好。直到最后几次过论文时,Yoshua 才将更好的名字(attention)添加到论文结论中

一个半月后,我们看到了 Alex Graves 的NMT论文。这确实是完全相同的想法,尽管他提出它的动机完全不同。在我们的情况下,是因为需要而产生了这个发明。在他的情况下,我想应该是将神经和符号 AI 连接起来的雄心吧?Jason Weston 及其同事的记忆网络论文也采用了类似的机制。

我没有远见地想到注意力可以在较低的层级使用,以作为表征学习的核心运算。但是当我看到 Transformer 论文时,我立即向实验室同事断言 RNN 已死。

回到你最初的问题:在蒙特利尔 Yoshua 的实验室发明的「可微分和数据依赖加权平均」独立于神经图灵机、记忆网络以及 90 年代(甚至 70 年代)的一些相关认知科学论文。这是 Yoshua 领导推动实验室进行雄心勃勃的研究的结果,KyungHyun Cho 在运行一个大型机器翻译项目方面拥有高超的技能,该项目由初级博士生和实习生组成;最后,我自己的创造力和编码技能在多年的竞争性编程中得到了磨练。但我认为这个想法很快就会被发现。就算我、Alex Graves 和这个故事中的其他角色当时没有研究深度学习也是如此,注意力就是深度学习中实现灵活空间连接的自然方式。等待 GPU 足够快,让人们有动力认真对待深度学习研究,这是一个显而易见的想法。自从我意识到这一点以来,我在 AI 领域的抱负就是启动像机器翻译项目这样的出色的应用项目。相比于那些研究所谓的「真正」AI 的花哨理论,良好的研发工作可以为基础技术的进步做出更大贡献。

就这些!我非常想更多了解关于您的教育 AI 项目的信息(我从 Harm de Vries 那里听到了一些传言;))。

祝好,

Dima

相关论文

最后,下面梳理了前面提及的相关论文,以帮助感兴趣的读者做进一步的技术探索。

Neural Machine Translation by Jointly Learning to Align and Translate,未得到应有关注的注意力论文

作者:Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio

链接:https://arxiv.org/abs/1409.0473

Attention is All You Need,著名的 Transformer 论文

作者:Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin

链接:https://arxiv.org/abs/1706.03762

Neural Turing Machines,其中几乎同时提出了类似的 soft pooling 运算

作者:Alex Graves, Greg Wayne, Ivo Danihelka

链接:https://arxiv.org/abs/1410.5401

Generating Sequences With Recurrent Neural Networks,研究了使用 LTSM 循环神经网络生成具有长程结构的复杂序列,很有开创性

作者:Alex Graves

链接:https://arxiv.org/abs/1308.0850

Memory Networks,记忆网络

作者:Jason Weston, Sumit Chopra, Antoine Bordes

链接:https://arxiv.org/abs/1410.3916

Sequence to Sequence Learning with Neural Networks,文中提到的当时在谷歌的 Ilya 等人的论文

作者:Ilya Sutskever, Oriol Vinyals, Quoc V. Le

链接:https://arxiv.org/abs/1409.3215

https://x.com/karpathy/status/1864023344435380613

https://x.com/karpathy/status/1864030016457375916

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
油价一夜变天!2月5日,全国加油站调整后92、95汽油最新零售价

油价一夜变天!2月5日,全国加油站调整后92、95汽油最新零售价

沙雕小琳琳
2026-02-05 11:50:28
吴君如很早就说过了,陈妍希私下就是这样穿

吴君如很早就说过了,陈妍希私下就是这样穿

八星人
2026-01-21 15:14:26
庄则栋走了,穆铁柱走了,聂卫平走了,体育界4大脊梁就剩他了

庄则栋走了,穆铁柱走了,聂卫平走了,体育界4大脊梁就剩他了

珺瑶婉史
2026-02-05 19:25:06
爱泼斯坦是俄罗斯间谍?克里姆林宫否认

爱泼斯坦是俄罗斯间谍?克里姆林宫否认

参考消息
2026-02-05 22:05:36
日本右翼发出警告:中国一旦发动核打击,日本人绝不坐以待毙!

日本右翼发出警告:中国一旦发动核打击,日本人绝不坐以待毙!

现代小青青慕慕
2026-01-25 10:52:23
订婚宴上婆婆骂我下三滥,我笑着问公公:你儿子做过亲子鉴定吗?

订婚宴上婆婆骂我下三滥,我笑着问公公:你儿子做过亲子鉴定吗?

千秋文化
2026-01-29 21:30:14
中方发“开战”檄文,对巴拿马连用9个判词,李嘉诚罕见带头冲锋

中方发“开战”檄文,对巴拿马连用9个判词,李嘉诚罕见带头冲锋

史智文道
2026-02-05 22:19:42
农民收入上涨,人均24456元言论翻车,专家喊话种芹菜赚200万!

农民收入上涨,人均24456元言论翻车,专家喊话种芹菜赚200万!

你食不食油饼
2026-02-04 21:39:44
0-3崩盘!溃败出局,斯帕莱蒂不敢相信,意甲第4耻辱一战

0-3崩盘!溃败出局,斯帕莱蒂不敢相信,意甲第4耻辱一战

足球狗说
2026-02-06 05:54:07
人的寿命越长越好吗?调查发现:其实65岁至70岁的人是最幸福的!

人的寿命越长越好吗?调查发现:其实65岁至70岁的人是最幸福的!

白宸侃片
2026-02-05 19:34:34
广东:将老旧小区加装电梯、养老机构、消防救援设施、检验检测等领域设备更新纳入支持范围

广东:将老旧小区加装电梯、养老机构、消防救援设施、检验检测等领域设备更新纳入支持范围

财联社
2026-02-05 18:58:08
江苏开启“冰冻模式”,最新雨雪时间来了

江苏开启“冰冻模式”,最新雨雪时间来了

现代快报
2026-02-05 20:23:07
名记:快船正在兜售祖巴茨,其交易回报价值可能甚至高于浓眉

名记:快船正在兜售祖巴茨,其交易回报价值可能甚至高于浓眉

懂球帝
2026-02-05 22:56:38
陈小春一身正装参加官方会议,看名牌才知道,他原名竟然是这个!

陈小春一身正装参加官方会议,看名牌才知道,他原名竟然是这个!

小娱乐悠悠
2026-02-05 15:04:17
路都走不稳,全程开原音假唱,还想去鸟巢开演唱会,谁给她的自信

路都走不稳,全程开原音假唱,还想去鸟巢开演唱会,谁给她的自信

动物奇奇怪怪
2026-02-04 07:04:47
给孙子压岁钱别瞎包!马年4档吉利数,不攀比不委屈,全家都舒心

给孙子压岁钱别瞎包!马年4档吉利数,不攀比不委屈,全家都舒心

美食格物
2026-02-04 21:47:14
钉钉总部大楼换悟空LOGO被调侃棒打飞书 网友:这波商战太朴实

钉钉总部大楼换悟空LOGO被调侃棒打飞书 网友:这波商战太朴实

快科技
2026-02-05 15:37:11
正式官宣!交易达成,湖人终于出手了,联盟第一神射手加盟!

正式官宣!交易达成,湖人终于出手了,联盟第一神射手加盟!

体育大朋说
2026-02-06 00:22:54
没有错过寒潮:俄军最大规模弹道导弹袭击,北约秘书长正在基辅

没有错过寒潮:俄军最大规模弹道导弹袭击,北约秘书长正在基辅

鹰眼Defence
2026-02-04 18:23:24
萝莉岛文件再公开!背后更可怕的,是每年50万“消失的孩子”

萝莉岛文件再公开!背后更可怕的,是每年50万“消失的孩子”

鲸探所长
2026-02-04 19:59:28
2026-02-06 06:08:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12259文章数 142564关注度
往期回顾 全部

科技要闻

美团买下叮咚买菜,防御还是进击?

头条要闻

与爱泼斯坦共舞嬉笑的神秘红衣女子身份披露

头条要闻

与爱泼斯坦共舞嬉笑的神秘红衣女子身份披露

体育要闻

奇才:我学生……独行侠:成交!

娱乐要闻

微博之夜卷入座位风波!杨幂超话沦陷

财经要闻

中美"只会有好消息" 经济冷暖看房价

汽车要闻

李想为全新L9预热 all in AI造更好的车

态度原创

亲子
艺术
时尚
房产
公开课

亲子要闻

长大之后肠子都得悔青了

艺术要闻

一幅宋画,带你看最美的雪中之梅

她随手打赏就是6两黄金:人美,心善,钱多!

房产要闻

新春三亚置业,看过这个热盘再说!

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版