网易首页 > 网易号 > 正文 申请入驻

Kimi新架构让马斯克叹服!17岁高中生作者一战成名

0
分享至

  • 克雷西 发自 凹非寺
    量子位 | 公众号 QbitAI

17岁高中生,以一作身份,在Kimi团队把Ilya提出的设想,变成了现实。

Ilya之前有个预言,把按时间先后顺序处理数据的LSTM网络“旋转90度”,也就是把时间轴换成模型深度轴,就变成了现在的残差网络。

Kimi团队认为,既然时间上的LSTM能对应深度上的残差,那后来淘汰了LSTM的“注意力机制”自然也可以照做。

他们新搞出的Attention Residuals技术,就相当于把注意力机制也“旋转了90度”。



用了这套新方法后,模型在计算当前层时可以聪明地“回头看”,根据需要自由决定去提取前面哪一层的信息。

这篇论文让马斯克也来围观,表示令人印象深刻。



除了马斯克,这篇论文也引发了大神Karpathy的思考,直言我们对Attention is All You Need这篇Transformer开山之作的理解还是不够。



这种新机制放到Kimi自家的Kimi Linear 48B大模型(3B激活参数)上验证,训练效率提升25%,推理延迟增加不到2%。



残差连接的“记忆负担”

先回顾一下残差连接的工作原理。

传统做法是:第N层的输出 = 第N层的计算结果 + 第N-1层的输出。这样一路累加下去,每一层都能“记住”前面所有层的信息。

问题来了,在大模型PreNorm主流范式下,残差连接中所有层的贡献都是等权累加。

就像一个“记忆力太好的人”,把所有经历都以相同权重存进大脑。贡献被逐步稀释,早期信息难以检索,且大量层可被剪枝而损失微小,称之为“PreNorm dilution problem”。

更麻烦的是,隐藏状态的范数会随着深度不断增长。研究人员发现,在深层网络中,这种unbounded growth会导致训练不稳定。

月之暗面团队换了个思路:既然问题出在“无差别累加”,那就让网络自己决定该回忆什么。

用注意力“选择性回忆”

团队观察到一个有趣的对偶性:网络的深度维度和序列的时间维度,本质上是同构的。

在Transformer处理序列时,用注意力机制让当前位置“选择性关注”之前的位置。那么在深度维度上,为什么不能让当前层“选择性关注”之前的层?

Attention Residuals就这么来的:

  • 当前层的可学习伪查询向量作为query(learnable pseudo-query)
  • 所有前层的输出作为key和value
  • 用注意力机制加权聚合

这样一来,网络可以学会哪些层的信息对当前计算最重要,就多关注一点;不相关的层,权重自然降低。

但这带来一个新问题:计算量爆炸。

如果一个100层的网络,每一层都要对前面99层做full attention residual,复杂度是O(L²),根本跑不动。

Block AttnRes:分块压缩

论文中的解决方案是Block AttnRes。

核心思想是把连续的若干层打包成一个block,对block内部的输出做压缩,只保留一个“摘要向量”。



具体操作如下:

  • 把L层网络分成B个block,每个block包含若干层
  • 每个block结束时,把block内的信息压缩成单个向量
  • 后续层做attention时,只需要关注块间表征+块内实时层输出,而非全部L个层

这样一来,attention的复杂度从O(L²)降到了O(L·B),在实践中B可以设得很小(论文用的是8-16)。

此外,团队还做了数个工程优化:缓存式流水线通信、序列分片预填充、KV 缓存粒度优化等等。

Kimi Linear验证:1.25倍效率提升

理论说得通,但真正让人信服的是大规模验证。

团队在自家的Kimi Linear架构上做了测试。这是一个采用线性注意力的大模型,总参数48B,激活参数3B(MoE架构)。

同等计算预算下,Attention Residuals能获得更好的下游性能;反过来说,达到相同性能需要的训练计算量减少了约20%,相当于获得了1.25倍的效率优势。

在具体任务上,数学推理(MATH、GSM8K)、代码生成(HumanEval、MBPP)均持平或略优,多语言理解的一致性也有所改善。



更重要的是,Attention Residuals是一个drop-in replacement,不需要修改网络其他部分,直接替换残差连接即可。

论文里还讲到一个有意思的视角。

团队把这项工作称为“时间-深度对偶性”(time-depth duality)的应用。

在他们看来,深度神经网络的“层”和循环神经网络的“时间步”,本质上是都是对信息的迭代处理。

Transformer之所以成功,是因为用attention替代了RNN中固定的recurrence。

那么在深度维度上,是不是也该用attention替代固定的residual?

17岁高中生入列共同一作

更有意思的是,这篇让马斯克、Karpathy等人都为之一震的论文,共同一作之一是一名年仅17岁的高中生——陈广宇(Nathan)。



另外两名共同一作,分别是Kimi的关键人物之一、RoPE(旋转位置编码)的提出者苏神(苏剑林),以及Kimi Linear的第一作者张宇。

诚然Attention Residuals是团队协作取得的成果,但一名高中生出现在这样的团队之中,还与两位大神共列一作,已经足够震撼。



a16z创始人Marc Andreessen、Thinking Machines的联创等人都关注了他的X账号。



一年前才刚刚开始了解大模型的陈广宇,是从北京的一场黑客松开始,一路走向硅谷的。

后来回国时,他选择加入了Kimi。

经手过月之暗面投资的奇绩创坛(原YC中国)创始成员董科含,也曾在其个人公众号上刊载过陈广宇的一份自传。

去年二月,北京的一场中学生黑客松上,陈广宇展示了一个关于“人类第三只机械辅助手”的创新构想——ThirdArm。

也正是这个项目,让他结识了黑客松评委董科含,后者也成为了他的创业导师。

当时,董科含追问他,未来是否会深耕这项技术,这促使他开始重新审视自己的职业方向。

随后他入选了董科含发起的只有极少数人入选的青年计划,开始接触IOI(国际信息学奥林匹克)金牌得主及资深科研人员。

此前他曾尝试经营Shopify跨境电商店铺、运营短视频账号,但经过董科含的建议,他决定转向理解时代的底层技术。

当时还不知道Transformer是什么的他,在DeepSeek研究员袁境阳的指导下,利用Gemini作为辅助工具,通过研读经典论文、追踪GitHub开源项目等方式逐步建立认知。

有一次他在推特上分享了对一篇博客的反思后,获得了作者的回复,这篇帖子也因此引起了一家硅谷AI初创公司CEO的关注。

该公司于2024年底成立,2025年初完成了800万美元种子轮融资,资方背景涉及OpenAI与Anthropic。

在通过一项限时通宵完成的实验测试后,他拿到了对方的录用通知。

暑假期间,他前往旧金山开启了为期七周的实习。其中前两周,他负责定义并推进一个涉及144张H100显卡的探索性项目。

在CEO直接指导下,他的工作延伸至运营层面,参与了招聘系统搭建、技术内容输出及融资策略讨论,并获得与早期投资者Vinod Khosla交流的机会。

在硅谷期间,他维持着高强度工作节奏,通过咖啡社交与英伟达工程师及初创创始人建立联系。这次经历让他将科研视为一种支撑创造的底层能力。



实习结束后,陈广宇回到国内,并于去年11月加入月之暗面。

把他吸引进去的,正是Kimi一直做的Flash Linear Attention这一类高效attention工作。

实际上,正是GitHub上的FLA项目,吸引了他对机器学习的兴趣并被邀请加入Kimi团队。

也正是顺着这条线,他开始一路往更底层钻,从读论文、看实现,到研究 Triton kernel、理解attention为什么能被这样重写、这样加速。

到了月之暗面,这条路也算是绕了一圈又落回原点——

他最初是被底层技术吸引,最后做的也正是最底层、最核心的那部分事。

相比于讲一个“少年天才一路开挂”的故事,陈广宇的经历更像是另一种成长路径——

先被时代最前沿的技术击中,再一步步把兴趣磨成能力,把能力带到真正的大模型研发现场里。

论文地址:
https://github.com/MoonshotAI/Attention-Residuals/
[1]https://mp.weixin.qq.com/s/gRR99pEDWb5qsk2a2hwe2w
[2]https://nathanchen.me/public/About%20me.html

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
疯狂!狂轰59+10+5,场均31.8分+历史得分王,竟然打不了NBA

疯狂!狂轰59+10+5,场均31.8分+历史得分王,竟然打不了NBA

球童无忌
2026-03-26 11:10:26
热到25.8℃!别急,成都天气又要变

热到25.8℃!别急,成都天气又要变

掌上金牛
2026-03-26 19:19:29
二百多名军官被枪毙、撤职、处分,长津湖战役中失职的志愿军88师

二百多名军官被枪毙、撤职、处分,长津湖战役中失职的志愿军88师

云霄纪史观
2026-03-25 12:16:14
克什米尔,印度与巴基斯坦为何争夺八十年?

克什米尔,印度与巴基斯坦为何争夺八十年?

地图帝
2026-03-25 09:17:39
丧心病狂!河南14岁少年被虐死案:死时穿纸尿裤,胃里空无一物

丧心病狂!河南14岁少年被虐死案:死时穿纸尿裤,胃里空无一物

春日在捕月
2026-03-25 01:00:23
20年后再看《亮剑》:军事上漏洞百出,政治上莫名其妙

20年后再看《亮剑》:军事上漏洞百出,政治上莫名其妙

明月清风阁
2026-03-25 14:50:09
感谢监管,为量化戴上紧箍咒,散户终见曙光

感谢监管,为量化戴上紧箍咒,散户终见曙光

风风顺
2026-03-26 10:28:39
重磅实锤!瓜帅即将告别曼城,下一站彻底跳出英超

重磅实锤!瓜帅即将告别曼城,下一站彻底跳出英超

澜归序
2026-03-26 06:02:38
马英九亲自下场后,蓝营大佬集体回应,台媒体人:罪在马英九

马英九亲自下场后,蓝营大佬集体回应,台媒体人:罪在马英九

DS北风
2026-03-25 18:50:17
神笔警探林宇辉再绘“梅姨”老年画像:她年龄增大,精神也受折磨,面貌应该变化很大

神笔警探林宇辉再绘“梅姨”老年画像:她年龄增大,精神也受折磨,面貌应该变化很大

极目新闻
2026-03-26 11:14:21
跌光2500亿!泡泡玛特,股价崩塌

跌光2500亿!泡泡玛特,股价崩塌

财经锐眼
2026-03-26 18:54:18
张雪峰心源性猝死多严重,那个最快护士就有多“牛逼”(张雪峰的惯用词)

张雪峰心源性猝死多严重,那个最快护士就有多“牛逼”(张雪峰的惯用词)

天山箴言录
2026-03-26 16:45:50
外媒:40%的消费者希望中国品牌汽车进入美国市场

外媒:40%的消费者希望中国品牌汽车进入美国市场

环球网资讯
2026-03-24 13:45:12
震惊!聊天框打出“飞机”,华为是民航客机,苹果是螺旋桨小飞机

震惊!聊天框打出“飞机”,华为是民航客机,苹果是螺旋桨小飞机

火山詩话
2026-03-26 09:43:22
初中和高中一对比,你会发现:初中成绩好,高中掉队的概率真不小

初中和高中一对比,你会发现:初中成绩好,高中掉队的概率真不小

好爸育儿
2026-03-26 15:45:14
破防!马英九专访20分钟紧急叫停,“失智疑云”背后藏着更大棋局

破防!马英九专访20分钟紧急叫停,“失智疑云”背后藏着更大棋局

戗词夺理
2026-03-26 11:13:50
台积电突然断供?直接甩出“稀土”,外媒:这才是真正的杀手锏!

台积电突然断供?直接甩出“稀土”,外媒:这才是真正的杀手锏!

瑛派儿老黄
2026-03-24 18:56:06
0.028%!无罪判决率跌至谷底,为何国际水平是我们的35倍?

0.028%!无罪判决率跌至谷底,为何国际水平是我们的35倍?

深析古今
2026-03-25 01:10:47
以色列打不动了想停火,伊朗说不:47年的账,今天得算清

以色列打不动了想停火,伊朗说不:47年的账,今天得算清

阿伧说事
2026-03-26 03:58:41
追悼会前,张雪峰婚姻状况被扒,现任身份不一般,恐影响遗产分配

追悼会前,张雪峰婚姻状况被扒,现任身份不一般,恐影响遗产分配

喜欢历史的阿繁
2026-03-26 14:40:54
2026-03-26 21:39:00
量子位 incentive-icons
量子位
追踪人工智能动态
12348文章数 176424关注度
往期回顾 全部

科技要闻

Meta高管狂分百亿期权,700名员工却下岗

头条要闻

美国总统特朗普公开宣布访华行程 外交部回应

头条要闻

美国总统特朗普公开宣布访华行程 外交部回应

体育要闻

申京努力了,然而杜兰特啊

娱乐要闻

刘晓庆妹妹发声!称姐姐受身边人挑拨

财经要闻

油价"驯服"特朗普?一到100美元就TACO

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

亲子
艺术
教育
数码
本地

亲子要闻

你好,我是馒头,快开门!

艺术要闻

哪一座桥不是风景?

教育要闻

江苏省教育厅公布全省中小学生竞赛活动名单

数码要闻

iQOO Z11x发布:LCD党的护眼神机 1499元起

本地新闻

救命,这只酱板鸭已经在我手机复仇了一万遍

无障碍浏览 进入关怀版