网易首页 > 网易号 > 正文 申请入驻

唯一登台的中国大模型创始人,杨植麟美国GTC首秀,公开Kimi技术路线图

0
分享至


智东西
作者|江宇
编辑|云鹏

智东西3月18日报道,今日凌晨,在英伟达GTC大会上,月之暗面创始人杨植麟作为本届唯一受邀现场演讲的中国独立大模型公司创始人,发表题为《How We Scaled Kimi K2.5》的演讲,首次完整披露Kimi K2.5背后的技术路线图


就在3月16日,月之暗面刚刚发布最新论文,提前预览了下一代模型的关键模块——注意力残差(Attention Residuals,简称AttnRes)。这篇论文的核心,是对大模型中最基础、却长期被默认接受的结构之一残差连接(Residual Connection)的重新设计。


这项进展很快引发海外AI圈关注。埃隆·马斯克(Elon Musk)称其“令人印象深刻”;前OpenAI研究副总裁、联合创始人安德烈·卡帕西(Andrej Karpathy)则直言,人们对《Attention is All You Need》这篇Transformer开山之作的理解,可能还不够充分


而在这次GTC演讲中,杨植麟将这项研究放回Kimi更完整的技术框架中,给出了一张更系统的“路线图”。他将Kimi K2.5的进化逻辑概括为三个维度的共振:Token效率长上下文智能体集群(Agent Swarms)。

在杨植麟看来,当前的Scaling已经不再是单纯的资源堆砌,而是要在计算效率、长程记忆和自动化协作上同时寻找规模效应。如果能将这三个维度的技术增益相乘,模型将表现出远超现状的智能水平。

这也是自1月底Kimi发布K2.5以来,月之暗面首次把这套技术路线图系统披露。


杨植麟提出,行业目前普遍使用的很多技术标准,本质上是八九年前的产物,正逐渐成为Scaling(拓展)的瓶颈。围绕这一问题,Kimi团队选择从优化器、注意力机制和残差连接三个基础模块入手,逐一重构,并持续开源。

一、重写训练底座:MuonClip把Token效率推高到AdamW的2倍

Kimi团队把第一项重点放在Token效率上,杨植麟在演讲中重点讨论了优化器问题。

他提到,自2014年以来,Adam优化器一直是行业默认选择,但在超大规模训练中,更高Token效率的替代方案已经成为重要方向。Kimi团队在实验中验证,Muon优化器在Token效率上具备显著优势,在相近计算预算下,可以将训练Token以两倍的效率转化为模型能力。


▲Muon优化器在相同算力下实现约2倍Token效率

不过,杨植麟也指出,在将Muon扩展至万亿参数规模的K2模型训练过程中,Kimi团队遇到了稳定性问题:训练中出现Logits爆炸,最大值迅速超过1000,导致模型发散。

针对这一问题,Kimi团队提出MuonClip优化器。杨植麟称,该方法通过Newton-Schulz迭代结合QK-Clip机制,对训练过程中的数值进行约束。在实际训练中,Kimi K2的max logits被控制在100以内并逐步回落,同时模型loss没有受到负面影响,实现了稳定训练。


▲MuonClip将max logits控制在100以内,实现稳定训练

他同时提到,为了让Muon在大规模GPU集群中具备可扩展性,Kimi团队还设计了“Distributed Muon(分布式Muon)”,将优化器状态分布在数据并行组中,在需要时再聚合梯度完成计算,以提升内存效率和整体训练效率。

二、第二个重点是长上下文:Kimi Linear把128K到1M解码速度拉高5到6倍

长上下文是Kimi这次路线图的第二条主线。

在这部分,杨植麟重点介绍了Kimi Linear。这是一套基于KDA(Kimi Delta Attention,Kimi增量注意力)的混合线性注意力架构。

它的核心思路,是重新安排注意力层的组成方式,而不是默认所有层都使用全注意力(Full Attention)。

具体来看,Kimi Linear采用约3:1的KDA与全局注意力混合比例,在降低内存开销的同时,保持模型表达能力。

杨植麟在演讲中提到,Kimi Linear已经完成1.4T token规模训练,在长上下文、短上下文以及强化学习任务中均优于全注意力及其他基线方案。


更直接的变化体现在推理效率上。在128K到1M上下文范围内,解码速度可提升约5到6倍,同时在不同长度场景下保持稳定表现。


这一改动解决的是一个长期存在的问题:上下文窗口不断扩大,但推理成本和延迟同步上升,导致长任务能力难以真正落地。Kimi Linear则将长上下文从“可支持能力”转变为“可高效使用能力”。

三、改写残差连接:让每一层更主动地取信息

相比优化器和线性注意力,Attention Residuals(注意力残差)也是Kimi这次技术路线图里尤为关键的一项尝试。

残差连接是深度网络里极其基础的一层设计,已经用了十年左右。

杨植麟提到,传统残差连接采用固定加法累加方式,随着网络加深,隐藏状态会持续增长,深层信息容易被稀释。Kimi团队的做法,是将残差路径替换为基于Softmax注意力的动态聚合,使模型可以根据输入内容,有选择地从前序层获取信息。

这一变化让信息流从“逐层叠加”转向“按需读取”,在深层网络中保持更稳定的信息表达。

在这一部分,杨植麟延伸了前OpenAI首席科学家(Ilya Sutskever)在NeurIPS 2024的相关思路:如果将残差连接视为沿深度展开的简化LSTM,那么Attention可以理解为对这条信息通道的进一步扩展。


▲Ilya提出“将LSTM旋转90度得到残差连接”,Attention可视为其扩展

基于这一理解,Kimi提出Attention Residuals,并已将相关代码与技术报告开源。

四、视觉强化学习反哺文本能力,跨模态带来认知增益

除了模型底层架构,杨植麟在演讲中还分享了一项跨模态研究方向的重要观察。

他提到,在原生视觉-文本联合预训练过程中,引入视觉强化学习(Vision RL)后,模型不仅在视觉任务上表现提升,也会反向提升纯文本能力。消融实验结果显示,在经过视觉RL训练后,模型在MMLU-Pro和GPQA-Diamond等文本基准上的表现提升约1.7%-2.2%


杨植麟认为,这表明空间推理与视觉逻辑能力,可以转化为更深层的通用认知能力。相关工作也指向一个方向:多模态训练的价值,已经从“扩展输入形式”,转向“提升底层推理能力”。

他同时提到,Kimi团队正在推进“首个原生联合视觉-文本能力的开放模型(First open model with native, joint vision-text capabilities)”。

五、从单Agent到集群协作:Kimi押注Agent Swarms

演讲最后一部分,杨植麟把重点落在智能体集群(Agent Swarms)上。

他在演讲中提到,未来的智能体形态将从单智能体,转向可以动态生成的集群系统。Kimi K2.5引入Orchestrator(编排器),能够根据任务需求创建多个子Agent,并将复杂任务拆解为并行子任务执行。


▲Orchestrator动态生成子Agent并并行执行任务

这些子Agent可以承担不同角色,例如AI Researcher(AI研究员)、Physics Researcher(物理研究员)、Fact Checker(事实核查员)等,通过分工协作完成整体任务。

杨植麟进一步补充,这类系统可以覆盖从输入到输出的完整流程,包括大规模信息获取(Input at Scale)、并行操作(Actions at Scale)、任务编排(Orchestration at Scale)以及长结果生成(Output at Scale)。

随着任务复杂度提升,智能体集群相比单Agent的效率优势会持续扩大。在实验中,执行时间可获得数倍缩短


他同时指出,多Agent系统容易出现“串行塌缩”,即表面多Agent,实际退回单Agent执行。为此,Kimi设计了并行强化学习奖励机制,包括Instantiation reward(实例化奖励)、Finish reward(完成奖励)和Outcome reward(结果奖励),用于引导模型真正进行任务拆解和并行执行。


▲三类奖励机制用于防止“伪并行”和串行塌缩

结语:Kimi给出一张新的Scaling施工图

在总结中,杨植麟谈到了AI研究范式的变化。

他提到,过去受限于算力资源,研究往往难以在不同规模上验证同一方法。而随着“Scaling Ladder(缩放阶梯)”的建立,研究者可以进行更系统的规模化实验,从而得到更可靠的结论。

这也成为Kimi当前路径的基础:Adam诞生已超过11年,Kimi将其推进为MuonClip并开源;Attention提出已超过8年,Kimi发展出Kimi Linear并开源;Residual connections已有约10年历史,Kimi进一步提出Attention Residuals并开源。


整体来看,Kimi此次披露的路线图,将下一阶段大模型竞争的焦点明确到了三条主线:训练效率、长上下文能力以及智能体协作结构。这三条路径正在同时推进,并开始相互叠加。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
什么事让你知道好言难劝该死的鬼?全族都没拦住,父子俩终身残疾

什么事让你知道好言难劝该死的鬼?全族都没拦住,父子俩终身残疾

夜深爱杂谈
2026-05-01 10:49:01
日本有一个地方叫中国

日本有一个地方叫中国

新科文
2026-04-29 14:35:10
你家楼下的便利店老板们,已经笑不出来了。

你家楼下的便利店老板们,已经笑不出来了。

差评XPIN
2026-05-04 00:03:31
回不来了?赖清德“偷渡”非洲,国民党咬死一句话,大陆斩钉截铁

回不来了?赖清德“偷渡”非洲,国民党咬死一句话,大陆斩钉截铁

云鹏叙事
2026-05-04 12:00:11
1980年,得知父亲江腾蛟将接受审判,江新德:我爸该落得这个结果

1980年,得知父亲江腾蛟将接受审判,江新德:我爸该落得这个结果

雍亲王府
2026-05-04 13:00:14
湖人伤情更新,东契奇最快G4复出!41岁詹姆斯次轮将面临5大挑战

湖人伤情更新,东契奇最快G4复出!41岁詹姆斯次轮将面临5大挑战

锅子篮球
2026-05-03 21:57:45
国乒2败后王励勤被喊下课,王楚钦独木难支,王皓提拔3人才能翻盘

国乒2败后王励勤被喊下课,王楚钦独木难支,王皓提拔3人才能翻盘

阿信点评
2026-05-04 14:05:55
你太矮了!阿尔瓦罗谈与梅西互喷:除了身高我真没别的好黑他了

你太矮了!阿尔瓦罗谈与梅西互喷:除了身高我真没别的好黑他了

星耀国际足坛
2026-05-03 21:59:07
超5米车长 续航750km 激光雷达+贯穿带鱼屏 没“四个圈”的奥迪 够牌面吗?

超5米车长 续航750km 激光雷达+贯穿带鱼屏 没“四个圈”的奥迪 够牌面吗?

侃故事的阿庆
2026-05-04 19:08:17
曹操为何输掉汉中?别被演义骗了,打败二十万魏军的根本不是刘备

曹操为何输掉汉中?别被演义骗了,打败二十万魏军的根本不是刘备

小豫讲故事
2026-05-04 06:00:15
中国空间站将“二次扩容”:至少3个舱位段,“中”字结构要来了

中国空间站将“二次扩容”:至少3个舱位段,“中”字结构要来了

环球科学猫
2026-05-03 11:06:52
伊朗伊斯兰革命卫队:给予五角大楼最后期限解除封锁

伊朗伊斯兰革命卫队:给予五角大楼最后期限解除封锁

每日经济新闻
2026-05-03 21:02:17
输了抢七赢了未来,猛龙巴恩斯季后赛成名,神似年轻伦纳德

输了抢七赢了未来,猛龙巴恩斯季后赛成名,神似年轻伦纳德

KG说球
2026-05-04 19:47:36
不到24小时,特朗普闹出大笑话,全世界目瞪口呆

不到24小时,特朗普闹出大笑话,全世界目瞪口呆

杰丝聊古今
2026-05-04 03:09:40
3-1领先惨遭逆转!又一个老里?难怪球队说什么都要裁他,太拉了

3-1领先惨遭逆转!又一个老里?难怪球队说什么都要裁他,太拉了

你的篮球频道
2026-05-04 07:27:24
设计院正在集体死去:不是没项目,是被6座大山压垮了!

设计院正在集体死去:不是没项目,是被6座大山压垮了!

悟话八门
2026-05-03 12:57:09
纽约时报看懵了:蜜雪冰城海底捞比亚迪,年轻人为何集体倒向中国

纽约时报看懵了:蜜雪冰城海底捞比亚迪,年轻人为何集体倒向中国

人间无味啊
2026-05-03 10:53:21
故事:749局退休高人口述:陆家嘴有人渡劫的真相,让人毛骨悚然

故事:749局退休高人口述:陆家嘴有人渡劫的真相,让人毛骨悚然

诡谲怪谈
2025-01-18 14:09:34
微软力推32GB内存才够打游戏 被玩家骂到删帖!

微软力推32GB内存才够打游戏 被玩家骂到删帖!

游民星空
2026-05-03 12:14:25
永不再生! 2022年河北男子潜入保护区挖上千斤, 偷偷种在玉米地里

永不再生! 2022年河北男子潜入保护区挖上千斤, 偷偷种在玉米地里

万象硬核本尊
2026-04-23 19:24:17
2026-05-04 20:23:00
智东西 incentive-icons
智东西
智东西,AI产业新媒体,专注报道人工智能的前沿技术发展,和技术应用带来的千行百业产业变革。
11742文章数 117060关注度
往期回顾 全部

科技要闻

OpenAI“复活”了QQ宠物,网友直接玩疯

头条要闻

中国向联合国发出警告:东京足可制造约5500枚核弹头

头条要闻

中国向联合国发出警告:东京足可制造约5500枚核弹头

体育要闻

骑士破猛龙:加雷特·阿伦的活力

娱乐要闻

张敬轩还是站上了英皇25周年舞台

财经要闻

魔幻的韩国股市,父母给婴儿开户买股票

汽车要闻

同比大涨190% 方程豹4月销量29138台

态度原创

教育
本地
健康
艺术
公开课

教育要闻

俄罗斯归还2000余名乌克兰孩子,还有20000余!#乌克兰 #孩子

本地新闻

用青花瓷的方式,打开西溪湿地

干细胞治烧烫伤面临这些“瓶颈”

艺术要闻

火灾后第17年,TVCC电视文化中心正式启用

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版