网易首页 > 网易号 > 正文 申请入驻

Thinking Machine新研究刷屏!结合RL微调,小模型训练更具性价比

0
分享至

Thinking Machine最新研究正在被热议!

创始人、OpenAI前CTO Mira Murati亲自转发后,一众围观大佬开始惊叹其研究价值(截不完、根本截不完):



根据Mira Murati的提炼,原来他们提出了一种让小模型更懂专业领域的LLM(大语言模型)后训练方法——On-Policy Distillation (在线策略蒸馏)



这个方法的精髓,可以打个比方。想象一下,以前训练AI有两种主流方式:

  • 实战演戏(如强化学习等在线策略方法):让它自己摸索、从错误中成长,学得灵活,但非常耗时耗力。
  • 请家教(如监督微调等离线策略方法):直接把正确答案喂给它,效率高,但学得死板。

而On-Policy Distillation相当于请了一位天才教练。这位教练一边让AI自己动手解题(实战),一边在它卡壳或犯错时,立刻给出关键提示和正确答案(家教)。

这样做最大的好处就是“性价比”超高。实验结果证明,用这种方法来教小模型数学——达到同样水平,所需的训练步骤少了7-10倍;整体算下来,效率提升了50-100倍。

这意味着,一些资源受限的个人或小公司,也能高效地训练出在特定领域很能打的“小模型”了。

包括翁荔在内,难怪大家看完都直呼:优雅、实在是优雅!



而且啊,当我们扒完相关博客后才发现,On-Policy Distillation的价值还不止于此——

在线策略蒸馏:结合两种范式的最佳实践

论文指出,要让模型具备强大的专业领域能力,通常会经历以下三个过程:

  • 预训练 (Pre-training): 教会模型通用能力,比如语言使用、广义推理、世界知识。
  • 中训练 (Mid-training): 传授领域知识,比如代码、医学数据库、公司内部文档。
  • 后训练 (Post-training): 这是最后也是至关重要的一步,需要引导模型产生目标行为,比如按指令操作、解决数学题、聊天等。

而他们这次就把目光放在了后训练上。

截至目前,后训练阶段诞生了两大主流范式,即开头提到的在线策略 (On-policy) 和离线策略 (Off-policy) 训练。

考虑到两种方式各有其优缺点,所有这次他们选择“取其精华去其糟粕”,来一个巧妙的融合——

将在线策略的自主探索与离线策略的密集监督结合起来,以创造一个“两全其美”的训练框架。



具体来说,他们核心想让学生模型在自己生成的轨迹上学习,但每一步(注意是每一步)都由一个更强大的教师模型进行细致的评分和指导。(就像解题一样,学生给出每一步解题过程,教师给每一步打分)

相关流程大致如下:

  • 初始化教师模型:找一个实力强大的模型当老师(通用模型或经过专门训练的专家模型均可),它只负责计算概率,而不需要进行反向传播更新梯度。
  • 学生采样轨迹:让学生模型自主解题,过程中需记录下它在每一步选择每个token的对数概率。
  • 教师逐步评分:将学生模型生成的轨迹,原封不动地交给教师模型。教师模型会对这个轨迹的每一个token进行评估,计算出在相同的上下文下,它自己生成这个token的对数概率。然后,通过学生和教师的对数概率之差,可以计算出两者在每一步的分歧 (Divergence)。
  • 使用分歧作为奖励进行训练:最后使用上述分歧作为奖励信号,来更新学生模型。

这里重点介绍一下“KL散度 (Negative reverse KL divergence) ”这一评估分歧的指标。



简单来说,当学生模型与教师模型的行为一致时,KL散度为零;当学生模型的选择与教师模型的期望相差甚远时,KL散度会变得很大,从而产生一个强烈的负面奖励(惩罚)。

学生模型的目标就是通过训练,最小化这个KL散度——换言之,越像老师奖励越高,越不像惩罚越狠。

这种逆向KL散度具备两个非常优秀的特性:

一是能防作弊。传统强化学习中,模型可能学会钻空子,用一些看似正确实则取巧的方式获得高分。而现在,评判标准直接锚定教师模型的“真知灼见”,学生只有真正学到精髓才能获得高分,堵死了作弊空间。

二是让学习过程更加稳定和聚焦。它能让学生模型精准锁定教师模型展现的“最优解法”,避免在多个普通答案间摇摆不定,从而确保学习过程更稳定、结果更出色。

基于上述方法和特性,他们进行了两个实验来验证其效果。

实验一:将32B大模型的数学能力快速教给8B小模型

教师模型:Qwen3-32B
学生模型:Qwen3-8B-Base

所有实验从一个共同起点开始:学生模型通过传统训练(监督微调),在数学基准AIME’24上已达到60分。研究目标是将性能从60分提升至70分。

为达成目标,研究人员对比了三种方法的计算成本:

  • 继续传统训练:大约需要额外训练200万个样本,计算开销非常巨大;
  • 强化学习:根据Qwen3团队的技术报告,在一个相似的SFT初始化模型之上,通过强化学习将性能提升到 67.6%,花费了17920个GPU小时。这个成本与训练200万个SFT样本的成本大致相当;
  • 在线策略蒸馏:仅用了大约150个训练步骤就达到了70%的目标分数,与外推到200万样本的SFT相比,在线策略蒸馏的计算成本砍掉了9~30倍。

而且如果从GPU小时的角度看,由于教师模型计算对数概率 (log-probs) 的过程可以高效并行化,实际节省的时间成本可能更接近18倍。



这个实验有力证明了在线策略蒸馏在计算效率上的巨大优势。它用远低于传统SFT或RL的成本,实现了同等甚至更好的性能提升。

实验二:打造兼具知识性与通用性的企业AI助理

目前存在的问题是:给AI学习新知识(公司内部文档)时,它会忘记旧技能(对话交流)。

假如使用传统微调方法向模型注入内部知识,往往会出现严重的“灾难性遗忘”——内部知识得分显著提升(从18%升至43%),但通用能力大幅下降(从85%暴跌至45%)。

而且无论怎样调整数据配比,都无法同时保住两项能力。

于是他们想到了,当模型因学习新知识而“遗忘”部分通用能力后,可以使用在线策略蒸馏进行修复——让“失忆”的模型向它自己最初的、能力完整的版本学习。

结果意外发现,模型的通用能力几乎完全恢复(从79%回升至83%),同时新知识未被破坏(反而从36%提升至41%)。



这说明,在线策略蒸馏是解决AI“灾难性遗忘”的有效工具。它能够在不损害新学技能的前提下,精准地恢复模型遗忘的核心能力,为实现AI的“终身学习”提供了关键技术支持。

论文核心作者Kevin Lu

最后看一下这项研究的核心作者——Kevin Lu(论文唯一单独提到的)。



今年8月,Kevin Lu离开OpenAI转身投入Thinking Machine的怀抱。

在OpenAI工作期间,他领导了4o-mini发布,并参与o1-mini、o3发布,主要研究强化学习、小模型和合成数据。

很明显,这一次的研究也和其之前的工作息息相关。



论文:
https://thinkingmachines.ai/blog/on-policy-distillation/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
男女干部戴头套开房后续:女主高清照片流出,男主六月新婚

男女干部戴头套开房后续:女主高清照片流出,男主六月新婚

没有偏旁的常庆
2025-12-25 06:58:51
李煜至死没想通:最该联手的钱弘俶,为何捅他一刀?

李煜至死没想通:最该联手的钱弘俶,为何捅他一刀?

爱历史
2026-01-25 11:25:36
航天电子击鼓传花撞上SpaceX百万卫星,谁在被现实打脸

航天电子击鼓传花撞上SpaceX百万卫星,谁在被现实打脸

粤语音乐喷泉
2026-02-01 10:04:27
1988年政治部主任深夜接军区命令:控制你们师长,他身上有3把枪

1988年政治部主任深夜接军区命令:控制你们师长,他身上有3把枪

兴趣知识
2026-01-31 10:48:03
庆祝时刻,莱巴金娜一袭红裙拍摄澳网女单冠军写真

庆祝时刻,莱巴金娜一袭红裙拍摄澳网女单冠军写真

懂球帝
2026-02-01 12:16:16
曹操为什么喜欢寡妇?许多人不明白,看完不得不佩服曹操的智慧

曹操为什么喜欢寡妇?许多人不明白,看完不得不佩服曹操的智慧

铭记历史呀
2026-01-29 18:27:55
大S一周年纪念日前墓地太闹腾了吧?具俊晔哭完韩国主持人接着哭

大S一周年纪念日前墓地太闹腾了吧?具俊晔哭完韩国主持人接着哭

安宁007
2026-02-01 06:50:07
CBA最新消息!杨鸣或重返辽宁,南京同曦两人被禁赛

CBA最新消息!杨鸣或重返辽宁,南京同曦两人被禁赛

体坛瞎白话
2026-02-01 11:18:25
国台办果然没看错,郑丽文真面目被彻底揭露!小算盘到此为止了

国台办果然没看错,郑丽文真面目被彻底揭露!小算盘到此为止了

比利
2026-01-23 12:41:53
著名歌手不幸离世,留3200万遗产,生前自购墓地

著名歌手不幸离世,留3200万遗产,生前自购墓地

最美的开始
2026-02-01 18:56:39
官宣!增值税5%征收率保留,不会降至3%

官宣!增值税5%征收率保留,不会降至3%

第一财经资讯
2026-02-01 11:09:10
歌手于文文演唱会上突然晕倒,被救护车紧急送医

歌手于文文演唱会上突然晕倒,被救护车紧急送医

扬子晚报
2026-02-01 23:23:03
脊柱断裂、前夫已死,63岁韦唯近况曝光,已然走上一条上坡路

脊柱断裂、前夫已死,63岁韦唯近况曝光,已然走上一条上坡路

深度解析热点
2026-01-25 01:28:29
女子举办“北京第一届黑色羽绒服选美大赛”引数百人围观:冠军是只小狗,季军称很好玩

女子举办“北京第一届黑色羽绒服选美大赛”引数百人围观:冠军是只小狗,季军称很好玩

极目新闻
2026-02-01 17:23:47
失业的人越来越多了

失业的人越来越多了

曹多鱼的财经世界
2025-12-24 14:56:20
30年营养谎言被戳穿:为什么医生们突然改口让你吃肉?

30年营养谎言被戳穿:为什么医生们突然改口让你吃肉?

富贵说
2026-01-18 20:36:47
娶了朋友前妻是一种什么样的体验?

娶了朋友前妻是一种什么样的体验?

另子维爱读史
2026-01-13 20:04:40
湖人被耍惨了!2月1日,骑士一记闷棍敲醒洛杉矶春秋大梦

湖人被耍惨了!2月1日,骑士一记闷棍敲醒洛杉矶春秋大梦

时事佳人
2026-02-01 16:58:14
反转炸锅!布鲁克林从贝家少爷变赘婿靠老婆 100 万刀月例躺平?

反转炸锅!布鲁克林从贝家少爷变赘婿靠老婆 100 万刀月例躺平?

阿雹娱乐
2026-01-30 11:39:17
洗碗机砸家反转!丈夫降薪扛,妻子卖金买苹果17月吃4次海底捞

洗碗机砸家反转!丈夫降薪扛,妻子卖金买苹果17月吃4次海底捞

深析古今
2026-01-10 13:58:59
2026-02-02 08:03:03
量子位 incentive-icons
量子位
追踪人工智能动态
12092文章数 176369关注度
往期回顾 全部

科技要闻

10亿元宝红包突袭 复刻微信支付还是微视?

头条要闻

30岁男子如厕时猝死 妻子回忆事发前5天丈夫疼痛细节

头条要闻

30岁男子如厕时猝死 妻子回忆事发前5天丈夫疼痛细节

体育要闻

德约大度祝贺阿卡 幽默互动逗笑纳达尔

娱乐要闻

春晚第三次联排阵容曝光:全是实力派

财经要闻

黄仁勋台北"夜宴":汇聚近40位台企高管

汽车要闻

岚图汽车1月交付10515辆 同比增长31%

态度原创

家居
数码
游戏
亲子
军事航空

家居要闻

蓝调空舍 自由与个性

数码要闻

显存稀缺暴涨:三款RTX 50 GPU将占一季度总供应量75%!

魔兽时光服:又开启造富神话,价格突破66万金,这件装备有多牛?

亲子要闻

2-5岁孩子如何在家做早教?用好这些小道具,孩子进步超快!

军事要闻

委内瑞拉外长会见美外交使团团长

无障碍浏览 进入关怀版