网易首页 > 网易号 > 正文 申请入驻

GRPO在《时空谜题》中击败o1、o3-mini和R1

0
分享至

GRPO训练的小型开源模型,推理能力逼近Sonnet 3.7。

作者丨洪雨欣

编辑丨陈彩娴

近日,海外大模型产品平台 OpenPipe 上发布了一项研究,阐述其如何通过 GRPO 在重度推理游戏《时空谜题》中超越R1、o1、o3-mini 等模型。研究作者分别为来自 Ender Research 的强化学习研究员 Brad Hilton 和 OpenPipe 的创始人 Kyle Corbitt。

他们的研究表示,他们不仅将模型与 Sonnet 3.7 的差距缩小至个位百分比,同时实现超过100倍的推理成本优化。

报告中还分享了任务设计与超参数调整的经验,并公开了基于torchtune框架构建的完整训练方案。

1

背景介绍

自OpenAI去年发布突破性的o系列推理模型以来,采用强化学习(RL)训练的大型语言模型(LLMs)迎来爆发式增长。谷歌DeepMind、阿里巴巴、DeepSeek、Anthropic相继推出支持长"思维链"(CoT)推理的先进模型,在可验证问题上实施强化学习训练,让传统的基准测试逐渐逼近性能天花板。

尽管取得显著进展,逻辑演绎能力仍是顶尖模型的阿喀琉斯之踵。当前LLMs普遍存在三大缺陷:

  1. 难以稳定追踪所有相关细节

  2. 无法保持逻辑严密的推演过程

  3. 多步衔接可靠性不足

即便顶尖模型生成10-100倍长度的输出,仍然会频现人类可轻易识别的低级错误。

带着好奇,我们开启了一系列的探索:小型开源模型能否借助前沿强化学习技术,突破演绎推理的边疆?

我们首先从性能较弱的模型出发,在一项全新的推理任务上对其进行迭代训练。随着时间的推移,我们明显观察到它们的推理能力有所提升,最终达到甚至超越了一些先进的专有模型 。

2

基准测试框架

为了开展我们的实验,我们首先必须确定一个具有明确可验证答案且具有挑战性的推理任务。碰巧其中一位作者之前创建了一个完全符合要求的谜题集——“时空谜题”(Temporal Clue)。除了满足事实真相清晰这一标准外,还可以按照需要创建新谜题。

“时空谜题”灵感源自热门桌游 Clue(Cluedo),在该游戏中,玩家们竞相揭开究竟是谁在Boddy先生的豪宅中谋杀了他。“时空谜题”将这款游戏转变为一个单人逻辑谜题,它不仅涵盖标准要素 —— 凶手是谁、用什么凶器、在哪作案,还增添了两个维度:作案时间和作案动机。谜题是随机生成的,游戏使用了 OR - Tools 的 CP - SAT 求解器进行线索挑选。

在某个阴冷的冬夜,神秘富豪John Q. Boddy先生为他的密友举办了一场小型的奢华晚宴。然而,这场晚宴以悲剧收场,Boddy先生于清晨时分被发现死在都铎庄园的一个房间里。以下是被认定为嫌疑人的相关利益人员……

为了明确这项推理任务的最佳水平,我们对一些火爆的推理模型进行了基准测试 ,包括DeepSeek R1、OpenAI的o1和o3 - mini以及Anthropic的Claude Sonnet 3.7。此外,我们还对14B和32B的Qwen模型进行了基准测试,这是我们最终结果的预览:

在这些基准测试中,我们发现Claude Sonnet 3.7在设定6.4万个token的情况下表现最佳,DeepSeek R1的表现几乎与OpenAI的o1和o3 - mini不相上下。然而,未经调优的Qwen 2.5 Instruct模型在相比之下就稍显逊色了。

一个关键问题是:我们能否将这些较小型的开放权重模型训练到前沿水平的表现?答案是肯定的,只要用对方法。

3

训练

为了训练出一个具有前沿水平的推理模型,我们采用了强化学习方法。我们首先让大语言模型针对每个谜题生成多个回复,以此探索问题的各种可能性,从而引导它们学习。对得出正确答案的推理过程给予正向强化,而对误导模型的推理过程则进行惩罚。

在众多强化学习的方法中,我们选用了DeepSeek模型的GRPO算法。与PPO等传统方法相比,GRPO不仅表现出色,还简化了训练过程。

从宏观层面来看,我们的训练遵循以下几个基本步骤:

  • 针对谜题任务生成模型回复

  • 对回复进行评分,并为每组聊天回复估算优势值

  • 利用这些优势值估算结果引导的裁剪策略梯度对模型进行微调

  • 用新的谜题和模型的最新版本重复上述步骤,直至达到最佳性能

在生成回复环节,我们使用了热门的vLLM推理引擎,并对参数选择进行了调优。我们发现,向vLLM发送过多请求会导致正在处理的请求被抢占。为解决这一问题,我们使用了一个信号量来限制请求数量,该信号量经过调优,能够在尽量减少换出的同时保持较高的键值缓存利用率。

采样完成后,我们使用 HuggingFace Transformers AutoTokenizer 对回复进行处理。它的聊天模板功能可将消息对象渲染为提示字符串,其中包含一个助手掩码,用于确定哪些标记是由大语言模型生成的。我们发现这些模型在其默认模板中缺少必要的 “生成” 标签,于是在token步骤中对模板进行了修改。最终得到的助手掩码被纳入用于调优的张量字典中,用以标识哪些位置需要进行损失计算。

在获得助手掩码后,我们对数据进行打包以便调优。除了在每个打包序列中包含多个提示和回复之外,我们还识别出共享的提示标记,并为每个标记分配一个父ID,同时附上标准的组ID。对于像 “时空谜题” 这类平均每个谜题超过1000个标记的任务,我们针对每个任务生成多个回复并高效打包张量,显著减少了冗余。一旦将所有必要信息打包完毕,我们就能以二维形式直观呈现训练数据集,每一行都是一个可能包含多个提示和回复的标记序列 。

有了数据后,我们开始调优。模型已经完成了预训练和指令微调,具备一定的智能水平。虽然它们还无法稳定地解决谜题,但是偶尔也能成功。通过提高正确推理的概率,我们逐步引导模型朝着 “神探” 的水平迈进。对于计算损失和调整权重,我们采用了策略梯度的方法。

在训练过程中,我们使用了由 PyTorch 团队提供的Torchtune库,其中包括Llama、Gemma、Phi等热门模型。我们在这个项目中除了使用Qwen模型,也用80亿参数和700亿参数的Llama模型进行了实验。Torchtune还提供了一些节省内存和提升性能的工具,包括:

  • 激活检查点(Activation Checkpointing)

  • 激活卸载(Activation Offloading)

  • 量化(Quantization)

  • 参数高效微调(PEFT),例如LoRA

此外,Torchtune支持多设备和多节点训练,还可以结合全分片数据并行(FSDP)和张量并行(TP)训练。他们提供了十多个训练配方,鼓励用户复制并根据自己的用例进行定制。他们完整微调配方的修改版支持以下功能:

  • 多设备和单设备训练

  • 参考模型加载和权重交换以计算KL散度

  • 使用组和父ID进行高级因果掩码计算

  • GRPO损失集成和组件日志记录

强化学习训练过程涉及超参数的选择。在训练模型期间,我们对各种配置进行了测试,最终确定了以下参数:

  • 模型:Qwen 2.5 Instruct 140亿参数版和320亿参数版

  • 每次迭代的任务数:32

  • 每个任务每次迭代的样本数:50

  • 每次迭代的总样本数:32×50 = 1600

  • 学习率:6×10⁻⁶

  • 微批次大小:对于140亿参数模型为4个序列,对于320亿参数模型为8个序列

  • 批次大小:可变,取决于序列数量

批次大小之所以可变,是因为训练过程中回复长度不同。每次迭代的序列打包效率会有波动,优势为零的回复会被丢弃。在一次实验中,我们尝试将学习率与批次大小成反比动态调整,但这会导致小批次的学习率过高。经过上限处理后的版本与使用恒定学习率相比没有明显差异,但调整批次大小和学习率仍是未来值得探索的方向。

我们还进行了简短的实验,在每次迭代的任务数和每个任务的样本数之间进行反向调整(即一个增加另一个减少),同时保持每次迭代的总样本数大致相等。在较短的训练周期内,这些变化没有产生明显差异,这表明训练配方对任务数量与单任务样本量之间的不同配比具有强鲁棒性。

4

结果

经过100+次迭代训练,我们的模型成功达到前沿级推理水平

我们的模型能够在准确率下降之前迅速改进。最佳状态下,140亿参数、1.6万个token的模型已接近于ClaudeSonnet 3.7的性能。320亿参数、6.4万个token的模型更是几乎达到了Sonnet的结果。

在训练期间,性能提升遵循幂律规律,在图表上形成线性关系(在恶化之前)。

下一步,我们将探索多样化回应的方法,逐步构建能力的方法,或者能够激励出彻底探索的方法。

此外,我们注意到在训练期间输出长度呈现出有趣的规律。最初回复变长,随后趋于稳定,在训练接近尾声时出现分化,其中140亿参数模型的回复变得更长,而320亿参数模型的回复长度则缩短(尤其是在达到最佳性能之后)。

为了从定性角度评估逻辑推理能力的提升,我们让最先进的模型Claude Sonnet 3.7对Qwen 32B模型所做出的推论进行识别,并评估其合理性。Sonnet从基础模型中识别出6个推论,除了一个被判定为正确外,其余均被判定为错误。相反,从经过训练的模型中识别出7个推论,除了一个错误之外,其余均被判定为逻辑合理。

最后,在假设按需部署具有足够吞吐量的情况下,我们根据Fireworks AI的无服务器定价层级估算了Qwen模型的成本。我们绘制了一张准确性和推理成本的关系图,并发现在未经调优的模型中存在一条清晰的线性帕累托前沿线,极大地改善了成本与准确性之间的权衡关系。

5

结语

在我们的调查研究中,我们探索了较小型的开源语言模型能否通过强化学习实现前沿水平的演绎推理能力。对时间线索谜题进行训练时,我们使用了超参数和GRPO方法来训练Qwen 14B和32B模型,显著低提升了性能。这些改进使开源模型在推理性能方面达到了最前沿的水平,并大幅度低降低了成本。我们的研究结果凸显了强化学习在高效训练开源模型处理复杂演绎任务方面的巨大潜力。

此外,最后还有一个惊喜。我们发现,仅需16个训练样本就能实现高达10 - 15% 的性能提升,这意味着我们无需大量数据就能进行推理。

https://openpipe.ai/blog/using-grpo-to-beat-o1-o3-mini-and-r1-on-temporal-clue

更多内容,点击下方关注:

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!

公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。

为什么中国只有一个 DeepSeek?

万字梳理:揭秘 DeepSeek 中的 RL 与 AGI 下一步丨AIR 2025

Andrej Karpathy 最新视频盛赞 DeepSeek:R1 正在发现人类思考的逻辑并进行复现

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
连续两年正月初五,河南省委书记、省长与民营企业家餐叙,“全网最爱发钱老板” 崔培军、蜜雪冰城创始人、卫龙董事长都来了

连续两年正月初五,河南省委书记、省长与民营企业家餐叙,“全网最爱发钱老板” 崔培军、蜜雪冰城创始人、卫龙董事长都来了

极目新闻
2026-02-21 23:06:22
西部再现大乱斗!火箭湖人森林狼战绩相同 分列第四至第六位

西部再现大乱斗!火箭湖人森林狼战绩相同 分列第四至第六位

Emily说个球
2026-02-22 13:48:07
武汉街头突发!警车紧急掉头,现场画面曝光

武汉街头突发!警车紧急掉头,现场画面曝光

环球网资讯
2026-02-22 07:35:11
副军长因伤离队,兵团参谋长改任副军长,评级不低,军衔预料之外

副军长因伤离队,兵团参谋长改任副军长,评级不低,军衔预料之外

大运河时空
2026-02-21 11:35:03
40岁保姆:拿着雇主的高工资提供特殊服务,老公得知后和我离婚了

40岁保姆:拿着雇主的高工资提供特殊服务,老公得知后和我离婚了

孢木情感
2026-02-21 12:14:58
别再吹顶流了,春晚这面照妖镜,最让人服气的还是60岁的郭富城。

别再吹顶流了,春晚这面照妖镜,最让人服气的还是60岁的郭富城。

小光侃娱乐
2026-02-22 09:30:08
欧盟、英国、加拿大、墨西哥、德国,最新发声

欧盟、英国、加拿大、墨西哥、德国,最新发声

21世纪经济报道
2026-02-21 23:11:26
70岁老人拒绝46岁女邻居的示爱:我虽老,但不糊涂,不想人财两空

70岁老人拒绝46岁女邻居的示爱:我虽老,但不糊涂,不想人财两空

烙任情感
2026-02-21 12:06:52
广东一男子留2年长发回家过年,引起长辈们围观都忘记催婚了

广东一男子留2年长发回家过年,引起长辈们围观都忘记催婚了

九方鱼论
2026-02-21 08:45:47
回顾“91女神”琪琪:五官出众,却因天真让自己“受伤”

回顾“91女神”琪琪:五官出众,却因天真让自己“受伤”

就一点
2025-11-22 10:36:39
五台山突发大火:持续8小时,瘆人画面流出,官方回应伤亡情况

五台山突发大火:持续8小时,瘆人画面流出,官方回应伤亡情况

博士观察
2026-02-22 13:00:18
人不会无缘无故患糖尿病!研究发现:得糖尿病的人,离不开这5点

人不会无缘无故患糖尿病!研究发现:得糖尿病的人,离不开这5点

医学原创故事会
2026-02-21 23:54:05
女子丽江35万买玉镯,三年后带丈夫重游,老板见镯子瘫软在地

女子丽江35万买玉镯,三年后带丈夫重游,老板见镯子瘫软在地

匹夫来搞笑
2026-02-21 16:52:33
完成首秀!万项代表贝尔格莱德红星U17替补登场

完成首秀!万项代表贝尔格莱德红星U17替补登场

新英体育
2026-02-22 09:42:53
女孩当小姐,一晚要提供4到5次上门服务,2015年被亲人点到不赴约

女孩当小姐,一晚要提供4到5次上门服务,2015年被亲人点到不赴约

汉史趣闻
2025-11-08 09:27:32
毛奇、李佩霞2026年近况公布,两人服刑结局给所有人提了醒

毛奇、李佩霞2026年近况公布,两人服刑结局给所有人提了醒

娱乐督察中
2026-02-21 03:23:47
春晚最大赢家不是宇树,不是导演组,而是闷声发大财的京东

春晚最大赢家不是宇树,不是导演组,而是闷声发大财的京东

喜欢历史的阿繁
2026-02-19 23:49:14
只差12场!贾巴尔霸占80年的历史第一纪录,又要被41岁詹姆斯掀翻

只差12场!贾巴尔霸占80年的历史第一纪录,又要被41岁詹姆斯掀翻

扣篮达人
2026-02-22 11:40:53
金风科技这回没人能拦住了

金风科技这回没人能拦住了

蔚然先声
2026-02-22 08:31:55
“茶几”正在退出中国家庭,学广东人这样做,实用性让人大开眼界

“茶几”正在退出中国家庭,学广东人这样做,实用性让人大开眼界

室内设计师有料儿
2026-02-19 11:17:18
2026-02-22 14:15:00
AI科技评论 incentive-icons
AI科技评论
点评学术,服务AI
7090文章数 20730关注度
往期回顾 全部

科技要闻

马斯克:星舰每年将发射超过10000颗卫星

头条要闻

monies巴黎旗舰店员工:王菲同款水滴耳环库存已空

头条要闻

monies巴黎旗舰店员工:王菲同款水滴耳环库存已空

体育要闻

徐梦桃:这是我第一块铜牌 给我换个吉祥物

娱乐要闻

裴世矩养侄为刃 看懂两次放行裴行俨!

财经要闻

特朗普新加征关税税率从10%提升至15%

汽车要闻

续航1810km!smart精灵#6 EHD超级电混2026年上市

态度原创

数码
艺术
房产
游戏
公开课

数码要闻

Intel、AMD新一代桌面CPU发布时间曝光!Nova Lake、Zen 6双双推迟到2027年

艺术要闻

这本书法,80%的人无法读懂!网友直言:看到第二字就傻眼!

房产要闻

窗前即地标!独占三亚湾C位 自贸港总裁行宫亮相

魔兽世界时光服:P2阶段最值得入手的专业极品,你穿上去了吗?

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版