网易首页 > 网易号 > 正文 申请入驻

DeepSeek的GRPO会导致模型崩溃?看下Qwen3新范式GSPO

0
分享至



机器之心报道

机器之心编辑部

众所周知,大型语言模型的训练通常分为两个阶段。第一阶段是「预训练」,开发者利用大规模文本数据集训练模型,让它学会预测句子中的下一个词。第二阶段是「后训练」,旨在教会模型如何更好地理解和执行人类指令。

在 LLM 后训练阶段,似乎是一个强化学习的特殊形式。用于大语言模型(LLMs)微调的强化学习(RL)算法正沿着一条明确的演进路径持续发展。

起初,OpenAI 开创了一种名为 基于人类反馈的强化学习(RLHF)的技术,用于改进 ChatGPT。RLHF 的核心是让人类标注员对模型生成的多种响应进行打分,并选出最优答案作为训练参考。这一过程虽然有效,但也耗时、昂贵且依赖人力,通常需要一支小型但专业的数据标注团队。

DeepSeek 的重要创新在于用 RL 技术自动化了这一环节。算法不再依赖人工逐一评估,而是让模型在探索过程中,通过获得「奖励信号」自主学习正确行为,从而显著降低了成本,提高了效率,最终能以较低的成本实现高性能。

OpenAI 在 ChatGPT 的训练中采用了近端策略优化(Proximal Policy Optimization, PPO)

而 DeepSeek 团队 则认为,在一组样本中进行价值估计更加有效,因此提出了组相对策略优化(Group Relative Policy Optimization, GRPO)算法,这也是 DeepSeek-R1 中的核心技术,使 DeepSeek-R1 模型大放异彩。



GPRO 与 PPO 的对比,摘自 DeepSeekMath 论文。

在几个月前 Qwen3 首次亮相的时候,其旗舰模型的性能就已经与 DeepSeek-R1、o3-mini、Gemini 2.5 Pro 等顶级模型表现相当。除此以外,Qwen3 系列模型覆盖了 MoE 模型和密集模型,每一款模型又有许多细分版本。

近些天,Qwen3 系列模型仍然在不停的迭代更新,例如 Qwen3-235B-A22B-Instruct-2507-FP8 在知识数学、编程、人类偏好对齐、Agent 能力等众多测评中表现出色,甚至了超过 Kimi-K2、DeepSeek-V3 等顶级开源模型以及 Claude-Opus4-Non-thinking 等领先闭源模型。

最近,Qwen 团队发布了一篇有关其模型后训练算法的论文,似乎揭示了 Qwen3 模型成功的核心技术细节。



  • 论文标题:Group Sequence Policy Optimization
  • 论文链接:https://huggingface.co/papers/2507.18071
  • 博客链接:https://qwenlm.github.io/blog/gspo/

而在昨天,来自清华大学校友创立的创业公司 NetMind.AI发表了一篇博客,题为《Qwen Team Proposes GSPO for Qwen3, Claims DeepSeek's GRPO is Ill-Posed》,对 Qwen 团队为 Qwen3 模型提出的 GSPO 算法进行了详尽的介绍与分析。



  • 博客链接:https://blog.netmind.ai/article/Qwen_Team_Proposes_GSPO_for_Qwen3%2C_Claims_DeepSeek's_GRPO_is_Ill-Posed

最近 Qwen 的研究表明,使用 GRPO 训练大语言模型时存在严重的稳定性问题,往往会导致模型不可逆地崩溃。他们认为 DeepSeek 的 GPRO 方法存在一些严重问题:

  • 在每个 token 级别应用重要性采样,会在长序列中积累高方差,导致训练不稳定
  • 这一问题在 专家混合模型(Mixture-of-Experts, MoE) 中尤为严重,因为token 级别的路由变化会加剧不稳定性
  • 为缓解这一问题,基于 GRPO 的训练流程通常需要依赖一些额外策略,例如 路由重放(Routing Replay)。

因此,Qwen 团队声称 GRPO 的 token 级重要性采样无法达到稳定训练,其优化目标是「病态的(ill-posed)」

为了解决这些问题并训练其最新的 Qwen3 系列模型,Qwen 团队提出了一种新的强化学习算法 ——组序列策略优化(Group Sequence Policy Optimization, GSPO)

GRPO 的根本问题:

「逐 token 重要性采样」的不稳定性

Qwen 团队指出,GRPO 的不稳定性源于其对 token 级重要性采样权重的错误使用。在强化学习中,重要性采样(Importance Sampling)用于校正行为策略(即用于收集训练数据的策略)与目标策略(当前正在优化的策略)之间的差异。

当两者不一致时,重要性采样通过为已有数据样本赋予权重,使其更能代表当前希望优化的目标策略,从而提高训练的稳定性与有效性。

在大语言模型(LLMs)的训练中,强化学习常常会复用旧策略生成的响应,以节省计算资源,这属于典型的「离策略」(off-policy)训练场景。重要性采样正是用于缓解这种策略不匹配带来的影响,并帮助稳定训练过程。

然而,GRPO 将重要性采样的权重应用在每一个 token 上,而非整个生成的序列。这种做法会带来显著的方差,并在生成较长序列时造成「误差积累」与「训练不稳定性」。

从形式上讲,GRPO 是在每一个 token 的生成步骤上单独计算重要性权重的:



Qwen 团队指出,当在训练目标中应用此类重要性权重时,由于每个 token 的比值是独立计算的,会导致高方差的累积,从而破坏梯度稳定性,最终引发模型崩溃。

同时,这种做法会将高方差噪声引入训练梯度中,尤其在长序列上呈现累积效应,并且在存在「裁剪机制」时,这种不稳定性问题会进一步加剧。

Qwen 团队的实验证据

Qwen 团队通过实验证据验证了其理论分析,如图所示。

在所有展示的实验场景中,其新提出的算法 GSPO 均表现出比 GRPO 更高的训练效率。在 CodeForces 任务中,GRPO 的最终得分收敛于 2000 分以下,而 GSPO 随着训练计算量的增加持续提升成绩,展现出更强的「可扩展性」。



GSPO 与 GRPO 的训练曲线对比

Qwen 的解决方案:

「序列级重要性采样」

那么,GSPO 是如何解决上述问题的呢?

正如其名称所暗示的,GSPO 的核心在于将重要性采样从 token 级转移至序列级,其重要性比值基于整个序列的似然度计算:



这种采样权重的设计自然地缓解了逐 token 方差的累积问题,从而显著提升了训练过程的稳定性。

需要注意的是,指数中的因子用于「长度归一化」。如果不进行长度归一化,仅仅几个 token 的似然变化就可能导致序列级重要性比值的剧烈波动,而不同长度的生成响应在目标函数中也将需要不同的裁剪范围,这会进一步增加训练的不稳定性。

实验验证的优势:

简化 MoE 模型训练

针对专家混合模型(MoE)所进行的专项实验进一步强调了 GSPO 的优势。

由于 MoE 模型具有稀疏激活特性,这会在使用 GRPO 时进一步加剧训练过程中的不稳定性。在经过一次或多次梯度更新后,相同响应所激活的专家网络可能发生显著变化。

Qwen 团队在使用 GRPO 训练 48 层的 Qwen3-30B-A3B-Base 模型时发现:在每一次强化学习的梯度更新后,对于相同的 rollout 样本,新策略所激活的专家中约有 10% 与旧策略所激活的专家不同。这实际上意味着,每次梯度更新后,你都在用不同的数据样本训练不同的模型,毫无疑问这是一种极其低效的训练方式。

在引入 GSPO 之前,为缓解这一问题,他们甚至采取了一种名为「Routing Replay」的技巧,即强制目标策略激活与旧策略相同的专家网络。

相比之下,GSPO 无需使用 Routing Replay 也能实现稳定收敛,从而消除了不必要的训练复杂性,并保留了 MoE 架构的全部潜力。



Routing Replay 策略在 GRPO 训练 MoE 模型的正常收敛中起到了关键作用

结论:

GSPO 或将成为新的标准

总结一下,GSPO 的方法有两点创新:

  • 将重要性采样从 token 级别提升到序列级别,并通过序列长度进行归一化处理;
  • 显著降低了方差,同时消除了对「路由技巧」(如 Routing Replay)等辅助策略的依赖;

业界已普遍达成共识 —— 在大语言模型的后训练阶段引入强化学习,对于提升其推理能力至关重要。

而论文中的大量实验结果也进一步证实,GRPO 所采用的「逐 token 重要性采样」方法存在不稳定性和低效性的问题。

因此,GSPO 提出的「序列级重要性采样」很可能会成为未来后训练强化学习的新标准。

https://www.reddit.com/r/MachineLearning/comments/1mj3t3r/d_gspo_qwen3s_sequencelevel_rlhf_method_vs_grpo/

https://blog.netmind.ai/article/Qwen_Team_Proposes_GSPO_for_Qwen3%2C_Claims_DeepSeek's_GRPO_is_Ill-Posed

https://www.ft.com/content/ea803121-196f-4c61-ab70-93b38043836e?utm_source=chatgpt.com

https://zhuanlan.zhihu.com/p/22845155602

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
网约车成碰瓷重灾区!上海成都作案手法大曝光,司机别再私了

网约车成碰瓷重灾区!上海成都作案手法大曝光,司机别再私了

网约车焦点
2026-01-28 11:21:17
越闹越大!32岁程序员猝死,公司称其没体检,社保局正在调查原由

越闹越大!32岁程序员猝死,公司称其没体检,社保局正在调查原由

离离言几许
2026-01-29 00:27:19
军委副主席,过去四十年来人数上的变化

军委副主席,过去四十年来人数上的变化

深度财线
2025-10-21 13:06:54
被“变瘦”的戚薇惊艳到!面相都变了,她的“大话”终于有人信了

被“变瘦”的戚薇惊艳到!面相都变了,她的“大话”终于有人信了

剧芒芒
2026-01-28 19:23:35
唯一在世的中共一代领导人,曾任中央政治局常委,如今109岁

唯一在世的中共一代领导人,曾任中央政治局常委,如今109岁

星辰故事屋
2026-01-23 12:14:47
国运来了挡不住?这三个人,正用各自的方式“助攻”中国崛起

国运来了挡不住?这三个人,正用各自的方式“助攻”中国崛起

远方风林
2025-12-18 23:53:12
与切尔西提前解约,斯特林社媒:所有目光都投向未来

与切尔西提前解约,斯特林社媒:所有目光都投向未来

懂球帝
2026-01-29 01:03:06
世界倒退最快的国家:从全球第六到一贫如洗,仅仅用了5年

世界倒退最快的国家:从全球第六到一贫如洗,仅仅用了5年

老谢谈史
2025-12-03 13:42:30
为什么要跑步?香港女星徐濠萦跑步14年,如今身材炸裂!

为什么要跑步?香港女星徐濠萦跑步14年,如今身材炸裂!

马拉松跑步健身
2026-01-27 20:15:32
“富婆”李湘栽了:这20年的钱,她到底赚得有多野?

“富婆”李湘栽了:这20年的钱,她到底赚得有多野?

红大娘娱乐
2026-01-18 17:20:47
50岁北大女博士蒙曼:这辈子也结不了婚!原因就两个

50岁北大女博士蒙曼:这辈子也结不了婚!原因就两个

携手游人间a
2026-01-25 16:57:12
维拉疯了?世界级巨星被明码标价甩卖,4000 万镑谁来接盘?

维拉疯了?世界级巨星被明码标价甩卖,4000 万镑谁来接盘?

澜归序
2026-01-28 05:49:44
徐忠、刘文华已任江西省政协党组成员

徐忠、刘文华已任江西省政协党组成员

澎湃新闻
2026-01-28 21:17:04
葛斯齐爆具俊晔放弃大S遗产真相!全给玥儿姐弟,因交不起遗产税

葛斯齐爆具俊晔放弃大S遗产真相!全给玥儿姐弟,因交不起遗产税

乐悠悠娱乐
2026-01-28 14:24:27
编程门槛被压到799美元?“那个拿着Mac Mini+Claude的「门外汉」,抢走了程序员3个月的活!”

编程门槛被压到799美元?“那个拿着Mac Mini+Claude的「门外汉」,抢走了程序员3个月的活!”

CSDN
2026-01-27 18:10:04
知名媒体人披露富翁与女检察官通奸,遭重庆警方“跨省电话传唤”

知名媒体人披露富翁与女检察官通奸,遭重庆警方“跨省电话传唤”

塔子山评说
2026-01-28 01:16:58
确认了:9级!浙江有雨夹雪、雪!这波太猛,明天提前准备

确认了:9级!浙江有雨夹雪、雪!这波太猛,明天提前准备

环球网资讯
2026-01-28 15:00:57
新型护卫舰爆产,南北双线上量,护卫舰破百艘,断崖式领先全球?

新型护卫舰爆产,南北双线上量,护卫舰破百艘,断崖式领先全球?

东方点兵
2026-01-27 13:42:19
50岁范玮琪近况,面部填充太多,眼神闪躲不自信,一下子老了!

50岁范玮琪近况,面部填充太多,眼神闪躲不自信,一下子老了!

眼底星碎
2026-01-28 16:25:09
中美新默契,让人很不适!欧洲到了最危险的阶段

中美新默契,让人很不适!欧洲到了最危险的阶段

超级学爸蛋总
2026-01-28 09:30:04
2026-01-29 01:36:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12209文章数 142552关注度
往期回顾 全部

科技要闻

它是神也是毒!Clawdbot改名卷入千万诈骗

头条要闻

俄总统助理:泽连斯基若愿与普京会晤 可来莫斯科

头条要闻

俄总统助理:泽连斯基若愿与普京会晤 可来莫斯科

体育要闻

没天赋的CBA第一小前锋,秘诀只有一个字

娱乐要闻

金子涵拉黑蔡徐坤,蔡徐坤工作室回应

财经要闻

从万科退休20天后,郁亮疑似失联

汽车要闻

新手必看!冰雪路面不敢开?记住这4点 关键时刻真能保命

态度原创

艺术
房产
家居
手机
公开课

艺术要闻

沙特醒悟,“全球最大单体建筑”停止施工!

房产要闻

实景兑现在即!绿城,在海棠湾重新定义终极旅居想象!

家居要闻

跃式别墅 包络石木为生

手机要闻

HyperOS 3.1淘汰名单:REDMI K60、POCO F5在列,有你的手机吗

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版