网易首页 > 网易号 > 正文 申请入驻

全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

0
分享至

来源 新智元

导读

  • 网上已经出现了一波复现DeepSeek的狂潮。UC伯克利、港科大、HuggingFace等纷纷成功复现,只用强化学习,没有监督微调,30美元就能见证「啊哈时刻」!全球AI大模型,或许正在进入下一分水岭。

这些天,硅谷彻底处于中国公司带来的大地震余波中。

全美都在恐慌:是否全球人工智能的中心已经转移到了中国?

就在这当口,全球复现DeepSeek的一波狂潮也来了。

诚如LeCun所言:「这一次,正是开源对闭源的胜利!」

在没有顶级芯片的情况下,以极低成本芯片训出突破性模型的DeepSeek,或将威胁到美国的AI霸权。

大模型比拼的不再是动辄千万亿美元的算力战。

OpenAI、Meta、谷歌这些大公司引以为傲的技术优势和高估值将会瓦解,英伟达的股价将开始动摇。

种种这些观点和讨论,让人不禁怀疑:数百亿美元支出,对这个行业真的必要吗?甚至有人说,中国量化基金的一群天才,将导致纳斯达克崩盘。

从此,大模型时代很可能会进入一个分水岭:超强性能的模型不再独属于算力巨头,而是属于每个人。

30美金,就能看到「啊哈」时刻

来自UC伯克利博士生潘家怡和另两位研究人员,在CountDown游戏中复现了DeepSeek R1-Zero。

他们表示,结果相当出色!

实验中,团队验证了通过强化学习RL,3B的基础语言模型也能够自我验证和搜索。

更令人兴奋的是,成本不到30美金(约217元),就可以亲眼见证「啊哈」时刻。

这个项目叫做TinyZero,采用了R1-Zero算法——给定一个基础语言模型、提示和真实奖励信号,运行强化学习。

然后,团队将其应用在CountDown游戏中(这是一个玩家使用基础算术运算,将数字组合以达到目标数字的游戏)。

模型从最初的简单输出开始,逐步进化出自我纠正和搜索的策略。

在以下示例中,模型提出了解决方案,自我验证,并反复纠正,直到解决问题为止。

在消融实验中,研究人员运行了Qwen-2.5-Base(0.5B、1.5B、3B、7B四种参数规模)。

结果发现,0.5B模型仅仅是猜测一个解决方案然后停止。而从1.5B开始,模型学会了搜索、自我验证和修正其解决方案,从而能够获得更高的分数。

他们认为,在这个过程,基础模型的是性能的关键。

他们还验证了,额外的指令微调(SFT)并非是必要的,这也印证了R1-Zero的设计决策。

这是首个验证LLM推理能力的实现可以纯粹通过RL,无需监督微调的开源研究

基础模型和指令模型两者区别:

  • 指令模型运行速度快,但最终表现与基础模型相当

  • 指令输出的模型更具结构性和可读性

此外,他们还发现,具体的RL算法并不重要。PPO、GRPO、PRIME这些算法中,长思维链(Long CoT)都能够涌现,且带来不错的性能表现。

而且,模型在推理行为中非常依赖于具体的任务:

  • 对于Countdow任务,模型学习进行搜索和自我验证

  • 对于数字乘法任务,模型反而学习使用分布规则分解问题,并逐步解决

苹果机器学习科学家Yizhe Zhang对此表示,太酷了,小到1.5B的模型,也能通过RL涌现出自我验证的能力。

7B模型复刻,结果令人惊讶

港科大助理教授何俊贤的团队(共同一作黄裕振、Weihao Zeng),只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。

结果令人惊喜——模型在复杂的数学推理上取得了十分强劲结果。

项目地址:https://github.com/hkust-nlp/simpleRL-reason

他们以Qwen2.5-Math-7B(基础模型)为起点,直接对其进行强化学习。

整个过程中,没有进行监督微调(SFT),也没有使用奖励模型。

最终,模型在AIME基准上实现了33.3%的准确率,在AMC上为62.5%,在MATH上为77.2%。

这一表现不仅超越了Qwen2.5-Math-7B-Instruct,并且还可以和使用超过50倍数据量和更复杂组件的PRIME和rStar-MATH相媲美!

其中,Qwen2.5-7B-SimpleRL-Zero是在Qwen2.5-Math-7B基础模型上仅使用纯PPO方法训练的,仅采用了MATH数据集中的8K样本。

Qwen2.5-7B-SimpleRL则首先通过Long CoT监督微调(SFT)作为冷启动,然后再进行强化学习。

在这两种方法中,团队都只使用了相同的8K MATH样本,仅此而已。

大概在第44步的时候,「啊哈时刻」出现了!模型的响应中,出现了自我反思。

并且,在这个过程中,模型还显现了更长的CoT推理能力和自我反思能力。

在博客中,研究者详细剖析了实验设置,以及在这个强化学习训练过程中所观察到的现象,例如长链式思考(CoT)和自我反思机制的自发形成。

与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS(蒙特卡洛树搜索)类技术。

他们使用的是PPO算法,并采用基于规则的奖励函数,根据生成输出的格式和正确性分配奖励:

  • 如果输出以指定格式提供最终答案且正确,获得+1的奖励

  • 如果输出提供最终答案但不正确,奖励设为-0.5

  • 如果输出未能提供最终答案,奖励设为-1

该实现基于OpenRLHF。初步试验表明,这个奖励函数有助于策略模型快速收敛,产生符合期望格式的输出。

第一部分:SimpleRL-Zero(从头开始的强化学习)

接下来,研究者为我们分享了训练过程动态分析和一些有趣的涌现模式。

训练过程动态分析

如下所示,所有基准测试的准确率在训练过程中都在稳步提高,而输出长度则呈现先减少后逐渐增加的趋势。

经过进一步调查,研究者发现,Qwen2.5-Math-7B基础模型在初始阶段倾向于生成大量代码,这可能源于模型原始训练数据的分布特征。

输出长度的首次下降,是因为强化学习训练逐渐消除了这种代码生成模式,转而学会使用自然语言进行推理。

随后,生成长度开始再次增加,此时出现了自我反思机制。

训练奖励和输出长度

基准测试准确率(pass@1)和输出长度

自我反思机制的涌现

在训练到第 40 步左右时,研究者观察到:模型开始形成自我反思模式,这正是DeepSeek-R1论文中所描述的「aha moment」(顿悟时刻)。

第二部分:SimpleRL(基于模仿预热的强化学习)

如前所述,研究者在进行强化学习之前,先进行了long CoT SFT预热,使用了8,000个从QwQ-32B-Preview中提取的MATH示例响应作为SFT数据集。

这种冷启动的潜在优势在于:模型在开始强化学习时已具备long CoT思维模式和自我反思能力,从而可能在强化学习阶段实现更快更好的学习效果。

与RL训练前的模型(Qwen2.5-Math-7B-Base + 8K QwQ知识蒸馏版本)相比,Qwen2.5-7B-SimpleRL的平均性能显著提升了6.9个百分点。

此外,Qwen2.5-7B-SimpleRL不仅持续优于Eurus-2-7B-PRIME,还在5个基准测试中的3个上超越了Qwen2.5-7B-SimpleRL-Zero。

训练过程分析

训练奖励和输出长度

基准测试准确率(pass@1)和输出长度

Qwen2.5-SimpleRL的训练动态表现与Qwen2.5-SimpleRL-Zero相似。

有趣的是,尽管研究者先进行了long CoT SFT,但在强化学习初期仍然观察到输出长度减少的现象。

他们推测,这可能是因为从QwQ提取的推理模式不适合小型策略模型,或超出了其能力范围。

因此,模型选择放弃这种模式,转而自主发展新的长链式推理方式。

最后,研究者用达芬奇的一句话,对这项研究做了总结——

简约,便是最终极的精致。

完全开源复刻,HuggingFace下场了

甚至,就连全球最大开源平台HuggingFace团队,今天官宣复刻DeepSeek R1所有pipeline。

复刻完成后,所有的训练数据、训练脚本等等,将全部开源。

这个项目叫做Open R1,当前还在进行中。发布到一天,星标冲破1.9k,斩获142个fork。

项目地址:https://github.com/huggingface/open-r1

研究团队以DeepSeek-R1技术报告为指导,将整个复刻过程划分为三个关键步骤。

步骤 1:通过从DeepSeek-R1蒸馏高质量语料库,复现R1-Distill模型。

步骤 2:复现DeepSeek用于创建R1-Zero的纯强化学习(RL)流程。这可能需要为数学、推理和代码任务策划新的大规模数据集。

步骤 3:展示我们如何通过多阶段训练,从基础模型发展到经过RL调优的模型。

从斯坦福到MIT,R1成为首选

一个副业项目,让全世界科技大厂为之惶恐。

DeepSeek这波成功,也成为业界的神话,网友最新截图显示,这款应用已经在APP Store「效率」应用榜单中挤进前三。

在Hugging Face中,R1下载量直接登顶,另外3个模型也霸占着热榜。

a16z合伙人Anjney Midha称,一夜之间,从斯坦福到MIT,DeepSeek R1已经成为美国顶尖高校研究人员「首选模型」。

还有研究人员表示,DeepSeek基本上取代了我用ChatGPT的需求。

中国AI,这一次真的震撼了世界。

参考资料:

https://x.com/junxian_he/status/1883183099787571519

https://x.com/jiayi_pirate/status/1882839370505621655

为伟大思想而生!

AI+时代,互联网思想(wanging0123),

第一必读自媒体

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
国台办果然没看错,郑丽文真面目被彻底揭露!小算盘到此为止了

国台办果然没看错,郑丽文真面目被彻底揭露!小算盘到此为止了

比利
2026-01-23 12:41:53
火箭重申阿门申京非卖品!球队无意交易字母 欲追庄神填海王空缺

火箭重申阿门申京非卖品!球队无意交易字母 欲追庄神填海王空缺

颜小白的篮球梦
2026-02-03 05:22:49
没有任何悬念了,字母哥下家肯定在以下三支球队中产生!

没有任何悬念了,字母哥下家肯定在以下三支球队中产生!

君子一剑似水流年
2026-02-02 07:30:30
“废掉”一个孩子,就让ta待在家里,一天到晚待在家里

“废掉”一个孩子,就让ta待在家里,一天到晚待在家里

行者马生的笔记
2026-01-27 21:15:41
中国“捡钱”时代即将来临:如果手中只有10万,试试死啃这两条线

中国“捡钱”时代即将来临:如果手中只有10万,试试死啃这两条线

老谢谈史
2026-02-02 18:42:18
我爆仓了!二三十年的积蓄7亿美金清算,一个币圈大佬的临终遗言

我爆仓了!二三十年的积蓄7亿美金清算,一个币圈大佬的临终遗言

火山诗话
2026-02-02 10:35:13
岛内最新民调公布,郑丽文和赖清德支持率惊人,黄国昌对访陆交底

岛内最新民调公布,郑丽文和赖清德支持率惊人,黄国昌对访陆交底

伴君终老
2026-02-03 03:44:53
北京退休教授娶30岁美女空姐,次年生下龙凤胎,前男友突然找来

北京退休教授娶30岁美女空姐,次年生下龙凤胎,前男友突然找来

秋风专栏
2025-04-27 11:16:32
感动流涕!东莞一工厂取消年终聚餐,每人补助2000,开年红包600

感动流涕!东莞一工厂取消年终聚餐,每人补助2000,开年红包600

火山诗话
2026-02-02 06:06:15
特朗普:世界“很快会看到”哈梅内伊的警告是否正确;内塔尼亚胡与高级官员讨论伊朗紧张局势,美国海军一驱逐舰离开以色列

特朗普:世界“很快会看到”哈梅内伊的警告是否正确;内塔尼亚胡与高级官员讨论伊朗紧张局势,美国海军一驱逐舰离开以色列

每日经济新闻
2026-02-02 22:26:50
雷军:第一代小米SU7已停售 个别车商为了蹭流量又哭又闹 欢迎大家帮我们举报

雷军:第一代小米SU7已停售 个别车商为了蹭流量又哭又闹 欢迎大家帮我们举报

快科技
2026-02-02 12:42:07
这个诺贝尔奖,解释了伊朗为何走向失败

这个诺贝尔奖,解释了伊朗为何走向失败

报人刘亚东
2026-02-01 13:56:43
冬奥会开幕前2天,中国队被看衰:金牌榜无缘前十 谷爱凌冠军没戏

冬奥会开幕前2天,中国队被看衰:金牌榜无缘前十 谷爱凌冠军没戏

侃球熊弟
2026-02-03 00:20:03
小米“YU9”等实车首次官曝!藏玄机

小米“YU9”等实车首次官曝!藏玄机

IT之家
2026-02-02 20:29:25
中国斯诺克大捷!5-0、5-2、5-2,赵心童、肖国栋3将剑指冠军

中国斯诺克大捷!5-0、5-2、5-2,赵心童、肖国栋3将剑指冠军

北纬的咖啡豆
2026-02-03 07:20:04
杰我睿兑付最新进展,有消费者称“绝不接受”!又一黄金平台兑付困难…

杰我睿兑付最新进展,有消费者称“绝不接受”!又一黄金平台兑付困难…

北京商报
2026-02-02 23:47:01
年底大扫除,我2小时搞定!这9个清洁妙招,妈看了都会夸

年底大扫除,我2小时搞定!这9个清洁妙招,妈看了都会夸

Home范
2026-02-01 16:15:03
捧红王菲、那英、S.H.E的著名音乐人,走了

捧红王菲、那英、S.H.E的著名音乐人,走了

中国新闻周刊
2026-02-02 18:11:19
沪媒记者社媒暗示上海海港近期引进“希望”球员

沪媒记者社媒暗示上海海港近期引进“希望”球员

杨仔述
2026-02-03 06:12:22
一个逻辑闭环:阿富汗女性只能上到小学,但女患者又必须看女医生

一个逻辑闭环:阿富汗女性只能上到小学,但女患者又必须看女医生

黄娜老师
2026-02-01 13:45:43
2026-02-03 09:24:49
互联网思想 incentive-icons
互联网思想
AI时代,互联网思想观察
2390文章数 16903关注度
往期回顾 全部

科技要闻

马斯克官宣,SpaceX并购xAI,打造天基算力

头条要闻

牛弹琴:美印突然和好 一个与俄方有关的细节很不寻常

头条要闻

牛弹琴:美印突然和好 一个与俄方有关的细节很不寻常

体育要闻

澳网男单决赛,属于阿尔卡拉斯的加冕仪式

娱乐要闻

57岁音乐人袁惟仁去世,家属发文悼念

财经要闻

“精准查人”黑产链条遭查

汽车要闻

雷克萨斯LC500将于今年底停产 "最美雷克萨斯"谢幕

态度原创

游戏
房产
手机
旅游
公开课

《欧陆风云5》2026年计划发布 首个大型DLC开发中

房产要闻

狂卖1548亿后,海南又上演疯狂抢地!

手机要闻

中端机变天!前七名全是天玑 骁龙7被甩开百万分

旅游要闻

一路黔行・爽居畅游 | 贵阳:一城烟火 点燃冬日文旅活力

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版