网易首页 > 网易号 > 正文 申请入驻

奥特曼首揭GPT-4.5内幕,一个bug搞崩10万GPU!5人即可重训GPT-4

0
分享至

新智元报道

编辑:编辑部 NYH

【新智元导读】GPT-4.5比GPT-4聪明10倍!其背后的研发故事却鲜为人知。奥特曼携OpenAI团队首次敞开心扉,分享了幕后细节。从海量算力引发的「基础设施危机」,到「torch.sum bug」带来的意外突破,团队讲述了在挑战中实现智能飞跃。

GPT-4.5出世一个多月,鲜有人知其背后研发故事。

今天凌晨,奥特曼与三位核心研究员在线开启播客对谈,首次揭开了GPT-4.5从愿景到现实的史诗级突破。

早在两年前,OpenAI团队定下了一个大胆的目标,打造一款比GPT-4聪明10倍的模型。

这不仅意味着LLM性能提升,更是对计算、数据、协作的极限挑战。

从左到右:奥特曼、Alex Paino、Amin Tootoonchian和Daniel Selsam

如今,OpenAI在2月底正式交卷,GPT-4.5情商堪称所有模型最强的,并再次Scaling无监督学习的边界。

这款「超级模型」究竟如何创造智能奇迹,全部浓缩在了这45分钟的圆桌对谈中。

一些精彩亮点:

  • GPT-4.5比GPT-4聪明10倍,研发用时2年,拥有上一代不具备的微妙「魔力」

  • 训练GPT-4.5为OpenAI提供了宝贵的技术经验;现只需要大约5名员工,就可以从头开始训练GPT-4

  • 算力基础设施和大规模GPU扩展带来的小概率问题会捅出大乱子

  • 数据效率成为关键瓶颈,OpenAI下一个主要研究前沿是提高数据效率

  • 「torch.sum bug」等趣事推动模型性能飞跃。

  • Scaling Law被验证为可能长期有效的「宇宙规律」

GPT-4.5聪明10倍

奥特曼开篇说,通常他们开这种会都是为了发布新产品,不过这次打算换个玩法,聊聊GPT-4.5开发背后的故事。

GPT-4.5推出后,用户对它的兴趣特别大,这大大超出了研发团队的预期。

他们首先从「一个巨型模型到底需要什么?」这个话题说起。

「一大堆人、一大把时间,还有海量的计算资源。」主要负责预训练数据的Alex回答说。

Alex表示,他们光是准备阶段就花了很多心思,至于正式的训练,「本身就是个超级大的工程」。

在实际训练中,研究团队经常得做选择:是推迟发布,等更多问题解决;还是早点上线,边跑边解决问题。

这是个平衡,不能让整个训练过程拖得太久。

他们谦虚地认为,对于效率更高的算法及以如何更好地利用现有数据,他们还只是「略知皮毛」。

在不久之前,我们还在受限于算力。但从GPT-4.5开始,我们更多地是处在一个受限于数据的环境里了。

他们说这是一个颠覆性的进展,「整个世界对此还没有充分认识到。」

两年前着手开发GPT-4.5时,他们的目标是比GPT-4聪明10倍。

现在,他们觉得自己达到了这个目标——至少在投入的有效算力下,GPT-4.5实现了比GPT-4聪明10倍的效果。

预训练的两个难题

不过,实际的训练时间还是比预想的要长不少。

这里面主要有两个问题。

一个是从1万个GPU增加到10万个GPU,问题会变得多得多。

尤其是一些提前没预料到的小概率问题,在大规模计算时会捅出大乱子。

最容易出问题的就是算力基础设施,由于他们的数据量实在是太大了,有些问题连硬件制造商都没遇见过。

网络架构、单个加速器,这些都会出问题。「我们的工作就是尽量把这些变量的波动降到最低。」

另一个问题是探索前沿科技这件事本身就很难。

在训练GPT-4.5时,OpenAI投入了几百人的努力,耗费了大量的时间,几乎是all in。

但如果他们现在重新训练一个GPT-4水平的模型,大概只需要5到10个人就可以搞定。

专注于数据效率和算法的Dan说,「我觉得做任何新东西都难。但是当你知道别人已经做成过某件事,难度就会大大降低」。

「因为最难的部分是下定决心去做一件事。知道某件事是可行的,简直就像开了挂,瞬间就容易多了。」

Dan接着表示,如果想要将训练规模再扩大10倍甚至是100倍,数据就会成为瓶颈,这时候就需要一些算法上的创新,让模型能用更多的算力从同样的数据里学到更多东西。

torch.sum bug趣事

研究团队在GPT-4.5的训练中,发现了一些特别有趣的事情。

比如,在训练过程中不断地优化机器学习算法,做出一些调整。

尤其是团队解决了一些关键问题后,他们看到了模型性能的大幅提升。

那一刻,整个团队的能量都不一样了,大家都特别兴奋,动力满满,要把最后阶段冲刺完成。

「那一刻真的很震撼。这对团队士气的提升,真的特别美妙。」

现场OpenAI的首席系统架构师Amin Chian分享了一个「torch.sum bug」趣事。

在训练过程中遇到bug是常事,通常是找一下到底是硬件故障、数据损坏,还是机器学习相关的Bug。

但在训练GPT-4.5时,有一次好几个问题一直都没有解决。

大家没办法就在一起讨论研究这些问题到底是由不同的Bug引起的,还是同一个Bug导致的。

他们围着桌子投票。结果呢?后来确定的那个Bug在当时得票最少!

就是个简单的「torch.sum」Bug,来自上游的PyTorch库,大家都觉得太不可思议了。

所有的问题都被这一行代码给解决了,真的特别有趣。

为了庆祝,他们还把Slack频道从「多Bug理论」改成了「单Bug理论」,那场面可热闹了。

这个Bug的触发频率特别低,可能每100步、1000步才出一次问题,特别容易被忽略。

但他们有条纪律,在训练过程中不能容忍这种问题出现。

整个过程就是一个坚持不放弃的故事。



压缩即智能

几十年来,深度学习的核心一直是提升算力效率。而且,每一次小的改进,都能带来显著的叠加效应。

世界上各地不同的人发现一个提升10%效率的技巧,另一个提出提升20%的优化,这些看似微小的进步累积起来,就能彻底改变模型的表现。

过去,因算力受限,数据效率的研究显得并不划算。但如今,数据效率每一次突破都将可能成为AI发展的临界点。

因此,现在就去预测AI会有瓶颈,有点不明智。

他们还认为更好的预训练和无监督学习能全面提升模型的智能,帮助模型更好地泛化,这一点跟现在模型的推理能力很是互补。

预训练本质上是在压缩数据。压缩数据意味着发现不同事物之间的联系、类比和抽象。而推理则针对某个具体问题,需要一种谨慎思考的技巧。

这种谨慎思考能解锁很多不同领域的问题,但预训练在跨领域压缩数据时,学到的是一种更抽象的东西。

为什么无监督学习会有效?研究员们的答案是「压缩」。

可以说,理想的智能形态就是所谓的「所罗门诺夫归纳」(Solomonov induction)。

简单来说,模型更倾向于简洁的解释。与此同时,它严格遵循贝叶斯原理,把所有可能性都记住,随时根据新信息更新自己的回答。

而他们现在做的预训练——或者说理解预训练的一个视角——就是在做这种「压缩」。

试图找到一个最短的程序(或者模型),来解释所有的数据,以此作为对理想智能的一种近似。

Scaling Law是宇宙法则

在播客的最后,奥特曼表示,训练GPT-4.5的整个过程,花了无数的人力、时间和金钱,其实可以看成是一场实验。

一场验证Scaling Law是不是还成立的实验。

结果他们发现,Scaling Law不仅有效,而且还可能会持续很长时间。

奥特曼说他接受Scaling Law就像接受量子力学一样,还不明白为什么Scaling Law会是一种宇宙的规律。

对此Dan试着解释说,模型数据压缩得越多,智能就越高,这个有很强的哲学依据。

他自己比较喜欢的一个解释是,世界上数据的「关键概念」是稀疏的,符合幂律分布(power law)。

比如,第100个重要的概念,可能在每100个文档里只出现一次。

也就是说数据有很强的「长尾效应」。

所以现实是,如果你想抓到「尾巴」里下一个重要的东西,可能得把算力和数据量翻个十倍。

而这个尾巴还很长,可以一直挖下去。

参考资料:

https://x.com/sama/status/1910363434241450171

https://www.youtube.com/watch?v=6nJZopACRuQ

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
“房坐空亡,家败人亡”,不是迷信!“空亡”到底指的什么

“房坐空亡,家败人亡”,不是迷信!“空亡”到底指的什么

三农雷哥
2026-03-18 14:17:21
东契奇NBA生涯第60次单场得分40+,位列现役所有球员第5

东契奇NBA生涯第60次单场得分40+,位列现役所有球员第5

懂球帝
2026-03-26 11:45:09
张水华为赚钱拼了!7天2赛冲连冠:奖金3万+出场费10万+一辆车

张水华为赚钱拼了!7天2赛冲连冠:奖金3万+出场费10万+一辆车

念洲
2026-03-26 13:14:49
干翻埃尔法?尊界MPV实车曝光,前脸照搬S800

干翻埃尔法?尊界MPV实车曝光,前脸照搬S800

泡泡网
2026-03-26 11:21:11
特朗普据悉将请扎克伯格、 埃里森和黄仁勋加入 科技委员会

特朗普据悉将请扎克伯格、 埃里森和黄仁勋加入 科技委员会

每日经济新闻
2026-03-25 23:07:37
炸毁美雷达和直升机后,伊拉克官方下令:民兵可放开打美以

炸毁美雷达和直升机后,伊拉克官方下令:民兵可放开打美以

阿芒娱乐说
2026-03-26 13:16:54
32.29万起!全新一代A6L正式上市,华为乾崑智驾上车!

32.29万起!全新一代A6L正式上市,华为乾崑智驾上车!

小南看车
2026-03-25 22:59:29
50℃高温锁住国运!电不够水没有,印度的未来,彻底没希望了?

50℃高温锁住国运!电不够水没有,印度的未来,彻底没希望了?

Hi科普啦
2026-03-25 14:57:31
上海警方发布警情通报:左某某已被警方依法刑事拘留

上海警方发布警情通报:左某某已被警方依法刑事拘留

新京报
2026-03-25 20:46:14
特朗普被曝希望“快速”结束对伊朗战争

特朗普被曝希望“快速”结束对伊朗战争

界面新闻
2026-03-26 12:37:58
爆料广东队教练组大调整,杜锋面临下课,替代者现身,球迷支持

爆料广东队教练组大调整,杜锋面临下课,替代者现身,球迷支持

宗介说体育
2026-03-25 10:31:37
穆雷轰53+6+4无缘今日最佳!对不起,东契奇暴走创神级纪录

穆雷轰53+6+4无缘今日最佳!对不起,东契奇暴走创神级纪录

世界体育圈
2026-03-26 13:01:23
76人最多领先47分大胜公牛 恩比德复出35+6+7乔治解禁28分

76人最多领先47分大胜公牛 恩比德复出35+6+7乔治解禁28分

醉卧浮生
2026-03-26 09:25:57
痴呆症的风险降低35%!哈佛追踪13万人:每天2-3杯,让大脑衰老踩刹车

痴呆症的风险降低35%!哈佛追踪13万人:每天2-3杯,让大脑衰老踩刹车

王二哥老搞笑
2026-03-26 13:56:44
张召忠预言或将成真:美国一旦倒下,亚洲这2国将会打起来?

张召忠预言或将成真:美国一旦倒下,亚洲这2国将会打起来?

纪中百大事
2026-03-26 09:44:20
石油危机爆发?普京彻底醒悟,美财长通告全球:对中国根本没用

石油危机爆发?普京彻底醒悟,美财长通告全球:对中国根本没用

阅识
2026-03-26 11:25:47
冲突加剧,日本援兵赶到,中方直接封海四天,越南警告中国别造岛

冲突加剧,日本援兵赶到,中方直接封海四天,越南警告中国别造岛

云上乌托邦
2026-03-24 14:50:45
国民党大乱!马英九紧急发声,郑丽文下场开骂:扯破脸、斗到底

国民党大乱!马英九紧急发声,郑丽文下场开骂:扯破脸、斗到底

小小科普员
2026-03-25 19:25:13
台湾最先倒下?陷入断油断气危机,大陆给出承诺,指了一条明路

台湾最先倒下?陷入断油断气危机,大陆给出承诺,指了一条明路

照亮你的前行之路
2026-03-23 00:17:18
南京女教师停职风波反转!大批家长发声力挺,恳请恢复岗位与声誉

南京女教师停职风波反转!大批家长发声力挺,恳请恢复岗位与声誉

火山詩话
2026-03-26 06:37:23
2026-03-26 15:11:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14819文章数 66720关注度
往期回顾 全部

科技要闻

Meta高管狂分百亿期权,700名员工却下岗

头条要闻

担心特朗普突然停战 以总理下令48小时尽力摧毁伊设施

头条要闻

担心特朗普突然停战 以总理下令48小时尽力摧毁伊设施

体育要闻

35岁替补门将,凭什么入选英格兰队?

娱乐要闻

张雪峰家人首发声 不设追思会丧事从简

财经要闻

黄仁勋:芯片公司的时代已经结束了

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

房产
教育
健康
家居
公开课

房产要闻

质价比标杆!三亚首创浮岛全景舱亮相,还得是万科!

教育要闻

高考地理中的花海经济

转头就晕的耳石症,能开车上班吗?

家居要闻

傍海而居 静观蝴蝶海

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版