全文 3,000字 | 阅读约 8 分钟
(OpenAI总裁Greg Brockman 谈 GPT-5 技术转向与未来布局)
8月15日,旧金山。Sam Altman 正式承认:
GPT-5 发布搞砸了 (we totally screwed up some things on the GPT-5's rollout)。
模型选择混乱、体验下降、4o 命名混乱、用户抱怨铺天盖地。OpenAI 甚至不得不恢复旧模型来稳定口碑。
(硅谷知名科技媒体《The Verge》关于Sam Altman谈论GPT-5发布失败的头条报道)
一边是产品失误的舆论风暴,另一边却是惊人的数据反弹: API 调用在发布后 48 小时内几乎翻倍,ChatGPT 周活跃用户逼近 7 亿,成为全球第五大网站。
失误是教训,数据是信号。
CEO Sam Altman 没有回避,更没有辩解。他和联合创始人兼总裁 Greg Brockman 在近期连续数场公开对谈中系统复盘这次出错的发布,给出了关于 OpenAI 增长路径的全新判断:
不是再造一个更强模型, 而是——三个更难、但更重要的抓手:
让模型开始会想:推理代替预测,模型不只输出答案,而是自己“过一遍脑子”
让 AI 真正能干活:不是一个聊天机器人,而是一个能配合人完成任务的协作伙伴
让计算力跟得上:投入万亿资金建设超大规模数据中心,从根本上解决GPU短缺瓶颈
正如 Greg Brockman 所说:
“我们可以训练出更强模型,但我们不会那样做。”
因为增长,不该靠参数堆叠,而要靠推理结构、协同系统与计算力重塑。
今天这篇文章,我们就来系统拆解这场罕见的复盘背后,OpenAI 正在构建的GPT-5 之后的增长路线图——
不是表层的产品动态,而是核心的战略逻辑。
增长第一步|模型开始会想了:从预测到推理
Greg Brockman 首先说: “我们过去在做什么?本质上是教模型预测接下来会发生什么。但现在我们发现,它必须学会自己想一想。”
因此,GPT 5 并不是一个“更聪明”的升级版。它更像是一个开始动脑子的模型。
在过去几年,大模型的训练逻辑可以归纳成一句话:喂足够多的内容,让它猜下一个词。 这确实奏效了,GPT-3 能写,GPT-4 能对话。但它们在复杂任务中经常胡说八道或者跑题的情况。为什么?因为它们并不理解自己在做什么。
Greg 说,这是 OpenAI 团队内部反复讨论的问题:“如果模型只是预测,而不自己思考,它很容易在关键时刻出错。”
于是他们开始试图让模型具备思维链——像人一样,先想,再说。这就是未来 AI 模型的核心方向:从输出结果,变成了自己推理一遍。
✅ 模型怎么自己想?靠反复提问、反复测试
这个过程,OpenAI 有个具体做法叫 “Auto-reflection”(自动反思)。简单理解就是:
模型回答一个问题后,会停下来问自己一句:这个答案靠谱吗?能不能再试试别的方向?
这看上去很傻,但 Greg 提到:很多时候,它第二次、第三次给出的答案比第一次强很多。
Sam Altman 曾用类比解释:AI 更应该像一个会自己检查作业的学生,而不是永远只写一版作文交上来。
为了训练这种能力,OpenAI 进行了一个精小而关键的研究项目:参加国际数学奥赛(IMO)。他们发现,当模型不是一次性解题,而是在每一步都评估自己的逻辑时, 它的数学水平大幅提高。
这说明了一件事:智能的提升不再依赖数据堆积,而是推理能力的质变。
✅ 重点不是聪明,而是靠谱
Greg 明确表示:
“AI 的目标不是更聪明,而是更有用。我们最看重的,是它能不能做事做对。”
比如,当你让 AI 帮你写一个请假邮件,它不会立即生成一封,而是先问你:“你是因为出差请假吗?还是身体不适?”,然后再根据你回答的细节构造内容。这种对过程的关注,是推理型 AI 和早期模型最大的差别。
从GPT-3的"学会回答",到GPT-5的"学会思考"——这是一个质的飞跃。
模型会想之后,会带来什么变化?
第一,它能更少出错,更稳定。这对做产品的公司来说,是基础中的基础。
第二,它能主动帮人分析复杂问题,而不只是机械地回答。
第三,它能更好地和其他工具配合,成为一个“团队成员”,而不是“会说话的机器人”。
✅ 这个转变的深层含义是什么?
对开发者而言:你不再是在"调教"一个工具,而是在与一个能思考的实体协作。提示词变成了工作对话,编程变成了团队配合。
对产品创造者而言:AI 不再是功能模块,而是能理解意图、记住上下文、主动优化的工作伙伴。
这不是一次模型升级,而是一次协作方式的改变。
所以,OpenAI 增长的第一步,不是把模型做得更复杂,而是让它更可靠——先想清楚,再把事做好。
增长第二步|AI 开始能干活了:不再只是工具
在过去,大模型是“应答机器”。你提问,它回复;你写代码,它补全一行。
现在,OpenAI 正在把 AI 做成一个“能协作”的搭档,不是等你发指令,而是能和你一起干活,甚至自己分步骤、找方法、修错。
Greg 用很简单的话解释过这件事:
“我们不想让你用 GPT 时还得担心怎么说它才懂。我们想让它先理解你,然后自己搞清楚接下来要怎么做。”
✅ AI 会分解工作,也会自己找工具
举个例子:你想让 AI 写一个数据分析报告。过去的做法是,你一步步告诉它:
请先写个 Python 代码读取 CSV 文件
再帮我做个柱状图
然后生成一段结论性的说明文字
现在这类推理 AI 不一样了
你只要说:“帮我看看这组销售数据有没有异常,再写个简单总结给老板。” 它会:
自己先判断数据怎么处理
主动调用图表工具(Code Interpreter)分析
再生成清晰总结,并附上图示和文件下载
按照 Greg 描述的逻辑,未来的应用场景可能是:
“你给它一个网址,让它帮你订机票,AI 不会问你 30 个细节,而是会先去看这个页面是去哪的,自动补上你没说清楚的,然后告诉你订好了。”
✅ 能合作,而不是只听命令
这类 AI 最大的进步之一,是它能像一个助理那样,有自己的工作流程意识。
不是你说什么它才动,而是它能判断哪些步骤必须做,哪些可以跳过,还会反过来问你:你要的结果是这个意思吗?
这背后依赖的是一种工具调用的能力:新一代 AI 不只是语言模型,它能调动多种小工具来帮你完成一个任务——包括查资料、算数学、写脚本、发请求、生成图表等等。
Greg 对此有一句话特别形象:你不再是用一个智能体,而是像在管理一个工程小团队,它们能商量着完成一个目标。
为什么这很重要?
在 OpenAI 看来,让一个人 10 倍提效,比追求模型本身的提升更有价值。Sam 也说:
“我们花了大量精力在研究‘AI 怎么写代码’,但真正关键的问题是:人类怎么用它更好地工作。”
OpenAI 增长的第二步:
不追求更聪明的 AI,而是打造更能干活的协作伙伴。
增长第三步|用得起比更强重要:难点在算力
OpenAI 做模型,也不是想发布多少就能发布多少。
GPT-5 上线时,其实还有一个更厉害的模型,在内部测试表现非常好,但最后没推出来。为什么?Sam 说得很直接:因为用不起。
训练 AI 需要巨大的计算能力,而“算力”就像 AI 界的“石油”:全世界都要,但谁都不够。
OpenAI 现在面临的问题不是技术卡住,而是一个特别现实的问题——钱 + 芯片 + 电力,不够。
✅ GPT-5 只是开始,背后的工厂才是重点
你在手机上和 GPT 聊天,几秒钟一个回复。但在云端,模型需要调用大量显卡协同工作,每秒钟消耗的算力,可能超过普通企业一天的计算需求。
Greg 用了个很贴近生活的比喻:
“我们不是在造一个智能体,而是一个复杂的 AI 协作系统——就像一座精密工厂,只是这些复杂性都隐藏在用户看不见的地方。”
而这座“看不见的工厂”,目前还远远不够大。
Sam 在最近谈话中甚至说,未来他们的目标是——投数万亿美元,造新的数据中心。这不是什么口号,而是他们真实计划里的一部分。
✅ 成本高,是“算”出来的
不是所有任务都用得起 GPT-5或者GPT-N。它跑一次,对 OpenAI 来说,就比旧模型贵出好几倍。Greg 说:
“我们开始把计算能力当作核心资源来管理,不是什么都用最强模型做,而是要按需选择。”
这就是为什么现在 ChatGPT 会出现“模型选择器”——你点进去,会看到不同模型可用,而不是默认全是最新最强的。
因为他们想要更灵活地安排计算能力,把最强模型用在最合适的地方。但这只是权宜之计,根本问题还是GPU资源不够。
为了缓解这个瓶颈,OpenAI 开始做一件事:让模型自己变得更省资源,而不是靠堆芯片解决。
比如:
智能分工:根据问题难易程度,自动安排"简单 AI"还是"复杂 AI"来处理
任务协作:复杂工作交给专门工具,AI 只负责统筹指挥
团队配合:不是让一个 AI 包办所有事,而是多个小 AI 各司其职、协同完成
这些操作的本质,就是一个目标:别再用大炮打蚊子。
✅ 对你来说,这意味着什么?
不管你是做产品、做创业、做运营,这件事都会影响你:
AI 成本差异大,别一上来就接更强大的模型,有些任务用旧模型就够了
越能精准对接任务,越能压低成本,提高效率
想用 AI 做事,不只是看功能,更要关注用得起、跑得快、接得稳
Sam 总结得很直接:
“我们要让开发者拥有‘计算调度权’,像调配团队一样调配算力。”
对 OpenAI 来说,这不仅是成本问题,更是产品能不能扩开的关键。
未来模型,不在于再升级一个版本,而是让更多人用得起,跑得稳,响应得快。
这,就是 OpenAI 增长的第三步。
结语|不是更强,是走得更远
OpenAI 在这次复盘中透露的重心,不是“打造最强模型”,而是更务实的增长路径。
增长的三件事看起来不酷—— 不是“更加强大”,而是:
能一步步分析(推理)
能一起把活干完(协作)
能广泛接入而不崩(供给)
但这才是从产品变成基础设施的起点。
Greg 说:“我们的目标,是让模型成为你真正能依靠的工作伙伴。”
对每个用 AI 的人来说,这件事更值得关注:
关注的不应该是模型有多强,而是它如何更好地协助你工作。
这才是 GPT-5 之后,真正的方向——
不是更强,而是更有用。
本文由AI深度研究院出品,内容整理自Sam Altman与Greg Brockman近期公开访谈。未经授权,不得转载。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
参考资料:
https://www.youtube.com/watch?v=35ZWesLrv5A&t=2883s&ab_channel=LatentSpace
https://www.theverge.com/command-line-newsletter/759897/sam-altman-chatgpt-openai-social-media-google-chrome-interview
https://www.latent.space/p/gpt5-router?utm_source=chatgpt.com
https://podcasts.apple.com/us/podcast/latent-space-the-ai-engineer-podcast/id1674008350?utm_source=chatgpt.com
https://www.axios.com/2025/08/15/sam-altman-gpt5-launch-chatgpt-future?utm_source=chatgpt.com
https://www.wired.com/story/openai-gpt-5-backlash-sam-altman/?utm_source=chatgpt.com
https://www.platformer.news/sam-altman-gpt-5-interview-lightcap-turley/?utm_source=chatgpt.com
来源:官方媒体/网络新闻
排版:Atlas
编辑:深思
主编: 图灵
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.