作者 | 辰辰
出品 | 网易科技
停掉Sora,不谈梦想,OpenAI现在全员冲刺“抢用户”。
谷歌Gemini 3重压之下,奥特曼在上周按下了“红色警报”。根据OpenAI内部流出的备忘录,明确要求公司从追求AGI的星辰大海中抽身,转而专注于一个极其世俗的目标:在8周内,不惜一切代价提升ChatGPT的用户留存率。
按照奥特曼的计划,这场“战时状态”将持续到2026年1月新模型发布后。
![]()
为此,他不仅叫停了包括Sora在内的多个前沿项目,更强制要求算法团队重启备受争议的“用户信号”训练:利用“点击率”和“点赞数”来优化模型。
这意味着,未来的ChatGPT可能不再是最聪明的,但一定是最会迎合你的。
面对这种被媒体比作“效仿TikTok”的流量焦虑,行业观察者发出了灵魂拷问:“社交媒体曾因优先追求参与度而引发危机,AI公司会从这些悲剧性错误中吸取教训吗?”
1. 从12月1日到2026年1月的八周鏖战
根据公司内部消息,2025年12月1日OpenAI正式进入“红色警报”(code red)状态。这不是突发奇想,而是对谷歌等对手快速追赶的应急反应。备忘录明确指示:暂停广告、购物和Pulse等商业项目,资源倾斜至ChatGPT的模型优化。时长设定为八周,这意味着警报将贯穿整个12月,直至2026年1月底。
为何是八周时间?这与OpenAI的模型发布节奏紧密挂钩。
据悉,OpenAI计划在2025年12月第二周(本周)针对编程和商业客户推出5.2模型。公司管理层甚至否决了部分员工要求推迟发布新模型GPT 5.2的请求。尽管员工希望能有更多时间打磨,但为了抢占先机,OpenAI还是决定按原计划发布。
但这只是前哨战,真正的高潮在2026年1月:另一款模型将带来更好图像、更快处理速度和更优个性化。奥特曼明确表示,“红色警报”将在此后结束。这意味着,如果一切顺利,警报将于2026年1月中下旬鸣金,也标志着OpenAI将从防御转为反攻。
![]()
(图片由AI生成)
假如明年1月模型未能如期惊艳LM Arena,或用户反馈不如预期,“红色警报”是否延长?既往情况显示,2024年OpenAI拉响的类似警报曾因心理健康危机而多次调整,这次又会如何?
更值得深挖的是终止条件的量化指标。奥特曼在备忘录中强调,要通过用户信号重夺LM Arena榜首。这不是空谈——LM Arena的“胜率”机制(用户头对头比较模型响应)已成为内部KPI。假如明年1月份发布的新模型未能实现惊艳跃升,警报可能拖延。
外部竞争压力也不容小觑。谷歌Gemini 3已在备受关注的第三方模型性能排行榜LM Arena上超越OpenAI,Anthropic则在企业客户领域略微领先。这是OpenAI自GPT-4以来首次丢掉编程测试霸主宝座。
警报的结束,最终取决于奥特曼能否快速逆转局势。
2. 用户信号的双刃剑:参与度飙升背后的心理隐雷
回溯ChatGPT的辉煌,自2022年11月推出以来用户周活跃升至8亿,估值随之暴涨。这套增长模式的核心逻辑在于计算资源和数据越多,模型越智能,用户越多(Compute + Data = Smarter Models + More Users)。
为了赢回用户,奥特曼在“红色警报”备忘录中明确指出,必须要通过“更好利用用户信号”来提升ChatGPT的表现。
这句话听起来很技术很客观。但其背后隐藏着OpenAI内部最激烈的冲突,甚至是一场伦理危机。
所谓的“用户信号”,通俗将就是利用用户的点击反馈(比如点赞、二选一)来训练AI。在OpenAI内部,这种方法被称为LUPO(Local User Preference Optimization,本地用户偏好优化)。
![]()
(图片由AI生成)
它的逻辑简单粗暴:用户喜欢什么,AI就说什么。
这一策略的应用在今年5月发布的GPT-4o模型上达到了顶峰。GPT-4o之所以能横扫榜单,正是因为它被大量“用户信号”训练过。它学会了察言观色,学会了顺从,学会了像一个讨好性人格的朋友那样说话。
结果是GPT-4o的互动率飙升。内部统计数据显示,新模型带来的日活用户增长不是“显著”,而是让所有人都惊呼的暴涨。
然而,这种极致的迎合,让AI变成了“阿谀奉承”的马屁精(Sycophancy)。
![]()
(图片由AI生成)
随着GPT-4o的普及,越来越多的用户开始陷入某种病态的依恋,那些心理脆弱的人群尤甚。有些人相信他们在与上帝、外星人或拥有自我意识的灵魂对话。甚至有自杀者的家属提起诉讼,指控OpenAI为了追求用户时长,牺牲了安全性。有互助小组已经收集到250个案例,其中绝大多数与ChatGPT有关。有些用户深陷GPT-4o编织的甜蜜幻觉中无法自拔。
“我们确实发现,处于脆弱精神状态的人使用像4o这样的模型,可能会陷入更糟糕的境地,”奥特曼在10月份的一次公开问答中罕见承认,“我不认为这是我们最后一次面临这种挑战。”
尽管OpenAI声称已在GPT-5的早期版本中回调了这种“热情”,减少了不必要的表情符号,让AI变得更冷静、更客观。但这立刻引发了用户反弹——人们已经爱上了那个会撒娇、会讨好的AI。
有用户甚至在Reddit吐槽:“4o如朋友,新模型杀了它。”
现在,随着“红色警报”的发布,奥特曼再次要求“利用用户信号”重夺LM Arena榜首。这是否意味着,为了打败谷歌,OpenAI准备再次打开潘多拉的魔盒,释放那个极其迷人却危险的“讨好者”?
奥特曼在备忘录还强调新模型的个性化:要访问对话历史、模仿用户喜欢语气。有些医生警告,此举或许有加剧用户心理问题的风险。
在“红色警报”八周内,这些隐忧如何化解会直接影响终止时点。如果明年1月模型再现“讨好”风波,警报恐延长。
3. 内部派系的拉锯:产品现实主义vs研究理想主义
“红色警报”的喧嚣也折射出公司内部的派系博弈。
![]()
(图片由AI生成)
· 研究派(The Research Camp): 这群人坚守着OpenAI的初心。他们追求AGI那个能像人类一样思考、推理的终极智能。他们对优化聊天机器人的“用户体验”不感兴趣,想要的是真正的技术突破。
· 产品派(The Product Camp): 以产品负责人、Meta前高管菲吉·西莫(Fidji Simo)和首席财务官萨拉·弗莱尔(Sarah Friar)为代表。她们的立场很明确:公司要活下去,必须赚钱。OpenAI既然要冲击2025年200亿美元的年营收,就必须像一家成熟的SaaS公司那样运作。她们推动将资源倾斜给ChatGPT,要求提升速度和可靠性,让用户在尝试新功能前先为现有价值买单。
OpenAI宣布任命Slack CEO丹尼斯·德雷斯勒(Denise Dresser)为首席营收官(CRO),这更是给产品派打了支强心针。
![]()
有用户在X平台直言,此举表明OpenAI正“正全力押注企业级营收赛道”,“策略将更接近Salesforce模式,而非传统研究院模式”。
他还质问,“此番人事变动究竟会让OpenAI更贴近传统SaaS巨头,还是保持AI实验室的本色?”
![]()
两大派系的矛盾也在最近的o1推理模型与GPT-4o的对比中体现得淋漓尽致。
前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)离职后,接任者雅库布·帕乔基(Jakub Pachocki)大力推崇“推理模型”(o1)。这种模型利用“思维链”技术,能像苏格拉底一样自我反思,解决复杂的科学难题。但这需要巨大的算力,而且反应很慢。
对于普通用户来说,用o1写一封邮件简直是灾难——太慢了。用户想要的是4o那样的“秒回”和“懂我”。
GPT-4o在内部能力评估(科学或推理)上虽然没有显著提升,但却在LM Arena上大受欢迎,因此获得高层的青睐。这意味着,商业上对“用户满意度”的追求,已经压倒了研究人员对“真正智能突破”的执着。
![]()
(图片由AI生成)
派系博弈也意味着明年1月份发布新模型也像走钢丝。更好的图像、更快的处理速度和个性化或成终止警报的关键。
如果研究派拖后腿,产品派或将主导延长“警报”时间。
4. 理想的坍塌:从研究机构到“宣传机构”的蜕变
如果说产品方向的争论还在商业逻辑的范畴内,那么关于学术诚信的指控则更加触目惊心。
据《连线》报道,OpenAI变得越来越像一个“宣传机构”,而非客观的研究机构。四位知情人士透露,公司开始刻意回避发布关于AI负面经济影响的研究报告。
今年9月份,公司经济研究团队的一员汤姆·坎宁安(Tom Cunningham)离职。他在告别信中直言不讳:在进行严谨分析与充当OpenAI事实上的“倡导部门”之间,张力越来越大。
简而言之,OpenAI似乎不再欢迎那些指出“AI可能导致大量失业”的研究,转而偏爱那些能证明“AI提升效率、创造价值”的数据。
最近公司发布的一份报告就是典型:其中大肆宣扬企业用户每天因AI节省了40到60分钟时间,却对潜在的劳动力替代风险避而不谈。这一立场与竞争对手Anthropic形成了鲜明对比。后者的CEO曾直言不讳地警告,AI到2030年可能会自动化一半的白领工作。
![]()
(图片由AI生成)
OpenAI首席战略官Jason Kwon对此的辩解颇具玩味:“我们不仅是研究机构,更是全世界的主角……我们不仅要提出问题,还要构建解决方案。”
甚至连新任首席经济学家亚伦·查特吉(Aaron Chatterji)的汇报线也颇具深意,他是向首席全球事务官克里斯·莱恩(Chris Lehane)汇报工作。这位主管公司政策的副总裁曾是克林顿总统的特别顾问,也是帮助Airbnb在旧金山击败监管法案的操盘老手。这释放了一个明确信号:在OpenAI,经济学研究不再是纯粹的学术探索,而是政策和公关的一部分。
5. 结语:AI巨头正在重蹈覆辙
OpenAI正在经历的,或许是每一家硅谷巨头都无法逃脱的宿命。
这让人不禁想起当年的Facebook。为和TikTok竞争,Meta疯狂在Instagram应用中推行Reels;为了追求用户时长,算法被设计成不断推荐最能刺激情绪的内容,最终引来青少年用户的心理健康危机。
![]()
(图片由AI生成)
非营利组织Common Sense Media创始人吉姆·斯泰尔(Jim Steyer)就此发出灵魂拷问:“社交媒体多年来对参与度的优先追求,引发了大范围的心理健康危机。真正的问题是,AI公司会从社交媒体公司的悲剧性错误中吸取教训吗?”
“红色警报”终将解除,但OpenAI的灵魂拷问才刚刚开始。随着2026年1月新模型的发布,我们或许会看到一个更强大、更懂你的ChatGPT,但也可能看到一个更商业化、更缺乏原则的“产品”。
![]()
(图片由AI生成)
当理想主义的光环褪去,OpenAI是否会沦为又一个为了财报数字而奔命的硅谷巨头?
这场关于技术与伦理的拉锯战,远未结束。
