2023年ChatGPT月活破亿的速度,比TikTok快了7倍。但鲜有人知的是,这其实是OpenAI第四次押注技术路线——前三次,他们差点把自己押没。
2015-2018:第一波,强化学习的「赌场幻觉」
OpenAI成立之初,强化学习(Reinforcement Learning,让AI通过试错学习策略)是唯一赌注。他们做出了击败Dota 2世界冠军的OpenAI Five,烧了数千万美元算力。内部有人把这比作「在拉斯维加斯玩21点——赢了满堂彩,但庄家规则随时会变」。
问题是,强化学习需要海量标注环境和明确奖励函数。现实世界 messy 得像火锅底料,根本找不到「赢游戏」这种清晰目标。2018年,OpenAI Five项目收缩,核心团队转岗。这是第一次路线撤退,没对外声张。
2018-2020:第二波,机器人手臂的「物理诅咒」
转投机器人领域,OpenAI开发出能解魔方的机械手。演示视频播放量破千万,评论区全是「终结者要来了」。但内部数据很骨感:单次训练成本够买一辆特斯拉,成功率却卡在60%——比人类差远了。
物理世界的摩擦力、光照变化、零件公差,每个变量都是bug。Sam Altman后来承认,「我们低估了现实世界的熵增速度」。2020年,机器人团队裁员75%,剩余人员并入研究组打杂。第二次押注,筹码清空。
2020-2022:第三波,多模态的「早产困境」
GPT-3在2020年发布时,OpenAI已经看到语言模型的潜力。但他们同时押了另一条线:DALL-E图像生成。资源被撕成两半,两边都饿得半死。
DALL-E 1生成的人脸像融化的蜡像,GPT-3的上下文窗口只有2048个词(约1500汉字)。「我们当时觉得多模态是下一代,」一位前研究员回忆,「但技术成熟度差了两个数量级。」2022年中,DALL-E团队被整体并入GPT组,图像生成降为语言模型的「插件功能」。第三次路线合并,以语言模型吞并多模态告终。
2022至今:第四波,Scaling Law的「All-in」
ChatGPT的爆发不是顿悟,是幸存者偏差。当Google还在纠结Bard会不会损害搜索广告时,OpenAI已经没有退路——前三波烧掉的钱,逼得他们必须让GPT-3.5「足够好用」。
Scaling Law(规模定律)成了唯一信仰:参数越多、数据越多、算力越多,能力越涌现。这像德州扑克里的「短筹码策略」——牌面一般,但All-in的压力让对手先怂。Google有搜索、有广告、有DeepMind,包袱太重;OpenAI只剩这一手牌,反而打得出去。
四次浪潮的隐藏成本:组织创伤
频繁转向留下了后遗症。一位2017年入职的工程师描述:「每次All-hands(全员大会)都在庆祝新方向,但没人提上一个方向为什么死。三年后,老员工学会了一件事:别问。」
这种文化催生了两个结果。一是极端的保密倾向——GPT-4训练细节至今成谜,连论文都省略了架构图。二是「演示优先」的产品节奏:ChatGPT上线时根本没有联网功能,知识截止2021年,但对话流畅度足够让投资人点头。
对比Google的PaLM 2:技术报告写了91页,API开放慢半拍,功能迭代像挤牙膏。OpenAI的「半成品策略」反而赢了——用户容忍了幻觉和偏见,因为替代品更差。
牌局还没结束:第五波在哪?
2024年的OpenAI面临新压力。GPT-4的训练成本据传超过1亿美元,推理成本让API定价成了算术题。Sam Altman在YC校友会上被问到「下一步是什么」,回答很暧昧:「可能是Agent(能自主执行任务的AI系统),可能是多模态,也可能我们全猜错。」
Agent方向的尝试已经暴露问题。GPTs商店上线三个月,头部应用日活不过几千——用户发现「定制GPT」更像高级搜索,而非真正的任务执行。多模态的Sora视频生成惊艳,但720p分辨率、20秒时长、无法物理一致,离商用还差着一代芯片。
更隐蔽的风险是数据墙。高质量文本数据预计在2026年耗尽,合成数据(让AI生成训练数据)的边际效益正在递减。OpenAI的解法是用GPT-4筛选网页内容,但「AI教AI」像近亲繁殖,误差会累积。
四家巨头的四种押注
OpenAI的四次浪潮,其实是行业的缩影。Google DeepMind选了「安全优先」——Gemini的延迟发布、过度审查,换来的是口碑崩盘。Anthropic拿了Amazon的40亿美元,走「宪法AI」路线,用规则约束模型,但Claude 3的代码能力仍落后GPT-4一截。Meta最激进,Llama系列开源换生态,却被质疑「用社区免费劳动力测试漏洞」。
四家公司的技术路线,像极了2007年的智能手机前夜:iPhone还没发布,诺基亚押Symbian,黑莓押键盘,微软押Windows Mobile。当时没人能确定「全触屏+应用商店」是唯一答案,直到有人赌对。
OpenAI的筹码已经押在桌上。2024年Q1,他们的年化收入突破34亿美元,但训练下一代模型的成本可能翻倍。Sam Altman最近频繁会见台积电和三星高管——他在找更多算力,也在找更多退路。
一位离开OpenAI的研究员在Substack写道:「我们曾以为AGI(通用人工智能)是登山,找到正确路线就能登顶。现在觉得更像是冲浪——等浪来,浪走了就趴下,下一波可能更高,也可能把你拍进海底。」
第四波还在浪尖上。但浪的形状,从来由海底地形决定,而非冲浪者的意愿。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.