或许你还记得,在并不遥远的2023年11月,Sam Altman被自己的董事会投票解雇,又在5天内奇迹复活。当时全世界都把这当成一出硅谷宫斗剧来看,一个天才创业者被不懂事的学术派board赶走,又被市场的力量迎回来。多么励志。
直到昨天纽约客放出了那份迟到的尸检报告,我们才知道,原来那不是宫斗,是止损。董事会不是不懂事,是知道得太多了。
纽约客花了18个月,采了100多个信源,翻了200多页内部文件。标题很直球:「Sam Altman May Control Our Future — Can He Be Trusted?」 同一天,Altman自己发了份13页政策报告,把自己比作罗斯福,说要搞AI时代的New Deal。
一边是检察官在宣读起诉书,一边是被告在发表竞选演讲。
这个时间线,魔幻现实主义看了都要叹服。![]()
52页备忘录
这篇调查真正的杀伤力来自两份从未公开过的内部文件。
第一份是Ilya Sutskever在2023年秋天编的52页备忘录。Ilya当时还是OpenAI首席科学家,他不是在写投诉信——他是在编案卷。截图、通信记录、事实核对,一条一条地列。备忘录第一行:
「Exhibits a consistent pattern of lying.」
表现出系统性的撒谎模式。
第二份是Dario Amodei在OpenAI期间记的200多页笔记。Dario后来离开创办了Anthropic,我们一会儿再说这件事为什么重要。他的笔记浓缩成一句话:
「The problem with OpenAI is Sam himself.」
一个董事会成员的措辞更精确:「He's unconstrained by truth.」他不受真相约束。
Unconstrained by truth。不是「偶尔撒谎」,不是「有时不够坦诚」——是真相对他构不成约束力。就像万有引力之于光子,不是它在抵抗,是这个力对它不适用。
承诺1/5,兑现1%
纽约客列了一长串指控,但核心逻辑其实只有一条:Altman把安全承诺当成融资PPT用。
最典型的案例:OpenAI高调宣布成立「超级对齐团队」,承诺投入1/5的计算资源,防止AI导致「人类灭亡」。听起来很负责很壮观,投资人安心了,媒体写了,舆论买账了。
但四个内部人士告诉纽约客,这个团队实际拿到的算力是1-2%,跑在公司最老旧的GPU上。好卡留给了能赚钱的模型。
然后这个团队被解散了。
记者去问OpenAI:你们现在还有「存在主义安全研究人员」吗?
对方的回应我来来回回读了三遍:
「That's not, like, a thing.」
这句话的信息密度极高。翻译成中文就是:「那个...不算是...一个存在的事物。」
你想想这个逻辑链:先承诺1/5 → 实际给1% → 解散整个团队 → 被问的时候表示这个概念不存在。这不是食言,这是一种本体论层面的否认——不是我没做到,是这件事从来就不是一件事。薛定谔的安全承诺:你不去查的时候,它既存在又不存在。
2022年12月的事更离谱。Altman跟自己的董事会说GPT-4的争议功能都已通过安全委员会审批。董事会要求看文件。没有文件。因为那些功能压根没被审批过。
骗投资人还能理解为硅谷传统。但骗自己的董事会,这就像棋手试图作弊骗裁判——而裁判就坐在你对面看着你下棋。需要的不是勇气,是某种对现实的创造性理解。
Paul Graham的沉默
说一个我觉得被大多数人忽略的细节。
Paul Graham是YC的创始人,是当年亲手提拔Altman做YC总裁的人。纽约客引用了PG的原话:
「Sam had been lying to us all the time.」
Sam一直在骗我们。
但你猜怎么着?2024年5月,PG在X上专门发了一条帖子,语气还挺认真的:「我听够了说YC开除Sam的说法,来告诉你们真正发生了什么。」大意是我们没开除他,只是让他选YC还是OpenAI,他选了OpenAI。
![]()
私下跟同事说「他一直在骗我们」,公开替他洗地说「我们没开除他」。
我毫不怀疑PG知道自己在做什么。你亲手提拔的人后来证明是个说谎者,你有两个选项:承认自己的识人能力有问题,或者把整件事模糊化处理。PG选了后者。
纽约客出来之后,PG没有再发帖。
沉默。
这个沉默里面的信息量,比一万字的声明都大。因为如果纽约客的引语有误,PG一定会澄清——他可是最在乎公共叙事准确性的人。他没澄清,说明那些话确实是他说的。
甚至连微软高管都私下来了一句:
「I think there's a small but real chance he's eventually remembered as a Bernie Madoff- or Sam Bankman-Fried-level scammer.」
可能被记住为麦道夫或SBF级别的骗子。这话是合作伙伴说的。你的合作伙伴拿你跟庞氏骗局比,你品品这个信任度。
vibes
面对以上所有这些,Altman跟纽约客的回应值得裱起来。
「My vibes don't really fit with a lot of this traditional A.I.-safety stuff.」
我的vibes和传统AI安全不太搭。
Vibes。
这个词如果被收进商业史教科书,大概会出现在「企业高管面对严肃质疑时的最短有效回答」这个条目下。一个掌管着可能是人类历史上最强大技术工具的人,选择了一个连词性都模糊的词来回应为什么不重视安全。
这就好比核电站厂长在安全听证会上说「我跟铀235之间的chemistry不太对」。
他还说OpenAI会继续做「safety projects, or at least safety-adjacent projects」。你品品这个措辞降级——从safety到safety-adjacent。就像有人说「我爱你,或者至少,我对你有好感相关的情绪」。
同一天发的那份New Deal报告呢?卡内基基金会的人给了一句点评:「comms work to provide cover for regulatory nihilism.」——公关作品,给监管虚无主义打掩护。
到今天,Altman还没正式回应纽约客的具体指控。
也许他正在准备一份新的政策报告,标题大概叫「Why Being Unconstrained by Truth Is Actually Good for Humanity」。
出走的人赢了
现在说说为什么Dario Amodei的那句「The problem with OpenAI is Sam himself」格外值得回味。
因为写下这句话的人离开了OpenAI,创办了Anthropic,然后在收入上反超了OpenAI。
Anthropic年化收入300亿美元。OpenAI是250亿。
![]()
Epoch AI做过一张图,两条曲线的走势一目了然:Anthropic从10亿起年增长10倍,OpenAI只有3.4倍。在首次采购AI工具的企业里,73%选了Anthropic。
被安全问题逼走的人,做了一家更安全的公司,然后收入反超了逼走他的那家公司。
如果这是一部电影的剧本,制片人会说「太假了,现实中不会有这么工整的因果报应」。但现实的品味一向比好莱坞更刻意。
去年3月我就下了判断
其实不用等纽约客的调查。产品层面的投票早就结束了。
2025年3月3日,Claude 3.7发布当天,我在即刻上写过一句至今没改过的判断:「你应该选择、且只选择接了Claude 3.7的AI编程工具。」
![]()
到去年5月Claude 4出来,我的话更直接:「最强编程模型+最强Agent基建。Anthropic对模型的所有优化都是奔着To B做AI coding和让开发者建agent而去的。」
从Claude 3.5到3.7到4到4.5再到现在的Opus 4.6,Anthropic在AI编程和Agentic方向上不是领先,是碾压。GPT-5出来我试了,评价是「可以用用,但是别期待太多」。
YC最新的数据也很有意思:入营创业者52%选了Anthropic,首次超过OpenAI。一年前OpenAI还占90%以上。
每天用这些工具的人,身体是最诚实的。不需要Ronan Farrow花18个月来告诉你谁更好用。
边骂边用
到这里你可能觉得我在替Anthropic写软文。
不是的。我要说一句大实话。
Anthropic对中国用户的态度,在所有AI公司里大概是最差的。封号、限制访问、区域屏蔽,做起来比谁都积极。我身边的开发者群是这样的日常:上午骂Anthropic又封了一批号,下午打开Claude Code赶工写代码。
![]()
骂完继续用。这个行为模式如果被行为经济学家观察到,大概会写进下一篇论文:「论理性个体在产品质量与国别情感之间的帕累托次优选择」。但我们的说法更简单——真香。
你知道最好的工具在谁手里。你也知道对方不怎么待见你。但你没得选,因为差距不是benchmark上的那一丢丢距离,真的能不能顺利把事做完,你自己很容易有体感的。
所以纽约客这篇调查,安全的争论对我来说不是重点。坦白说,AI安全叙事离大多数中国开发者挺远的。我关心的问题简单粗暴:谁的模型好用?谁的API稳?谁能帮我把产品做出来?
但这篇调查揭示了一件更底层的事。
一个连自己的董事会都骗、连PG都说「一直在骗我们」的人——当他跟你说「我们的模型是最好的」「我们重视安全」的时候,你的信任折扣打几折?
Dario离开的时候,他可能只是想做一家不需要撒谎的AI公司。结果是:一个更诚实的组织,做出了更好的产品,赚到了更多的钱。
你可以说这是安全主义的胜利。我更愿意把它理解为一个极其朴素的商业逻辑——一个不需要花精力维护谎言的团队,可以把全部精力放在产品上。
谎言是有利息的。你骗了一个人,就需要记住你骗了什么;骗了十个人,你需要一个系统来管理你的谎言库。这大概就是OpenAI真正的技术债——不在代码里,在叙事里。
最后一个思想实验
把纽约客这篇报道里的名字换一下。Sam Altman换成任何一个中国科技公司创始人。连自己董事会都骗。前老板说他一直在撒谎。前同事用了sociopath这个词。合作伙伴拿他和SBF比。
中文互联网会是什么反应?
你猜怎么着,微博热搜大概能挂三天,知乎会产出两千个「如何评价」,B站鬼畜区会在48小时内完成所有二创。
但换成Altman就没事了。因为他头顶的title是「人类AI未来的掌舵人」,这个光环大到可以遮住一切。就像Anthropic对中国开发者的态度也是小事一样——产品好就行了嘛。
AI行业的现状就是这样:最好的产品来自一家不太欢迎你的公司,而那家看起来最欢迎你的公司,它的CEO不受真相约束。
锤子的充裕,对应的就是钉子的稀缺。如果你分不清自己是锤子还是钉子——那你大概率是钉子。
不过作为钉子,我们早就练出了一项核心竞争力:先用着,别的以后再说。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.