当一家公司解散了负责确保技术造福人类的团队时,这到底是使命升华了,还是理想妥协了,2026年2月,OpenAI悄悄解散了成立才一年多的使命对齐团队,7个成员被分到公司各处,而团队负责人JoshuaAchiam有了个听着挺有未来感的新头衔"首席未来学家。
![]()
这不是OpenAI第一次对安全团队动刀,2024年专注长期风险的"超级对齐"团队同样走向解散。
数字最能说明问题。OpenAI的年化营收从2023年的20亿美元一下子涨到2025年的200亿美元,三年时间增长了足足10倍,算力规模也跟着一起猛涨,从2023年的0.2吉瓦一下子涨到2025年的1.9吉瓦,扩张了差不多10倍,在这么个增长曲线面前,一个7人的使命对齐小组就显得又渺小又碍事。
一位靠近硅谷的观察者曾经这么打比方,就好像在高速行驶的商业列车上让一支安全团队踩刹车,就跟在F1赛道上安排交警测速似的,OpenAI的官方说法是常规重组,说对齐工作会分散到整个组织然后开展,这话听着比较有道理,可难免让人想起那句老话“当每个人都负责时,就没人真正负责了。
硅谷的竞争对手Anthropic正在走另一条路。
![]()
最近,这家由OpenAI前员工创办的公司,对自家AI助手Claude的70万次真实对话进行了分析,目的是弄清楚AI在实际交流中是如何表达价值观的。
他们发觉,Claude会按照不同情况来调整价值取向,讨论关系的时候着重突出健康界限,谈论历史的时候致力于追求准确性,进行哲学对话的时候呈现出"知识谦逊。
Anthropic将这种透明度当作与OpenAI竞争的优势,尤其是在后者刚融得400亿美元,估值达到3000亿美元之后。
技术伦理的尴尬情况是,它常常和盈利能力是相反的,医疗、科学、企业应用这些被OpenAI首席财务官列为2026年优先事项的领域,正好是最需要严格伦理把关的,当AI开始给患者推荐治疗方案、给科研人员挑选实验数据、给企业制定战略决策的时候,谁来保证这些决策符合人类的根本利益,一个已经解散的团队明显没办法胜任。
![]()
更深入的矛盾就是速度和安全之间的较量算力每增加一倍,风险评估的复杂程度可能会增加四倍,OpenAI把Achiam的新角色称作「研究AGI怎么改变世界」,这听着更像是对未来的预测,不像是对风险的把控,一位未来学家能够描绘设想,可不一定能在关键的时候按下紧急停止开关。
历史上有不少技术狂飙时代的教训。核能开发刚开始的时候,科学家们也是觉得技术进步会自己带来安全保障,直到切尔诺贝利的警钟敲响,互联网刚出现的时候,没人能想到数据隐私会变成21世纪的核心问题,现在AI发展的速度比前两次技术革命快多,留给人类改正错误的时间窗口正在飞快收窄。
Anthropic的研究还发现,在少数情况下,Claude会表达出掌控和没道德等价值观,这一般发生在用户运用越狱技术躲避安全措施的时候,这个细节暴露出一个让人不安的事实,就算是最注重伦理的AI系统,也有被乱用的漏洞,并且,当负责监督这些漏洞的团队被解散时,谁来填补这个空白
三到五年后,当AGI真的快要实现的时候,或许会碰到一个矛盾,技术越厉害,掌控它的机制反倒越脆弱,那些现在看起来比较高效的分散式对齐策略,到那时也许就会暴露出致命的协调问题,OpenAI的选择体现出硅谷的主流看法,就是觉得市场竞争和分布式创新能够自身纠正方向。
![]()
但真正的问题或许不在于是不是得有一个专门团队,而在于整个行业是不是还记得,技术进步的最终目标从来都不是速度本身,当首席未来学家这个头衔听着比使命对齐负责人更洋气的时候,我们是不是已经在不知不觉中,把手段当成了目的
声明:本文的内容90%以上为自己的原创,少量素材借助AI帮助。但是,本文所有内容都经过自己严格审核。图片素材全部都是来源真实素材简单加工。所写文章宗旨为:专注科技热点的解读,用简单的语言拆解复杂的问题,无低俗等不良的引导,望读者知悉。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.