快速阅读: Anthropic宣布放弃其旗舰安全政策RSP的核心承诺,理由是竞争对手不受约束地向前冲,单方面坚守没有意义。这不是技术问题,而是一个关于道德承诺在商业压力下能撑多久的古老故事。
该图片可能由AI生成![]()
2023年,Anthropic立下一个听起来很认真的誓言:除非能提前确认安全措施到位,否则绝不训练新模型。当时,他们把这个“负责任扩展政策”(RSP)当作与OpenAI切割的核心标志,是公司存在的道德地基。
两年后,这块地基悄悄被撤掉了。
首席科学官Jared Kaplan的解释非常坦率,坦率到有点令人不舒服:“我们感觉,如果竞争对手在全速前进,单方面作出这样的承诺并没有什么意义。”
这句话的另一种读法是:我们本来想当好人,但好人活不下去。
这是经典的囚徒困境。每个人都知道最优解是合作,但只要有一方选择背叛,其余所有人的理性策略就是跟着背叛。Anthropic不是第一个走这条路的,也不会是最后一个。Google曾有“不作恶”,OpenAI曾有“非营利使命”,现在轮到Anthropic的RSP。
有观点认为,此次放弃承诺与五角大楼向Anthropic施压有直接关联。但更准确的说法是,Pentagon之争针对的是现有模型的使用权限,而RSP涉及的是未来模型的训练边界,是两件事。只是两件事都在同一段时间里发生,难免让人觉得Anthropic正在全线溃退。
值得注意的是,这场讨论里几乎没人相信Anthropic“落后于OpenAI”这个前提。GPT-5在许多重度用户眼中并不算成功,Claude在开发者和企业市场的口碑反而更稳。这让Kaplan那句“竞争对手在狂奔”听起来更像借口。
讨论中另一个被反复提及的声音是:大家把太多精力花在科幻式的末日威胁上——生化武器、核武器、AI失控——反而集体忽视了一个正在发生的现实问题:大量初级岗位正在被快速消解,而Anthropic从来没有认真回应过这件事。
有网友提到,真正的风险不是好莱坞剧本,而是找不到工作的人越来越多,安全网越来越薄,某一天积累的压力会以谁也预料不到的方式爆发。
Anthropic创立之初,是一批从OpenAI出走的人,理由正是对安全理念的坚持。这个起源故事现在读起来有一种特别的讽刺感。
现在的问题不是Anthropic会不会继续做安全研究——他们大概会的。问题是,当一家公司连自己设定的承诺都可以随时收回,“我们比别人更负责任”这句话,还剩下多少分量。
简评:
我们见证的不是一家公司的堕落,而是一种幻觉的破灭:原来根本不存在“负责任的AI巨头”这种生物。Google放弃了“不作恶”,OpenAI放弃了“非营利”,现在Anthropic放弃了RSP——这不是多米诺骨牌,这是同一块骨牌反复倒下。真正值得追问的是:为什么我们每次都信?也许人类需要一个“有良心的科技公司”神话来安慰自己,就像需要睡前故事一样。故事的结局永远是——狼来了,但讲故事的人已经拿着钱跑了。
www.reddit.com/r/ClaudeAI/comments/1rdwdld/time_anthropic_drops_flagship_safety_pledge
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.