![]()
北京时间2月28日,OpenAI CEO 山姆·奥尔特曼(Sam Altman)发文称:OpenAI与美国战争部(“Department of War”,该称呼源自特朗普时代的一项行政命令)达成协议,将模型部署到他们的机密网络中。
奥尔特曼强调,OpenAI最重要的两条安全原则是:禁止在国内进行大规模监控,以及人类对武器的使用负有责任。美国战争部认同这些原则,并在法律与政策中予以体现。
戏剧性的前文是,作为OpenAI的“死对头”,Anthropic刚刚因模型安全问题与美国白宫及战争部发生冲突,而上述两大安全核心问题,正是双方僵持的焦点。
同样的安全红线,有人决裂,有人签单。
![]()
边声援边截胡
Anthropic与美国官方之间围绕安全问题的谈判,自2月中旬便陷入僵局。
经过多轮谈判,战争部向Anthropic CEO 达里奥·阿莫迪(Dario Amodei)下达最后通牒:Anthropic 必须在2月27日前签署协议,授予军方完全访问权限,否则将面临合同终止及被列入“供应链风险名单”的风险。
2月26日,达里奥在公开声明中明确拒绝了战争部的要求,并强调将AI用于致命性自动武器或国内监控“超出了当今技术安全可靠运行的范围”,公司无法“违背良知”达成协议。
于是在2月27日,美国总统特朗普方面发动面向Anthropic的封杀。
27日凌晨4:47,特朗普在个人社交平台上发文称,美国不允许一家激进左翼公司来决定军队如何打仗。Anthropic试图强迫美国战争部服从他们的服务条款,而非美国宪法。因此,“我指示美国政府所有联邦机构立即停止使用Anthropic的技术。我们不会再与他们做生意。”特朗普称。
5:35,美国白宫官方账号在社交平台转发上述表达内容的截图。6:14,美国战争部部长皮特·黑格塞斯(Pete Hegseth)发文称,战争部必须完全、不受限制地访问Anthropic大模型,以实现所有合法防御目的。但Anthropic试图将硅谷意识形态置于美国人民生命安全之上。
9:24,Anthropic官方发文回应皮特·黑格塞斯的观点:皮特称他正指示战争部将Anthropic列为供应链风险对象。实际上这一举措是在双方谈判数月后做出的,此前双方在关于如何合法使用Anthropic模型的两个核心请求上僵持不下——大规模对美国民众的国内监控,以及全自主化武器。
Anthropic方面强调,公司已尽最大诚意与战争部达成协议,明确支持AI在国家安全领域的所有合法用途,且上述两项例外情况尚未对任何政府事务产生影响。
彼时,OpenAI与奥尔特曼仍支持Anthropic对安全原则的坚持。前OpenAI联合创始人伊利亚・苏茨克维尔(Ilya Sutskever)也声援称:Anthropic没有退缩,这非常好,OpenAI也采取了类似立场。未来,类似的严峻局势将更加严峻,相关负责人必须挺身而出,竞争者之间必须放下分歧。
硅谷AI行业人士对Anthropic的支持浩浩荡荡,直至10:56,奥尔特曼发文宣布,OpenAI与美国战争部达成合作。
![]()
同样的安全红线
梳理OpenAI与Anthropic的表达内容,核心重点均聚焦于两大安全问题——大规模监控与全自主化武器。只是吊诡之处在于,Anthropic因坚持安全原则而被“拉黑”,OpenAI“截胡”订单并强调美国战争部尊重安全问题。
奥尔特曼称,“战争部展现出对安全的深切尊重,以及与合作伙伴携手实现最佳结果的意愿。我们正要求战争部向所有AI公司提出同样的条款,我们认为每个人都应乐意接受。”
对此表达,有网友在评论区发出疑问表情包,另一位网友表示:要么是战争部对OpenAI与Anthropic的安全标准不同,要么是奥尔特曼在这条推文里误导了读者。鉴于奥尔特曼的过往经历,该网友更倾向于后者。
据Anthropic方面描述,坚持两项安全原则的具体原因包括:当前前沿AI模型的可靠性不足以应用于完全自主武器。允许这种方式将危及美国作战人员与平民安全。其次,公司认为对美国人民的大规模国内监控将构成对人民基本权利的侵犯。
在这样的背景下,Anthropic认为自身被列为供应链风险对象并不合理,该做法历来仅针对美国对手,从未公开应用于任何一家美国公司。Anthropic是首家在美国政府机密网络中部署模型的前沿人工智能公司,自2024年6月以来一直为美国作战人员提供支持,并强调完全有意愿继续这样做。公司将通过法律途径挑战任何供应链风险的认定。
在OpenAI截胡与美国战争部合作协议之前,包括565名Google员工、93名OpenAI员工共同签署了公开信《We Will Not Be Divided》(我们不会被分裂)。据公开信描述,五角大楼正与Google及OpenAI谈判,试图促使他们同意Anthropic此前拒绝的条件,签署该公开信旨在促进公司之间共同理解与团结。
![]()
“希望负责人能放下分歧,团结一致,继续拒绝战争部要求使用大模型进行国内大规模监控和自主化武器的许可。”公开信内容显示。
就在公开信签署次日,奥尔特曼便与美国战争部牵手。而此次围绕大模型使用安全原则所引发的冲突,本质暴露的是AI时代,技术伦理与国家利益的碰撞,以及在人工智能飞速发展的商业利益面前,AI安全原则很有可能变为柔性约定。
OpenAI刚刚完成1100亿美元融资,Anthropic在2月上旬披露300亿美元融资。相较OpenAI的大规模资本投入与高算力消耗,Anthropic保持着更可控的投入节奏与更快的ARR(年化经常性收入)增速,而OpenAI也在近期主动调整,推动成本结构趋于务实。(第一财经)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.