一边公开力挺Anthropic,痛批五角大楼施压;一边转头就签下军方协议,把模型部署到涉密网络。
奥特曼和OpenAI的12小时光速反转,让AI行业的伦理之争彻底变味。
同样的安全底线,为何Anthropic遭封杀,OpenAI却被“特殊对待”?
一、12小时极限反转,从声援到签约
剧情的反转快得让人措手不及。
就在公开支持Anthropic不到12小时,OpenAI CEO奥特曼在社交平台连发三条相同帖子,高调宣布:OpenAI已与五角大楼达成协议,将AI模型部署到军方机密网络中。
而在此之前,奥特曼还在公司内部备忘录和电视节目中双重表态:“AI不应用于大规模监控或自主致命武器,这是我们的底线”“五角大楼不该用法律威胁AI公司”,甚至直言“信任Anthropic,认可他们对安全的重视”。
这种前后矛盾的操作,瞬间引爆舆论。有网友犀利吐槽:“刚说有红线,转头就把模型送进军方机密网络,原则在合同面前不堪一击”;还有人质疑:“同样是坚持安全底线,Anthropic被封杀,OpenAI却签约,这难道不是双标?”
二、同样的底线,不同的操作
奥特曼在声明中特意强调,这次合作没突破安全红线。
协议明确写入两条核心原则:一是禁止用于国内大规模监控,二是使用武力(包括自主武器系统)必须由人类承担责任,五角大楼已同意这些原则,并体现在法律和政策中。此外,OpenAI还会搭建技术防护措施,模型仅部署在云网络,不涉及飞机、无人机等军事“边缘系统”。
但这两条原则,恰恰是Anthropic此前坚守、并因此遭封杀的核心诉求。同样的底线,为何换来截然不同的结果?
据《财富》杂志披露的消息,Anthropic与五角大楼谈判破裂,除了条款分歧,还因为CEO达里奥·阿莫迪的一些言论和博客文章“冒犯”了军方领导层。
而OpenAI则选择了更灵活的合作方式:不把约束留给企业自主判断,而是通过援引具体法律和政策,将安全条款明确写入合同,让五角大楼更容易接受。
更值得注意的是,OpenAI保留了更多控制权,比如可以自主构建“安全防护系统”,模型拒绝执行的任务,政府不能强迫。这种“有条件的妥协”,让合作双方都有了台阶。
三、AI行业格局生变,妥协与坚守的分岔路
这场反转背后,是AI行业在权力与利益面前的艰难抉择。
一边是Anthropic的强硬坚守。即便被特朗普下令全面封杀、列为“国家安全供应链风险”,公司仍明确表示不会退让,甚至准备提起诉讼维护自身权益。
作为从OpenAI出走的“安全派”代表,Anthropic创始人阿莫迪与奥特曼早有理念分歧,前者坚持安全优先,后者更倾向商业落地,这次事件让两家公司的对立彻底公开。
另一边是OpenAI与xAI的顺势入局。马斯克旗下的xAI此前已签署协议,同意军方“所有合法用途”的要求,成为五角大楼的备选;而OpenAI的加入,让军方有了更成熟的AI方案。
有消息称,五角大楼原本与Anthropic有价值2亿美元的合作,如今这部分订单大概率会流向OpenAI。
但争议并未平息。网友们最大的疑问是:战争场景复杂多变,“人类对武力负责”的条款如何落地执行?一旦模型被用于关键军事决策,谁能真正监督底线不被突破?
这场12小时的反转,早已超越单纯的商业合作争议。它暴露了AI伦理的脆弱性——同样的原则,换一种沟通方式就能被接受;也揭示了行业的现实:在巨大的权力和利益面前,纯粹的坚守越来越难。
未来,AI公司该如何平衡商业发展与伦理底线?五角大楼对不同企业的“差异化标准”会否成为常态?这些问题,远比一份合作协议更值得行业深思。
毕竟,AI技术的底线,从来都不该是谈判桌上的妥协产物。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.