![]()
2月16日,Axios报道称,美国五角大楼正接近与人工智能公司Anthropic断绝业务关系,并可能将其列为“供应链风险”,此举将迫使所有与美军合作的供应商切断与该公司的联系。这一决定源于双方在AI模型使用限制上的长期分歧。
据Axios引述一名资深五角大楼官员透露,战争部长Pete Hegseth已“接近”做出这一决定。该官员表示:“拆解现有关系将是一场巨大的麻烦,我们会确保他们为迫使我们走到这一步付出代价。”这种“供应链风险”标签通常仅针对外国对手国家,此前从未用于美国本土科技企业。
分歧源于AI安全边界
争议的核心在于Anthropic的AI模型“Claude”的使用限制。Anthropic坚持要求其AI不得用于大规模监控美国公民,或开发无需人类干预即可部署的自主武器。该公司首席执行官Dario Amodei在达沃斯世界经济论坛上曾强调,AI应服务于人类福祉,而非成为“失控”的工具。
而五角大楼则要求AI合作伙伴允许“所有合法用途”,包括武器开发、情报收集和战场行动。报道称,经过数月艰难谈判,战争部已对Anthropic的立场感到“厌倦”。一名政府高级官员表示:“一切都在桌面上,包括缩减或完全切断与Anthropic的合作。”
合同价值2000万美元,曾用于重大行动
Anthropic与五角大楼的合作始于一项为期两年的2亿美元合同,涉及通过Palantir产品使用Claude AI。据报道,在今年1月成功抓捕委内瑞拉总统马杜罗的突袭行动中,美军就曾借助Claude进行辅助。
这一事件凸显了AI在现代军事中的关键作用,但也暴露了商业AI企业与政府需求之间的张力。其他三家AI公司已同意五角大楼的“无限制”条款,而Anthropic的拒绝让其成为焦点。
潜在影响巨大
如果Anthropic被正式列为“供应链风险”,将对其业务造成毁灭性打击。该公司估值已达数百亿美元,依赖政府和企业合同维持增长。分析人士指出,此举可能加剧AI行业的“国家安全”审查,同时推动更多企业调整AI伦理政策。
五角大楼首席发言人Sean Parnell回应称,战争部正在“审查”与Anthropic的关系。目前,双方谈判仍在进行中,但消息人士表示,Hegseth已准备好采取行动。
Anthropic尚未就此报道发表官方评论。该公司此前多次强调,其AI安全框架旨在防止滥用,而非阻碍合法应用。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.