一边是手握尖端算法的科技先锋,一边是执掌国家机器的军事巨头。当“代码安全”撞上“军事指挥权”,一场关于AI控制权的法庭对决,正揭开未来战争模式的冰山一角。
这场纠纷源于Anthropic开发的旗舰大模型 Claude 进入美国五角大楼(Pentagon)机密网络后的控制权归属。五角大楼此前公开质疑,Anthropic 在其军事化部署的 AI 系统中隐藏了“远程自毁开关”。军方担心,一旦公司认为军事行动违反了其“企业价值观”,随时可以从后台让系统瘫痪。
![]()
对此,Anthropic 表现得颇为委屈。他们在诉状中明确表示,交付给军方的 AI 系统是“静态模型”。这意味着,模型一旦通过离线环境部署在军方内部网络,就如同泼出去的水,Anthropic 的技术人员既无法登录系统进行修改,也无法通过远程指令使其失效。所谓“操作否决权”,在技术逻辑上并不存在。
为什么五角大楼会对一家美国本土公司如此戒备?根源在于双方在“AI伦理”上的南辕北辙。
Anthropic 的底线:作为一家以“安全”为立身之本的公司,Anthropic 一直坚持严苛的 AI 宪法。他们明确拒绝将 Claude 用于大规模监控和全自动武器系统(即“杀手机器人”)。
![]()
五角大楼的诉求:军方则强调系统必须服从“所有合法的军事用途”。在战火纷飞的博弈中,军方不希望手中的“智能利剑”在关键时刻因为触发了某种“道德算法”而拒绝执行任务。
这种深层矛盾在今年早些时候彻底爆发。五角大楼随后祭出了大杀器:将 Anthropic 标记为“供应链风险”。这个标签通常只给那些与敌对大国有关联的企业。这一纸禁令,不仅断绝了 Anthropic 与国防部的合作,更让其在整个联邦政府采购名单中面临被“封杀”的窘境。
面对政府的铁拳,Anthropic 选择拿起法律武器。目前,这场法律战呈现出戏剧性的“南北分歧”:
华盛顿特区法院:态度强硬,驳回了公司要求暂停“风险标签”的申请,理由是涉及国家安全,行政分支拥有较大的裁量权。
![]()
加利福尼亚州法院:偏向企业,暂时阻止了行政指令的执行,认为政府在缺乏实质证据的情况下剥夺企业的经营权存在程序瑕疵。
由于两地法院判决相悖,Anthropic 目前陷入了一种奇特的边缘地带:它依然不能触碰五角大楼的订单,但暂时保住了与其他民政部门合作的火种。
这场被称为“罗生门”的纠纷,实际上反映了人类社会在进入 AI 军事化时代后的集体焦虑。
首先是技术黑箱带来的不信任感。即使 Anthropic 坚称没有后门,但对于军方而言,无法理解、无法完全掌控的代码就是潜在的威胁。在战争这种容错率为零的场景下,任何来自第三方的限制都被视为对主权的侵犯。
![]()
其次是科技公司权力的扩张。当私人企业的算法逻辑开始左右军事决策时,究竟谁才是战争的“统帅”?是按下按钮的将军,还是编写代码的程序员?特朗普总统对此的激烈抨击——称其为“左翼疯子”运营的公司——虽然带有浓厚的政治色彩,但也折射出传统政权对新兴科技巨头试图“绑架”国家政策的极度不安。
Anthropic 与五角大楼的决裂,标志着 AI 技术“纯真年代”的终结。
这不再仅仅是关于“自毁开关”的技术争论,而是一场关于技术伦理、国家安全与商业自由的终极博弈。在未来,随着 AI 深度介入国防核心,如何建立一套既能发挥算法威力,又能确保指挥权绝对统一的机制,将是摆在所有国家面前的难题。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.