专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
因为追问自家智能系统在美军抓捕行动中扮演了什么角色,正筹备上市的硅谷明星Anthropic就被打入了美国国防部的黑名单。
2月底白宫下令全面停用Anthropic的人工智能技术,并将其列为供应链国家安全风险。
事件起因是军方要求技术供应商接受无条件合法使用条款,遭到拒绝后导致双方彻底决裂。
这起争端暴露了前沿科技公司与国家机器在技术武器化边界上的根本分歧,迅速引发了整个科技界的阵营分裂与利益重组。
委内瑞拉抓捕行动引发的控制权之争
一切的源头要追溯到2025年7月的一份商业协议。
当时Anthropic与美国国防部签署了一份金额上限达2亿美元的合同。
Claude由此成为首个部署在五角大楼机密网络里的前沿智能模型。
国防部内部人士当时甚至评价其他模型在技术上远远落后。
这并不是一次毫无保留的技术移交。合同附带了明确的可接受使用政策。
里面写明了两条核心限制:不得用于对美国公民的大规模监控;不得用于全自主武器系统,也就是决策链上没有人类参与的自动化杀伤行为。
双方在签署合同时相安无事。
引爆矛盾是2026年1月,美军在委内瑞拉首都加拉加斯抓捕前总统马杜罗的军事行动。
Claude通过数据公司Palantir的API参与了这次抓捕行动,主要负责处理情报数据。
![]()
行动结束后,Anthropic向Palantir追问了Claude在此次行动中的具体使用方式。
这种出于安全监管目的的询问,触碰了军方的逆鳞。
五角大楼将这一追问直接定性为越权干涉。
站在军方的角度,他们买下了一件工具,供应商就没有资格事后审查军事行动中该工具的具体用法。
就像你买了一辆车,汽车制造商不能天天打电话问你是不是把车开到了危险的战区。
矛盾的性质就此发生转变。
这已经跳出了单纯的商业合同条款之争,上升到了对前沿技术系统绝对控制权的争夺。
军方需要一台百分之百听从指令的超级大脑,而技术的创造者想要给这个大脑套上道德约束的缰绳。
五角大楼的最后通牒与全面封杀
为了彻底消除这种不可控因素,五角大楼开始向旗下所有人工智能供应商推行一个新的标准合同条款。
这个条款的名字叫所有合法用途。
具体含义十分直白,只要军方判定某项用途符合现行法律,供应商就不得设限,更不得干预。
对于这个要求,OpenAI、谷歌、xAI等巨头均表示接受。
Anthropic选择了拒绝。
他们给出的理由非常现实。合法这个词在当下的法律框架下边界太过模糊。
现行法律确实允许政府收集包括社交媒体内容、持枪证记录在内的所有公开数据。
在人工智能介入之前,这种收集受限于人力成本,规模有限。
一旦接入超级模型,数据处理速度和规模会发生质变。法律体系根本还没有为这种质变设置新的防护栏。
Anthropic坚持要求在合同里明确排除大规模监控和自主武器这两种用途。
五角大楼同样寸步不让。
2026年2月25日,国防部长Hegseth在五角大楼与Anthropic首席执行官Dario Amodei进行了当面会谈。
军方给出了清晰的选择题。
不接受新条款,就会面临合同终止、贴上供应链风险标签,甚至动用美国国防生产法来进行处置。
最后期限被设定在2月27日下午。
面对这种极限施压,Amodei在26日深夜公开声明绝对不会妥协。
![]()
五角大楼副部长Emil Michael在社交媒体X上进行猛烈回击,指责Amodei是说谎者,声称其患有上帝情结。
![]()
紧接着,特朗普在社交平台Truth Social发文。他下令所有联邦机构立即停止使用Anthropic技术,并给予六个月的过渡期。
![]()
接着,Hegseth正式宣布将Anthropic列为供应链国家安全风险。
![]()
![]()
这种标签往常只用于敌对国家的关联企业,用在一家美国本土公司身上实属罕见。
标签的威力在于其巨大的辐射效应。任何与美军有合同的承包商、供应商,都必须证明自己在涉军业务中没有使用该公司的产品。
面对这一封杀令,Anthropic并未屈服。
他们发布的官方声明中指出,Hegseth的声明范围超出了法定授权。
![]()
依据美国法典第10编第3252条的规定,法定授权只能限制承包商在国防部合同范围内使用Claude,根本无法延伸到承包商服务其他客户时的商业用途。
他们准备在法庭上挑战这一标签的合法性。
硅谷巨头的站队与分裂
这场争端像一块巨石砸入硅谷平静的湖面,迫使所有科技巨头和行业领袖表明立场。
以往在技术伦理与国家机器之间可以含糊其辞的地带,现在被彻底抹平。
社交平台X的掌控者马斯克旗帜鲜明地站在了军方一边。
他旗下的xAI宣布成为继Anthropic之后第二家接入军方机密系统的公司,并全盘接受了所有合法用途条款。
![]()
马斯克本人十分反感Anthropic的价值观,认为其模型调教迎合了特定的政治意识形态。
![]()
谷歌内部则爆发了员工抗议潮。
超过100名员工联名向首席科学家Jeff Dean请愿,要求为自家的Gemini模型设置与Anthropic类似的限制。
微软和亚马逊内部也出现了相同的请愿声音。
基层技术人员与企业高层在利益权衡上面临着巨大撕裂。
OpenAI的两位核心创始人物也表态。
联合创始人Ilya Sutskever在社交媒体上号召业界团结,赞扬Anthropic没有退让。
![]()
首席执行官Sam Altman也公开表态支持,称自己虽然与Anthropic存在分歧,但完全信任他们对技术安全的关注,并声称两家公司拥有相同的底线。
Anthropic估值约3800亿美元,年收入约140亿美元,正处在准备首次公开募股的关键期。
2亿美元的军方合同损失在账面上微不足道。真正让投资者担忧的是供应链标签对庞大企业客户群的潜在传导效应。
目前双方进入了长达六个月的过渡期,截止点在2026年8月底。
在这个窗口期内,Anthropic被要求继续提供服务并配合数据迁移。
军方急需在机密网络中找到替代方案。此前内部评价技术相对落后的Grok系统,成了填补空白的备选之一。
替代者入局与模糊的合法用途界限
就在行业为Anthropic的硬骨头精神击节叫好时,局势发生了一次极其突然的反转。
仅仅在表达支持12小时之后,Sam Altman宣布OpenAI与美国国防部正式达成协议,将自家模型部署进军方的机密网络。
![]()
这种无缝衔接的接盘行为在硅谷引发了巨大争议。
为了平息外界的质疑,OpenAI公布了与五角大楼协议的部分细节。
![]()
他们强调自己依然坚守三条红线:不得用于大规模国内监控;不得用于指挥自主武器系统;不得用于高风险自动化决策系统。
他们在技术部署上也做出了防御性设计。
所有模型仅在云端部署,绝不进入无人机等边缘设备。
具备涉密工作资质的OpenAI工程师将全程参与监控。
这种做法被网友辛辣地调侃为,机器绝不亲手开枪,只在空调房里优雅地递子弹。
OpenAI宣称他们没有签署无约束条款,而是依靠多层级的防护方式来确保技术不被滥用。外界依然从协议详情中看到了妥协的痕迹。
合同中明确写明,国防部可在符合适用法律、作战需求的前提下,为所有合法目的使用该系统。
这正是此前导致决裂的核心分歧点。
批评者认为,合法目的这种模糊的措辞根本经不起推敲,一旦现实需求发生变化,红线很快就会消失。
正如研究机构Depend Research的评论员所概括的那样,国家印发钞票,钞票流向企业,企业最终服从国家意志。
当技术的颠覆性力量足以影响地缘格局时,任何试图游离于国家机器掌控之外的尝试,都会遭遇最猛烈的校正。
技术本身并没有价值观,但掌握技术的人必须在利益与原则之间做出选择。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.