与AI杀死软件相比,一个更为重大的问题终于浮现了:AI能否自主决定对人类发起致命的攻击。
AI最大的应用场景,其实是在军事领域——它可能用来自主决定对人类的致命攻击。大国手中掌握的AI技术,正在逼近这个边缘。
Anthropic公司的大模型Claude被用于美国军方抓捕委内瑞拉前总统尼古拉斯·马杜罗的行动中,该军事行动包括对首都加拉加斯的多个地点的轰炸。
一般来说,在这类行动中,Claude用来支持Palantir公司,这是一家国防部和美国安全与执法部门的AI供应商。
突袭行动后,Anthropic想搞清楚,在这类涉及到致命攻击的军事行动中,Claude是如何被使用的。结果,他们最关心的问题都被回避了。除了就严格技术问题进行的例行讨论外,没有与任何行业合作伙伴(包括Palantir)讨论过Claude在具体行动中的使用情况。
Anthropic也不愿意谈及Claude被用于什么具体的军事场景——不管是不是机密的,却声称任何民营或者政府的使用,都要遵守其使用政策(Usage Policy),并且与合作伙伴密切合作,以确保遵守。
![]()
Claude的使用政策节选, 来源:Anthropic官网
Anthropic于2025年夏与五角大楼签署了个价值2亿美元的合同,其创始人阿莫迪(Dario Amodei)一直公开表示他最担心的两件事:AI自主决定的致命行动,以及对本国公民的大规模监控。但美国国防部长赫格塞斯(Pete Hegseth)表示,五角大楼不会采用不能打仗的AI。之前,OpenAI与Gemini合作,开发了一个面向军方人员的平台,是一个军方定制版的ChatGPT。
本周二上午,赫格塞斯与阿莫迪在五角大楼举行会议。阿莫迪要求五角大楼采取适当的措施满足他的两个条件,但赫格塞斯坚持合法使用,双方不欢而散,赫格塞斯随即发出了威胁。
如果Anthropic在周五下午5点01分前未能与国防部达成一致,赫格塞斯称将援引《国防生产法》,强制军方使用Claude;并将Anthropic列为供应链风险企业,此举将危及其政府合同,而且将可能会影响美国所有政府项目承包商与Anthropic的合作。
五角大楼的愤怒,突显出Claude大模型对于军方的重要性。Claude目前是唯一在军事机密系统中运行的商业模型,而且双方已经展开合作了,那他们为什么闹到要翻脸的地步?我们专门问了下Claude自己,回答如下:
矛盾的核心在于由谁来控制AI “安全护栏”。五角大楼希望加入一条笼统的“所有合法用途”条款——意味着军方可以将 Claude 用于任何法律允许的用途,而 Anthropic 无权对具体用例说“不”。Anthropic 已同意允许广泛的军事用途,但明确划出了两条红线:不会允许 Claude 被用于对美国公民的大规模监控,也不会允许 Claude 被用于全自主武器(例如无需人工最终决策就能开火的无人机)。阿莫迪曾公开撰文表示,他最担心的是一小群人能够在不需要其他人配合的情况下“操纵一支无人机军队”。
五角大楼同时与埃隆·马斯克的 xAI 公司签署了一份协议,以将其 AI 模型 Grok 引入机密网络——xAI 毫无附加条件地接受了“所有合法用途”的要求。然而,官员们私下承认,在最关键的一些应用上(包括进攻性网络能力),Claude 被认为比 Grok 更为出色,替换 Claude 将是一项庞大且艰巨的工作。
本质上,这场风波是一个试金石,它将定义未来若干年 AI 在国家安全领域中的角色:私人 AI 公司能否坚持对其技术应用设定道德边界,还是最终由政府来一锤定音?
彼得.蒂尔、马斯克等PayPal黑帮,硅谷的自由意志义义者圈子,及其安插在白宫及相关部门的官员,一直对Anthropic不满,阿莫迪公开主张对AI公司进行监管,被这些“加速主义”者视为意识形态上的反对者。
阿莫迪公开表达的担心是,由前沿人工智能控制的自主致命武器,将比大多数人预想的更快出现,但目前的模型尚未为此做好准备。对Anthropic而言,这些问题关乎原则。其他前沿实验室的研究人员也愿意秉持类似原则。
此时,马斯克的xAI站出来了,很快与五角大楼达成了合作。实际上,在SpaceX与xAI合并之后,已经有一批华人联合创始人和技术骨干宣布离开xAI,马斯克攻击阿莫迪对华的鹰派言论,试图把种族视角的注意力,转向其竞争对手。
前白宫科技政策办公室高级政策顾问、《AI行动计划》参与起草者之一鲍尔(Dean W. Ball)认为,对于美国国防部而言,也有一个原则问题:军方对技术的使用应始终仅受美国宪法或法律的约束。或许有人会对此提出异议(政府也像其他人一样签订合同),但这一原则本身是合理的。由一家私营公司来监管军方对人工智能的使用,听起来也不太妥当。他认为,军方有三种选择:
1. 取消与Anthropic的合同,并寻找其他(理想情况下是几家)前沿实验室合作,如xAI。
2. 将Anthropic认定为供应链风险,这将禁止所有其他国防部供应商(即美国大部分上市公司)在履行国防部合同时使用Anthropic的技术。据我所知,这项权力仅用于对付外国敌对公司。启用这项权力将使Anthropic公司损失惨重——甚至可能相当惨重——并让投资者对该公司是否值得投资进行下一轮扩张产生极大的怀疑。资金原本就是一大制约因素,而这项权力更是雪上加霜。对于Anthropic公司而言,这可能是生死攸关的选择。
3. 他们可以启动《国防生产法》第一章,该法案旨在战争和紧急情况下对经济进行指挥和控制。这在法律上非常模糊,恕我直言,我相当肯定此举会对政府产生反作用,最终导致法院限制《国防生产法》的使用。
鲍尔认为,方案1是最佳选择。“这一点毋庸置疑,我本人也和国防部一样,对私营企业控制军方技术使用这一原则性问题深表担忧。”对Anthropic这样的企业发出威胁,会对美国的商业环境造成了损害。如果真的惩罚了Anthropic公司,这将是地球上任何政府所能想到的最严厉的人工智能监管措施,而这一切都出自一个标榜强烈反对人工智能监管的特朗普政府之手。“这就是现实。一个人的规章制度可能是另一个人的国家安全必需品。”
在大国地缘竞争的时代,AI被视为一种胜负手级别的技术,国运级的技术。冷战时期,超级大国的核武器起到了这样的作用,但最终建立起了一整套控制风险的机制,包括大国都建立确保互相摧毁的核武器库,以一种恐怖均衡约束彼此不敢动用核武器,并且建立了军控和核查机制,核不扩散机制,努力让原子能可以和平利用,等等。
AI与核武器不同,它正在迅速走向自主决策 ,进入到人类难以控制的境地,可以控制大大小小的系统,它可以应用在无数人类难以控制的场景中,包括战场和战争中,它有可能独自做出决策和采取行动。而且,人类手中一旦有了威力巨大的武器,恐怕最终都会用的。
等到到五角大楼本周五下班时,看下会发生什么事情吧。
参考:
https://www.anthropic.com/legal/aup
https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17
https://www.nytimes.com/2026/02/24/us/politics/pentagon-anthropic.html?unlocked_article_code=1.OlA.qJam.PlK1o8jreQD4&smid=url-share
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.