![]()
美国被曝在针对伊朗行动中使用Claude模型,但特朗普政府已决定停止采用Anthropic技术。OpenAI则加深与五角大楼合作,AI军用时代的规则之争火热化。
据外媒报道,美国在上周末针对伊朗的行动中使用了Anthropic公司的Claude人工智能模型,而且目前仍在继续使用。五角大楼尚未说明该AI工具的具体部署方式,但美国政府此前已经决定逐步停止使用Anthropic的技术。
美国总统特朗普上周五宣布,已下令联邦机构停止使用Anthropic的技术,并允许在六个月内完成替换。国防部长皮特·赫格塞斯(Pete Hegseth)同时将Anthropic认定为供应链风险,这一决定将迫使五角大楼及其承包商停止在国防用途上使用该公司的服务。
不过,国家安全新闻网站Defense One援引消息人士称,五角大楼可能需要三个月甚至更长时间,才能找到能够替代Claude能力的其他人工智能平台。
此次争议的核心在于人工智能的使用范围。Anthropic为其系统设置了一系列安全限制,明确禁止军方利用Claude对美国人进行大规模监控,或将其用于完全自主武器系统。
五角大楼则要求能够将Claude用于“所有合法用途”,并认为相关担忧并不构成实质问题,因为对美国人进行大规模监控本身就是违法行为,而且军方内部政策也限制完全自主武器的使用。
五角大楼首席技术官埃米尔·迈克尔(Emil Michael)上周在接受CBS News采访时表示:“在某种程度上,你必须相信你的军队会做正确的事情。”
Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)则表示,公司之所以为政府使用其技术划定“红线”,是因为跨越这些界限违背美国价值观。他说,与政府持不同意见本身就是美国价值观的一部分,公司希望通过这些限制保护公民权利。
在Anthropic与五角大楼关系恶化之际,OpenAI与美国国防部的合作却进一步推进。OpenAI首席执行官山姆·奥尔特曼(Sam Altman)周一宣布,公司已与五角大楼重新修订协议,明确规范美国国防部如何使用其人工智能服务。
OpenAI官网发布的文章称,新协议规定人工智能系统不得被故意用于对美国公民和国民的国内监控。奥尔特曼表示,保护美国人的公民自由至关重要,新条款对国内监控设定了更严格限制。OpenAI国家安全合作负责人卡特里娜·穆利根(Katrina Mulligan)也表示,国防情报部门被排除在该合同之外。
不过,一些法律专家和观察人士仍然持怀疑态度。他们认为OpenAI公布的合同内容仍然较为模糊,可能为国防部内部部分情报机构留下例外空间,而合同全文至今尚未公开。
研究人员指出,如果缺乏明确限制,人工智能可能使政府以前所未有的速度和精度监控个人。例如,通过分析海量数字数据和商业数据,人工智能可以追踪人们的行动轨迹和行为模式。多年来,一些广告公司收集的定位数据和用户信息已经被出售给政府机构,用于识别个人活动。
俄勒冈州民主党参议员罗恩·怀登(Ron Wyden)批评五角大楼拒绝接受Anthropic提出的隐私保护要求。他警告称,人工智能可以将零散的公开或商业数据整合为高度揭示性的个人画像,从而扩大对美国人的监控范围。
宾夕法尼亚大学政治学教授、美国国防部新兴能力前副助理部长迈克尔·霍洛维茨(Michael Horowitz)认为,这场争议不仅仅是合同条款问题,更反映出Anthropic与五角大楼之间的信任破裂。
一方面,Anthropic担心政府可能滥用其技术;另一方面,五角大楼也担心公司会限制人工智能在关键国家安全场景中的使用。
与此同时,美国国家安全局和美国网络司令部前负责人保罗·中曾根(Paul Nakasone)表示,美国国家防御体系需要Anthropic、OpenAI等所有领先人工智能公司的技术支持,并呼吁政府与这些企业保持合作,而不是将其视为供应链风险。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.