AIPress.com.cn报道
3月4日消息,美国国防部高级官员 Emil Michael 透露,拜登政府时期签订的商业 AI 合同中包含大量操作限制,可能严重影响美军的实时作战能力,包括制定和执行战斗行动的能力。
Michael 现任国防部研究与工程副部长。他在华盛顿举行的"美国活力峰会"上描述了审查 AI 合同条款时的震惊。他表示,合同中存在数十条限制,覆盖负责伊朗、中国和南美方向空中行动的指挥部。其中一些条款规定,如果操作可能导致"动能打击"(即爆炸),就不允许用 AI 进行相关行动规划。
更令他担忧的是合同的执行机制。Michael 称,条款的设计使得如果操作人员违反服务条款,AI 模型理论上可以"在作战过程中直接停止运行"。他在审查时,Anthropic 的 Claude 是国防部涉密系统中唯一可用的 AI 模型。
Michael 表示,一名未具名 AI 公司的高管曾质询其软件是否被用于某次军事行动。据此前报道,Claude 曾被用于协助规划今年 1 月抓捕委内瑞拉前总统马杜罗的行动,该行动被 Michael 称为"近年来最成功的军事行动之一"。
他明确表示,"我们不会让任何一家公司在国会立法之上另设一套政策。"
这些披露有助于理解五角大楼与 Anthropic 之间争端的深层原因。Anthropic 在谈判中坚持要求其技术不被用于完全自主武器和大规模监控,五角大楼认为这些限制不可接受,国防部长黑格塞斯随后将该公司列为"供应链风险"。
值得注意的是,在 Anthropic 被封杀数小时后,OpenAI 迅速与五角大楼达成合作。但 OpenAI CEO Altman 的声明暗示,国防部也同意了与 OpenAI 模型类似的使用限制。这意味着围绕 AI 军事应用边界的博弈,并未因供应商更换而结束。
(AI普瑞斯编译)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.