美国国防部与人工智能初创公司Anthropic的谈判破裂,围绕AI模型的使用限制问题,双方僵持不下。美国总统特朗普于当地时间2月27日宣布,将指示所有联邦机构“立即停止”使用Anthropic的所有技术。
据央视新闻报道,五角大楼要求Anthropic完全开放对AI模型“克劳德”(Claude)的使用限制,允许军方将该模型用于“所有合法用途”。而该公司表示,坚决反对其技术被用于两类高风险场景:完全自主武器系统和对美国公民的大规模国内监控。
美国国防部与Anthropic在27日下午的谈判截止时间前陷入僵局,双方均未让步。特朗普在截止时间前一小时在社交平台上发文介入争端,称:“我们将决定我们国家的命运,而不是某个失控的、激进左翼的人工智能公司,那些人根本不了解现实世界。”
特朗普还表示,将给予联邦机构六个月时间逐步停止使用Anthropic的技术,并威胁称,“Anthropic最好在这段过渡期内好好配合,否则我将动用总统职位的全部权力,迫使他们服从,随之而来的将是重大的民事和刑事后果。
谈判破裂后,美国国防部长赫格塞斯27日随即表示,已指示五角大楼将Anthropic认定为对国家安全构成“供应链风险”,并称Anthropic的“立场在根本上与美国原则不相容”。而这种认定通常用于外国对手,可能危及该公司与其他企业的合作关系。
这场冲突在硅谷与华盛顿之间制造了新的裂痕。27日下午,谷歌和OpenAI的550多名员工已签署一封公开信,支持Anthropic的立场,并呼吁各自公司的领导层对五角大楼的要求说“不”。
《华盛顿邮报》指出,许多从事人工智能研究的科学家和工程师长期以来都担忧他们的技术被用于武器或监控。Anthropic与五角大楼之间的冲突,再次唤醒了整个行业的这些担忧。
“在良心上无法同意”
在过去几十年里,美国科技巨头往往刻意避免与国防部合作,但近年来这种情况发生了变化。Anthropic由OpenAI前高管成立于2021年,将自身定位为“安全优先”的AI公司,但它同样积极与美国军方和情报机构合作。该公司在拜登政府时期与亚马逊和数据分析公司 Palantir达成合作,成为首批进入美国政府机密系统的AI公司之一。
在特朗普上台后,Anthropic获得了一份价值2亿美元的五角大楼合同,并同意以象征性的1美元价格向民用机构提供“克劳德”模型。
双方的冲突始于今年1月初,当时赫格塞斯发布了一份备忘录,呼吁AI公司移除对其技术的限制。“现在正是加速AI整合的时刻,我们将动用国防部领导层、资源以及不断扩大的私营部门伙伴,全力推动美国军事AI的主导地位。”他在备忘录中写道。
赫格塞斯一直猛烈抨击他认为过于自由派的政策和公司,并希望在战争规划和武器研发中大规模应用AI。他的立场与特朗普一致,后者已将AI扩张作为其政策核心之一。
据《纽约时报》报道,Anthropic为美国政府提供了限制更少的Claude特别版本,但是在围绕合同细节进行谈判时提出了两个条件:公司愿意放宽技术限制,但希望设立护栏,防止人工智能被用于对美国人的大规模监控,或被部署到完全没有人类参与的自主武器中。否则Anthropic将面临损害其“安全优先”声誉的风险。
五角大楼发言人肖恩·帕内尔26日在社交媒体上表示,国防部要求Anthropic允许其AI“用于所有合法目的”,并称这是一个“常识性的要求”。
作为回应,Anthropic首席执行官达里奥·阿莫代伊表示,五角大楼的“威胁不会改变我们的立场:我们在良心上无法同意他们的要求”。他说,公司已准备好失去这份政府合同,并协助五角大楼过渡到其他公司的技术。
美媒分析认为,特朗普政府采取强硬干预措施的影响,可能不仅限于美政府与Anthropic的关系,还可能使政府与其他人工智能开发商的合作变得更加复杂,尤其是在国防领域。
硅谷与华盛顿之间的“认知脱节”
OpenAI首席执行官山姆·奥特曼27日在接受美媒采访时表示,AI公司确实需要找到与五角大楼合作的方式,“尽管我与Anthropic存在很多分歧,但我基本信任这家公司,我认为他们确实非常重视安全问题。”他在说出这番话时特朗普尚未亲自介入争端。
五角大楼与硅谷之间的关系此前也曾恶化。2017年,谷歌与美国国防部合作开展了一项名为Maven的AI项目。但随着越来越多员工了解到该项目,他们在公司内部提出反对意见,最终谷歌退出合作,并制定了禁止将其AI技术用于武器或监控的内部政策。
乔治城大学人工智能政策专家、前OpenAI董事会成员海伦·托纳对《纽约时报》说,Anthropic与五角大楼的争端揭示了一种根本性的认知脱节。在华盛顿,官员们将AI视为一种可被用于特定目标的新工具;而在硅谷,技术创造者则越来越将其视为一种具备复杂推理能力的“实体”,如果缺乏监督和校准,可能以不可预测且危险的方式行事。
“这本质上是关于国家权力与公司之间,谁有权决定AI如何在世界上被部署的问题,”牛津大学马丁AI治理倡议联合主任罗伯特·特雷格说。
《华盛顿邮报》指出,最终的赢家可能会是马斯克旗下的xAI。美国国防官员表示, xAI已同意五角大楼在机密系统合作方面提出的条件。马斯克本人也在社交媒体上称“Anthropic 憎恨西方文明”。
但据《华尔街日报》27日报道,近几个月来,美国多个联邦机构的官员对xAI人工智能工具的安全性和可靠性表示担忧,这凸显了美国政府内部在部署哪些人工智能模型方面持续存在的分歧。
AI在战争中如何应用的关键时刻
《纽约时报》科技板块的一篇文章指出,在生成式人工智能浪潮兴起的两年多前,AI的安全和监管成为行业界和政策界最为关注的问题之一。在时任英国首相里希·苏纳克主持召开的全球峰会上,多国签署承诺,旨在解决人工智能技术一些潜在风险,例如为黑客提供新的攻击手段以及加速虚假信息的传播。
但随着人工智能竞赛的加剧,这个问题的重要性有所下降。去年,特朗普撤销了拜登任期实施的安全政策,12月又签署了一项行政命令,旨在削弱各州对人工智能的监管法律。欧盟于2024年通过了影响深远、里程碑式的《人工智能法案》,现在却考虑撤回部分条款。在联合国,一项旨在禁止某些AI武器的努力因美国、俄罗斯等国的反对而陷入停滞。
“随着人工智能变得越来越强大、越来越能干,人们使用它的动机也越来越强。”托纳表示,“与此同时,人们讨论风险以及如何应对风险的意愿却下降了。”
随着俄乌冲突进入第五年,无人机战争时代已经开启并正在战场上持续演化,使自主武器从未来的可能性变成了近在眼前的现实。
红十字国际委员会首席律师科杜拉·德罗格呼吁在全球范围内限制人工智能武器,她表示,在战场上引入大量自主武器所带来的暴力风险在更广泛的辩论中被忽视了。“纵观历史,战争与技术发展是相辅相成的。”她说。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.