2026年早春,西班牙拉科鲁尼亚的海风,未能吹散一场全球峰会上的凝重气息。
第三届“军事领域负责任使用人工智能”(REAIM)峰会在此落幕,一份旨在为战场算法划定边界的联合宣言,仅获三分之一与会国签署。
![]()
最引人注目的缺席者,正是人工智能与军事技术领域的两个关键行为体——中国与美国。
![]()
中美拒签峰会崩盘
这场双重的“拒签”,绝非外交礼仪的偶然失误。
![]()
它像一扇棱镜,折射出全球军事变革步入深水区时,两种截然不同的技术哲学、安全逻辑与秩序愿景的激烈碰撞。
![]()
峰会的沉默,不是对话的终结,而是一场围绕未来战争规则制定权的、更为隐蔽也更为深刻的战略摊牌。
![]()
美国拒签的战略逻辑
美国的缺席,根植于一种清晰的战略算计:在颠覆性技术爆发的前夜,任何具有普遍约束力的多边规则,都可能成为锁定自身领先优势的“刹车片”。
其目标并非放弃规制,而是追求构建一个 “美国主导、盟友跟随、战略对手受限” 的排他性治理体系。
维持并扩大绝对的技术代差,是这一战略的首要支点。
![]()
美国国防部正不遗余力地将“快速原型设计与迭代”的硅谷法则注入军事体系,从空军的“天空博格”自主僚机到陆军的“项目融合”跨域杀伤网,其目标在于构建一个以算法速度为心脏的新型作战网络。
![]()
五角大楼高层近期明确表示,其核心议程是在全部门范围内大规模部署人工智能,将其应用于从企业效率、情报分析到战场作战的各个层面。
![]()
但凡可能迟滞这一“迭代 -部署” 循环的国际共识,皆被视作束缚其发展敏捷性的无形桎梏。
![]()
因此,美国的拒签,在本质上是一种“以时间换空间”的策略,旨在避免国际规则成为潜在追赶者的“技术保护伞”。
![]()
掌控规则制定的话语权,是维系霸权的另一面。
美国对在联合国等多边平台上与理念不同的国家共商标准心存警惕,更倾向于在“志同道合”的盟友圈内先行构建“小集团”标准。
![]()
这种“俱乐部模式”的治理,意图将技术标准与特定的意识形态和价值判断深度捆绑,从而在伦理与规则层面筑起高墙,完成从“技术霸权”向“规则霸权”的平滑过渡。
![]()
更深层的考虑在于对“战略模糊性”的保留。
在自主武器系统的致命性使用门槛、算法在复杂战场中的决策权限、以及网络认知空间攻防等灰色地带,明确的国际义务意味着行动透明度的提高和可预见性的增强。
![]()
这将被视为对“威慑”效果的削弱,并可能在冲突发生时带来法律风险。
![]()
保持一种有益的模糊,既能为前沿技术的实战化测试披上保密外衣,也能在“合规”解释上保留最大的回旋余地,服务于其“一体化威慑”的总体战略。
![]()
中国反对的核心理念
中国的拒签,同样基于深思熟虑的战略判断。其核心并非拒绝治理本身,而是对一份被认为可能固化不公、流于空泛的草案投下反对票。
![]()
中方立场体现的是一种谋求“安全与发展平衡”、“技术自主与国际合作协同”的综合性主张。
![]()
中方对宣言草案的公平性与有效性提出了根本性质疑。在代表团团长、外交部军控司副司长李驰江看来,峰会的议题“事关全人类共同未来”。
![]()
若一份宣言仅满足于对“负责任使用”的原则性宣示,却缺乏对技术先发国家实质性权力进行制衡的有效机制,那么它非但不能成为防范风险的屏障,反而可能沦为固化既有技术鸿沟与战略优势的工具。
没有对技术垄断与滥用的切实制约,任何“负责任”的宣言都可能失去其道德合法性。
![]()
为此,中国在峰会上系统性地提出了“以人为本的军事人工智能”理念。
这一理念绝非空洞口号,而是针对“算法决定生死”的危险倾向提出的价值锚定。
![]()
它主张将人类福祉、国际人道法和对和平的终极追求,置于纯粹的技术逻辑与竞争逻辑之上。
李驰江在讲话中强调,各国应“坚守慎重负责底线,秉持以人为本初心,恪守智能向善准则”。
这直接区别于将人工智能纯粹视为“力量倍增器”和“竞速赛道”的工具理性主义。
![]()
![]()
中国倡导的多边治理路径
与“俱乐部模式”相对,中国倡导的是真正包容的多边治理进程。
![]()
中方反对以狭隘的“价值观划线”来构建封闭的技术联盟,主张在联合国等具有普遍代表性的框架下,开展包容、平等的全球对话。
![]()
中方提出的“敏捷治理”原则,强调规则需兼具原则性与灵活性,能够适应技术的快速迭代,其重点在于建立常态化的风险沟通与信任建立措施,而非追求一蹴而就却可能迅速僵化的条约。
![]()
这既是对排他性“小圈子”规则的回应,也为国际社会提供了另一种更具可操作性的合作路径。
![]()
全球治理的深层困境
中美双双转身离场的背影,也共同映照出全球军事人工智能治理难以逾越的深层困境。
这不仅是两个大国之间的博弈,更是国际社会在集体行动面前遭遇的现代性难题。
![]()
首要矛盾在于国家主权与透明核查之间的天生抵触。军事人工智能的核心算法、训练数据与系统集成,无一不属于最高国家机密。
![]()
任何试图赋予实际约束力的国际规则,都必然触及透明度与核查机制这一敏感神经,这与各国固有的保密需求构成了几乎无法调和的冲突。
![]()
技术迭代与规则制定的速度鸿沟正在撕裂共识的根基。
人工智能技术的演进以月甚至周为单位,而国际谈判与条约的缔结却往往以数年甚至十年为周期。
![]()
当一份宣言的墨迹未干,战场上新出现的自主蜂群战术、基于深度伪造的认知攻击、或人机混合编队的指挥链问题,可能已让既有条款显得苍白无力。
![]()
最终,定义与归责的伦理迷雾笼罩着前路。
何为“有意义的人类控制”?如何在复杂、混乱的战场环境中界定人工智能系统的“合理”行为?
![]()
当算法做出导致灾难性后果的误判时,法律责任应在程序员、指挥官,还是“机器”本身?
这些伦理与法理上的根本性难题尚无全球共识,使得具体、有效的规制制定举步维艰。
![]()
规则博弈进入全面交锋
拉科鲁尼亚峰会的成果已然清晰昭示:军事人工智能作为左右未来战略平衡的核心制高点,围绕其 “规则制定权” 与 “道义叙事权” 的深层博弈,已进入全面交锋阶段。
![]()
这场博弈的内涵,早已突破了单纯技术军备竞赛的范畴。
对于美国而言,其路径依赖是经典的“以实力定规则”。
它试图将当前的技术领先,转化为永久性的、排他性的制度优势。
其拒签行为,是传统霸权护持逻辑在数字时代的自然延伸。
![]()
而对于中国,其应对策略可概括为 “以理念塑议程” 。
通过提出一套相对完整、且更强调普惠性与安全性的“人本-多边-敏捷”治理叙事,中国旨在争夺全球治理的话语权,在道义高地和未来规则蓝图上展开竞争。
![]()
总结
未来,军事人工智能的国际治理极有可能走向一个“分层化”与“碎片化”的格局。
![]()
在禁止完全自主致命武器等最低限度底线上,或许能达成脆弱的全球共识;但在更为广泛的应用规范、技术标准和伦理准则上,世界或将目睹由不同国家集团主导的、彼此并行甚至相互冲突的规则体系并存。
![]()
中美之间的博弈,将如一条连续光谱,持续贯穿于从底层技术研发、盟友体系构建到国际标准制定的每一个环节。
![]()
拉科鲁尼亚那张未被签字的宣言,因此成为一个极具象征意义的时代注脚。
它既宣告了旧有国际军控机制在面对智能革命时的式微,也预示着一场更为复杂、围绕智能时代战争规则与伦理的新秩序建构进程,刚刚拉开序幕。
在这场漫长的博弈中,最终的赢家或许不仅属于在算法竞赛中跑得最快的那一个,更属于能为人类共同风险提供可信解决方案、并能赢得最广泛信任的规则塑造者。
![]()
![]()
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.