![]()
2005年拿诺奖的托马斯·谢林,研究的不是股票也不是买卖,而是“怎么在快要打起来时不打起来”。虽然“核禁忌”这个词更多和学者Nina Tannenwald挂钩,但谢林的话今天听来更扎心:核和平不是靠武器够吓人,而是靠人在关键时刻会怕、会想、会犹豫。
可AI杀伤链正在做一件要命的事:把“犹豫”从战争机器里彻底删掉。
![]()
美国的Project Maven项目,就是为了应对战场上海量的视频和卫星图,人类分析员根本看不过来。2017年建立至今,它能用AI自动识别目标。更刺眼的是Army Times报道的目标:20人以内的小队,每小时要识别打击1000个目标。算下来,3.6秒一个。
3.6秒,你能认真判断一个人该不该死吗?你能确认他是平民还是武装人员吗?你能想清楚打击后会有多少无辜者陪葬吗?显然不能。
![]()
以色列在加沙用的“Lavender”AI系统,爆出的细节更可怕:情报人员说,人类审核一个目标常常只花20秒,而且主要就看“是不是男性”。为什么只看性别?因为系统已经给出“疑似武装人员”的判断,人类不过是补个形式上的确认。
这就是AI军事化最隐蔽的危险:它不一定自己扣扳机,但会把复杂的生死判断包装成一个分数、一条建议、一个红框。然后人类看一眼,点个确认。过去我们以为“人在回路中”就安全,现在才发现:问题不是有没有人,而是这个人有没有真正的否决权。如果操作员只有20秒,系统已经把答案推到面前,上级还催着速度,那他不是判断者,只是流程里最后一枚盖章的图章。
![]()
核禁忌不是一句空口号。它的意思是:核武器不是普通炸弹,它有一道不可逾越的道德边界,你一旦用了,就等于告诉全世界:人类最可怕的底线被你踩破了。
这条线能存在,靠的是时间:要有时间开会争论,要有时间让顾问说“不行”,要有时间让外交官找台阶,要有时间让领导人想:历史会怎么写我?
在核危机里,犹豫不是bug,是功能。谢林研究的就是这种危险博弈:真正的理性不是更快出手,而是让对方看到你有能力出手,同时又留下一条退路。可AI最不擅长的,恰恰就是留退路。
伦敦国王学院做过一组AI核危机模拟:把多个前沿AI模型放进核博弈场景,结果95%的模拟都走向核信号或核升级,四分之三的情景甚至走到战略核武威胁的边缘。为什么?
因为AI不会真的“害怕”。它能计算损失,能模仿谈判,能生成漂亮的战略理由,但它不会在深夜睡不着觉,不会想到城市里的孩子,不会害怕自己被写进历史课本里,成为千古罪人。人类的恐惧有时会让决策变差,但在核问题上,恐惧就是刹车。AI没有这脚刹车。
军事AI最吓人的不是电影里的机器人叛乱,而是现实里的场景:系统越来越快,报告越来越短,按钮越来越像普通的确认键。人类还在场,但已经没有足够时间理解发生了什么。
这时责任也会变得模糊:打错了算谁的?算训练数据?算算法?算设参数的人?算按确认键的人?还是算相信系统“应该没错”的指挥官?
所以今天讨论AI战争,不该只问“机器能不能杀人”,更该问三件事:AI能不能建议打击目标?人类有没有足够时间推翻它?系统能不能被迫停下来?没有这三条,所谓“人类控制”就是一句自我安慰的空话。
![]()
核武器80年没再用于战争,不是因为人类突然变善良了,而是因为每一个关键时刻,总有人害怕,总有人犹豫,总有人说“再等等”。这份犹豫,就是人类最重要的核防护机制。而AI不会犹豫。
你觉得AI该不该参与战争决策?在评论区说说你的看法,让更多人看到这个关乎全人类的问题!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.