从加沙到伊朗,模式如出一辙:精准的武器、选择性的失明,以及无辜丧命的儿童。未能对人工智能战争进行有效监管的代价,已然沉重到令人无法承受。
![]()
以色列军方有一种被称为“迷雾程序”的战术策略。这一非正式规则首次应用于第二次巴勒斯坦大起义期间,它要求在能见度极低的条件下驻守军事哨所的士兵,向黑暗中盲目扫射,其理论依据是黑暗中可能潜伏着看不见的威胁。这种策略,本质上是以视觉盲区来为暴力背书。他们向黑暗中开火,并将其美其名曰“威慑”。 随着人工智能战争时代的黎明破晓,这种选择性失明的逻辑已被进一步提炼、系统化,并最终交由冷冰冰的机器来执行。
以色列近期在加沙地带的战争,被外界形容为首场大规模的“人工智能战争”。在这场战争中,人工智能系统首次在生成所谓的与伊斯兰圣战组织武装分子目标清单时,扮演了核心角色。这些系统通过处理数十亿个数据点,来评估并排列该地区任何特定个体属于战斗人员的概率。
瞭望塔里的黑暗,是地形环境所致;而算法内部的黑暗,则是系统设计使然。在这两种情况下,失明都是一种主动的选择。之所以选择失明,是因为它极为实用:它不仅创造了推诿责任的空间,让暴力显得不可避免,更将“由谁来决定”的伦理问题,从活生生的人转移到了冰冷的程序上。 战争的迷雾并未散去,它只是被赋予了一个概率得分,并被冠以“情报”的虚假光环。
正是这种选择性的失明,导致了在美以对伊朗战争初期,位于伊朗南部米纳卜的沙贾雷塔耶贝小学遭到毁灭性打击。这场悲剧造成至少168人丧生,其中绝大多数是年仅七到十二岁的孩子。
袭击所使用的武器无比精准。弹药专家将这次瞄准描述为“极其精确”,每一栋建筑都被单独击中,无一脱靶。因此,问题并不在于执行层面,真正的症结在于情报。近十年前,这所学校就已通过围栏与相邻的革命卫队基地隔开,并被重新用作民用设施。 在整个目标锁定周期的某个环节中,这一关键事实似乎从未得到更新。
人工智能在米纳卜袭击事件中究竟扮演了何种确切角色,目前尚未得到官方证实。但可以确定的是,这些系统所运行的目标锁定基础设施,根本没有任何可靠的机制,来标记底层情报是否已经过时了整整十年。
![]()
无论这所学校是否由算法直接选中,它都是被一个由算法目标锁定技术构建的庞大系统所选中的。为了在伊朗战役的最初24小时内打击1000个目标,美国军方严重依赖人工智能系统来生成、优先排序并排列目标清单,其速度之快,是任何人类团队都无法企及的。加沙是残酷的试验场,而米纳卜则沦为了检验成果的市场。 其结果是,在现代战争中,最具决定性的目标锁定决策,竟然是由那些无法自我解释的系统做出的;提供这些系统的公司无需向任何人负责;而这些冲突既没有产生任何问责机制,也没有引发任何深刻的反思。这并非系统的故障,这正是系统本身的运作逻辑。
我们必须抵制一种诱惑,即把将儿童视为可接受误差率的冷血逻辑,仅仅归咎于算法。2014年7月,巴克尔家族的四个男孩——九到十一岁的伊斯梅尔、扎卡里亚、阿赫德和穆罕默德——在加沙的海滩上被无情杀害。那次袭击没有任何人工智能的参与。该地点此前已被军方预先归类为海军大院。这几个男孩之所以被标记为可疑目标,仅仅是因为他们先是奔跑,随后又改为步行——这种行为模式恰好符合了试图不引起注意的武装分子的目标锁定模板。当第一枚导弹击中目标时,幸存的孩子们惊恐逃离,但无人机却紧追不舍,并再次开火。 一名军官后来作证称,从垂直的空中视角来看,很难辨认出他们是儿童。最终,这次袭击仅仅被记录为一次目标锁定错误。
![]()
英国卫报、九七二杂志和本地呼叫联合审查的一份以色列军方机密数据库显示,在加沙记录的超过53000名死者中,被点名和伊斯兰圣战组织武装分子仅占约17%。这意味着其余83%的遇难者都是平民。这些数据绝不是一场以精准为标榜的战争所应有的统计结果,这是一场以不精确为目的的战争。
因此,人工智能目标锁定系统并没有发明这种冷血逻辑。它们只是继承了它,将其编码在数以百万计的数据点中,并将其自动化,使其完全脱离了任何有意义的人类审查。当米纳卜的一所学校在数据库中被错误地归类为军事大院时,这并不是一次系统故障。这就是“迷雾程序”,与当年在加沙海滩上追杀四个男孩的逻辑如出一辙。它完全按照设计的初衷在运行,只是规模更大、发生在不同的国家、使用了不同的武器,如今的黑暗,仅仅是配备了更先进的硬件而已。
许多此类人工智能系统,在本质上公然违背了国际人道法。该法律不仅要求军事行动必须取得正确的结果,更要求在执行之前必须经过极其严谨的程序。指挥官必须尽一切合理努力,核实目标是否为合法的军事打击对象。法律还规定,必须采取一切可行措施保护平民免受攻击的影响,这绝不是事后的亡羊补牢,而是一项平行且同等重要的绝对义务。
![]()
这种神圣的义务,绝不能委托给一个推理过程极度不透明、输出结果无法在实时状态下被质询的机器系统。在加沙,算法处理了地带内每个人的海量数据——电话记录、活动轨迹、社交网络、行为信号——并生成了一份经过排序的名单,每个人都被赋予了一个概率得分,以表明他们是战斗人员的可能性。这与人类情报分析员识别出已知的武装分子,并对武器进行编程以实施打击,有着本质的区别。 人工智能并不是在确认身份,而是在整个庞大的人口基数上,通过统计学进行推断,生成了在出现在名单上之前没有任何人类进行过单独评估的打击目标。
在这个冷酷的系统中,所谓的“核实”,仅仅意味着人类操作员平均花大约20秒钟的时间来审查每个名字,这段时间刚好够确认目标是男性。然后,他们便草草签字批准。仅其中一个系统,就在战争最初的几周内生成了超过37000个目标。另一个系统每天能够生成100个潜在的轰炸地点。回路中的人类根本没有在行使任何实质性的判断力,他们只是在机械地管理一个杀戮队列。
在伊朗,目前的情况虽然尚未得到充分记录,但其庞大的规模本身就已经说明了问题。两名消息人士向美国全国广播公司证实,帕兰提尔公司的人工智能系统被用于识别打击目标。美国中央司令部司令布拉德·库珀曾公开吹嘘,军方正在伊朗利用人工智能“在几秒钟内筛选海量数据”,以便“比敌人反应得更快,做出更明智的决策”。无论每一次打击是否都有人工智能的辅助,这场战役之所以能保持如此高强度的节奏,完全是因为目标锁定过程已被大幅度自动化。
当报告中人工智能辅助目标的核实时间被缩短到以秒为单位来衡量时,我们讨论的早已不再是带有算法辅助的人类判断。我们讨论的是对机器输出结果的盲目盖章批准。而当这台机器所依赖的数据已经过时了整整十年时,其惨痛的后果,便化作了一排排触目惊心的小棺材。
卷入这场伦理风暴的公司,绝非默默无闻的国防初创企业。帕兰提尔公司在成立之初就获得了美国中央情报局的资金支持,如今已成为美国军方主要的人工智能基础设施供应商之一,正是它提供了用于伊朗战役的系统。这些系统部分依赖于人择公司的克劳德模型。人择公司的母公司曾试图抵制五角大楼的压力,拒绝取消将其用于目标锁定的伦理限制。五角大楼的强势回应是威胁切断合作关系,并转而寻求开放人工智能公司等其他供应商的帮助。 在这个大规模杀戮的市场里,从来都不缺趋之若鹜的供应商。
![]()
这一插曲极具教育意义:唯一一家试图划定伦理底线的公司被无情边缘化,而杀戮却在没有任何中断的情况下继续进行。谷歌公司尽管面临着内部员工的强烈抗议,仍与以色列政府和军方签署了价值超过10亿美元的云计算和人工智能合同——“雨云项目”。
亚马逊公司是“雨云项目”的联合签署方。微软公司在2024年迫于压力部分撤出之前,曾与以色列军事系统有着极深的整合,而在此之后,相关数据在短短几天内就迅速迁移到了亚马逊网络服务上。
由帕尔默·拉奇创立、大量聘用前美国国防官员的安杜里尔公司,正在明目张胆地构建专为致命目标锁定而设计的自主武器系统。开放人工智能公司直到最近还在其服务条款中明令禁止军事用途,却在2024年初悄然取消了这一限制,此后便开始积极追求五角大楼的巨额合同。这些都是世界上最具商业价值的科技巨头,它们的消费产品被数亿人日常使用,它们拥有庞大的大学研究合作伙伴网络,并在华盛顿、布鲁塞尔乃至更广泛的政治舞台上拥有举足轻重的政治影响力。
诚然,几个世纪以来,私营公司一直在为军队提供物资——从无线电、卡车、卫星导航、微波技术,到复杂的武器系统。这本身并不新鲜,也并非天生腐败。“军民两用”的难题与工业化一样古老:几乎任何强大的技术,最终都可能被用于军事目的。
但是,人工智能目标锁定绝不仅仅是军队纳入其行动的一个普通组件。它构成了决策架构的本身——正是这个架构,决定了谁将被剥夺生命以及为什么。当一个单一的系统在人类情报团队核实10个目标的时间内,就能生成数以万计的打击目标时,问题已经不再是私营公司是否应该为军队提供补给。真正的问题在于,是否还有任何法律框架能够承受住这种技术的冲击并存活下来。
在国际法领域,我们经常探讨问责框架:即从使用致命武力的决定,一直追溯到授权该决定的人的责任链条。问责框架要求必须有人被明确认定为决策者,他们的推理过程在事后必须能够被重构,并且必须能够证明法律所要求的程序义务——如相称性评估、核实、预防措施——得到了严格的遵守。
人工智能目标锁定系统正在系统性地摧毁这些必要条件。责任归属在由工程师、指挥官、操作员和企业供应商组成的冗长链条中消散得无影无踪,每个人都可以轻易地将责任推卸给链条上的另一个人。复杂的推理过程消失在一个冷冰冰的概率得分中,没有任何律师可以对其进行审计,也没有任何法庭可以对其进行交叉盘问。严谨的程序彻底坍塌为对机器推荐结果仅仅20秒的草率批准。 而那些构建并销售这些系统的公司,则完全置身于法律框架之外,因为国际人道法最初是为国家及其代理人设计的,而帕兰提尔公司并不是《日内瓦公约》的签署方。
问责框架不仅受到了人工智能战争的严峻考验或严重扭曲,它在结构上已经变得毫无意义。我们应该停止将这些企业称为科技公司,而是应该直呼其名:它们就是国防承包商。
那些最大的人工智能公司,绝不是碰巧找到了一个军事客户的中立基础设施提供商。它们正在被深度整合到现代战争的目标锁定架构中。它们的系统深植于杀伤链的内部,它们的工程师持有高级别的安全许可,它们的高管在硅谷与五角大楼之间那扇古老的“旋转门”中穿梭自如。
这些人工智能供应商正处于军工复合体的最前沿,理应受到相应的严格监管。雷神公司和洛克希德·马丁公司等传统军工企业,受到清晰的问责链条的约束——包括出口管制、国会监督、责任框架和采购条件。对于那些编写算法来选择军事目标的公司,适用于它们的监管规定却极其薄弱,且从未被真正应用、测试或强制执行过。
它还成立了一个专门的基金会,以塑造其运营所在的政策环境。由帕兰提尔、安杜里尔、开放人工智能、太空探索技术公司和规模人工智能公司组成的财团,被其参与者自豪地描述为一个旨在为美国政府提供新一代国防承包商的宏大项目。支持这些公司的风险投资机构,如安德森·霍洛维茨基金和创始人基金,通过接近权力核心来培植自身的影响力:前高级官员在他们的咨询委员会任职,合伙人在政府职位上轮岗,并直接接触那些决定五角大楼支出规模和方向的决策者。
欧盟《人工智能法案》是迄今为止对人工智能进行治理的最具雄心的尝试,但它却明确豁免了军事和国家安全应用,其给出的冠冕堂皇的理由是,国际人道法是更合适的框架。这是一种令人惊叹的循环论证:唯一一个正在被这些系统系统性摧毁的法律体系,被指定为它们的监管者;而那些本可以真正约束它们的监管机构,却选择了视而不见。
迄今为止,我们看到的唯一一次政府对人工智能军事能力的严肃干预,并非来自某个要求克制或问责的国家,而是来自美国要求使这些系统变得更具杀伤力。这就是我们所默认接受的野心边界。
当如此多的参与者对国际法漠不关心时,彻底禁用这些系统显然是不切实际的。但是,施压点依然存在,而且是真实有效的。华盛顿任何未来的政府,如果想要使用人工智能军事能力,同时又不希望制造出无休止的“米纳卜惨案”,就需要建立一个严密的监管框架——这并非向批评者妥协,而是避免沦为流氓国家的基本要求。在欧洲同样如此,英国已承诺投入超过10亿英镑,用于开发一个整合了人工智能的新型目标锁定系统,该系统将连接所有领域的传感器和打击能力;法国领先的人工智能公司已与德国一家国防初创企业合作,共同构建自主武器平台;而德国正在乌克兰部署人工智能引导的攻击无人机。
![]()
监管这些系统并非无路可走。欧盟拥有最显而易见的工具,不是通过故意豁免军事应用的《人工智能法案》,而是通过对在商业和国防市场之间流动的军民两用系统实施出口管制和采购条件。国际法院也开始打开大门:国际法院关于巴勒斯坦权利的咨询意见,已经创建了一个法律框架,在这个框架下,提供用于非法打击系统的公司,在那些认真对待国际法的司法管辖区,将面临潜在的责任风险。
此外,人工智能公司需要政府,不仅作为财大气粗的客户,更是作为计算能力、能源和物理基础设施的提供者。前沿人工智能的研发离不开这些资源,而任何公司都无法仅凭商业收入来维持这种庞大的消耗。 这种深度的依赖关系,赋予了那些愿意行使权力的国家真正的筹码,来牵制那些不愿受监管的公司。现在的问题是,任何拥有行动工具的政府,是否会在下一个米纳卜惨案发生之前痛下决心,认识到不作为的代价已经高得令人无法承受。
尽管执行起来困难重重,但监管的具体形态其实相对清晰。用于目标锁定的人工智能系统必须具备可解释性——绝不能仅仅依靠一个冷冰冰的概率得分,而是必须提供律师能够审计的严密推理过程。必须将人工智能辅助战役造成的累积平民伤亡作为一个整体来评估。止步于操作员的责任追究,必须沿着供应链向上延伸,直指那些明知故犯地构建并销售用于武装冲突的不透明系统的公司。 这些绝不是什么新奇的苛求。在算法目标锁定的时代,它们是让战争法具有实质意义的最低底线。
“迷雾程序”仍在高效运转,并正在重新定义战争的未来。但当年那些向黑暗中开火的士兵,至少还身处那片黑暗之中。而如今,构建替代他们系统的公司,却安坐于帕洛阿尔托的舒适办公室里,不承担任何个人风险,没有面临任何法律制裁的风险,并且有着充足的动机去一次又一次地重蹈覆辙。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.