以色列AI选空袭目标存10%错判,何以规避道德责任?
![]()
热点解读
以色列通过将AI错判包装为技术参数、模糊责任链条以及压缩人类审查时间,来规避道德责任。这本质上是利用技术理性消解战争伦理,让具体的道德问责在复杂系统中无处落脚。技术话语的“去道德化”包装
当AI参与战争决策,致命的道德选择常被转化为中性的技术语言。例如,以色列军方使用的“薰衣草”(Lavender)系统,已知在大约10%的情况下会给出错误目标建议。但这个涉及生死的误判率,在官方表述中往往被描述为“模型的可接受误差”或“算法偏差”,而非对平民生命的漠视。
同时,“福音”(The Gospel)系统在推荐攻击建筑物时,会计算其中的平民数量,当低于某个预设阈值时就建议打击。这实际上是将国际人道法中的“比例原则”——要求平衡军事必要性与平民伤害——简化为一个冷冰冰的“附加伤害值”。
通过这种话语转换,血腥的战场决策被包装成纯粹的数据处理问题,稀释了决策者的直接道德感知。
责任链条的模糊化转移
AI的介入使得一次误击的责任主体变得前所未有的复杂。过去,误炸可能直接追究情报官或指挥官的责任。但现在,责任链条延伸至数据提供者、算法开发者、系统承包商以及最终操作的军方。
当“薰衣草”系统基于手机定位、通信拦截等可能过时或带有偏见的数据做出判断时,错误很容易被归咎于“数据质量”而非具体的人。这种多方参与的“流水线”,使得任何一方都可能将责任推诿给链条上的其他环节,最终陷入“集体负责等于无人负责”的困境。
专家指出,这种责任模糊化正是AI军事化带来的核心挑战之一。
人类审查的形式化摆设
尽管以色列军方声称AI仅是辅助工具,最终决定权在人类,但实际操作中,人类审查环节被压缩到近乎形同虚设。一名以色列情报官员回忆,他只花了大约20秒来确认一个AI推荐的目标,其具体行动仅仅是核实目标是否为男性。
在AI系统每小时能生成数十个目标的高速节奏下,这种“人在回路”往往沦为机械式的“按回车键”。人类操作员在巨大的时间和心理压力下,容易产生“自动化偏见”,即默认AI提供的信息是准确可靠的。
当审查时间从几小时压缩到几十秒,所谓的“人类最终授权”就失去了实质性校验的意义,使得道德责任在最后一环被悄然卸下。
技术本身无法承担道德责任,最终的选择与代价,仍在于使用它的人类。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.