![]()
一个被人工智能提前八个月标记出的危险信号,为何没能阻止一场八人遇难的枪击惨案?
当自动审核系统已经明确拉响警报,掌握技术能力的机构却选择了沉默,这背后暴露的,或许是整个AI治理体系中一道尚未弥合的裂缝。
2026年2月,加拿大塔布勒岭镇发生大规模枪击事件,造成8人死亡。
嫌疑人杰西·范·鲁特塞拉尔的ChatGPT账户,早在2025年6月就被OpenAI的自动审核系统标记并封禁,原因是他描述了极其具体的暴力场景。
据《华尔街日报》披露,当时部分内部员工已将这些文字解读为现实暴力可能的先兆,并敦促管理层联系加拿大执法部门。
然而,OpenAI高管最终决定不向警方通报。
直到今年4月23日,CEO萨姆·奥特曼才向塔布勒岭镇镇长和不列颠哥伦比亚省省长致信,对未能及时联系当局表达歉意,并承诺寻求方法避免类似悲剧重演。
一项常被误解的事实是,AI内容审核的“封禁”本质上是一次契约行为,而非公共安全响应。自动审核系统识别到违规内容后,常依据用户协议中止服务,其在设计逻辑上就默认为“切断交互即消除风险”。
但如果用户文字已经具备高度具象的暴力幻想特征,甚至指向可能的现实行动时,那种停留在平台内部的封停动作,实质上变成了一种风险信息的拦截与截留。
换句话说,一个能够提前八个月嗅到危险气息的算法,却因为缺乏与公共安全体系的制度性接口,而只能将警报封存在服务器日志里。
这一点恰恰指向了我们不得不正视的“责任断点”。
企业内部曾有过报警的声音,最终还是被决策层否决。这并非简单的道德冷漠,而更可能源自一种深层的认知惯性,我将其称之为“模型沙盒谬误”——部分技术管理者倾向于将用户生成的一切暴力叙述,全部归入AI诱导出的“虚构幻想”范畴,认为那不过是模型统计规律下的概率输出,而非真实意图的泄露。
他们相信,既然大语言模型是对海量文本的拟态,那么危险语料不过是数字镜城中一个扭曲的倒影,不值得用现实世界的法律干预去回应。这种将异常降维为技术故障的思维,恰恰构成了当下AI安全治理中最隐蔽的盲区。
可悲剧已经证明,数字痕迹有时并不“虚拟”,它会先于枪声,留下真实到令人战栗的轮廓。
再说了,奥特曼的道歉虽然在措辞上表达了哀悼与合作意愿,却仍然没有触及一个根本性问题,那就是科技平台是否需要被赋予强制性的“极端风险上报义务”?
当前,许多司法辖区对于网络平台的要求,依旧主要围绕儿童保护、恐怖主义内容等领域,对更宽泛的潜在暴力预警,缺乏清晰的法律指令。
这就造成了一个责任真空——是否报警,被异化成企业的一项自选动作,甚至可能被商业声誉、用户隐私顾虑和法务考量所左右。
如果仅靠企业内部松散的自由裁量,那么对公共安全至关重要的时间窗口,极有可能在一次次会议讨论中悄然流逝。
我们需要建立的,是一套跨域的“人机协同预警机制”,让AI的感知能力与人类的伦理判断以及执法部门的专业评估贯穿起来。
自动审核系统标记高危信号后,应触发独立的伦理审核通道,由经过训练的专业人员依据结构化指标,判断是否需要向特定公共安全接口报送。
这项流程不应只是企业自律的附加项,而应成为法律框架下明确界定的社会责任。唯有如此,算法捕捉到的微弱信号,才不会在层层内审中被消音,成为事后追悔时那一封迟到了太久的致歉信。
技术已经先行一步,学会了在浩瀚的数据流中辨认出灾难的前兆。
但制度如果继续缺位,人如果能继续选择视而不见,那任何先进的AI都不过是一台无人倾听的报警器。当算法已经发出警示,人类的决策便不能成为失灵的最后一环。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.