一家AI公司提前3个月封禁了潜在枪手的账号,却在案发后才通知警方。这种"事后诸葛亮"式的安全机制,暴露了生成式AI在风险预警上的致命盲区。
事件时间线:从账号封禁到8人遇难
2025年6月,18岁的Jesse Van Rootselaar因向ChatGPT描述枪支暴力场景,被OpenAI系统标记并封禁账号。公司内部就是否报警展开讨论,最终选择沉默。
3个月后,这起被压下的风险演变成现实惨案——Van Rootselaar涉嫌枪杀8人。OpenAI这才匆忙联系加拿大警方。
道歉与争议:亡羊补牢还是责任逃避?
OpenAI CEO Sam Altman致信加拿大Tumbler Ridge镇居民,称"深感抱歉"未及时报警。这封信经当地报纸Tumbler RidgeLines首发,Altman透露他与镇长、省长一致认为"公开道歉有必要",但"也需时间尊重社区哀悼"。
不列颠哥伦比亚省省长David Eby在X平台回应:道歉"必要,却远不足以弥补8个家庭遭受的毁灭性打击"。
安全机制悖论:技术能识别风险,为何拦不住悲剧?
OpenAI承诺改进协议:放宽向警方转介账号的判定标准,并与加拿大执法部门建立直接联络渠道。但核心矛盾未解——当AI检测到危险信号时,企业的责任边界究竟在哪?
Altman表态将继续与政府合作"确保类似事件不再发生"。然而对于失去8条生命的社区而言,算法预警与人工决策之间的致命延迟,已成无法逆转的伤痛。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.