![]()
美国内华达州里诺市的纳税人,可能很快要为一套AI人脸识别系统买单。不是维护费,是赔偿金——而且数额未定。
Jason Killinger的遭遇像极了一场荒诞剧:他在赌场正常下注,系统突然弹窗提示"100%匹配",保安围上来,警察把他铐走。12小时后释放,零道歉。现在他把整座城市告上了法庭。
从"百分百匹配"到双手被铐:一场算法乌龙的全流程
事件起点是里诺某赌场的监控摄像头。AI系统将Killinger的面部与一名早被禁入赌场的男子比对,输出结果:完全匹配。
赌场保安据此扣留了他。随后赶到的警察Richard Jager没有核实其他证件——Killinger钱包里当时装着至少三张不同ID——直接以"使用假证"罪名逮捕。
联邦法官Miranda Du近期裁定,Killinger可以将里诺市列为被告。此前他已起诉Jager个人,现在枪口抬高了:不是单个警察失职,是整套培训体系的溃败。
诉状措辞尖锐:"Jager的行为不是孤立的 rogue employee(问题员工)事件,而是广泛惯例的结果——数百名市政雇员多年来以同样方式制造了数千起非法逮捕。"
算法背锅,谁该负责?
Killinger的律师团队抛出了一个危险数字:数千起。他们指控里诺市未能培训警员合法使用AI面部识别工具,导致系统性侵权。
这个指控如果坐实,意味着算法错误不再是"技术局限"的免责金牌,而是城市治理的失职证据。
赔偿清单已经列好:惩罚性赔偿、律师费、手铐造成的身体伤害补偿。具体金额未公开,但参考同类案件,六位数起步并不夸张。
![]()
更值得玩味的是胜诉后果。Killinger若赢,将为"AI时代错误逮捕"树立法律先例——当算法而非人类主导执法判断,责任边界在哪里?
机器抓人,不是第一次翻车
去年北达科他州Fargo市的案例更惨烈。一位无辜祖母被生成式AI系统指认为ATM诈骗犯,羁押超过六个月。银行记录最终证明,案发时她在1200英里之外。
六个月 vs. 十二小时,数字对比背后是同一种模式:警察选择信任机器,放弃基础核实。
Killinger案的特殊性在于,它把追责对象从个人扩展到制度。不是"这个警察太懒",而是"这座城市默许了懒惰"。
这种诉讼策略的转变,可能比赔偿金额本身更具杀伤力。
当"智能监控"成为城市基础设施
里诺市的困境有普遍性。全球范围内,AI面部识别正快速嵌入公共安全系统——速度快过法律框架的更新,更快过警员培训手册的修订。
赌场是早期 adopters(采用者),因为禁入名单管理需要高效率。但当这套逻辑平移到街道、地铁、机场,误判的代价从"被拒绝入场"升级为"被剥夺自由"。
Killinger的诉状戳破了一个幻觉:技术供应商承诺的"准确率",不等于司法系统可以承受的"容错率"。99%的正确识别,在千万级人流中意味着数万冤案。
而"100%匹配"这种输出表述,本身就是设计缺陷——它用确定性语言包装概率性结果,直接误导了 downstream(下游)决策者的判断。
里诺市尚未对诉讼公开回应。但内华达州的纳税人或许该问:我们为这套系统付过钱了,现在要为它的错误再付一次吗?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.