![]()
2023年,内华达州里诺市警局采购的人脸识别系统,把Jason Killinger的脸和另一个赌场黑名单上的人"100%匹配"。12小时后他从班房出来,现在正把整座城市告上法庭。
一次下注,一场误捕
Killinger当时只是在赌场里正常下注。安保系统突然报警,AI判定他就是那个早被禁足赌场的男子。赌场保安扣住他,警官Richard Jager到场,没查他钱包里另外三张证件,直接以"使用假身份证"罪名逮捕。
手铐造成的身体损伤、12小时拘押的精神损耗,这些后来都成了诉状里的赔偿条目。但Killinger的律师团队显然想要更多——他们把矛头指向了里诺市本身的制度漏洞。
联邦法官Miranda Du今年早些时候裁定,Killinger可以把里诺市列为共同被告。这意味着案件从"一个警察搞砸了"升级成"一座城市的系统性失职"。
"不是个案,是惯例"
诉状里的措辞相当狠:「Jager的行为不是某个 rogue employee(问题员工)的偶发失误,而是广泛存在的习惯和做法——数百名市政雇员多年来以同样方式制造了数千起逮捕。」
"数千起"这个数字如果坐实,里诺市的人脸识别系统就成了全美最激进的误捕流水线之一。Killinger的律师指控该市从未对警员进行AI执法工具的合规培训,导致技术成了甩锅工具:机器说抓,人就抓。
这种"算法背书即正义"的逻辑,在执法领域蔓延得比公众意识快得多。Killinger案的特殊之处在于,原告试图用集体诉讼的规模感,倒逼一个城市为它的技术依赖症买单。
北达科他的前车之鉴
去年Fargo(法戈)的案子更荒诞。一位祖母级嫌疑人被生成式AI系统指认为ATM诈骗犯,关了六个月才发现银行记录显示案发时她在1200英里外。生成式AI在这里扮演的角色是"调查线索生成器"——比人脸识别更上游,也更难追溯。
两起案件的共同点:执法人员把AI输出当作充分条件,而非需要验证的假设。Killinger钱包里的三张备用证件,Fargo那位祖母的异地消费记录,都是基础到可笑的排查步骤,却被算法的光环效应屏蔽了。
里诺市现在面临的赔偿清单包括:惩罚性赔偿、律师费、身体损伤补偿。如果败诉,纳税人将为这套采购自未知厂商的人脸识别系统支付远超原始合同价的账单。
precedent 的赌注
Killinger案如果胜诉,可能开创一个危险先例:市政当局需要为AI执法工具的误报承担连带责任。这对正在采购类似系统的城市是个警告——技术合同里的免责条款,未必能挡住宪法第四修正案的诉讼。
但反过来,如果里诺市成功脱责,"算法建议"在法律上的地位会更加模糊。警察可以说:我只是按系统提示行事,责任在机器。这种辩护策略在Killinger案中被直接挑战,原告方坚持认为这是"制度性放任"而非个人失误。
目前案件仍在早期阶段,Killinger的律师尚未提出具体赔偿金额。但诉状里"数千起 unlawful arrests(非法逮捕)"的指控,已经让里诺市的法务部门陷入被动——承认则意味着集体诉讼的洪水闸门,否认则需要解释为什么一个未受训的警员能凭AI提示随意抓人。
赌场的人脸识别系统仍在运行,里诺警局的采购预算里大概还有下一套算法的尾款。Killinger的12小时班房经历,会变成判例还是脚注,取决于联邦法院愿意在多大程度上让城市为它的机器背书。
如果AI的"100%匹配"在法律上被认定为合理怀疑的充分依据,下一个被手铐铐错的人,该找谁算账?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.