2025年7月,美国法警敲开田纳西州一户人家的门时,安吉拉·利普斯正在 babysitting。她从未踏足过北达科他州,却因该州法戈市的一起银行欺诈案被通缉。从被捕到获释,她在监狱里待了将近4个月——而整件事的起点,只是一张AI生成的面部识别匹配结果。
一张"匹配"照片如何变成逮捕令
![]()
时间线要倒回2025年初夏。北达科他州法戈市警察局手头有一桩银行欺诈案,需要锁定嫌疑人。他们没有直接动用自己的技术,而是向邻市西法戈警局求助——后者常规性使用一家叫Clearview AI的公司提供的面部识别系统。
Clearview AI的技术逻辑并不复杂:从社交媒体等公开渠道抓取数十亿张照片,建立庞大人脸数据库,再用算法比对警方提供的监控图像。法戈警方把案发现场的画面输入系统,机器吐出了一个名字:安吉拉·利普斯。
但这里有个关键细节被反复提及。法戈警察局长戴夫·齐博尔斯基事后强调,此案"并非仅基于"AI生成的线索。警方声称还进行了其他调查步骤,才最终申请了对利普斯的逮捕令。
问题是:这些"其他步骤"具体是什么?原文没有交代。我们只知道,2025年7月,美国法警出现在利普斯家门口,以逃犯名义将她收押,且不得保释。
四个月牢狱:从田纳西到北达科他
利普斯的处境迅速恶化。她在田纳西县的监狱里从7月待到10月,随后被引渡到北达科他州面对多项指控。整个过程中,她始终否认与案件有关,并声称自己从未去过那个遥远的州。
转机出现在她的律师介入后。辩护团队调取了利普斯的银行记录——这些客观的交易数据最终证明了她的清白。检方撤销指控,利普斯获释。
但故事没有到此结束。获释后的利普斯被困在了北达科他州,身无分文,远离家乡。她最终设法回到了田纳西,而法戈警方对这四个月的"超长待机"给出了两种解释:要么是她本人抗拒引渡,要么是她同时在为另一起案件服刑。
原文在这里断掉了。我们不清楚利普斯是否真的涉及其他案件,也不清楚警方所说的"另案"是否与AI识别错误有关。信息缺口本身就成了问题的一部分。
这不是孤例:底特律的10小时与法戈的4个月
利普斯的遭遇有一个令人不安的参照。2024年,底特律女子波查·伍德鲁夫因面部识别错误被控劫车,在狱中度过了10小时。 charges dropped后,警方承认错误,据报道还推动了底特律调整面部识别使用方式。
两个案例的对比很刺眼:同样的技术,同样的错误,后果却从"10小时"跳到了"近4个月"。伍德鲁夫的案例促使政策改变,而利普斯的案例发生在一年之后、千里之外——技术扩散的速度,明显快于教训吸取的速度。
更值得追问的是时间差本身。伍德鲁夫案曝光后,公众已经知道面部识别会出错。为什么法戈警方仍然愿意仅凭(哪怕是部分依据)AI匹配结果,就启动跨州逮捕?为什么从7月到10月,没有任何机制在引渡前拦截这个错误?
原文没有给出答案。但我们可以确认的是:利普斯的银行记录最终成为救命稻草——这意味着,如果她的消费习惯更"现金化",或者如果她的律师没有主动调取这些记录,她可能会在监狱里待更久。
Clearview AI:技术供应商的沉默
整件事里,Clearview AI的角色耐人寻味。作为技术提供方,它的系统生成了最初的匹配结果,但原文没有任何关于该公司回应的记载。没有道歉,没有技术解释,没有承诺改进。
这种沉默有其商业模式的支撑。Clearview AI的核心资产是那个数十亿张图片的数据库,以及从中提取匹配结果的算法。它向执法机构销售的是"可能性"——这张脸和那张脸有多像——而非"确定性"。但警方拿到这个"可能性"后,如何转化为"合理怀疑"乃至"逮捕令",中间的黑箱几乎无人监督。
法戈警方强调"并非仅基于AI",恰恰暴露了这个灰色地带。当技术输出与人类判断混合时,责任变得模糊:如果AI错了,但警察"核实"过,算谁的责任?如果警察的"核实"本身就被AI结果锚定了(心理学上叫确认偏误),这套制衡机制还有效吗?
利普斯的案例没有走到诉讼阶段,所以我们看不到法庭对这些问题的审视。她回家了,指控撤销了,但四个月的人生、收入、声誉——这些损失由谁承担?原文没有提及任何赔偿或问责。
技术部署的速度与纠错机制的滞后
把利普斯案放在更大的时间线上看,会发现一个规律:面部识别技术在警务中的扩散,始终快于对其失误的系统性应对。
2024年底特律的调整,本可以成为全国性警示。但2025年的法戈案例表明,技术采纳是碎片化的——一个城市的教训,不会自动传导到另一个城市。每个警察局都在做自己的"试点",而试错成本由像利普斯这样的个体承担。
更深层的问题是数据闭环的缺失。当面部识别出错时,错误信息是否被反馈给算法以改进模型?当无辜者被释放后,他们的面部数据是否从嫌疑数据库中清除?原文没有提到这些机制的存在,而公开报道中也很少看到相关披露。
对于25-40岁的科技从业者来说,这个案例的警示可能在于:我们习惯了讨论AI的"准确性"指标——99%还是99.9%——但警务场景下的错误成本不是均匀分布的。对利普斯而言,她不是那0.1%的统计误差,她是100%的牢狱之灾。
当AI成为警察的"第一响应者"
法戈警方的操作手册里,面部识别显然已经被纳入常规工具箱。但"工具化"本身改变了决策逻辑:当技术能在几秒内给出"答案",人类调查员是否还有动力去做更耗时的排查?当算法输出被包装成"数据驱动"的决策依据,司法审查是否会放松警惕?
利普斯的律师用银行记录推翻指控,这个细节很重要。它说明在AI时代,传统的"不在场证明"仍然有效——但前提是,你能拿到这些记录,并且有人愿意看。如果利普斯没有律师,或者如果她的财务状况更脆弱,结果会如何?
这也指向一个产品设计层面的问题:面部识别系统的用户界面,是否充分提示了不确定性?当Clearview AI向法戈警方展示匹配结果时,有没有标注置信度区间?有没有警告"此结果需人工核实"?原文没有描述这些细节,但商业软件的设计选择,往往决定了下游如何使用。
利普斯之后:我们还在等待什么?
截至原文发稿,利普斯已经回家,法戈警方承认了错误,但似乎没有公开承诺改变流程。Clearview AI继续向其他执法机构销售服务。下一个"利普斯"可能正在某个数据库里等待匹配。
对于关注产品创新的读者,这个案例提出了一个尖锐的问题:当AI系统的错误成本由个体承担、而收益由机构获取时,市场机制本身能否纠偏?还是需要强制性的监管介入——比如,面部识别结果不得单独作为逮捕依据,或者必须配套独立的生物特征验证?
底特律在伍德鲁夫案后做了调整,但调整的具体内容原文没有详述。这种信息的不透明本身,就是技术治理的障碍。如果每个城市的"最佳实践"都藏在内部备忘录里,公众如何评估风险?潜在的受害者如何自保?
利普斯的四个月,最终靠银行记录救赎。但在一个现金消失、隐私萎缩的时代,这种"救赎路径"本身也在变窄。当你的生活轨迹越来越多地以数据形式存在,证明"我不是我"反而可能变得更难——尤其是当AI说你就是的时候。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.