<body> SEPTA 在 2023 年在费城试点了一种新的执法工具:安装在七辆公交车上的人工智能摄像头。结果立竿见影:仅在 70 天内,摄像头就标记了超过 36,000 辆阻塞公交车道的汽车。该系统使用人工智能摄像头,利用计算机视觉技术检测阻塞公交车道的车辆,并扫描车牌以识别违反规则的车辆。如果系统标记出可能的违规行为,人工审核员会在发出罚款之前确认:市中心罚款 76 美元,其他地方 51 美元。这一推广正值 SEPTA 面临 2.13 亿美元的预算赤字,并且即将进行服务削减和票价上涨。
公平与透明
当汽车阻塞公交车道时,就会导致交通拥堵。由此产生的延误可能会打乱一个人的日程,导致错过连接或让乘客上班迟到。这可能让乘客觉得不可靠。因此,如果人工智能执法有助于保持这些车道畅通,那就是一项胜利。公交车行驶更快,通勤时间更短。但问题在于:良好的意图在系统感觉不公平或不可信时是无效的。我们的调查还发现,超过 70% 的受访组织对自己的数据并不完全信任。在公共执法的背景下,无论是交通机构还是停车管理局,这都是一个警告信号。没有可信的数据,基于人工智能的罚单可能会将效率转化为代价高昂的错误,例如错误发出的罚单需要退款、纠正错误所浪费的员工时间,甚至法律挑战。公众信任在这里至关重要,因为人们在看到过程准确和透明时,更可能遵守规则并接受处罚。人工智能标签效应
人们可能会问:“这个罚单系统不就是红灯或超速摄像头吗?”从技术上讲,是的。该系统检测违规行为,人工审核证据后才会发出罚单。但仅仅将技术标记为人工智能就可以改变人们的看法。这就是所谓的框架效应。仅仅称某物为人工智能驱动的,可能会让人们对其信任度降低。研究表明,无论系统是评分论文还是招聘员工,当提到人工智能时,完全相同的过程会引发更多的怀疑。人们听到“人工智能”就会假设机器在做判断,因此他们开始寻找缺陷。即使他们认为人工智能是准确的,信任的差距也永远无法弥补。这种看法意味着公共机构需要将基于人工智能的执法与透明度、可见的保障措施和便于挑战错误的方式对齐。这些措施有助于将其从一个罚单机器转变为人们可以信任的公共服务。 </body>特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.