上个月,沈阳一个老太太因为胸痛去医院。医生开了CT,片子出来后,影像科的AI系统报告显示:未见明显异常。医生看了一眼AI的结论,又看了看片子,觉得“应该没啥大问题”,开了点止疼药就让回家了。
三天后,老太太心梗去世。
家属把医院告了。医患办的人说:我们用的是国内某大厂的AI辅助诊断系统,根据国家药监局的审批文件,该产品为“辅助诊断工具”,最终诊断责任由医生承担。AI只是建议,医生是最终决策者。
听起来没毛病对吧?但我问你:如果一个医生每天要看200张片子,AI说“没问题”的时候,他的警惕性会不会下降?他的眼球会不会自动跳过那张片子的细节?他的大脑会不会下意识地接受那个“辅助建议”?
这叫自动化偏见。心理学上研究得很清楚:人会过度信任机器,尤其是当机器大部分时间正确的时候。
那这个锅该谁背?
从法律上看,这分三层。第一层,如果AI本身有缺陷,那是产品责任,告厂商。但药监局的审批文件明确说了这是“辅助”级别,不是“替代”级别,厂商已经尽责了。第二层,如果医生没认真看片子,那是医疗事故,告医院。但医生说“我看了,我也觉得没问题”,这怎么证明?第三层,如果两个都没错,但患者还是死了呢?
那就麻烦了。
更细思极恐的是,这种“辅助”正在变成事实上的“替代”。因为医院买AI的原因,不是因为它准,是因为它能提高效率。原来一个医生一天看100张片子,现在能看200张,科室创收翻倍。但病人的安全冗余呢?原来医生看100张的时候,每张都能仔细看三遍。现在看200张,每张只能看一遍,还要依赖AI的“辅助”。
这个逻辑推到底就是:效率上去了,安全下来了。AI没有杀人,但AI让杀人变得更容易被忽略。
老太太的案子最后调解了。医院赔了40万,厂商象征性地出了5万“人道主义补偿”。家属没再上诉。因为他们打听到,这种案子胜诉概率很低——毕竟医院可以说,AI辅助,医生决策,我们合规。
合规,但不合理。合法,但不合命。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.