截至今年5月,FDA已批准882项AI软件或AI驱动的医疗设备,其中671项用于临床影像领域。最新研究发现这些AI算法并非准确预测疾病或辅助诊断,反而出现不理想情况,如女性和有色人种患者可能出现偏差几率更大。关注详情。
阅读文摘
MIT研究人员归纳汇总研究发现,已经获FDA批准进入临床应用的人工智能AI算法软件或医疗设备在分析临床影像资料时,可能对不同种族和性别的患者产生偏见,尤其对女性和有色人种患者的预测表现更差。
MIT研究人员认为,能否准确预测人口统计学特征的AI模型,通常在不同群体之间的临床诊断准确性存在着“公平误差”。
研究发现,这些AI模型可能依赖“人口统计学和捷径”进行辅助诊断,导致了对特定亚群体的预测结果不准确。
研究人员尝试通过优化子组稳健性和使用群体对抗方法来缩小这一差距,但仅在使用与训练数据相似的数据时有效。换句话讲,当AI应用于不同医院的临床数据时,预测结果的公平性差距依然存在。
这项研究强调了在各家医院实际应用AI软件之前,医院应当根据自身患者群体对AI模型进行重新评估,以确保其结果的准确性和公平性。
,全球医生组织将与斯坦福大学、加州大学旧金山分校、哈佛大学医学院、麻省总医院、美国健康人工智能联盟机构,以及谷歌健康项目、英伟达智慧医院项目等密切合作,交流AI医学前沿进展和成功案例。关注我们。
关注我们,获取生物医学前沿最新资讯
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.