癌症诊断AI可从组织切片中提取人口统计线索,在医疗决策中产生隐藏偏见。科学家现已证明,通过更智能的训练可大幅减少这一问题。
![]()
- 新研究显示,用于病理切片癌症诊断的AI系统对不同人口群体表现不一,准确性存在差异。
- 研究人员找出偏见背后三大关键原因,并提出新方法显著缩小这些差异。
- 结果强调,医疗AI必须定期评估偏见,以确保所有人获得公平可靠的癌症护理。
数十年来,病理学一直是医生诊断和治疗癌症的核心。病理学家在显微镜下观察极薄的人体组织切片,寻找癌症存在与否、类型及阶段的视觉信号。对训练有素的专家而言,检查布满紫色细胞的粉色漩涡状组织样本,就像批改无姓名的试卷——切片含疾病关键信息,但无患者身份线索。
这一假设并不完全适用于进入病理实验室的AI系统。哈佛医学院领导的新研究显示,病理AI模型可直接从组织切片推断人口统计细节,这种意外能力会在不同患者群体中引入癌症诊断偏见。研究人员评估多款常用癌症识别AI模型后发现,这些系统对不同种族、性别和年龄的患者诊断准确性存在差异。例如,模型在区分非裔美国患者和男性患者的肺癌亚型时表现较差,对年轻患者的乳腺癌亚型分类准确性也降低。
病理AI偏见的三大原因
- 训练数据不均衡:某些群体的组织样本更易获取,导致数据集失衡,使AI对代表性不足群体诊断困难。
- 疾病发生率差异:部分癌症在特定群体中更常见,AI对这些群体更准确,对少见群体则表现差。
- 分子差异检测:AI能识别不同群体的细微分子差异(如基因突变),若这些突变在某些群体中不普遍,会降低诊断准确性。
研究人员开发出基于对比学习的FAIR-Path框架,调整AI训练使其更关注癌症类型差异,减少对人口统计特征的关注。应用该框架后,诊断差异下降约88%,即使训练数据集未完全平衡也能有效减少偏见。
团队正与全球机构合作,在不同人口、临床实践和实验室环境中研究病理AI偏见,探索FAIR-Path在数据有限情况下的应用,以及AI偏见对医疗差距的影响,目标是开发快速、准确且公平的癌症诊断AI系统。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.