
在医院里,一张医学影像往往隐藏着大量关键信息。但要让AI 看懂这些影像,过去离不开医生手动“圈出”的病灶作为训练数据——这不仅耗费大量时间和精力,也成为医学影像 AI 难以大规模推广的重要原因。
有没有可能,让AI 不再依赖人工标注 ,也能自己学会“哪里可能有病灶”?
2026年 1月6日 ,中国科学院深圳先进技术研究院 医学成像科学与技术系统全国重点实验室 研究员王珊珊团队联合清华大学 助理教授周洪宇、 澳门科技大学 教授张康等 合作者在Nature Biomedical Engineering上发表了文章A multimodal vision–language model for generalizable annotation-free pathology localization。研究团队提出了一种名为AFLoc的人工智能模型,这一模型最大的特点是:不需要医生提前标注病灶,就能自动在医学影像中“找病灶” 。
![]()
传统的医学影像 A I模型的学习方式,就像学生做题必须先有标准答案,而AFLoc模型则更像是在“看图读报告”的过程中,自己学会理解影像含义。
研究人员介绍, “我们让AFLoc 模型同时学习两类信息,一类是医学影像本身,比如胸片、眼底照片或病理切片,另一类是医生撰写的临床报告。通过反复‘对照学习’,AFLoc模型会逐渐明白: 临床 报告中提到的疾病描述,对应影像中的哪些区域。 久而久之,即使没有人工标注,它也能在影像中准确标出最可能的病灶位置。”
研究团队在 胸部X光、眼底影像和组织病理图像 三种典型医学影像模态上对AFLoc进行了系统验证,结果显示模型均表现出优异性能。
在胸片实验中,AFLoc在覆盖肺炎、胸腔积液、气胸等 34种常见胸部疾病 、涉及 8个主流公开数据集 的测试中,在多项病灶定位指标上优于现有方法,并在多个病种中达到了甚至超越人类专家的水平。在眼底影像和病理图像任务中,AFLoc同样展现出稳定的病灶定位能力,定位精度优于当前主流模型。
除病灶定位外,AFLoc还展现出 强大的疾病诊断能力 。在胸部X光、眼底和组织病理图像的 零样本分类任务 中,其整体表现均优于现有方法。尤其在眼底视网膜病变诊断中,AFLoc的零样本分类性能甚至超越了部分依赖人工标注数据微调的模型。
![]()
AFLoc 模型 自动定位的 病灶区域。研究团队供图
“这一模型有效规避了传统深度学习方法对大规模人工标注数据的依赖,显著提升了医学影像数据的利用效率与模型的泛化能力,为临床影像AI从‘ 依赖手工标注 ’迈向‘ 自监督学习 ’提供了可行路径,也为构建更智能、更具通用性的医学人工智能系统提供了新的技术范式。”王珊珊研究员表示。
未来,研究团队还将进一步推动AFLoc在多中心真实临床场景中的验证与应用,加速其向临床辅助诊断系统的转化落地。
王珊珊研究员、澳门科技大学医学人工智能研究所教授张康为共同通讯作者;深圳先进院医工所影像中心博士生杨浩、清华大学助理教授周洪宇为共同第一作 者 ;深圳先进院为第一完成及最后通讯单位 。 研究工作同时得到了郑海荣院士的指导与支持。
论文链接:https://www.nature.com/articles/s41551-025-01574-7
制版人: 十一
学术合作组织
(*排名不分先后)
![]()
战略合作伙伴
(*排名不分先后)
![]()
![]()
转载须知
【非原创文章】本文著作权归文章作者所有,欢迎个人转发分享,未经作者的允许禁止转载,作者拥有所有法定权利,违者必究。
BioArt
Med
Plants
人才招聘
近期直播推荐

点击主页推荐活动
关注更多最新活动!
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.