医疗AI的训练成本正在断崖式下跌。
传统思路是用海量病历喂模型,但新研究换了个玩法:只给大模型看少量病例——少则32例,多则256例——它就能学会诊断新病种。这叫"上下文学习",模型从提示里的例子直接找规律,不用改参数。
![]()
测试覆盖了57个临床数据集,涵盖精神病学、肿瘤科等科室。结果很一致:给的例子越多,准确率越高。256例时,表现接近专门微调过的模型。
![]()
关键发现是"规模效应"。70亿参数的模型基本没用,但700亿参数的出现质变。这说明大模型的医疗能力不只是记忆,而是真的在样本里抽象出了诊断逻辑。
这对罕见病是好消息。全球7000多种罕见病,多数缺乏大规模数据,传统AI束手无策。现在只需整理几十份典型病例,就能快速搭建专科辅助诊断工具。
![]()
不过研究者也划了红线:这不能替代医生,只是决策支持。临床场景复杂,模型的"学习"边界还需更多验证。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.