网易首页 > 网易号 > 正文 申请入驻

击败40%临床医生!谷歌首次验证「全科医学AI系统」,看病难真要成历史?

0
分享至

新智元报道

编辑:LRS

【新智元导读】基于100万医学数据、PaLM模型、ViT模型,谷歌全新模型Med-PaLM M成医学界大模型新sota!

「看病难」在全世界范围内都是一个难题,想要成为一位优秀的专科、全科医生不仅需要耗费大量时间来进行知识学习,还需要经历足够多的病例来获取实操经验。

如果医学AI系统足够强大,在常见病的处理上完全可以取代人类医生,医疗服务紧缺现象也会得到极大缓解。

今年4月,美国哈佛大学、斯坦福大学、耶鲁医学院、加拿大多伦多大学等多所顶尖高校、医疗机构的研究人员在Nature上联合提出了一种 ,可以灵活地编码、整合和大规模解释医学领域的多模态数据,比如文本、成像、基因组学等,有可能颠覆现有的医疗服务形式。

最近,Google Research和Google DeepMind共同发布了一篇论文,对全科医学人工智能概念进行了实现、验证。

研究人员首先策划了一个全新的多模态生物医学基准数据集MultiMedBench,包含100多万条样本,涉及14个任务,如医疗问题回答、乳腺和皮肤科图像解读、放射学报告生成和总结以及基因组变异识别。

然后提出了一个新模型Med-PaLM Multimodal(Med-PaLM M),验证了通用生物医学人工智能系统的可实现性。

Med-PaLM M 是一个大型多模态生成模型,仅用一组模型权重就可以灵活地编码和解释生物医学数据,包括临床语言、成像和基因组学数据。

在所有MultiMedBench任务中,Med-PaLM M的性能都与最先进的技术相差无几,在部分任务上甚至还超越了专用的SOTA模型。

文中还报告了该模型在零样本学习下可以泛化到新的医学概念和任务、跨任务迁移学习以及涌现出的零样本医学推理能力。

文中还进一步探究了Med-PaLM M的能力和局限性,研究人员对比了模型生成的及人类编写的胸部X光报告进行了放射科医师评估,在246份病例中,临床医生认为Med-PaLM M的报告在40.5%的样本中比放射科医生编写的要更好,也表明Med-PaLM M具有潜在的临床实用性。

MultiMedBench

为了训练和评估大模型在执行各种临床相关任务的能力,谷歌的研究人员收集了一个多任务、多模态的全科医疗基准数据集MultiMedBench

该基准由12个开源数据集以及14个独立任务组成,包含100多万条样本,涵盖了医疗问答、放射学报告、病理学、皮肤病学、胸部X光、乳房X光和基因组学等多个领域。

任务类型: 问题回答、报告生成和总结摘要、视觉问题回答、医学图像分类和基因组变异识别(genomic variant calling)

模态: 模式:文本、放射学(CT、MRI 和 X-射线)、病理学、皮肤病学、乳房X射线检查(mammography)和基因组学。

输出格式: 所有任务(包括分类任务)都是开放式生成(open-ended generation)

纯语言任务包括医学问题回答(MultiMedQA任务)和放射学报告总结,可以测试模型是否具有理解、回忆和操作医学知识的能力。

多模态任务包括医学视觉问题解答 (VQA)、医学图像分类、胸部X光报告生成和基因组变异识别,非常适合评估模型的视觉理解和多模态推理能力。

Med-PaLM M:全科生物医疗AI的概念验证

基座模型:PaLM-E

PaLM-E是一个多模态语言模型,可以处理包括文本、视觉和传感器信号等多模态的输入序列,使用了预训练的PaLM和ViT模型,在OK-VQA和VQA v2等多个视觉语言基准测试中表现出色。

PaLM-E可以灵活地在单个提示中交错显示图像、文本和传感器信号,使模型能够在完全多模态的背景下进行预测。

PaLM-E具有零样本多模态思维链(CoT)推理和少样本上下文学习等多种能力。

研究人员利用PaLM-E模型作为Med-PaLM M的基础架构,组合了128B、84B和562B三个不同参数量的PaLM-E模型。

预处理

研究人员将MultiMedBench数据集中的所有图像重新调整为224×224×3尺寸,同时保留原始长宽比,在必要时进行填充处理;对于灰度图像,沿通道维度(channel dimension)对图像进行堆叠,将灰度图像转换为三通道图像。

其他与任务相关的预处理方法,如类平衡、图像数据增强等请参阅原文。

指令任务提示、one-shot样例

想要训练一个通用生物医学人工智能模型,模型架构及参数上的统一、能够同时处理多模态、多任务的输入是很重要的。

研究人员采用指令微调的方式,为不同任务设定不同的指令,使得模型可以在统一的生成架构内执行不同类型的任务,其中任务提示由指令、相关上下文信息和问题组成。

比如在胸部X光报告生成任务中,上下文信息包括研究原因和图像方向;而在皮肤病学分类任务中,则提供与皮损图像相关的患者临床病史作为上下文。

研究人员将所有分类任务都设计成多选问题,将所有可能的类别标签作为单个答案选项提供,并提示模型生成最可能的答案作为目标输出。

对于其他生成任务,如视觉问题解答、报告生成和总结,则根据目标响应对模型进行微调。

从实验结果来看,Med-PaLM M的最佳结果(三种模型尺寸)在12个任务中的5个都实现了超越先前SOTA的性能,并且在其余任务上也展现出极有竞争力的性能表现。

值得注意的是,这些结果是在使用相同模型权重集的通用模型中取得的,没有针对特定任务进行任何架构定制或优化。

在医疗问题回答任务上,先前的SOTA模型Med-PaLM 2性能更高,但与基线PaLM模型相比,Med-PaLM M在三个问答任务上,实现了远超PaLM的性能。

不同尺寸模型的性能对比

对比12B、84B 和562B的Med-PaLM M模型性能,可以观察到:

1. 语言推理任务受益于模型规模的扩大

对于需要语言理解和推理的任务,如医学问题回答、医学视觉问题回答和放射学报告总结,将模型规模从12B扩大到562B时,性能显著提高。

2. 视觉编码器的性能是多模态任务的瓶颈

对于乳房X射线或皮肤病学图像分类等任务,需要细致入微的视觉理解能力,对语言推理的需求极低(输出仅为分类标签标记)。

可以看到,从Med-PaLM M 12B到Med-PaLM 84B,性能有所提高,但562B模型带来的性能提升却很有限,可能是因为视觉编码器在该步骤中没有进一步扩大参数量(Med-PaLM M 84B 和 562B 模型都使用相同的22B ViT作为视觉编码器),成为性能增益的瓶颈;其他干扰因素可能还包括输入图像的分辨率等。

在胸部X光报告生成任务中,从表面上看,这项任务似乎需要复杂的语言理解和推理能力,可以从更大的语言模型中受益;但从实际效果上来看,Med-PaLM M 84B模型在大多数指标上与562B模型大致相当或略微超过,可能仅仅是由于较大的模型使用了较少的训练步骤。

增加语言模型尺寸没用的另一个原因可能是,MIMIC-CXR数据集中生成胸部X光报告的输出空间相当有限,只有一组模板句子和有限数量的条件,所以在生成报告时采用检索而非生成的方式可能更好。

此外,更大的562B模型倾向于生成冗长的报告,而84B模型则相对简洁,如果在训练中没有进一步做偏好调整,可能会影响最终的评估指标。

零样本通用能力

通过评估Med-PaLM M从蒙哥马利县(Montgomery County,MC)数据集中的胸部X光图像中检测肺结核(TB)异常的能力,研究人员探究了Med-PaLM M对未知医学概念的零样本泛化能力。

可以看到,相比专门优化过的SOTA模型,不同尺寸的Med-PaLM M性能相近,在没有额外训练样本的情况下,准确率只落后不到5%

在推理方面,研究人员在MC TB数据集上定性地探索了 Med-PaLM M 的零样本思维链(CoT)能力。

与分类设置不同的是,除了是/否分类预测外,还需要用纯文本示例提示模型生成一份报告,描述在给定图像中的发现。

从实验结果中可以发现,Med-PaLM M模型可以在正确的位置识别出结核病相关的主要病变。

不过,根据放射科专家的审查,模型生成的报告中仍有一些遗漏的结果和错误,仍有改进的空间。

值得注意的是,Med-PaLM M 12B无法生成连贯的视觉条件反应,也就是说语言模型的规模在零样本CoT多模态推理能力中起着关键作用,可能是一种涌现的能力。

参考资料:

https://arxiv.org/pdf/2307.14334.pdf

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
91年江青自杀不久后,李讷吃饭见一人:感谢你替我为我妈妈尽了孝

91年江青自杀不久后,李讷吃饭见一人:感谢你替我为我妈妈尽了孝

蒋南强读历史
2025-12-30 08:55:04
小马科斯与莎拉支持率两极分化,菲律宾政坛要变天?南海转机来了

小马科斯与莎拉支持率两极分化,菲律宾政坛要变天?南海转机来了

知鉴明史
2025-12-30 18:28:27
早就想打!日媒首次爆料:中国双航母出动时日军战机已做战斗准备

早就想打!日媒首次爆料:中国双航母出动时日军战机已做战斗准备

诗意世界
2025-08-21 13:13:50
伊森近期高光表现 是否会导致休赛期续不起 结果绝对令人意想不到

伊森近期高光表现 是否会导致休赛期续不起 结果绝对令人意想不到

大话火箭队
2025-12-31 19:21:45
为什么天庭宁愿花500年教化孙悟空,也不愿直接派哪吒去取经

为什么天庭宁愿花500年教化孙悟空,也不愿直接派哪吒去取经

另子维爱读史
2025-12-16 16:55:42
我国将在南海建设最大的军事基地

我国将在南海建设最大的军事基地

孤城落叶
2025-12-29 01:01:15
北洋政府的“北洋”,到底是什么意思?

北洋政府的“北洋”,到底是什么意思?

历史地理大发现
2025-12-27 15:17:17
王金平首提统一,话音刚落,郑丽文递邀请函,岛内77岁铁娘子出山

王金平首提统一,话音刚落,郑丽文递邀请函,岛内77岁铁娘子出山

阿离家居
2025-12-31 09:52:17
饲料大王刘永好坦言:我们吃的猪肉90%是“三元猪”,所以不香了

饲料大王刘永好坦言:我们吃的猪肉90%是“三元猪”,所以不香了

丁丁鲤史纪
2025-12-23 16:14:18
中国10大美食之都,西安第4,广州第2,第1实至名归,有空逛一逛

中国10大美食之都,西安第4,广州第2,第1实至名归,有空逛一逛

简食记工作号
2025-12-23 00:13:58
迅猛龙直播掉美颜上热搜:当百万粉丝看到她素颜,反应绝了

迅猛龙直播掉美颜上热搜:当百万粉丝看到她素颜,反应绝了

手工制作阿歼
2025-12-31 11:40:42
朱德军衔编号是004,直到60年后才揭开001是谁,佩服毛主席的格局

朱德军衔编号是004,直到60年后才揭开001是谁,佩服毛主席的格局

雍亲王府
2025-12-31 11:15:03
医学博士:肿瘤越来越高发,我们究竟被隐瞒了什么?

医学博士:肿瘤越来越高发,我们究竟被隐瞒了什么?

深度报
2025-12-21 23:01:02
马筱梅首次透露小宝宝属相!和小玥儿一样是属马的!比小宝大一轮

马筱梅首次透露小宝宝属相!和小玥儿一样是属马的!比小宝大一轮

乐悠悠娱乐
2025-12-31 13:39:02
一小时群满员,评论区彻底放开,亚洲周刊要干的大事终于藏不住了

一小时群满员,评论区彻底放开,亚洲周刊要干的大事终于藏不住了

三农老历
2025-12-30 15:12:48
美司令:一旦中国在台海设禁飞区,美军就只能击沉解放军的战舰了

美司令:一旦中国在台海设禁飞区,美军就只能击沉解放军的战舰了

浮光惊掠影
2025-12-12 23:27:34
欧拉弄仗着着泰王撑腰,当众甩脸?苏提达雷霆手段让她颜面尽失

欧拉弄仗着着泰王撑腰,当众甩脸?苏提达雷霆手段让她颜面尽失

白露文娱志
2025-12-31 15:47:18
大地主刘文彩的五姨太:比丈夫小26岁,2003年还在念叨“老头子”

大地主刘文彩的五姨太:比丈夫小26岁,2003年还在念叨“老头子”

历史龙元阁
2025-12-31 13:35:05
台岛西南外海发生激烈对峙,解放军向美军侦察机喊话:不走就拦截

台岛西南外海发生激烈对峙,解放军向美军侦察机喊话:不走就拦截

临云史策
2025-12-30 22:32:09
徐冬冬晒婚纱照!与50岁老公头纱吻浪漫,尹子维白发显深情

徐冬冬晒婚纱照!与50岁老公头纱吻浪漫,尹子维白发显深情

白日追梦人
2025-12-31 21:13:29
2025-12-31 22:03:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14227文章数 66408关注度
往期回顾 全部

科技要闻

老罗,演砸了,也封神了?

头条要闻

俄国防部披露"普京官邸遭袭"更多细节 公布无人机残骸

头条要闻

俄国防部披露"普京官邸遭袭"更多细节 公布无人机残骸

体育要闻

上海大胜辽宁5连胜 张镇麟弗格战旧主合砍28分

娱乐要闻

官宣才两天就翻车?七七被连环爆料

财经要闻

高培勇:分配制度改革是提振消费的抓手

汽车要闻

凯迪拉克纯电中型SUV 售价不足24万/33寸曲面屏

态度原创

家居
游戏
艺术
教育
公开课

家居要闻

无形有行 自然与灵感诗意

超薄PS2主机炒到6千元?价格高到令人咋舌

艺术要闻

中国博物馆全书!看遍中国8000年顶流审美

教育要闻

小升初|绵阳义务教育阶段网上报名保姆级教程,建议收藏

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版