网易首页 > 网易号 > 正文 申请入驻

o3完爆人类医生,OpenAI基准直击AGI!

0
分享至


新智元报道

编辑:桃子 KingHZ

【新智元导读】OpenAI发布新基准HealthBench,联手60个国家262名执业医生,树立新的「AGI标志性用例」。OpenAI o3碾压Grok 3和Gemini 2.5 Pro,成功登顶。而最强AI几乎达到了人类医生最佳水平!

最强AI,已击败了人类医生。


就在刚刚,全球60个国家,262名执业医生共同上阵,联手OpenAI打造出「最具AGI标志性」的AI健康系统评估标准——HealthBench。

这个基准包含了5,000个基于现实场景的健康对话,每个对话都有医生定制的评分标准,来评估模型的响应。


论文地址:https://cdn.openai.com/pdf/bd7a39d5-9e9f-47b3-903c-8b847ca650c7/healthbench_paper.pdf

在参战的所有顶尖模型中,o3拿下了最高分,Grok 3位列第二,Gemini 2.5 Pro位列第三。

值得一提的是,在AI辅助下,医生的诊断准确率提升了近4倍。甚至,o3、GPT-4.1回答质量超越了医生的水平。


人类免疫学家Derya Unutmaz高度评价道,「这个关键的评估基准,将为AI医生铺平道路。我们现在正处于一场改变医学未来,拯救数百万人生命的革命开端」。


AGI关键要素,

医疗AI「标尺」

OpenAI的Health AI团队负责人Karan Singhal,在X上介绍了HealthBench的特点,并给予了极大的期待:

希望这项工作的发布,能为AI朝着改善人类健康的方向发展提供有力引导。


改善人类健康,将是通用人工智能(AGI)最具决定性的影响之一

但要实现这一目标,必须确保模型既有用又安全。专业评估对理解模型在医疗场景中的表现至关重要。

尽管学术界和产业界已付出巨大努力,但现有评估体系仍存在三大局限:

未能还原真实医疗场景、

缺乏基于专家意见的严格验证、

难以为前沿模型提供提升空间。

OpenAI团队秉持AI在医疗领域评估的三大核心信念,由此设计出HealthBench:

  • 有现实意义(Meaningful):评分应反映真实世界影响。突破传统考试题的局限,精准捕捉患者与临床工作者使用模型时的复杂现实场景和工作流程。

  • 值得信赖(Trustworthy):评分须真实体现医师判断。评估标准必须符合医疗专业人员的核心诉求与行业规范,为AI系统优化提供严谨依据。

  • 未饱和(Unsaturated):基准测试应推动进步。现有模型必须展现显著改进空间,持续激励开发者提升系统性能。

在过去一年中,OpenAI与来自26个医学专业、在60个国家(如下所示)拥有执业经验的262名医师合作,共同构建了HealthBench评估体系。


HealthBench主要面向两个群体:

1. AI研究社区:旨在推动形成统一的评估标准,激励开发出真正有益于人类的模型

2. 医疗领域:提供高质量的证据,帮助更好地理解当前和未来AI在医疗中的应用场景与局限性

与以往那些评估维度较为单一的医疗基准不同,HealthBench支持更具实际意义的开放式评估。

新研究有很多有趣的发现,包括医生评分基线研究等。

o3冲榜

媲美人类医生

这项健康基准HealthBench提出的主要目的,便是为当前,甚至未来顶尖LLM提供性能可参考依据。

在研究中,OpenAI团队评估了多个模型,包括o3、Grok 3、Claude 3.7 Sonnet等,重点考察其在性能、成本和可靠性方面的表现。

性能

根据现实世界健康场景的不同子集,即「主题」,以及体现模型行为的不同维度,即「轴」,所有模型进行PK。

整体来看,o3表现最佳,超越了Claude 3.7 Sonnet和Gemini 2.5 Pro(2025年3月)。



此外,在最近几个月里,OpenAI前沿模型在HealthBench上的表现提高了28%。

这一提升,对模型的安全性和性能来说,比GPT-4o(2024年8月)和GPT-3.5 Turbo之间的提升更大。

成本

接下来,研究团队还在模型大小和测试时计算scaling轴上,研究了模型的成本与性能。

可以看到,4月份OpenAI发布的模型(o3,o4-mini,GPT‑4.1),刷新了性能成本SOTA。

研究还观察到,小模型在最近几个月里,得到了显著的改进,

尽管成本仅为GPT-4o(2024年8月版)的1/25,GPT-4.1 nano的表现仍优于后者。


比较低、中、高推理水平下的o3、o4-mini和o1模型,结果显示测试时计算能力有所提高。

其中,o3与GPT-4o之间的性能差距(0.28)甚至超过了GPT-4o与GPT-3.5 Turbo之间的差距(0.16)。


可靠性

在医疗领域,可靠性至关重要——一次错误回应可能抵消许多正确回答。

因此,OpenAI在HealthBench上评估了各模型在k个样本下的最差表现(worst-of-n performance)。

也就是说,在给定示例的n个响应中,最差的得分是多少?

结果发现,o3模型在16个样本时的最差分数超过GPT-4o的两倍,展现出更强的稳健性和下限表现。


HealthBench系列

此外,OpenAI还推出了HealthBench系列的两个新成员:HealthBench Hard和HealthBench Consensus。

· HealthBench Hard专为更高难度场景设计,问题更具挑战性;

· HealthBench Consensus由多位医生共同验证,确保评估标准的专业性和一致性

o3和GPT-4.1在HealthBench Consensus错误率,比GPT-4o显著降低。


在HealthBench Hard上,表现最好的模型得分仅为32%,这表明它为下一代模型提供了一个有意义且具挑战性的目标。


AI与医生正面交锋

那么,这些大模型能够媲美,甚至超越人类医生的专业判断?

为此,OpenAI在研究还展开了一场人机对决测试。

262名专业医生被分为了两组:

· 一组医生可以在不使用AI工具的情况下查阅网络资源,撰写最佳回答。

· 另一组医生则可以参考OpenAI的模型生成回答,自由选择直接修改或完全重写,提供更高质量的回复。

随后,研究团队将这些医生撰写的回答与AI模型的回答进行评分对比,评估它们在准确性、专业性和实用性等方面的表现。

关键发现如下:

2024年9月模型

在测试o1-preview、4o时,他们发现仅依靠AI生成回答,优于没有参考任何AI医生的回答。

更令人振奋的是,当医生参考AI回答并加以优化后,他们的回答质量显著超越了AI模型本身。

这表明,人类医生的专业判断,在AI辅助下能产生最佳效果


2025年4月模型

这次实验中,研究人员让医生参考最新o3、GPT-4.1模型的回答,试图进一步提升回答质量。

然而,结果令人意外:

医生的优化回答与AI原始回答相比,质量上没有显著提升。

而当前,AI模型已足够强大,其回答质量几乎达到了人类医生最佳水平。

GPT-4.1参评

远超人类平均水平

为检验基于模型的评分器能否精准评判评分标准(rubric criteria),OpenAI邀请医生对HealthBench Consensus中的模型回答予以审阅,以确定这些回答是否符合相应评分标准。

基于这些医生的反馈,研究团队构建了所谓的「元评估」(meta-evaluation),即评估模型评分与医生判断之间的一致性,重点衡量以下两点:

1.模型评分器与医生之间的一致性:模型在判断一个评分标准是否被满足时,是否与医生达成一致;

2.医生之间的一致性:多位医生对同一模型回应的评分是否一致。

评估结果表明,模型评分器与医生之间的配对一致性程度,和医生之间的配对一致性程度相当

这说明HealthBench使用的模型评分方法在很大程度上能够代替专家评分,具有可信度和专业性


基线模型

OpenAI将34条共识评分标准的数据按七大主题进行分组,评估模型评分器与医生评分之间的一致性,并通过三种方式建立对照基线:

(1)典型医生(Typical physician)

为了估计人类专家之间的评分一致性,需要对比每位医生的评分与其他医生的评分,并计算MF1分数。

也就是,用与模型相同的方式对医生进行评分,仅统计该医生参与评估的对话示例,且不使用该医生自己的评分作为参考。

注释:在分类任务中,宏平均F1分数(Macro F1,简称MF1)是对每个类别的F1分数进行不加权平均的结果。

MF1适用于类别不平衡的元评估(meta-evaluation)任务。

表5按主题报告了加权平均的医生MF1分数,权重基于每位医生参与的元示例数量。


(2)个体医生(Individual physician)

OpenAI还在每个主题下报告了每位医生的MF1分数

图12展示了这些医生评分分数的分布情况。


(3)通过这些个体分数,模型评分器在每个主题下的MF1分数被表示为医生分布中的百分位数,以更直观地理解模型评分表现在「人类专家水平」中所处的位置。

这些基线设定让我们能够客观评估模型评分系统的可靠性,验证其是否达到了与医生相当的专业判断水平。

结果:GPT-4.1远超普通医生

如表5所示,在所有主题上,GPT-4.1作为评分模型的表现均明显优于随机基线

更具体地说:

  • 7个主题中的5个中,GPT-4.1的评分表现超过了医生平均水平

  • 6个主题中,GPT-4.1的表现处于医生评分分布的上半区间

  • 所有主题中,GPT-4.1的评分能力都高于医生群体的下三分之一(33百分位)

这些结果说明,GPT-4.1作为基于模型的评分器,其表现已能与医生专家的评估相媲美

从图12可以看到,不同医生之间的评分表现差异显著,说明医生间本身也存在一定主观性和评分风格的差异。

总的来说,只要满足以下条件,基于模型的评分系统可以与专家评分一样可靠

基础数据真实、多样且注释充分;

元评估设计合理;

评分提示(prompt)和评分模型经过精心挑选。

由于GPT-4.1在无需复杂推理模型带来的高成本和延迟的情况下,就已达到了医生级别的一致性表现,因此它被设置为HealthBench的默认评分模型

模拟真实场景,多维度评估

结合模型合成生成与人工对抗测试方式,OpenAI创建了HealthBench,力求贴近真实场景,模拟真实世界中人们使用大模型的情况。

对话具有以下特点:

  • 多轮交互,更符合自然对话流程

  • 多语言支持,覆盖不同语言背景

  • 角色多样,既包括普通用户,也包括医生

  • 涵盖多个医学专业领域与场景

  • 精心挑选,具有一定难度,避免模型轻松「答对」

这个基准的目标是推动更真实、更全面的AI健康对话能力评估,让模型在实用性与安全性之间达到更好的平衡。

HealthBench使用「评分标准式评估」(rubric evaluation)方法:每个模型回答都会根据该对话特定的、由医生撰写的评分标准进行打分

这些评分标准详细说明了「完美回应」应包含哪些信息,或应避免哪些内容,比如:应提及某个医学事实,或避免使用不必要的术语。

每一条评分标准都有对应的分值权重,根据医生判断该标准在整体回答中的重要性而设定。

整个HealthBench数据集中包含48,562条独立评分标准。

HealthBench中的对话被划分为七大主题,例如急诊应对不确定性全球健康等。

每个主题下都包含多个相关示例,每个示例都配有对应的评分标准(rubric criteria)

以下是一些数据集的示例。




左右滑动查看

每一条评分标准都对应一个评估维度(axis),用于界定该标准评估的是模型行为的哪个方面,例如:

  • 准确性(accuracy)

  • 沟通质量(communication quality)

  • 信息查找与澄清能力(context seeking)

这种结构化的设计,让HealthBench能够细致、多角度地评估AI模型在不同医疗场景中的表现,反映在实际应用中的可靠性与实用性

模型的回答由GPT-4.1担任评分者,根据每项评分标准判断是否达成,并根据满足标准的总得分与满分比值,给出整体评分。


HealthBench涵盖了广泛的医学专科领域,包括:

麻醉学、皮肤病学、放射诊断学、急诊医学、家庭医学、普通外科、内科、介入与放射诊断学、医学遗传与基因组学、神经外科、神经内科、核医学、妇产科学、眼科学、骨科、耳鼻喉科、病理学、儿科学、物理医学与康复、整形外科、精神病学、公共卫生与预防医学、放射肿瘤学、胸外科、泌尿外科、血管外科。

这些专科的覆盖确保了HealthBench在临床广度和专业深度上的严谨性。

整个HealthBench构建过程涵盖了重点领域筛选、生成相关且具有挑战性的案例样本、案例标注以及各个环节的验证工作。

参考资料:

https://openai.com/index/healthbench/

https://cdn.openai.com/pdf/bd7a39d5-9e9f-47b3-903c-8b847ca650c7/healthbench_paper.pdf

https://x.com/iScienceLuvr/status/1922013874687246756

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
以色列总理专机,飞抵希腊“避难”

以色列总理专机,飞抵希腊“避难”

鲁中晨报
2025-06-14 18:34:05
特朗普生日阅兵遇全国抗议,60人华盛顿冲突引爆舆论

特朗普生日阅兵遇全国抗议,60人华盛顿冲突引爆舆论

正航观察家
2025-06-14 18:03:54
付政浩:张子宇身高优势在速度不算快 亚洲范围内依旧是核武级别

付政浩:张子宇身高优势在速度不算快 亚洲范围内依旧是核武级别

直播吧
2025-06-13 23:12:17
台网红“馆长”直播游上海,吸引逾43万人同看破台湾纪录,台媒:戳破绿营谎言

台网红“馆长”直播游上海,吸引逾43万人同看破台湾纪录,台媒:戳破绿营谎言

环球网资讯
2025-06-14 07:05:33
最新!罗帅宇妈妈发声:与刘某峰有直接关系,坠前曾给2人发短信

最新!罗帅宇妈妈发声:与刘某峰有直接关系,坠前曾给2人发短信

子非鱼人
2025-06-13 15:53:30
武汉大学招生办公室严正声明

武汉大学招生办公室严正声明

极目新闻
2025-06-14 13:21:25
学医后才明白,增强骨密度最好的运动,并非散步游泳,或许是它!

学医后才明白,增强骨密度最好的运动,并非散步游泳,或许是它!

荷兰豆爱健康
2025-06-14 08:39:34
湖南恶魔医生刘翔峰落网,当场高呼:我的靠山你惹不起

湖南恶魔医生刘翔峰落网,当场高呼:我的靠山你惹不起

悬案解密档案
2025-04-07 17:34:02
被指跨越所有红线,以色列在急什么?伊朗核能力和无人机“包围圈”或成其两大焦虑

被指跨越所有红线,以色列在急什么?伊朗核能力和无人机“包围圈”或成其两大焦虑

红星新闻
2025-06-13 20:09:22
你亲身经历过哪些尴尬的事?网友:她一边帮我刮毛一边吆喝毛挺多

你亲身经历过哪些尴尬的事?网友:她一边帮我刮毛一边吆喝毛挺多

特约前排观众
2025-06-13 00:15:03
Nature重磅:小时候接触奶茶等高果糖饮食,影响大脑发育,增加青春期焦虑症风险

Nature重磅:小时候接触奶茶等高果糖饮食,影响大脑发育,增加青春期焦虑症风险

生物世界
2025-06-12 12:07:50
经济什么时候能够复苏呢?如果把真相说出来,可能有点扎心!

经济什么时候能够复苏呢?如果把真相说出来,可能有点扎心!

流苏晚晴
2025-06-13 19:27:26
伊朗——战略误判的代价!

伊朗——战略误判的代价!

华山穹剑
2025-06-13 20:29:13
身处异国他乡的陪读妈妈,为解决儿子青春期的困扰,竟决定这么做

身处异国他乡的陪读妈妈,为解决儿子青春期的困扰,竟决定这么做

南山青松
2025-06-11 17:01:44
灵活就业人员大量断保,应该引起足够的重视!

灵活就业人员大量断保,应该引起足够的重视!

逍遥论经
2025-06-14 10:46:35
《自然》:癌细胞吃维E续命!科学家首次证实,癌细胞通过吸收脂蛋白获取维生素E,化解铁死亡丨科学大发现

《自然》:癌细胞吃维E续命!科学家首次证实,癌细胞通过吸收脂蛋白获取维生素E,化解铁死亡丨科学大发现

奇点网
2025-06-13 18:43:28
俄下届总统或被敲定,普京或提前“下岗”?中方或成为最大赢家?

俄下届总统或被敲定,普京或提前“下岗”?中方或成为最大赢家?

科技处长
2025-06-13 21:35:10
乌克兰收复苏梅四块失地!击退俄军大规模攻势

乌克兰收复苏梅四块失地!击退俄军大规模攻势

项鹏飞
2025-06-13 20:46:06
在四行仓库抗战纪念馆,被烈士家书感动的台湾女记者笑起来很美丽

在四行仓库抗战纪念馆,被烈士家书感动的台湾女记者笑起来很美丽

南南说娱
2025-06-14 13:14:36
官方通报罗某宇坠楼事件

官方通报罗某宇坠楼事件

界面新闻
2025-06-13 21:17:07
2025-06-14 19:19:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
12876文章数 66067关注度
往期回顾 全部

科技要闻

一辆新车比特斯拉FSD都便宜,全行业陪葬?

头条要闻

小伙500万装修婚房翻车:孩子快上幼儿园漏水还没修好

头条要闻

小伙500万装修婚房翻车:孩子快上幼儿园漏水还没修好

体育要闻

32队争10亿奖金,全新世俱杯来了!

娱乐要闻

曾毅塌房了?戴性暗示手表 脚踹女员工

财经要闻

楼市权威发声

汽车要闻

长城为了拿环塔冠军有多拼?魏建军在下一盘大棋!

态度原创

时尚
健康
艺术
数码
公开课

时髦又清凉5组造型,夏天通勤穿刚好

呼吸科专家破解呼吸道九大谣言!

艺术要闻

故宫珍藏的墨迹《十七帖》,比拓本更精良,这才是地道的魏晋写法

数码要闻

华为 WATCH 5 系列鸿蒙 AI 智能手表通过星闪认证

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版