No.0252
Science Partner
Bring you to the side of science
![]()
导 读
各位亲爱的科学伙伴,我是晶恒。
问你一个问题:你上次身体不舒服,有没有第一时间掏出手机,问AI“我这到底什么病啊”?
别不承认,身边很多伙伴都这样干过。我也干过。
ChatGPT刚横空出世那个时候,有一段时间我几乎把它当成私人医生在用,症状一描述,它立刻给出一个像模像样的分析,还附带“建议就医”的免责声明,显得既专业又负责。
然而,最近连续几项发表在顶级期刊的研究,给我们泼了一盆冷水。
结论很刺激:你用AI随便的问诊,不比硬币强。
今日主笔 | 晶恒
43%——这是你用AI判断“该不该去医院”的胜率
01. 牛津大学做了个实验,结果让人尴尬
牛津大学互联网研究院找来了1300多名参与者,设计了一批真实的医疗场景,测试他们在AI助手帮助下的判断能力。
数据出来让人沉默:
正确识别病情的概率:只有三分之一。
做出正确应对决策的概率(比如该不该立刻去医院):43%。
换句话说,扔硬币都比这强一点点。
不过,伙伴,先别急着删AI!研究人员进一步把完整的病情信息直接输给AI后,你才怎么着?
AI的诊断准确率飙升到了94.9%。
看到了吗,AI本身不是傻子,问题其实出在人跟AI之间,看似交流通畅,实则隔膜厚厚的那道墙。
研究主导人Andrew Bean点出了核心,普通人根本不知道具体该跟AI说什么。症状怎么描述?从什么时候开始?有没有基础病?这些关键信息,大多数人要么漏说,要么说不清。而AI又不能像一个有经验的医生会主动追问,它倾向于顺着你说的话往下走,给你一个听起来舒服又合理的答案,哪怕这个答案建立在不完整的信息上。
所以别听那些医生会被取代的鼓吹,白衣天使的核心能力之一,是知道该问什么。这一点,AI目前还差得远。
02. 急诊漏判超过一半,自嘎预警反向触发
如果你觉得诊断不准只是小问题,那接下来这个研究可能会让你出一身冷汗。
纽约西奈山伊坎医学院的研究团队,专门针对OpenAI今年1月推出的消费者健康工具ChatGPT Health做了评估。他们设计了60个由真实医生参与设计的临床场景,结果:
超过一半需要急诊处理的案例,被AI建议“先等等”或者“在家观察”。
其中有个案例特别典型:一名哮喘患者出现了早期呼吸衰竭的迹象,AI识别出来了,但给出的建议依然是等待,而不是立即就医(如果对原理有兴趣,请留言,咱们单开一篇细致讲)。
更严重的是自嘎危机识别问题。研究发现,ChatGPT Health的自嘎危机预警机制出现了方向性错误:在低风险情况下反复触发,而当用户真正描述了具体的自嘎计划时,预警却没有出现...
用高级作者兼通讯作者,西奈山首席AI官Girish Nadkarni的话来说就是,我们观察到的,已经不只是不一致,而是系统性的错误方向。
03. 为什么会这样?
说白了,这背后有一个根本性的矛盾:
AI的训练逻辑,是给你一个你满意的答案。而医疗的本质,是给你一个正确的答案,哪怕你不喜欢听。
一个好医生会说:你描述的症状,我需要再问几个问题。你胸口疼的时候,有没有放射到左臂?
AI更可能会说的是:根据您的描述,这可能是消化不良,建议注意饮食,如有持续症状请就医。
两个回答,哪个让你更舒适?显然是后者。但哪个更专业负责任?必须是前者。
OpenAI方面回应说,新版本的模型比旧版本更倾向于主动提问,频率大约提升了六倍,这是一个进步。但进步不等于可用啊伙伴。这离真正可靠的医疗建议,还有十万八千里的距离。
04. 那AI在医疗上就没用了吗?
当然不是这个意思。
AI在医疗领域确实有很大潜力,但那是在有完整信息输入、有医生主导、有专业系统把关的场景下。比如辅助影像诊断、药物相互作用筛查、病历整理,这些AI已经做得相当好。
让一个普通用户用聊天框自诊,这个场景本身就是值得商榷的。因为你不知道什么信息重要,AI不知道你漏说了什么,双方都以为对方掌握了全局,而实际上并没有。
研究首席医学顾问、全科医生Rebecca Payne说了一句话,伙伴君觉得值得每个人记住: 让人们自己把症状告诉聊天机器人,可能是危险的。
05. 所以,你应该怎么做?
伙伴君给你几条实用的原则:
轻度、非急性症状(感冒、轻微皮疹):AI可以帮你了解背景知识,但不是最终判断;
持续加重的症状、胸痛、呼吸困难、神经系统问题:直接去看医生,不要问AI;
心理健康、情绪危机:绝对不要依赖AI,请联系专业医疗资源。
如果你非要用AI:那么尽量把所有信息说清楚,年龄、基础病、症状开始时间、有没有吃药、加重还是减轻...就把它当成一个需要你主动喂信息的工具,而不是全知全能的医生。
AI更像是一面镜子,你给它什么,它反射什么。你给它残缺的信息,它还给你残缺的判断。那些你懒得说、或者不知道重要的细节,往往恰恰是区分“别担心”和“去急诊”的关键。
所以,伙伴,抄起手机就向AI问诊这笔赌注,你还敢押吗?
参考文献:
https://www.bbc.com/news/articles/c3093gjy2ero.
https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice.
https://www.npr.org/2026/03/11/nx-s1-5744035/chatgpt-might-give-you-bad-medical-advice-studies-warn.
https://www.cfpublic.org/2026-03-11/chatgpt-might-give-you-bad-medical-advice-studies-warn
本文 仅作科普分享使用,欢迎小伙伴们点、收藏、关注,以备不时之需,当然更欢迎您把 介绍给周边可能需要的更多伙伴们呀。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.