在全民都在热聊大模型、聊颠覆、聊替代的时候,在1月10日的香港高山书院十周年论坛上,一个神仙打架复兴科学的地方,张文宏称“拒绝把AI引入医院病历系统”,张医生说的这些话,听上去多少有点逆风而行的味道。
![]()
但如果你把他后面那几句话拼在一起看,会发现,这是一个一线专家对行业根基的焦虑。
他真正担心的,其实不是AI不够强,而是医生会不会变“笨”。
张文宏自己怎么用AI?他说得很直白,他会让AI先把病例“看一遍”,然后他一眼就知道AI哪里错了。
这话的潜台词是:前提是我本身的专业能力,要强过这个AI。
如果换成一个刚从学校出来的实习医生呢?
![]()
同样一份AI给出的诊断报告,专家一眼看出漏洞,实习医生却会当成标准答案抄在病历里。
这就是他反对把AI直接嵌进病历系统的核心原因。
不是怕AI,而是怕还没长成的大夫,从一开始就学会偷懒,怕医生的成长路径会直接被改写成“我负责抄,AI负责想”。
很多人会反驳:那就把AI当工具啊,又不是让医生全信。
问题就在这里——你凭什么保证一个没有打过基础的人,知道何时该信,何时该怀疑。
AI最大的危险从来不是“不会答”,而是“答得挺像那么回事”。
AI回答本质上仍然是基于搜索和统计,搜索本身并不评判真伪,加上大模型自带的渲染效果,有时候错误反而被包装得更像真理。
如果你脑子里没有一条自己的诊断逻辑链,很容易被这种“像真的却是错的”牵着走。
再看现实应用。
![]()
现在很多地方的影像科已经在用AI读片了,因为这一块确实更适合机器——看到啥就说啥。
肺上有没有结节,有。
多大。
长在哪里。
这些都是高度结构化的信息,训练足够多的数据,AI能帮放射科医生分拣大量常规片子,挑出可疑的交给人类复核。
这一块,AI不是抢饭碗,而是帮医生从机械劳动中解放出来。
但临床科室就完全不是一个难度级别。
一个发烧病人,你得问旅行史、接触史、基础病,还要结合当地流行病学、既往用药史。
很多时候,真正决定诊断方向的,是一句“看起来不像那么简单”的直觉。
这东西怎么喂给模型?
![]()
更现实的问题是:如果AI把一个罕见病看漏了,谁来背锅。
可以类比自动驾驶的L3级。
符合标准的时候,车企背锅;不符合的时候,车主背锅。
那医疗AI呢?
你说你罕见病识别率有多高,你愿意为这条数字签多少法律责任?
现在大部分供应商都留了一句安全垫:“仅供参考,最终诊断以医生判断为准。”
看起来很合理,但这意味着什么?
意味着真出事了,还是医生背锅。
那换个角度问:如果你不肯承担实质责任,这套系统对提高罕见病诊出率究竟有多大价值?
值不值得全国铺开?
这就是很多临床科室迟迟观望的原因。
![]()
张文宏的担心,其实直指一个问题:不能让医生从一开始就沦为技术的盲从者。
技术永远可以出错,所以行业必须保留一群有能力“看出技术错哪儿了”的人。
医学这一行,AI可以错,设备可以坏,人可以补。但如果把最后一层人也训练成只会点按钮的小白,那整个系统在关键时刻就会全线崩塌。
那是不是说明,要把AI挡在医院门外?
也不是。
一味拒绝,当然也有问题。
历史车轮阻挡不了,科技创新是必然趋势。
事实上,一些病症的影像识别上,AI确实已经开始比普通医生更准。
医生本来就依赖各种诊疗设备:CT、核磁、超声,机器给出初步结果,人再去判断。
AI相当于新一代“诊疗设备”,问题不在用不用,而在怎么用。
回到最后那个问题,一个更大的图景是:在哪些领域,专业判断的价值远远高于AI辅助?
可以大致分几类。
![]()
第一类,要求极致准确、又高度复杂的医疗场景。
比如心胸外科、神经外科、牙科精细操作。
术前规划,AI可以给一堆参考路径;术中突然大出血、组织结构和影像不符时,拿什么决策?
靠医生多年积累的手感和现场判断。
电工、水管工、汽车修理师也是类似道理。
车辆同样一个异响,原因千奇百怪,没有统一答案,需要“同病异治”的诊断经验。
AI能做的是推荐最常见的几种可能,但一旦情况超出样本分布,它就懵了。
第二类,高度依赖人际博弈和主观判断的职业。
比如销售。
产品是同一款,价格却不是同一个价。
一斤菜和十斤菜是两个价格,大宗采购还有另一个价格。
科技设备单机有统一报价,打包设计、施工、维保,又是另一套算账方式。
面对不同客户,话术、节奏、让利空间,完全不一样。
这些决策,既没有通用模板,也很难量化成数据,全都系在对人性的把握上。
AI可以给你做话术推荐,但最后拍板,是人。
![]()
第三类,高度非标准化、充满烟火气的服务性工作。
社区工作者、幼儿园老师、志愿者,这些岗位每天遇到的问题,往往连“对”和“错”都很难定义。
一个社区矛盾到底怎么调解,既要合法合规,又要人情世故。
AI可以给出理想化方案,却很难站在“这个阿姨今天刚吵完架、那个大爷脾气本来就冲”的现实场景里做平衡。
第四类,顶尖专家和高层决策岗位。
一个行业顶尖专家的价值,不是会多少知识,而是在巨大的不确定性里拍板的那一下。
AI非常依赖“大样本数据”,而这些岗位面临的问题,恰恰往往是“没有先例”的。
疫情初期用不用某种新药,新的收费模式要不要推向全国,这些问题根本没有足够数据可以训,最后还是要落实到人的价值判断。
从这个角度看,张文宏说的并不是“AI没用”,而是给全体职场人提了个醒。
对结果要求极度准确,还牵涉重大风险的岗位,短期内极难被替代,但更要求你不断精进,因为你要为机器兜底。
对结果可以模糊、只要差不多就行的内容,比如大量流水线式写稿、简单设计、模板化PPT,最容易被AI吃掉。
![]()
如果你每天的工作就是千篇一律、照抄照搬、不思进取,那么不需要AI,别人也可以随时替代你。
真正的安全感,从来不是“不让AI进来”,而是“AI进来以后,你依然有不可替代的判断力”。
未来医学AI一定会越来越强,大模型加上精准训练,有一天很可能能达到一般专科医生的平均水平。
那时,普通医生会被拉到一个更高的起点:常见病由AI提速,疑难杂症、人文沟通、复杂决策,交给真正有能力的人。
所以,当张文宏说“我拒绝把AI引入病历系统”时,他捍卫的不是旧秩序,而是医生的基本功和行业的最后防线。
技术可以帮助我们跑得更快,但方向错了,只会更快冲向悬崖。
在AI汹涌而来的当下,最值得我们警惕的不是机器抢走工作,而是我们主动交出自己的思考权。
不论你做什么工作,记住一句话:如果你只是照着按钮点、照着模板抄,那替代你的未必是AI,可能只是一个工资更便宜的人。
相反,只要你始终在打磨自己的判断力,让AI的每一次回答都变成你思考的起点而不是终点,它终究会成为你的工具,而不是你的主人。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.