![]()
2023年,美国FDA批准了91款AI医疗器械,这个数字在2015年是零。同一时期,中国NMPA(国家药品监督管理局)累计发放了200多张AI三类证。政策闸门打开的速度,远超医院消化这些工具的能力。
一个放射科医生每天要看300张片子,AI能在30秒内标出可疑结节。但医生得花20分钟把AI结果抄进系统——因为电子病历和AI工具根本不互通。
技术跑通了,流程还在爬行
医疗AI的吊诡之处在于:最炫的技术和最原始的痛点并存。深度学习(一种模拟人脑神经网络结构的机器学习方法)在影像识别上的准确率已经超过资深医师,但护士站里的打印机还在卡纸。
医院的信息系统像一座违章建筑。HIS(医院信息系统)、PACS(影像归档和通信系统)、LIS(实验室信息系统)各自为政,数据格式从80年代到2020年代横跨四个技术纪元。AI要进场,先得当翻译——把DICOM(医学数字成像和通信标准)翻译成HL7(医疗信息交换标准),再把HL7翻译成JSON(一种轻量级数据交换格式)。
某三甲医院的CTAI项目花了18个月上线,其中14个月在打通数据接口。技术供应商的工程师蹲在机房三个月,学会了用医院的咖啡机——因为数据权限审批比写代码还慢。
监管在追,伦理在等
FDA的突破性设备通道把审批周期压缩到6个月,但临床验证的要求没打折。一款糖尿病视网膜病变筛查AI,需要在真实世界里追踪10万名患者的眼底照片,证明它的建议不会漏诊致盲病例。
更棘手的是解释性问题。当AI说"这片子有95%概率是恶性",医生需要知道这95%从哪来。是边缘毛刺?是密度不均?还是训练数据里这类病例本来就多?黑箱模型(内部决策机制不可解释的AI模型)在医疗场景寸步难行,可解释AI(XAI,即可解释人工智能)成了刚需。
欧盟《人工智能法案》把医疗AI列为高风险类别,要求全生命周期审计。一家中国企业的CT肺结节产品想进欧洲市场,发现需要补做三年回溯性研究——他们在国内拿证时只做了前瞻性试验。
从替代到共生,医生重新学当医生
最激进的预测说AI将取代放射科医生。现实是,美国放射科医师的招聘需求过去五年增长了30%。AI吃掉的是重复劳动,吐出来的是新工种:影像信息学医师、AI质控专员、人机协作流程设计师。
梅奥诊所(Mayo Clinic)的实验更有意思。他们把AI嵌入乳腺癌筛查流程,但故意设计了一个"摩擦点"——AI标记的高危病例,必须由两名医生独立复核;AI认为低危的,随机抽5%人工复查。结果假阴性率下降了40%,而医生的诊断信心反而提升了。
这像自动驾驶的L2级辅助:手不能离开方向盘,但脚不用一直踩着刹车。医生从"找病灶"转向"判读AI+综合决策",技能树在重构。
药厂也在变。传统新药研发平均10年26亿美元,AI把苗头化合物筛选压缩到几周。但2023年,AI设计的药物在二期临床试验中失败率依然高达80%——算法能找到分子,猜不透人体。
强生(Johnson & Johnson)的解决方案是"人机双盲":AI生成候选分子,化学家凭直觉否决30%,再用物理模拟验证剩余选项。他们管这叫"算法直觉+人类直觉的交叉验证"。
数据主权争夺战
医院终于意识到,数据是新时代的床位——不能无限扩张,但缺了就得关门。2024年,美国几大医疗系统开始要求AI供应商签署数据防火墙协议:训练模型可以,带走原始数据不行。
联邦学习(一种在不共享原始数据前提下协作训练AI的技术)因此走红。十几家医院各自在本地训练模型,只交换参数更新,像一群盲人摸象后互相描述象腿的形状。技术理想很丰满,但医院IT部门的算力储备往往骨感——一台能跑深度学习的服务器,采购审批要走半年。
患者端的变化更微妙。苹果手表的心房颤动检测功能,已经让急诊室多了不少"假性警报"患者。有人戴着打印的AI诊断报告冲进诊室,医生得先花20分钟解释"敏感性95%不等于阳性预测值95%"。
健康数据民主化在发生,但医学素养没跟上。这像给普通人发了显微镜,却没教怎么区分细胞和灰尘。
当AI能预测你未来五年得糖尿病的概率,保险公司该知道吗?雇主呢?如果预测错了,谁负责?这些问题没有技术答案,只有社会谈判。
一家硅谷创业公司正在测试"可撤销的AI同意"——患者可以一键关闭自己的数据参与模型训练,就像退订邮件列表。但退订后,你未来用到的AI服务可能变笨,这算公平交易吗?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.