医疗,自始至终都是一个高风险、高可靠性的行业。
虽然在人口老龄化与慢性疾病负担加重的双重压力下, AI正快速融入到 从辅助诊断到个性化治疗的多个应用场景中,但随之而来的伦理风险、数据隐私和算法偏见等问题也亟需监管规范。
有效的AI医疗监管,才能在保障安全的前提下,加速真正有价值的AI医疗创新进入临床实践,造福更多患者。
为此,我们分享了期刊Healthcare上题为:Global Regulatory Frameworks for the Use of Artificial Intelligence (AI) in the Healthcare Services Sector的文章。
这篇论文 系统性梳理了中国、美国、欧盟等 7 个主要国家 / 地区的 AI 医疗监管框架,重点放在 医疗器械软件(SaMD/ SiMD )和AI健康应 用(医疗AI大模型/医疗智能体), 临床辅助决策系统(CDSS)因为 主要涉及院内医疗服务监管在下文中不做重点讲述。
智药局对这篇文章进行了翻译,并以一种更加通俗易懂的方式呈现,同时更新补充了最新政策,希望为关注AI医疗的研究员、创业者和投资人带来启发。
![]()
中国:由严到宽 双轨并行
中国采取的是"两条腿走路"策略:一方面鼓励AI医疗创新,设立多个试点示范区;另一方面加快完善监管体系,为行业发展指明方向。
根据不完全统计,目前北京、上海、广东、浙江、江苏、陕西、江西、甘肃、广西、海南等十省均已相继出台“人工智能+医疗”相关实施方案。
其中上海的 《上海市发展医学人工智能工作方案(2025—2027年)》是全国首个省级专项方案,发布于2024年。
![]()
最早在2021 年,国家药监局就为AI医疗监管发布了专门政策《人工智能医用软件产品分类界定指导原则》,次年发布的《人工智能医疗器械注册审查指导原则》更成为促进行业发展的金标准。
与欧美相同,中国也将AI医疗产品分为了 本身即为医疗器械的人工智能独立软件(AI SaMD)和含有人工智能软件组件(AI SiMD),其中AI SaMD可以直接注册,AI SiMD需随产品进行整体注册,但整体监管要求基本一致。
中国AI医疗的发展进度相当快,从2022年首批产品获批以来,截至2025年9月,国家药监局已累计批准约142款AI医疗器械,其中三类证占比超86%。
医疗 AI大模型/智能体往往作为底层能力存在,其本身不注册为医疗器械,更多是受到生成式AI与算法监管。
![]()
美国:全生命周期监管
美国FDA采取了相对灵活的态度,早在2017年就推出了数字健康创新行动计划(Digital Health Innovation Action Plan),为AI医疗产品开辟快速审批通道,但要求企业承诺持续监控产品性能,就像给疾驰的车辆系上安全带。
2019年4月,美国食品药品监督管理局(FDA)实施了《针对人工智能/机器学习驱动SaMD修改的拟议监管框架》。
根据该框架,开发者需对其 AI 系统的实际表现负责,并需就性能及输入方面的变化及时向FDA进行通报。该提案还强调指出,如果AI系统的预定用途发生变更,则需重新启动审批流程。
根据这一提议,FDA于2021年发布了《基于 AI/ML 的 SaMD 行动计划》,该文件根据产品全生命周期(TPLC)方法对 AI-MD 进行监管,并更新沿用到最新政策。
![]()
其中包括要求进行临床场景压力测试,模拟极端情况(如罕见病影像、设备信号干扰)下的算法鲁棒性、在采集阶段标注数据来源、采集设备型号及参数设置等。
整体思路是将传统医疗器械的“静态监管”升级为覆盖研发、部署、迭代全周期的动态监管体系。
![]()
欧盟:风险分级 严格监管
欧盟则更注重风险防控,将医疗AI产品分为不同风险等级。高风险的诊断辅助系统需要经过严格审查,而健康管理类APP则相对宽松,就像为不同车辆设置不同限速。
2021年,欧盟发布了《欧洲医疗器械条例》,其中SaMD的风险分类基于诊断和治疗意图。然而,2021年4月,欧盟提出了《人工智能法案》,该法案为人工智能产品及服务的整个生命周期制定了统一的法律框架。
![]()
《人工智能法案》采用基于风险的方法来监管人工智能系统。在医疗领域,高风险的人工智能系统包括那些利用生物识别技术、根据患者病史对其进行分类、以及用于管理公共医疗服务与电子健康记录的软件系统。
根据《人工智能法》对这些高风险人工智能系统提出的主要要求是数据管控和风险管理,这些方面均需由制造商予以应对。
对于低风险和最低风险的人工智能系统(如可能作为医疗服务的一部分与人类进行互动的聊天机器人)而言,必须制定一套自愿遵守的行为准则,以确保服务的安全性和可靠性。
批评者指出,《人工智能法案》缺乏灵活性,因为目前尚无任何余地可将新出现的、来自未预见的领域且具有危险性的人工智能应用纳入“高风险”类别之中。
论文还关注到了英国、澳大利亚、新加坡、巴西等国都出台了的AI医疗监管相关政策。
其中新加坡拥有 全球首个人工智能治理测试框架和工具包“AI Verify”;澳大利亚的政策最先由放射学相关组织推动;甚至印度也开始朝AI医疗方向发力。
不难看出,全球 AI 医疗监管已从单点探索走向多元共治,没有绝对统一的标准答案,却有着共同的核心目标:在高风险的医疗领域,为 AI 技术找到最稳妥的落地路径。
—The End—
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.