![]()
![]()
人工智能在医疗领域的角色,正从单纯的“辅助工具”快速演进为具有实质影响力的“准决策者”。尤其是自2022年以来,大模型技术的突破,使AI第一次真正触及医学认知的核心层面。从影像识别、病理分析,到病历生成、诊疗建议乃至临床推理,AI医疗的功能边界正在发生根本性变化,其价值取向也从“提高效率”转向“介入判断”。
随之而来的,是一系列无法回避的制度性追问:如何界定AI在医疗体系中的定位与边界?当算法出现偏差甚至导致误诊时,责任应由谁承担?又该如何在鼓励技术创新的同时,牢牢守住生命安全与伦理底线?这些问题,已成为各国医疗体系必须正面回应的现实命题。
正是在这一背景下,上海社会科学院信息研究所AI医疗研究团队近日正式发布《AI医疗治理白皮书(2026)》,对全球主要经济体的AI医疗治理路径进行了系统梳理,并尝试提出具有中国语境的结构性判断。报告明确提出一个核心观点:在AI医疗领域,决定长期走向的关键不在于技术本身,而在于治理能力。不同国家对治理框架的选择,正在深刻塑造AI医疗的落地方式、应用边界与社会接受度,也由此拉开了新一轮全球竞争的真正分水岭。
一、AI医疗治理已成为迫切的时代课题
首先,AI已深度介入生命决策,治理问题本质上是生存问题、尊严问题。
不同于一般产业应用,医疗天然具有高风险属性。随着AI系统开始参与疾病诊断、治疗方案制定乃至手术路径规划,其输出结果可能直接影响患者生命。在这一场景下,一旦算法出现偏差、失效或被误用,其后果不再是效率损失,而是不可逆的生命伤害。因此,AI医疗治理不仅关乎合规与责任划分,更关乎如何在技术系统中嵌入对生命价值的制度性保护,确保“人始终在回路中”(Human-in-the-loop),避免将临床判断完全外包给不透明的算法。
其次,技术价值与系统性风险正在同步放大。
AI在医疗领域的应用几乎覆盖全链条,从药物研发、临床试验,到影像诊断、健康管理与医疗机器人,极大提升了效率与精准度,但每一个环节也伴生新的治理挑战。在药物研发与试验中,AI显著压缩研发周期,却同时引入数据隐私泄露、算法黑箱与责任归属不清的问题;在影像辅助诊断中,AI提升了筛查效率和一致性,但一旦发生误诊,医生、医院与算法提供方之间的责任边界仍然模糊;AI在健康管理和医疗机器人应用中助力降本增效的同时,也暴露出设备安全漏洞、算法依赖过度以及用户知情同意不足等风险。总之,技术越深入,风险敞口越大,治理缺位的代价也就越高。
第三,治理决定AI医疗的合法性与社会信任。
技术决定了AI“能不能用”,但治理决定了社会“敢不敢用”。在高度不确定、信息不对称的医疗场景中,公众对AI的接受度并不取决于其技术参数,而取决于是否存在清晰、可信、可追责的治理框架。只有当患者确信其权益受到保护、医生确信其专业判断不被技术架空、社会确信风险可控且责任清晰,AI医疗才能真正实现规模化应用。换言之,没有可信治理,技术突破本身难以转化为公共价值。
二、三种典型的治理范式:国际AI医疗路径的分化
通过对美国、欧盟、英国、新加坡等发达经济体的系统比较,白皮书发现全球AI医疗治理并非趋同,而是呈现出三种高度差异化的范式。
(一)美国:市场驱动下的“动态监管”
美国是全球AI医疗创新最活跃的国家,其治理逻辑也最具“工程化”特征。
在美国,并没有专门针对AI医疗的立法,而是被纳入既有的医疗器械、健康IT与反歧视法律框架中,由美国食品药品监督管理局(FDA)、卫生与公众服务部、国家医疗信息技术协调员办公室、联邦贸易委员会等多部门协同监管。其核心思路并非“事前严控”,而是允许创新快速进入市场,再通过真实世界数据进行持续监督。
FDA于2022年推出的“预定变更控制计划(PCCP)”,正是这一思路的典型体现:只要开发者在上市前明确算法未来可变更的范围与验证机制,AI系统便可以在一定边界内自主迭代,而无需反复审批。
这种模式的优势在于创新速度快、产业活力强,但其前提是高度成熟的医疗责任体系、数据合规制度与司法纠偏能力。换言之,美国模式本质上是一种“用制度韧性换创新自由”的选择。
(二)欧盟:以人为本的“规则优先”
与美国形成鲜明对比,欧盟的AI医疗治理更强调价值与规则的前置约束。
欧盟在AI法案(2025)和《医疗设备管制办法》(MDR (EU) 2017/745)框架下,AI被视为一种可能系统性影响公民基本权利的技术,绝大多数AI医疗应用被归为“高风险系统”。这意味着,算法在进入临床前,必须满足严格的数据治理、透明性、可解释性与人类监督要求。
欧盟的治理逻辑是通过高标准规则塑造“可信AI”市场。其隐含判断是:如果没有统一且严格的底线,AI医疗可能加剧不平等、侵蚀患者权利,最终损害公共信任。
这一模式的代价是创新节奏相对缓慢,但其优势在于制度清晰、社会接受度高。
(三)英国与新加坡:价值导向下的“敏捷治理”
英国和新加坡则走出了一条介于美欧之间的中间道路。
英国强调“价值导向”,通过国家卫生系统(NHS)统一推动AI的临床验证与伦理评估,使技术创新始终嵌入公共医疗目标之中。在鼓励创新方面,2024年,英国药品和保健品管理局(MHRA)启动全球首个针对人工智能医疗器械的监管沙盒项目AI Airlock。新加坡则以“国家愿景”为引导,通过监管沙盒与跨部门协同,实现快速试点与动态调整。
两国的共同点在于:治理并非单纯限制技术,而是主动塑造技术的应用方向。
三、中国AI医疗治理:国家意志下的快速成型
白皮书指出,中国AI医疗治理的最大特征在于顶层战略驱动与政策体系的快速构建。凭借庞大的市场规模、丰富的医疗数据资源、政府强大的政策推动以及快速发展的AI技术产业,中国已经成为全球舞台上具有重要影响力的参与者。从数据要素化改革、医疗数字化转型,到人工智能产业政策,中国正在形成一个高度政策化的治理环境。
在制度层面,2021年以来,国家层面出台了20多份政策文件,初步建立起涵盖数据安全、算法备案、医疗器械审批、伦理审查的多层次框架;在实践层面,AI影像、智能辅助诊断、健康管理等应用快速落地,形成规模化场景。
但与此同时,白皮书也坦率提出,中国AI医疗治理仍面临两类结构性挑战:
一是制度精细化不足。现有规则更多停留在原则层面,对于大模型的动态演化、算法责任划分、真实世界性能评估,仍缺乏操作性强的制度工具。
二是多元共治机制尚未成熟。AI企业、医院、医生、患者在治理中的角色边界尚不清晰,责任风险容易向一线医务人员集中。
总之,中国AI医疗治理起步快,进步神速,但正处于从“政策推动”向“制度内生”的关键转型期。
四、全球AI医疗治理的三大共识
尽管在制度传统、医疗体系和产业结构上存在显著差异,但在AI医疗治理这一高度敏感领域,全球主要国家和国际组织已逐步形成若干高度一致的基本共识。这些共识并非抽象原则,而是在反复实践与风险暴露中沉淀出的治理底线。
第一,风险分级已成为AI医疗监管的基本逻辑。
不同类型的AI医疗应用,其潜在危害程度存在本质差异。用于行政管理、流程优化的系统,与直接参与诊断、治疗甚至手术决策的系统,在风险等级上不可同日而语。因此,各国普遍摒弃“一刀切”的监管思路,转而根据应用场景和风险后果实施差异化监管。低风险应用强调鼓励创新和快速部署,高风险应用则必须通过更严格的准入审查、临床验证和持续评估机制。
第二,治理视角正从静态审批转向生命周期治理。
AI医疗系统并非一次性产品,而是会随着数据更新、模型迭代和使用场景变化而不断演化。仅在研发或上市环节进行合规审查,已难以应对算法性能漂移、适应性失效等现实问题。基于此,国际治理实践日益强调从研发设计、数据采集、模型训练、临床部署,到运行监测、版本更新乃至系统退役的全流程监管。通过持续监控与动态调整,确保AI系统在真实世界环境中的安全性、有效性与公平性。
第三,多方共治正在取代单一主体监管。
AI医疗治理的复杂性,决定了任何单一主体都难以独立承担全部责任。政府需要提供制度框架与公共保障,企业负责技术实现与风险控制,医疗机构承担临床应用与专业判断,社会与公众则通过伦理监督和反馈机制参与其中。越来越多国家开始探索多主体协同的治理模式,通过信息共享、责任分担和共同决策,构建一个可持续、可纠错的治理生态。这不仅有助于降低系统性风险,也有助于提升公众对AI医疗的信任基础。
基于此,白皮书作出以下趋势判断:短期内,算力、数据与模型参数仍然重要;但从中长期看,真正决定AI医疗能否规模化、可持续应用的,是治理。医学不仅是科学,更是“人学”。医患之间的信任、沟通和情感共鸣是治疗过程的重要组成部分。AI的终极角色不应是替代人类医生的判断,而是应当被纳入一套以人为中心的治理结构之中。
五、从理念到行动:构建可信、可持续的AI医疗治理体系
白皮书从政府、企业、医疗机构及国际社会四个层面,提出了一揽子具有可操作性的政策建议与行动倡议,核心目标是构建一个多方协同、风险可控、持续演进的治理体系。
首先,在政府层面,应加快推进AI医疗专项立法,尽快形成具有基础性、统领性的制度框架,明确AI医疗的法律属性、责任边界和监管原则。同时,监管思路应从静态审批转向动态治理,通过风险分级、全生命周期监管和真实世界数据评估,提升监管的精准性与前瞻性。在此基础上,完善伦理审查制度和跨部门协同机制,为AI医疗应用划定清晰、安全的制度边界。
其次,AI企业作为技术创新主体,也应承担起与其能力相匹配的治理责任。白皮书倡议企业将伦理与合规纳入核心战略,建立内部伦理审查与风险管理机制,主动提升算法透明度与可解释性,并构建覆盖研发、部署、更新与退役全过程的质量管理体系。与此同时,应把数据安全与隐私保护视为企业的生命线,而非合规成本。
第三,医疗机构是AI医疗落地的关键一环。应通过制定内部应用规范、明确人机责任边界,确保“AI始终作为辅助工具,最终决策权掌握在人类医生手中”。同时,加强医护人员的AI素养与风险意识培训,提升人机协同能力,避免过度依赖或盲目排斥技术。
最后,在全球层面,AI医疗治理亟须跨国协作。白皮书呼吁推动国际经验共享、标准互认与伦理对话,在数据跨境、算法评估和风险应对方面形成更广泛的共识,共同应对这一关乎人类健康福祉的全球性挑战。
(作者为上海社科院信息研究所数字经济研究室主任)
![]()
原标题:《智库成果发布|《AI医疗治理白皮书(2026)》:治理比技术更重要》
栏目主编:王多
文字编辑:王多
本文作者:赵付春
题图来源:视觉中国
图片编辑:徐佳敏
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.