![]()
吉萍
随着人工智能(AI)迅速渗透至医疗卫生各领域,在显著提升医疗服务效能与质量的同时,亦引发了一系列亟待解决的重要伦理风险与社会治理挑战。为系统性应对医学AI发展中的伦理困境与监管难题,全球各国政府、国际组织、学术界和工业界正加强国际合作与交流,积极探索符合医学AI技术规律与特点的监管方式,构建解决AI伦理问题的可能框架、指南和原则,规范AI技术在医学领域的开发和应用。
自2021年以来,WHO陆续发布《医疗人工智能的伦理与治理》(Ethics and governance of artificial intelligence for health)、《为基于人工智能的医疗设备生成证据:训练、验证和评估框架》报告(Generating evidence for artificial intelligence based medical devices: a framework for training, validation and evaluation)、《对医疗人工智能的监管考虑》(Regulatory considerations on artificial intelligence for health)、《医疗人工智能的伦理与治理:多模态大模型指南》(Ethics and governance of artificial intelligence for health: guidance on large multi-modal models)等重要文件。许多国家和组织的相关机构也纷纷发布关于医疗AI应用、风险以及伦理和社会影响相关治理报告与建议,现将其核心要点总结如下。
▉(一)规范评估与报告
在评估AI工具的模型准确性、稳健性、安全有效性时,需开展临床试验,生成可靠的循证医学证据,确保算法在预期用途和使用场景下安全有效。另外,为提升AI临床研究的报告规范性,2020年以来,AI相关临床试验研究的报告规范指南陆续发布,例如:人工智能干预临床试验方案报告指南SPIRIT-AI(Standard protocol items: recommendations for interventional trials–artificial intelligence)、人工智能临床试验报告规范CONSORT-AI(Consolidated standards of reporting trials–artificial intelligence)、人工智能驱动下决策辅助系统早期临床评价的报告指南DECIDE-AI(Developmental and exploratory clinical investigations of decision support systems driven by artificial intelligence)、临床人工智能建模的最低信息标准MI-CLAIM(Minimum information about clinical artificial intelligence modeling)。这些指南旨在规范人工智能评估结果的呈现方式,提高研究的可重复性、透明度和信任度。
▉(二)全面、多维度、分阶段的评估
在推进AI相关医疗应用设备与系统的临床安全性和有效性、公平性和非歧视性、透明度和可追溯性以及隐私和安全评估时,建议采用由特定清单和问题构成的自评估方法,助力AI设计师、开发者、评估人员和监管人员开发出值得信赖且符合伦理的AI解决方案。此外,应建立覆盖AI全生命周期的多维度、多阶段评估验证体系:包括算法性能验证、临床前评价、可用性测试等,确保产品满足用户需求并识别可预见风险,同时明确产品使用限制及警示信息;上市后需持续监测算法泛化能力,收集用户反馈(如投诉、不良事件等),对未预见风险进行再评估并采取控制措施。建议外部验证由第三方评估机构开展,以确保评估的全面性和客观性。
▉(三)多方共同参与,责任共担
创建安全有效的多模态大模型,需要各国政府、技术公司、医疗机构、开发人员、患者及社会团队等相关方共同参与开发、部署和监管的各个阶段。在此过程中还应强化医学AI研究与应用相关方的职责,通过系统性构建契合AI技术演进规律与内在特性的伦理治理新范式,明确以下关键问题:需应对哪些风险?谁最适合应对这些风险?相关方可采取哪些措施应对风险?
▉(四)基于风险的分类管理
AI医疗器械需从软件、用途、功能、算法等不同角度实施分类管理,并结合具体应用场景,因使用对象不同,风险水平也会存在差异。在临床应用中,应根据AI系统的相关风险进行分类与分级管理指导:高风险技术需要严格的临床证据支持,其部署和监管需更为谨慎;管理级别应与潜在风险相匹配,并通过综合判定预期用途和使用场景(如是否与诊疗决策相关)来确定风险等级。
▉(五)加强机构职责与监管能力
开展医学AI研究和部署的机构是管理责任主体,需严格遵循国家相关法律法规,健全机构风险评估与监测预警、伦理审查、全过程监督、违规行为调查处理、培训与咨询等制度流程。作为医学AI产品的主要落地应用方,医疗机构在部署AI应用于临床活动前,需建立数据、信息、业务等跨学科多部门协作的多维度评估机制和团队,制定评估计划,确定评估路径与方式等。通过评估技术的安全性、有效性、伦理符合性,充分考量实践中的适用性、必要性、预期应用效果等,同时确保AI模型部署所需的工作流程调整、IT基础设施及人员配置到位。
编辑 |郑梦莹
责任编辑 | 任嘉霖
审核 | 刘红霞
《中华医学信息导报》2025年24期第9版
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.