![]()
中经记者 索寒雪 北京报道
在未来的临床场景中,可能会出现这样一幕:一方是经验尚浅的年轻主治医生,另一方则是经过海量病例训练的人工智能系统。当二者针对同一名患者给出不同诊疗建议时,由于信息与权威的不对称,年轻医生往往面临较大的心理与专业压力,难以直接反驳AI结论。
如果医生采纳了AI的错误判断,结果可能被视为技术问题;但若医生否定AI建议却最终判断失误,则更容易被归因于个人能力不足。这种潜在的责任错位,正成为AI进入医疗场景后亟须回应的现实问题。
近日,围绕AI诊疗结论的责任归属问题,业内展开了多方讨论。
中国人民大学人口与健康学院党委书记宋月萍在接受《中国经营报》记者采访时表示,智能体的引入,使医生在医疗行为中同时兼具“委托人”和“代理人”的双重角色,必须通过制度设计明确责任边界、厘清风险承担主体。
国家卫生健康委基层司综合处处长姜伟林也指出,AI在医疗卫生领域的推广应用,应在提升效率的同时,兼顾公平性、真实性以及责任界定问题。
多位受访人士认为,当前阶段,明确AI应用场景下的责任认定尤为重要。随着AI在基层医疗机构的渗透速度加快,其在基层的发展空间甚至可能大于公立三甲医院,由此产生的医患分歧和责任争议也将更加普遍。
一位国家卫生健康委基层司相关人士向记者表示,基层医生通常被认为主要擅长常见病、多发病的诊疗,而AI是通过大规模数据训练形成的智能模型,能够在一定程度上为部分疾病提供相对科学的参考判断,实现“补位”作用。
该人士进一步表示:“AI对于医生而言,是对专业知识乃至跨学科知识的重要补充,这一点对基层医疗卫生机构的医生来说尤为关键。”
不过,他也强调,从现阶段看,AI本质上仍然只是辅助诊断工具,通常被称为“AI辅助诊断、辅助诊疗”。在这一应用模式下,真正承担医疗责任的主体仍然是医生,当前依然是以医生为核心的诊疗责任体系。
不少医生也向记者反映,当患者带着AI给出的建议前来就诊,例如“AI说我应该服用某种药物”,而医生根据临床判断给出不同用药方案时,“最终应以医生的判断为准”。
上述国家卫生健康委基层司人士明确表示:“在现阶段的制度与实践框架下,尚不存在AI承担法律责任的问题,医疗责任主体依然是医生。”
与此同时,AI医疗赛道也正在吸引多家科技企业加速布局。
蚂蚁集团推出了AI医生助手产品。2024年12月15日,其发布“蚂蚁阿福”,定位为“AI健康朋友”。华为则组建医疗卫生军团,聚焦AI辅助诊断领域,目前已与62家头部医院展开深度合作,包括联合瑞金医院共建RuiPath病理大模型,与中山眼科中心发布眼科大模型等。京东方面,则将旗下AI医疗小程序“康康”设为京东健康App首页入口,用户可通过对话方式高效连接医疗服务与相关商品。
(编辑:郝成 审核:朱紫云 校对:张国刚)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.