日前,北京市卫健委发布《北京市互联网诊疗监管实施办法(试行)》(下称《办法》)提出,医疗机构开展互联网诊疗活动要加强药品管理,严禁使用人工智能等自动生成处方
在当前阶段,保护医疗安全是使用AI辅助诊疗系统时需要优先考虑的问题。有以下问题需要考虑:
AI技术尚不成熟
虽然AI在医疗领域已经取得了一些令人瞩目的成果,但也存在着一些不足和难题,例如数据质量、算法可解释性、模型泛化性、系统安全性等2。这些问题可能导致AI生成的结果出现偏差、错误或攻击,从而影响医疗质量和安全。例如,2020年,美国一家医院使用的AI辅助诊断系统被发现存在严重的种族歧视,将黑人患者的风险等级低估了54%,导致他们错失了必要的医疗资源3。因此,在AI技术尚不成熟的情况下,不能过分依赖AI生成的结果,而应当让医生对其进行人工审核和修改,以保证医疗质量和安全。
医疗责任尚不明确
虽然AI在医疗领域已经广泛应用,但相关的法律法规和伦理准则还没有完善和统一,导致医疗责任尚不明确。例如,如果AI生成的处方或治疗方案造成了患者的损害,应当由谁来承担责任?是AI开发者、提供者、使用者还是患者本人?如何界定责任的范围和程度?如何保护患者的知情权和选择权?这些问题都没有明确的答案和规范。因此,在医疗责任尚不明确的情况下,不能让AI直接生成处方或治疗方案,而应当让医生对其进行人工审核和修改,并对最终的诊断和治疗负责。
医患信任尚不稳固
虽然AI在医疗领域已经得到了一些患者的认可和信赖,但也存在着一些患者的担忧和抵触,导致医患信任尚不稳固。例如,一些患者可能对AI生成的结果缺乏信心和理解,认为AI不能代替医生的专业知识和经验,也不能体现医生的关怀和同情。一些患者可能对AI生成的结果感到恐惧和拒绝,认为AI可能侵犯他们的隐私和自主权,也可能给他们带来不必要的风险和伤害。
总结
综上所述,目前AI还存在着AI技术尚不成熟、医疗责任尚不明确、医患信任尚不稳固等问题。出于对患者的安全,我们还是需要慎重使用AI。
想要了解更多精彩内容,欢迎关注我。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.