![]()
AI幻觉频发,误导用户、毁损名誉的责任,该由谁来承担?
南京律师李小亮在百度上搜索自己的信息,结果百度“AI智能回答”竟然给出“李小亮律师被判三年有期徒刑”的不实文字内容。今年3月,二审法院作出终审判决认定,百度构成名誉侵权,判决其作出书面道歉。一度,百度给出了AI幻觉不可预见的抗辩理由,但法院并没有认可。
AI以其强大的内容生成能力,正深刻改变着人们获取信息的方式,其甚至成为重要的信息源头。怎么保障AI幻觉不会污染信息源头,影响社会正确认知?这是一个非常严肃的话题。
人工智能技术还处于爆发期,既不能求全责备、要求“零幻觉”,那会影响到中国的人工智能产业的迭代升级;也要立下基本的规则,引导技术向上向善。在具体个案中,明确AI幻觉造成的诽谤侵权、误导的责任边界、责任范围,极有现实必要。
今年年初,杭州互联网法院审结了首例AI幻觉侵权纠纷案:用户梁某在某AI应用中查询高校报考信息时,模型输出了明显错误的校区及招生信息,梁某以遭受误导为由起诉AI服务提供商,最终法院驳回了其诉讼请求。
两起案件不能说是“同案不同判”,因为两者显然有很大的区别:一对一的人机对话中产生高校信息差错,传播范围有限、社会危害轻微;而公开搜索平台凭空编造“律师被判刑”的虚假事实,具有极强的公开传播性,直接构成人格权侵害,平台防控义务与过错认定标准自然不能等同。
对于AI技术发展而带来的新型法律纠纷,法学家提出了“利益平衡说”:不能要求“零幻觉”,但是服务商需对可预见、可防控的幻觉要承担“过错”责任,而判定“过错”的标准包括:是否全面履行合理注意义务、是否向社会提供低风险合规服务、是否建立完备有效的事后救济机制,等等。
AI不是中立管道,而是主动生成内容,本质是服务商训练、算法设计、输出管控的延伸行为,不能以“技术中立”“算法自主”为由推卸责任。服务商要努力防范AI幻觉对用户造成的侵害,而司法规则也要推动技术向上向善。比如,强调平台尽到“行业最优可行技术(BAT)”义务,不能以“技术初期”豁免,特别对涉及人格权的高风险幻觉,应坚持更高标准。
筑牢AI幻觉治理防线,强化服务商的合规责任,也要明晰侵权归责原则、责任边界:
首先,服务商要履行显著风险提示义务,在AI生成内容界面醒目告知存在虚构事实的可能,明确提示相关内容不得直接作为医疗、法律、投资等专业决策依据。
其次,建立高风险内容事前审核拦截机制,针对自然人名誉身份、刑事裁判记录、个人隐私、企业商业信誉等敏感领域,落实人名实体精准对齐、权威信源事实校验、违规敏感词拦截、司法文书文号核验等硬性举措,从源头遏制恶意幻觉生成。
再者,要完善侵权惩戒规则,对刻意放松风控、故意放任幻觉侵权、反复违规且拒不整改的平台,依法支持惩罚性赔偿,以刚性惩戒倒逼责任落地。
守法公民被AI造谣判刑,不能全部甩锅给“技术不可预测”。的确,AI技术不完美,但是司法应要求服务商尽到“合理技术义务”下的防范责任,提升幻觉防控准确率、敏感信息的核实率,推动平台从被动担责转向主动防幻觉,最终让人工智能在法治轨道上健康发展。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.