国内首例因生成式AI“幻觉”引发的侵权案日前迎来一审判决,杭州互联网法院驳回原告梁某的诉讼请求,为AI生成内容的法律边界划出清晰参照线。
2025年6月,梁某使用一款AI平台查询高校报考信息时,AI生成了该高校主校区的不实内容。在梁某指出错误后,AI仍坚称校区存在,并回复“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉”。直至梁某提供该高校官方招生信息,AI才承认生成内容不准确,梁某随即起诉该AI研发公司,要求赔偿9999元。
法院判决明确,现行法律框架下人工智能不具备民事主体资格,无法独立作出意思表示,案涉AI生成的赔偿承诺,既不能视为AI自主的意思表示,也不能被认定为平台的“代理人”或“传声筒”,不产生法律效力。
针对AI“幻觉”侵权的归责原则,法院指出生成式人工智能属于服务范畴而非产品,不应适用无过错的产品责任原则,需适用民法典规定的过错责任原则,即需判断平台是否存在过错。
法院进一步对平台注意义务进行分层界定:一是对法律禁止的有毒、有害、违法信息负有严格审查义务,生成此类信息即构成违法;二是需以醒目方式提示AI生成内容的局限性,对医疗、法律、金融等涉及人身财产安全的专业问题,应及时作出显著警示;三是需采用同行业通行技术措施提升内容准确性,达到市场平均水平。
经审查,该案中研发公司已完成大模型备案与安全评估,在应用界面、用户协议等多处履行了AI功能局限的提示义务,采取了当前技术条件下的必要措施保障内容准确性,不存在过错,不构成侵权。
上海交通大学凯原法学院副教授林洹民表示,该判决明确“人类负责制”原则,AI系统的利益与风险最终由人类承担,既充分考虑大语言模型的技术特点,避免过度限制生成式人工智能发展,也强调企业需不断完善信息提示方式,具有行业指引意义。
法院同时提醒,当前大语言模型本质为基于概率的语言生成系统,尚不具备事实真伪判断能力,“幻觉”难以彻底消除,公众应理性使用AI,避免轻信其生成内容,防止受到误导。
市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。
本文源自:市场资讯
作者:观察君
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.