21世纪经济报道记者章驰
和AI打赌赢了10万块真能让AI赔吗?这么抽象的事情居然在杭州发生了,你们猜猜法院最终是怎么判的。
杭州的小梁,用AI查询某高校报考的相关信息时,AI硬生生编出一个不存在的校区。小梁立刻纠正,可是AI 不仅不认错,还一本正经地承诺:“如果我说错了,赔你10万!你可以直接去杭州互联网法院告我。” 小梁拿着截图就把AI公司告了,要求赔偿9999元。
近期,杭州互联网法院审结了梁某与某科技公司网络侵权责任纠纷一案,这是我国目前第一起因生成式人工智能模型幻觉引发的侵权纠纷。
最终,法院一审驳回了原告的诉讼请求。法院认为,被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权。原、被告均未上诉,判决现已生效。
法院驳回理由的裁判要点:
首先,AI 的话算不算数?法院明确AI不是“人”,没有民事主体资格,没资格做任何有法律效力的承诺。当然,它在对话里的“承诺”也不等于公司的承诺。故案涉具体情境下,生成式人工智能生成的“承诺”,不能成立为人工智能或其服务提供者的意思表示,不产生意思表示的法律效力。
第二,AI 是“服务”而不是“产品”,不能按“产品质量问题”追责。所以它适用“过错责任原则”,而不是“无过错责任原则”。AI“一本正经地胡说八道”这叫“AI 幻觉”。只要公司技术上达到了行业平均水平,就很难认定它侵权。据《生成式人工智能服务管理暂行办法》第二条第一款的规定,生成式人工智能服务是指,利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务。
AI幻觉跟AI公司真的能撇清关系吗?当下AI技术处于高速发展期,法律明确禁止AI生成各类有毒、有害、违法信息,一旦发生了本身即构成违法。可大多数情况下,AI生成的信息虽然不准确,但不属于法律禁止的有毒、有害、违法信息。只要AI公司在页面显著位置写了“AI生成内容仅供参考”,公司就尽到了基本的提醒义务。这能避免过度限制生成式人工智能的发展。
最后,小梁没拿出证据证明自己真的受了损失,比如因为这个错误信息没考上大学之类的。案涉生成式人工智能在原告询问高校报考相关信息时,虽生成了不准确信息,但该信息并未实质介入原告的后续决策、判断,未对其决策产生影响,因此,二者不存在因果关系。
人工智能时代已经来临,既要鼓励生成式人工智能服务的创新发展,也不能忽视当事人合法权益的保护。大家用AI的时候要注意,AI再聪明只是辅助工具,不是“权威专家”,更不能替人类做决策,千万别被它“带节奏”!尤其是涉及金钱、合同、理财、医疗、查报考这些重要信息,一定要自己去官方渠道核实。
在AI时代,核查AI生成信息的真伪能力,也是人类核心的竞争力。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.