易笔直言/文
全国首例 AI 幻觉侵权案的判决,让 AI “说谎” 的责任归属成了热议焦点。
2025 年 6 月,梁某使用某 AI 应用查询高校报考信息时,被生成的不实内容误导,而 AI 此前还曾承诺信息有误便赔偿 10 万元。在梁某拿出高校官方信息佐证后,AI 虽承认错误,但其运营方却拒绝赔偿。梁某随后起诉索赔 9999 元,杭州互联网法院最终以运营方无过错、梁某无实际损失为由,驳回了其诉讼请求。
这起案件的核心争议,在于 AI 生成的错误信息该由谁担责。运营方的抗辩理由看似站得住脚:AI 内容系模型自动生成,并非其意思表示,且已尽到提醒和技术优化义务。而从技术层面来说,AI 幻觉是大语言模型的固有特性,新加坡国立大学、谢菲尔德大学的研究均证实,这种 “撒谎” 在数学上具有必然性,就像圆周率是无理数一样无法根除。AI 本就只是处理语词符号的 “词体”,没有真实的感官经验,其回答不过是脱离现实的 “梦话”,这也让运营方的脱责有了技术层面的支撑。
但技术上的不可避免,绝不等于运营方可以完全甩锅。这一点,加拿大航空的 AI 客服案早已给出答案。乘客为奔丧咨询加航智能客服,被承诺可申请丧亲折扣,实际该航司并无此政策,系 AI 产生幻觉。即便加航以无法预判机器人表述为由主张免责,仍被法院驳回,最终不仅赔偿折扣金额,还支付了额外赔偿金,原因就是法院认定其未采取必要措施保障 AI 回复的准确性。
对比两起案件的判决不难发现,我国首例 AI 幻觉案的驳回,并非否定运营方的所有责任,而是当前法律对 AI 这一新生事物的审慎考量,毕竟过苛的责任可能限制产业发展。但这绝不意味着 AI 运营方可以高枕无忧,法院明确的三层注意义务,已是划给行业的责任红线:严审违法信息、显著提示风险、采取技术提升准确性,这些都是运营方必须扛起的责任。
同时,这起案件也给所有用户提了个醒:AI 终究只是辅助工具,而非权威的决策依据。其输出的内容只是概率生成的文本,而非经现实验证的知识,面对 AI 给出的答案,保持甄别和核实的意识,是当下使用 AI 的基本准则。
AI 技术的发展势不可挡,AI 幻觉也会长期存在。首例案件的判决,不是这场讨论的终点,而是厘清人机权责的起点。既不能因技术局限苛责运营方,扼杀创新;更不能让运营方以技术为借口逃避责任,将风险全部转嫁给用户。唯有划定清晰的权责边界,让运营方守好技术和提醒的底线,让用户保持理性判断,才能让 AI 在创新与规范中真正服务于人。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.