吴太轩,广西大学法学院教授;
邓朝辉,西南政法大学经济法学院
以该论文为基础的同名文章详见《电子知识产权》2025年第8期
摘要:生成式人工智能基于内容生成行为的侵权较之数人侵权、物件侵权、自己责任和替代责任的侵权等传统侵权行为,具有单独性、直接性、深度自主性和纯技术性,进而诱发诸多侵权归责歧见。从理论基础和实践效益之二维出发,分别对一般过错、无过错和过错推定在生成式人工智能侵权归责场景中的适用加以检视,发现一般过错和无过错责任皆难完全满足现实的利益衡平要求,可能造成两造举证义务分配失衡、抑制产业发展积极性、消弭企业技术进步自觉性等遗害,而过错推定则有望产生内外两重适用优势。是故,建议以“过错推定”为基点,将生成式人工智能服务提供者确定为责任主体,并进一步将之界分为开发者、运营者,要求二者各自就其过错承担独立举证责任;同时,为服务提供者推翻推定过错提供举证方案。如此,方可在规制生成式人工智能侵权行为时,既保障受害人得到有效救济,又不至于遏制新兴产业与高新技术发展。
关键词:生成式人工智能;侵权责任;过错推定;责任主体;举证方式
一、问题的提出
自1956年达特茅斯会议提出人工智能概念以来,人工智能不断勃发自身强大的生命力和社会影响力。经过60余年沉淀演进,OpenAI旗下ChatGPT横空出世及后续的更新迭代,掀起新一轮AI热潮。然而喧嚣之下,生成式人工智能不可忽视的风险也在不断增加。2023年4月,ChatGPT回答用户问题时将澳洲某市长错误描述为曾被指控参与贿赂犯罪并因此入狱的官员,受害人经公众告知后为维护个人名誉,要求OpenAI即刻修复,否则将提起诽谤诉讼;无独有偶,同年6月美国主持人Mark Walters状告OpenAI,因ChatGPT捏造并向某研究实际法庭案件的记者提供了原告曾挪用公款的不实信息。
由此,人工智能自主生成信息内容(Artificial Intelligence Generated Content, AIGC)侵害他人合法权益时,该如何对此种侵权行为进行法律归责成为时代之问。本文拟从生成式人工智能的侵权行为特性和归责争议出发,对一般过错责任、无过错责任和过错推定责任的适用分别进行理论和实践的双重检视,并最终以过错推定为基点,对生成式人工智能侵权归责的时代之问作出回应。
二、生成式人工智能的侵权行为特性与归责争议
行为与权益是侵权法的核心概念,行为逻辑影响归责逻辑。使受有损害的权益与造成损害发生或扩大的行为结合,并将该损害转嫁给相关责任人承担,是归责程序运行之要义。但以ChatGPT为代表的生成式人工智能的侵权行为,日益表征出异于传统侵权行为的独有属性,且这种异常介入因素也使归责问题产生诸多歧见。因此,有必要梳理当下生成式人工智能的侵权行为特性以及由此产生的诸种归责争议。
(一)生成式人工智能的侵权行为特性
生成式人工智能是具有文本、图像、音频、视频、虚拟场景等信息内容生成能力的计算机模型,如ChatGPT便是在海量文本数据上预训练(Pre-Trained),并于人机对话(Chat)中处理并生成(Generative)自然语言的大语言模型。作为受“无中生有、有中生有”之涌现效应影响的复杂系统,生成式人工智能能够创造并发布超脱于旧有训练数据的全新信息,但也可能基于“幻觉”产生有害他人合法权益的错误信息,进而使人工智能的内容生成行为沾染侵权色彩。
由于侵权行为本身的概念界定也非易事,从其内涵,既有精要者谓之“因加害行为造成他人损害而由加害人承担责任的行为”,亦有详尽者以“由于过错”“违反义务”等内容进行延展续释;观之外延,又存在立足侵害客体、归责原则等不同标准的诸种见解。较系统的则将其分为:一般侵权与特殊侵权、单独侵权与数人侵权、人类致损与物件致损的侵权、自己责任与替代责任的侵权。是故,为于侵权法意义上对生成式人工智能的行为特性进行准确归纳,须在明确其行为内在特性之基础上,进一步将其与传统侵权行为比较。由于一般与特殊侵权内有分歧,故主要选取单独与数人侵权、人类致损与物件致损的侵权、自己责任与替代责任的侵权作为比较对象,分述如下:
第一,较之数人侵权,生成式人工智能侵权行为具有单独性、直接性。人工智能生成内容就属性而言是网络信息,沾染侵权色彩则可归为侵权信息。不可否认,人工智能具有类似搜索引擎的信息检索功能,若向用户提供的信息仅是从已有互联网信息中检索获得,且未作实质改变,则在信息理论视角下仅为传播者,而非发布者。但生成式人工智能完全有能力摆脱服务提供者的外部帮助,单独完成侵权信息的创造性编撰,并同时向用户直接发布该侵权信息,从而“切断将人工智能生成解释为人类操纵人工智能生成的可能”。在“Mark Walters v. OpenAI案”中,ChatGPT便在与其用户Fred Riehl的人机对话中径直表明,Mark Walters作为第二修正案基金会(SAF)的财务主管和首席财务官,曾因私自挪用组织资金用于个人开支并篡改财务记录和银行对账单,同时未能向领导层及时准确提供财务报告而受到该机构创始人Alan Gottlieb的投诉。但上述内容无论是身份抑或行为方面的信息均不符合事实情况。后续Fred Riehl继续追问时,ChatGPT甚至独立捏造并提供了完全虚假的投诉文本。这一完全由ChatGPT单独实施的诽谤行为,使本案原告暴露在公众不良评价下,损害了原告声誉。反观数人侵权,共同加害和共同危险强调多方侵权行为主体的存在,教唆帮助则偏重间接促进他人实施侵权行为。因此,生成式人工智能有能力单独且直接实施侵权行为,其侵权行为具有单独性、直接性,有别于数人侵权。
第二,较之物件侵权,生成式人工智能侵权行为具有深度自主性。参考欧洲议会《机器人民事法律规则(Civil Law Rules on Robotic)》责任部分第AA条,人工智能若能摆脱外在人力介入和干预而独立决策并达成决策目标,则具备自主性。一方面,生成式人工智能无需服务提供者的外部介入和干预便可实施内容生成行为。同时,基于内容自主生成的能力,其已在事实层面获得社会对其主体身份的认可,如人工智能生产内容(AIGC)业已成为与专业生产内容(Professional Generated Content,PGC)和用户生产内容(User Generated Content,UGC)齐肩的第三种互联网内容生产模式。另一方面,生成式人工智能自主生成内容的行为逐渐脱离外在人力的可控制范畴。由于智能“涌现”,生成式人工智能行为开始呈现不可理解、不可预测和不可控制的趋势。因此,生成式人工智能不仅能够自主实施侵权行为,而且其自主性程度将随着技术的发展而不断得到深入拓展与加强。反观物件致损的侵权行为,如普通的产品缺陷致损、林木折断致损、堆放物倒塌致损等,主体均为普通物件,并无自主活动可能。存有疑问的是饲养动物致损的侵权行为。虽然动物与林木等无智商物相比,具有一定自主活动能力,但从行为概念来看,动物举动均为自然反映而非有意识的自主活动,因此动物不是事实主体已成共识。特别较之生成式人工智能,动物显然缺乏足够的行为理性与逻辑判断能力,无法获得被社会整体认可的事实主体身份。因此,生成式人工智能的侵权行为具有深度自主性,有别于物件致损的侵权行为。
第三,较之自己责任与替代责任的侵权,生成式人工智能侵权行为具有纯技术性。由于生成式人工智能的侵权行为具备相当显著且日渐增强的深度自主性,因此学界对人工智能的法律地位认知和资格判断受到极大影响,诸多学者呼吁应赋予其法律人格和独立责任。但当前并不适宜作此判断,因为生成式人工智能侵权行为“不可理解、不可预测和不可控制”是值得商榷的:其一,服务提供者有能力删除或禁用涉嫌侵权的内容,如OpenAI用户协议第9条(d)提及:“如果您认为您的知识产权受到侵犯,请发送通知至以下地址或填写相应表格,我们可能会删除或禁用涉嫌侵权的内容,并可能终止重复侵权者的帐户。”其二,服务提供者有能力实施行之有效的导向性控制,如通过人工内容标注等行为来引导生成式人工智能避免生成并发布涉嫌种族歧视、法西斯主义等有害公共利益的内容,或依托对齐微调(Alignment Tuning)使生成式人工智能行为符合人类价值观与道德偏好,减少违法和不良信息的生成,实际此类信息在人机对话中也确实难觅踪迹。其三,人工智能自主程度受制于人类设计,即其自主程度与其被设计成的可与环境进行交互的复杂程度成正比。因此,生成式人工智能的内容生成行为仍然无法完全脱离人类的干预和控制,其在形式意义上实施的独立自主行为本质上依旧遵循着人类预先设计的技术逻辑,这使得所谓的深度自主性客观来讲也附有技术色彩,而基于该种非自然、纯技术性的自主,生成式人工智能将无法被赋予法律意义上的主体资格和独立责任。经过比较分析,可得如下结论:
其一,生成式人工智能侵权行为有别于自己责任的侵权行为。自己责任又称直接责任,如常见的侵犯他人人身或财产权益、违反保护性法律规范等,行为主体应当自负其责。但侵权法中,责任主体与为责任提供法律评价对象的行为主体并非始终具有同一性,“不法行为责任不仅可归于行为人,也可归于依法律规定或社会观念而应承担责任的人”。生成式人工智能的侵权行为虽由其独立、自主、直接实施,但因其未被赋予法律上的独立责任,所以将发生行为主体与责任主体的分离。
其二,生成式人工智能侵权行为有别于替代责任的侵权行为。生成式人工智能侵权场景中虽发生行为主体与责任主体的分离,相关责任由他人代而承担,但传统视域下替代责任主体与侵权行为主体间普遍存在监护、雇佣、代理等特定关系,被监护人员、执行职务的雇员等行为主体均具有法律意义上的独立人格。法律主体作为人格人,其不仅具有意志,而且始终为目的性存在。反之,生成式人工智能虽被赋予技术层面的感知与决策能力,但始终是人类智能的工具性延伸,不同于人类的情绪感知与行为决策能力,无法改变其“物件”本性,因此不是法律主体,其侵权行为有别于替代责任的侵权行为。
纵论及此,可知生成式人工智能是行为主体和事实主体,却非责任主体与法律主体。“似人而非人,非人而似人”的主体特点使其具有单独性、直接性、深度自主性和纯技术性的侵权行为无法与任何一种传统的侵权行为相类同。
(二)生成式人工智能的侵权归责争议
生成式人工智能的侵权行为呈现特殊属性,进而导致与之对接的侵权归责程序陷入运转困窘。前文曾述及,学理界曾围绕人工智能主体性认定问题衍生两派差异观点,并由此对人工智能可否作为独立的法律主体承担侵权责任存有分歧。而鉴于我国当前并未认可人工智能的法律主体身份且实无认可之现实需求,因此仅就非主体前提下的生成式人工智能侵权归责路径展开梳理。总体而言包括两大类别:
第一类,一元归责路径。其中又可分为:(1)以高度风险、产品缺陷或责归于上为基点提出的无过错责任。如高度风险说认为,人工智能内容生成行为涉嫌侵犯多种人格权益、内容生产结果无法有效预测、存在诱发大范围系统性不利后果的风险,具有极大潜在危害,因而适用无过错责任;产品缺陷说继续坚持沿用产品概念涵摄人工智能,强调产品技术问题造成的损害理应使用无过错的产品责任;还有学者从现实合理性出发,将利于降低相关侵权风险、减少制度不确定性成本、提供可预期法治经营环境等作为适用无过错责任的依据。(2)为纠偏原被告举证失衡格局、动态调整被告责任负担而适用的过错推定责任。如我国《人工智能示范法1.0(专家建议稿)》第66条第1款规定,“研发、提供的人工智能侵害个人权益造成损害,研发者、提供者未履行本法规定的义务,应当承担损害赔偿等侵权责任,但研发者和提供者能证明自己没有过错的除外。”相关学者也多针对无过错责任提出批驳,主张应利用过错推定实现举证责任倒置,纾解原告诉讼压力。(3)以现有技术水平、合理人工智能作为过错认定标准的一般过错责任。参照既往有关智能算法侵权的判例可知,司法机关较多依法优先适用一般过错进行归责,如“刘权诉北京三快科技案”中,原告因智能算法杀熟起诉被告侵犯其知情权等人格权益,法院因原告无法证明被告过错而予以驳回,并强调“除法律另有规定外,行为人因过错侵害他人民事权益,才应当承担侵权责任。”转见生成式人工智能侵权领域,部分学者顺应历史逻辑继续坚持一般过错并提出多种过错认定新标准,如“在现有技术条件下是否尽到了采取必要措施的义务,是否尽到了预防和防范的义务,从而认定其是否具有过错”,或通过建构“合理人工智能”作为预期对象并同涉案人工智能行为加以比较得出过错判断。
第二类,多元归责路径。其中包括但不限于:(1)基于侵权风险差异,针对禁用型人工智能侵权要求服务提供者承担无过错责任、对高风险型采用过错推定责任、对低风险型仅依一般过错加以归责;(2)基于信息错误诱因差异,过错推定被广泛嵌入生成式人工智能因存储数据本身虚假而生成错误信息、使用者提示虚假信息而生成错误信息和提供者故意掺入虚假信息而生成错误信息三类情形,无过错的产品责任则单独应用于通过真实数据生成错误信息的场景;(3)基于可解释性差异,人工智能被划归为完全可解释的“白箱AI”、一定程度可解释的“灰箱AI”和完全不可解释的“黑箱AI”,并顺次适用一般过错、过错推定和无过错责任;(4)基于标准化程度差异,对少量可实现标准化生产与经营的生成式人工智能适用无过错的产品责任,而对大部分无法完成标准化改造的继续适用一般过错责任;等等。
虽然生成式人工智能有其特殊的侵权行为逻辑,甚至可能因应现实场景变化而衍生多种事实差异,但依据奥卡姆剃刀“如无必要,勿增实体”之理念,若能够遵循既有体系为其选配适宜归责原则,那么实无必要额外创设过于繁杂的责任认定和分配规范。立足《中华人民共和国民法典》侵权责任编,或可以“过错”为节点,对一般过错、无过错和过错推定责任在生成式人工智能侵权场景中的适用,分别进行理论基础与实践效益的双重检视。
三、一般过错责任在生成式人工智能侵权中的适用证否(一)一般过错责任的理论基础
古早成文法采结果责任,即不论过错与否,行为人只要造成他人损害便负有侵权责任。问题在于,结果责任的适用与现实生活实际存有巨大矛盾,因为即便个人正当追求自身权利或利益的实现,“仍可能在客观层面以另一方权利的排除或减损为代价。”为解决该问题,以主观过错为正义基础的一般过错责任(Fault Liability)便获得自然发展。
一般过错责任中“过错”要素的判定,实以怠于履行善良管理人的注意义务为标准,即应注意能注意而不注意。此间既包括积极追求的故意不注意,也指向疏忽大意或过于自信的过失不注意。分歧源于注意义务之前提条件,即:损害的发生可以被合理预见与避免。诸多学者主张生成式人工智能侵权仅可适用无过错责任,便是因生成式人工智能侵权行为本身在一定程度上具有不可预测性和控制性,进而使善良管理人的注意义务缺失生发前提,其引发的损害与其说是遭自“不法”行为,毋宁言为“不幸”后果,使侵权归责中的“过错”要素发生不适用。当然,前文曾述及所谓生成式人工智能侵权行为完全不可理解、预测和控制的结论过于绝对,无论是开发者的删除禁用承诺,还是导向性控制、对齐微调等都予以了充分佐证。关键在于,判定“过错”所需的注意义务在性质上属于作为义务,而形式义务学说始终强调作为义务不仅可以通过给定情形的“致害事实”推定(如先行行为、职务或业务要求、对危险源的监管要求等),更可源自法律条文的直接赋予。结合《互联网信息服务深度合成管理规定》与《生成式人工智能服务管理暂行办法》可知,事实上我国目前已经在安全评估、算法备案、内容标注等方面为生成式人工智能服务提供者依法设立了相当明确的善良管理人注意义务。
由此,前述以不可理解、预测和控制为逻辑起点,试图验证注意义务缺失并主张排除适用过错责任的观点便不再具有当然合理性,一般过错责任至少在理论层面不会存在适用阻滞。
(二)一般过错责任的实效弊端
虽然一般过错责任自诞生后逐渐占据侵权归责体系的中心地位,并在一定程度上矫正了此前由结果责任引发的非正义现象,但自十九世纪工业革命爆发,一般过错责任本身也开始暴露出内部缺陷,其中最为显著的便是工业化大生产背景下因忽视经营者、消费者之实质不平等地位而形成的对两造举证义务分配的不公平、不正义问题。人工智能时代,欧盟《人工智能责任指令》施行目的之一同样是在减轻人工智能相关索赔中作为消费者的原告承担的过重举证责任(Easing the Burden of Proof for AI-Related Claims)。从其问题成因,具体有二:
第一,受害方所负举证责任远超于其能力范围。受害人受客观限制,往往难以对具有较高技术水平的商品或服务形成充分且合理的认知,要求其承担远超自身能力范围的举证责任不具有正当性。现代侵权法始终强调“过错”是经法律评价的事实,对应于社会成员对相关主体通常能采取的损害规避措施的合理期待。换言之,过错责任的承担并非建立在道德缺点上,而是看相关主体是否达到符合社会公共利益的理想行为标准。该种标准在生成式人工智能场景则集中表现为服务提供者应当履行的善良管理人注意义务,生成式人工智能侵权行为过错要素的证明将与该注意义务的履行情况相对应。但生成式人工智能属于典型的科技水平较高、专业性极强的高新技术,无论是其内容生成的行为过程,还是服务提供者进行安全评估、内容标注等注意义务的义务履行过程,均超出作为一般人的消费者的正常认知限度。因此,要求受害人从局外角度出发,追根溯源以举证侵权方过错的存在,不免有强人所难之嫌。
第二,侵权方所负举证责任远低于其能力范围。农业社会、工业社会与信息社会的渐次发展,使市场主体间的力量对比关系发生严重失衡。产品或服务的生产者和销售者在经营中占有更多资金、技术、人才等资源,形成较之消费者的强势地位。这种强势不仅体现在前者具有更雄厚的经济实力和风险承担能力,还突出表现为更强的举证能力和诉讼能力。如果僵化适用一般过错责任,将“在维护形式正义的同时也维护着实质的非正义”。生成式人工智能侵权方较之受害方,更了解人工智能内容生成的行为机理与自身注意义务的履行情况,举证成本更低、证明效果更强。若坚持法律形式主义,继续维持业已失衡的举证义务分配结构,将使得一般过错责任演变为保护处于实质优势地位的侵权方的工具。
事物合理与否的判断并非始终固定不变,其不仅要在通常场景中表征合宜,更应与特殊情形相兼容。经济生活的真实变化使归责原则的选择不得不重视当事人之间不平等的社会现实,此时在生成式人工智能侵权场景中摒弃一般过错责任更加合宜。
四、无过错责任在生成式人工智能侵权中的适用摒弃(一)无过错责任的理论基础
无过错责任(No Fault Liability),意指损害产生后,只要加害行为与该损害后果存在因果关系,不问过错皆应承担侵权责任。如果说过错责任以制裁、教育加害人和预防加害行为再次发生为目的,那么无过错责任实际仅着眼损害的合理分配。因为伴随社会发展,人民享受发展福利时也面临工业灾害、交通事故、环境污染等致害风险,但无论是原子能与航空工业、交通运输事业还是生态环境开发利用,都是社会经济发展的必要活动,即便引起损害也实无不法性可言,更无必要予以禁止。当然,倘若来自于现代文明发展负面影响的不幸后果全由受害人独自承担,显然有失公平正义,故无过错责任的唯一职能便是合理分配该不幸后果,由此体现高度现代化、社会化大生产条件下的公平正义观。
在加害行为不法性不作为适用无过错责任的前提条件时,无过错责任适用的理论依据有三:一为谁开启风险,谁承担责任;二为谁从风险中获益,谁承担责任;三为谁能够合理的控制或分散风险,谁承担责任。生成式人工智能侵权行为完全符合上述要求:其一,生成式人工智能侵权风险因开发、运营而产生;其二,生成式人工智能开发、运营作为经营性活动,服务提供者从中获取实际收益;其三,生成式人工智能内容生成行为并非完全不可预测和控制;其四,相关风险损害能够经由商品或服务的价格机制或保险制度加以分散。因此,仅就理论基础而言,无过错责任足以构成生成式人工智能侵权归责的潜在选择。问题在于,无过错责任在生成式人工智能侵权场景中的实践应用,或难达致合理分配损害风险、充分救济受害人等规范目的。
(二)无过错责任的实效弊端
将诸多适用无过错责任的个案进行抽象概括,会发现已知的可归责事由主要包括高度危险、特定关系和优势地位。(1)基于高度危险的无过错责任,如《民法典》第八章所列高度危险作业致人损害、民用核事故致人损害等产生的责任均属典型。关于高度危险的判定,常要求同时符合风险广泛性和损害高度严重性,且更多考虑后者。虽然生成式人工智能可能输出虚假性、歧视性或侵犯他人版权的信息,但在损害严重程度方面根本无法与核事故、航空事故等相提并论。因此,基于高度危险的无过错责任难以适用。(2)基于特定关系的无过错责任,如监护人责任、雇主责任等。域内外均有主张人工智能与其服务提供者间可类比雇佣或监护关系,并由后者承担替代责任。前文曾述及替代责任下常要求法律关系各方(特别是替代者和被替代者)均具备独立的法律主体资格,若生成式人工智能侵权径行适用替代责任,将在一定程度上打破固有的责任适用要求,因此雇主责任、监护人责任等仅可作为参照进行类比,但不宜施行“拿来主义”。(3)基于优势地位的无过错责任。此分类实际较为宽泛,但《民法典》第四章和《中华人民共和国产品质量法》规定的产品责任或为较鲜明之示例。我国亦有学者主张就人工智能侵权归责适用产品责任。
关键问题在于,产品责任能否契合ChatGPT此类生成式人工智能侵权的特殊情况,并产生无过错责任所应具备的社会实效?本文主张为否。前人工智能时代,产品缺陷(特别是设计缺陷)判断标准包括“危险—效益标准”和“消费者期待标准”。前者要求受害人证明现有设计所产生的危害风险大于收益可能,并应提出具有可行性和更加安全的替代设计;后者则指产品是否能满足一般消费者在合理使用时对产品的预期。随着人工智能侵权问题出现,诸多学者均意识到“危险—效益标准”会致使受害人面临极大的举证困囿,因而转向倡议举证责任相对更轻的消费者期待标准。但消费者期待标准同样有颇受诟病之弊端,即“模糊不清,更适于评判简单产品设计,而无法适用于复杂产品设计”。延及生成式人工智能,暂不论其是否构成产品,单就技术复杂性而言已远远超出消费者正常认知限度,难以要求消费者对其形成相对合理的安全期待值。基于此,产品责任虽被归为无过错责任,但并不意味着不存在“过错”,其仅是将客观存在的产品缺陷视作“过错”。因此,产品责任在生成式人工智能场景下的责任认定方法与一般过错并无本质区别,不过是从证明“主观过错”转为证明“客观缺陷”,仍然无法应对当事人举证地位极端不平衡的现实矛盾,故基于优势地位的无过错责任(如产品责任),不具有可适用性。
随之而来的问题是,若为生成式人工智能侵权设置独立且纯粹的无过错责任,是否能够满足社会实效层面的要求?本文依然秉持否定态度,理由如下:
第一,施加过重的额外负担将抑制相关产业发展积极性。虽然在创设理念和适用范围方面,无过错责任和结果责任存在显著差异,但从形式上来说,二者均归于纯粹的客观归责体系,一般唯有加害方证明受害方存在故意才能免除自身责任。不可否认无过错责任对保障弱势受害人的合法权益极为有利,但若生成式人工智能服务提供者确无过错,无过错责任相对偏颇的设定也会剥夺其自证清白的权利与机会,进而造成个案适用的有失公允。当生成式人工智能服务提供者动辄得咎,将使得服务成本攀升,进而在一定程度上概括抑制产业发展的积极性,导致寒蝉效应。
第二,价格与保险机制介入将消弭企业技术进步自觉性。以价格机制和保险制度为基础并实现损害分配社会化的无过错责任,将使生成式人工智能服务提供者不必再为其造成的损害自行赔付。根据利尔德·汉德公式,当预防事故成本(B)大于预期事故成本(PL),责任主体作为理性的功利最大化者(Rational Maximizer)将不再采取预防措施。换言之,当采取安全保障措施和提高技术安全性的费用大于提价损失或保险费用支出,服务提供者必然放弃提高产品或服务安全性,也不会自觉秉持谨慎服务态度。如二十世纪平托车事件中,福特对召回并加装安全装置的费用与车祸伤亡者的赔偿费用进行计算,并最终做出不利于技术升级和保护消费者安全的放弃召回决定。
第三,滥设无过错责任将贬损现代侵权责任的功能。无过错责任本身科以被告的负担难谓绝对正义公平,因此必须通过法律明文规定的形式对其适用予以特定化。相较兼具制裁、教育、预防和赔偿职能的过错责任,仅强调赔偿救济受害人而不发挥教育和预防功能的无过错责任已在实质上淡化了侵权责任的本源含义,甚至难谓具有侵权责任属性,故有学者直言“无过错责任在哪里发展,过错责任就在哪里消灭”。更重要的是,如果在生成式人工智能此类新兴侵权场景中不加审慎考量地滥设无过错责任,可能便于加害方借由保险制度、价格机制将侵权损害向大众转移,从而使得侵权责任规范无法发挥约束和指引公民行为的基本功能,贬损以过错为基础的侵权责任体系的应有价值。
有鉴于此,无过错责任在生成式人工智能侵权场景中不具有可适用性。
五、过错推定责任在生成式人工智能侵权中的适用证成(一)过错推定责任的理论基础
过错推定是指若受害人能证明自身合法权益因被告加害行为而受有实际损害,则从损害事实本身出发推定加害人具有主观过错,如果被告未证明或不能证明自己没有过错,则需承担侵权责任。《民法典》第1165条第1款和第2款为一般过错和过错推定侵权设立请求权基础。其中,过错推定的根本目的是为受害人提供更充分的救济受偿机会,这使其职能重心相较一般过错,由制裁、教育、预防向赔偿倾斜。殊值注意的是,过错推定责任的出现虽改变了过错责任体系的格局,但其本身未脱离过错责任体系,本质依旧以“过错”为核心,所以“我国现行侵权法仍以一般过错为主线,过错推定为补充”。由此,过错推定责任在理论层面的适用条件同一般过错责任并无实质差异,可以用于规制生成式人工智能侵权行为。
(二)过错推定责任的实效优势
关于生成式人工智能侵权行为的可预测和控制性,目前能得到的结论是基于不完全意义上的。当然,也有少数学者曾提出反对意见,认为人工智能的自主行为并非设计者可以控制,进而强调侵权责任不应由设计者承担。但多数学者常作二分判断,主张人工智能的自主行为大部分情况下均处于开发者控制范畴,但不排除产生异常状态并摆脱人为控制的可能。由是观之,似应结合生成式人工智能侵权行为可否预测和控制并为其分别配置侵权责任,以满足具体问题具体分析的需求。但关键问题是,过分细致入微的侵权责任二分法,实则会给司法实务带来操作层面的极大不便。因此,为保障生成式人工智能侵权责任规范具备良好的可操作性,仍需适用统一的归责原则。此外,适用过错推定责任还可能产生如下效益:
第一,过错推定责任的外在比较优势。(1)较之一般过错责任,更有利于实现举证责任的合理分配。将生成式人工智能侵权致损的情形同《民法典》业已列明的无民事行为能力人在教育机构遭受人身损害、动物园饲养动物致损和林木折断致损等八种过错推定情形相结合,不难发现原告均客观缺失有效的证明手段,难以完成举证。同时,生成式人工智能服务提供者、教育机构等被告相对更容易接触到可能构成过错的事实,此时通过推定将与过错相关的举证责任倒置给履行证明义务更加便利的被告,有利于保障原告享有合理受偿机会,以实现原被告间举证责任的合理分配。类似逻辑亦可见于《中华人民共和国民事诉讼法》第112条文书提出命令规则,比较法上英美的“事物自道其缘”(the Things Speaks for Itself)也存在相当内容。(2)较之无过错责任,更有利于激励产业良性发展,更契合过错责任适用优位要求。一方面,秉持不纯粹客观归责理念的过错推定虽然在加害行为、损害结果、因果关系得以证成时事先推定过错,但依旧为加害行为人保有自证机会。服务提供者得以通过积极举证来推翻推定的过错,这同时也反向激励从业者注重技术的改进和安全性的提升,助推产业走上可持续的发展道路。另一方面,由于《民法典》呈现“过错责任为一般,严格责任为例外”的二元格局,因此,原则上侵权行为都应优先适用过错归责原则,而过错推定作为其内在组成,置于生成式人工智能侵权场景,也正契合过错责任优位适用的一般要求。
第二,过错推定责任的内在独有优势。(1)有利于实现过错不明风险的合理转移。应当承认,生成式人工智能侵权行为在当下无法实现完全预测和控制,甚至有时不仅受害人无法就过错进行举证,连服务提供者也不知自己是否存在过错。在有无过错的事实真相不明时,过错推定中举证义务倒置,意味着基于过错不明所产生的不利后果(如败诉)将由处于优势地位的服务提供者来承担,也能同时实现对双方不平等关系和不对称权利结构的矫正要求。(2)有利于明确生成式人工智能侵权行为的类别界限。目前无论是法律还是技术都尚未对生成式人工智能自主行为的可控标准形成统一认知,行为可控与不可控之间的界限仍然模糊不清。过错推定的持续适用恰可使该界限自主显现。当生成式人工智能侵权纠纷不断展露于现实,服务提供者将竭力证明自身就涉案行为不具有过错,而根据证明成否情况,能够自然知悉哪些行为可为其所控。虽然随着技术的发展进步,当下不可控的侵权行为会有部分进入人类控制范畴,但随着时间的推移,可控与不可控行为之间的界限将逐渐清晰,对可控标准的统一认知也将日渐成型。(3)有利于满足法律体系解释的一致性要求。新兴技术活动致人损害适用过错推定责任,并非首创于生成式人工智能侵权场景,如信息处理行为侵害个人信息权益中适用的《个人信息保护法》第69条第1款便是典型前兆。更重要的是,信息处理行为作为先行行为,使个人信息处理者负有法定作为义务,而在涉及法定作为义务产生过错推定责任的规定中,《民法典》也同样要求特定主体通过举证已经履行作为义务从而免于承担侵权责任。因此,生成式人工智能侵权采用过错推定责任,不仅可与同处新兴技术领域的信息处理侵权归责规范遥相呼应,而且也能同《民法典》内的侵权责任体系保持步调一致。
由是观之,过错推定责任的适用不仅具有坚实的理论基础,而且能够产生诸多社会实际效益,是解决当前生成式人工智能侵权归责难题的应然选择。
六、基于过错推定的生成式人工智能侵权责任具体适用
归责原则以“过错”或“无过错”为节点,不断寻求侵权责任确立根据,当基于过错推定的生成式人工智能侵权责任验成,可以“过错推定”为基点连结责任主体,同时与损害赔偿等承担方式接合,形成完整的侵权责任认定逻辑。但仍有两个关键问题有待处理,即生成式人工智能侵权过错推定责任应由谁承担?被告方应通过何种举证方式推翻推定的过错?
(一)过错推定责任的主体范围
人工智能的自主性没有为其赋予法律意义上承担独立责任的资格,因而为人工智能设置的侵权责任不是人工智能的责任,而是人工智能致人损害时的背后人的责任。确定责任承担主体时,应充分考量生成式人工智能模型开发者(The Manufacturer)、运营者(The Operator)和使用者(The User)在此间产生的作用。但进一步来说,能够影响到内容生成行为的主体实际远不止以上三种,还可能包括其他恶意利用或滥用生成式人工智能侵害他人权益的第三人,如黑客攻击使其无法保持正常工作,从而出现误差以致他人损害,该情形通常可基于技术中立原则,认定侵权损害来源于恶意第三人之行为而非生成式人工智能模型,故此处实则尚未涉及生成式人工智能侵权过错推定责任的主体确定问题。
有鉴于现实场景中生成式人工智能常由模型开发者自主运营,因此学理研究在讨论人工智能侵权责任问题时,并未有意识地对开发者和运营者予以区分,而多以服务提供者为名进行合一处理。但随着生成式人工智能模型功能的不断强化,开发者除自行运营外,亦不排除将模型算法打包成组件并集成到其他经营者所运营的应用程序或网络平台之可能。比如,微软便推出基于GPT-3.5和GPT-4技术的Azure OpenAI,向微软用户提供人工智能生成服务。在此过程中,微软仅实施购入该项技术并将之内嵌于云平台Azure的模型部署与运营行为,不会在实质上改变生成式人工智能原本的底层决策逻辑和行为功能走向。因此确有必要将开发者与运营者进行事先区分,这同时也意味着关键问题将聚焦于生成式人工智能侵权时,开发者和运营者谁是过错推定责任的承担主体?本文主张责任主体一般为开发者,而运营者仅在特定情形下负有证明自己无过错的责任。
第一,开发者作为责任主体的情形。一方面,生成式人工智能侵权行为直接体现开发者意志。由于生成式人工智能的深度自主性是带有纯技术色彩的行为自主性,而非主观层面的意志自主性,因此其始终不具备法律主体身份,而仍处物件范畴。故而,可适用“刺破人工智能面纱原则”要求背后实际控制人——即开发者——承担侵权责任。如OpenAI作为ChatGPT的开发者通过训练数据选取、变量选择、权重设定等可直接决定ChatGPT内容生成行为的底层逻辑,自主创造并发布侵权信息的行为归根结底遵循开发者预先设计的程序,受到开发者控制,是开发者意志的集中体现。另一方面,生成式人工智能是涉案侵权信息的直接来源。若生成式人工智能创造并发布的一手信息涉及侵权,便需依“谁发布、谁负责”原理追究发布者的责任。同时,因为侵权行为背后由开发者意志支撑,所以需穿透式地要求开发者承担生成式人工智能侵权的过错推定责任。当然仍需强调,若ChatGPT输出的侵权信息仅是从已有互联网信息中检索所得,且未作实质性改变,那么生成式人工智能本身仅为传播媒介,并不会与侵权事件产生直接关联,此时开发者仅需承担因未履行必要的通知删除等义务而产生的连带责任。
第二,运营者作为责任主体的情形。生成式人工智能模型运营者在本质上与微博、推特等传统网络服务提供者并无不同,当平台中的人工智能生成内容侵害他人合法权益或公共利益时,需依据《民法典》第1194、1195和1197条,承担因自己利用网络侵害他人权益的自己责任,或在有效通知后与明知情况下,负有因未及时履行后续删除、断开连接等义务产生的连带责任。特别问题是,倘若运营者与开发者之间形成关于生成式人工智能模型的承揽定作关系,是否可同时要求运营者成为过错推定责任的承担主体?根据《民法典》第1193条,定作人仅基于定作、指示或选任过错而对承揽人在完成工作过程中造成的损害担责,并未直接提及工作成果(即生成式人工智能模型)自主侵权时定作人的责任问题。结合过错推定的一般原理,或可进行如下安排:其一,由于运营者的定作、指示等行为能够直接影响甚至决定生成式人工智能的设计开发流程,因此可在视作运营者参与开发的基础上要求运营者承担生成式人工智能侵权的过错推定责任;其二,由于运营者仅能够通过定作、指示等行为对生成式人工智能模型的设计开发环节产生影响,因此过错推定责任下运营者仅需证明就定作、指示或选任行为不存在过错。
虽技术本身中立,但技术设计与合规情况乃至服务目的都由背后资本操纵,故生成式人工智能侵权过错推定责任的承担主体一般为开发者,运营者仅在模型承揽定作中就定作、指示或选任问题承担过错推定责任。当然,二者是否存在承揽定作关系仍需受害人举证,若受害人无法证明承揽定作关系存在,则不应要求运营者承担相关过错推定责任。
(二)过错推定责任的举证方式
服务提供者主观心理状态究竟为故意还是过失,对生成式人工智能侵权归责并无实质影响,过错推定意味着“客观违法行为”全部或部分取代对“主观心理过错”的证明。比如,动物园动物致人损害中负有安全保障义务的动物园未采取管理措施或管理措施实施不当的,则管理行为具有违法性并被推定有过错。个人信息处理侵权致损中负有个人信息保护义务的处理者违法处理个人信息,则处理行为具有违法性并被推定有过错。当然,过错推定不仅利于原告,而且也能由被告使用,助其通过反证推翻推定过错。循此逻辑并回归生成式人工智能侵权场景,服务提供者或可进行如下举证:
第一,通过证明不存在客观违法行为来推翻推定的过错。存在违法行为,才存在推定过错。正如个人信息侵权过错推定责任中,若处理者能证明自己的信息处理行为合法合规,便不具有过错并可免于承担过错责任。同理,虽然受害人提起侵权诉讼常会指明生成式人工智能生成了哪些违法内容或服务提供者存在哪些违法行为,但若服务提供者能对受害人主张的具有违法性的原始事实进行反证,那么将直接使违法推定过错适用的前提基础完全丧失,进而免于因存在推定的过错而担责。比如,服务提供者可证明生成式人工智能所生成的内容不属于虚假信息、歧视信息或其他被禁止生成的信息,抑或未对原告造成实际损害。
第二,通过证明虽然存在客观违法行为,但是该行为不可预见和避免。不可否认,生成式人工智能的确可能超出服务提供者的预计和掌控范围,自主生成侵权信息并导致侵权事实,若继续推定服务提供者对此存在主观过错,并进而要求其承担侵权责任并不妥当。参考个人信息侵权过错推定责任中的注意义务可知,不可预见和避免这一结论实以服务提供者已经尽到其应尽之注意义务为前提,且该注意义务所涉内容并不仅限于申报安全评估、算法备案登记以及内容标准等法律规范业已列明的形式部分,还包括特定情形中可推知服务提供者应当履行的实质部分。比如《生成式人工智能服务管理暂行办法》第4条仅规定,应当采取有效措施防止生成虚假信息、歧视信息等。但鉴于相关技术尚处起步阶段,对具体措施内容并未阐明也无法阐明,因此服务提供者为防止生成虚假信息和歧视信息等内容所采取的预防措施应达何种程度并无确定标准,而是需结合技术实际发展水平加以判断。总体而言,在存在客观违法行为时,服务提供者不仅需证明自己已经履行法定注意义务,还应证明相关行为在现有技术条件下确实无法预测和避免。当然,受害人此间始终保有反证之权利。
七、结语
行为逻辑影响责任认定,责任认定应满足现实的利益衡平要求。生成式人工智能的侵权行为虽存在单独性、直接性、深度自主性和纯技术性等特性,但尚不足以使其拒绝沿用传统的过错推定责任。同时,开发者和运营者若被推定存在过错,则需各自就“过错”独立承担不同的举证责任。通过侵权行为特性剖析、侵权归责原则选用、侵权责任主体确定三步程序,我们能对文首提出的时代之问——人工智能自主生成信息内容侵害他人合法权益时,如何对此种侵权行为进行法律归责——形成初步回应。不过,侵权问题毕竟是一类极为古老且庞杂的社会纠纷,本文寥寥内容莫不谓是开其处理端绪,而关于生成式人工智能侵权,其他如损害类型、救济措施乃至责任限制等,无一不是应接续研讨之议题。
注:因字数关系,注释省略。如引用、转发请注明《电子知识产权》2025年第8期(未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任)
![]()
本公众号定期推送知识产权及竞争政策相关的法律政策与政府文件、最新全球行业信息、原创文章与专家观点、业内高端活动消息、《电子知识产权》(月刊)&《竞争政策研究》(双月刊)文章节选及重磅全文、专利态势发布、中心最新成果发布及相关新闻报道等诸多内容,欢迎各界人士关注!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.