【副标题】基于自然人路径与法人路径的双重证伪
【作者】陈玥(中山大学法学院博士研究生)
【来源】北大法宝法学期刊库《河南财经政法大学学报》2025年第5期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。
内容提要:自然人路径下法律主体资格的核心要素是认知能力和意志能力;法人路径下法律主体资格的核心要素是必要性和有益性。人工智能因不具备意志能力而不符合自然人路径下法律主体的认定标准。赋予人工智能法人资格既无益处也无必要。在侵权法领域,即使赋予人工智能法人资格,由于智能体本身无经济来源,相关责任最终仍要通过一定机制分配至现有主体承担,主体的增加将使责任与权益的分配更加复杂。可通过产品责任、服务管理责任等制度,将人工智能生产者与销售者、服务提供者等对人工智能系统具有实际控制能力的主体纳入侵权责任主体范围。在权益分配领域,赋予人工智能法人资格并不能解决人工智能生成物权益归属困境或者简化利益分配步骤。对于纯由人工智能自动生成的内容,可以参照公共物品管理;对于使用者予以创造性投入的内容,可以根据使用者的创造性投入程度,判断是否能被视为作品。
关键词:人工智能;法律主体;权利能力;生成式人工智能;法律人格;侵权责任
目次 一、人工智能法律主体资格的双重认定路径 二、自然人路径下人工智能法律主体资格的否定 三、法人路径下人工智能法律主体化的场景划分及论证层次 四、侵权场景下人工智能法律主体资格之否定 五、权利归属场景下生成式AI法律主体资格之否定 六、结语
2025年全国两会期间,“具身智能”首次作为未来产业的重要组成部分被写入政府工作报告。具身智能是指智能体(如机器人、无人机、自动驾驶汽车等)通过与环境实时交互,通过强化学习不断自我优化和更新迭代,实现感知、认知、决策和行动一体化的新兴智能技术类型,其颠覆了传统人工智能的“离身性”局限,强调智能的本质必须通过身体与环境的动态互动来塑造和体现。生成式人工智能技术随着Deepseek、ChatGPT等多种前沿应用的开发而逐渐被推广和不断优化升级。上述新兴人工智能技术因其高度的决策自主性、交互性和创造性,已引起自动驾驶事故责任认定困难、AI生成物产权归属不清等司法实践难题。其中,AI是否应被赋予法律主体资格是上述争议的核心。学界对此存在较大分歧:支持者强调人工智能具有理解能力、类人意识与行为能力,或者现有治理框架不足以解决人工智能引起的法律问题,因此应当承认其法律主体地位;反对者则坚持人工智能的工具属性,认为智能机器人不具有意向性、自我意志和理性能力,或者现有法律制度和理论可以有效应对人工智能的相关法律问题,因此坚持人工智能的法律客体地位。为回应人工智能引起的治理困境和法律风险,法学界急需对人工智能法律地位达成共识。然而学者们不仅在最终立场上有争议,而且在法律主体资格的认定标准、人工智能的算法逻辑等讨论前提上存在较大认知差异。本文将回归基础理论,全面梳理法律主体的认定路径和标准,结合人工智能的技术特征与法律实践,分别从自然人路径和法人路径系统考察人工智能的法律主体资格。
一
人工智能法律主体资格的双重认定路径
本文所称“法律主体”,是指具有法律人格,能够独立享有法律权利、承担法律义务的实体,包括自然人与法人两种类型。自然人法律主体资格的确立根植于启蒙运动以来的理性主义传统,以人的理性能力和自由意志为伦理基础;法人法律主体资格的赋予则主要基于经济效率和社会治理等现实需求。
(一)人工智能法律主体资格的理论争议
目前学界关于人工智能法律地位的观点,可以分为法律主体说、法律客体说、有限主体说三大类。法律主体说认为应当肯定人工智能的法律主体地位并赋予其必要权利;法律客体说反对赋予人工智能法律主体资格,认为人工智能只能作为法律客体而不能被视为法律主体,具体来说主要包括工具主义、动物论、特殊客体论、产品论等观点;有限主体说认为,人工智能只具备有限的法律人格,主要体现为行为能力有限、权利义务有限、责任能力有限三个方面。有限主体说的提出前提与法律主体说中关于拟制主体的“现实需要”论证理由基本一致,均是基于解决现有法律问题的需要或未来人类利益等功能主义立场,并且有限主体说是在承认人工智能法律主体地位的基础上提出的一种法律主体化的类型,没有必要与法律主体说分开讨论。从逻辑上而言,有限主体说应当属于法律主体说的一类,因此下文将把有限主体说归入法律主体说一起讨论。学界关于人工智能是否具备法律主体资格的争议主要包括以下四点。
第一,法律主体资格范围是否限于伦理上的人?人工智能法律客体说的一个重要理由是,法律实行人类中心主义,只有伦理人才能生而具有主体资格,这关系到人类的尊严和优越地位。对于该理由,先不论人类中心主义的价值取向是否正确,从制度变迁的角度而言,自然人也并非一直具备法律主体地位。古代法中法律主体按照身份决定,一般只有成年男性公民才被视为法律主体,女性、未成年人、奴隶是自然人但不是法律主体,不具备完整的法律人格。经过天赋人权等一系列思想和政治解放,全体人类才逐渐取得主体资格,法律主体的标准从身份转变为生理结构。其后,随着经济的不断发展,为满足经济运行便利的现实需求,符合一定条件的“企业”被拟制为“法人”,成为非人的法律主体。此后,又逐渐产生了动物、河流等一系列非人法律主体。比如2017年新西兰旺格努伊河成为世界上第一条具有法定权利的河流。综上,法律主体的范围不限于伦理上的人,不能以人工智能不具备伦理人的特征而否定其法律主体地位。
第二,人工智能是否具有责任能力?学者们讨论的核心在于人工智能是否应当以及能否具备责任能力。袁曾提出通过构建“穿透人工智能面纱”的归责原则以及配套制度发展“负责任的人工智能”,并认为这是符合人类未来共同利益的选择。责任财产方面,有学者提出人工智能可以通过劳动、受赠等方式获得财产,侵权所得保险金、责任基金、社会救助金等也可作为“准资金来源”。对此,否定论的学者则认为赋予机器人“法律人格”是多余的,因为不管机器人以什么方式承担责任,人都是最终的责任承担者。但现有法律制度中的法人,其意志最终由人类代为表达、其财产也由人类通过制度拟制并最终由人类承担,因此,并不能以“最终仍由人类承担责任”为由否定人工智能责任能力及其配套制度的构建意义。
此外,吴习彧主张由于只有人类才能够理解“权利”和“责任”的含义,而机器只能被设计成遵守规则,并不能理解规则,即使创设类似于“电子人”的法律人格,机器本身的行为也不是受制于法律规则而是受制于其背后的设计者,所以应当注重智能机器背后设计者的权利和责任,而非机器本身;也有学者以人工智能不具备自由意志为由否定其具备刑事责任能力。以人工智能是否具有责任意识、自由意志为否定理由的论证思路,实质上是将人工智能比对自然人,那么这一命题的否定也只能推出人工智能不能成为类似自然人的法律主体,并不能否定其成为类似法人的非自然人的法律主体。前者的关键在于人工智能是否符合自由意志等责任能力的核心要件;后者的关键在于人工智能构建责任能力是否更有利于解决法律问题、获得积极的社会效果。
第三,人工智能是否具备理性能力或自由意志等法律主体的核心要素?持否定说的学者主张人工智能不具有自由意志、欲望、理性能力等法律主体的实质要件。付其运从法理逻辑和实践两个层面论述了人工智能的非主体性,其认为非主体性有助于提高人工智能设计者、管理者等人员的谨慎义务,进一步加强权益保护。人工智能的判断与决策来自数据与算法运算,而数据与算法受控于自然人,人工智能体本身不具备独立意识。而持肯定说的学者们则主张在目前的技术下,人工智能已经可以通过深度学习完成自身知识库更新,甚至是算法升级,而算法升级后作出的最终决策和行为已经不受包括程序设计者在内的外界的控制和预测,通过深度学习,智能机器人可以拥有创意和创新。这一问题实质上包含两个层次,首先需要厘清什么是法律主体的核心要素或认定标准?在假设理性能力或自由意志是成为法律主体的核心要素或认定标准的前提下,再去考察人工智能是否具备理性能力或自由意志?
第四,赋予人工智能法律主体资格是否具有现实意义?包括是否具有现实必要性以及积极的社会价值?其一,人工智能引起的著作权归属、侵权归责等法律问题能否在法律客体论的制度框架内得以解决?其二,赋予人工智能法律主体资格是否更有利于上述法律问题的解决、带来积极的社会价值?持肯定说的学者主张承认人工智能法律主体地位并建构配套法律制度,具有适应社会发展趋势的积极意义,是解决自动驾驶汽车撞人引起的归责难题、生成式人工智能侵权归责难题等的有效途径。与之相对,持否定论学者则认为既有的法律制度和规则体系能够有效解决人工智能带来的责任认定、产权分配等相关问题,当前阶段确立人工智能主体地位不具有必要性。
综上,学界关于人工智能能否作为法律主体的争议焦点主要在于以下两点。其一,人工智能是否具备理性能力、意志、欲望等法律主体的核心要素?其二,人工智能法律地位主体化是否符合现实需要?
(二)法律主体资格核心要素的二元标准
1.理性能力是自然人法律主体的核心要素。理性能力是权利能力的核心要素,也是伦理上的人普遍获得法律主体资格的法理依据。权利能力具有两种含义:一是从法律内部视角定义的一个下位概念,是指从法律内部视角来看,法律上的主体需要具备的能力;二是与行为能力相对,作为一种成为法律上主体的资格。本文是在前一种含义上使用权利能力的,权利能力只表示成为权利义务载体的能力,不再具有任何伦理意义。权利能力是伦理人成为“法律上的人”的条件,而伦理上的人普遍具备“权利能力”的正当性依据在于,“人”具有自我立法的意志能力或者说理性能力。理性能力是近代民法确立生物人具备法律人格的法理基础,例如1804年《法国民法典》即规定了无差别的人类理性是人之法律人格的取得依据。
当提到人因理性能力而具备权利能力时,理性能力指的是什么呢?理性主义的奠基者康德认为“理性”包括理论理性与实践理性:前者是指认知世界的能力,与《纯粹理性批判》中提及的“知性”同义,也称“认知能力”,即识别事物种类、发现世界运转客观规律的能力;后者是指自我立法的能力,也称“意志能力”,即为自己设置目标和行为准则、自己控制自己行为的能力,是一种自律力。认知能力与意志能力既是伦理主体的基础,也是伦理上的人得以具备法律主体资格的基础。
2.现实需要是法人法律主体的核心要素。法人作为法律主体的合理性首先在于经济上的需求而不是哲学意义上的“正当”,试图从哲学上为法人寻找依据是无意义的。法人与自然人成为法律主体的依据不同,其所需具备的核心要素也不同。自然人由于具备理性能力等伦理价值,生而具备法律人格,即具备成为法律主体的资格;而法人被赋予法律主体地位是出于社会的现实需要,且需要履行一定手续、符合特定的标准。以最为典型的公司法人为例,被称为公司的商业组织体的出现远早于“法人”这一法律概念的出现。正是由于随着市场经济的飞速发展,市场中越来越多的商业组织体成立,这些组织体的出现导致原有的法律规范不再能满足权利保障与归责的需要,也极大阻碍了市场经济的进一步扩展,法律才将符合一定条件的商业组织体拟制为“法人”这一法律主体。法人得以获得权利能力的正当性基础,是其作为一个归属载体在功能上实现了法律关系的简化与明确,避免了一个组织内多数人为法律主体导致的法律关系的复杂与错乱。换句话说,正是由于现实中产生了将组织体视为一个整体而参与法律关系的需要以及现实存在,法律才赋予“组织体”权利能力使其成为除“自然人”之外的另一种法律主体,而与哲学上“人”的伦理价值、是否具备“理性能力”无关。
由于不同类型法律主体的核心要素不同,可将法律主体的认定路径分为自然人路径与法人路径两种类型。自然人路径是指以理性能力、自我意志等自然人得以具备法律人格的核心要素为判断标准;法人路径是指以现实必要性、社会有益性等法人得以具备法律人格的核心要素为判断标准。人工智能法律主体资格论证路线如图1所示。
图1 人工智能法律主体资格论证路线图
![]()
二
自然人路径下人工智能法律主体资格的否定
自然人路径下法律主体资格的核心要素是理性能力,具体包括认知能力与意志能力两种类型。前者是指理性存在认识事物本质规律的能力,后者是指理性存在基于自我意识而自我立法的能力,这是理性存在者得以具备权利能力的核心要素。仅当人工智能同时达到两者的判断标准时,才能从自然人路径证成人工智能的法律主体资格。
(一)判别式AI与生成式AI:基于技术原理和技术目标的类型划分
依据技术原理和技术目标的差异,AI演化出两种差异巨大的技术类型,即生成式人工智能(以下简称“生成式AI”)和判别式人工智能(以下简称“判别式AI”)。
判别式AI的技术目标是识别与决策(判断已有的内容),其底层逻辑类似于决策函数y=f(x)或者分布函数P(Y|X),技术目标是对输入信息进行分类或预测,例如具身智能。除了具身智能外,判别式AI还包括人脸识别、垃圾邮件分类等具有“离身性”特征的传统人工智能,由于传统人工智能不具备交互性和自我优化等“自主性”特征,在人工智能法律主体的语境下没有讨论的必要,不属于本文讨论的对象。判别式AI所面临的法律困境主要是其作出“侵权”的决策和行为后所面临的责任承担问题,例如自动驾驶汽车事故的归责。
生成式AI的技术目标是创造新内容。其先通过数据学习建立样本的联合概率密度模型P(X,Y),然后求出训练数据的概率分布P(X),最后得到条件概率分布预测模型P(Y|X),利用Transformer等算法模型模仿人类创造力,生成不同于原始数据的新内容。其法律困境主要在于所生成内容的权利归属及生成内容侵权时的责任承担。ChatGPT、Deepseek是其典型应用。
判别式AI与生成式AI引发法律主体资格争议的场景和争议点截然不同。判别式AI的争议集中于其作出的侵权行为的责任归属,例如自动驾驶汽车撞向其他汽车发生交通事故时,谁是交通事故的责任承担主体?生成式AI的争议则更聚焦于其生成内容的权利归属及生成物侵权的责任认定。例如用户通过在ChatGPT上连续输入指令创作的小游戏,其能否被称为作品?谁对此享有知识产权?小游戏侵犯他人隐私权和著作权时,谁承担侵权责任?
(二)人工智能符合认知能力要件
人工智能体在现有技术下所呈现的“识别能力”符合法律上“认知能力”的形式要求。根据欧盟2024年3月发布的《人工智能法案》,人工智能现已具备较为成熟的生物识别与情绪识别能力,前者是指“自动识别人的身体、生理和行为特征,如面部、眼球运动、体形、声音、伴音、步态……击键特征等,目的是通过比较个人的生物识别数据和参考数据库中存储的个人生物识别数据来确定个人身份”的能力,并且可以“根据生物识别数据将自然人归入特定类别”。后者是指“根据自然人的生物识别数据识别或推断其情绪或意图的人工智能系统。这一概念指的是快乐、悲伤、愤怒、惊讶、厌恶、尴尬、兴奋、羞愧、蔑视、满意和愉悦等情绪或意图”。用以识别的生物识别数据可以是“基本的面部表情,如皱眉或微笑,也可以是手部、手臂或头部的动作,还可以是一个人的声音特征,如高声或低声说话”。概言之,人工智能的生物识别与情绪识别是人工智能系统基于生物特征数据及大数据库所作出的推理判断,其基本原理是,基于算法和大数据模型建立y=f(x)函数,从而实现当出现x(例如眼球数据)可以联想到y(例如特定身份)。由于人工智能的“识别能力”来自数学函数,相对于生物人所具有的“认知理性”,只有形式上的“知觉”而缺乏“感觉”,因而不具备任何伦理价值。但人工智能的形式“认知”不影响其符合同样剥离了伦理价值的权利能力意义上的“认知能力”。
(三)人工智能缺少自我立法的意志能力
人工智能不具备自我立法的意志能力。现有技术下生成式AI只能作为带有自动性能的工具完成任务,而无法像“主体”一样具有自己内生的“目的”,即使人工智能完成任务目的的过程具备自动性、结果具备创造性,其完成的只是他者的目标而不是自己的目标。人工智能基于深度学习和Transformer等算法所具备的推理、决策乃至生成“新”内容的能力,只是技术理性的表现。人工智能的行为以研发者的预先设计为“准则”,以使用者的指令为“目的”,其本身不具备自我意识、目的理性和自我立法的能力。
自然人路径下的人工智能因无意志能力而不具备权利能力,因而暂不符合法律主体资格的要求。但自然人路径下的理性能力并不是法律主体的必要要件,人工智能作为非生物人实体,其法律主体地位的获取更类似法人而不是自然人。若人工智能符合法人路径下法律主体资格的核心要素,也应当赋予其法律主体资格。
三
法人路径下人工智能法律主体化的场景划分及论证层次
当代法律主体资格的确立与自我意识、理性能力等伦理价值不再紧密相关,法律主体的认定标准从自然人的伦理价值转向法人的工具价值。与自然人因自然理性、人格尊严等伦理价值而天然具备法律主体地位不同,法人等非人实体获得法律主体资格主要是出于现实生活的需要,如公司法人的创立主要是经济高速发展的社会现实下,法律调整和适应现实生活的手段。若赋予人工智能法律主体资格具有现实必要性或者能给社会秩序带来显著的积极价值,就能赋予人工智能法律主体地位;反之,则不能。
(一)侵权与权属:法律主体化的潜在场景
人工智能所涉法律问题主要出现在侵权责任承担和人工智能生成物知识产权归属两个场景。法律主体,即法律上权利义务责任的归属者,其所涉法律问题包括权利问题与责任问题。一方面,责任类型分为侵权责任与违约责任,违约责任的承担前提是主体之间达成了“合意”从而具备履行约定的义务,人工智能由于暂不具备达成“协议”所具备的主观要件而无法产生违约责任的法律关系,因此人工智能所涉责任类型仅包括侵权责任。另一方面,当从是否有必要赋予人工智能法律主体资格的角度来讨论法律主体所涉及的权利问题时,急需讨论的是现有法律框架下人工智能所引起的权属分配困境,而非假设人工智能被拟制为法律主体后可能被赋予的名称权、财产权等权益。由于人工智能本身的权利归属在现有物权或者知识产权框架下较为明确,人工智能所涉权利归属问题只可能是人工智能生成物的权利归属;又因人工智能生成物为无体物,不涉及物权问题,人工智能生成物所涉权利主要为著作权、专利权等知识产权。对此,本文基于对现有研究主题的统计分析进行经验反证,在中国知网以“人工智能+法律主体”为主题词检索现有文献,并对检索结果进行同义词合并处理,得到人工智能与法律主体所涉法律问题主要为“自动驾驶汽车侵权责任”“人工智能生成物著作权的权利归属”“人工智能生成物著作权侵权”三大类。
判别式AI的常见应用场景是自动驾驶、医疗辅助等,由于其不“生成”内容,因而不涉及“生成内容”权益归属问题,涉及的主要法律问题是侵权责任分配,即因人工智能自动决策而侵犯他人权益时,侵权责任由谁承担的问题。
而生成式AI的法律问题主要是以“生成内容”为核心的著作权归属及生成前、生成后的侵权问题。生成式AI输入端在收集训练数据时可能涉及侵犯他人知识产权、隐私权等问题,由于AI爬取数据的行为处于研发者、人工智能服务提供者的可控制范围内,理应由研发者、人工智能服务提供者承担与其角色定位相适应的“主体责任”,其法律困境在于如何通过构建人工智能训练语料的合理使用制度,实现AI对训练数据的大规模需求与数据在先权利者之权利保护的平衡,其与是否赋予人工智能法律主体资格无关。而输出端的内容主要牵涉三方:一是研发者的先前创作行为或者说预训练行为;二是使用者下发的指令及输入的数据信息;三是人工智能基于深度学习算法所建立的模型的作用,但基于算法黑箱性,最终基于算法与数据可能形成什么模型,以及该模型面对使用者的要求可能输出什么具体内容,是使用者与研发者都无法预测的。由于输出端内容无法预测、不可控制,研发者和使用者都不是所输出内容权益的当然享有者或者所涉责任的当然承担者,此时人工智能由于算法黑箱性在其生成物内容上表现出某种“创造”的形式外观。
综上,判别式AI因不生成新的内容而不涉及权利归属问题,仅涉及侵权责任承担问题;生成式AI主要在内容输出端涉及侵权问题和生成物的权益分配问题。
(二)必要性和有益性:现实需要的论证层次
法人路径下法律主体资格的核心要素是现实需要。“现实需要”的证成包括必要性与有益性两个层次。一方面,若现有问题在法律客体框架下无论如何修改都无法解决,那法律主体化就是必须的(此处所说的主体化包括有限主体、电子人等所有超越客体的解决方案);相反,若司法实践及学界争议中所提出的现有法律问题,在法律客体论下微调现有法律框架即可解决,则人工智能法律主体资格就无必要性。另一方面,非必要性并不是证否人工智能法律主体资格的充分条件。当赋予人工智能法律主体资格更有益于解决现有问题(变动收益大于变动成本)、更符合社会利益时,也可以证成人工智能法律主体资格;相反,若赋予人工智能法律主体资格于解决法律问题无益,或具有消极社会效果,则无需赋予其法律主体资格。
综上,法人路径下人工智能法律主体资格是否具有现实需要的讨论,可以具体到侵权责任归责难题与生成物权利归属困境两个场景。每个场景均从以下两方面分析:一是有益性,即赋予人工智能法律主体资格是否有益于解决相关法律问题;二是必要性,即相关法律困境在法律客体论制度框架下能否解决。
四
侵权场景下人工智能法律主体资格之否定
侵权场景下的AI类型包括判别式AI与生成式AI,两者引起责任归属难题的技术原理有所差异,需要分别讨论:判别式AI侵权的典型场景是高度自动驾驶技术(L4级以上)引起的交通事故归责问题,生成式AI侵权主要指人工智能生成物侵权。
(一)判别式AI法律主体资格否定
自动驾驶技术作为当前深度影响人们生活的具身智能,其所具备的前沿性和典型性使得对其法律主体资格的分析可以扩展到所有具备相同原理的判别式AI的应用场景中,所有符合具身智能的判别式AI都可能遇到相同或相似的法律问题,例如智能导盲犬、物流无人机等。以下将以自动驾驶汽车交通事故侵权场景为例,探讨判别式AI侵权问题能否在现有法律框架下解决,以及赋予其法律主体资格是否有益于解决现有问题。
1.自动驾驶侵权案件的归责难题及成因。自动驾驶汽车侵权案件对现有归责体系的挑战在于,人工智能的自主决策能力与算法黑箱性将导致原有责任主体的“过错”认定困难,从而造成法律主体的缺失。现有法律预设“驾驶人”作为理性存在能够自主作出决策、实施自主行为,并为自身基于意志自由作出的过错行为承担责任后果,即以驾驶人过错为责任承担的基本原则。而自动驾驶技术的目标是逐渐消除驾驶员的控制,最终人类驾驶员将汽车的控制权完全让渡于AI系统,例如德国2021年颁布的《自动驾驶法》允许L4级自动驾驶车辆在德国公共道路上的指定区域内行驶;《深圳经济特区智能网联汽车管理条例》规定完全自动驾驶车辆(L5)可以不配备驾驶人,并在划定区域和路段行驶。由此导致原有的基于驾驶人过错为基本预设构建的机动车交通事故责任规则下应当由驾驶人承担的责任,缺少对应的责任主体。
自动驾驶技术的自主决策使得过错责任之下原本以驾驶人为行为及责任主体、以车为工具的交通事故责任分配机制,难以解决人工智能时代由于“自动驾驶系统”代替“人类驾驶员”从事道路选择、速度调适、避险等原人类驾驶员需要作出的决策及行为而导致的责任主体缺位的问题。那么,赋予自动驾驶法律主体资格能否解决这一问题呢?
2.自动驾驶汽车法律主体化无益于解决归责困境。目前关于自动驾驶汽车法律主体化的探讨主要聚焦两种模式:法人制度型与电子雇员型。前者通过保险、基金等方式为自动驾驶汽车设立专门的独立账户,由自动驾驶汽车自主承担赔偿责任,当自动驾驶汽车法人的资产无法承担责任时实行破产制度;当汽车实质处于非自动驾驶状态时,则视情况选择“刺破法人面纱”。后者将自动驾驶汽车视为电子打工人或“电子奴隶”,参照雇主责任,将自动驾驶汽车的所有者视为自动驾驶汽车的雇主,雇佣期间的侵权损失由雇主代替赔偿。
第一,法人模式在解决自动驾驶事故侵权责任方面存在三重矛盾。一是资金来源悖论。无论通过保险、基金等制度设计如何转嫁,自动驾驶汽车的财产源头仍是购买者(所有人)、生产者或销售者等自然人或法人主体。关键在于,建立基金与保险等风险分散机制本身无需且不依赖于赋予自动驾驶汽车法人地位。二是程序简化假象。将自动驾驶汽车视为法律主体,其仍然要面临与传统驾驶人相似的责任认定。唯一可能简化的环节是区分生产商、销售者的产品责任与用户过错(驾驶人操作失误),这完全可以直接通过优化该场景下的产品责任规则实现,无需赋予自动驾驶汽车法人资格。三是救济不足风险。若自动驾驶汽车破产,将导致遭受重大事故的受害人救济不足;若在使用者过错或产品存在缺陷情况下需“刺破法人面纱”,则仍需走传统的机动车责任、产品责任的认定步骤,证明用户过错与产品缺陷,且增加了设立法人账户、管理保险基金以及主客体变化带来的额外制度成本与适应成本。
第二,电子雇员模式下责任完全由用户承担,甚至减轻了生产者与销售者在传统机动车交通事故责任背后的产品责任。一方面,该模式可能由于极大增加了使用者的责任成本而降低消费者的购买欲望,长期来看仍然会降低生产者的研发动力。并且这一显著增加用户责任的制度设计对本就处于弱势的用户显著不公平。法律制度的设计不仅要保证社会效益,更要维护与引导社会分配的公平。另一方面,这种直接由用户承担侵权责任的责任分配制度,在法律客体框架下可以直接通过现有法律规定实现,而无需赋予人工智能法律主体资格。
综上,赋予自动驾驶汽车法律主体资格所带来的有限“程序简化”技术价值,远低于其引发的制度变动成本及可能的救济不足、责任失衡等衍生风险。为维护法律制度的稳定性与可预期性,应当保持自动驾驶汽车的法律客体地位。
3.法律客体论下自动驾驶事故归责的可行路径。自动驾驶汽车(L4及以上)事故责任可将生产者和销售者纳入责任主体范围。德国、欧盟以及我国深圳市的相关立法均体现了这一思路。例如德国《道路交通法》《自动驾驶汽车交通伦理准则》规定司机、车主和汽车制造商同为事故风险承担者。自动驾驶公司在进行商业化运营时,必须为高度自动驾驶汽车购买责任险,以此承担相应事故责任。《深圳经济特区智能网联汽车管理条例》规定,完全自动驾驶的智能网联汽车在无驾驶人期间发生交通事故造成损害,属于该智能网联汽车一方责任的,由车辆所有人、管理人承担赔偿责任;因智能网联汽车存在缺陷造成损害的,可依法向生产者、销售者请求赔偿。
作为具备技术理性的实体,自动驾驶汽车在产品质量合格的情况下具备遵守交通规则和特定紧急场景下规避风险的能力。其交通事故的责任分配可依据成因划分为三种情况:其一,因质量缺陷导致事故,先根据《中华人民共和国道路交通安全法》分配责任,对于由自动驾驶汽车一方承担的责任,再根据产品责任向生产者或销售者追责;其二,因不可抗力或突发情况引发事故,此类风险超出车辆设计应对能力,与自然人驾驶场景的风险是一样的,应当由车辆所有人、管理人或使用人按照风险自担的原则承担责任;其三,因使用者操作失误引发事故,应由操作失误的用户(驾驶人)承担责任。对于无驾驶人的全自动驾驶汽车,逻辑上只存在前两种情况。
综上,赋予以自动驾驶汽车为代表的符合具身智能定义的判别式AI法律主体资格,并无助于解决其侵权困境,反而增加了额外的制度成本和变动风险。判别式AI侵权场景下的责任分配,可通过优化具体场景下的过错责任、产品责任的认定规则,将AI研发者、生产者或销售者纳入责任主体范围,并辅以保险、基金等配套风险分散机制予以规制。
(二)生成式AI的法律主体资格否定
本部分聚焦生成式人工智能输出端的生成物侵犯他人知识产权、隐私权或名誉权的纠纷(以下简称“生成物侵权”),这是生成式AI侵权区别于一般侵权和判别式AI侵权的特殊侵权归责困境。除了生成物侵权外,生成式AI还涉及两类侵权纠纷:一是输入端的侵权行为,即生成式AI预训练数据侵犯他人知识产权与隐私权的纠纷,此类法律纠纷的责任主体较为明确,由于预训练时人工智能可用的数据处于研发者控制之下,应当由研发者承担相关责任,不属于由人工智能引起的侵权难题;二是输出端的生成物被其他人盗用引起的侵权纠纷,这与本部分探讨的由人工智能引起的侵权归责困境不同,其本质是智能体生成物是否应受保护及其权益归属问题。
1.生成式AI侵权纠纷的归责难题与成因。生成物侵权归责的核心困境在于,由于AI生成过程的高度自主性与输出内容的不可预测性,一方面导致“行为—结果”责任链断裂,侵权结果难以追溯至特定主体的“过错行为”;另一方面无法确定生成物的实际控制方,研发者和用户等潜在责任主体均对生成物具备一定影响力,但因“算法黑箱”而均无法形成完全控制。由于人工智能凭借深度学习算法具备“自适应性”,能持续学习并优化自身算法模型,且算法黑箱存在不可预测性,所以即使研发者能够设计算法模型、筛选预训练数据并设置安全规则,但无法预知用户指令触发的具体输出。同时,用户能通过输入指令把控生成式AI输出内容的大致方向,比如“写一篇200字以内的对广州风土人情的简介”,但对AI基于指令输出的具体内容无法预知和控制,这导致行为人对后果具有预见性或控制力这一过错责任原则的适用前提难以认定,责任主体难以明确。
2.法律客体框架下的生成式AI侵权纠纷的规制路径。第一,由人工智能技术服务的提供者和研发者承担严格责任。生成式AI的研发者可通过优化输入端预训练数据质量、构建负面内容过滤清单、强化算法伦理等措施从源头上控制风险,其具备最大限度地降低侵权风险的技术能力和义务。例如设置拒绝回答侵权隐私的问题,以“Chat人工智能生命体”这一聊天机器人软件为例,当向其咨询“XX(某演员)是gay吗?”时,其回复为“抱歉,我无法提供他人的私人信息。我们应该尊重每个人的隐私和个人生活选择,避免对他人进行无端的猜测和臆断”。一方面,对于纯由生成式智能体一方过错导致的侵权行为,若研发者能通过预训练数据的净化与算法规制予以控制,那么AI研发者或者AI服务的服务提供者作为AI生成物侵权行为的实际控制者,理应承担相应的控制风险义务与侵权责任。另一方面,如果人工智能的侵权行为风险是研发者或者服务提供者无法通过设置安全规则事先预防和控制的,作为生产者,不能将无法控制风险的产品投向市场,否则其作为收益最大者,基于“收益—风险”一致原则,也应当由其承担可能侵权的责任。第二,用户仅在存在重大过失或者故意的情形下承担过错责任。但前提是,AI研发者和服务提供者在AI研发的前端已尽到注意义务并依法设置了安全措施。普通使用者对于AI生成的内容不负有注意和监督义务。
3.赋予生成式AI法律主体资格不利于解决现有纠纷。赋予生成式AI法律主体资格,不但无助于化解前述归责难题,反而会增加制度成本和程序障碍。首先,人工智能缺乏独立资产基础,其资产主要源于研发者、用户及生成物版权费,但生成物版权费的获取需以生成物可版权化并且版权归生成式AI所有为前提;其次,生成物侵权后的技术修正仍需研发者介入,表明研发者对生成内容具有实质控制力;最后,人工智能对于“资产”无“占有欲望”,由其承担侵权责任无法通过经济惩戒形成有效约束,反而增加社会成本。因此,在生成式人工智能侵权场景下,将责任归于研发者或服务提供者,使其基于产品责任或服务管理义务框架履行内容审查和技术修正义务,更为合理和可行。
综上,判别式AI和生成式AI的侵权归责问题均可在现有法律客体制度下进行制度优化解决。核心思路是,将生产者、销售者等对AI具备实际控制力且通过技术应用获取巨大收益的主体,基于权责对等原则,通过产品责任、服务管理责任等制度,纳入责任承担主体范围。并且,基于赋予人工智能法律主体资格的“思想实验”,赋予判别式AI和生成式AI法律主体资格并不能解决其在现有法律问题中的核心争议,反而会因归责主体增加使责任分配更加复杂。因此,侵权场景下,赋予人工智能法律主体资格既无必要也无益处。
五
权利归属场景下生成式AI法律主体资格之否定
AI在生成内容时的作用,远不同于笔记本、画笔等传统工具。传统工具由人类全程控制输出结果,而AI使用者在输入指令后,生成过程由深度学习算法自主完成,其内容具有不可预测性。人类仅设定初始框架,具体表达形式、细节组合均由AI模型通过数据训练形成的逻辑路径独立生成。这种“弱控制强自主”特性导致传统著作权法面临三重困境:其一,人类在构思输入与最终成果间的贡献度难以量化;其二,算法自主生成内容是否构成“独立创作”缺乏判定标准;其三,既有“人类智力成果”要件无法解释AI模型通过数万亿参数重组信息的行为本质。那么,是否需要以及能否通过赋予AI法律主体资格解决人工智能生成物著作权的问题呢?
(一)赋予生成式AI法律主体地位无益于解决现有法律争议
首先,假设人工智能具备法律主体资格,其生成物的著作权认定将面临双重困境。一是独创性标准难以界定。需在研发者的预训练、使用者的提示及人工智能依据算法的自动生成之间划分贡献,与人工智能客体论相比,不仅未简化问题,还把AI拉入了“贡献”争夺战。二是著作权收益分配存在逻辑矛盾。目前人工智能不具有自我意识,资产等收益对其来说无意义,其作为作者所得收益最终仍是分配给自然人。并且AI作者收益背后的可能受益主体一般是AI所有者或研发者,而较少可能分配至只对AI有使用权但无实际控制力的使用者。
其次,法律主体论下AI生成物的权益分配面临两个新的问题。一是AI的著作权与使用者对生成物的实际控制权之间的矛盾;二是AI研发者或所有者作为可能的最终受益人与AI使用者之间权益分配不公的矛盾。对于仅输入简单提示或无提示即可生成的内容,赋予AI著作权不利于AI生成内容的公共流通及AI的普遍应用,有损公共利益;而对于需要输入复杂提示和反复调试才能生成的内容,其生成的内容寄托了使用者的设想与构思,若完全归属于AI,对于使用者不公。理论上,可以采用AI与使用者共同所有的模式,但将显著增加制度成本与执行成本。
最后,著作权法的核心目的是通过保护“自然人的创造性努力”激励自然人创新,赋予人工智能法律主体资格无法实现这一目标。第一,现有技术下人工智能缺乏自主意识,无法因“激励”手段而促进其创作,而当AI具备自主意识时,人类恐怕再不能期待其遵守人类制定的规则;第二,从激励效果来看,承认AI的作者身份对使用者会构成创作阻碍(自身与AI合作创作的产品可能被视为AI的作品),对研发者或所有者作为可能的最终受益人具备短期的激励作用,也将因使用者积极性下降而减弱,长期来看不利于AI的研发创新与推广应用。
由此可见,赋予人工智能法律主体身份,不仅没有解决原有的法律争议,还会带来更多的法律问题与制度成本,并且既无益于著作权法本身的创作激励目的,也无益于人工智能技术的研发应用。
(二)生成式AI生成物权益分配的司法分歧
生成式AI的权益分配主要涉及两点:生成内容是否属于作品、生成内容的权利归属。我国司法实践对此存在显著分歧,典型例证为“菲林案”与“Dreamwriter案”的同案不同判现象。
第一,关于智能软件生成物是否构成作品。以首例人工智能生成物著作权纠纷“菲林案”为例:某律所在微信公众号发表了一篇人工智能程序生成的文章,被某公司在网络平台擅自转载。法院认为,智能软件生成的图形因不具有独创性而不构成作品;智能软件生成的文字具有独创性,但由于不包含“自然人的创作”而不构成文字作品。然而,“Dreamwriter案”的法官则认定涉案文章在形式上具备独创性要求,生成过程也符合创作者的个性化选择、判断与技巧等独创性的实质要件,“该文章的特定表现形式及其源于创作者个性化的选择与安排,并由Dreamwriter软件在技术上‘生成’的创作过程均满足著作权法对文字作品的保护条件”,属于《中华人民共和国著作权法》(以下简称《著作权法》)所保护的文字作品。
两例AI生成物著作权案件揭示司法审查标准的深层分歧。“菲林案”内部的判断逻辑存在双重标准:对同一软件生成的分析报告与数据图形,法院采用差异化审查标准,文字部分因“数据选择与判断分析”被认定具有独创性,而同样因“数据选择和判断分析”产生差异性的图形则被否定独创性。“Dreamwriter案”中,审理法院以创作结果上符合“最低独创性的形式要件”和创作过程上符合“自然人的创造性努力的实质要件”共同作为独创性的判断标准。由此可见,关于人工智能生成物能否作为作品的首个争议是,何为独创性的判断标准?“菲林案”中,法院以创造结果上符合作品的形式要件作为具备独创性的充分条件;而“Dreamwriter案”则要求“创造结果上符合作品的形式要件”+“创造过程上自然人的个性化选择与安排符合创造性努力的实质要求”。
目前实践中普遍采用第二种标准,随之产生第二个争议,即AI使用者输入提示词的行为是否属于“创造性努力”?2023年的人工智能生成图片侵权案(以下简称Stable Diffusion案)为此提供了司法样本。该案审理法院认为,使用开源软件Stable Diffusion创作的图片体现了使用者的个性化表达,具备作品的“独创性”要件,即法院将AI生成物视为使用者创造性表达的作品,而生成式AI是协助人类完成作品的工具。但在与Stable Diffusio案案情相似、同为AI生成图片著作权纠纷案的美国“空间歌剧院”注册案(Théâtre D'opéra Spatial)中,美国版权局却认为使用者“输入生成该图像的文本提示”的行为不足以构成对所生成图形的“创造性贡献”,该图像的内容最终取决于智能软件如何处理使用者的提示。使用者提示的功能更接近于建议而不是命令,类似于客户雇用艺术家创建图像并对其内容进行大致指导的情况。
按著作权“思想与表达二分”原则,传统法律概念下的创作是作者先有创作的思想,然后自主选择表达,最后形成作品。为保护创作者的表达自由,著作权法“只保护表达,不保护思想本身”。而人工智能生成物的创作中,用户只提供创作思想,表达由AI基于算法模型与数据生成,并随着反复修改输入提示词不断调整,直到最后用户表示“这就是自己想要的表达了”才最终成型。我国“菲林案”法院对图片作品的否定理由适用了“思想与表达二分”的例外原则—“思想与表达合并”。我国StableDiffusio案与美国版权局作出的决定都是遵循“思想与表达二分原则”的结果,两者的区别在于美国版权局认为具体的表达是由AI作出的,人只对自身操作AI的步骤编辑享有作者权益。而我国法院则认为自然人在AI上输入提示等行为构成“对生成内容的表达”,AI只是使用者“表达”的工具。
(三)法律客体框架下生成式AI生成物权益分配的可行路径
英国《1988年版权、外观设计和专利法》是世界上第一部给予AI生成物版权保护的法律,其第9条第3款规定计算机生成作品的作者应当是“为创作该作品作出必要安排的人”,第178条规定保护“由机器在没有人类创作者的情况下生成的作品”。欧盟则提出,对AI输出是否有原创性的判断,应当综合考虑人类作者在生成过程的构思、执行、编辑确定三阶段的创造性贡献:构思阶段以人类作者的创造性选择为主;执行阶段以AI算法模型的运作为主,人类作者也可以创造性地输入提示词以引导AI生成输出;人类创作者在编辑确定阶段对生成的最终输出有多种选择;鉴于AI的“算法黑箱”特性,人类使用者可能无法预测执行阶段的结果,但只要输出保持在作者的一般创作意图范围内,就可将AI生成内容视为人类用户的表达。因此,欧盟委员会认为,AI输出由人类组织发起,并随后以创造性方式编辑的作品,该输出内容可以成为受版权保护的作品。参照各国立法、司法实践,本文拟就智能生成物权益保护及其归属问题提出以下建议,并说明每条建议的考量因素及正当性基础。以建议内容为依托,一方面,以给出解决建议的方式证明法律客体论下可以解决人工智能引起的权益归属难题;另一方面,通过假设的方式,论证赋予人工智能法律主体资格不仅无益于反而有可能破坏拟实现的立法效果。
其一,纯由AI自主生成的内容不宜纳入著作权保护范围。为促进AI在生成新的知识方面的作用,建议将纯由AI自主生成的内容保留在公共领域,以保证其他人低成本地访问使用。然而,假设赋予人工智能法律主体资格,从法理的角度应当赋予智能体对其自主生成内容的版权保护,将极大增加人们使用人工智能生成物内容的成本,不利于知识在人类世界的流动、使用与创新。
其二,AI使用者对于智能体生成物的内容具有创造性意图及创造性贡献的,可将智能体生成物的内容视为AI使用者的作品;但对于带有作者创造性表达的AI生成物的版权保护,不可妨碍他人正当使用AI生成相关内容,即其他使用者仍保有使用AI生成类似内容的权利,只要不与该生成物完全一样即可。上述创造性意图,是指使用者表达想法与感受的意图,可根据使用AI所生成内容来推断;上述创造性贡献,是指使用者在AI生成相关内容时的参与程度,需要全面评估整个生成过程来判断,考虑因素包括指令和输入提示的数量与内容、生成尝试次数、可供选择是否多个等方面。使用者实际具备“创造性意图”或“创造性贡献”,AI实际上只是其表达自身思想感受之工具的,生成物因具备创造性表达而符合《著作权法》规定的“独创性”要求,则可以作为作品保护,权益归作出独创性贡献的使用者所有。然而,假设赋予人工智能法律主体地位,那么,除了要判断AI使用者是否对生产内容具备创造性贡献,还需判断AI是否具备创造性贡献,以及考虑AI使用者与AI之间在创造性贡献及版权利益方面如何分配的问题。总之,赋予人工智能法律主体资格不仅没有减少权益分配难题中的分配步骤,还因AI加入了“权益争夺战”而使得问题更加复杂。
综上可得,现有技术下赋予人工智能法律主体资格,既无必要也无益处。人工智能技术应用所引起的侵权责任、权益分配等法律问题均可在人工智能法律客体论的规范框架内得到合理解决。赋予其法律主体资格无益于解决现有法律问题的核心争议,并且主体数量的增加反而导致责任及权益分配更加复杂。人工智能目前所引起的权益及责任纠纷的本质,仍然是责任与权利在相关自然人之间如何分配的问题,而不是由人工智能这一工具性技术及其应用实体来承担。
六
结语
无论是在自然人路径还是法人路径下,人工智能均未达到法律主体资格的认定标准,在现有技术程度下不应赋予人工智能法律主体资格。自然人路径下的人工智能因无意志能力而不具备法律主体资格。人工智能基于深度学习和Transformer等算法所具备的推理、决策乃至生成“新”内容的能力,只是技术理性的表现;人工智能一切行为都以研发者的预先设计为“准则”,以使用者的指令为“目的”,其本身不具备自我意识、目的理性和自我立法的能力。
法人路径下赋予人工智能法律主体资格既无必要性也无益处。一方面,赋予人工智能法律主体资格,不仅无益于解决现有法律问题的核心争议,反而由于增加主体而将问题复杂化,并带来了智能体背后的责任与利益分配等新难题。另一方面,现有技术下人工智能技术应用引起的主要法律困境无需通过赋予人工智能法律主体资格也能解决。依据产品责任等归责原则,将人工智能生产者或销售者、服务提供者等对人工智能具有实际控制能力且实际享有人工智能技术收益的主体纳入责任承担的主体范围,即可较为合理地解决由人工智能引起的侵权归责困境;关于智能生成物保护及权属问题,考虑到促进知识流动、激励创新及生成物实际控制者等因素,对于完全由人工智能自主生产的内容不宜过早纳入版权保护;对于使用者投入创造性劳动而生成的内容,符合作品条件的,可考虑以AI使用者为“作者”。
自然人路径下,当人工智能具备自我立法能力时,具体来说,能够内生出“目的”而不再只以自然人的“指令”为行为指向时,人工智能才具备意志能力,从而符合理性法律主体的要求。而当人工智能具备自我意识得以自我立法时,赋予其法律地位是否还有意义,或者说其是否还会遵从人类的法律?同理,法人路径下,当智能体不具备自我意识时,责任与收益本身对智能体来说无任何警戒或激励作用。并且,应当由智能体承担的责任或享有的收益,最终仍要通过一定机制分配至自然人或法人,那么不如直接分配至相关自然人或法人主体,而无需增加“人工智能体”参与分配的程序。
-向上滑动,查看完整目录-
《河南财经政法大学学报》2025年第5期目录
【法治中国】
1.我国新就业形态立法构想
李雄
2.行政复议前置条款的规范解释
章志远、肖嘉欣
3.从自我优待到自我规制:数字平台反垄断合规的治理之策
黄茂钦、徐玉津
【数字法学】
4.数据产权配置的三重视角:个体、社会与体系
申卫星、李卓凡
5.新兴人工智能法律主体资格的否定
——基于自然人路径与法人路径的双重证伪
陈玥
【司法制度】
6.论作为标识性概念的“检察机关法律监督”
付盾
7.先诉抗辩权的分阶程序构造
——以其双重属性再定位为视角展开
司吉梅
【部门法学】
8.“权证分离”背景下非法采矿罪的法益重构与出罪判断
董玉庭、白宇辰
9.国际法语境下反制措施的适用条件和实施要求探析
左海聪、杨越毅
10.继续履行请求权行使“合理期限”的反思与重构
王睿
11.秦汉简牍中所见的诚信诉讼
程政举
【笔谈】
12.《民法典》颁布五周年之居住权制度实施问题(笔谈)
曹守晔、乔晓阳、江必新等
《河南财经政法大学学报》是由河南财经政法大学主办的法学类专业学术期刊。1986年创刊,2012年由原《河南省政法管理干部学院学报》更名为《河南财经政法大学学报》。本刊秉承“格物致知、明礼弘法”的办刊理念,坚持办刊的学术性,追求学术创新,严守学术规范,关注法学理论和实践中的前沿问题、热点、难点问题及其背后的深层次法理研究,注重制度建设;包容不同学术观点和学术思想。
点击进入下方小程序
获取专属解决方案~
责任编辑 | 郭晴晴
审核人员 | 张文硕 张科
本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.