![]()
生成式人工智能侵权谁负责?
作者:邓建鹏,中央财经大学法学院教授、金融科技法治研究中心主任。以下内容来自中国社会科学网-中国社会科学报。
近年来,以ChatGPT和DeepSeek等为代表的国内外生成式人工智能的崛起,在技术层面引发颠覆性变革,也给现行侵权责任体系带来新挑战。既有的监管规则试图在传统侵权法框架内厘清其责任归属,将应用环节简单划分为“提供”与“使用”,并以技术服务提供者作为核心规制对象,但随着技术日益深入多元产业场景,这类“二分法”思维明显不足,亟须跳出既定学术范式和监管框架,重新审视人工智能侵权的责任认定逻辑。
责任主体“三分框架”的扩展
现行《生成式人工智能服务管理暂行办法》沿用“提供者”和“使用者”的二元责任主体结构,然而在产业深度融合背景下,这一分类难以覆盖各类主体。生成式人工智能输出结果受到训练数据质量、算法架构、实时调取数据、用户指令等多因素影响,特别是部署者即通过接口调用、本地部署、系统集成等方式将基础模型适配于具体场景的主体——已成为影响输出内容的关键一方。部署者一方面是人工智能的使用者,另一方面又利用人工智能提供更精细的专业服务。主体分类的简单化导致责任义务范围及合理注意义务标准模糊,进而影响责任归属判定。如金融机构利用大语言模型开发智能投顾产品,在此过程中通过自有客户数据对模型微调,并嵌入风控逻辑。若生成的投资建议导致客户严重损失,此时责任是由原模型提供者还是部署者承担?显然,部署模型并对其场景化适配的金融机构,其角色远超出纯粹“使用者”范畴,而更接近共同控制者的身份。人工智能输出的结果受模型和数据共同影响,其责任归属也应按照过错程度合理分配。
因此,有必要确立三类责任主体:服务提供者(开发并供应基础模型)、部署者(场景适配和系统集成)和使用者(最终生成内容的使用)。法律依据其实际控制力和影响力重构义务与责任,而非僵化固守传统分类。
过错认定困境及其化解
生成式人工智能的侵权行为在过错认定层面遭遇障碍,核心矛盾在于“算法黑箱”与法律归责所需可解释性之间的张力。传统侵权法要求对行为人主观过错进行判断,但多个责任主体、算法决策的不透明性、随机性使故意或过失的认定极为困难。
为此,可考虑通过以下路径缓解该困境:首先是算法透明度的制度推进。监管机构未来可通过规则指引,要求服务提供者和部署者公开基础算法的设计原则、训练数据的类型及可能的偏差范围,并提交算法备案和透明度报告。其次是行为对比标准的引入。通过将生成式人工智能的内容输出与同类系统或在相同情境下“合理人”的预期行为进行比对,间接推断其是否存在过错。最后是历史行为分析。借助系统日志和历史输出记录,审查其是否曾出现相似侵权内容,或是否已通过反馈机制进行过修正。如某模型多次输出侵权文本却未被修正,可推定服务提供者存在过失。这些方式未必能彻底打开“黑箱”,但基本可在现有技术条件下建立相对合理的过错推定框架。
共同侵权与连带责任的
适用与限制
在多元主体参与的内容生成链条中,单一主体往往难以独立导致损害结果。尤其在生成式人工智能深度嵌入学术研究、金融或医疗等各专业领域时,其行为可能涉及算法偏差、数据污染、部署不当、恶意使用等多重因素。例如,某在线医疗咨询平台使用大模型提供初步诊断建议,因模型过度依赖已有历史数据,导致对特定人群的心血管病风险评估连续出现错误,引发多起诉讼。在此类案件中,基础模型提供者、本地化部署的医疗科技公司以及最终使用该生成内容作出简易诊断的平台,均成为共同被告。此时,传统单独责任模式在此类结构性侵权中难以适用。对此,应更多适用共同侵权与连带责任制度,尤其在部署者调取外部数据接口、修改模型参数,或使用者恶意诱导生成侵权内容等情形中。一旦服务提供者或部署者明知或应知风险却未采取合理防范措施,则可能构成共同侵权。
我国《民法典》第1168条至第1175条为多数人侵权提供了丰富的制度资源,可针对生成式人工智能场景进行适配化解释。例如,若多个生成式人工智能相关责任主体无意思联络但分别实施侵权行为造成同一损害,且各行为均足以造成全部损害的,应适用连带责任(《民法典》第1171条)。若二人以上分别实施侵权行为造成同一损害,能够确定责任大小的,各自承担相应责任;难以确定责任大小的,平均承担责任(《民法典》第1172条)。在生成式人工智能侵权中,由于输出内容的多因性,往往更符合《民法典》第1172条的按份责任情形,但若某一主体(如部署者)对输出内容具有决定性控制,则仍需承担主要责任。
不过,连带责任的适用应审慎,避免挫伤创新企业的积极性。例如,模型被某第三方部署于自动化新闻写作并生成大量虚假信息,原始开发者是否应承担连带责任?从技术可控性和经济效率角度,除非原模型存在明显设计缺陷或已知漏洞未修补,否则不应过度追溯至原始开发者。总之,侵权责任界定应在鼓励企业创新与保护社会公益间找到平衡点,避免使开源模型开发者陷入无谓讼累。
免责事由的转型
近年来,一些学者主张生成式人工智能可完全适用传统网络服务的“通知—删除”规则,但学者可能忽视了生成式人工智能内容生成主动性及其不可预测性的差异。以人工智能绘画软件平台为例,用户通过输入文本提示词生成肖像图片,若用户故意输入他人姓名及诽谤性描述,诱导人工智能生成对应图像,系统很可能输出侵权内容。此时,若仅因人工智能绘画软件平台接到通知后删除图片就完全免责,显然无法弥补对受害人人格权的损害。
因此,应当构建有限度、分层级的免责机制,重点考量“合理控制能力”和“技术可行性”。首先,若服务提供者或部署者能证明已采取当前技术条件下一切合理措施(如数据清洗、合规过滤、风险提示、实时监控等),仍无法避免某些生成的内容侵权,可部分或全部免除责任。其次,及时修正与反馈机制的有效性。若责任主体证明在接到通知后及时删除侵权内容或调整模型,可作为减轻责任的事由。最后,合规体系的有效性作为免责考量因素。技术研发企业若能证明自身已建立完备的合规流程并严格遵循行业标准,在发生无法预见的侵权结果时应予以责任减免。如企业在大模型中引入“生成溯源”技术,对关键输出提供数据来源标注,可以极大降低虚假信息和版权争议的风险,这类技术创新应成为减免责任的重要考量因素。
延展阅读
人工智能产品侵权,使用者有错吗?
作者:窦海阳,中国社会科学院法学研究所研究员。内容来源:中国社会科学网-中国社会科学报
随着人工智能技术的不断发展,在家居、出行、医疗等众多领域中,装载人工智能系统的产品正逐渐增多。这类产品的应用场景,也从最初的专业人员与特定领域,扩展至普通民众的日常生活之中。在此背景下,当人工智能产品在使用过程中造成他人损害时,使用者是否仍应像使用传统产品那样承担责任,成为一个亟须探讨的问题。对此,有的观点主张使用者不应承担责任,因为人工智能系统的行为完全由生产者控制;而有的观点则认为,使用者作为实际操作乃至“再训练”主体,应与生产者承担相同类型的责任。下文尝试对此争议予以辨析。
人工智能系统
如何影响产品使用者
人工智能系统可区分为“辅助型”与“替代型”。前者如医疗人工智能诊断或司法材料检索工具,是由自然人在系统辅助下作出最终判断。这类系统的使用场景典型体现在某专业领域专家在使用该类产品时借助其系统作出判断,如医生或法官,他们本身具备专业的判断能力,将人工智能系统作为工具以提升决策效率、减少偏见与随意性。例如,人工智能诊疗系统提供的每个判断都需医务人员再确认才能实施,其作用限于知识辅助和程序优化,并不直接输出确定的结论。相反,替代型系统,如有条件的自动驾驶汽车,则在设计运行范围内完全替代人类执行任务(如动态驾驶),用户仅需在紧急情况下接管。这两类系统的区别对使用者产生不同的影响:辅助型强调使用者的最终决策与责任,而替代型弱化了人的实时干预,从而也使责任承担机制呈现差异。此外,人工智能决策辅助工具并非简单复制人类能力,而是经常会超越人类,处理复杂模式并不以直观的方式推理,这虽然提升了能力,但也可能降低用户的职业警惕,甚至使其盲目追随自动化决策,导致原本正确的判断被机器扭转。
尽管人工智能系统加装到产品上显著改变了产品的功能特性与用户体验,但并未改变产品使用者在法律上的地位。产品用户无论是个人消费者还是专业领域的专家,并未因使用人工智能产品而转变为生产者或纯粹的受众,其法律身份与责任基础保持不变。生产者仍是决定人工智能系统安全特性的核心行为者,负责设计、出厂、运行维护及危险控制,而用户则需对因自身不当使用造成的损害承担过错责任。不能将用户与生产者置于同一责任层面,因为技术危险源仍由生产者掌控。因此,人工智能的使用并未颠覆现有责任框架,用户的地位依然根植于其使用行为与过错认定,而非技术本身的自主性。
人工智能系统运用是否
改变了对使用者过错的判断
过错判断的核心在于行为人是否违反了合理的注意义务,其认定以“可预见性”为前提。过错即行为人能够预见到自己的行为可能对受保护的法益造成侵害,却未采取合理措施避免该侵害。可预见性并非指个案中当事人的主观能力,而是指向一个抽象的“理性人”标准,即基于当代社会各行各业所积累的知识、经验、能力和勤勉程度,判断行为人是否应当预见风险。可预见性要求行为人对其行为的风险进行积极的调查了解,调查范围需涵盖行为风险所及的合理期间。这里的风险是指某类伤害危险,而非极为具体的损害细节。合理注意义务要求行为人根据风险大小采取相应措施,风险越大,调查了解义务越重。总之,过错判断的基本原理是通过理性人标准和行为风险的可预见性,衡量行为人是否尽到了合理的注意义务。
人工智能的介入为使用者过错判断带来了新的挑战。人工智能系统在产品中的应用改变了传统的决策过程和行为风险的可预见性。一方面,人工智能的“技术黑箱”特性使其决策过程难以理解和预测,在一定程度上动摇了可预见性的基础。例如,人工智能的错误可能源于其自主学习和统计推理过程,而非使用者的直接行为,这使得传统的可预见性标准难以直接适用。另一方面,人工智能的介入改变了使用者的注意义务内容。使用者不仅需要了解物的性能和维护要求,还需要对人工智能系统的运行机制、潜在风险和限制有所了解。注意义务的重心从使用者对自身行为的审慎注意,转向对人工智能系统的审查、验证和监督。此外,人工智能的风险控制力部分地从使用者转移至提供者,使用者的可预见性和可避免性往往以提供者履行信息告知和提供应对手段为前提。如果提供者未充分告知使用规范或未提供必要的安全更新,使用者可能不承担相应的注意义务。因此,尽管人工智能的介入并未完全颠覆过错判断的基本原理,但过错判断的相关标准仍需在专家和普通人之间作出适应性调整。
专家在使用人工智能系统时,其过错判断需基于更高的注意义务标准。专家因拥有更多的知识和技能从事更具专业性的行为,因此其注意义务要求高于普通人。在人工智能系统介入后,专家的注意义务内容发生较为明显的变化。以医疗人工智能为例,医师的注意义务不再仅限于传统的诊疗惯例,还需涵盖对人工智能系统的审查、监督等,且需要根据医疗人工智能的发展阶段调整其注意义务标准。
普通人在使用人工智能系统时,其过错判断需基于差异化注意义务标准。普通人的注意义务内容因其使用人工智能的类型、场景和控制力而异。对于辅助型人工智能,使用者仍需参与决策和监督,因此负有较高的注意义务;对于替代型人工智能,使用者的注意义务重心转向系统检查和使用规范的遵守。此外,使用者需按照提供者的指示使用人工智能,包括安装更新、控制输入数据质量和应对系统警示。普通使用者的注意义务还受其身份影响:商业使用者因具有一定的知识和风险控制手段,负有较高的注意义务;非商业使用者(如消费者)的注意义务相对较低,但仍需按预期用途使用系统并对明显风险采取应对措施。需要注意的是,使用者的注意义务并非绝对,需考虑其实际控制力和信息可得性。如果提供者未履行信息告知或更新义务,使用者的注意义务可能减轻。
展望未来,当下对于产品使用者过错判断的困难,随着人工智能技术的不断发展将逐步得以克服,尤其是在系统可解释性、透明度不断增强的背景下。然而,技术解决能力的提高并不意味着过错判断问题的解决可以一劳永逸。相反,法律框架中关于使用者注意义务的标准也需随技术迭代不断调适。在技术尚不成熟的阶段,设置较低的注意义务有助于鼓励技术应用与推广,而当技术趋于稳定、解释机制日益完善时,则可能要求使用者承担更高的监督和干预义务,以平衡行为自由、受害人保护与风险控制之间的张力。
—— EDN ——
免责声明:本文章仅限学习交流使用,版权归原作者所有。
![]()
服务国家战略,专注高校科研/科技成果转化
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.