以下文章来源于环球法律评论,作者李源粒
![]()
内容提要:现代刑法需要回应与控制“人工智能+犯罪”的新型风险。生成式人工智能参与的新型犯罪风险可分为两类,一是自主生成的技术风险所导致的危险,二是滥用生成式人工智能技术实施犯罪而导致的危险,这两类风险均包含服务提供者应当答责与无需答责的风险两种情况。服务提供者的行为可能存在侵害结果发生前阶段的风险,以及指向多种发散性危害后果的不确定风险。刑法规范应当以对法益安全状态的保护为目的,针对前阶段服务提供行为的危害性构建归责基础。在犯罪风险中,应当针对服务提供者前阶段行为导致的超越允许范围的不当升高技术风险,以及具备后继犯罪危害性的促成他人后续滥用生成式人工智能技术实施犯罪的行为风险进行刑事归责。应当先依据具体注意义务规范通过归责理论构建刑事责任,未来在此基础上新构建一套完整的生成式人工智能服务提供者的答责规则体系并直接修正构成要件层面的答责原则。
关键词:生成式人工智能;刑事责任;不当升高风险;后继犯罪
作者:李源粒,中国政法大学刑事司法学院讲师。
⚖️
2024年全国网络安全标准化技术委员会发布的《人工智能安全治理框架》(下称“《治理框架》”)中明确我国人工智能治理的基本原则是“包容审慎、确保安全”,并强调在鼓励人工智能发展创新的同时也必须对危害国家安全、社会公共利益、公众合法权益的风险及时采取措施。这反映出我国应对人工智能的风险防控政策,即应对新型技术风险进行包容、适应和接纳,也需要约束越轨行动来确保控制风险和维护安全。卢曼(Niklas Luhmann)认为,法律完成了必要的功能因此才得以从整体社会环境中分出,而法律进化的动力亦来自于不断增加的社会复杂性。据此,法律系统的回应任务正是控制生成式人工智能所导致的社会风险中的有害风险部分。刑法作为国家进行社会控制的最重要的强制手段,必须承担必要的预防功能,对于造成法益侵害的严重犯罪风险进行有效规制。
一、生成式人工智能社会风险对刑法归责的现实挑战
社会环境变化对法律系统提出了以风险规制为核心的制度需求。生成式人工智能蕴含的新型技术风险是社会环境的事实性风险,其会带来持续存在的结构性风险。在以自然语言实现的概念沟通中,根据相关研究可以得出,在概念符号系统内部不可能解决何为真何为假的问题,也即生成式人工智能有能力在符号世界中实现自动化生成,但不可能确保所生成内容的真实性,必然会因技术环境而产生内生性风险。同时,在人与世界的交互结构中形成了一个带有技术自主智能性的技术环境,这使得“人是什么”和人机关系凸显为挑战哲学常识的时代难题。法律制度首先应明确究竟需要规制哪一部分风险,即区分不需回应/需回应的风险,也是区分有益/有害、容许/不容许的风险。作为法律制裁手段的重要组成部分,刑法理应有所担当,并基于部门法差异化治理位阶的设定,选择最严重的技术风险予以规制。
在行为规范(Verhaltensnorm)中,作为构成要件的刑法规范将特定的行为方式认定为类型化不法。通过刑法手段,特定的行为方式被抑制;而对于特定的客观社会条件来说是不可或缺的行为方式,也需要通过刑法来保证。对于以实现安全保障功能为目的的现代刑法规范而言,刑法的任务就是通过影响法主体的行为来消除潜在的危险情景,行为规范正是对于危险行为方式的类型化。此外,还需通过制裁规范来确认刑法规范所维护的规范性期望。同时,刑事归责也必须严守刑法系统的内在基本原则,不能仅仅对行为进行客观归罪,还必须将行为存在刑法义务违反来作为归责的正当性基础,以此保障国家刑罚权的发动不以侵害公民自由为代价。早在1992年瑞士学者就提出了归责问题是现代刑法体系中根本问题的命题:在传统刑法中,法益是可以清晰界定的,归责基础主要是基于单个行为人视角和个人的罪责责任,这必定会遭遇到许多新的挑战;但同时,刑法不能丧失法治原则的基础,明确的法益也不能被舍弃,个人的罪责责难也不能被完全架空。因此,现代刑法体系中最核心的理论议题是:被束缚在传统刑法归责的基本结构之下而又试图有效回应社会现实问题的现代预防性刑法系统,必然陷入困境。如果不想承认刑法已注定不再是促进社会进步的合适工具的结论,就只能修改传统刑法答责性的归责规则,使其由个人答责性的传统归责模板修正为能够更好地回应灵活多变的潜在风险的新归责结构。也即,为了实现有效回应生成式人工智能的新型技术风险的目标,刑法需要以风险归责为核心审视不法基础,重新构建恰当的刑事责任框架。
二、生成式人工智能新型犯罪风险中服务者的作用与结构
在以风险归责为刑事责任基础的思维框架下,生成式人工智能服务提供者会参与到通过自主生成过程导致的风险和通过他人滥用犯罪导致的风险两种类型之中。
(一)生成式人工智能新型风险的界分框架
1.超越自主生成过程正常技术风险的不允许风险
面对自主生成过程的“算法黑箱”难题,若遵循以主体概念为归责依据的传统路径注定失败,无法实现对新的社会环境风险的回应。传统的解决思路围绕着人工智能的客观性能而展开,以人工智能客观性能的二元对立概念为刑事责任依据。亦即,当智能机器人仅作为工具实施犯罪时,应对其设计者、使用者追究刑事责任;当智能机器人自主决定并实施犯罪行为时,应独立承担刑事责任。关键在于机器人是否能够在自主意识和意志的支配下独立作出决策并实施行为,是否具有辨认能力与控制能力。但是这种传统思路显然无法解决“算法黑箱”的不确定性技术风险难题。自主生成过程的新型风险超越了工具或主体的概念界定,无论由生成式人工智能自身还是由服务提供者或使用者作为责任主体,都不可能对自主生成过程的可能风险全部答责,或者全部不答责。一方面,制造者、使用者和人工智能自身,都可能参与创设不同类型的风险,可能是需要发动刑事制裁的风险,也可能是刑法允许的风险。倘若不对风险加以区分,要求人工智能作为新的主体自我答责,那么就可能会出现全面禁止新型技术风险的倒退,或者全面放任风险的失衡;若是要求服务提供者对于人工智能承担责任,就会导致把刑事责任推卸给技术,或者产生向先行行为无限责任的滑坡。另一方面,需要刑法进行规制的风险也可能需要对多主体共同归责,不必然对应于某一特定主体。即便承认人工智能的主体资格,人工智能也只能在因不可归责于他人的行为造成损害或伤害时承担刑事责任。也即,各种传统责任主体究竟应对哪种风险答责、应在何种范围内答责,并不取决于传统主体身份本身。正确的思路是围绕风险控制进行规范性归责,得出生成式人工智能领域各个角色的刑事责任,再为此寻求合适的概念界定。
对此,需区分客观技术风险的事实认定与刑事责任的规范性归责基础,从而重新界定刑事责任的边界与框架。从事实层面来说,自主生成过程产生一定程度的风险是一个既定且不可改变的技术事实,除非全面禁止,否则只能接受;从规范性的视角出发,在必然呈现限度内的客观技术风险应当认定为人工智能时代中的新型社会相当性风险。许多现代技术实际上都带有犯罪风险,但因其有益社会的方面而不受规范的否定性评价。同理,人工智能不是凭空出现并天然可供用户使用的,生成式人工智能服务提供者在事实上必然参与了人工智能相关风险的创设。但是在规范性层面上,只要其行为已经满足了风险控制与预防的规范性要求,服务提供者的行为就应当处于社会规范划定的免责范围内,反之则是创设了不允许的社会风险。易言之,刑法对生成式人工智能新型风险的规范性评价框架不应再依据主客体二元对立概念来确定刑事责任之“有无”;应当转变为以“容许技术风险”作为边界,在需要由服务提供者来控制和预防的风险范围内,仅针对其造成了不允许的犯罪风险的行为进行刑事归责。
2.生成式人工智能参与的犯罪风险类型
刑事归责需要关注的生成式人工智能导致新型犯罪风险的风险源有两种:一种是由自主生成过程的技术风险带来的法益侵害风险;另一种是使用阶段中由于他人的滥用生成式人工智能技术和故意犯罪行为导致的法益侵害风险。这两种风险源都可能超出正常技术本身的允许风险范围,服务提供者的行为在这两种风险形式中也都可以导致或促成不允许的犯罪风险。
生成式人工智能部署后在提供服务的过程中可能直接导致风险。这种风险的本质是一种失控性风险。在首例ChatGPT诽谤案中,ChatGPT捏造澳大利亚官员参与了行贿并被判入狱的情况。在另一起案件中,ChatGPT编造法学教授对学生进行性骚扰的谣言。生成式人工智能服务产生的整体风险不仅包括生成式人工智能在自主生成过程中不可避免的固有内生风险,还包括服务提供者行为与防控义务对风险的影响。一方面,生成式人工智能因机器幻觉而产生的事实性错误或推理上的错误无法在技术层面得到有效修正。新型风险主要源于大语言模型的涌现能力,其智能涌现环节是不确定的,是技术逻辑自身主导的环节。另一方面,生成式人工智能自主生成过程的技术风险程度与服务提供者的行为相关,未履行谨慎尽职义务的服务提供者会在技术固有风险之上导致技术风险不当升高。例如,生成式人工智能模型与系统自身参数特征会产生不同等级的风险,此时研发与提供者履行特殊义务的情况会影响整体风险。又如,生成式人工智能模型与具体的应用领域相关联会产生不同类型的风险,此时部署者履行特殊义务的情况会影响危害结果的范围与程度。如果发生在涉及公共利益的领域,相关法益侵害行为可能造成对公共安全及个人基本权利的高风险,生成大量虚假信息操纵舆论,可能产生重大政治影响并危害国家意识形态安全。显然,仅在失控性风险的后一种情形中才可能存在对服务提供者的归责问题。
生成式人工智能能够在技术上间接便利与强化他人的犯罪行为,提供生成式人工智能服务的行为也“参与”了他人犯罪行为,并产生了切实的促进作用。这种风险本质上是一种帮助性风险,但也应当具体甄别。一种情况是,生成式人工智能的技术风险在危害结果发生的整体过程中存在事实上的作用,但就规范评价层面而言,犯罪风险仅归咎于他人使用中的滥用和犯罪行为。比如,自2023年“AI元年”以来,新型诈骗利用人工智能通过“换脸”和“拟声”技术模仿受害人亲朋的声音和外貌,以此骗取受害者的信任,已经造成了多起重大经济损失。即便是正常的技术风险和服务提供行为,也可能因他人的滥用和犯罪行为而同样具有便利和促进他人犯罪的作用,因而犯罪风险源仅是第三人犯罪行为,结果并不是允许范围内的技术风险或服务提供行为风险的实现。另一种情况是,生成式人工智能技术被他人滥用以实施犯罪行为,但是除了他人的滥用和犯罪行为服务,提供者行为本身也体现了特殊危害性,在正常服务提供行为之外体现出特别的对犯罪强化与支持特征。比如提供恶意大模型服务。2022年下半年以来,暗网涌现出一批恶意生成式人工智能大模型,不法分子基于有害语料库训练出恶意大模型,不受原模型内容政策的限制,专门用于非法行为。比如WormGPT专门用于生成恶意代码、进行网络攻击;FraudGPT提供诈骗模版、编写欺骗性短信和钓鱼网站代码。显然,仅在帮助性风险的后一种情形中服务提供者才可能会被归责。
(二)生成式人工智能的新型风险特征与归责结构
1.生成式人工智能服务提供者行为的风险作用特征
对于使用生成式人工智能而导致法益侵害的结果而言,存在“研发大模型并提供-集成系统并提供-进口、分销-中介-部署-使用”的多环节因果链条。生成式人工智能的模型研发和提供处于整条链条的最上游,为下游系统提供基础设施。模型可以被集成到系统中或成为系统中的一个组件,此时即可形成生成式人工智能系统。将模型或系统直接提供给部署者进行使用,就属于提供服务,相关的开发者或者进口者都可以被认为是提供者,完成部署后即可将系统提供给自己或其他用户使用。
在生成式人工智能使用前各环节中存在的犯罪风险对于侵害结果发生而言都是前阶段的风险,因此服务提供者的行为对法益侵害后果而言属于前阶段行为。生成式人工智能模型适应各种任务的“通用性”贯穿整个生命周期的全过程,这意味着模型所生各类犯罪风险也会影响整个因果链条。不仅模型自身存在着自主生成过程导致的内生风险问题,失控则会带来无法避免的危险倾向,上游提供的模型服务还可以“自我复制”或训练其他模型,进而产生通用性的犯罪风险,如基于ChatGPT进一步训练恶意大模型。从模型与系统提供、进口和分销直到部署提供使用的阶段,都存在后续被故意滥用的可能。
生成式人工智能价值链上前阶段的潜在风险对应发散的、多样的后续可能产生犯罪结果。后续的滥用生成式人工智能技术实施犯罪的行为并非指向单一、固定、具体的特定犯罪,因此服务提供者行为的不法基础难以从结果不法进行溯及,需要更多关注行为本身的危害性特征。他人后续的故意滥用行为是发散性的,被提供与部署的模型和系统可以被用于各类犯罪。比如用于化学、生物、辐射和核风险方面的武器开发、设计或使用;在网络攻击方面发现、利用或操控漏洞;在控制物理系统和干扰关键基础设施方面削弱其运行能力,等等。自主生成技术的内生风险也易引发侵犯知识产权、侵犯数据权益、传播违法信息等后果。特定事件还可能导致连锁反应,产生大规模的负面影响。刑法规范与其说避免针对某一特定具体结果发生的侵害风险,不如说通过对前阶段行为危险倾向的控制和干预更有效地避免后续的发散性结果风险。
2.生成式人工智能服务提供者刑事责任的归责结构
“人工智能+犯罪”的模式带来了犯罪治理的新挑战,其中关键在于,在所涉甚广的众多服务相关方中,如何区分正常的服务提供行为与具备应罚不法的前阶段犯罪行为。
对不当升高的技术风险的归责是一种过失性风险责任,但按照归责理论难以进行结果归责,只能以行为侵害特定法益安全状态作为立法政策选择处罚特定行为的归责基础。第一,模型和系统的研发者、提供者及中介提供者未履行谨慎尽职义务的行为,可能导致技术的使用未被有效控制在法律所要求的正常风险范围内,进而使得生成式人工智能的技术风险不当升高。此时,最终结果发生系叠加自主生成过程的一般技术风险而共同导致。这里需要关注两种因果关联,一是前阶段的未履行谨慎尽职义务的义务违反行为与引发了超过法允许风险范围的升高风险之间的义务违反关联性;二是义务违反行为导致的这种既有法允许的一般技术风险、又有法不允许的升高风险的状态与最终结果实现之间的关联性。第二,提供和部署者可因自身履行谨慎尽职义务的行为导致应用风险升高从而引发特殊领域内重要法益侵害危险。在技术风险没有超出一般日常风险范围的情况下,违反法律义务进而将生成式人工智能部署于特定领域的行为会开启在该领域应用中的危险流程,最终可能导致危害结果发生。这里涉及的是结果犯的一类典型构成要件结构,即通过某个主体的行为经由纯粹的自然因果关系独立地引发法益侵害后果的危险。法规范为了避免期待以外的结果发生,只能针对开启此流程的行为人归责并禁止这样的行为方式。
对后续他人滥用生成式人工智能技术实施的犯罪的归责是一种故意性风险责任,但按照传统刑法中预备犯罪理论难以归责,需要借助后继犯罪(Anschließungsdelikt)的归责框架。一个人的行为只有通过第三人的特定瑕疵行为才会发生法益受影响的危险,这种行为也被称为促成行为。一般而言,针对过程中间介入第三人故意行为的情形,法秩序原则上应通过限制第三人的行为自由来避免法益侵害的结果,而不是限制行为人的自由。根据信赖原则,尽管个人对结果发生亦有共同的作用,也没有义务采取措施来应对他人违反注意义务或故意实施的行为,但是,信赖原则也有例外。在促成行为具备特殊的危害性特征与不法基础时,法秩序也有必要禁止特定促成行为,此时对于行为人行为自由的限制就不再是不合比例的,而是正当的。因此,研发和提供、中介提供、部署模型与系统的服务者所实施的服务提供行为,不仅要在形式上符合促成行为的结构,还须具有超越允许风险的危害性并溢出社会相当性风险的正常范围,才可能具备归责基础。
三、以安全保障为目标构建
生成式人工智能服务者行为的不法基础
在生成式人工智能参与的新型犯罪风险中,正常的自主生成过程的技术风险是法所允许和接纳的风险,超出这一范围的风险则属于应受非难的可归责风险。在两种风险类型中,服务提供者的服务提供行为都可能带来应受非难的不允许风险,但具体归责基础又有所不同。
(一)实质归责基础是行为风险的危害性特征
面对人工智能时代以风险为最主要特征的社会环境,国家治理的核心目标是控制风险和维护安全。因此,需要转变传统刑法中消极防止侵害的目的,明确以积极安全保障作为刑法规范的目的,实现刑法控制社会风险的功能。实际上,刑法意义上的法益侵害不仅仅局限于针对特定对象物的具体危险或者已经发生的客观侵害结果,也包括对法益支配的安全状态的侵害。如果将法益定义为实现自由人格发展的途径,那么法益之不可侵害性的确定性就是法益保护正当化理由中一个最重要的价值因素。立足于法益支配的安全状态,刑法规范不仅需要保护法益免于遭受实际侵害和具体危险,还需要保护法益处于一种免于恐惧的、可无忧支配(Sorgelosigkeit bei der Verfügung über Güter)的安全状态。在此基础上,现代刑法需要从聚焦于对实害和具体危险的侵害报应视角,调整为关注安全保障及控制和预防安全风险的视角,从而回应社会现实需求。
以法益安全保护为目标的刑法规范需要明确行为不法的基础,并与结果不法的归责区分开来。德国学者弗里希(Wolfang Frisch)的“构成要件该当行为理论”围绕制造法律上受非难之危险的要求,提出需要认定“符合构成要件的行为”。其认为,应以行为本身所内含的风险为依据,与结果有无发生以及是否应为结果的发生负责等问题切割开来审视。概言之,弗里希教授认为归责问题的基础在于行为是否创设了一种应受指责的风险(即行为归责),以及构成要件对行为风险进行约束的规范性范围应有多大。此外,殊途同归,“人的不法”理论在主观归责方面也同样强调以行为危害性作为归责基础。行为规范通过创设一般人行动预期的状态而对社会的共同生活提供了不可或缺的方向指引,这种行动预期并不是对维持社会伦理秩序的预期,而是对自己的生命、身体、财产等基本权不受任意侵害的预期,也就是说,创设行动预期状态的行为规范是以法益保护为指引的。这种面向将来的法益保护功能需要通过制裁规范的发动才能实现,即通过刑罚的发动向全体国民宣告被行为人违反的规范仍是有效的,引导国民自觉地将该行为规范继续作为将来的行动指针。德国学者金德霍伊泽尔(Urs Kinderhäuser)指出,法益保护不仅指保护法益免于遭受被侵害的结果,也应包括预防性地保护法益处于一种安全状态;反之,危险是指以不够充分注意的方式在事实和价值上对此种法益合理支配的必要安全状态的影响。因此,行为规范的类型化依据就是特定行为方式对法益安全状态的危险性,行为规范的内容是禁止具备典型危害关联性的行为类型。
(二)生成式人工智能技术不当升高风险的归责基础
1.未履行义务与技术风险叠加导致风险不当升高的归责基础
在行为违反注意义务的因果关系认定上,客观归责理论需特别考察的归责基础是义务违反的关联性。在行为引发了受非难的风险,但也引发了允许范围内的日常风险时,所考察的是行为导致了法不允许的风险状态这一结果的实现流程。由行为引发的法不允许风险是否提高了结果发生的风险,这种提高是否达到了重要意义的程度,对于不允许风险的实现问题都十分重要。如果行为人的行为中也包含法所允许的属性和状态,并且足以对导致结果的因果流程进行解释,可能据此中断受非难的行为风险与结果实现之间的因果关联进而排除归责。如果行为人实施了合乎义务要求的行为还是会导致结果发生,便应排除义务违反的关联性。以模型研发和提供者的透明度告知和风险管理义务为例。《治理框架》第6.1条规定,研发者应进行一系列的安全评估和测试,确保价值风险、伦理风险等可控,符合法律和风险管理要求,并以适用范围、注意事项或使用禁忌的形式告知下游的服务提供者和使用者。欧盟《人工智能法》(Artificial Intelligence Act)要求GPAI模型提供者也必须评估系统是否达到风险阈值并构成“具有系统风险的人工智能模型”,并额外履行评估测试和采取降低风险措施的义务。如果未能履行风险管理义务,属于违反注意规范(Sorgfaltsnorm)的义务违反行为,进而导致未能有效控制模型本身的伦理和价值风险。若最终招致如生成大量歧视性内容、虚假信息、诱导自杀信息并导致用户自杀、煽动恐怖和极端主义的有害信息传播等危害结果,就具备义务违反行为与法不允许风险直接的关联性。
但问题是,难以区分最终的危害结果实现的究竟是未履行法律要求义务的不当升高风险,还是自主生成过程本身的正常技术风险。因为在研发与提供的过程中,因服务行为的义务违反性所导致的不当升高风险与自主生成的一般技术风险,始终是融为一体、不可分割的。通说认为,当无法确定是否通过符合规范的行为就能避免行为人所引发的结果时,意味着无法排除合法替代行为会以“接近必然的盖然程度”同样导致结果,因而应否定归责。换言之,结果在合法替代行为场景下也很可能会发生,等于侵害注意义务没有发生构成要件结果。对于以存有实害结果为不法要件的犯罪而言,缺乏结果不法的可归责性。但是,在刑事政策上规定过失实害结果犯以外的犯罪也是有意义的,需要专门处罚因重大错误行为或是通过重大错误行为明显提高(对法益的)危险的犯罪。归根结底,这是刑事政策的立法选择问题。若有必要对可以构成重大错误行为的服务提供者行为进行处罚,需要设置特别的刑法分则规范,并以违反注意义务行为的法不允许风险作为不法基础;若是以现有刑法分则规范为基础,那么在服务提供者的义务违反行为与侵害具体分则规范所保护法益的结果之间缺乏归责基础。
2.违反义务在特殊领域导致应用风险不当升高的归责基础
刑法对安全的保障功能依赖于具体领域的结构与需求,维护安全所依赖的必要条件与相应的侵害方式也都取决于具体领域的特殊情况。因此,应根据具体领域安全保障的具体需求来确定规范目的与内容,实现针对特定领域的风险控制功能。法益指向的无忧支配的安全状态除包括具体的客观条件外,也包括认知要素,即对于法益支配之未来无危险性状态的认知获得的保护,也即卢曼所说的在时间维度上共同体成员于对规范效力能够持续存在下去的确认和信任。法益支配的安全状态依赖于一系列客观条件的满足与具备,因而行为的危害性特征表现为,特定行为方式针对确保法益支配安全状态的前提条件造成了危险。行为规范的内容就是对于具有危害性的危险行为的类型化,而不需要在行为与法益侵害结果之间清晰地确定侵害关联性。欧盟《人工智能法》中明确区分了“具有不可接受风险的人工智能系统”和“高风险系统”两种风险类型。我国《治理框架》第6.3条也针对政府部门、关键基础设施以及直接影响公共安全和公民生命健康安全的重点领域特别规定了安全指引规范,要求在重点领域使用人工智能时,必须确保产品与服务的运行基于人的授权并处于人的控制之下,避免完全依赖人工智能的决策。因不履行谨慎尽职义务而与一般技术风险相叠加而形成的风险不当升高状态,对于具体的危害结果而言仍然只是一种抽象的风险。与此不同,违反谨慎尽职义务而部署具有高风险甚至不可接受风险的人工智能系统,或者在具体的特殊领域中以不遵守安全指引规范的方式部署人工智能系统,则直接对保障相关领域安全状态的客观前提条件造成了具体影响。
此外,在法益的安全状态依赖于行政授权的前置法规定时,刑法作为次级规范(sekundäre Norm)发挥维护法益安全状态的功能,此时行政授权范围内的行为在刑法规范上就属于可允许风险,违反行政授权规定的行为就属于破坏法益安全状态的危险性行为类型。举例来说,在信息技术刑法领域,对于核心技术设备的无害性(Unschädlichkeit)不存在本来的信任,必须通过行政授权来奠定此种信任,此时刑法规范的目的在于发挥次级规范的功能来消除不信任,同时划定法律的容许边界。对以危害法益支配之主观安全信任为危害性特征的行为类型,就实质不法而言,刑法所禁止与处罚的是没有有效控制危险的行为,重点在预防危险的功能性上与行政管理的前置法形成一致,而不是必须与前置法的内容完全一致,从而避免沦为实质的空白罪状。欧盟《人工智能法》中的相关规定就是以授权的风险控制方式奠定人工智能领域的安全信任基础,要求在欧盟内部市场自由流动的高风险人工智能系统应带有CE合格标志(Conformité Européenne Marking),以CE标准授权构建高风险系统的安全信任。对于没有获得授权而提供高风险系统的开发者、进口者等服务提供相关方,因其破坏了人工智能技术的安全信任而可以归责。
对于以危害法益支配之安全状态的客观前提条件为危害性特征的行为类型,在客观方面,行为方式应直接破坏生成式人工智能应用领域安全的客观前提;在主观方面,服务提供者至少应具备对自身行为风险的间接故意,对一般风险不当升高可能导致的发散性危害后果仅具备概括性的过失。如果服务提供者以至少间接故意的程度在完全禁止风险的监管领域中提供服务,或者在高风险领域以不允许的方式提供服务,导致系统被用于刑事犯罪,那么其前阶段的先行行为尽管缺乏对具体各种类危害结果的归责关联,也动摇了生成式人工智能应用安全所依赖的风险等级管理的客观条件,违反了风险领域和重要领域的生成式人工智能的安全前提,因而已具备了特殊危害性。对此可以考虑与相应刑法规范进行对接,设置类型化的构成要件予以归责。
(三)生成式人工智能技术被他人滥用的归责基础
1.前阶段促成行为的归责条件与正当化基础
刑法对前阶段促成行为的处罚在传统上属于预备犯罪的结构。法益支配的安全状态依赖于共同体中主体间的主观信赖,刑法通过制裁来保障规范受众对于规范效力的信赖,而只有在行为人体现出明确的不遵守规范效力之意愿时,制裁的发动才是正当的。这种明确的不遵守规范效力意愿最强烈的体现就是故意违反规范义务。由于在前阶段中这种故意的刑事责任被前置化了,侵害主观安全的行为类型就体现为预备犯罪。预备犯罪的结构在客观方面要求预备行为已体现出应罚的不法;在主观方面要求行为应指向一个未来会实行的特定犯罪,也即超过的主观要素。
近些年德国学者用后继犯罪概念来规制在前阶段中对他人后续犯罪的间接性促成行为。所谓后继犯罪,是指一个已经完成的行为对法益尚且没有造成侵害也没有造成客观危险,后面的另一个后继行为人(Anschlusstäter)可以在此基础之上再关联并实施上一个违法和侵害法益的第二行为,而后续是否真的存在第二行为人对于判断第一行为人的刑事可罚性并不重要。与预备犯罪不同,在后继犯罪的结构中,前一行为人不需要知道后续他人的目标犯罪。但问题是,后继犯罪的结构实际上违反了第二行为人自我答责性与信赖原则。对第一行为人以未发生的假设性后继犯罪行为归责,其可能根本无法预见接续的犯罪行为。尤其在第一行为人实施的是较中立行为的情况下,后继犯罪的结构实际上是一种“独立的无附属性的帮助”行为,对其犯罪化必须具备严格的正当性基础。
德国学者沃勒斯(Wolfgang Wohlers)认为刑法前置化保护的正当性基础也即国家刑罚权发动的正当性,从本质上来说就是归责的正当性。他将归责正当性更进一步归结为答责领域界分的规范性问题,指出关键在于对于第一行为人的行为与独立第二行为之间的可归责范围界分,并且指出,仅当他人自我答责的行为被第一行为人预见到并作为指引其行为的因素时,将第二犯罪行为归入第一行为人的答责范围才不违反自我答责原则,这种答责领域的划分依据与标准都是规范性构建的。其他学者也持类似观点,认为仅在前阶段服务提供者的前阶段促成行为需要具备特殊的行为危害性和犯罪意涵(deliktische Sinnbezug)时,才具备归责基础。从根本上来说,后继犯罪结构体现出来的是一种客观和规范性的不法基础,更加强调规范性的可归责依据与客观上行为本身已经具备的犯罪意涵,这明确区别于预备犯罪结构中偏重于以主观超过要素作为危险关联性基础的路径。
2.服务提供者前阶段促成行为的归责基础
生成式人工智能前阶段的潜在风险对应发散的后续可能犯罪结果,后续的滥用犯罪行为并非指向单一、固定、具体的特定犯罪,因此难以满足预备犯罪中行为人对于实施犯罪具备决意和对于目标犯罪具备明知的要求,采用后继犯罪结构更为恰当。具体来说,后继犯罪的正当化基础主要分为三种,其归责基础分别来源于特殊注意规范的义务、提供对象的特殊危险以及前阶段行为的危害性特征。德国学者齐白(Ulrich Sieber)认为,满足犯罪化所需的正当性要求包括以下情况:第一,第一行为违反了注意规范,而该注意规范的目的正是为了在具体情景中消除后继犯罪行为出现的任何可能性。第二,所提供的对象仅仅(或者主要)用于犯罪或具有特别程度上的危险性。第三,第一行为人的行为与后继行为人存在特别犯罪关联。类似地,弗里希教授也指出,在行为人的行为通过他人瑕疵行为导致侵害的结构中,本不应答责的行为人只有通过交付极易被滥用的物品、爆炸性物质等,才被认为制造了应受非难且被禁止的风险。此外,如果行为人对于防止他人滥用自己让与的物品而居于保证人地位,或者行为本身的意涵就在于促成第三人的违法行为时,也应要求其答责。德国学者普珀(Ingeborg Puppe)也认为可以突破信赖原则的情况包括三种:义务本身就是为了防止他人违反义务或造成损害;刑法出于家长主义考虑为了保护他人陷入某种危险而设立了义务(如禁止麻醉药品交易);行为人已经察觉到了他人即将违反义务。
首先,单纯违反前置法规范从而导致了一种可能被滥用的风险状态并不具备充分的刑事归责基础。以违反注意规范义务作为对他人不法的可归责基础还必须施加给第一行为人一种全面的保证人义务,要求其确保自己的前阶段行为不存在为后续犯罪接提供促成的任何可能性。但是,生成式人工智能服务提供者研发和部署生成式人工智能基础设施并对大量用户提供服务本身不能直接推出全面保证人义务,即便因违反前置法注意规范而使生成式人工智能基础设施服务超出了正常允许风险的范围,也不必然等于负有防止后续他人所有滥用犯罪的全面监控义务。例如,多频道网络(Multi-Channel Network,MCN)机构利用人工智能软件生成大量谣言传播,虽然服务提供者也对这类机构利用人工智能生成谣言的滥用行为有技术上的助力,但本身并没有违反任何注意规范,也不具备杜绝服务被他人滥用的保证人地位,因而不具备归责基础。又如,欧盟《人工智能法》第15条第5款规定,高风险人工智能系统应具备韧性,以防未经授权的第三方试图利用系统漏洞改变其使用、输出或性能。违反这一注意规范的研发者行为显然导致了一般性的风险不当升高,但降低被他人滥用风险的预防性前置法义务不能直接等同于对其施加防止一切第三方滥用行为和所有可能法益侵害的保证人义务。
其次,第一行为人所提供的对象本身需要具有唯一的、确定的犯罪风险,一般不存在对这些特殊物品的合理合法提供与使用。在生成式人工智能的情形下,即便超越了一般可接受技术风险的边界,生成式人工智能本身也仍然主要被合法使用,至少存在明显的不以导致犯罪为导向的合理使用空间,而不构成绝对的、必然的犯罪危险,因此服务提供者并不能因为提供对象的特殊危险性而构成后继犯罪。但是,如果服务提供者训练恶意大模型,有针对性地改变原模型的使用、输出或性能,使其成为只能或主要被用于犯罪的对象,则可以被认为是具备特别危险的对象。如WormGPT和PoisonGPT,恶意大模型的研发和提供服务者使用新的应用程序编程接口(API),突破原模型内容政策的限制,有针对性地改变原模型的使用、输出或性能,为犯罪减少约束和障碍,使其用于生成恶意代码、进行网络攻击和制造假新闻、操纵舆论的行为。这种大模型本身就已在提供犯罪方法、进行网络攻击、生成非法内容等方面都具有极大的犯罪危险。
最后,关于前阶段行为本身可刑事归责的犯罪意涵,齐白教授认为,对于他人不法的可归责基础在于第一行为人和后继行为人进行了通谋合作,第一行为具有特殊的支持性特征,或者第一行为人能够确实地知道他人通过自身的行为为后继犯罪行为提供了支持。弗里希教授还从反面排除了一些不具备犯罪意涵所要求的特殊关联性的典型情形。若在提供某一特定物品时仅存在客观上该物品被用于犯罪的可能性,或者依据经验认为在个别情况下实施目标犯罪概率很大,都不足以满足犯罪意涵的要求,因为这样会严重限制行为自由,导致一个普遍失信的社会形态,每个人都必须持续审视他人是否具备后续犯罪行为的客观迹象。同样,若前阶段行为人主观上有表明第三人已决意实施某项犯罪行为的具体线索,也仅是“可识别的犯罪决意或犯罪倾向”,而不满足犯罪意涵的要求,因为事实上也不存在判断何时具有此种具体线索的明确标准。关键性判断指标在于,前阶段行为是否超出了合法行为空间并已造成对法益观念性侵害,前阶段行为整体上必须以促成或便利目标犯罪的实施为指向。犯罪意涵也因而可以理解为一项客观和规范的判断标准,即某一行为在客观上只能被解释为是为了促成犯罪行为;反之,若有不可忽视的情形,即实施行为是为了追求正当权益,且通常是出于正当动机,则应认为不存在犯罪意涵。以提供恶意大模型为例,XXXGPT为用户的僵尸网络、恶意软件、加密货币挖掘等多种违法项目提供定制服务,提供者明知后续的他人特定犯罪而提供有针对性的服务,与后阶段行为人存在共谋。又如,如果仅是研发本身可能存在漏洞,尚不足以构成前阶段促成行为的犯罪意涵。如果是在受控环境中主动植入模拟漏洞进行评估和训练,也存在合法行为的合理解释。但在面向生产或公众提供服务的生成式人工智能中,如果研发者故意设置程序漏洞,缺乏其他合理性解释而具备了特殊的犯罪支持性特征,使用户可以轻易利用生成式人工智能实施违法犯罪行为的,应当承担相应的刑事责任。
对于以前阶段犯罪行为为危害性特征的行为类型,在客观方面,生成式人工智能服务本身应体现出特殊危险,或是服务提供者的前阶段行为应独立体现出可支持后续滥用犯罪的特征;在主观方面,服务提供者对于自己为后续他人滥用犯罪创造了便利的促成行为本身是明知的,并且对于自己的促成行为将被他人用于进行犯罪而不存在其他合理使用空间的针对性支持也是明知的,但对他人具体犯罪行为则无需有意图。虽然难以认定服务提供者对他人后续滥用犯罪存在全面性的保证人义务,但如果其行为已经超出行为自由的免责空间而体现出充分的犯罪意涵,也已具备后继犯罪的归责基础。
四、人工智能治理体系
与刑事归责的功能衔接
生成式人工智能服务提供者的刑事责任需要一套通用的答责规则为依据和参考。参考网络服务提供者的刑事归责模式,应以答责规则作为修正刑法归责理论之原则和结构的预先检验,在构成要件层面落实到刑法归责理论,形成与刑事责任的功能衔接。短期来看,应当暂缓构建求全责备的生成式人工智能服务提供者答责规则,着重于确定相关服务主体及义务要求,再通过刑法中归责理论的深入研究和探求,最终实现准确、合理、正当的刑事归责。
(一)明确生成式人工智能服务提供者的答责体系
在前置法的法律规范体系中,对技术服务提供者的法律规则可以是对主体与义务内容的注意规范,也可以直接划定法定答责范围。网络服务者的答责规则在全球多个国家都有体系性的规定。例如,美国在版权法领域确定了各种网络服务提供者的间接侵权责任。以此为基础,网络服务者答责规则扩展到非法内容治理、电子商务平台责任等其他领域。这一问题具有“横剖特征”(cross-sectional character),即非法和有害信息的责任问题产生在民法、公法和刑法三个学科里,因而需要一个同时适用于三个法律领域的答责性规则(Verantwortlichkeitsregeln)。又如,德国通过《电信服务法》(Telekommunikationsgesetz,TKG)和《数字服务法》(Digitale-Dienste-Gesetz,DDG)中的责任条款,欧盟通过《数字服务法案》(Digital Service Act,DSA)中的责任条款等,对于数字服务提供者的答责性规则进行了规定。同样,也应针对生成式人工智能具有不同风险控制能力的各主体设定有所差异的规范义务。
第一,作为模型和系统的提供者,生成式人工智能的风险源便在于其研发与提供行为,而最能有效控制和预防模型和系统本身及后续一系列风险的主体非提供者莫属。我国《治理框架》第6.1条要求模型和系统提供者应履行降低风险与标记内容的注意义务。欧盟《人工智能法》还要求与自然人直接互动的系统提供者嵌入技术解决方案,以便能够以机器可读的格式进行标记,并检测输出内容是由人工智能系统还是由人类生成或操纵的。
第二,模型部署者是使用生成式人工智能系统的相关方。部署者对于高风险人工智能系统如何具体使用具有较高程度的理解,因而能够识别开发阶段未预见的潜在重大风险,应对模型和系统提供者的义务承担补充责任。例如,在线搜索引擎服务纳入了通用人工智能系统,比如在线聊天机器人对所有网站进行搜索,然后将搜索结果纳入其现有知识进行输出,则应视为中介服务提供者。平台有义务检测和披露这些系统的输出是否由人为生成或操纵的,以识别和降低传播虚假信息和人为生成或操纵内容的系统性风险。同时,部署者与用户的关系最为密切,需要对违反使用意图的滥用风险进行评估,承担在发现违法行为时及时采取适当的处理措施和保存记录的义务。超大型在线平台和超大型搜索引擎的中介服务提供者还有评估其服务的潜在系统性风险的义务,包括用户的潜在滥用风险,并有义务采取适当的缓解措施,这是一种监管责任。我国《生成式人工智能服务管理暂行办法》第14条也有类似规定,要求生成式人工智能的提供者发现违法内容时,及时采取停止生成、停止传输、消除等处置措施,进行整改;发现使用者利用生成式人工智能从事违法活动时,应当采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。
(二)重构生成式人工智能服务提供者的刑事归责
刑法对于前置法答责规则的解释具有特殊性。通说认为,这一规则的解释体现在构成要件层面上。具体到适用方式的争议之上,主要有前刑法领域的“预先过滤”(Vorfilters)模式和将答责性规则用于构成要件具体要素解释的“一体化方案”(Integrationslösung)。齐白指出,根据答责性规则来对构成要件要素进行“解读”,如对故意或者过失以及作为其前提的认识要素进行检验,其实没有什么意义,而是应按照答责性规则预先检验那些困难的、与构成要件要素无关的问题,避免在构成要件层面再检验。但是他也主张,答责性规则并不是作为那种“对于刑事可罚性的限缩过滤”(ein die Strafbarkeit einschränkender Filter)的预先过滤,而是在构成要件层面上对相关刑法规范的犯罪对象和服务者的犯罪行为进行检验,实际上是对构成要件的修正(als tatbestandsmodifizierend)。因此,合理的释义学结构应当是一种“构成要件一体化方式的预先过滤”(tatbestandsintegrierte Vorfilterlösung),本质是将前刑法答责性规则作为归责限制要素,在刑法构成要件层面检验归责基础。也即,前刑法答责性规则并非直接限缩了服务提供者的刑事责任,而是在构成要件内通过结合归责理论的相关原则进行适用,根据归责基础是否成立来确定服务提供者的刑事责任存在与否。
德国在确定中立网络服务提供者的刑事责任时采取了以行为答责范围作为刑法义务内容与归责基础的客观路径,归责重心完全在于前阶段技术帮助行为本身独立的可罚性。德国《远程媒体法》(Telemediengesetz,TMG)第7至10条规定了完整的网络服务提供者的答责规则,主要规定可以免责的情形,反之也意味着不具备免责情形可能需要承担刑事责任;此外还规定如果服务提供者自始具备共同犯罪意图,则无需再适用这套规则进行答责与免责的界分,构成共同犯罪。在构成要件层面直接据此修正不作为与共同犯罪理论中的归责原则。详言之,首先,需要依据《德国刑法典》总则第13条区分作为与不作为,而不作为犯的刑事责任依据在于等价性原则以及由保证人地位所确定的防止结果发生的法义务。《远程媒体法》中区分内容生成与技术支持两种服务提供形式。具体来说,自己生成内容或是接受他人内容(zu-Eigen-Machen fremder Inhalte)显然是积极作为;事先已经知道他人犯罪但仍然提供技术支持也属于积极作为;而答责范围规则的意义在于,《远程媒体法》第7条第2款明确规定不存在监管和调查的一般义务,因而技术支持形式中服务提供者的不作为保证人义务并非对危险源监管的保证人义务,仅可能是特殊情形中的保护型保证人义务。也即,缺乏可构成过失责任的一般性防控义务与刑事归责基础。在故意责任的框架下,提供技术支持的服务者在事中认识到为后续的非法内容提供了传输通路而没有阻断,或者提供了缓存与服务器存储而没有采取删除等措施,从而造成了法益侵害结果,对后续结果因未履行法益保护的保证人义务而构成不作为犯罪。接下来还需要区分在共同犯罪中的实行与参与,包括不可免责的不作为帮助与自始有意图的积极帮助两种。而答责范围规则的意义在于解决以不作为方式实施的共同犯罪中关于正犯与参与的理论争议,因为传统释义学理论中用于区分正犯与参与的内容均存在许多不合理之处。折衷的观点认为区分标准与保证人义务相关,不作为犯罪中对危险源负有监督型保证人义务的一般是参与人,负有保护型保证人义务的一般是正犯。而最终的结论是,自己生成内容或是接受他人内容的服务提供者是正犯;事先明知他人犯罪而以积极作为方式提供技术支持的服务提供者也构成共同犯罪;但事后以不可免责不作为方式提供技术支持的服务提供者是帮助犯。
德国这一信息网络时代答责规则与“一体化方案”刑法释义学理论构建了清晰完整的三层次故意责任体系:正犯形式的内容提供者的故意责任;事先积极作为形式的技术服务提供者的故意责任;事中消极不作为帮助形式的技术服务提供者的故意责任。然而,这在应对生成式人工智能服务提供者的刑事归责时存在受时代局限的体系框架缺失。第一,前置法规范中整体上缺乏对一般性风险的防控义务,因而缺乏刑法中的过失责任,在现有框架中也难以进行补充。第二,前置法规范中的免责规则明确限定在接入、缓存和主机存储三种技术服务提供类型上,但生成式人工智能服务提供者实际上都兼具内容生成与技术支持的双重服务角色,现有规则体系根本无法对此适用。第三,关于对他人的积极作为与不作为帮助这两种促成行为的刑事责任,在反向上的排除责任依据比较清晰,即,具备免责情形的不作为帮助犯型技术支持不可归责,具备共同犯罪意图的积极正犯型技术支持不适用免责情形。但在正向上缺乏实质归责基础。
(三)我国现有分则罪名体系的适用路径
我国没有建立完整的前刑法答责规则体系,而是通过增设罪名,再对相关罪名进行刑法释义学解释,这就为理论构建提供了一定空间。其中,帮助信息网络犯罪活动罪依照共同犯罪理论来确定网络服务提供者的刑事责任,通过立法确认明确肯定了中立与一般帮助行为的正犯化,这对应于德国“积极作为型故意责任”。有学者指明了该罪的意义在于对不能以传统共犯处理的网络帮助行为进行特殊刑事归责。非帮助犯之网络帮助行为的可罚性基础构建更为强调行为本身的独立性,不从属于任何一个受其帮助的实行行为,本质为“促进了犯罪实现的行为”,主观上也应着眼于帮助者对自身行为的认识,认为自己提供的帮助“极有可能”促进他人犯罪即可,不需认识到他人一定犯罪、具体犯何罪。这在主客观要件和归责基础上均与传统共同犯罪理论存在较大差异,实际上属于后继犯罪的归责结构,是在后继犯罪的外部边界上界分了网络服务提供者的可罚促成行为与不应因他人后续犯罪而归责的正当前行为。此外,拒不履行信息网络安全管理义务罪依照不作为理论界定网络服务提供者刑事责任,这对应于德国“消极不作为帮助型故意责任”的责任形式。该罪设立的目的是为了在不可罚中立帮助行为与不作为形式的帮助行为之间进行界分,对此仍是借助了德国的答责规则框架,将网络服务提供者分为接入服务提供者、缓存服务提供者、存储服务提供者和定位服务提供者。罪过形式应为一种模糊罪过,即网络服务提供者对“拒不改正”的行为本身持故意态度,对于造成严重后果可以存在过失的罪过形态。不法内涵是对其特定管理责任义务的违反,本质是义务犯。不难发现,这实际上也涵盖了一种因自身促成行为而出现他人犯罪后果的后继犯罪结构,是在后继犯罪的内部边界上界分了中立免责帮助的行为自由空间与超出行为自由空间具有犯罪意涵的促成行为。
当前,网络服务提供者的答责规则体系与刑法分则罪名已需要调整,生成式人工智能服务提供者的答责规则与刑事责任框架至少需要作出以下三个方面的变更。第一,在生成式人工智能服务提供者兼具内容生成与技术支持双重功能的前提下,服务对象与行为再细分“内容生成与技术支持”和“自我内容提供与他人(技术)内容”已无必要,应转变为以风险为核心,在直接导致结果与间接促成他人犯罪之间进行不同流程上的结构区分。第二,在有必要增加过失责任的前提下,责任框架的核心从“作为与不作为”“正犯与共犯”的形式区分转变为过失与故意的程度区分。第三,在有必要实现全流程风险监管的前提下,刑事责任的重点应从“答责与免责”界分转变为对自我不当风险与对他人犯罪的刑法规范义务认定,关键在于从正面构建重大过失犯罪与后继犯罪的不法内涵与归责结构。
在我国现有刑法分则体系中,可以在拒不履行信息网络安全管理义务罪的罪名下构建生成式人工智能服务提供者行为的归责基础。一方面,拒不履行信息网络安全管理义务罪能够容纳过失责任。信息网络安全管理义务的来源是法律、行政法规的规定,其中可包括网站安全、信息安全的保障管理制度。针对技术风险不当升高的情形,关键在于选取生成式人工智能服务提供者对重要领域安全的风险防控与安全保障义务。例如,模型提供者具有进行内容标记的一般义务,如果是在具有舆论与政治动员功能的模型中不履行内容标记义务就构成重大过失。又如,服务提供者具有进行风险评估和采取降低风险措施的义务,如果是在政府部门、关键基础设施以及直接影响公共安全和公民生命健康安全的重点领域未履行上述义务,也属于重大过错。另一方面,目前服务提供者的后继犯罪结构在帮助信息网络犯罪活动罪与拒不履行信息网络安全管理义务罪中分散规定,导致两个罪名发生重叠混乱,应围绕服务提供者主体进行整合。与共同犯罪中的帮助行为不同,后继犯罪结构关注前阶段行为本身是否超出了合法行为空间并已造成对法益观念性侵害,而非行为与实行行为的(主观)从属性关联,因此更为符合拒不履行信息网络安全管理义务罪的构罪逻辑。关键在于依据后继犯罪理论认定行为本身的特殊犯罪意涵,例如,部署者或平台已经发现违法内容或使用者利用生成式人工智能从事违法活动但并不采取限制功能、暂停或停止生成、停止传输、消除等处置措施,就可以认定其服务提供行为已经超出了中立服务提供行为的自由空间,具备促成他人犯罪的特殊犯罪内涵。这样就将监管法律中的注意规范融入和适用于刑法释义学的归责原则和结构中了。
五、结语
从启蒙时代的传统刑法到现代国家治理框架下的现代刑法,刑法释义学从以观念论作为思想基础逐步融入了系统论等多元理论,刑法的目的也从报应逐渐容纳了对社会风险的预防与控制,刑法成为整体社会治理制度的一个组成部分。其中,以计算机和网络刑法为代表的信息技术领域刑法是现代刑法体系下的重要领域,信息技术的迅速更新迭代也使得这一领域中刑法回应新型犯罪风险的现实需求更为突出,如何回应生成式人工智能带来的新风险正是当前最值得关切的问题。关于生成式人工智能服务提供者的刑事归责基础,最理想的状况应当是:专门针对生成式人工智能服务提供者制定一套细致且专业的答责性规则,这套规则可修正刑法中释义学的相关归责原则和结构,并融于刑法构成要件层面进行检验,最终确定服务提供者的归责基础或排除归责基础。其一,生成式人工智能服务提供者的技术性、主体复杂性、答责特殊性,与网络服务提供者的侵犯版权或非法有害内容传输的答责规则相比,有过之而无不及。将传统的出版责任、新闻责任乃至数字服务提供者的责任规则套用在生成式人工智能服务提供者之上并不恰当。其二,刑事责任的释义学难以处理特殊技术领域的专业问题,即便最终要融入释义学中进行刑法体系内的理论适用,也需以专门的答责规则为前提,或至少作为参考。
美国、德国及欧盟的相关答责性规则都形成于2000年左右,彼时互联网发展已有时日,建立完整的答责性规则体系的时机和条件均已成熟,所形成的答责性规则体系也较为完善。但目前生成式人工智能技术方兴未艾,迭代迅速,关于服务提供者的义务规则也在探索和形成中,实践与法律规制经验都尚不充足,因而不宜急于建立一套划定答责性范围的规则。目前应以安全监管为导向细化生成式人工智能服务提供者主体和义务内容的注意规范,具体归责范围仍需在刑法释义学相关原则和结构研究乃至具体罪名适用中予以划定。待时机成熟,应直接确定一套通用的答责性规则,在刑法中依据该规则修正构成要件层面的传统刑法归责原则。
内容来自《环球法律评论》2026年第2期“理论前沿”。因篇幅较长,注释从略。
本文章仅限学习交流使用,版权归原作者所有。
⚖️
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.