网易首页 > 网易号 > 正文 申请入驻

丁晓东:人机交互决策下的智慧司法 | 法律科学202304

0
分享至

【作者】 丁晓东(中国人民大学法学院教授、博士生导师,北大法律信息网签约作者)

【来源】 北大法宝法学期刊库 《法律科学》2023年第4期 (文末附本期期刊目录) 。因篇幅较长,已略去原文注释。

内容提要:ChatGPT等人工智能技术在多个场景落地,在司法领域却备受争议,其根本原因在于司法具有鲜明的价值判断特征。人工智能司法是一种“规范性科技”支持基础上的司法,而非计算性科技或预测性科技技术本身。人工智能司法在裁判可接受性、信息整全、信息筛选、事实评估等方面有一定优势;人机交互决策不仅可能,而且早已通过各类数据库系统成为现实。不过,人工智能司法却面临规则僵化、人机决策权重如何配置、不同司法层级与不同部门决策趋同、算法黑箱决策等难题。应坚持人工智能司法的辅助性定位,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验性设置并开展实践探索,坚守基于部门分工与审级分层的制衡决策,促进算法解释的可问责性而非完全公开。智慧司法成功的关键,在于设计符合司法原理的人机交互决策制度。

关键词:智慧司法;人工智能;算法;规范性科技;人机交互

目次 一、问题的提出:人工智能司法运用的特殊性 二、作为规范性技术的人工智能司法 三、人工智能辅助审判的可能性与现实性 四、人工智能辅助司法带来的制度挑战 五、司法人机交互决策的制度设计 六、结语:人机交互下的司法理论与司法制度

问题的提出:人工智能司法运用的特殊性

近年来,提升司法领域的信息化与智能化,利用大数据与人工智能技术解决司法难题,已经成为我国司法发展的重要战略。2016年中共中央办公厅、国务院办公厅印发的《国家信息化发展战略纲要》(中办发〔2016〕48号)强调:“实施‘科技强检’,推进检察工作现代化。建设‘智慧法院’,提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”2017年国务院印发的《新一代人工智能发展规划》(国发〔2017〕35号)中提出,应当推进“智慧法庭”建设,“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化”。针对中央部署,法院、检察院对智慧司法建设工作进行了积极部署。例如上海市高级人民法院研发了“上海刑事案件智能辅助办案系统”(又称“206”系统),尝试解决刑事案件办案中存在的“证据标准适用不统一、办案程序不规范等问题”;贵州省高级人民法院探索建立了“类案类判”机制,对异常审判结果进行预警,辅助法官实现类似案件法律适用的统一。随着ChatGPT等人工智能技术的突破,人工智能司法问题进一步引发了人们的关注。美国明尼苏达州大学法学院的随机盲测实验表明,ChatGPT通过了其法学院的所有真实考试,尽管其分数不是太高。如果人工智能技术可以比人类做得更好,那么人工智能是否真的具有替代或者至少辅助法官或检察官的可能?事实上,哥伦比亚的一名法官(Juan Manuel Padilla Garcia)已经利用ChatGPT辅助审判,并明确表示判决书中包含了其输入ChatGPT的问答结果;该法官认为,ChatGPT虽然不能代替法官进行判断,但可以利用人工智能“扩展所通过裁决的论点”;在判决书中,该法官说明了其对于ChatGPT回答的认同,并且提供了自己的法律论据。这一例证表明,人工智能司法的实践应用价值正在不断提高。虽然如此,人工智能司法却面临重重质疑。很多研究表明,人工智能司法可能面临种种问题:人工智能可能带来错误判决,与司法追求的公平正义价值并不契合;人工智能可能导致裁判规则的僵化,无法适应复杂案件的判决;人工智能可能导致算法黑箱和司法的不透明性;人工智能可能剥夺人们对于司法的亲历感,损害司法权威。相比人工智能在电商、资讯、自动驾驶、医疗等领域的应用,人工智能在司法领域的应用一直存在较大争议。在实践中,法官与检察官也对人工智能辅助司法的机制存在众多困惑。如,当人工智能对于某个法律问题给出自己的答案,此时人类法官或检察官是否必须参照?当人类法官或检察官与人工智能给出的答案不一致时,此时是否需要进行解释说明,甚至需要提交审委会讨论?对于人工智能的算法决策,是否应当要求将算法对当事人和法官或检察官完全公开?如果不同司法机关和不同层级法院都配备了同一套人工智能系统,司法机关之间相互配合与制约的制度设计和审级制度设计是否将变得没有意义?

本文的研究建立在已有研究的基础上,但将更多聚焦人工智能司法的特殊性,并在分析人工智能司法人机交互决策方面问题的基础上,分析人工智能辅助司法可能存在的隐患,并尝试对智慧时代的人机交互司法决策制度进行重构。

作为规范性技术的人工智能司法

现代法治发展中,一直存在用机器替代法官或检察官的想象。德国社会学家马克思·韦伯曾经将现代社会的司法比喻为自动售货:“现代的法官是自动售货机,民众投进去的是诉状和诉讼费,吐出来的是判决和从法典上抄下来的理由。”规制理论中经典的“传送带理论(transmission belt theory)”也认为法治的核心要义就是将立法者的意志“传送”给行政规制机构。而当法官宣誓就职或描述自身职业时,也不时会将自己比喻为严格遵守法律的机器,在审判活动中排除任何个人感情色彩。上述理论或者比喻都隐含了某种法治的想象:用机器实现更好的法治,排除法治中的人为判断或价值判断。但法理学的研究表明,司法决策本质上是一种规范性活动,无论是人类还是人工智能法官或检察官,都不可避免需要进行价值判断。

1.法律解释必然伴随价值判断。无论是人类还是人工智能法官或检察官,都需要在其解释活动或程序中确定,文义解释、历史解释、体系解释、目的解释等诸种解释方法中何者具有优先性。从司法的基础理论来看,法律解释方法中并没有必然的优先性方法,例如字面解释可能有利于文意的精确性,但未必有利于立法意图和法律目的的实现,也未必符合当下公众的预期。而且即使选择了某种解释方法,也还需要进一步对某种解释方法进行价值判断。例如字面解释是采取通用词典的解释,还是法律类词典解释?立法解释是以起草者、批准者还是更广义的人民意志为准?目的解释是以立法时的政策目的还是以当下的政策目的为准?体系解释应当着重某个重点条文还是应当着重法律的整体性分析?

2.法律推理必然伴随价值判断。(1)就演绎推理来说,演绎推理的有效性依赖于推理的大前提与小前提。例如对于“消费者有权获得多倍赔偿”这样一个大前提,司法者需要进行判断,《消费者权益保护法》与《食品安全法》中对于消费者的界定是否相同?对于职业索赔人是否属于消费者这个小前提,法律推理也要进一步判断。(2)归纳推理亦是如此。归纳推理的本质在于基于过往经验对未来进行预测,而未来的决策却依赖于人的判断与行动。即使人类或人工智能司法通过归纳得出结论,过去的某类案件判决都类似,也不能得出未来就应该如此判决的结论。中国很多法院曾经一度将职业索赔人视为消费者,但后来逐渐改变了立场。美国法院则曾经在所有的判决中都认可了白人和黑人的种族隔离符合美国宪法,但最终却通过判决推翻了“隔离且平等(separate but equal)”的教义。(3)类比推理也存在与归纳推理类似的问题。人工智能主要通过类比推理来寻找相似案件,从而为司法提供决策依据或参考,但基于人工智能的类比推理无法离开实质性的价值判断。例如,职业索赔人是否属于消费者?偶尔参与知假买假活动的个体是否属于消费者或职业索赔人?对于此类问题,无论是人类还是人工智能司法要作出妥当判断,都必须依赖价值判断。

从司法价值判断的属性出发,就可以理解人工智能司法应用的特殊性。目前,人工智能系统大致可以分为两类:一类是传统上基于规则的专家系统(rule-based expert system),另一类则是近十几年来兴起的机器学习等预测性算法。专家系统一般由综合数据库、知识库和推理机三个主要部分组成。世界范围内的综合数据库包含求解问题的事实和断言;知识库包含所有用“如果:〈前提〉,于是:〈结果〉”形式表达的知识规则;推理机(又称规则解释器)的任务是运用控制策略找到可以应用的规则。预测性算法主要通过海量数据的训练,不断增加算法决策在概率上的准确性。例如,ChatGPT通过人类监督学习(supervised learning)和强化(reinforcement learning)来改进其反馈,通过贝叶斯等算法来增强其概率上的正确性。在当前人工智能所运用的场景中,很多领域都具有计算性或预测性特征。例如商业个性化推荐、内容生成、自动驾驶、智慧医疗,这些领域的人工智能之所以能替代人类,主要是因为人工智能在这些领域可以比人类提供更为精准的计算或预测。甚至在律所等法律服务业中,人工智能也可以实现更为准确的预测。但人工智能辅助司法审判与这两类人工智能决策都有不同。人工智能司法的特殊性在于它是一种规范性技术,而不是计算性技术或预测性技术。这种规范性技术更接近于莱西格(Lawrence Lessig)教授所提出的“代码即法律”(code as law)的判断,或者荷兰蒂尔堡大学的库普斯(Bert-Jaap Koops)教授提出的“规范性科技”(normative technology)概念,其本质在于司法决策权从人类司法者转移到代码或代码设计者。

人工智能辅助审判的可能性与现实性

如果人工智能并不能增强司法裁判的准确性,那为何还要在司法中引入人工智能?人工智能具有黑箱决策的性质,将司法决策权转移到代码或程序员的手中,人类的司法决策权将被剥夺或减少,司法审判中的问责制将被削弱。而一旦人工智能审判产生错误判决,就可能误导或影响法官或检察官。仅从准确性或客观性的角度出发,人工智能无法给司法带来任何增量,即使只使用人工智能进行辅助,也只会给法官或检察官带来很大干扰,削弱司法体制的正当性基础。为了理解人工智能司法的可能性,还需要从司法判决的可接受性、信息整全性、信息筛选效率、社会效果等角度分析人工智能的比较优势。

1.人工智能司法可能具有更高的可接受性。关于人工智能与人类司法者的比较,尤金·沃洛克(Eugene Volokh)教授曾经指出,应当以可接受性与说服性的标准进行比较,而不是以司法的正确性标准或客观性标准进行比较。因为人们对于何为法律的正确答案往往存在争论,很难有一个客观的标准来比较哪种判断更为正确或客观。但同时,人们可以比较何种司法判断和法律说理更容易为人们所接受。当人工智能给出的司法判断优于平均水平的司法者时,能产出比平均水平的司法者更能被接受与更具说服力的裁判文书时,此时就可以认为人工智能司法通过了图灵测试(Turing Test),甚至可以认为人工智能优于法官或检察官。在对机器具有较高信任程度和文化背景的国家,这类可接受性更为明显。研究表明,很多国家和地区的普通人更为信任机器审判,认为机器审判可能更为准确公正,特别是更不容易腐败。这类观点可能较为简单甚至幼稚,但对于信任机器审判的当事人来说,可能更容易接受人工智能司法作出的判决。

2.人工智能能够提供更为整全性的信息。人工智能系统虽然不能提供价值性判断,但对于相关法律法规与案例的系统化汇集,却可以拓展人类司法的经验边界,使法官或检察官的考虑更为全面。例如对于职业索赔人的法律定位,人工智能系统可以提供不同于法院对于消费者的界定与论证,提供不同于法院关于职业索赔人涉及敲诈勒索罪的案件信息和判决,而这些信息都能为司法者的裁判决策提供参考,使法官或检察官对于相应法律问题具有更为整全性的理解。德沃金曾经在其名著《法律帝国》中设想了“赫拉克勒斯”这样一个理想型法官,认为理想型的法官应当穷尽对法律规则与法律原则的掌握,从而实现对法律的整体性把握。人工智能司法虽然不可能穷尽所有的法律信息,但却可以帮助人类不断接近成为德沃金所描绘的理想型法官。

3.人工智能在信息筛选方面的效率可能更高。二十多年前,凯斯·桑斯坦(Cass Sunstein)教授就曾经提出有关强弱人工智能区分的观点。根据桑斯坦的论述,“强人工智能”可以进行法律推理,可以告诉人类,什么案例和某个案例在事实上是相似的,什么案例应当与个案之间区分开来。而“弱人工智能”可以收集一系列相关案例,提出相似性与差异性的建议,起草相反观点。桑斯坦认为,强人工智能不可能实现,但弱人工智能完全可以实现,并为人类提供有效的类案建议。桑斯坦的分析主要聚焦于类案制度,实际上,无论是对于相关法律法规、司法解释、立法说明的筛选,还是对于类案的推送,设计良好的人工智能都可能为人类司法者提供有效的参考信息,避免人类因陷入信息的汪洋大海而迷失自我。

4.人工智能可能在社会效果评估方面更为有效。在国外,人工智能司法主要被用于判断相关社会风险。例如在美国,北极星公司开发的“以替代性制裁方式矫正犯罪的用户画像管理系统”(简称COMPAS),多重健康系统公司开发的“公共安全评估”(简称“PSA”),劳拉和约翰阿诺德基金开发的“修订服刑级别目录”(简称“LSI-R”)已经成为主流的风险评估软件,美国很多州都在刑事司法中运用这些软件。这些软件起初多被运用于缓刑和假释中的风险评估,如今在保释和量刑中也被广泛运用。在英国,由剑桥大学和杜兰警局联合开发的“危害风险评估工具”(简称“HART”)系统已经在司法中广泛运用。该系统通过数据分析,主要针对一些不需要起诉的轻微犯罪,给出量刑与处置建议,帮助法官作出更为有效的判决,以减少相关人群的未来再犯。从司法效果来看,此类风险评估软件虽然存在不少问题,但的确可以作出比法官更为准确的风险事实判断。例如,有研究表明,肯塔基州采用了劳拉和约翰阿诺德基金所开发的软件,将其应用于审前释放决策体系后,审判前被释放的被告增加了,但被释放的被告被再次逮捕的比例却大幅减少了。俄亥俄州的一个县在使用同样的工具后,不需保释而释放的被告从28%减少到了14%,而那些被释放后再犯的犯人比例则从20%降低到了10%。这些例子说明,人工智能风险评估软件至少有可能作出比法官更好的判决。

综上所述,人工智能虽然不可能带来法律层面的计算准确性和预测准确性,但却仍可能具备若干比较优势,可以作为一种工具辅助人类司法。事实上,如果我们放宽视野,关注社会中普遍存在的各类法律专业数据库和搜索引擎,就可以发现人工智能辅助司法早已经成为社会现实。诸如Lexis、Westlaw这样的数据库系统,早已广泛应用人工智能搜索技术为法官、律师和学者提供更为全面的法律信息,甚至提供参考性的法律建议。例如Lexis、Westlaw的判例库系统中就包含了对美国最高法院相关案例的权威性判断。如果该案的引证以负面否定意见居多,那就会被标记为“强烈负面评价”;如果该案的引证负面和正面意见都有,那就会被标记为“可能负面评价”;而如果该案的引证以正面赞同意见为主,那就会被标记为“可能正面评价”。因此,人工智能辅助审判或人机交互早已不是一个“能不能”的问题,而是一个早已存在如何面对的问题。

人工智能辅助司法带来的制度挑战

把人工智能系统引入司法制度,将带来一系列制度挑战。

1.人工智能司法可能带来规则适用僵化的风险。在司法过程中,规则对于具体案件结果具有重要影响,但却并非唯一因素。法理学的研究指出,法律至少包括规则(rules)和标准(standard),规则强调非黑即白,而标准却强调个案判断的合理性,适用规则还是适用标准各有优劣。适用规则可以带来非黑即白的确定性,但却可能导致规则僵化,不利于作出具有合理性的个案判决。很多部门法也做了类似的区别,例如竞争法、财产法、知识产权法的研究表明,这些部门法中存在大量的标准或所谓的合理性规则(rule of reason),简单适用规则将造成法律体系的僵化。这些研究结论对于人工智能司法发展具有重要借鉴意义。法治应当在个案中结合规则和标准,实现负责任的判断,完全简单依赖规则的法律适用将无法实现真正的良法善治。正如理查德·雷(Richard M.Re)和艾丽西亚·索洛·尼德曼(Alicia Solow-Niederman)两位教授所言,人工智能裁决的结果将会促使司法向“代码化正义(codified justice)”转变,“倾向于标准化而非自由裁量权的裁决范式”。如果简单地以人工智能的裁判规则作为司法的最终裁判依据,那么其结果很可能导致大量案件裁判规则的僵化。

2.人工智能司法辅助系统存在人机决策的权重问题。即对于人工智能给出的信息与建议,法官或检察官需要在多大程度上进行参照?一方面,完全按照人工智能给出的裁判结果作出判决,实际上是将司法判断权转交给了程序员与机器,这并不符合法治的理念与人类司法者的职责。另一方面,如果没有强制性规定,人工智能司法辅助系统又存在形同虚设和添乱的风险。斯坦福大学的一位研究员经过调查后指出,“法官或许会以一种有害或疏忽的方式和系统打交道”,忽视人工智能司法辅助系统的存在。对于自动化系统所提供的司法与执法建议,法官可能不会在意。很多法官认为,此类软件“是由他们完全不熟悉的盈利公司所设计的,而且使用的是他们无法控制的数据”。

3.人工智能司法面临分散制衡决策与统一决策的紧张。在我国的政法系统中,分别存在着横向与纵向的制度设计,从横向来说,公检法机关分工负责,互相配合,相互制约。例如《刑事诉讼法》第7条规定:“人民法院、人民检察院和公安机关进行刑事诉讼,应当分工负责,互相配合,互相制约,以保证准确有效地执行法律。”从纵向来说,我国的司法系统设立不同级别的人民法院与人民检察院,其中法院依法独立行使审判权。从我国的司法制度的这些安排可以看出,我国的司法权并非单一化的。但如果人工智能裁判在司法中被大规模运用,特别是如果各层级的公安机关、检察机关和审判机关都使用同一套人工智能司法辅助系统,那么不同部门和不同层级的法院与检察院就可能作出类似的司法判断,公检法部门的相互制约功能和审级制度就会受到影响。而如果公检法部门与不同层级司法部门使用的是不同的人工智能辅助系统,那么不同部门系统的建议如何协调,也将成为另一个制度问题。

4.人工智能司法将面临算法黑箱决策带来的各类问题。人工智能算法可能会出现系统性偏差,例如在数据库系统的建设过程中,类案检索系统的参数设置可能不合理。人工智能系统也可能会歧视某些特定群体,例如可能对某些“地域与社会经济状态较差的人群”进行系统性歧视。此类歧视常常隐藏在人工智能算法的代码之中,而算法又难以被普通人理解,且还可能受到商业秘密的保护。此外,人工智能所依赖的大数据也可能存在错误或歧视。人工智能司法发展必然建立在过往的案例数据与相关数据基础上,如果数据存在“垃圾进、垃圾出(garbage in,garbage out)”的情形,或被用于训练人工智能司法的判决或数据隐含不公或歧视,那么人工智能所给出的结论也可能存在偏见与错误。在国外,人工智能司法辅助系统所引起的公正性问题已经引起广泛关注。其中最为著名的是威斯康星州的卢米斯案(State v. Loomis)。在该案中,卢米斯因为交通事故逃逸等五项罪名而被起诉,该州的巡回法院在审判时运用了COMPAS系统作为量刑的辅助参照工具,对此卢米斯提起诉讼,认为法院剥夺了其正当程序的权利,没有根据准确信息对其进行审判,而且存在性别歧视的嫌疑。在此案中,威斯康星州最高法院虽然最终驳回了卢米斯的诉讼请求,但法院也对司法过程使用人工智能进行了警示。法院限定了此类评估软件所使用的范围与方式,明确要求此类软件不能被用于“确定罪犯是否被监禁”或“确定判决的严重程度”。对于量刑评估之外的因素,法院要求法官必须明确在判决中进行解释,而且要求法官特别注意此类软件对于少数群体的影响。卢米斯案虽然是发生在美国的个案,但这一案例对于中国人工智能司法建设中的实体公正与程序公正问题具有重要的警示意义。人工智能算法还可能存在程序性问题。算法决策具有两面性,对于信任人工智能的当事人来说,算法决策可以避免司法人员的介入,因而其裁判结果更容易为当事人所接受。但对于不信任人工智能的当事人来说,算法决策意味着对其正当程序权利的剥夺。耶鲁大学法学院教授汤姆·泰勒教授曾在其经典研究中表明,很多时候人们遵守法律是因为程序性的公正。当个体在和司法机关进行互动的时候,如果个体能够有效地参与司法过程,在司法过程中表达自己的观点,那么个体将能更多地信任司法程序的公正性。同样,当司法机关将个体视为有尊严的个体进行对待,那么个体对于司法的结果也将更为尊重。在人工智能裁判中,司法对于个体的尊重将会面临不少挑战,因为个体有可能被视为“一系列的数字和可能性,而不是一个具有尊严的人”。因此,如果人工智能司法辅助系统不注意合理的程序性设置,个体可能就无法感受到对司法的参与;而个人的司法亲历性一旦缺乏,那么即使人工智能给出了合理有效的司法建议,其也无法获得当事人的认可。

司法人机交互决策的制度设计

为了最大程度发挥人工智能辅助系统对于司法的辅助功能,避免人工智能司法系统所出现的种种问题,有必要从多个层面对人工智能司法中的人机交互决策制度进行设计。

(一) 弥散性与人类主体性决策

首先,人工智能司法应坚持其辅助性定位,坚持以法官或检察官为中心的弥散性与主体决策体制。这首先是因为,司法的首要目标在于个案的公平正义而非裁判的效率。在传统司法制度的设计中,就可以看到这一点。例如各国的司法制度都强调开庭审理、原被告进行质证、辩驳的权利,如果仅从司法效率来看,这些制度的设计都无必要,法院只要依据文字材料进行审理即可。司法制度之所以广泛采取这些制度,其主要原因之一是希望通过此类程序更多地了解事实,作出更为谨慎的判断。因此,人工智能辅助司法不应将效率视为其主要目标,不应为了追求司法效率而牺牲司法的审慎。正如伍德罗·哈特佐格(Woodrow Hartzog)等学者所指出,司法“在某种程度上都是没有效率的。它需要花费时间与资源来进行侦查、调查、起诉与审判”,司法的非高效性是良法善治不可或缺的一部分,因为正是司法的非高效性使得法治变得更为谨慎、思辨与理性。

其次,法官或者检察官自带各类司法大数据,并且常常具备人工智能所不具备的各类“隐性知识”和“实践理性”。法官并非法律的机械应用者,或者是某些“传送带”理论中所设想的那种消极法律适用者。相反,法官身上也具有大量的司法信息和数据,特别是对于一些有长期司法经验的法官或检察官来说,由于他们有长期的司法经验,又有丰富的生活阅历,因此他们身上的显性与隐性“司法大数据”更加丰富,对相关司法案例的判断也往往会比年轻的法官或检察官更为合理。而这些知识往往难以通过人工智能或文本的方式进行传授。法理学的研究表明,法官或检察官的很多知识属于“隐性知识”,难以通过书面或形式化的方式加以归纳和总结,就像对于如何骑自行车很难通过文字的方式进行描述一样;其所使用的“实践理性”方法也包含了“掌故、内省、想象、常识、设身处地、动机考察、言说者的权威、隐喻、类推、先例、习惯、记忆‘经历’直接以及归纳”等多种方法,这些方法也难以为文本所阐述。因此,尽管人工智能具备某些特点,但人类司法者也有其独特的信息优势。

再次,人类司法者具有与法律共同体和社会共同体的深度交流优势。法官或检察官身处法律共同体之中,其所接受的法学教育与法律实践深受法律共同体的影响,这使得他们对于法律的理解受到法律解释共同体的影响,对法律的解释将不会过于偏离法律共同体的理解。此外,法官或检察官也是社会共同体的一员,其对于法律的理解与判断必然受到社会普通公民对于法律理解的影响。相比之下,基于人工智能的算法裁判虽然在信息收集的全面性、有效性、统一性等方面具有优势,但却常常难以有效地将法律职业共同体的价值判断及时融入系统中。此外,人工智能在把握社会共同价值观方面也并不擅长,很难将社会共同体的价值观融入司法审判中,并通过司法判决对社会民意作出理性引导。

最后,人类司法者的个性化与弥散化决策也是司法制度的优点。同一审级的法官或检察官对同样一个案件作出不同的判决,这不仅在各国的司法制度中极为普遍,而且在司法原理上也具有正当性。在一些具有争议性的案件中,不同判决可以为法律提供竞争性解释,而且此类不同判决也可以通过上级法院的裁判而实现统一。相反,如果在所有的争议性案件中都只有一种裁判,则一旦此类裁判出现错误,就可能成为整个司法系统的错误,而且由于缺乏不同意见,此类错误将更容易被忽视。相比单一化的司法决策,基于人类司法者的个性化与弥散化决策可以更好地实现分散决策与集中决策的统一。

(二) 实验性与合意性的人机交互权重

在人工智能辅助司法者的共识下,人机决策的各自权重依然是一个难题。一种做法是不给人工智能以任何权重或给予相对微小的权重。在不给人工智能以任何权重的情形下,法官或检察官可以完全不理会人工智能,同时,即使当事人选择利用人工智能辅助决策,司法者也完全可以拒绝。而相对微小的权重则是仅赋予人工智能以提示功能,司法者可以参考人工智能给出的答案,但未必需要重视人工智能所给出的任何建议或结论。另一种做法则是给予人工智能以相对较大的权重,例如要求司法者必须参照人工智能裁判,并在司法者具有不同意见的情形下进行裁判说明、集体复核。当然,在二者之间还存在众多其他中间选项,例如由当事人来选择是否运用人工智能辅助裁判。(1)人机交互决策应通过地方或不同司法机关来进行试点,由不同司法机关自行决定人机交互中的各自权重问题。其原因在于,在人工智能技术仍不成熟但却飞速发展的背景下,人工智能对于司法审判的辅助性效果仍不明确。此时,如果贸然对人工智能的决策赋予过大的权重,而人工智能的辅助效果非常有限,则可能导致人工智能不但不能有效辅助司法者,反而带来干扰司法、影响司法的后果。相反,如果对人工智能决策赋予过小的权重,而人工智能又具有良好效果,则人工智能司法就没有充分发挥其应有的作用。对这一问题保持足够的开放性,赋予不同的司法机关以实验的权限,可以更好地处理人机交互的权重设置问题。(2)法院应整体尊重当事人对于人工智能辅助司法使用的合意选择,但在具体权重上应当自行设置。在配备了人工智能辅助系统的司法机关中,如果当事人合意选择或拒绝人工智能辅助审判,司法机关就应当整体上采纳当事人的意见。但即使当事人合意选择完全采用人工智能的审判结果,或者要求司法机关对不符合人工智能建议的裁判进行集体复核,司法机关也应当有权否定当事人的建议。这是因为,赋予当事人以合意选择的权利,有利于司法权威的提升;而确保司法机关对于人机交互权重的规则设定,则有利于同一司法机关的司法规则统一。目前,我国法院系统也大致采用了这一立场。《最高人民法院关于规范和加强人工智能司法应用的意见》规定:“各类用户有权选择是否利用司法人工智能提供的辅助,有权随时退出与人工智能产品和服务的交互”。这一规定意味着,当事人有权合意选择和退出人工智能辅助系统,但法院仍有权设置人工智能在辅助法官审判中的角色与权重。

(三) 基于部门分工与审级分层决策

智慧司法的不同部门与层级应加强信息共享,促进司法标准的统一化,但司法的统一性应符合司法原理与我国的制度设计。如上所述,我国的横向司法制度设计强调公检法机关分工负责,互相配合,相互制约。这就意味着我国的法律制度其实并未将司法效率作为第一位的目标。相较之下,准确适用法律与公平公正的实现才是司法的首要目标,为了实现司法的公平公正与法律的准确适用,公检法司不同部门在互相配合的同时,应当依法相互制约。司法统一性原则也不应当破坏我国司法系统中的审级制度。审级制度的意义在于确保中央与地方在司法权问题上可以实现良好的集中与分权。一方面,确保全国司法权的统一,具有确保我国法律统一适用的重要意义,这集中反映了我国法律代表全体人民意志和我国单一制国家的特征。另一方面,确保地方各级法院与检察院在法律范围内行使具有地方特征的司法权,有利于我国法律在各地的恰当适用。中国地域广袤,东西部地区、城乡地区差距明显,如果按照全国统一的标准来对所有司法问题进行裁决,并不完全利于实现法律的良好运转,也在实质上违反了法律统一适用的原则。在我国司法的领导决策层面,也可以看到坚持从司法规律来设计人工智能司法的重要性。例如在谈到智慧法院建设的时候,时任最高人民法院院长周强指出,“人工智能在司法领域的应用可以为法官提供很好的服务。但是人工智能不能替代法官的专业,就是人工智能为法官服务,不能够替代法官。”对于智慧检务,时任最高人民检察院检察长张军也指出,“要充分认识到,符合司法机关办案规律、检察机关办案规律,才能成就智慧检务,智慧检务科学化最终要体现在办案质量效率提高、办案能力提升上。智慧检务是要用好智能手段,而不是依赖智能手段。”上述观点表明,我国的智慧司法建设必须要符合司法规律,不能以牺牲司法规律来建设所谓的智慧司法。

(四) 司法决策算法的可解释性与可问责性

1.为应对人工智能算法决策带来的问题,需要加强算法系统的可解释性。如果司法系统因为人工智能算法而成为一个彻底的黑箱,那么不仅法官或检察官不信任这种系统,当事人也可能对这种系统持怀疑态度。更为糟糕的是,在某些极端情况下,此类黑箱司法系统还可能成为司法腐败的根源,某些腐败分子可能通过技术手段来影响和操控司法结果。(1)对于规制人工智能算法的可解释性,一些国家和地区已经开始立法尝试。例如我国《个人信息保护法》第24条第1款规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正”;第3款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”欧盟《一般数据保护条例》也规定,当“存在自动化的决策”,数据主体有权知晓“在此类情形下,对于相关逻辑、包括此类处理对于数据主体的预期后果的有效信息”。数据主体也有权反对“完全依靠自动化处理——包括用户画像——对数据主体做出具有法律影响或类似严重影响的决策”。根据这两条规定,我们可以发现,至少在人工智能司法的场景中,受司法所影响的个体应当具有要求相关主体“进行解释的权利(a Right to Explanation)”:数据主体拥有对相关算法的知情权,而且在人工智能司法的场景中具有反对权。(2)简单采取算法公开的方法,并不能解决算法黑箱带来的司法问题。首先,算法的公开与解释常常面临一些技术性的难题,而且即使公开了算法、进行算法解释,也很难为普通人所理解。正如很多研究所指出的,算法往往由很多工程师通力完成,常常连工程师自身也并不能完全理解。而在人工智能与机器学习崛起的时代,算法的公开与解释将变得更加困难,因为机器学习中的算法常常是根据数据训练而不断变动的,而不是事先设计的。在这样的背景下,即使公开人工智能算法,司法专业人员也可能无法理解,更不用说普通人了。对普通人而言,算法公开“听上去很好,但实际上它可能没什么帮助”。

2.算法公开有可能导致司法中的律师与当事人利用算法进行“算计”。在司法活动中,律师与当事人基于对司法决策的预测而进行策略性的司法参与和辩护,这并不违反法律职业伦理,因为这种预测并不能准确了解人类司法者的内心,法官或检察官仍然具有对案件的自由裁量权,司法过程仍然具备思辨和理性探讨的空间。但在人工智能司法辅助系统中,如果律师与当事人知晓了系统的算法或算法的某些参数,并且以迎合算法或算法参数的方式来影响人工智能裁决,那么此种影响将会在很大程度上左右裁判结果。目前,有的国家和地区已经对此类问题作出立法应对,例如法国在其《司法改革法》中禁止了对于特定法官的裁判可能进行大数据分析与预测,以防止律师的辩护行为建立在迎合特定法官的基础上。在人工智能辅助司法体系中,算法公开也可能造成类似影响。与普通司法过程中的律师与当事人参与不同,在律师与当事人通过设置参数而影响算法结论的过程中,司法的思辨与理性探讨空间将受到很大影响。

3.司法本身就有相对于普通人而言的“黑箱”性质,即使是传统司法,也并非是完全公开的。例如对于庭审过程,各国都拒绝对一般案件进行电视直播式的公开。司法的这种特征固然有一定的弊端,妨碍了普通民众快速准确地理解法律。但这种有限度的“黑箱”也具有众多优点,例如小范围的公开有利于控辩双方进行更为理性的辩驳,有利于法官对于案件进行更为谨慎的判断。在有限公开的背景下,司法裁判也更容易为当事人所接受。否则,如果司法在每个环节均采取完全公开的审判模式,则其过程就可能变成民粹式的大众审判,司法的专业性与权威性将无从保障。

基于以上几点考虑,人工智能算法的公开与可解释性应当有针对性,应当以促进人工智能算法的可问责性为最终目标。对于各类人工智能算法决策体系,应当确保人工智能司法辅助系统从设计到运行的所有阶段都有法律专家的参与。处在后端的各类数据库系统,其可见度往往不像前端的人工智能辅助系统那样受到关注,对于这类系统尤其应当注意强化其可问责性。在一些核心算法上,人工智能司法辅助系统还应当设立法律专业委员会进行审查,以保证其设计符合法律共同体的共识。在审判过程中运用人工智能辅助系统,应当首先向参与司法的当事人解释人工智能司法辅助系统的整体运作机制,确保当事人的知情权与选择权。当事人有权拒绝使用人工智能辅助系统,只有在双方当事人都愿意选择人工智能辅助系统的情形下,法院或检察院才能进行使用。另一方面,一旦双方当事人选择人工智能辅助系统,此时司法机关仅应当承担对于人工智能辅助司法系统进行说明的义务,而非对人工智能算法决策及其结果的说明义务。毕竟,此类情形中的终极裁决者仍然是法官或检察官,而且法官或检察官也不可能理解人工智能算法决策的内在运行机制。

结语:人机交互下的司法理论与司法制度

信息化与智能化是世界大势所趋。在司法领域,应用信息化与智能化来建设智慧司法,已经得到中央的认可,并且检察院、法院等对此也正积极推进。智慧司法可能会给法院与检察院带来一系列的重大突破。但在最为核心的人工智能辅助司法问题上,诸多问题仍然需要深入的学术探讨。例如人工智能司法的特殊性到底是什么?人工智能的优势到底何在,其是否具有辅助司法的可能性?当利用人工智能辅助司法决策时,在制度设计上面临哪些问题,应当进行何种人机交互决策的制度设计?智慧司法建设绝不仅仅是一个技术问题,其必然同时是一个司法理论问题、司法制度或者兼职选择问题。一方面,智能化时代的人工智能司法建设必须满足司法的基本原理,如此才能实现科技为司法服务的最终目标;另一方面,在智能化时代,司法制度设计需要重新思考司法技术问题。科技的变化必然会引起司法决策体制的变化,没有配套的司法制度设计,智慧司法就可能带来司法体制的异化。通过对司法理论与人工智能理论的双重分析,我们可以发现,司法是一种带有价值判断的活动,人工智能司法不同于人工智能在商业预测、自动驾驶、医疗手术等领域的应用,其追求并非预测意义上的准确性,效率也并非其主要目标。因此,人工智能司法在本质上是一种规范性技术,而非计算性技术或预测性技术。人工智能的比较优势在于其可接受性、信息整全性、信息筛选高效性和事实评估的概率准确性,因此人工智能不仅可辅助司法,而且在各类数据库中早已大量应用,只不过这类辅助审判决策机制较为隐蔽,未能引起人们的高度重视。为了更好地应对人机交互给司法带来的挑战,司法人机交互决策的制度设计,应注意处理好智慧司法裁判规则与个案适用、人机决策权重、决策标准统一与制衡、算法决策与算法问责等人机交互的关键问题。在人机交互时代,人工智能司法应当坚持人类司法者的决策与主体责任制,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验与竞争,坚守基于部门分工与审级分层的决策制衡机制,促进算法解释的可问责性而非完全公开。通过设计符合司法原理的人机交互决策制度,智慧司法才可能稳步前行。

-向上滑动,查看完整目录-

《法律科学》2023年第4期目录

【习近平法治思想研究】

1.中国式现代化缘何需要法理诠释

陈金钊(3)

【法律文化与法律价值】

2.法教义学之内的社会科学:意义与限度

雷磊(14)

3.非传统的人权历史叙事方式及其法治意义

任瑞兴(33)

【科技新时代法学】

4.数据财产赋权的立法选择

吴汉东(44)

5.人机交互决策下的智慧司法

丁晓东(58)

6.论生成式人工智能服务提供者的法律地位及其责任

——以ChatGPT为例

徐伟(69)

7.元宇宙的“网信安全”与法律适用

邢会强(81)

8.数字检察的梯次配置与纵深功能

余钊飞(94)

9.论大数据证据的法律地位

周慕涵(104)

【法律思维与法律方法】

10.论机动车融资租赁交易的法律构造

高圣平(115)

11.论以物抵债协议的类型化适用

李玉林(129)

12.论生产经营型夫妻共债的认定

叶名怡(142)

13.食品安全犯罪主客观方面的司法证明

舒洪水(154)

【部门法理与法律制度】

14.债券虚假陈述之作用力与赔偿责任

缪因知(165)

15.消失中的积极释明

严仁群(181)

16.论教育惩戒权的二元三重结构

陈斯彬(192)

《法律科学》是由西北政法大学主办的、面向国内外公开发行的学术性刊物。《法律科学》主要发表法学学术理论文章,辟有法律文化与法律价值、法律思维与法律方法、部门法理、法律制度探微、科技新时代法学等栏目,注重学术性、专业性、知识性。本刊列入中文核心期刊、法律类核心期刊、中文社科常用期刊、法学类最重要的核心期刊、中文社会科学引文索引来源期刊(CSSCI)。

责任编辑 | 郭晴晴

审核人员 | 张文硕 李婉秋

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息网
北大法律信息网
法律综合性网站
9024文章数 17304关注度
往期回顾 全部

专题推荐

永远跟党走

无障碍浏览 进入关怀版