小
中
大
摘要:人工智能正在深刻地影响着我们的生活。人工智能在司法裁判领域也相继展开应用,尤其是在机器人判决文书的撰写以及机器人参与下的异空审判模式改革方面,机器人正呈现愈加重要的应用价值。然而,机器人在变革司法裁判模式的过程中,也带了前所未有的挑战,由此也产生支持者与反对者的激烈争论;其中人(法官)与机器人的边界到底在哪里,以及机器人参与裁判后结果的正义性问题,亦是当下人工智能应用于司法裁判时亟需解决的理论难题。在解决相关理论难题以及为适应人工智能发展需要重建诉讼制度的过程中,应始终遵循法律之公平正义价值追求,并以此为导向寻求在司法裁判中人与机器的黄金分割比例,进而完成机器人算法审查制度建构。
关键词:人工智能;司法裁判
一、问题的提出
我们正迎来一个人工智能广泛应用的时代,它几乎无处不在,涉及生产、生活的方方面面,科幻电影中的场景也正在一步步变成现实。人工智能给了人们对未来的无限期许和可能,以至于法学家们也开始热衷于研究人工智能在法学领域的广泛应用,例如“机器人法官”、“机器人律师”等概念也开始广泛出现在媒体及学术著作中。[1]我们甚至期待着,有一天,机器人可以帮助人类解决纷争,提供永久无偿的法律服务,当然,在一种美好愿望的激励下,对人工智能的感性认知往往会超越理性判断,并越升为社会在某一发展阶段的主流思潮。对于这种美好愿望的回应,产业界的投资也开始涌向了法律人工智能方向。[2]一系列与人工智能相关的产品也陆续开始应用到司法裁判中,北京市高级人民法院借助“睿法官”智能系统提升审判效率[3];上海市法院系统也借助“206”智能案件辅助系统提升司法裁判的智能化水平。[4]总之,全社会对于人工智能在司法裁判中的作用都给予了高度关注与期盼。[5]
当人工智能应用于司法实践中后,人们首要思考的便是,它与法律价值的吻合程度。法律价值作为人类社会对于法律的终极追求,它本身又是一个综合多元的体系,其中包括公平、正义、安全、效率、秩序等诸多价值目标。[6]所有法律制度的设计都需要回答,它是否符合法的价值目标,能否经受社会检验,人们推崇符合法律价值的制度建构。违反法律价值的制度最终都将被修改或者取缔。当人工智能应用于司法裁判时,如果它最终能够更好地实现法律的公平正义,显然,它是与法律价值完全吻合的;同时,如果它最终能够更好提升法律裁判的效率、降低裁判成本,那么,它同样也是与法律价值完全吻合的。[7]当然,公平、正义与效率等价值系需要综合评判的,不可以孤立分析,如果它仅仅只是提升了效益,但最终忽视了公平、正义,显然这与法律价值又将是背道而驰的。
人们寄希望于人工智能应用于司法裁判,并试图借此来营造更加符合法律价值的司法体系,这种美好的愿望同样与我国当下总体的司法环境及正在进行的司法改革进程密不可分的。长期以来,我国司法领域面临案多人少的窘境,司法改革还进一步确立了以“审判”为中心的司法体制改革目标,配套实施的还包括“立案制度改革”、“员额制”等一系列司法改革举措。[8]“有案必立、有案必理”的立案制度改革进一步增加了法院受案数量;[9]“员额制”改革又使得法院审判人员数量受到严格控制[10],这样,在我国司法改革的总体调控下,当下“案多人少”的矛盾又将进一步加剧。于是,借助于人工智能来全面提升司法审判效率的客观需求也就显得十分迫切。[11]
人们呼唤运用人工智能来提升司法效率,其背后真正的力量还在于,司法效率不仅仅代表效率,它本身就预示着公平与正义。试想,当案件久托不决时,长期累诉会进一步损害当事人的权益[12],矛盾久托不决甚至还可能进一步衍生更大灾害[13],因此,当人工智能可以提升司法效率时,它又在实质上加速了人们获得正义的周期,所谓“让正义以人们看得见的方式早日到来”。 [14]事实上,人工智能对于正义的追求还远不止于此,人们强化人工智能在裁判中的作用,同样也是源于对人们对人情影响案件公正审判的巨大忧虑。[15]相比之下,人们更信赖机器基于数据和算法所形成的客观结果,尽管它还不尽如人意,至少它在每个人面前是绝对公平的,更为重要的是,它还不会受到说客和人情关系的影响。[16]传统的法律面前人人平等的原则受制于人情关系的影响,由此也产生了“去人情化”,转而更信赖技术的社会治理思潮,受这一思潮的影响,机器人法官更是倍受很多人强列推崇。[17]
总之,在人工智能时代,人们寄希望于机器人可以帮助人类更好实现法的公平、正义、效率等价值,也正是在这美好愿望的憧憬下,人工智能应用于司法裁判已成为当下社会聚焦的热点话题。需要指出,人工智能应用于司法审判势必成为一个严肃的司法理论与实践课题,它需要在实践中被反复论述、检验。简言之,人工智能到底能在多大程度上解决司法裁判的问题,以及在这一过程中人与机器的边界到底在哪里?为了更好地研究这一问题,我们在十余年前便成立了人工智能法律实验室,对于人工智能能在司法裁判中解决什么问题,及如何解决这些问题,进行了大量的人工智能实验,其中实验室推出的“环形思维中文法律语义解析”正逐步应用于我国司法实践的各个领域,本文亦将基于实验结果进一步论述人工智能在司法裁判中的应用价值、局限以及路径选择等理论问题。
二、人工智能与司法裁判之变革
人工智能在本质上是模拟人的神经网络去布署计算机的人工神经网络,在这一过程中机器人基于对以往数据完成的深度学习,进而完成类人的“思考”与行为。契合到法律领域,历经了长期的立法和司法实践,我们已经拥有了大量的法律和裁判文书数据,这对于机器学习而言具有重要意义。[18]涉及司法裁判中对于数据的运用,大陆法系和英美法系又呈现出不同特点,大陆法系偏重于对法条的检索和应用,例如在我国,在面对一个具体案件时,既有法律法规以及最高人民法院的司法解释往往会成为法官们据以裁判的重要依据;相比较而言,在英美法系实行判例法,既往的判例对于法官和律师都具有比较大的影响。当然,两大法系的法律文化也呈现相互交融的趋势[19],比如我国在司法改革中也进一步强调司法判例的重要参考作用,最高人民法院还会专门汇编司法指导判例,以期指导全国法院的司法审判工作。[20]
无论是裁判文书、法律法规抑或是学者们撰写的文学经典著作,都成为“喂养”机器人十分宝贵的“食物”, [21]机器人也正是在对既有数据深度学习的基础上才渐进形成类似于人的思维模式。我们在实验室进行法律机器人的训练中,更聚焦于法律语言的环形思维理解方面。相比较英文而言,中文语义的分词歧义现象更为严重,尤其是在法律语言方面,其内在大量的专有词汇及其复杂的逻辑语法关系,更成为“自然语言理解”方面的难点问题。历经十余年,我们实验室在法律语言理解方面取得重大突破,并且在“环形法律语义分析”的基础上拓展更为广泛的人工智能法律应用。[22]总体而言,当下在司法裁判领域,人工智能主要在以下两个方面凸显了较为强劲的应用价值:
(一)判决结果的产生:从人工到智能
机器人能否像人一样撰写出专业的法律文书,这是我们在实验室的重要实验课题。当然,对于这一问题的研究,我们首先是从撰写律师专业的代理意见开始着手的。我们在一部叫“FILE”的机器人身上进行了大量的实验,最终它可以在知识产权领域为律师撰写专业的代理意见。[23]
不同于律师的代理意见,法院的判决书还需要综合各方面的意见,它并非是一方利益诉求的无限延展,其价值体系中应当包含公平、制衡的理念,我们实验室正在展开这项研究。实践证明,在未来,它极有可能取代法官完成判决书的撰写。一个优秀的判决包含二个核心要素,一个是结果要公正;一个是论理要充分。要让机器人完成撰写判决书,就需要在这二个方面下功夫。与ALPHGO下围棋相比,它涉及对人的行为的价值评判,这并非是一件容易的事情。
首先,在对结果公平方面,我们让机器人学习既往与此相关的大量判例,数学中的一个重要的定理——正态分布定理,事实上,机器人基于正态分布及一系列的数据原理,可以完成对于前人经验的汲取,对于类似案件,其所完成的判决结果呈现既不偏激,也不保守的均衡态势。
基于机器学习的需要,我们可以把案件总体上分为二种:个性化案件和共性化案件;像“故意杀人罪”,每个案例发生的背景、人物关系、被告人的内心演变都存在极强的个性化特征,此类案件可以称为个性化案件,即使用数学原理和统计学原理亦难以找到神经网络的建构规律,当前,此类案件用于机器学习的效果并不理想;相比较而言,像交通肇事罪以及知识产权类侵权案件,可以划归到共性化案例,借助于数学原理可以实现其神经网络的建构,此类案件机器学习的效果比较好。我们在知识产权类案件中做了大量的实验,我国当前90%的知识产权侵权案件适用法定赔偿原则[24],即原告方难以找到被告方侵权赔偿的相关证据,于是法官们在判赔时主要适用知识产权法律上的“法定赔偿原则”,即由法官在法定赔偿额以下进行自由裁量。在此类案件上,人工智能借助机器学习的原理会给法官提供强有力的裁判范示参考。
第二,机器人在撰写裁判文书时,还需要完成逻辑论证。仅有结果而缺乏论理的判决不能称其为正义的判决,因此机器人有撰写判决时需要阐述论理过程。我们在实验室完成的大量实验来看,机器人基于对原有同类案例的学习之后,完成论理描述系完全可能的。机器人撰写论理部分时,不仅需要参考既往的案例,还需要结合本案的基础事实。在以犯罪四要件为模型的建构的神经网络中,机器人会汇总本案全部事实,在针对一项具体犯罪指控中,完成对犯罪主体、犯罪客体、犯罪主观方面、犯罪客观方面的论述;在这一过程中,机器人的任务系将本案的基础事实与法律规范紧密结合在一起,进而完成判决的论理部分。
当然,机器人的论理并非系取代人类的论理,尤其是在涉及到情感性的论理部分,法官仍需基于自身的价值观完成论理说明,但机器人的论理的价值也不容小觑,一方面,对于专业性案件,机器会在论理中学习此前法官的论述,这对于该案法官具有较大的借鉴和补充意义;另一方面,对于常规性案件的论理,机器人还可全面提升法官的工作效能。
(二)庭审模式的变革:从“同空模式”到“异空模式”
借助于人工智能技术,诉讼各方当事人可以随时、随地在不同空间内完成整个诉讼程序,此种审判模式被称为“异空审判模式”。与“异空审判模式”相对应的是当下主流的“同空审判模式”,即法官在指定时间召集原被告各方在指定地点(一般为法院的法庭)完成庭审(以下简称“同空审判模式”)。现场审判模式对于“场景”有着极高的要求,它要求所有人员(法官、当事人、证人)均处在同一空间内,这有助于庭审各方准确地接收和理解信息,法官甚至可以基于当事人的整体表现(包括肢体语言、表情等细微环节)洞察案件事实真相。与此同时,同一空间还可以营造法律权威气氛,比如判决时需要全体起立等,这对于建构公民的法律敬仰都具有重要意义。
然而,同空审判模式所造成的诉讼成本倚高的现象日益凸显,它要求每个诉讼事人都需要在指定的时间到达同一地点,由此导致了诉讼成本增加的问题。进一步而言,同空审判模式下的诉讼成本不仅仅包括当事人、证人需要在指定时间内到达某地所要花费的时间成本和财务成本;其中还包括押送被告人到庭的安全成本、由此所需要花费的司法成本等。鉴于同空审判模式所导致的诉讼成本偏高的情况下,在我国当下的很多案件(甚至是刑事案件),原本应当出庭的接受质证的证人最终被一纸证言所取代,原本当事人及律师对于证人询问、质证、辩护的权利也因此而受到严重影响。
如何能够让诉讼各方当事人不受空间限制,身处任何地方均可参与诉讼,这正是异空审判模式所追求的目标。我国相继在北京、杭州、广州等地设立了互联网法院,在个别案件上其所适用的在线审判模式可以理解为系对异空审判模式的大胆尝试。[25]当然,在线审判模式与异空审判模式并非系同一概念,在线审判模式可以理解为异空审判模式的萌芽阶段,事实上,异空审判模式对于人工智能与参庭审提出了更高要求,其包含如下特征:第一,适用机器人完成远程立案,当事人远程提交立案材料后,可由机器人完成审核并完成自动答复,只有那些在立案中个别的疑难问题才由人工完成审核;[26]第二,适用机器人完成诉讼咨询和引导,当事人可以随时与机器人完成沟通咨询,以期随时了解诉讼进程及完成相关法律咨询;[27]第三,借助机器人完成异空庭审,支持异空庭审成为现实的恰恰是其背后强大的人工智能技术,例如借助于人脸识别等人工智能技术实现诉讼各方当事人身份认证,再如借助于语音识别及自然语言处理等技术,实现庭审的自动记录等功能;第四,借助机器人完成当庭判决,机器人可以帮助法官撰写判决书的原型,这一切又使得当庭判决成为可能。
三、人工智能应用于司法裁判的法理困惑
当下对于人工智能应用于司法裁判,总体上分为二个派别:支持派与反对派。支持派凸显人工智能应用于司法裁判的价值,并试图将价值论应用于司法裁判的全流程;[28]反对派并非完全否认人工智能应用于司法裁判的价值,他们更测重于强调人工智能应用于司法裁判同时会带来的负向价值,其中较为典型的便是机器审判人类的法律危机。[29]事实上,无论是支持者还是反对者,在人工智能应用于司法裁判的过程中,都存在着将其正向价值或负向价值推向极端的倾向,由此也暴露了人工智能应用于司法裁判的二对主要矛盾:第一,反对者侧所揭示的矛盾:人工智能介入司法裁判后,法律效率与法律正义之间的矛盾;第二,支持者侧所揭示的矛盾:现有算法的局限与人工智能极至扩张之间的矛盾。
(一)反对论下的“效率价值”与“正义价值”之间的矛盾
在人工智能应用于司法裁判的场景下,涌现了诸如“机器人法官”等新型概念。“机器人法官”首先就面临着机器是否有权审判人类的质疑。[30]的确,无论奉行何种社会治理结构,审判机构及审判权的产生前提均是基于对人类社会自身治理的需要,其目的在于实现人类社会自身的秩序、安全、权利等终极价值,其理论前提自然归结为人是社会的主宰;在这一过程中,审判者与被审判者地位仅仅是由社会治理的需要而决定的。在“社会契约论”理论中,这一切是由人类社会共同协商的结果,总之,在审判权主体问题上,迄今为止,人类社会唯一可以接受的主体只有人本身,任何除了人本身的物种来审判人类都势必遭受到审判合理性的质疑。
不过,这里有必要澄清,在我们所处的漫长的“弱人工智能”时代[31],所谓的“机器人法官”并非是在我们人类法官之外的一类新型物种,它独立于人类法官单独完成审判的可能性也仅仅只是存在于科幻电影中,更多情况下,机器人法官系作为人类法官的辅助而存在,“人机合作”的审判模式或将成为常态,而并非是由机器独立完成对于人类的审判。在这种人机合作的审判模式下,事实上,人类法官与机器人是有分工的,机器人会基于一个具体案件的证据和事实作出初步结论(比如民事案件中赔偿数额,抑或是刑事案件中的量刑幅度),与此同时,机器人还会基于这一结论实现论证分析。即便如此,该案最终应当如何判决,仍然是由人(法官)来完成的。即便“人机合作”的模式下,人系作为裁判的最终决定者出现的,但这种审判模式仍然无法完全回避公众对其否公平性的质疑。
事实上,公众对于判决公平性的一切忧虑,都源于机器人在判决过程中所发挥的重要作用。在“人机合作”模式下,机器人虽未能达到与人具有同等法律地位的地步,但它的作用已经远远超过了传统“工具论”中工具范畴[32],基于深度学习而实现的“自我决策”可以让机器人更大程度地影响法官,具体而言,在人机合作模式中,机器人基于对以往案例和法规的学习,进而给出的法律建议会对法官有较大的影响。这种影响甚至又通过以下方式影响法官作出最终的判决:第一,当机器人的建议与法官基于经验所形成的感觉大体相当时,机器人的建议甚至可能会成为最终的判决结果,事实上,在这一过程中,机器人决策会强化法官自我判断的内心确信,机器人也成为法官下决心作出某项判决的强力推手。第二,当机器人的建议与法官经验相佐时,法官一般会进一步沉淀和检讨自己的思路以便审慎作出判决;在这一过程中,机器人的决策可以有效降低法官基于个人视野和经验的局限性而武断作出判决的可能性;当然,法官对于个案特殊的把握方面同样具有机器无法比拟的“经验”和“情感”优势,即便法官最终仍然按照自身理解作出与机器人判断相佐的判决,机器人所彰显法官“参谋”作用同样不能忽视,其更为重要的理由还在于,法官往往会在与机器决策相互比较的过程中进一步加深对案件的理解,抑或是基于机器人决策部分修正了自己的观点。第三,当法官对某一案件的经验不足时,机器人往往还会发挥法官“顾问”的作用。在这一场景下,法官往往会较大程度地采用机器人的决策建议。
正是由于机器人对法官判决存在较强影响力,机器人决策过程中的合理性也就成为“机器人法官”话题下论辩的焦点。在法律价值体系中,有关“效率”与“公平”的价值争论总是如影随形,当机器人法官、异空审判模式大量应用于社会实践中时,机器人决策公平性的话题也开始受到责难和质疑,其中具有代表性的学说当属“算法黑洞”。 [33]“算法黑洞”指机器人决策过程系完全不透明,在机器人制作过程中,其算法往往被商家视为商业秘密;事实上,即使商家将其算法公开,对于绝大多数而言,作为机器人算法存在基础的数学原理和计算机代码仍然属于无法理解的“黑洞”,这样,机器人的决策过程又被划入一个未知的范畴,被告人的抗辩理由自然也就指向“算法黑洞”,抑或是类似于如下的辩护:“尊敬的法官,今天我唯一知道的,便是法官在判决过程中使用了机器人;然而,我完全不知道的,是机器人如何作出决策的,它合理还是不合理?基于’算法黑洞’,一定存在这种可能:我被一个错误或违法的机器人决策所误判,而今天的庭审恰恰就是在这种误判的可能性中完成的,因为有了这种可能性,今天的判决永远无法成为正义的判决。”[34]
还需指出,有权知晓诉讼的决策过程,这理应成为诉讼当事人的基本权利。在机器人不参与诉讼场景下,当事人的这一权利受到严格保障,诸如,当事人有权知晓合议庭的组成人员并有权提出回避;当事人有参与诉讼的权利;当事人在诉讼过程中提交证据及质证的权利;当事人还有参与法庭辩论的权利(刑事案件中当事人享有辩护的权利)等。然而,一旦当机器人可能会影响判决结果后,表面上,诉讼当事人原本对针“人”(法官或者对方当事人)所享有的一切诉讼权利(如提出回避或者质证),都可以延及到机器人,然而,其算法黑洞的存在却又让诉讼当事人没有办法针对完全不知悉的算法提出回避或者质证。那么,面对当事人提出的算法黑洞的质疑,法官往往以“算法仅是参考,而最终又是由人作出判决”的理由来辩驳,事实上,这一说法还无法彻底破解“算法黑洞”理论困惑,其道理在于,凡是能够影响诉讼结果的因素,哪怕是案件中涉及的一项证据,当事人都有权提出质疑;一旦在诉讼中存在当事人无法质疑的因素,诉讼的允平性自然也就难以保障。
(二)支持论下的“算法局限”与“裁判扩张”之间的矛盾
司法裁判总体上可以分为“事实认定”、“法律适用”、“作出判决”等几个环节,人工智能在上述环节中到底能解决什么问题,人与机器的边界到底在哪里?这些都是亟需回答的问题。为此,我们在实验室进行了大量的人工智能实验,并试图将人工智能应用于司法裁判的各个环节,大量实验证明:基于当下人工神经网络的算法,人工智能只能解决司法裁判中的某些具体问题,还很难贯穿于司法裁判的各个环节。
1.事实认定与算法局限
事实认定是法官作出判决的基础,也是案件庭审中面临的首要问题。在事实认定的过程中,证据是一个极为关键的问题,诉讼参与人总是寻求有力的证据,试图还原一个对自己有利的“事实”,法官最终也是基于全案证据分析,完成对案件事实的认定。当然,在刑事案件与民事案件中,法官所追求的证明标准是不同的,在刑事案件中,法律往往要求“完整”的证据链以及100%的证明标准[35],在未能实现该证明标准时还会面临疑罪从无的法律后果;在民事案件中,法律更要求法官的内心确信,抑或是奉行超过50%的证明标准即可判决的法律原则[36]。这里的问题在于,如何教会机器人学会像人一样基于对全案证据完成对案件事实的准确认定。
关于用人工智能完成事实认定,我们是从一个单独的证据认定开始的,比如通过机器学习让机器人对笔迹的真伪作出鉴定,这种“真与假”、“是与非”的判断可以被归纳为“线性逻辑”[37]判断,在这方面,机器人表现比较好,它通过对当事人以往字迹的学习找到其签字的特征,并据此对于笔迹真伪给出更为准确的判断。然而,在另一个关于合同真伪的判断中,即使当事人的签字是真实的,该案还涉及到对当事人意思表示的判断,比如当事人提出自己是在被胁迫的情况下签字的,那么,当事人是否遭受胁迫的问题,机器人是难以判断的,即使当事人拿出被胁迫的证据,比如一段录音,这段录音能否证明当事人遭受胁迫,还需要综合判断录音发生的背景,录音中事件与签约之间的逻辑关系,这便涉及到人的“非线性逻辑” [38],在这方面,机器人还难以作出令人满意的表现。
需要指出,在整个证据体系中,绝大多数情况下还需要“非线性逻辑”判断才能作出更准确认定,它具体表现在:第一,涉及单独证据的“非线性逻辑”判断方面,如需要对一个证据的三性,即“真实性”、“合法性”、“相关性”等方面进行综合认定[39],在这方面,机器人的作用还是极为有限的;第二,任何一个证据都不是孤立存在的,它还涉及与其他证据之间的关联与冲突,再比如针对证人证言是否采信的问题上,不仅仅需要分析证人证言与本案的关联性,还需要分析证人证言中是否存在矛盾的表述,这种非线性逻辑的判断,需要人基于自然常识、社会规律、人情事故等方面的多维深入理解作出判断,在这方面,现有的算法还存在较大局限性;第三,针对事实认定的复杂性,还体现在对全案证据的综合判断。针对诉讼各方提交的证据,法官需要从中梳理出:哪些可以采信,哪些不能采信,哪些相互印证,哪些存在矛盾,从而对本案事实作出最终认定,这更是需要“非线性逻辑”分析,现有的机器人算法同样是难以驾驭的。
由此,随着人工智能算法的逐渐提升,人工智能在事实认定领域的应用势必还存在如下二个重要历程:第一,从单独证据的独立属性(如真实性)分析走向单独证据的综合属性分析,即机器人通过对某一证据的“真实性”、“合法性”、“相关性”的综合判断,进而得出该证据是否应予采信的结论;第二,从独立的证据分析到案件事实的综合分析。当下人工智能的算法还只能应用于第一历程,并且还只能适用于第一历程的初级阶段,即仅对某一证据的独立属性作出分析。显然,人工智能应用于事实认定领域还处于萌芽阶段,受到当前算法的局限性,更多有关人工智能应用于事实认定在相当时期内还将处于试验和理论研究阶段。
2.法律适用与算法局限
将人工智能应用于法律适用领域,其前提在于:一个既定的法律事实已经确定,而机器人所要解决的问题在于:第一,它会基于既有事实的分析来选择最符合案件情况的法律;第二,机器人试图回答最佳的判决结果。让机器人学会如何适用法律以及依据适用作出裁判结果,这同样需要让机器人大量学习此前实际发生的案例,尤其是在这些案例中法官适用法律的过程以及裁判结果。相比较“事实认定”的“非线性逻辑”特征,法律适用更趋向于机器擅长的“线性逻辑”属性,因此,人工智能会首先在法律适用领域发挥其价值,包括:第一,基于一个特定事实寻找到最匹配的法律规定,当然,这里的法律规定并非是一个独立的条文,而是一个用于解决该案的系统性规范体系,比如一个在盗窃游戏币的案件中,除了刑法中关于盗窃罪的规定,对于像QQ币这样的虚拟财产的法律属性等规定都应当纳入机器人的视野,事实上,相比较人而言,机器人帮助建构一个用于解决具体案的法律体系也是它在法律适用领域的重要贡献;第二,机器人基于建构的法律体系完成判决逻辑。机器人根据一个具体的案件完成适用法律体系建构的目的,决非仅仅是帮助法官完成法律检索,其作为机器人的重要史命还在于将适用法律体系应用于一个具体案例,进而形成具体的判决逻辑。训练机器人具备“判决逻辑”,这也是建构法律适用型“神经网络”的关键所在,一旦机器人具备了判决逻辑,它便可以对一个既定的案件事实作出法律评价(判决)。
相比较事实认定而言,人工智能在法律适用领域体现出更为强劲的应用价值。尽管如此,仍有必要揭示其在法律适用方面存在的算法局限:
其一,对于新型案例,机器人还难以建构“判决逻辑”。机器人判决逻辑的形成系基于既有大量判例的学习[40],因此,对于既往判例中重复出现的事实,机器人更容易形成准确“判决逻辑”,并据此完成最终判决结果的分析。然而,对于新型判决,由于在机器人既往学习的体系中缺少相关判例,自然也就难以建构起对应的“判决逻辑”,故而,对于新型案例,依赖机器人完成判决分析仍然是一件十分困难的事情,在相当长的时间内,它还主要依赖于人的经验、价值观及其对于法律的理解来完成具体判决。当然,随着法官对于类似案件判决的累积,最终也会帮助机器人建构此类案件的“判决逻辑”。
其二,法律的变动(旧法的废除或者新法的诞生)也会引发机器人“判决难题”。随着社会发展,法律总是在不断修改和完善当中,其中包括旧法的修改、废除抑或是新法的诞生。需要注意,机器人既有的法律逻辑系根据已发生的判例事实以及当时的法律规定共同建构而生,然而,当法律发生变动时,原有的法律已不适用于相关的事实,这样,机器人既有的法律逻辑也就无法再适用于相关事实,机器人会因此产生“判决难题”。事实上,类似的判决难题在人类法官身上同样存在,法律发生变动时,法官们同样需要完成再学习,进而才能即时更新判决思路,如果惯性地适用以往的经验完成判决,势必会导致判决错误。在实验室完成的类似的实验中,那些基于已废除法律的判例又称为机器学习的“无效样本”,基于无效样本完成的神经网络建构同样需要即时优化和升级,唯有基于新法完成人工神经网络的重新建构,方能使其胜任新法背景下的判决逻辑。
四、人工智能应用于司法裁判的路径选择
(一)人工智能应用于司法裁判的黄金分割理论
1.情感价值与法律价值的二元分割
司法裁判充斥着法律与情感的交织。除了定纷止争,司法裁判还承载着说服、教育、以案释法等多重法律功能,在这一过程中,司法裁判需要彰显十足的情感比重;即使在定纷止争方面,还存在“判决”、“调解”等多种结案形式,在适用调解结案时,法官的情感说理十分重要[41];在以彰显“情感”为主的判决中,法官在判决理由中的情感表达亦构成判决论证的重要组成部分。[42]总之,人工智能适用于司法裁判的过程中,有必要完成情感与法律的要素分割,从而准确地划分人工智能的适用空间。人工智能赖以存在的科学基础系数学和统计学,故而其凸显的是计算能力,如果说它能够对于案件中的法律问题准确分析的话,那么对于其中的情感问题,数学和统计学可以发挥的空间则相对有限,至少目前,人的情感价值还很难借助于数学公式完成精准计算。因此,在人工智能适用于司法裁判的过程中,将情感的问题交给人,将法律的问题交给机器人,进而完成人与机器在情感与法律二元体系中的黄金分割,这对于准确回答在司法裁判中人与机器的边界问题具有重要意义。
2.事实认定与法律适用的二元分割
法律裁判的过程中总体上可以分为“事实认定”与“法律适用”二个重要环节,其中事实认定会涉及到对于全案证据的综合认定,既需要对证据的多重属性作出整体评价,还需要对全案证据进行综合评价,故而事实认定整体上属于“非线性逻辑”范畴,任何人工神经网络的一维建构,都难以解决如此复杂的事实认定问题。相比较而言,法律适用的核心则在于训练机器人的“判决逻辑”(形成判决结果的规律),机器人一旦拥了类似的案件的判决逻辑,其便可针对同类案件完成判决结果分析,相比较事实认定而言,法律适用更偏向于“线性逻辑”。当下人工智能的算法还主要用于解决线性逻辑的问题,故而在事实认定与法律适用的分工方面,其案件事实认定的部分还应主要由人来解决;然而涉及法律适用的问题则主要由机器人来解决。
还需指出,关于人工智能神经网络中“线性逻辑”与“非线性逻辑”的区分亦是相对的,随着人工智能算法的演化与升级,原本属于“非线性逻辑”的也可能划归到“线性逻辑”的范畴,以笔记鉴定为例,在人们还没有找到其线性规律之前,其属于“非线性逻辑”,然而一旦人们找到其机器学习的方法,则又将其划归到线性逻辑的范畴。涉及事实认定与法律适用的问题同样如此,随着人工智能算法的渐进提升,在事实认定领域那些原本属于“非线性逻辑”的问题也将转归“线性逻辑”范畴,按照这一规律,随着人工智能算法的不断突破,机器人也将能够解决更多事实认定与法律适用的问题,人与机器的黄金分割比例也随之发生变化。
3.新型案例与常规案例的二元分割
在社会演进的过程中,生产力的发展引发生产关系的变革,由此也会诞生系列的新型案件。在司法裁判中,常规案件更多依赖机器人解决,以期发挥机器人基于以往案例的学习经验;新型案件更多依赖人来解决,以期在缺乏基础数据的情况下,更多发挥人的价值判断,如此分工更符合法律公平正义的价值追求。
进一步而言,发挥机器人在常规案件中的主导作用,主要是从以下两个方面发挥机器人的决策能力:第一,机器人基于对同类案件的学习,可以总结出既住判例中法官们适用法律的倾向性意见,从而为本案法官提供权威参考,比如在一起涉及购房合同效力的纠纷中,机器人可以基于既往判例的学习总结出主张无效或主张有效的观点分歧,进而为本案法官提供更权威的参考,从而让法官更加精准地理解和适用法律。第二,机器人基于对同类案件学习,可以总结出在既往判例中法官们的判罚尺度,从而为本案法官提供权威参考。无论是民事案件赔偿金额计算或是刑事案件中量刑的判罚,因其在实质上涉及当事人的权益,法官们都需要在法定幅度内完成更加精准的判罚尺度。与此同时,基于公平的原则,同类案件也应彼此顾及和关联各自的判罚尺度,从而呈现同案同判的公平样态。
还需指出,新型案件与常规案件的划分也是相对而言的,新型案件发生多了,也就变成了常规案件。由此,人工智能适用司法裁判的过程中,人与机器的黄金分割并非一呈不变,它总是随着新型案件的演变而发生变化。
(二)基于机器人自我决策的算法审查制度建构
在人工智能适用于司法裁判的场景中,无论人与机器的黄金分割点定在何处,可以确定的是,总有一部分归属于机器人的自我决策。机器人的分析结论会在很大程度上影响法官的判决,甚至在某些情况下,法官还可能会直接援引机器人的决策结论作出判决。那么,针对当事人提出的“算法黑洞”的法律质疑就需要予以有效解释,否则判决的公允性就会缺乏基本的法理支撑。基于诉讼程序的公允性出发,诉讼当事人自然有权利对机器人的算法提出质疑,尤如其有权利对于合议庭的法官提出回避事由,然而机器人算法的专业性和保密性又几乎回绝了当事人质疑的权利,因此,问题的关键还在于,如何切实保障当事人对于算法提出质疑的权利?为此,有必要构建机器人算法审查制度,该制度具体又包含如下内容:
1.人工智能算法公开制度
算法可以说是人工智能时代机器人的核心技术,机器人企业自然会对基于算法而产生的知识产权严加保护,其主流的保护方式包括计算机版权保护、计算机程序专利保护以及技术秘密保护。对于底层算法中最为核心的部分,除开源软件外,企业大都将其纳入到技术秘密的保护范畴。然而,应用于司法裁判中的机器人,因其决策会影响当事人的财产权利与人身权利,故而在对其算法技术秘密保护方面应奉行有别于一般商业机器人的原则,简言之,应用于司法裁判的机器人算法理应向社会公开。
进一步而言,司法裁判机器人的算法公开应当遵循“全面公开”、“网络公开”、“初始公开”三项原则:首先,其“全面公开”强调的是,与算法有关的一切要素均应毫无保留地向社会公开,包括但不限于与算法与关的数学公式、与算法有关的计算机编程代码、与算法有关的产品设计理念等要素的公开。[43]之所以要强调全面,旨在于在当事人提出质疑时,其所聘请的技术专家能够较为透彻理解该算法的运算规则,以及准确评估其对于当事人权利的影响程度。其次,其“网络公开”强调的是其所公开的信息能够以公众较为方便的“互联网”方式获取,并且在获取的过程中不应对公众设置任何障碍。最后,其“初始公开”强调的是,其应当在司法机关使用初始即公开,而不应当仅仅只是在当事人提出质疑时才公开,初始公开的好处则在于,方便公众从一开始就对算法提出质疑的权利。
2.人工智能算法裁决制度
基于算法公开,诉讼当事人可以拿到”算法“,并且在专业人员的帮助下提出质疑,然而,在诉讼当事人对算法提出质疑的情况下,就需要由专业的算法裁决机构做出评判。我国当下还没有专门的算法审查机构,为此已有不少学者强烈呼吁要构建算法审查机构。的确,在人工智能时代,算法几乎无处不在,产品与算法的高度融合,致使原有的大量的产品责任已迭代为算法责任,可以预期,未来关于算法裁决的需要亦越加迫切。同样,在司法裁判领域,诉讼当事人一旦对机器人算法提出质疑,则需要一个专门的算法裁决机构完成审查和裁决。[44]
事实上,在涉及司法裁判机器人算法裁决问题上,除了利害关系人有权提请算法裁决,社会公众同样有权提请算法裁决。基于算法的初始公开,诉讼之外的社会一般公众亦可监督算法的公正性,同样有权提请算法裁决,从而保证机器人的算法始终处于公开和受监督的状态。当然,针对利害关系人与社会公众提请裁决的程序设计方面又应当有所差异,前者系基于对自己利益的关注,后者则是基于社会公共利益的关注,故而在申请算法裁决的受理条件、法律时效等制度设计方面应存在必要差异。
还需指出,在涉及司法机器人算法裁决的问题上,其裁决的要点还主要在于算法本身是否违反了案件公正裁判赖以存在的真实、平等(无歧视)、合法等基本原则。所谓”算法真实原则“,旨在于强调算法的分析结果所呈现的是一个真实的样态,如果基于算法的演绎结果系不真实抑或是不全面真实的,都将违反这里的算法真实原则。所谓“平等(无歧视)原则”,旨在于强调算法以及基于算法的决策过程及演绎结果不能导致任何有关“年龄、性别、民族、受教育程度、户籍”等方面的歧视,其“算法平等(无歧视)原则”根植于法律面前人人平等的原则。所谓“合法原则”,旨在于强调算法以及基于算法的演绎结果应当符合我国既有的法律规范,尤其不能违反法律、行政法规的强制性规定,例如,我国《合同法》针对民事合同效力作出了详细规定,那么机器人在解释相关问题时,理应遵循《合同法》之相关规定完成机器人思维和逻辑建构。
3.人工智能算法救济制度
基于司法裁判机器人算法裁决,主要包括两种结果:第一,算法本身完全合法;第二,算法本身违法,例如违反了“真实、平等(无歧视)、合法”等其中的任何一项或几项原则。一旦算法本身被确认为违法,其会自然产生的系列法律后果便是该司法裁判机器人的算法应当停止使用或者被修正。
作为利害关系人,他更关注,算法本身违法与其此前的判决之间的关系,简言之,利害关系人希望通过算法违法的裁决撤销此前法院作出的对其不利的判决。事实上,算法本身违法与此前判决违法之间并非系必然的因果关系,例如机器人的算法的确会在某种情况下导致信息汇总不全,然而在涉及利害关系人的案件中,该机器人并未出现信息汇总不全的情形,抑或者该信息汇总不全并未在实质上影响最终判决,诸如此类,机器人算法违法并未实质影响利害关系人的判决,如此,利害有关系人并不能据此来主张撤销此前的判决。
当然,法律应当允许利害关系人在提请算法裁决的诉讼程序中,一并提请“算法违法与判决结果之间存在因果关系”的诉请,该项诉请亦可由算法裁决机构一并审查。一旦算法裁决机构认定算法违法与判决结果之间存在因果关系,如此结论对于利害关系人提请撤销此前判决具有重要意义。
五、结语
尽管人工智能正在深刻影响着我们的生活,接下来相当长的时间内,我们还将处于“弱人工智能”时代。因此,本文对于人工智能应用于司法裁判的法理思考,完全系基于当下的时代背景完成对系列现实问题的讨论。至于,人工智能参与庭审的主体资格问题、人工智能的审判意识等更为抽像的法律问题,并不作为本文论证的重点,绝非不是因此这些问题不重要,而是由于这些在“强人工智能”时代才会出现的问题并非是当下司法裁判中最为迫切的问题。
本文的思考还是建立在实验室完成的大量人工智能实验的基础上,这些实验结果正在逐步应用于司法裁判当中,它对于理解人工智能应用于司法裁判的现实与未来提供借鉴意义,以此为基础完成人工智能应用于司法裁判的制度建构更符合技术的发展要求。事实上,脱离人工智能技术的发展规律来建构司法裁判的相关制度,难免会走向自我臆想的场景中,从而未能基于技术的发展规律完成符合实效的制度建构。
还需指出,关于人工智应用于司法裁判中的法理讨论才刚刚开始,随着人工智能算法的进一步提升、社会大数据的进一步公开、以及5G时代的到来,人工智能应用于司法裁判的价值将更大彰显,由此所产生法律困惑也将在支持者与反对者之间展开更大争议和讨论,对于接下来的路径思考也将更加深入。人工智能技术的发展或将带来新一轮司法裁判制度的改革,传统意义上庭审、送达、质证、判决的概念或将在人工智能视阈下被重新定义,由此也将导致我国诉讼法律的进一步完善。技术在发展,法律在完善,然而其中人类社会对于诉讼公平与正义的价值理念追求却始至不渝。未来已来,可以预见,人类社会关于人工智能应用司法裁判中的法理思考还将继续。
注释:
[1]盛学军,邹越.智能机器人法官:还有多少可能和不可能[J].现代法学,2018,40(04):74.
[2]左卫民.热与冷:中国法律人工智能的再思考[J].环球法律评论,2019,41(02):54.
[3]法制网:《北京市高级人民法院 “睿法官”系统》http://www.legaldaily.com.cn/zt/content/2018-06/19/content_7572357.htm?node=92486&from=groupmessage
[4]中国法院网:《上海刑事案件智能辅助办案系统首次用于庭审》https://www.chinacourt.org/article/detail/2019/01/id/3713361.shtml
[5]李飞.人工智能与司法的裁判及解释[J].法律科学(西北政法大学学报),2018,36(05):41.
[6]季金华,张昌辉.论法律对思想的影响[J].法律科学(西北政法大学学报),2016,34(02):3.
[7]张保生.人工智能法律系统的法理学思考[J].法学评论,2001(05):21.
[8] 深入推进司法体制改革,《人民日报》( 2018年10月28日05版)
[9]立案登记与“获得感”,《人民日报》( 2015年05月13日 19 版)
[10]不办案,就应退出法官员额,《人民日报》( 2017年02月22日 18 版)
[11]葛翔.司法实践中人工智能运用的现实与前瞻——以上海法院行政案件智能辅助办案系统为参照[J].华东政法大学学报,2018,21(05):67.
[12]胡冬华.信息技术促进审判效率之程度研究(英文)[J].China Legal Science,2016,4(05):76.
[13]康临芳,马超雄.员额制下基层法院民商事审判效率之提升[J].法律适用,2017(13):83.
[14]2016年3月13日第十二届全国人民代表大会第四次会议《最高人民法院工作报告》,中国法院网:https://www.chinacourt.org/article/detail/2016/03/id/1820527.shtml,访问日期2019年8月20日。
[15]李飞.人工智能与司法的裁判及解释[J].法律科学(西北政法大学学报),2018,36(05):32.
[16]周尚君,伍茜.人工智能司法决策的可能与限度[J].华东政法大学学报,2019,22(01):53.
[17]涂永前,于涵.司法审判中人工智能的介入式演进[J].西南政法大学学报,2018,20(03):48.
[18]杨延超,机器人法:构建人类未来新秩序[M],北京:法律出版社,2019:77-78.
[19]钱叶芳.“社会法法域说”证成——大陆法系和英美法系融合的一个例证[J].法学,2017(04):71.
[20]最高人民法院自2011年起发布第1批指导性案例,迄今为止共发布21批指导性案例。参见中华人民共和国最高人民法院官方网站:http://courtapp.chinacourt.org/search/index/content/指导性案例.html,访问日期:2019年8月21日。
[21]杨延超,机器人法:构建人类未来新秩序[M],北京:法律出版社,2019:84.
[22]杨延超,机器人法:构建人类未来新秩序[M],北京:法律出版社,2019:124.
[23]杨延超,机器人法:构建人类未来新秩序[M],北京:法律出版社,2019:122-123.
[24]曹新明.我国知识产权侵权损害赔偿计算标准新设计[J].现代法学,2019,41(01):110.
[25]查志强主编. 2018年浙江发展报告信息经济卷[M]. 杭州:浙江人民出版社, 2018.01:145.
[26]“机器人”能独立办案吗,《人民日报》( 2017年06月28日18版)
[27]昆明:数据平台服务城市管理,《人民日报海外版》( 2017年10月25日第08版)
[28]为推进公正司法增添科技动能,《人民日报》( 2019年02月01日09版)
[29]吴涛,陈曼.论智慧法院的建设:价值取向与制度设计[J].社会科学,2019(05):105.
[30]盛学军,邹越.智能机器人法官:还有多少可能和不可能[J].现代法学,2018,40(04):74.
[31]冀洋.人工智能时代的刑事责任体系不必重构[J].比较法研究,2019(04):124.
[32]许中缘.论智能机器人的工具性人格[J].法学评论,2018,(05):153.
[33]杨延超,机器人法:构建人类未来新秩序[M],北京:法律出版社,2019:446.
[34]State V. Loomis. 881 N.W.2d 749 (Wis. 2016)
See Review, Harvard Law. Criminal Law- Sentencing Guidelines - Wisconsin Supreme Court Requires Warning before Use of Algorithmic Risk Assessments in Sentencing - State V. Loomis. Harvard Law Review 130 (2017). https://harvardlawreview.org/2017/03/state-v-loomis/
[35]董颖.未成年人刑事案件中社会调查制度的运用[J].法律适用,2014,(04):46.
[36]霍海红.提高民事诉讼证明标准的理论反思[J].中国法学,2016(02):258.
[37]杨延超,机器人法:构建人类未来新秩序[M],北京:法律出版社,2019:81-82.
[38]杨延超,机器人法:构建人类未来新秩序[M],北京:法律出版社,2019:82-84.
[39]王景龙.论笔录证据的功能[J].法学家,2018(02):161.
[40]为推进公正司法增添科技动能,《人民日报》( 2019年02月01日09版)
[41]宿迟编著. 诉讼调解心理学技巧与运用[M]. 北京:中国法制出版社, 2015.09:183.
[42](德)菲利普·黑克著. 利益法学[M]. 北京:商务印书馆, 2016.11:20.
[43]2016年英国下议院科学和技术委员会发布《机器人与人工智能》,特别强调决策系统透明化对于人工智能安全和管控的作用。世界科学知识与技术伦理委员会(COMEST)也发布关于机器人伦理的初步草案报告,提出应当在机器人及机器人技术的伦理与法律监管中确立可追溯性,保证机器人的行为及决策全程处于监管之下。
[44]2017年12月,美国纽约市议会通过了《算法问责法案》,以解决算法歧视问题。根据该法案,纽约市将成立一个由专家和公民组织代表共同成立的工作组,专门监督市政机构使用的自动决策算法的公平性、问责性和透明度。
作者:杨延超,中国社会科学院法学研究所科技与法研究中心主任。
来源:本文日文版发表于日本早稻田大学《比较法学》2020年第54卷第1号。