首页
法学研究所概况
国际法研究所概况
研究人员
科研成果
学术活动
法学刊物
法学教育
图书馆
工作平台
搜索

 

English

日本語

한국어

算法裁判的理论建构及路径选择
杨延超
字号:

 

摘要:智能裁判是智能社会治理的重要组成部分。然而,对于人工智能是否适用于司法裁判以及能否进一步强化公平正义,还存在强化说与弱化说二种学说。为了准确把握人工智能应用于司法裁判的困境根源及应对策略,实验团组进行了系列人工智能应用于证据审查、法律事实认定以及法律适用的试验,并以此为基础建构智能裁判的理论体系,包括计算正义理论、机器裁判权理论和算法可辩论理论;其中,计算正义理论强调算法对于推动司法裁判正义具有不可替代的价值,机器裁判权理论则强调以法官为主导、以机器为辅助的裁判格局,算法可辩论理论则强调算法的可辩论性为当事人的权利救济提供有效保障。以智能裁判理论为基础,寻求裁判未来发展的路径:从裁判数字化向裁判智能化转变系总体方向;寻找法官与算法模型的黄金分割点,实现人工智能精准应用系核心所在;构建AI裁判模型算法审查制度则成为智能裁判体系建设的根本保障。

关键词:人工智能 裁判 算法 数据 实验

 

问题的提出

 

人工智能正在深刻地改变着我们的生活,其中也包括司法裁判的智能化,诸如北京市高级人民法院借助“睿法官”智能系统提升裁判效率;上海市法院系统也借助“206”智能案件辅助系统提升司法裁判的智能化水平等。借助于人工智能提升司法效率的愿望,还深受我国当下案多人少司法现状的影响。我国正在全面推进以“裁判”为中心的司法体制改革,配套实施的还包括“立案制度改革”、“法官员额制”等系列司法改革。“有案必立、有案必理”的立案制度改革极大增加了法院受理案件数量;与此同时,“法官员额制”改革又使得法院裁判人员数量受到严格控制,由此所催生的我国当下“案多人少”的矛盾进一步加剧。于是,智慧法院的建设也成为司法改革的重要方向,其核心又在于借助于人工智能来大幅减轻法官工作负荷,全面提升司法裁判效率。

人工智能固然可以提升效率,但另一个更为值得探究的问题还在于,它能否增强法律的公平正义则成为社会更为关注的问题。在法的多元价值体系中,公平和正义始终位居法的价值首位。那么,人工智能在提升司法效率的同时,是否会牺牲了法的公平价值?裁判智能化到底是强化了法的公平价值还是弱化了法的公平价值?各类学术观点众说纷纭、莫衷一是。总体而言,存在“弱化论”与“强化论”二种学术主张,“弱化论”中具有代表性的学术主张又包括:第一,“算法黑箱”、“算法歧视”等理论,上述理论强调人工智能算法具有不可知性或者基于训练样本依赖而可能产生某种先天歧视,这也使得人工智能最终背离了法律的公平性;第二,人工智能的优势在于运算而非情感价值判断,故而还无法对法律案件作出准确裁判,甚至认为“要么彻底抽空价值判断,要么以事实判断替代价值判断”。与此同时,“强化论”则坚定主张人工智能将进一步推动法的公平价值,具体而言,“强化论”主要从以下几个维度展开论证:第一,技术中立论,人工智能将摆脱情感影响,从而会让裁判更加客观公正,“对于计算机而言,除非程序设计者把偏见因素引入进来,否则它不会存在这个问题”;第二,司法普惠论,人工智能降低了司法成本,可以让更多人实现司法维权,进而提升了法的公平价值;甚至认为,人工智能在裁判中的运用对于权利保障、司法公正的实现与司法权威的树立所带来的增益可能远远超过我们当下司法改革所带来制度收益。

需要指出,当下对于裁判智能化的各类主张,并非在同一语境下完成的。弱化论下情感障碍论,系强调人工智能算法的局限性;强化论下的技术中立论,实则系强调人工智能算法的强大能力。显然,讨论裁判智能化之前,有必要对于当下人工智能及算法概念客观的认知。人工智能概念有强弱之分,计算机界大都使用图灵测试标准来划分强弱人工智能。根据图灵测试的标准,在与人和机器交流的过程中,如果人无法区分交流对象是人还是机器即视为通过图灵测试。显然,图灵测试对于计算机的能力提出了极高标准,需要使之具有能类似于人一样的思维模式,而人类社会还将长期处在弱人工智能时代,要进入强人工智能时代还需要一个漫长时期。因此,基于对研究价值的现实考量,本文中所使用的人工智能特指“弱人工智能”。

尽管系弱人工智能,但它同样对于人类社会产生深刻影响。我们在实验室基于当下主流的神经网络模型进行了系列法律人工智能实验,更为直观感受到了它在编辑逻辑方面的重大变革。人工智能之前的编程系逻辑编程,程序系数由人来设定,人通过改变系数最终改变程序运行结果。人工智能则改变了传统的编程逻辑,程序中的系数不再是由人来设定,而是由机器基于对样本的学习自动产生。与此同时,机器学习还通过搭建多层神经网络极剧增加系数数量,这一切使得人工智能具有一定的自主决策能力。机器学习催生的机器自主决策使之在生产生活领域产生了广泛应用,诸如无人驾驶、人脸识别、语音识别、用户画像等,全面推动了智能社会建设。然而,与社会生产生活实践不同,司法裁判系要对人的权利义务进行评价,事关社会治理与人的基本权利,人工智能是否适合司法裁判,当下还众说纷纭,莫衷一是。

那么,人工智能应用于司法裁判,它到底能帮助法官解决哪些问题?法官与机器的边界在哪里?它又将在哪些方面强化和弱化法律的公平价值?又将如何完善制度设计进一步推动裁判智能化?都将成为接下来深入思考的问题。

 

人工智能与司法裁判之变革

 

1.若干法律算法模型的实验

>>> 实验描述:

为了深入解析人工智能能否应用于司法裁判,以及它在证据审查、事实认定、法律适用等方面,存在哪些优势与劣势,研究的过程中采用了人工智能科学实验的方法进行求证,进行了卷积人工神经网络、反向传播人工神经网络、卷积人工神经网络等系列实验,其中包括用算法模型对证据真伪进行判断,用算法模型对案件事实进行认定,以及用算法模型测试其在法律适用方面的准确率等。以下为实验的具体情况:

 

 

 

>>>关于实验结果

实验结果显示,模型在不同功能上的表现的效果差异较大。在实验一中,将模型用于签名真伪的判断上,经过迭代训练后,其最高准确率可达到95.31%;在实验二中,将模型用于多项证据完成事实认定,经过迭代训练后,其最高准确率仅有43.76%;在实验三中,将模型用于离婚案件的定性,经过迭代训练后,其最高准确率仅有45.87%;在实验四中,模型在图形商标侵权近似判断方面,经过迭代训练后,其最高准确率最高可达到81.39%;在实验五中,模型在法律适用方面,经过迭代训练后,其最高准确率可达到85.89%。上述五项实验显示,模型在签名真伪审查、图形商标近似侵权判断、法律适用方面的准确率最高均可超过80%;然而,在离婚案件的定性分析以及基于多项证完成事实认定方面,其最高准确率均低于50%,具体如下图所示:

 

 

 

2.人工智能应用于司法裁判的特征总结

基于实验结果,人工智能应用于司法裁判过程中,它在证据审查、法律事实认定、法律适用等方面所表现的特点并不相同。

AI模型在证据审查方面的特征

证据审查的重点在于证据三性,即真实性、相关性、合法性。人工智能在证据真实性审查方面具有巨大优势,更表现在笔迹鉴定、人脸识别、语音识别等方面的强大优势。然而,AI模型在相关性以及合法性的审核方面却存在明显劣势。这与人工智能强于“计算”,弱于“推理”的技术特征系相符合的。基于数学模型和强大算力的支持,人工智能可以实现多维矩阵运算,使之可以在证据“真伪”的二元判断中发挥优势;然而,在涉及证据合法性与相关性的判断中,还需要完成更为复杂的逻辑推理,然而,当下的AI算法还难以实现。

AI模型在法律事实认定方面的特征

从一个个孤立的证据到最终法律事实的认定,它需要从证据到客观事实;再从客观事实到法律事实。

其一,从证据到客观事实。

案件的客观事实需要证据予以证明。不同案件所要求的证明标准也不同。相比较而言,刑事案件需要更高的证明标准,其需要完整的证据锁链和排除一切合理怀疑,这要求达到100%的证明标准;而民事案件则适用优势证据规则,即只需要超过50%以上的证明标准即可认定案件事实。那么,在认定案件事实的任务上,民事案件与刑事案件对于算法模型提出了不同要求:民事案件只需要50%以上的证明标准,它要求算法模型完成量化分析任务;刑事案件则需要达100%的证明标准,它要求算法模型达到定性分析任务。显然,刑事案件事实认定的定性分析任务对于算法模型提出了更高要求,当下的机器学习算法还难以胜任该任务。

还需注意,即使在民事案件事实的量化分析任务中,机器学习同样也遇到了前所未有的挑战。在用案件证据来还原案件事实的过程中,各证据并非简单累加,而是要进行综合分析。在综合分析的过程中,需要对证据之间的关联与冲突进行分析,比如针对证人证言是否采信的问题上,不仅仅需要分析证人证言与本案的关联性,还需要分析证人证言中是否存在矛盾。更为重要的是,在综合分析的过程中,还需要利用人的经验、常识、对社会规律的认知、对于环境文化的理解等,而这些方面,当前算法还存在着较大局限性。

其二,从客观事实到法律事实。

客观事实不同于法律事实,如“打人”即为客观事实,“侵权”即为法律事实,打人能否构成侵权,还需要主体进行法律价值判断;其中包括当事人是否有过错,是否属于正当防卫等要素,进而最终来认定打人是否属于侵权。再如,离婚案件中“一方出轨”是客观事实,但“夫妻感情破裂”就属于法律事实,从客观事实到法律事实还需要基于夫妻双方的婚姻基础、离婚原因、有无和好的可能性等进行综合判断。这样,可以采用如下的公式来描述从客观事实到法律事实的转变:法律事实=客观事实+价值判断。相比较而言,AI模型更擅长客观事实判断,而不擅长进行价值判断。同样的道理,客观事实源于对于真伪的高维运算,而价值判断则需要进行复杂推理;源于AI模型强于计算弱于推理的技术特征,其对于客观事实认定的能力远胜于价值判断。那么,在“法律事实=客观事实+价值判断”这一等式中,AI模型要实现从客观事实到法律事实的转化,很大程度上取决于价值判断所占有的比重,价值判断所占有的比重越小,AI模型实现法律事实认定的效果越好;反之亦然。

AI模型在法律适用方面的特征

法律适用是针对一个法律事实给予明确的法律评价,具体而言,它要解决两个问题:第一,基于一个被认定的法律事实,选择要适用哪一个具体条文即是法律适用要解决的问题;第二,结合具体条文来明确裁判的具体内容,如运用《刑法》中故意伤害罪条文来确定被告人的具体量刑;再如运用《民法典》中合同违约责任条款来确定具体的违约金数额。既有已公开的司法裁判文书最终都会对法律适用作出明确阐述,这也为机器学习法律适用提供了丰富的样本。

在法律适用的判断上,AI模型又凸显出如下特点:第一,大数据特征。用于模拟学习的数据包含了此前所有同类案例数据。相比于人记忆的有限数据相比,它呈现大数据特征;第二,基于深度学习的最大拟合特征。最大拟合特征同样是相较于人记忆的“偏重性”而言,人对于记忆中有限数据的印象也不相同,而模型却可以最大程度拟合此前所有相同或相近案例,尽最大可能反映出整体变化特征。

还需指出,模型系基于此前同类案例学习而产生法律适用的判断,这也使得它在面对新型案例、或者修法之后的法律适用时表现欠佳。对于新型判决,由于在机器人既往学习的体系中缺少相关判例,自然也就难以建构起对应的法律适用逻辑,由此,对于新型案例还主要依赖于人的经验、价值观等完成法律适用。新型案例亦会逐渐增加,其本身又将作为机器学习的数据,帮助机器建构法律适用逻辑。与此同时,法律修改亦会产生机器的法律适用难题。旧法废除、修改或是新法诞生,都会导致旧法不再适用,机器基于旧法所形成的法律适用逻辑也就难以再适用;其道理犹如人类法官一样,在面对法律修订时,同样需要再学习进而更新自己的法律理解与选择。

 

智能裁判的理论建构

 

当下,人工智能参与司法裁判,还面临一系列的理论困惑:首要的是人工智能能否胜任司法裁判,法律无外乎人情,情感价值判断在司法裁判中占有重要地位。人工智能能否胜任,当下还缺少理论解释。其次,即使人工智能能在司法裁判中发挥积极作用,由此所导致的机器裁判权问题,又将引发机器裁判人类的忧虑,对此,当下仍然没合理的理论予以有效解释;最后,算法模型一旦参与司法裁判,它的法律地位如何,它能否接受当事人的质疑和辩论,同样是建构智能裁判理论体系过程中值得思考的重要问题。

1.若干法律算法模型的实验

正义是否可以计算,两种极端主张,一种主张机器在计算正义中的杰出表现,并主张“人工智能算法采用了不同于人类自然语言形式的表意方式,以人类通常无法直观感知的数字形态,重新组合了对法治的理解与判断。”;第二种否认计算正义,正义系法的最高价值,现有机器算法“无法胜任判决工作,包括证据标准指引、条件审查、校验纠错、裁判偏离度提示等”。

法官可以被机器取代观点的误区。法官可以被机器取代,始于人机围棋大战之后,李世石被机器人打败。一个简单但是错误的逻辑:连围棋这样如此复杂的脑力劳动都可以被机器人取代,那么法官的工作自然也可以被机器取代。这混淆了计算与思考的区别。神经网络中神经元概念与人脑神经元概念并非同一概念。围棋虽复杂,但其属于计算范畴,而计算又属于数学范畴;案件审理则需要法律人的深层次思考,思考属于生物学范畴,人的思考中除了数理计算,还综合了情感、道德、历史、文化、习俗等多重要素,而过程要远比计算复杂得多,人类的思考机制至今仍是人类未解之谜。围棋却未必可以胜任裁判,其道理犹如一个围棋高手不等于一个好法官。长期以来,混淆计算与思考的认知一直盛行,由此引发了机器可以取代法官的观点。上述观点还引发产业发展的错误方向,当前所有试图用机器取代法官的产品大都以失败告终。由此还形成了对于法律人工智能的悲观和失望情绪。人工智能在司法裁判中的应用也一定程度的受到了影响。

主张正义的不可计算性,一味地否认人工智能在司法裁判中的作用,同样无益于智能裁判的发展。人工智能具有在司法裁判中给予建议决策的优势。人工智能在实现正义计算的过程中,固然有其不擅长之处,但同样也有人难以企及的优势,具体包括:第一,海量数据优势,人脑的记忆和存储具有有限性,即使资深法官,其记忆能够存储的法律规则、案例数量也同样是极为有限的;人工智能却可以实现大数据运算,其数据库中可以存储海量的法律法规及案例数据,既包括国内数据也包括国外数据。人工智能的大数据优势系人难以企及的。这也使得机器的决策和建议具有更为准确、更为全面的优势。第二,深度学习优势,利用深度学习模型,可以构建更为复杂的思维方法,使之可以解决司法裁判中更为复杂的问题,这同样是人难以企及的。

由此,对于计算正义的理解,不能走两个极端:一味夸大亦或是全盘否认,否则都将极大阻碍人工智能在司法裁判中的应用。具体而言,可以从以下几方面进一步诠释计算正义理论的内涵:

第一,在正义实现过程中人与模型的角色分工。价值判断在正义实现过程中发挥着主导作用,它甚至贯穿于证据审查、事实认定、法律适用的全过程:首先,证据审查环节需要依赖情感价值,尤其是在证据合法性与相关性审查过程中,都需要运用价值判断进行全案审查。其次,案件法律事实的认定,本质即是借助法律价值实现对于客观事实的判断。最后,法律适用同样依赖于价值判断,尤其是疑难案件或者新型案件,难有先例可以遵循,更是需要运用法的价值与原则来进行判决。相比较计算而言,价值判断在法律正义实现过程发挥主导作用,而在价值判断方面,人又强于机器,由此在法律正义实现过程中,人为主导正义角色,算法则为辅助正义角色。

第二,算法模型实现辅助正义的维度。具体而言,模型又是从以下几方面实现辅助正义:其一,提升效率实现辅助正义;降低司法成本,提升司法参与度,人的权利可以得到更好保护。近几年,模型还被应用于远程庭审,极大方便了当事人与证人参与庭审,由此也方便法官更好地了解案件事实作出公正判决。同时,当模型提升效率推动裁判进程,当事人可以即时获得裁判结果,避免正义迟延。其二,弥补法官认知不足实现辅助正义。模型可以弥补由于法官记忆数据有限性以及经验有限性而引发的认知不足,其决策结果可以为法官提供有力参考。

第三,算法模型进化与计算正义格局改变。人工智能对于情感价值判断的实现已经开始,诸基于自然语言(NLP)的情感判断,机器可以判断语言的情感状态是表扬还是批评、是高兴还是悲伤, 尽管当前还处于初级阶段,但可以预见,算法模型在情感价值计算方面还将逐步进化。随着算法能力的提升,计算正义格局也将发生深刻变化。

2.机器裁判权理论

>>> 裁判权理论概要

人工智能参与司法裁判引发人们对于机器裁判人类的担忧,如人工智能辅助量刑的“COMPAS”案。机器裁判权是否会驱使裁判权异化以及它的正确含义,则系这里需要论证的核心问题。

从古代王权裁判到法治社会的依法裁判,裁判作为人类社会治理模式而存在。在这一过程中,作为裁判者的系人,作为裁判对象则是人(或者人的组织)的行为。裁判权要基于法律完成对于人的行为评价,进而规范和指引人的行为。从这一意义上讲,作为裁判主体的只能是人。只不过,从古代王权裁判到法治社会的依法裁判,裁判者的身份实现了从身份到契约的转变。在这一过程中,裁判权还被赋予了更多法治内涵。根据社会契约论的观点,政府的权力来自于公民的授予,政府权力的行使不能侵犯公民的权利和自由,否则,公民就有权收回他们赋予政府的权力。而确立公正裁判权的一个目的也是为了防止国家追诉权、裁判权的滥用。然而,基于洛克的政府理论,裁判权则是作为立法权与行政权的制衡方式而存在,进而实现立法权、行政权、司法权的均衡发展。

尽管各学说的考察维度不同,但它们都赋予了裁判权共同的法治要义:其一,裁判者依法享有的裁判权,受到法律的严格限制和监督,从而防止裁判权滥用;其二,参与诉讼的当事人享有广泛而平等的权利,从而最大程度保障案件被公正审理。我国的诉讼法律制度也正是围绕着上述两方面完成制度建构。

人工智能参与司法裁判,却引发了人们对于机器裁判权问题的隐忧:“科技如果过度介入司法甚至凌驾于司法之上,司法活动的内在规律将遭到破坏,对科技的过度依赖,将使得法官沦为大数据、人工智能的奴隶,法院成为贩卖裁判结果的机器。” 另一个更为严重的隐忧还在于,人工智能介入司法裁判可能会剥夺既有裁判权的法治要义。当前,裁判权的法治要义系以法官(人)为前提完成建构的,具体包括:1.法律对于法官选任有严格要求,从而保证裁判的专业与公正;2.法律规定了回避制度,从而保证裁判者并非案件利益相关方 3.法律规定了法官在诉讼中的基本义务,从而保证裁判权合法行使;  4.法律规定了判决的集体决策制度,从而保证决策的公正;5.法律还规定了二审和再审程序,保证了裁判权的救济程序。显然,关于裁判权的法治要义均是围绕“法官”(人)而非机器展开的,如机器参与裁判,裁判权的法治要义也将面临重构。

>>> 机器裁判权的正确诠释

即使在算法模型应用于司法裁判的过程中,判决书所体现的依然是法官的意志,而非机器的意志。需要承认,人工智能与传统计算机程序之间的本质区别,它不再是法官意志的简单执行,而是基于机器学习实现自我决策。然而,这种决策虽然在一定程度上弥补和超越了法官的思维局限,但依然没有能超越人的控制。人工智能仍然是工具,尽管它是一个更为强大的工具,但它作为工具的本质属性并没有改变。对于法官而言,机器的作用绝非是替代,而是助手。人工智能具体可以在以下两方面发挥其强大的助手优势:其一,人工智能的大数据优势可以弥补法官有限记忆的不足;其二,人工智能的深度学习优势可以帮助法官最大程度地借鉴前人经验。当然,机器并不具有像人一样的情感价值,以及对于复杂问题的综合思考能力。因此,在司法裁判中,法官仅是借鉴机器的决策,最终作出决策的仍是法官而非机器。由此,人工智能应用于司法裁判,其人作为裁判主体的格局并没有改变。

人工智能参与司法裁判后,其到底是强化还是弱化了裁判权的法治要义,则是这里需要重点讨论的问题。人工智能还将进一步强化裁判权的法治属性:第一,法官的裁判权接受算法模型的监督,模型最大程度拟合了此前类似案例的决策结果,因此毫无疑问,其将受到模型的隐形监督,即使法官享有最终决策权,但其与模型决策存在较大出入时,其势必需要充分论证其与模型决策结果存在较大区别的理由。人工智能时代,法官的监督也将进行模型监督时代。第二,拓展法官思维局限的过程中,它可以有效防止错案产生。机器学习也将最大程度借鉴此前法官的全部经验,从而为法官提供专业领域的有效借鉴,帮助法官作出专业判决,最大程度保障当事人的合法权利。

由此,有必要对机器裁判权的解释予以纠偏,机器裁判权并非是机器替代法官作为裁判主体;而是法官作为裁判主体不变的格局下,机器作为更强大的工具帮助法官完成裁判工作。

3.算法可辩论理论

在诉讼中,任何有可能影响当事人权利的要素,无论是参与诉讼的法官,还是诉讼中的证据,都需要公开并接受当事人的质疑和辩论,这是法治时代维护当事人诉权的应有之义。模型算法虽然可以帮助法官更好实现裁判目的,但其同样需要公开和接受当事人的质疑与辩论。然而,这一问题却深受算法黑箱理论的困惑。在前文“机器裁判权”部分,论文虽详细论证了算法模型在强化裁判权法治属性的重要价值,尽管如此,如果它不能公开、透明,并接受当事人的质疑与辩论,那么它也将背离诉讼程序应用的法治之义。

>>> 算法黑箱理论及产生的缘由

算法黑箱强调算法系不可知的,它所产生的决策过程系不可知的,诚如卢克·多梅尔在其著作中所言,依赖这些算法做决策的人 “根本不知道他们做出的决定是否正确,制定的政策是否公正,有没有歪曲事实”。  这里“黑箱”概念与商业秘密的保密性并非同一含义。商业秘密对于商秘密权利人之外的人而言,它具有保密特征,但不存在所谓“黑箱”问题。算法黑箱系强调算法对于所有人而言均具有不可知性,即使针对设计该算法的工程师而言,同样存在算法黑箱问题。

算法黑箱理论提出,源于机器学习所催生的变革式的编辑逻辑。在机器学习之前,传统的逻辑编程,程序逻辑和参数均是编程者事先定义好的,不存在所谓黑箱问题。机器学习彻底变革了传统的编程逻辑,参数不再是由人为定义,而是机器基于大量样本学习产生,参数数量也急剧扩张,动辄会达到千万级参数规模。这一切都使得算法最终的决策结果变得不可捉摸,由此也就产生了算法黑箱的说法。

算法黑箱所强调的不可知性,也引发了主体权利不可救济的忧虑:当算法决策对主体权利产生不利影响时,基于算法的不可知性,主体难以救济自身权利。那么,当人工智能应用于司法裁判时,这种忧虑便被进一步扩大。在诉讼中,诉讼主体享有参与诉讼并陈述申辩的基本权利,包括质证、辩论、申请回避等,这一切需要以“透明”为前提。然而,算法一旦成为黑箱,当事人便没有办法对其质证和辩论,由此也引发了对于算法黑箱及诉讼权利难以保障的学术讨伐。

>>> 算法黑箱理论之误区澄清

人工神经网络在本质上讲依然系由算法工程师建构的,虽然算法中的各权重参数系基于机器学习生成,并非人为定义;但它总体上并没有脱离人的控制,具体包括:

第一,算法的可控性。算法系由算法工程师进行设计和控制的。其一,作为算法基础的数学模型系由算法工程师设计或者选择的。在解决某一具体问题,可以选择不同的数学模型,仅用于分类的 ANN 算法有 BP 神经网络、RBF 径向基神经网络、FNN模糊神经网络、ANFIS自适应神经网络等。虽然,上述模型均可以解决分类问题,但每种模型所依赖的数学逻辑不同,其应用于不同场景下的优势也不尽相同。即使是相同的神经网络模型也存在不同的神经网络结构,即神经网络的层次以及每一层神经元数量,而神经网络的结构同样也是由算法工程师设计的。其二,模型训练所依赖的数据样本是可以控制的。面对相同的神经网络结构,采用不同的训练数据进行训练,最终所产生的神经网络模型也不相同。那么,选择哪些数据作为训练数据同样也是由算法工程师确定的。由此,对于算法所依赖的数学模型及数学样本的控制,便可以实现对于算法决策结果的控制。

第二,算法的可被描述性。算法不仅可以被控制,还可以采用文字、逻辑流程图表、计算机代码等方式进行描述;其中,文字则可以详细介绍算法应用的场景、功能以及算法训练数据以及测试数据等情况;逻辑流程图则可以更为直观地梳理各模块之间的逻辑关系;算法最终系在计算机上运行,而计算机代码又可以详细描述算法的运行过程及运行逻辑。

显然,对于算法工程师与行业专家而言,算法具有可控性和可被描述性,它仅仅只是对于外行人系“黑箱”的。在这一方面,算法所具备的特征与商业秘密类似。由此,算法黑箱理论实在是对于算法的一种误读。事实上,算法的可控性与可被描述性,也进一步决策了算法是可以被质证和辩论的。当算法决策的结果实质性地影响到当事人自身权益时,双方就可以就算法本身展开辩论,具体如下:1.算法所依据的数学模型是否科学;2.算法应用于具体决策事务中的的逻辑是否合理;3.神经网络的建构是否科学;4.算法训练样本数据及训练方法是否科学。即使在法官并非系算法专家的情况下,涉及算法相关的质证和辩论,还可以借助司法鉴定、专家证人、算法专家担任人民陪审员等方式予以更好解决。

>>> 算法的可辩论性

算法的可公开性与可描述性,自然演生出算法的可辩论性。各方可针对算法的各个维度展开辩论:第一,数学模型的选择是否合理;第二,训练数据的选择以及训练方法是否合理;第三,算法用于解决具体问题的逻辑是否合理;第四,算法存储服务器的公平性;算法的在进行算法辩论的过程中,各方既可针对技术问题进行辩论,亦可针对法律问题进行辩论。总之,关于算法的任何问题均可以成为辩论焦点,辩论的核心依然在于,算法对于当事人权利的影响是否合法。

当然,基于算法的可辩论性,也将最终形成对于算法的法律评价,具体包括:1.算法错误,即由于算法的技术问题而导致的错误或者不科学的计算结果。2.算法歧视,即由于算法模型设计不当或者训练数据选择不当,从而导致算法决策产生对某一群体的歧视结果。3.算法违法,算法违法一般指算法本身存在违法情形亦或是将算法用于法律禁止的事项,前者如算法使用数据违反了个人隐私保护,后者如将算法决策结果直接用于庭审裁判。4.算法合法,即算法不存在错误、歧视、违法情形时即可认定算法合法。

4.

智能裁判理论总体上系由计算正义理论、机器裁判理论、算法可辩论理论共同组成,其中,计算正义理论对应于算法的意义,其所要回答的恰是弱人工智能时代算法对于司法裁判的意义,其意义又在于,它从降低成本与效益递增二个维度都极大推动了司法正义;机器裁判理论对应于算法的地位,其所要回答的是在弱人工智能时代,在人机合作过程中,算法所具有的法律地位:法官居于主导地位,算法居于协助地位;算法可辩论性理论对应于算法的救济,在明确了其对于司法裁判的意义以及在司法裁判中所处的地位等基本问题后,其要回答算法与当事人诉讼权利的关系,即算法在本质上系透明的,其可接受质证和辩论,这样,便可将算法纳入既有的诉讼权利制度体系。

 

智能裁判的路径选择

 

论及智能裁判的路径选择,实质上需要回答,我国智能裁判需要往哪里走、如何走以及路径纠偏等系列问题。

1.裁判数字化转向裁判智能化

首先需要明确数字化与智能化的区别。数字化是智能化的基础,智能化系数字化发展的高级阶段。司法数字化即是将司法中的物理元素转变为数字元素,便于查询、分类、统计,进而提升裁判效率;裁判智能化则是借助人工智能模型来解决裁判中的诸多痛点难点问题,进而帮助解决人脑难以实现的复杂问题。然而,在实践中混淆裁判数字化与裁判智能化还普遍存在,它会引发人工智能在司法裁判应用中的错误定位,同时,还会引发人们对于裁判智能化的失望情绪,对于推动裁判智能化丧失信心,如认为“当前的‘司法人工智能’只是提高司法工作效率的便利工具,如语音输入取代书记员电脑打字记录、裁判文书上网以及自动识别搜索等,这种变化与书记员告别古老的手写记录没有实质区别”。当下,司法数字化的红利已基本释放完毕,裁判智能化还处于萌芽阶段,其还拥有巨大的未来拓展空间。裁判智能化的方向恰是要实现从裁判数字化转向裁判智能化,充分挖掘算法模型在裁判中应用空间。

其次,需要给予裁判智能化价值准确定位。人工智能在司法裁判中的应用,并非可有可无,而是司法裁判必要选择:第一,实现法律公平价值的需要。人工智能时代,法律的公平价值正在发生变迁。在算法模型的帮助下,人们可以了解全国范围内以及历史上相同案件的裁判尺度,由此,人们对于同案同判的理解不再受制地域或者时间的限制,从而实现了公平价值更大维度的扩张。第二,法律监督的需要。给予法官自由裁量权系司法的必然要求,同时也引发裁判权滥用的忧虑。在算法模型的作用下,法官对于同类案件的裁判尺度受到此前裁判的隐形制约。第三,提升裁判专业化程度的需要。人工智能的大数据优势和深度学习优势,可以在司法裁判中弥补法官的思维盲区,尤其是专业案件的审理上,算法模型可以最大程度拟合此前判例的经验,从而最大程度帮助法官提升专业裁判能力。

最后,还需明确推动我国裁判智能化发展方向。我国司法裁判所累积的大数据优势以及当前在人工智能领域所积累的研究成果,为我国裁判智能化提供坚实基础。当务之急,是全面加强法律AI模型应用于法律裁判各个痛点环节,具体包括如下几方面:

1)充分挖掘算法模型在证据真伪审查方面的优势。证据审查的首要问题系证据真实性判断。人工智能模型在文字、图形、音频、视频等方面真实性判断方面具有得天独厚的优势,借助人工智能模型实现证据的真伪判断具有巨大空间。

2)充分挖掘算法模型在法律事实认定方面的优势。在司法裁判中,事实认定分为二个过程:客观事实认定与法律事实认定。当前算法虽然在客观事实认定方面还存在一定局限性,但它在法律事实方面存在长远发展空间。在法律事实认定过程时,人与机器的思考方式截然不同:人是要件思考,机器则是算法思考。人的要件思考源于法律事实的构成要件,任何一个法律事实的认定,都需要具备一定的要件,如法律上的侵权,需要同时具备侵权行为、损害结果、过错、因果关系(侵权行为与损害结果之间)等多个要件。人在思考某一行为是否构成法律意义上的侵权时,则会基于要件理论,逐一分析和核对该行为是否构成上述要件,进而最终认定其是否构成该法律事实。在弱人工智能时代,机器还没有学会像人一样进行“要件思考”,它还只能进行数学思考,在这一过程中,案件的客观事实将被整体转化为一个矩阵数据,机器正是基于数据运算实现是否构成某一法律事实的概率判断。

法律事实认定=客观事实+价值判断。价值判断的比重与机器认定准确率成反比。价值判断所占的比重越大,机器认定的准确率越低;反之,价值判断所占的比重越小,机器认定的准确率越高。由此,基于算法模型来进行事实认定,它在知识产权案件方面的表现优于普通民事案件,包括在认定版权、商标、专利是否侵权方面,模型在学习在先判例之后均可以得到相对比较理想的结果。

3)充分挖掘算法模型在法律适用方面的优势。发挥算法模型在法律适用方面的指引用,其中两个较为重要的应用领域包括:其一,利用算法模型实现刑事案件量刑计算。刑事案件量刑幅度较大,具体量刑还需要法官根据案件情况自由裁量。量刑幅度过大也引发人们对于法官公平裁判的忧虑。算法模型可以拟合此前所有类似案件的量刑情况,从而为同类案件量刑提供指引。尽管这种算法指引并非强制性的,但它对于那种随意背离常规裁判任性的约束系显而易见的,法官需要为背离式的裁判附以更多说明,由此最大程度裁判的科学性与公平性。其二,利用算法模型实现民事赔偿金额计算。普通民事赔偿奉行填平原则,赔偿金额取决于损失金额。填平原则需要原告方举证证明自己损失数额,然而,在像知识产权侵权、精神损害赔偿等案件中难以完成损失的举证证明,由此也诞生了法定赔偿原则,即由法官在法定的金额范围内进行自由裁量,这对法官的专业性与自律性都提出了极高要求。相比较而言,算法模型则可以最大程度拟合此前同类案件,从而为法官提供专业指引,由此最大程度实现赔偿数额的专业性与公平性。

2.寻找法官与算法的黄金分割

新型案例与常规案例的二元分割

机器学习又总依赖于已发生的在先数据,而社会发展总是会引发系列新型案件诞生,这些新型案件在初期是缺乏在先同类案件数据的。因此,机器在针对常规案件的分析决策中往往有较好的表现,而难以适用于新型案件。新型案件裁判还主要依赖于法官的价值判断,常规案件则可以更多依赖机器解决。

进一步而言,机器主要是从以下两方面实现对于常规案件的分析处理:第一,机器人基于对同类案件的学习,可以总结出既住判例中法官们适用法律的倾向性意见,从而为本案法官提供权威参考,比如在一起涉及购房合同效力的纠纷中,机器人可以基于既往判例的学习总结出主张无效或主张有效的观点分歧,进而为本案法官提供更权威的参考,从而让法官更加精准地理解和适用法律。第二,机器人基于对同类案件学习,可以总结出在既往判例中法官们的判罚尺度,从而为本案法官提供权威参考。无论是民事案件赔偿金额计算或是刑事案件中量刑的判罚,因其在实质上涉及当事人的权益,法官们都需要在法定幅度内完成更加精准的判罚尺度。与此同时,基于公平的原则,同类案件也应彼此顾及和关联各自的判罚尺度,从而呈现同案同判的公平样态。

最后,新型案件与常规案件的划分也是相对而言的,新型案件也会逐渐变成常规案件。由此,针对新型案件与常规案件,人与机器的黄金分割并非一呈不变,它总是随着新型案件的演变而发生变化。

事实判断与法律判断的二元分割

司法裁判既包含着事实判断,又包含着法律判断。这里的法律判断既包含对于法律条文的理解,又包含对于法律价值的理解。在司法裁判中,法官在判决中的价值判断甚至成为判决最重要的组成部分。在司法裁判中区分事实判断与法律判断的意义,还在于为人工智能应用于司法裁判找到准确定位。人工智能算法模型系以数学、计算机科学作为学科基础,其优势在于强大的计算能力,而并非在于价值判断。人的法律判断则依赖于其长期所形成的世界观、价值观等要素,这些要素当下还没有办法依赖于一个有效的数学公式进行解决。由此,将人工智能应用于司法裁判,将事实判断的问题更多交给机器,将法律判断的问题更多交给法官,由此也将形成人与机器在司法裁判中事实判断与法律判断的二元格局。

3.构建算法审查制度

算法系可公开、可质证辩论的,由此,一旦将算法应用于司法裁判中,理应允许当事人针对算法提出质疑和辩论,简言之,在利用算法模型来推动裁判正义的过程中,还应最大程度避免算法引发的权利侵害。为此,有必要构建机器人算法审查制度,该制度具体又包含如下内容:

用于司法裁判的算法公开制度

算法系人工智能产品的底层核心技术,甚至还属于企业重要的商业秘密,因此,算法是否公开理应由企业自主决定。然而,应用于司法裁判中的算法,因其决策会影响当事人的权利,故而,如若对其采用商业秘密原则保护不予公开,那么,当事人自然无法对其质证辩论,显然,这有悖于诉讼中当事人可质证辩论的基本权利。这样,一旦算法应用于司法裁判中,鉴于其对于当事人权利所产生的重要影响,有必要建立此种情形下算法的强制公开制度。

进一步指出,应用于司法裁判中的算法公开,还应包含“全面公开”、“网络公开”、“初始公开”三层含义。“全面公开”强调与算法有关的一切要素均应毫无保留地向社会公开,包括但不限于产品功能、设计理念、数学公式、计算机代码等要素。全面公开的意义在于,当涉及对于算法的质证辩论时,相关人员可以全面了解算法,以其更加充分地发表所持质证辩论意见。针对应用于司法裁判中的算法,除了“全面公开”,还应坚持“网络公开”,即可以采用“互联网”方式较为方便获取。最后,还应坚持“初始公开”,即该算法一旦被应用于司法裁判中就应立即公开,而不应在涉及算法的诉讼争议时才公开,其好处在于算法自始就处在公众的监督之下。

用于司法裁判的算法审查制度

提请用于司法裁判的算法审查的主体,既可以系利害关系人,也可以是一般社会公众。基于算法的初始公开,这使得社会一般公众亦可监督算法的公正性,同样有权提请算法裁决,由此也保证应用于司法裁判的算法模型始终处于公开和受监督状态。当然,针对利害关系人与社会公众提请算法裁决的利益关切点并不相同,前者系基于对自己利益的关注,后者则是基于社会公共利益的关注,故而,申请算法裁决的受理条件、法律时效等制度设计方面二者也会存在一定差异。

还需指出,在涉及应用于司法裁判的算法裁决时,其裁决的要点还主要在于算法本身是否违反了案件公正裁判赖以存在的科学、平等(无歧视)、合法等基本原则。所谓“算法科学原则”,旨在强调算法自身系科学无错误的,如果算法自身存在技术错误,则将违反算法科学原则。所谓“平等(无歧视)原则”,根植于法律面前人人平等的原则,旨在于强调算法的决策过程及结果不会因为“年龄、性别、民族、受教育程度、户籍”等区别而产生偏见和歧视。所谓“合法原则”,旨在于强调算法决策过程和结果均应符合我国法律。基于对上述算法原则的审查,最终也会形成四种评价,即算法错误、算法歧视、算法违法、算法合法;其中算法错误、算法歧视、算法违法这三种情况可统称为算法瑕疵,而算法合法可视为算法无瑕疵。由此,算法有瑕疵与算法无瑕疵亦成为算法审查的两种结果。

算法审查与司法救济

首先有必要厘清司法救济与算法审查之间的关系。这里的司法救济系指,通过二审或者再审程序来救济原审裁判。系要对一个具体案件作出评价,而算法审查所要解决的系该算法是否合法的问题。算法审查既可以与司法救济一并解决,诸如当算法对司法裁判产生影响时,双方便可以在二审或再审环节对算法进行辩论,二审或者再审环节有必要对算法合法性作出评价,同时也将对于该算法对于原审裁判的影响以及最终裁判等作出论证。当然,算法审查与司法救济也可以独立进行,诸如当事人仅仅只针对某一算法是否存在瑕疵提请诉讼。

还需进一步论证,当存在算法瑕疵的情况下,它是否会对受该算法影响而形成的司法裁判产生影响呢?在算法评价的四种结果中,算法错误、算法歧视、算法违法均是对算法进行了否定评价;其中算法错误属于事实上的否定评价,算法歧视与算法违法属于法律意义上否定评价;算法歧视为算法违法中的一种典型情况,算法违法则涵盖了其他算法违法情形。在算法评价体系中,只有算法合法属于肯定评价。对算法的否定评价是否会直接导致裁判结果无效,还取决于裁判结果对于算法决策的依赖程度。一般而言,算法决策对于裁判结果存在三种意义:第一,参考意义,即算法决策仅对于法官裁判发挥参考意义,算法决策对于法官最终裁判会施加影响,但这种影响并非必然和绝对的,在这种情况下,即使对算法给予否定性评价,也未必会影响到裁判效力;第二,事实认定意义,算法决策对于事实认定发挥决定性意义,如算法对于其中关键证据的认定,亦或是基于法官基于算法决策结果完成对于案件法律事实的认定。在这种情况下,若出现对于算法决策的否定评价,便会直接延及基于算法决策而认定的案件事实;第三,法律适用意义,即算法决策结果对于法官对于最终法律适用结果具有决定性意义,尤其是在精神损害赔偿、知识产权法定赔偿等基于算法决策结果完成裁判金额认定。在这种情况下,若出现对于算法决策的否定评价,同样也会延及基于算法决策而作出的法律适用结果。

 

 

关于智能裁判的理论建构与路径选择,均系围绕“弱人工智能”概念展开,故而未讨论人工智能的法律主体地位、机器人利益保护等强人工智能语境下的系列问题。绝非这些问题不重要,完全是基于人类社会还将长期处于弱人工智能时代,完全是基于现实的理论研究价值与可应用的实践价值而作出的考量。

本文的研究还建立系列人工智能试验的基础上,借助于卷积人工神经网络、反向传播人工神经网络、BERT语言模型等,以期更好探究人工智在证据审查、事实认定、法律适用等方面的优势与劣势。在实验基础上建构智能裁判理论,包括:第一,计算正义理论,发挥算法模型在证据认定、事实认定、法律适用方面的巨大优势,通过人机结合,进而实现更高维的公平正义。第二,机器裁判权理论,人工智能的作用不是替代,而是“辅助”,它可以帮助法官拓展思维盲区,进而推动裁判智能化。第三,算法可辩论理论。算法在本质上并非黑箱,而系透明可质证的,故而,其在司法裁判中系可应用和救济的。在智能裁判理论的基础上进一步寻求智能裁判的路径,其中,裁判数字化向裁判智能化变迁系智能裁判建设的方向;寻找法官与模型的黄金分割则是智能裁判建设的关键;构建AI裁判模型算法审查制度则是智能裁判体系建设的法律保障。

最后,智能裁判理论建构与路径选择,还将伴随算法模型的优化,而渐进丰富和完善:第一,算法的证据综合审查能力将进一步提升。当前,算法模型主要是对证据真实性审查,对于相关性、合法性审查能力较弱,但随着算法能力提升,其对于证据相关性与合法性判断能力也将逐步提升,从而推动算法模型在证据综合审查能力方面的提升。第二,在法律事实认定方面,算法也将从简单事实应用过渡到复杂事实应用。当下,针对法律事实的认定还仅限于一些简单法律事实,其所涉及的价值判断比重较低,其受制于当前算法“强事实、弱价值”属性的制约。与此同时,还应关注到,算法的价值判断能力正在逐步提升,尤其是在自然语言理解(NLP)领域,对于主体的情感价值判断的实验也取得了一定突破和进展,如时空变化图卷积网络(STV-GCN)的连续运动来训练和识别人类行为模式,对情绪状态的识别精度达到83.34%。可以预见,算法价值判断能力也将进一步催生其在法律事实认定方面更为广泛的应用。第三,法律适用方面,算法也将实现从裁判量化走向法律选择过渡。

法律适用总体上包含定性与定量两方面,所谓定性,即选择适用何种法律依据;所谓定量,即依据该法律依据来确定具体权利、义务与责任。当前,算法模型的应用还主要集中在定量领域;随着算法能力提升,它也将应用于法律适用的定性领域。

 

 

作者: 杨延超,中国社会科学院法学研究所研究员、科技与法研究中心主任,中国社会科学院大学教授。

来源:《治理研究》2022年第4期。