小
中
大
如同其他新兴技术成果,人工智能在推动人类社会向智能化发展的同时,也伴随着侵害人类利益的风险。无论从最大限度发挥人工智能推动社会进步的积极功能出发,还是就促进人工智能技术自身稳健可持续发展来看,都有必要精准识别人工智能可能存在的各类风险,并以此为前提,根据各类风险的生成特性以及风险应对措施的作用机制,合理地组织对人工智能的风险应对。毋庸讳言,在人工智能潜在的各类风险中,人工智能被滥用于实施犯罪活动、作为犯罪对象被不法攻击以及人工智能基于自主运行而损害人类法益的刑事风险,最为引人关注,包括刑法在内的社会治理机制究竟应当如何“智能”地应对“人工智能”,如何恰如其分、行之有效地治理人工智能刑事风险,已成为重要的时代课题。正是在人工智能技术研发以及法律治理需求的推动下,国内外法学理论和法律实务界对人工智能表现出强烈的兴趣,刑法领域的研究成果也呈现爆炸式增长的态势,关于人工智能体能否成为刑事责任主体、其刑事责任应采取何种归责方式,甚至对人工智能体应当适用何种“刑罚”等迅速成为热门话题。近期,贵州大学法学院曹波副教授的新作《人工智能刑事风险治理逻辑与刑法应对研究》出版面世,该书围绕人工智能刑事风险科学化解及责任分配的研究主题,通过廓清当前理论研究不当理解人工智能刑事风险的偏误,精准识别人工智能涉刑法的真问题,主动调适刑法的理念、制度与规则,合理组织对人工智能可能严重侵害人类法益风险的刑事反应,形塑人工智能研发和应用所须坚持的底线规则,可以说,既有时代意义,又有自己的主体性。通读书稿,我认为本书具有以下几个特点:
一是基于求真立场,证成人工智能刑事风险的客观存在。作为研究人工智能刑事风险治理的逻辑起点,首先需要证成人工智能在研发和应用中确确实实存在侵害人类法益并且应当进行刑事归责的风险内容。若人工智能缺乏此种刑事风险,抑或所潜在的风险不值得刑法介入或者刑法难以介入,人工智能刑事风险的应对或治理便是一个伪命题。从既有研究来看,确有学者否定人工智能刑事风险的客观真实性,认为法学界对人工智能的研究是“伪问题”;也有学者以人工智能尚处于不能自主运行的弱人工智能阶段为由,提出人工智能刑事风险治理(或刑法规制)是“伪命题”。本书依靠人工智能技术专家的专业判断,以及搜集人工智能运行中产生刑事风险的真实案例,令人信服地证成人工智能内在之刑事风险具有不容否认的客观真实性。作者同时指出,如何妥善应对人工智能刑事风险,科学分配人工智能刑事风险所涉及的法律责任,是包括刑法在内的法规范体系必须给予认真对待的“真问题”,至于采取何种刑法措施,如是否赋予人工智能独立刑事责任主体地位,是否采用刑罚或保安处分处置“犯罪”人工智能等,则是刑法关于人工智能刑事风险应对的措施之争,属于解决问题的具体方式。
二是运用类型化分析方法,阐释人工智能刑事风险的具体内容。类型化分析方法是一种长期被忽视但却对刑法学研究至关重要的研究方法。本书在总结人工智能刑事风险主要类型的基础上,充分运用类型化分析方法,根据刑事风险指向对象和主要内容的差异,将人工智能刑事风险分为对象性风险、纯正工具性风险以及不纯正工具性风险三类,即人工智能系统成为犯罪对象被不法攻击或操纵的“对象性风险”,人工智能被滥用于实施犯罪的“纯正工具性风险”,以及人工智能脱离人类控制而严重侵害人类法益的“不纯正工具性风险”。不同类型的人工智能刑事风险,在生成机制以及治理逻辑等方面也存在相应差异,自然需要以不同的治理规则予以应对。这种类型化分析方法向读者较为清晰而系统地展现了人工智能刑事风险之所在,更为人工智能刑事风险的刑法应对提供了基本框架。
三是立足刑法的任务和属性,妥当组织对人工智能刑事风险的刑法反应。现代刑法在专注自由与权利保障的基础上,也将包括降低风险、保卫安全在内的法益保护作为基本任务。由于刑法是最具严厉性且成本最高的治理机制之一,理应坚守谦抑性的内在属性,在民事侵权责任机制及行政处罚机制难以达到治理效果时,才选用刑法治理机制介入。本书在认同这一公理的同时,也进一步指出:“刑法谦抑性的要旨在于规范国家刑罚权的行使,防止国家刑罚权过分或不当侵入公民社会生活,强调合理划分不同法律部门在调整特定行为的具体分工,实现特定行为法律规制系统内部的协调性与互补性,而限定刑法规制范围却非刑法谦抑性的必然要求,刑法规制范围也并非越窄越好。”按照作者的理解,既然人工智能带给人类社会的刑事风险客观存在,运用刑法给予应对必定是刑法切实承担保护法益任务的表现,不会与刑法的谦抑性相抵触。虽然对刑法谦抑性内涵的此种诠释是否完全科学合理还可进一步讨论,却也彰显出刑法不应停滞固化,需随着社会的发展和变迁而适时调整其任务。当然,作者也深刻认识到单纯靠刑法应对的严重不足,充分重视行业规范、行政规制等非刑机制在应对人工智能刑事风险中的应有价值,并通过刑法中的“容许性危险”等教义学出罪原理,以实现刑法与其他治理手段的融会贯通。
四是秉承科学治理理念,建构人工智能刑事风险的刑法应对方案。正如对犯罪的治理必须厘清诱发犯罪的各种因素以及各种因素相互作用的致罪机制,人工智能刑事风险的有效应对也要求明晰人工智能刑事风险的产生机制和内在规律,进行有针对性的治理。据此,本书分别提出了对人工智能工具性刑事风险的应对治理方案:针对人工智能被滥用于实施犯罪的“纯正工具性风险”,提出应当运用刑法教义学分析范式,根据现有刑事归责原理,对故意设计、制造邪恶人工智能,懈怠注意义务设计、制造严重瑕疵的人工智能,滥用人工智能实施犯罪或者未尽合理监管义务导致严重危害后果等,分别追究人工智能背后相关人员的刑事责任;针对人工智能脱离人类控制侵害法益的“不纯正工具性风险”,提出在有的情况下需要借鉴“科技社会防卫论”,运用保安处分予以应对,但在另一些情况下则可以援引“容许性危险”作为法理依据来排除刑事归责,通过商业保险等社会性风险分摊机制予以应对,以期尽量为人工智能技术的发展预留必要的法律空间。
本文摘自作者给《人工智能刑事风险治理逻辑与刑法应对研究》(曹波著,经济管理出版社2024年版)一书所撰序言。
作者:刘仁文,中国社会科学院法学研究所研究员,中国刑法学研究会副会长。
来源:《民主与法制时报》2024年12月19日。