小
中
大
2017年11月8日,中国社会科学院国际法研究所国际刑法研究中心在北京举办了“互联网与人工智能:刑法科学的新时代”研讨会。来自中国社会科学院、北京大学、清华大学、中国人民大学、中国社会科学院大学、最高人民法院、最高人民检察院、奇虎360公司法律研究院等单位的理论与实务专家共计二十余人参加了本次研讨会。
中国社会科学院国际法研究所国际刑法中心樊文主任在致辞中指出,本次会议的主题是:互联网与人工智能的新时代条件下,刑法科学面对的挑战和发展问题。尤其是以人工智能为代表的智能代理,日益广泛地进入我们的生活领域,这让法的基本功能——最明晰地界定责任,日益重新回归法学研究的重心。作为技术创新,特定事件流程的数字化让我们思考:我们的责任概念还是否具有适当性。比如,自动驾驶汽车,因为它在自动模式运作,没有正确地采集数据、错误地解释了数据,或者自主地给予了不当反应,自动驾驶汽车背后的人有责任吗?智能代理的责任问题,涉及领域广泛,比如保险经济、智能交通、智能家庭、收集垃圾、参与战争等等,涉及的责任问题也很多而且复杂,比如会涉及到国际法(包括国际刑法)上的问题,宪法上的问题,许可法上的问题,侵权法上的问题,保险法上的问题,以及事故数据存储上的问题,安全性上的实验证明责任问题,提供商责任问题,刑事责任问题等等。智能代理的广泛应用和技术风险,必然引发许多(传统)规范的改变。目前的法律尽管没有对自动驾驶技术设定限制,但是,法学必须先期为能够设想到的问题,提供适当的解决预案。其他部门法学对于这些新技术时代的法律问题,已有初步研究;刑法科学也应当勇于探索、积极回应新技术发展所提出的刑法问题,向新的时代挺进!本次研讨分四个单元进行:互联网与刑法、人工智能与刑法、刑法科学的未来——新问题、刑法科学的未来——新视角。
第一单元“互联网与刑法”由中国社会科学院法学研究所《环球法律评论》王雪梅编审主持。360公司法律研究院张建肖研究员发表讲话认为,网络犯罪层出不穷,对网络犯罪的防范,比事后打击更为重要。在预防网络犯罪的同时,要切忌由于“讳疾忌医”式的思维而“禁止发现危险”。中国人民大学法学院陈璇副教授认为,互联网发展对刑法的挑战主要在于归责方面,并结合过失犯问题展开讨论,进而提出“能为和当为之间的关系”、“不法和责任之间的区分”这两个问题供大家思考讨论。清华大学法学院王刚副教授认为,针对“互联网与人工智能时代”这一“第四次工业革命”,刑法学者也应积极回应,并着重从财产犯罪的视角探讨了互联网的发展对传统刑法教义学提出的挑战。中国人民大学法学院蔡桂生博士探讨了互联网的发展对人类行为原理的影响,进而对刑法科学的影响,并从诈骗罪的角度讨论了人工智能这种“拟制化交流”可能导致的“不真实的意思表示”,而这又会影响到罪刑法定原则。最高人民法院中国应用法学研究所助理研究员周维明认为,学界与实务界应通过解释论来解决帮助信息网络犯罪活动罪与非法利用信息网络罪在司法适用中的疑难问题,密切关注网络灰黑产问题,对人工智能的发展大可不必过于忧虑和紧张。
中国人民大学法学院陈璇副教授主持了会议的第二单元:“人工智能与刑法”。樊文博士发言认为,引领智能代理开发利用的先进国家,他们早在2012年就对智能代理的刑事责任开始讨论。5年来,他们的研究持续深入,创新成果不断。但是,围绕的问题仍然是:如果智能代理造成了具有刑法意义的结果,比如人被杀或被伤害,物品被毁,产生的责任问题是:谁是责任人?谁承担刑法上的罪责?是使技术发挥功能的那个人?还是智能代理本身?或者根本没有人为此承担刑事责任,就让公众为享用开发和利用此类技术提供的便利,理所当然地相应承受部分不可预测的后果(与享用便利相匹配的可容许的风险)?具有学习能力和自主决断能力的智能代理引发刑事责任的可能性及其界限,是值得探讨的重要问题。另外,对于自动驾驶汽车面临紧急避险,需要做类似于人的“两害相权取其轻”的权衡时,怎样界定责任问题,也是极有意思的新问题。中国人民大学法学院王莹副教授认为,人工智能这个概念和边界未有定论,我们应关注如何从应然法(lex frenda)转化为实在法(lex lata),法律人应理性谨慎地看待这个趋势,并应对由此带来的法学范式的转变。最高人民检察院检察理论研究所副研究员陈磊认为,互联网和人工智能的发展对人类生活和行为的颠覆性变化超越了历史上任何一个时代,需要注意平衡技术创新和安全价值之间关系的问题。此外,他结合司法实践探讨了非法利用信息网络罪、帮助信息网络犯罪活动罪的司法适用以及网络刷单的主体责任和综合治理问题。中国社会科学院法学研究所《法学研究》李强编辑就人工智能的发展对刑法基础理论所可能产生的影响谈了自己的看法,他以过失犯为例提出,在未来人机结合得以实现的情况下,如果人的能力得到显著提升,并在不同的人之间形成显著的能力差异,那么刑法应否赋予能力更强者以更高的注意义务?假设随着大数据、人工智能技术的发展,我们有可能把个体间的差异分析掌握得非常全面,那是否可以就每个个体制定“个性化的法律”?此外,他还谈及了刑事责任主体问题,认为目前的人工智能并非通用智能,而人的智能是通用智能。那么作为传统刑罚理论基础的道德感受力(对刑罚的感受力)和自由意志,是否只能基于通用智能产生,并非通用智能的人工智能能否产生道德感受力和自由意志,从而成为刑事责任主体,就需要我们认真思考。中国社会科学院大学方军博士探讨了人工智能能否成为刑事责任主体的问题,如果答案为肯定,那对人工智能施加传统意义上的刑罚意义何在。此外,他还讨论了大数据背景下的电脑量刑等人工智能对于法律服务和法律职业等所可能带来的机遇与问题。
第三单元“刑法科学的未来:新问题”由北京大学法学院江溯副教授主持。王雪梅研究员发言探讨了“如何追究责任主体”和“证据问题”。她首先指出,根据人工智能的发展阶段,在目前“弱人工智能”阶段,因为人类对人工智能还是完全可以控制的,所以此时应该追究人类的责任;当发展到“强人工智能”阶段时,追究谁的责任,如何追究?是非常复杂的问题,需要具体分析;至于在“超人工智能”阶段,设想彼时人工智能已经完全失控,那可能人类都已被人工智能所控制了。关于证据问题,王雪梅研究员认为,这具体又涉及到证据的认定、证明力,以及对隐私权的侵犯等问题。中国社会科学院大学何庆仁教授认为,要稍微区分互联网和人工智能这两者,因为互联网是已经发生的,而人工智能是正在发生的。他认为,在此背景下,共同犯罪的理论从整体上讲还是可以维持的,并提出了人工智能“能否成为独立保护的客体”和“能否成为独立的规则主体”这两个问题。中国社会科学院法学研究所刑法研究室焦旭鹏副研究员首先提问,“什么是我们的新时代问题”,指出现在我们还处于弱人工智能时代,风险刑法并不是真正的“风险”;接着,他认为可以从社会学上整体把握这个问题,由此打开理论研究的视野,并继而探讨了“什么是刑法的理论资源”以及“什么是我们的突破口”。中国社会科学院法学研究所刑法研究室助理研究员张志钢博士提出了两个问题,第一,比特币能否成为犯罪或受保护的对象;第二,机器人能否成为刑事责任主体,这些都涉及到对传统刑法理论的理解问题以及对“人的意志自由”的解读,他认为,可以通过区分“能否成为刑事责任主体”以及“如何进行刑罚”这两个方面来做进一步研究。中国社会科学院法学研究所博士后郑佳就目前涉“互联网”犯罪现象,提出了三个方面的问题:个人信息保护的问题;私自上锁共享单车涉及的“盗窃罪”认定问题;网络服务提供者的责任问题。
第四单元“刑法科学的未来:国际法的新视角”由中国社会科学院法学研究所《法学研究》编辑李强博士主持。中国社会科学院法学研究所博士后邓华从国际刑法的角度切入,探讨了在武装冲突中使用人工智能可能会对国际人道法中的区分原则和合比例原则造成的挑战,并进一步结合国际法院1996年“以核武器相威胁或使用核武器的合法性”咨询意见案深入分析,同时也探讨了在此情形下国际刑事责任主体问题,指出互联网和人工智能的发展同样也给国际刑法和国际法的原则、规则和制度带来了挑战和反思。中国社会科学院法学研究所博士后赵心指出,在国际人道法下,敌对行动造成的冲突类型的确定,对于确定其法律性质、适用的法律范围都有着不可或缺的地位;随着信息时代的到来,网络攻击行为的法律性质成为争议。如果要判断网络攻击能否适用国际人道法,首先是明确网络攻击引起的冲突的类型,进而确定网络攻击是否属于“武装冲突”范畴;国际人道法如何适用于网络战争,网络攻击构成的冲突能否符合武装冲突的分类,对上述问题进行深入研究有重要意义。中国社会科学院法学研究所博士后时方认为,随着人工智能的发展,机器人不仅可以作为犯罪客体存在、认定,同样基于其高技术性也可成为诈骗罪等财产犯罪的实施者以及刑法规定的其他罪名进行认定;对于人工智能刑事责任的认定需结合经济、技术发展的特殊性区别于传统自然人刑罚惩罚的归责原理与规制措施。中国社会科学院法学研究所博士后贾元首先提出,在刑法语境下讨论的人工智能概念范围究竟有多大?要注意和民法等其他法律概念的区别,并不是所有相关行为都需要刑法介入。其次,人工智能领域的法律规制要注意预防性,因为这个领域制度风险、决策风险、技术风险并存。最后,这个领域中一个重要的问题就是个人信息的保护,个人信息是一个人格权、财产权与超个人权利混合的权利。
最后,樊文主任作研讨总结。他指出,从“没有马的马车”(汽车时代)到“没有马夫的马车”(自动驾驶汽车时代)的又一次飞跃,智能代理必将更为深刻地改变我们的生活,给我们带来极大的便利。然而,不能一味地追求便利,而苛求于技术本身的风险;便利的对价只能是接受可容许的风险。自动驾驶汽车将会带来的风险,在法的意义上哪些是“可容许的”,需要法学研究预先给出答案。高度个体化的、针对每个人为特色的刑法归责理论,尚不能对人机互动过程中的责任进行合理划分。机器背后的人的刑事可罚性问题,更为棘手。机器所安装的运算规则的“自动性”能否阻却智能代理的行为的实际操作者的罪责,智能代理的错误行为是否可以预见,在智能代理的运用在某些领域成熟到常态的程度,它计划外的失灵是否可以归入相关人员的一般生活风险,等等都是新的问题。另外,鉴于智能代理应用的巨大社会利益,有学习能力而自主决断的人工智能,产生的部分风险,是否应当忍受,这个涉及到智能代理操作者的谨慎义务的边界。对于智能代理的控制,人类不可能做到完美,与之相关的风险,人类不可能完全计划和掌控。智能代理体,越是研发应用得成功多样,越是学习、决断发展而越发“智能”,也就越是能摆脱操作者的预先规划,人们越是难以发现编程开发方面的差错,而这些差错或者错失,可能就是相关人员基于过失的刑事可罚性的根据。不可因最终无法完美控制智能代理的风险而全面禁止它,就只能让大众来承担不能通过编程和负责任的应用而可靠掌控的风险,这个风险的范围内,刑法不应介入干预。随着互联网和人工智能的飞速发展,这无疑也会给刑法带来一些可以设想到的变化。比如,未来的酒驾罪就会消失、紧急避险制度可能修正等等。刑法科学肯定会让互联网与人工智能所展现的美丽世界,更加美好。
研讨会在热烈的气氛中圆满结束。