首页
法学研究所概况
国际法研究所概况
研究人员
科研成果
学术活动
法学刊物
法学教育
图书馆
工作平台
搜索

 

English

日本語

한국어

人工智能的道德性何以实现?——基于原则导向治理的法治进路
徐玖玖
字号:

 

摘要:人工智能是模拟、延伸和拓展人类智能的新兴技术其道德性的实现尤为重要。人工智能的道德失范既是一种客观的现象描述也是一种主观的价值判断既有积极效应也有消极效应。从全球人工智能道德性实现的实然应对来看人工智能道德准则的探索呈现出技术主义、降维虚化、内核分歧的特点并不能为道德性的实现提供可行方案。这一困境的根本原因在于人工智能技术性与道德性之间的冲突难以调和而以“技术—法治—人文”为范式进路探索技术性与道德性的激励相容之道是这一问题的关键所在。对此引入原则导向治理理论可以在人工智能道德性实现的理想状态与现实规范之间创造出包容审慎的制度空间构建由核心原则框架与工具选择共同组成的人工智能原则导向治理体系实现人工智能道德性在道德价值、技术要求和法律语言之间的“转录”。  

关键词:人工智能道德性技术性原则导向治理法治激励相容

 

“人工智能时代”来临信息技术正在与社会经济生活深度融合人机交互不断加深人工智能不但成为日常生活的构成要素而且逐渐向声誉、信用等具有人格属性的私领域渗透。在这场“第四次工业革命”中人工智能作为引领未来的战略性技术对于提升国家竞争力、维护国家安全、提高人民生活水平都具有重要的意义。习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”“要整合多学科力量加强人工智能相关法律、伦理、社会问题研究建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”相较于一般的技术创新人工智能的特殊性是其旨在模拟、延伸和拓展人类智能对于人类社会的发展具有更深层次的影响。然而人工智能的发展也对既有的社会结构及其规范体系产生冲击出现了一系列偏离传统价值观念的失范现象。例如人工智能技术的应用对社会、文化和政治环境带来的系统性影响;人工智能设备的行为可能会超出所设定的原则从事不道德行为;人工智能技术可能因训练数据的偏差导致更加不公平的决策歧视;等等。因此如何实现人工智能的道德性纾缓技术与道德之间的冲突是始终萦绕在人工智能发展之上的“达摩克利斯之剑”。人工智能道德失范的“基因”是否会成为技术创新的阻碍因素?怎样的治理范式才能解除人们对于技术的担忧?如何实现科技的可持续发展?对于这些问题的回答都将决定人工智能的未来之路。

一、人工智能道德失范的判定与讨论

(一)人工智能道德失范的客观存在:技术失序与规范失效

“道德失范”(disordered moral)通常属于伦理学的范畴是指由于社会生活中道德价值及其规范要求的缺失或失效导致社会行为和社会生活出现混乱。从这一意义上而言人工智能的道德失范是一种状态即社会既有的价值观念被技术所打破或否定包括法律在内的各类社会规范丧失约束能力而新的、有效的规范尚未建立或达成共识由此所呈现出的失序现象。因此人工智能道德失范的判定包括两个因素:一是存在失序现象二是缺乏有效规范。

第一人工智能技术存在失序现象。对于技术失序的担忧广泛见于各国或国际组织关于人工智能相关的政策文件之中。例如,20202月欧盟委员会发布的《人工智能白皮书:通往卓越和信任的欧洲之路》(White Paperon ArtificialIn telligence -A European Approach to Excellence and Trust)将人工智能可能带来的危害描述为生命健康和财产安全等物理伤害、隐私和尊严等非物理伤害;20194月澳大利亚工业创新和科技部发布的《人工智能:澳大利亚的伦理框架》(Artificial IntelligenceAustralias Ethics Framework)提出算法可能有损公平、透明、基本权利保护等法益甚至瓦解作为法治根基的正当程序原则。而从实践来看由人工智能技术所引发的诉讼案件已然出现算法失能和技术风险带来的道德失范成为裁判的焦点。例如2019Lynchv . State一案中警方运用“人脸分析比较测试系统”(FACES)辨认犯罪嫌疑人,FACES通过处理和分析被匹配图像将其与数据库中图像进行比对并将识别出的图像根据匹配度的高低进行排序。法庭认为FACES所应用的算法并非完全中立、可靠、准确的描述法庭所援引的研究报告甚至指出相比白人、老人和男人面部识别算法更容易误认黑人、年轻人和妇女。

第二人工智能技术缺乏有效的治理范式。在应对人工智能技术失序的过程中无论是传统的人文主义进路还是新兴的技术主义进路都面临着一定程度的困境。一方面传统的人文主义范式被打破。人文主义视角以人类权利为逻辑起点以人类的尊严和福祉为导向要求技术表现出一定的人文关怀和人文精神。然而道德具有抽象性和非单一性以法律的可规制性为标准可以发现道德的法律支持包含两个层次:一是基础的层次基本的道德义务在长期的社会发展中演化为普遍共识并通过法律形式得以固化和执行;二是超越的层次即更高阶的“善”受制于不同国家和地区文化传统、法治水平、民众选择等因素的影响。基础层次的道德虽然更易获得法律的支持但不同法制体系对于道德的解读和实践亦有差异;而超越层次的道德存在多元性法律无法对此课以过于严格的规范要求。

另一方面新兴的技术主义范式亦有局限。技术主义视角是从技术出发将道德问题还原为技术问题认为技术的设计与开发应当承载道德价值并有利于实现人类的目标。人们对运用人工智能模仿人类理性活动抱有极高的期待新近技术已经从简单的形式推理向不精准推理和非单调推理发展人工智能打破了人类与理性之间的亲历关系被视为技术可以依靠自身解决道德问题的重要标志。简单的计算主义和技术主义思潮将“技术主义”作为归正道德失范的“万能解”认为技术风险源于科学也应求解于科学通过技术方案或者技术专家实现“技术治理”。然而在客观方面人类的理性活动不可能完全通过机械的数据呈现为一种“规范的作业”;在主观方面技术产业化使科学界在事实上无法完全摆脱资本的俘获。技术专家作为理性经济人存在的逐利性并不会因其受制于职业道德的约束就自发地趋向完全理性。根据马克思主义哲学辩证唯物主义主客观相统一是正确认识事物的一项基本原则。技术作为一种客观事物需要与人的作用相结合本身无法脱离人而单独存在。技术主义无法为人工智能的道德性提供自洽的范式人工智能仍要接受法律的规训和道德的指引承载起良好的价值理念。

(二)人工智能道德失范的辩证认知:消极效应与积极效应

技术的发展催生了关于人工智能道德问题的广泛讨论。从国外研究来看,Edmond Awad等从233个国家和地区数百万人次超过4000万条的决策中发现自动驾驶汽车的决策遵循人类的道德偏好并受到人类文化差异的影响。Anna Jobin等发现全球范围内人工智能的道德准则在透明、公平正义、无害、责任和隐私五个方面出现融合但具体实践和概念内涵仍有较大分歧。Brent Mittelstadt认为相较于医学伦理原则人工智能伦理原则在概念化和体系化的表述中缺乏共同目标和信任关系、专业的历史和规则体系、将原则转化为实践的可行性方法、健全的法律和问责机制等要素。国内关于人工智能道德性实现的研究亦是硕果稇载:例如王东浩认为应当培育智能体的自主决策能力和道德控制力;李伦认为人工智能需要一颗“良芯”“行有德之事做有德之机器”;孙那提出应在立法、司法裁判和法律效果评价等环节嵌入道德的考量因素;杨庆峰认为应当通过透明性和关联性构建人工智能伦理原则。可以发现现有研究主要集中于伦理学、哲学、信息科学等学科范畴虽有交叉学科的广度但整体呈现为较为零散和碎片化的学术场域样态。而法学领域尚未形成专门针对人工智能道德性实现的规范分析亦未寻找到技术主义、人文主义等不同范式相互融合的可行路径。

人们对人工智能从拥抱之姿向审慎之态转变关注焦点从静态的技术本身向动态的技术应用转向希望人工智能的自主决策能够与人类的道德观念相一致。然而目前人工智能产业缺乏共同的价值标准从业者缺乏识别和应对道德问题的敏感认知和专业能力导致技术出现失控或脱离规范的约束。在这种道德失范的未来图景中人工智能与人类的发展、幸福和自我实现并不趋同。而对于这一话题的探讨需要回归到最基础的问题即如何认识人工智能的道德失范并在辩证唯物论基本规律的框架中展开讨论。人工智能道德失范的判定隐含着一个大前提即某种特定的道德标准先于技术而存在。因此在人工智能的道德性如何实现、实现的必要性、实现的限度等具体问题上就必须考量既有道德价值是否正当、合理和必要。从这一角度而言人工智能的道德失范是客观现象与主观判断的统一。一方面人工智能的道德失范具有客观性和必然性。随着信息技术的创新和发展社会规范体系无法满足技术演变所产生的制度需求人工智能的道德失范是复杂社会技术系统中必然存在的客观现象。另一方面人工智能的道德失范具有主观性和变化性。事实上应对人工智能的社会规范并非固定不变本身亦处于不断否定之否定的过程状态并在矛盾与冲突中改变、适应和提升。由此人工智能的道德失范是伴随技术发展的一种正常的社会现象其既有矛盾冲突的消极效应也存在创新更替的积极效应:对于前者而言人工智能道德失范是技术处于一种风险失序和规范失效的过程状态;对于后者而言人工智能道德失范也代表着规范转向和价值重塑的过渡阶段。因此人工智能道德性的实现既需要激励其积极的一面又需要审慎其消极的一面在法治的框架中实现积极效应与消极效应的博弈均衡。

二、人工智能道德性的实然应对与应然需求

(一)实然应对:人工智能道德性实现的全球探索

从全球范围来看人工智能的道德性难题并非中国所特有而是各国人工智能法律治理的共同话题。通过检索和梳理可以发现201611日至2020630以公共部门为发布主体针对人工智能道德性进行专门规定的政策文件有13件(表1)。整体而言2017年开始各国公共部门就高度关注人工智能的道德问题对于人工智能道德准则的期待多集中于公平公正、责任安全、透明可信、隐私保护、以人为本、效益等方面(图1)。人工智能道德性实现的全球探索整体呈现出技术主义、降维虚化、内核分歧的特点。第一在范式选择上带有浓厚的技术主义色彩通过将道德问题还原为技术问题要求人工智能技术在开发、应用和创新中承担起捍卫道德伦理的责任。第二在文本表述上主要由宣示性或倡导性条款组成在规则向实践的转化过程中出现了降维虚化。各国人工智能道德性的实现方案多停留于更高阶的“原则”层面既没有与现行规范进行接轨和协调也无法为在道德价值、技术要求和法律语言之间形成科学、合理、规范的“转录”提供规范性的工具选择最终“始于原则”而“终于原则”。第三在具体内核上人工智能的道德准则虽然出现趋同但在重要概念、基本框架、实现方式等方面尚未形成共识。

 

0b427aec5f142527b59cce491b34fad9

 

5138bd1e5e196fa40fcfa3bf86343af7

 

由此观之目前全球人工智能道德准则的实践探索并不能为道德性的实现提供可行方案。人工智能道德性实现的困境源于技术性与道德性之间的冲突难以调和无法达致技术与道德的均衡支点。人工智能的道德失范源于其原生性的技术基因。技术与社会的深度结合成为公共事务的重要表达方式对基本的道德理念和人类的主体性产生冲击模糊作为主体的人与作为客体的人造物之间的界限消解人们对于道德伦理的普遍共识。而人工智能的道德性意味着技术需要承担起权利保护、效率激励、公共利益等多重价值弥合从业者、监管者、社会公众之间的利益诉求。这种价值的背负表明人工智能的道德性实现不可能是完全中立的而必然隐含着对某种价值标准的偏好。因此人工智能的法律治理需要在技术性与道德性之间寻找利益的均衡支点如果过于宏观则会丧失规范的意义如果过于微观又会禁锢技术迈进的步伐。

(二)应然需求:人工智能技术性与道德性的激励相容

学界对于人工智能的治理范式已有不同学说。张守文教授认为人工智能产业应当在“技术—制度”的分析框架内因循“人工智能技术—人工智能产业—经济法规制”的逻辑主线。龙卫球教授认为人工智能的法律治理需要考虑其强社会面向构建“技术—社会+经济”的新立法范式。曹建峰研究员认为人工智能的治理范式可以选择科技人文协作为进路实现科技与人文的平衡。张文显教授提出应以“未来法治”为科学范式实现“面向未来”“走向未来”和“引领未来”的法治构建以科学、人本、包容、普惠、共治为元素的智能社会法律秩序。可以发现人工智能的治理范式始终围绕着技术和人文这两个关键词区别在于面向的维度或选择的侧重点有所不同。

正如前文所述仅凭单一的人文主义或技术主义范式无法有效应对人工智能的道德失范。人工智能的道德性实现涉及伦理、观念、法感情等因素这使技术与道德之间的博弈存在着一定的张力。技术性与道德性之间的均衡需要依托人类的理性思辨而非将道德价值、技术语言与既有法律进行简单的拼接。对此“技术—法治—人文”可以成为人工智能道德性实现的新范式即以法治为媒连结技术与道德既规范技术的应用边界促进其道德性的实现又为技术预留包容审慎的空间。由此推动技术主义与人文主义的范式融合调适地、渐进地化解技术与道德之间的冲突在法治的框架中实现价值的均衡与归正探索人工智能道德性实现的激励相容之道。

“技术—法治—人文”的范式进路是将宪法和法律作为人工智能道德性实现的框架秩序对科技可能带来的非理性后果保持审慎观察以法治手段均衡技术创新与人类权利之间的关系。然而成文法的规范体系具有滞后性亦不可能绝对完备无法调整所有形态的社会矛盾。正如梅因所言“社会的需要和社会的意见常常是或多或少地走在法律的前面……因为法律是稳定的而我们谈到的社会是前进的。”对此原则主义(principlism)可以为“技术—法治—人文”三路向的融合提供一个均衡的支点提高治理方案的适用性和周延性。基于原则主义通过法律原则的确立达成一定范围的道德共识将道德要求转化为具体的责任形式以期道德性在现实层面得以实践和呈现。

三、人工智能道德性的实现路径与理论证成

(一)原则导向治理的引入与评价

原则导向是相对于规则导向而言的两者的根本区别并不在于是否包含具体的规则而是规则的使用方法:规则导向监管通过一系列的法律法规实现尽可能的全面覆盖以确保市场活动的合规性但由于规则过于具体和细致市场主体和监管机构的能动空间较为有限;原则导向治理强调规则的出发点或目的明确被监管者需要遵守的根本性义务以结果为导向以更高位阶的原则而非具体的规则为工具但不对被监管者如何达到这一目标进行具体要求在语言表述上多为定性术语而非定量术语为市场主体提供充分的发展空间。原则导向监管的逻辑在于从业者作为最直接的市场主体应当有能力在市场竞争中精准地推演和量化风险相较而言监管者容易出现拖滞和官僚等倾向产生阻滞效应。因此,2008年金融危机爆发之前原则导向监管被视为激活金融市场的“催化剂”和培育金融创新的“温室”并在各国实践中发展出了“最少的监管就是最好的监管”“轻触式监管”(light touch regulation)等多种形态。但是2008年金融危机爆发后原则导向监管被认为是次贷危机酿成的制度根源。理由在于原则导向的监管认为从业者都是谨慎并且负责的因此市场也具有了自我修正和调整的能力。然而事实是市场并非万能从业者也并非完全理性。原则导向监管过于依赖金融机构的理性只能对“有原则”的从业者产生约束却变相地为“无原则”的从业者提供了漠视风险、套取红利的寻租通道。

从法治的思维观之人工智能的道德性实现若以原则导向治理为径尚需回答三个问题:第一人工智能原则导向治理能否在技术和道德之间实现可行的“转录”。虽然原则导向治理更多体现为更高阶的法律原则但同样需要将道德的要求、理念和精神进行概念化和规范化成为能够应用于个案判断的法律语言而不能为道德困境和价值取舍等难题提供逃遁的空间。第二人工智能原则导向治理是否会导致道德的简单化。有观点认为人工智能的道德要求仅仅是一种“美德信号”(virtue-signalling对人工智能的技术性和道德性实现法律归化最终恐沦为一种乌托邦式的治理。人工智能涉及诸多各异的专业领域为了适应学科交叉的多元性法律(包括法律原则)似乎唯有不断简化内涵、模糊定义才能满足应用的需要。但这种为了适用性而进行的妥协亦使规范过于抽象而丧失了良好治理的价值甚至可能产生道德相对主义。第三人工智能原则导向治理是否会违反法治原则。法治的基本要求是规则在表述上应当明确、清晰满足所有主体对规则确定性的需求而模糊的开放性标准和不确定的法律概念都可能加重被监管者的义务是用“简单的外衣”覆盖“复杂的身躯”。

(二)人工智能原则导向治理的合理性论证

原则导向监管并不等于“放任监管”事实上即使是在后危机时代金融监管也并未摒弃高级监管原则的应用。原则导向与规则导向之间并无绝对的优劣之分只有相对的适合与否代表着不同的监管理念:原则导向监管更尊重市场竞争、产业创新和从业者自律弱化政府的功能和作用保持政府干预的谦抑性;规则导向监管则展现了“父爱主义”的规制色彩强调市场主体应当遵循各类规范的具体要求。相较而言原则导向治理在人工智能道德性实现的议题上更具适用性和合理性。

第一原则导向治理的灵活性和包容性更有利于调和人工智能技术性与道德性之间的矛盾。人工智能的道德性实现需要在不断变化的技术语境与相对确定的规则要求之间寻求可行路径。规则导向治理强调被监管者的合规性其定量要求的列举虽然有利于提高效率和统一标准但对于发展中的人工智能产业而言亦存在着过于滞后、僵化和割裂的局限性而为应对新问题、新风险频繁地立改废释亦会使规范体系越发臃肿庞杂。人工智能原则导向治理则是确定制度目标和预期结果通过概要性的基本准则以及相应的工具手段规定从业者的基本义务形成预见性、前瞻性和基准性的治理框架。这种灵活性和包容性使人工智能原则导向治理在应对技术创新和风险演化时可以较少地依赖于静态或固定的量化指标和行为要求为协调人工智能技术性和道德性的两难困境提供博弈空间。

第二原则导向治理是人工智能实现“技术-法治-人文”重构型立法的重要方式。智能时代打通了技术与生命的双向通道科技极大地冲击了人类作为唯一智能生命的神圣性和不可操纵性深刻地改变着传统法学的面相引发了人们对于赛博朋克之下社会基本价值失序的深切担忧。人工智能的道德性实现既需要解放思想也需要警惕片面的技术理性论的渗透将技术价值和道德价值整合纳入法律的价值体系之中实现人工智能的重构型立法。而在这样一个复杂多变的新兴技术领域实现制度重构原则导向治理能够促进形成更具道德性的治理方案彰显法治之精神。在现代信息社会原则导向治理可以成为缓释监管者、从业者和社会公众之间的利益冲突探寻最大限度的共识并重建协作与信任的有益通路。

第三原则导向治理是过渡阶段人工智能立法的务实选择。2017年国务院印发《新一代人工智能发展规划》(国发〔201735号)提出到2025年初步建立人工智能法律法规、伦理规范和政策体系2030年建成更加完善的人工智能法律法规、伦理规范和政策体系。202010中共中央办公厅、国务院办公厅发布《深圳建设中国特色社会主义先行示范区综合改革试点实施方案(2020-2025年)》强调要“支持深圳扩宽经济特区立法空间在新兴领域加强立法探索依法制定经济特区法规规章”赋予深圳在人工智能等领域的先行先试权。我国人工智能立法已蓄势待发然而其现实的立法条件却尚不成熟。人工智能技术远未成熟诸如人工智能的法律责任、主体地位、权利内容等基础理论问题仍存在较大争议客观上很难在短期内制定出科学合理、完备可行的法律规范体系。对此有观点提出可以选择诸如自动驾驶等技术相对成熟、产品应用存在需求的领域先行展开地方性、试验性的立法。但这仍未回答人工智能如何体系化立法、如何构建顶层制度等问题。原则导向治理与规则导向治理并非二选一的排斥关系而是在完备性和不确定性之间根据技术、社会、法治发展的客观规律结合产业特点和治理场景因势选择:规则导向治理更适合实现高效、重复、统一规制的领域;原则导向治理则更适合能够允许从业者发挥主观能动性实现“创造性”合规的领域。因此原则导向治理对于过渡阶段的人工智能立法具有更高的适用性以先发展后规范、先原则后规则为进路化解人工智能立法的现实困境。

四、人工智能道德性实现的原则框架及其解释

原则导向治理中的“原则”并非简单的治理“底线”或“基本原则”从抽象层面而言是指追求一种治理目标或治理结果的过程和方式。从前文可知全球人工智能的道德性实现在公平公正、责任安全、透明可信、隐私保护、以人为本、效益等方面出现趋同。但是并非所有原则都适合作为人工智能道德性的原则框架例如隐私保护原则更多是个人信息保护维度的要求而以人为本原则应是所有原则的最终指向是更为抽象的“元理念”。对此人工智能的道德性实现可以构建由透明可信原则、公平公正原则、责任和安全原则、效益原则组成框架体系在此基础上实现人工智能的原则导向治理。

(一)透明可信原则

透明可信原则是人工智能道德性实现的“帝王原则”从原则导向治理的角度而言人工智能的道德性实现旨在寻求一种调适性的“透明可信”。

第一透明可信原则并非“全面的、简单的、绝对的公开”。一方面代码等技术内容难以为非专业人士所理解和认知要求人工智能绝对公开和透明缺乏实际意义。另一方面国家安全、知识产权和商业秘密保护通常会成为对抗这一原则的理由使其流于形式而无法实现。透明可信原则的意旨在于打破技术壁垒所带来的道德失范在法律治理与产业激励之间寻求信任与合作的平衡点。因此原则导向治理中的透明可信原则应当理解为一种包容审慎的调适性监管:对于风险较高的人工智能应用将透明可信原则纳入资质审查的范围进行预先解释或公开备案;对于风险较低的人工智能应用可以采取信息披露、消费者主体限定等方式避免过度倚重指令式的规则导向治理。

第二透明可信原则与可解释原则是不同范式对同一问题的表达。有观点认为对于技术的规制正在从透明性向可解释性转化要求从业者对决策的过程、结果和原因提供“与利益攸关者的专业程度相适应”的解释。“解释对于关乎它们的行动、行为和决策透明与否是重要的尤其是在人类需要基于AI系统结果决策的场景中更加重要。一种合适的解释能够提升人们对于系统的信任在交互关系中能够更好的合作。”可信与可解释是人文主义进路和技术主义进路对同一问题不同视角的表达都意在降低因技术所产生的信息不对称程度两者并不矛盾。

第三透明可信原则与可溯源、可问责之间并非互斥关系。有观点认为对于人工智能可能产生的错误或风险法律应当要求其可溯源而非透明。逻辑在于算法透明原则在可行性方面无法应对国家安全、社会秩序和私主体权利在必要性方面无法等于可知缺乏规制的有效性因此相较于算法透明的事前规制以算法问责为代表的事后规制更加妥当。但在人工智能的道德性实现中仍应坚持透明可信的“帝王原则”地位。一方面透明可信与可溯源、可问责之间的区别在于阶段的不同前者以算法为起点着力于应用阶段后两者以结果为起点着力于后算法阶段。事实上可溯源和可问责更多体现于责任和安全原则与透明可信原则并不冲突。另一方面算法可溯源、可问责在人工智能道德问题上的适用性尚需进一步商榷。人工智能技术对于道德价值的冲击是深层次的、结构性的这种影响无法通过事后阶段的溯源或问责实现弥补和覆盖。对于透明可信原则的局限性需要通过细化限度范围、优化工具选择等方式增强其科学性和合理性而非否定或摒弃。

(二)公平公正原则

公平公正原则是人工智能道德性实现的基础性原则。公共部门与私营部门在如何实践公平公正原则这一问题上分歧较大:公共部门强调技术的应用与结果应有助于减轻偏见、避免歧视;私营部门则希望通过标准、编码等技术的修正或升级形成解决方案。分歧的原因在于公平公正原则的实践颇为困难尽管各国普遍“收录”其作为人工智能道德性的重要组成部分但“对于公平的讨论往往流于文字修辞缺乏严谨性和准确性”。而极端的技术主义进路用统计学的方法实现数学意义上的公平但却忽视了公平公正本身亦是一个公共政策问题仍然需要人文主义视角下的沟通与对话以及规范主义视角下程序和权利的保障。

第一公平公正原则是贯穿人工智能全生命周期的基本原则。一方面应警惕技术应用的结果可能对社会和人类发展带来不平等、歧视等问题;另一方面在人工智能开发阶段(例如训练数据、训练方式等)应当在源起时明确其是否存在偏见设定相应的措施手段。

第二公平公正原则是动态的持续性要求。公平公正原则旨在促进平等、正义和多样性的实现然而神经科学证明人们无法全面认知自身的意识过程这种认知偏差同样会影响人工智能道德性的实现。因此需要对人工智能全生命周期设定公平性的监测、审核和反馈机制避免因机器的无意识偏见或从业者的“内省错觉”(introspection  illusion)减损道德价值。

第三公平公正原则是一种实质正义。公平公正原则本身就带有一定的“偏见”隐含着对弱势群体的倾斜性保护。因此公平公正原则并非绝对的“去偏见”化亦非形式公平或技术公平而应以实质公平为导向。这也导致人工智能的道德性实现在工具选择中必然会表现出一定的“弱父爱主义”色彩通过规则构建增强个体的理性条件。

第四公平公正原则是一种程序正义。“善”的讨论并非小群体的智识判断而是关乎最广泛普通人的价值选择。无论是依据科学叙事还是监管逻辑进行立法都容易使风险判断和工具选择出现内循环的局限性。因此人工智能公平公正原则的实践需要程序正义的保障即在系统开发、程序应用、算法设计和政策决策的过程中涉及到重大道德伦理问题时需充分咨询公众、专家、企业等群体的意见在最大范围内达成社会共识。

(三)责任和安全原则

责任和安全原则是人工智能道德性实现的保障性原则。责任原则一般是指人工智能从业者应当对系统的正常运作以及相关的道德准则负责。而安全原则一般是指人工智能需要避免产生伤害同时防止和减少风险的产生。责任原则和安全原则一体两面安全原则是责任原则的目的和指向责任原则是安全原则的工具和结果两者不宜分立讨论而是应当纳入同一框架内根据“安全-风险-责任”的逻辑脉络实现规制。参考借鉴《人工智能:澳大利亚的伦理框架》(讨论稿)中的“算法影响评估”可以对人工智能的道德性影响展开评估并采取不同的应对措施:首先根据人工智能在影响范围、所涉领域、失范类型等因素以程度大小分为不重要、轻微、重要、重大、至关重要等五级道德性影响等级;其次在道德性影响等级的基础上针对不同的人工智能道德失范问题分别采取应对措施属于不重要级别、轻微级别人工智能道德性影响的以内部控制和测试、行业标准、企业自律等方式为主;属于重要级别人工智能道德性影响的应相应增设影响评估、风险控制、信息披露等方式;属于重大级别人工智能道德性影响的还需通过专家咨询、专员设置、资格审查等方式予以规范;至关重要级别人工智能道德性影响的人工智能应当严格审查必要时禁止应用。同时人工智能原则导向治理中的责任和安全原则既包括物理意义上的技术安全也包括抽象意义上的安全可控。人工智能技术应当避免直接或间接地损害用户以及利益相关方的权益而决策者和从业者都应对人工智能在社会稳定、价值观念、法情感等方面可能产生的冲击保持审慎选择更为成熟而非冒进甚至激进的方案。

(四)效益原则

效益原则是人工智能道德性实现的激励性原则。效益原则通常关注人类社会的福祉、繁荣、和平和幸福包括繁荣经济为社会创造更多的机会促进人们对科学的理解等内容。原则导向治理中的效益原则既是公益与私益的统一也是一国与全球的统一。一方面效益原则不仅仅是宏观层面的公共利益同样是微观层面的私益。目前对于人工智能道德性的规范思考多以“监管”作为逻辑起点尚未形成产业激励层面的制度考量。原则导向治理有助于在产业激励层面提供一定的包容审慎空间意即这种效益不仅仅是社会或人类视角下的公共利益同样包含了每个人工智能产业的从业者、企业等主体的私益诉求。另一方面效益原则不仅仅是一国之福祉同样是人类社会的整体利益。根据人工智能原则导向治理的和谐发展理念这种效益不能局限于一国之内不应是国家性的效益而应当是全人类(包括代际之内和代际之间)范围内的共同利益。

五、人工智能原则导向治理的工具选择

(一)建立人工智能伦理咨询与审查机制强化公众参与和民主决策

首先通过人工智能伦理咨询与审查机制为人工智能立法和公共政策提供广泛意见。一方面形成日常性的人工智能伦理咨询机制并在中央层面建立人工智能政策委员会。人工智能伦理咨询机制负责为行业监管部门提供信息、更新知识持续跟踪科技风险的新发展建立人工智能风险评估体系并为行业监管部门提供关于人工智能道德问题的专业意见推动形成具有动态性、渐进性和调适性的行业监管。人工智能政策委员会负责宏观审慎监管和政策协调工作就人工智能道德问题向行业监管部门提出建议。另一方面确立具有约束力的人工智能伦理审查机制以行业监管为基础构建具体的实施流程和规范体系。人工智能伦理审查机制需要进一步规范化、制度化、普遍化由行业监管部门与审慎监管部门通过监管备忘录等形式形成信息共享机制并在此基础上定期更新明确不同行业监管部门在人工智能道德性实现方面的职责范围。在人工智能可能涉及重大伦理或道德问题时行业监管部门应在充分咨询信息科学、伦理学和法学等领域专业意见的基础上与人工智能政策委员会就重大议题的信息、建议、知识等方面展开沟通和合作。

其次推动形成对于人工智能道德性实现的公共讨论和民主决策过程。无论是由科技专家主导的技术规范还是由法律专家主导的司法裁判在涉及社会公众重大利益的决策中人工智能法治应当为普通民众预留充分的意见空间。具体而言在宪制框架中依循法定程序进行充分的讨论和审议将人工智能决策相关的重大伦理和道德问题交由更具广泛代表性的集体展开商讨在技术、法治、人文三路向的基础上凝练社会共识体现人民群众普遍认同的道德、情感和价值判断标明人工智能道德性实现的底线。

(二)构建人工智能领域的主体适当性制度与避风港规则

从业者往往被视为人工智能道德性实现的关键甚至有观点提出应当建立高风险人工智能系统开发人员的许可制度以从业者的准入门槛为工具将技术的道德难题交托于具有较高道德标准的主体进行解决并在有限的主体范围内落实道德原则的实践要求。但其中存在着一定的逻辑错位人工智能的风险必须结合应用场景展开讨论主体资格的筛选并不能保证技术能符合更高的道德要求。风险的讨论应当回到其对应的概念之上即风险的承担让能够承担高风险的主体承担高风险、获取高收益让无法承担高风险的主体承担低风险、获取低收益这才是符合成本收益理论的制度选择。

因此相较于从业者许可制度而言更加合理的工具选择应当是以“从业者有责消费者自慎”的主体适当性制度为主以“避风港规则”为辅形成人工智能法律治理的双重责任规则。根据近代民法契约自由的法治精神交易达成严格执行“成年人应当自己照拂自己。他无须法律的家长主义来庇护自己。在他行动之时他就应当已经意识到了行为的风险就必须承担相应的后果。”但是受到技术、理性、信息等约束条件的影响特别在新兴的人工智能领域消费者在客观上无法真正了解和确知技术的后果主体的理性条件与风险承担之间存在不对等需要借助法律的意旨补充和扶助消费者的意思表示行为。具言之对于具有技术高风险性或是涉及重大伦理道德问题的人工智能应用应当作为特殊场景适用“从业者有责消费者自慎”的主体适当性规则。一方面从业者对于技术可能带来的风险予以充分的预期、披露和告知同时根据消费者在技术与理性方面的不同认知水平进行主体分类确保技术应用与使用者的主体适当性相匹配;另一方面消费者应当保持自慎的理性姿态保证其在主体适当性审查中所提供的信息准确并且全面为从业者展开主体适当性的分类和匹配提供判断依据。由此通过不同主体应用不同风险条件的人工智能技术在一定程度上呈现法律对于弱者实现倾斜保护的立法取向。与此同时构建激励人工智能产业创新发展的“避风港规则”作为人工智能从业者责任承担的平衡砝码避免对人工智能系统的提供者课以过于严格的法律责任人工智能技术提供者在被告知技术应用存在违背道德要求时应当及时启动审查程序并采取相应措施。对于因消费者未尽到真实告知义务而产生的损害、已尽到法定义务但在现有技术条件确实无法预判的风险等特殊情形应减轻或免除技术提供者的责任。

(三)将人工智能的道德性实现纳入企业社会责任的范畴

人工智能具有高度的专业性和技术性“在法制定层面与法适用层面都需要有足够的专业知识来构架、填充、认知、运作行为规范与评价规范”。人工智能从业者的“良好行为”一方面需要依靠主体的道德信念和职业操守另一方面也需要以治理结构为基础以企业社会责任为依托搭建人工智能道德性实现的责任机制进而提高原则导向治理的可执行性。科技企业对于示范性规则、准则、标准等治理方案的探索非常活跃特别是大型的科技企业既是原则治理的接受者也是重要的参与者和制定者。企业的自我规制在本质上而言是社会自我规制的一种但在鼓励企业充分发挥技术优势、实现自我规制的同时也需要对市场主体的脆弱性保持警醒避免原则导向治理仅呈现为一种虚化的假象。自我规制的脆弱性来源于两个方面的影响:一是技术人员作为个人的脆弱性二是企业作为集体的脆弱性。有观点曾经尝试从信义义务的角度证成企业的社会责任其原理在于由于技术壁垒的存在消费者处于易受技术主体影响的弱势地位对企业形成了合理的、特殊的依赖由此产生企业的信义义务。但是传统的公司治理结构要求企业应当对股东负责相较而言消费者利益以及社会公共利益并不具备逻辑上或法律上的优先性。意即人工智能企业(包括其技术人员)可能出于增加收益的目的选择为了企业利益而忽略风险甚至抛弃技术应用背后的道德考量。因此人工智能原则导向治理需要将道德性实现契入企业的治理结构推动企业自上而下形成具体规范通过实例、示例、标准等多种形式探索不同道德原则实现“转录”的具体方案。

与此同时人工智能企业的类型、规模、技术、信息等条件同样会影响企业承担社会责任的条件和能力。因此对于人工智能道德性实现课以社会责任的要求需要根据技术条件和责任能力进行分类形成梯度设计避免因缺少对不同人工智能企业特殊性的观察而产生规制的失衡。具体而言对于一般性的人工智能企业可以要求其公司治理目标包含其他利益相关者的诉求这些利益相关者包括监管机构、政府以及消费者等主体;对于技术风险较高或涉及重大道德伦理问题的人工智能企业则应当将这一治理目标嵌入公司的具体结构和管理制度之中例如设立专任的技术风险安全官或伦理道德审查委员会将安全与道德问题纳入内部监督和审查的范围完善技术风险与安全问题的信息披露机制等。

(四)扩大司法裁判在人工智能道德性实现中的能动空间

通过原则导向治理实现人工智能道德性的最终环节即为纠纷的解决。这需要依托于法官作为“人”的理性思辨。据检索现有涉及人工智能技术应用纠纷的案件已有四例两例为民事侵权两例为刑事犯罪:李××与广州网易计算机系统有限公司网络侵权责任纠纷案[2019)桂0802民初3026],原告起诉被告的人工智能客服造成其游戏账号产生财产损失;黄××与北京百度网讯科技有限公司网络侵权责任纠纷案[2018)粤0192民初1322],原告起诉被告的人工智能图片搜索技术从第三方网站抓取图片相关搜索结果侵犯其名誉权;裴×犯提供侵入、非法控制计算机信息系统程序、工具罪案[2018)川13刑终240],被告人通过人工智能训练提高打码平台识别验证码的能力增加他人QQ号被盗取的风险;张×、陈××、张××等提供侵入非法控制计算机信息系统程序工具罪案[2018)浙0602刑初101],被告利用识别图片验证码的AI人工智能程序提高打码平台识别验证码的能力帮助他人批量注册或盗取QQ账号。从未来的趋势来看人工智能纠纷通过司法途径进行解决的情形必然持续增加。

事实上从美国人工智能的治理实践来看法官在化解人工智能所带来的伦理难题和道德争议中扮演着非常重要的角色。除了技术专家之外研究者希望通过司法过程推动人工智能活动中不同利益诉求的竞争、诉辨与对抗由法官从中立的角度完成人工智能技术性与道德性的价值衡量。未来我国人工智能纠纷也需要向司法解决途径进一步推动。在这一背景下为了弥合技术与法律之间的鸿沟诉讼法中的专家辅助人制度也许可以成为一个适用的接口。我国现有专家辅助人制度(“有专门知识的人”)见于《民事诉讼法》第79是指具有专业知识的人经当事人申请并经人民法院允许代表当事人对鉴定意见进行质证或者对案件事实所涉及的专业问题提出意见是对鉴定人制度的补益。目前我国法律还没有明确专家辅助人意见的性质及其法律效力对于人工智能纠纷中专家辅助人意见可以参考美国《联邦证据规则》第702条“专家证人证言采信规则”基于以下因素予以综合制定:该意见是否建立在充足的事实和资料基础上;是否是可靠的科学方法或原理的产物;该科学方法或原理是否可靠地运用于案件事实。

六、结语:面向未来的人工“善智

人类社会总是处在发展和演进之中在智能时代不断前进的滚滚车轮之上法律亦在不断调整、适应和更新。人工智能作为一项新兴科技已然成为国家竞争的新场域。2016年以来世界各国高度关注人工智能的发展与治理相关的政策规范频频出台出现了共同冲击人工智能制度高地的竞争样态。对于人工智能的道德性实现同样应该遵循国内与国际相联系、历史与现实相关联的发展思维。一方面人工智能治理的全球探索是一个借鉴样本。通过借鉴可以在较短时间内学习和掌握有益经验降低因调查、论证、试错等过程产生的成本。但是人工智能的道德性实现应充分尊重我国在社会、经济、技术发展中的阶段性和客观性铺设符合科学精神、法治理念、人文关怀的治理进路避免“无前提的移植无边界的应用无定性的普及”。另一方面在原则导向治理的框架内谋求人工智能道德性的共识避免出现恶性制度竞争。新兴制度的不断出现强化了制度的聚合效应产生制度服从(institutional deference)现象。未来全球数字经济的竞争将会从要素竞争进入长期的以法治为核心的制度竞争阶段。在这一阶段如果对于人工智能的道德性缺乏共识作为秩序框架可能会产生不正当的制度竞争行为。

因此在全球范围内实现人工智能的道德性是当下与未来人类社会的共同议题。人工智能的全球治理仍处于共识性规则框架的探索阶段从竞争到合作从单一到多元对于人工智能道德问题的审慎考量和进路探索使其呈现为一种过程(process而不是简单的目标(destination)。人工智能的道德性可以成为人工智能全球治理的基础穿越科技、经济、文化的差异最终落脚于文明与文明之间的合作。人工智能的道德性实现既是一个国家人工智能法治的重要组成部分也是全球治理框架的共同叙事使人工智能“善智”的宏大蓝图真正有助于人类有益于未来有益于人类命运共同体的建构。

 

作者:徐玖玖,中国社会科学院法学研究所博士后研究人员。

来源:《现代法学》2021年第3期。