首页
法学研究所概况
国际法研究所概况
研究人员
科研成果
学术活动
法学刊物
法学教育
图书馆
搜索

 

English

日本語

한국어

全球人工智能立法的重要关切与未来趋向
支振锋
字号:

摘要:人工智能技术的特殊性,使得人工智能立法也具有极大的特殊性。从世界各国的立法实践来看,人工智能立法呈现出讨论热烈但行动审慎,风险规制是关注焦点但发展促进才是立法重心的悖论性特征。目前世界各国多就人工智能某个领域的具体问题,出台问题导向的专项立法,而且立法层级一般较低。制定并通过人工智能综合性统一立法的国家或地区,仍为极少数。这种状况既体现了人工智能作为颠覆性技术的重大影响,也彰显了国家战略博弈的理性选择。鉴于人工智能技术和产业对国家竞争力可能具有的关键性作用,各国在推进人工智能立法时既要统筹发展与安全,也要协调国内与国际。在全面把握人工智能技术和产业发展状况之前,各国在出台人工智能国家层面综合性统一立法上,仍将呈现出“探索积极、立法审慎”的姿态,尤其会着眼于国际竞争的整体背景,重视立法的国内外影响。作为人工智能技术和应用领先的大国,中国的人工智能立法立足本国实际,坚持问题导向,秉持人类命运共同体理念,推动全球人工智能治理,体现出显著优势。

关键词:人工智能立法;发展促进;风险规制;大国竞争;人工智能全球治理

   

人工智能立法已成为法学研究的重要议题,也是世界各国立法实践的重要问题。在欧盟《人工智能法》(Artifical Intelligence Act)已通过并分阶段生效的影响下,人工智能立法愈发成为全球性法学研究的热点话题,各国人工智能立法进程似乎有加快迹象。梵蒂冈、韩国、日本和意大利已经通过了人工智能国家层面立法,许多国家公布了制定人工智能专门法律的议程,一些国家的人工智能相关法律似有呼之欲出态势。但与对人工智能立法议题的炽烈研究相比,世界各国,特别是主要大国在人工智能立法上都呈现出“敏于言而讷于行”的极其慎重姿态,更不要说综合性统一立法了。某种意义上讲,在主要大国间,人工智能综合性统一立法相关议题颇有“认知域塑造”的特点。有些大国已经并不讳言自身在人工智能立法上的消极态度,但却希望他国对人工智能强化监管与立法。

法律必须依循规律。人工智能综合性统一立法,必须契合人工智能技术发展、应用场景和产业落地的实际,还要考虑相关国家国内外形势及其对人工智能立法的真实需求。世界百年未有之大变局与中华民族伟大复兴战略全局形成历史性交叠,人工智能技术很可能是这个大变局中极为关键的影响因素。作为人类有史以来可能最具颠覆性的技术,很少有其他法律会像人工智能立法一样,将深刻影响世界各国命运与国际格局演变。本文将首先对世界各国推进人工智能国家(区域)层面立法,特别是综合性统一立法情况进行经验考察,梳理出各国现行人工智能国家层面立法的实践进程及其所要解决的主要问题,然后通过对比分析各国在人工智能领域的愿景规划、政策框架与立法议程探寻其关于人工智能的真正关切,进而指出风险规则成为当前一些人工智能立法的显著现象并分析其原因,最后尝试基于人工智能发展实际状况来探讨人工智能立法的未来趋向。

 

一、世界各国人工智能立法的经验考察

 

人工智能的竞争,也在激发人工智能立法的竞争。在布鲁塞尔效应的激励下,许多国家都在提出人工智能立法的议程。通过率先制定人工智能专门法律,来塑造全球人工智能监管立法的标杆,特别是通过对大型数字信息平台的法律监管及其遵从与合规,输出本国人工智能监管的相关制度、标准和价值,以期获得先发优势。人工智能立法成为世界各国政府、学术界和舆论界高度关注的重要议题。

(一)人工智能立法是全球性议题

从全球范围来看,人工智能正步入技术发展与治理的“关键时刻”。作为新质生产力的代表性技术,如何以立法推动在人工智能技术与规则制定方面同时引领世界,成为各国的战略议题和支撑开展人工智能国际竞争的重要手段。斯坦福大学以人为本的人工智能研究所(HAI)最新发布的《2025人工智能指数报告》显示,世界各地立法程序中对人工智能的关注不断增加,在75个主要国家中,立法程序中提及人工智能的次数自2023年以来增加了21.3%,从2023年的1557次增加到1889次,较2016年累计增幅达9倍。据国家社科基金重大招标项目“网络空间政策法规的翻译、研究与数据库建设”课题组统计,截至2025年6月,全球至少有26个国家已提出人工智能国家层面的立法计划,其中美国、泰国、西班牙、墨西哥等国家有多部人工智能专门立法的法律草案。从内容来看,这些人工智能法律议案主要为发展促进型与风险治理型两大类。以促进人工智能发展为侧重的法律议案主要有沙特《人工智能中心法案》(Global AI Hub Law)、泰国《国家人工智能创新促进与支持法案》(Artificial Intelligence Promotion and Support Act)、拉脱维亚《人工智能发展法案》(Law on the development of artificial intelligence [Bill No. 811/Lp14])、萨尔瓦多《人工智能及相关技术促进法案》(New Law Encourages Development of Artificial Intelligence)等,多为具有独立自主发展意愿的发展中国家,旨在通过基础设施建设、政策扶持、产业激励等手段抓住人工智能发展机遇。以人工智能风险治理为侧重的法律议案主要有巴西《人工智能法案》(Projeto de Lei de Inteligência Artificial)、加拿大《人工智能和数据法案》(The Artificial Intelligence and Data Act)等,多为一些跟西方关系较为密切,受其影响较大的国家,强调伦理规范、数据安全、人权保护与风险分级管控。也有一些国家的法律议案在内容上体现了人工智能发展促进和风险治理的兼顾,如英国《人工智能(监管)法案》(Artificial Intelligence (Regulation) Bill [HL])。但美国的情况比较特殊,美国虽然提出的是国内法律议案,但眼睛盯着的却是中国,提出的多是以邻为壑,试图阻碍中国人工智能发展的法案。不过,这些国家的法案迄今仍然多为“议案”,自提出后,一直进展缓慢甚至趋于停滞,尚未经立法机关通过而成法。

(二)人工智能综合性统一立法仍是“显著例外”

尽管对于人工智能立法的讨论极为热烈,但绝大多数国家“口惠而实不至”,并未在国家层面落实立法进程。目前,除梵蒂冈城市国出台的一部法令外,全世界只有欧盟、韩国、日本、意大利等国出台了4部国家(地区)层面的人工智能专门法律,显然不是世界人工智能立法的主流,而是极其显著的“例外”。这体现出各国对人工智能国家层面专门立法极其审慎的态度。

欧盟《人工智能法》于2024年8月1日起分阶段生效,似乎是全球首部综合性人工智能立法。但这部法律颇为“名实不副”。尽管以《人工智能法》命名,似乎为综合性的人工智能统一立法,但主要内容实为风险治理;而在规制风险的条款中,却又尽力为欧盟的人工智能技术和产业创新留有余地。欧盟《人工智能法》延续风险导向的法律治理传统,既是对其在《通用数据保护条例》(General Data Protection Regulation)中所形成制度路径的延伸,也体现了欧盟在数字产业实力相对不足而市场消费能力较强的背景下,强化市场准入安全监管、突出基本权利保护的现实策略,试图通过人工智能立法进一步实现规则输出,强化“布鲁塞尔效应”(Brussel Effect)。但其在内容上实际存在的双重“名实不副”,从本质上说,源于欧盟迄今无法把握人工智能技术与产业发展的内在规律,更源于欧盟人工智能领域已不具有强势地位。

韩国和日本的人工智能立法更为坦率和直接,两者都主要是人工智能发展的促进法。2024年12月,韩国国民议会通过《人工智能发展与建立信任基本法》(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법)(以下简称“《人工智能基本法》”),拟于2026年1月施行,成为继欧盟之后第二个制定人工智能国家层面法律的国家。这一法律具有明显的产业支持特色,重点关注三方面内容:第一,构建国家层面的人工智能协同治理体系、支持人工智能产业发展、防范人工智能潜在风险。但不同于欧盟分级设置人工智能风险及义务,该法主要针对高影响人工智能系统设置单独义务。第二,专门强调促进“人工智能技术发展和产业培育”。提出构建人工智能产业基础、支持引进和使用人工智能技术、促进人工智能产业融合发展等系列举措,并注重加强对中小企业的特别支持。第三,设立人工智能专门机构,如国家人工智能委员会、人工智能政策中心、人工智能安全研究所。第四,规定较低罚则。未能有效提示人工智能服务或未指定境内代表落实各项义务的境外人工智能服务方或不遵守停止、纠正命令者,将被处以3000万韩元以下罚款。相较于欧盟《人工智能法》高额罚款,此罚款金额相对较低。

2025年5月,日本通过了《人工智能相关技术研发及应用促进法》(人工知能関連技術の研究開発及び活用の推進に関する法律)(以下简称“《人工智能促进法》”),旨在综合推进人工智能相关技术的研究开发及利用,提升国民生活水平,促进国民经济健全发展及提升人工智能产业国际影响力。该法规定了人工智能相关技术研发及应用的基本原则,明确了政府、研发机构、经营者和公众等相关主体的责任义务,提出了促进人工智能相关技术研发及应用的基本措施。具体的重要制度包括:提出促进人工智能相关技术研发及应用的基本政策;促进人工智能相关技术研发及应用的基本计划;在内阁设立人工智能战略本部,负责人工智能基本计划的草案制定和实施推进相关事务,以及规划、起草和综合协调与促进人工智能相关技术研发和应用有关重要措施;未新设人工智能相关违法行为的处罚,体现出日本促进创新、避免过度监管的立法取向。

2025年初生效的梵蒂冈《人工智能指导方针》(Note on the Relationship Between Artificial Intelligence and Human Intelligence),作为一部法令,的确体现出重点规制人工智能风险的态度。该法令旨在促进人工智能系统和模型的研究、试验和开发活动符合人类尊严和公共利益、以人为本且可靠,保障梵蒂冈城国的安全,不得损害教皇的圣牧使命或天主教会的完整性。这种立法取态,显然与梵蒂冈作为宗教国家和微型城市国家的特点是一致的,因为它没有发展和促进人工智能技术与产业的基础条件。最近通过的一部人工智能国家层面立法是意大利《人工智能领域政府授权与规定》(Disposizioni e deleghe al Governo in materia di intelligenza artificiale),该法强化了机构治理机制,规范敏感领域应用,并引入了新型刑事犯罪条款,展现出意大利期望在确保与欧盟法律一致性的同时,平衡技术创新与法律确定性的努力。

(三)人工智能立法议程体现国家发展程度

人工智能的发展具有普惠性,但由于人工智能对基础设施、技术条件以及产业链和供应链的高度依赖,人工智能技术与产业创新客观上仍是少数国家的“专利”。尽管所有国家都可能会受到人工智能的影响,但并非所有国家都具备发展人工智能所需要的条件。相当多的国家,在某种意义上沦为这一波人工智能发展、监管及立法的旁观者。人工智能发展与监管的情况,在很大程度上体现了一个国家的发展程度和发展条件。

不同国家的人工智能立法议程呈现出明显的发展阶段差异。越发达的国家越重视人工智能。发达国家人工智能普遍发展更好、应用更广泛,人工智能立法议程往往推进更早,讨论更深入。目前,中美欧已经成为人工智能与人工智能规则制定领域最为重要的国家和地区,成为全球公认的“主导性数字力量”。越想发展的国家越重视人工智能。一些人工智能发展条件较好但并非老牌发达经济体的国家,也在不断作出努力。例如,韩国制定人工智能基本法就是要以此全面提升韩国的人工智能国际竞争力,为其跃升为人工智能全球强国奠定重要基础。

技术发展较为落后但具备较好发展基础的国家,明显对人工智能发展寄予厚望。尽管这些发展中国家缺乏监管人工智能技术发展的资金和能力,相关技术和法律人才积累也不足,但也期望抓住人工智能发展机遇,确保安全和促进发展,在复杂的国际环境中找到有利的生存空间。但它们往往难以深刻洞察和把握人工智能发展的内在规律,很难独立自主地制定适合自身国情、适合技术发展规律的立法,其立法议程易受到欧美等西方国家或地区的影响。例如,虽然在拉美地区巴西人工智能发展较好,但就全球而言其并不占据优势。巴西在国内“技术主权”的呼声下,高度关注人工智能相关风险和道德问题。2021年的《巴西人工智能战略》(Brazilian Strategy for Artificial Intelligence),提出了未来拟开展的74项战略行动,并将人工智能的立法、监管和道德使用作为首项行动;2023年《巴西人工智能发展建议》(Brazil - Recommendations for AI Development)强调了巴西面临的技术发展困境;2024年《巴西人工智能计划》(Brazilian AI strategy)进一步提出促进人工智能在巴西的发展和使用,并明确将技术主权和数据主权作为指导原则之一。巴西《人工智能利用法案》强调对公民基本权利的保护,一定程度上就是借鉴欧盟风险分级监管思路,促进负责任的创新,确保人工智能系统安全可信,推动社会、经济和科学技术发展。

人工智能立法议程也具有显著的路径依赖性。不同国家的人工智能立法议程除了体现发展程度差异,也体现出显著的本国制度特征和法治传统。这是因为,人工智能治理具有高度的不确定性,其政策叙事的形成过程本身就是国家试图建构社会共识的关键一环。其一,法律制度的差异使各国立法侧重点不同。美国普通法制度强调个案裁量和法律适应性;欧盟大陆法系则强调成文法和权利保护,对人工智能的使用设定了更严格的规则和要求。其二,文化背景和价值观的不同导致立法关切有所差异。美国人工智能立法更倾向于鼓励创新,采取较为宽松的监管框架,允许技术在市场中自由发展,强调市场主体的自觉、自治。欧盟的人工智能立法更注重人权保护、伦理规范和安全性,更多地关注技术对公民权利、社会伦理和公共安全的影响。其三,主权国家的国际战略影响其内部立法议程。霸权国家具有雄厚的科技基础和创新能力,其人工智能立法议程更多关注如何在全球竞争中保持领先地位。发展中国家可能更关注如何利用人工智能推动经济发展和社会进步,立法的重心集中在技术引进、产业发展和人才培养方面,但也非常关注人工智能伴生或引致的风险。

 

二、各国人工智能立法议程中的主要关切

 

世界各国人工智能立法的模式和方式多元多样,并不完全相同。有的国家(区域)已经通过了专门的人工智能法律;有的国家虽然未出台人工智能专门法律,但也有大量与人工智能相关的法律,或者较低层级的人工智能专项立法。作为社会问题的综合性解决方案,无论是哪种人工智能立法的模式或方式,都可以在这些法律文本中看到相关国家对人工智能问题的认知状况与主要关切。即便是尚未在国家层面出台人工智能专门法律或相关立法的国家,从其人工智能立法议程或政策文件中,也可以窥得其对人工智能的真实态度。

(一)形成人工智能规制框架

监管与立法的前提,是对人工智能技术与产业发展实践的充分认识,以及对其发展规律的深刻把握。但在人工智能技术路线高度不确定,人工智能产业发展高度不确定的情况下,制定出科学、明确、管用的人工智能法或人工智能相关立法,存在客观困难。实事求是的做法,是通过深入的调查和研究,形成对人工智能发展的尽可能全面的科学认识,构建出初步的人工智能政策框架,以在促进发展的同时守住安全底线,从而形成一个既包括主观认知也包括政策和规则措施的动态的人工智能规制框架。从政策和规则层面而言,这个规制框架一般会包括战略规划、法律法规、伦理指引和技术标准,是“硬法”与“软法”的结合。

人工智能规制需要在高速演化的技术产业环境中保持适度的灵活性,在高度的不确定性中锚住确定性,从而带来对软法的巨大需求。软法因其制定成本较低、更新迅速、对多元主体具有弹性约束等特性而备受青睐。软硬法协同成为全球各国人工智能规制的重要方式。欧盟强调保障人的基本权利,早在2019年就发布《值得信赖的人工智能伦理指南》(Ethics guidelines for trustworthy AI),提出值得信赖的人工智能全生命周期框架,形成了非正式的伦理指引和正式的法律规范双管齐下的规制框架。美国联邦和州的双重立法体制为其人工智能立法带来了相当的灵活性。尽管美国州层面已有部分人工智能立法落地生效,但是在促创新促发展的原则下,联邦层面仍将以行政令、标准指南等软法治理为主。美国联邦政府陆续发布《人工智能应用监管指南》(Guidance for Regulation of Artificial Intelligence Applications)、《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right)等非强制性的指导规范,引导人工智能治理,同时将美国国家标准与技术研究院(NIST)制定的人工智能治理技术标准作为先行先试的主要方向。英国、新加坡、印度等许多国家也将促进人工智能产业发展和技术创新作为政策制定和法律规制的逻辑起点。以英国为例,2021年《国家人工智能战略》(National AI Strategy)提出了对人工智能长期投资、确保人工智能惠及各行业、有效治理人工智能的三大战略目标,致力于构建最有利于发展和创新的人工智能监管环境。2022年《建立有利于创新的人工智能监管方法》(AI regulation: a pro-innovation approach)提出以促进创新为根本目的的人工智能监管方法,建议政府以跨部门合作方式实施合乎比例原则的监管。英国迄今尚未通过国家层面的人工智能专门法律。

战略规划和政策文件是人工智能规制框架的重要组成部分。从全球范围来看,据经济合作组织(OECD)人工智能政策观察站统计,截至2023年底,全球已有69个国家出台了900多部与人工智能相关的战略或政策文件。据国家社科基金重大招标项目“网络空间政策法规的翻译、研究与数据库建设”课题组统计,截至2025年6月,至少有98个主权国家已通过人工智能专门战略或政策文件。这些文件主要包括三类:一是国家级综合战略、中长期规划,设定国家人工智能发展愿景、目标与实施路径,通常覆盖5—30年。如我国2017年发布的《新一代人工智能发展规划》,日本2019年出台的《人工智能战略》(AI戦略2019),阿联酋2018年出台的《国家人工智能战略2031》(UAE National Strategy for Artificial Intelligence 2031)。二是技术路线图与行动计划,明确关键技术突破方向、产业融合路径及资源投入计划。如韩国《数据与人工智能经济激活计划(2019—2023)》[데이터·AI경제 활성화 계획('19~'23년)],美国《国家人工智能研发战略计划(2023)》(National Artificial Intelligence Research and Development Strategy Plan)。三是伦理准则与治理框架,制定非强制性的开发与应用原则,强调人权、透明度和问责。如新加坡《人工智能发展和治理框架(第2版)》(Artificial  Intelligence Goverance Framework Second Edition, 2020),印度《负责任AI的原则》(Responsible AI, 2021),安道尔《人工智能道德准则》(Andorran Code of Ethics for Artificial Intelligence, 2024)等。

在出台法律条件尚不成熟、战略规划又过于宏观的情况下,基于人工智能的复杂性、风险的多维性及其价值导向性,就需要通过引入技术标准来实现颗粒度更细、包容性更强且因地制宜的风险识别和缓解方法。各国政府关于人工智能的技术标准有混合方法与共生方法两种进路。前者以公共权威为主导,通过制定法律框架来激励私主体制定自愿性标准作为合规路径,后者则强调行业认证机制与其他治理体系之间的相互补充与强化。具体到实践中,人工智能的相关标准涵盖人工智能概念与术语界定,数据处理、大模型训练与算法,用户安全与隐私保护,以及人工智能系统互操作性等内容。在人工智能标准制定进程中,国家行为体与非国家行为体均发挥重要作用:政府与国际标准化组织针对基础模型的性能、安全与隐私保护制定“法定标准”;科技企业依托人工智能大模型的市场应用规模,将自身技术标准国际化,利用全球市场力量打造事实标准,进而助推其所属国家在技术治理竞争中掌握标准制定的主导权。

(二)促进发展是人工智能立法的重中之重

科技竞争,特别是大国之间的科技竞争已成为影响各国开展人工智能立法的关键变量。人工智能技术带来的机遇窗口期可能稍纵即逝,世界各国(特别是主要大国)面临人工智能带来的全方位的巨大竞争压力。对霸权国家而言,人工智能作为颠覆性技术所带来的机遇绝不容错过,而人工智能风险却可能部分“祸水外引”或延后治理。无论是统筹安全和发展,还是为了发展暂时放松安全监管,甚至有意将风险外溢,各国的法律文本与立法议程均在很大程度上将促进人工智能发展作为重中之重。一个基本的共识是,不发展是最大的不安全。

美国是为确保人工智能全球主导地位而放松安全监管的典型。为极力维护其人工智能技术的全球优势,美国在人工智能立法方面的态度日趋保守,坚持“除非有充分案例证明其危害性,否则任何新技术和新商业模式都被允许”的事后补救式监管方式,避免因强监管而阻碍人工智能发展。美国总统特朗普在其第二任期中,极力约束以立法方式监管人工智能,在试图阻碍各州层面监管人工智能的立法的同时,对于被其界定为“竞争对手”的国家和相关联企业采取强硬的限制和排除措施。为此,不惜扰乱全球产业链与供应链,破坏全球经贸关系。在国家层面,特朗普政府出台《美国人工智能行动计划》(America’s AI Action Plan)等一系列举措,要求减少“不必要的”法规以促进人工智能技术的发展,确保美国在这一领域的全球领先地位。在2025年2月巴黎人工智能峰会上,美国直接抨击欧盟“过度监管”的行动,表明美国将更加重视牢牢把握全球技术优势。即使一些意识形态与欧盟更接近的美国“蓝州”(blue state),其立法也仅仅是借鉴了欧盟的极少量制度工具,与欧盟较全面性的人工智能规制仍然存在本质区别。

欧盟《人工智能法》虽然以风险防范为特色,但也同样强调促进人工智能发展。欧盟特别希望在人工智能领域成为全球标准制定者,以及发展安全、可信和有道德人工智能的全球领导者,意图通过率先立法建立先发优势,弥补技术、产业发展不足,抢抓全球人工智能监管规则制定话语权。欧盟的《人工智能大陆行动计划》(The AI Continent Action Plan)于2025年4月9日发布,其目标是加速欧洲的人工智能发展,极力赶超其他地区。鉴于欧洲在云计算和数据中心等数字基础设施建设方面落后于美国和中国,该计划将通过公私合作的方式资助大规模的“人工智能工厂”和“人工智能超级工厂”,承诺通过新的欧洲数据空间构建统一的数据市场,为人工智能模型训练提供动力。

此外,韩国人工智能基本法体现了一定的弱监管特征,日本也试图以立法形式促进人工智能产业投融资和技术应用,借助宽松立法促进其成为全球人工智能领导者。

(三)大国科技竞争对人工智能立法的现实影响

人工智能的双刃剑效应日益明显。越是人工智能发展领先的国家,其所面临的挑战与风险也越是明显。因此,各国对人工智能风险的焦虑是真实的,各国都有以立法监管人工智能风险、确保国家和社会安全的现实需求。但在大国科技竞争日益激烈的背景下,人工智能立法及监管已经不再是单纯的安全与伦理问题,而深刻嵌入国家发展的战略博弈之中。有的国家显然已经手足无措、动作变形,为了维持技术霸权、遏制别国发展,将促进自身人工智能发展作为当前更紧迫、更重要的议程,而不惜放任某些人工智能风险。这在美国人工智能立法议程中可以得到鲜明体现。

美国联邦与各州在人工智能安全监管上呈现出不同的态度。在特朗普政府第一任期,特别是在拜登政府期间,美国联邦政府也曾对人工智能安全监管立法表现出相当的兴趣。但在大国竞争,特别是中美竞争的背景下,美国人工智能立法议程常被认为是“雷声大,雨点小”,联邦层面人工智能立法极为迟缓和审慎。事实上,尽管美国国会早在特朗普第一任期就开始了人工智能立法探索,但联邦层面迄今仅通过了一部针对深度伪造的《删除法》(Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, TAKE IT DOWN Act),尚未出台一部具有强制效力的综合性人工智能监管法律。而美国的一些州始终对人工智能风险有较强关注,甚至是一定程度上的焦虑,并且已经通过了一系列人工智能监管的州立法。据斯坦福大学发布的《2025年人工智能指数报告》(The 2025 AI Index Report)统计,2016年,只有一项州级人工智能相关法律获得通过,而到2023年增加到49项,在2024年则达到131项。包括美国第一部州层面人工智能专题立法伊利诺伊州《人工智能视频面试法》(Artificial Intelligence Video Interview Act)、犹他州《人工智能政策法》(Utah Artificial Intelligence Policy Act)、科罗拉多州《人工智能系统消费者保护法》(Consumer Protections in Interactions with Artificial Intelligence Systems)等针对具体领域或问题的人工智能专项立法,内容涵盖人工智能安全、深度伪造、算法歧视、工作场所自动化以及政府对人工智能的应用等诸多领域。然而,美国联邦政府在特朗普第二任期明确转向轻监管甚至去监管路线,美国州层级的人工智能监管立法也受到阻碍。美国的《大而美法案》(One Big Beautiful Bill Act)在2025年上半年的立法过程中,议案中一度包含禁止联邦机构未来十年内执行各州任何针对人工智能模型、系统或自动决策系统的监管法律的条款,该条款虽在正式出台时被删除,但紧接着出台的《人工智能行动计划》建议通过消除各州“繁文缛节和琐碎的法规”来放开人工智能产业的“刹车”,充分显现了特朗普政府放松监管以促进发展的行动理念。这固然出于对技术不确定性的谨慎,但更蕴含着大国竞争中优先发展、压制对手的战略选择。在全球人工智能竞争特别是对华竞争的战略压力下,美国的立法进程显得格外迟缓与克制。

美国朝野对中国人工智能崛起的警惕与打压,深刻塑造了其监管政策和立法议程。一些美国国会政客将中国明确塑造为人工智能立法议程中的“假想敌”。近年来,大量直接或间接针对中国人工智能发展的法案不断涌现,如《芯片与科学法》(CHIPS and Science Act)、《美中人工智能能力脱钩法案》(Decoupling America’s Artificial Intelligence Capabilities from China Act)、《禁用对抗性人工智能法案》(No Adversarial AI Act)等,在立法理由中不断渲染“中国威胁”已成为美国人工智能监管议题的普遍叙事方式。在2025年5月美国参议院举办的一场听证会上,主持人参议员特德·克鲁兹(Ted Cruz)直接指出,拜登政府在芯片和模型方面的监管规则是有害的,“差点削弱了美国科技公司向全球销售人工智能产品的能力”,“按照拜登的计划,关键市场将拱手让给中国”。

美国以技术封锁和供应链脱钩为重要抓手不断强化对中国的遏制。从特朗普第一任期发动贸易战、科技战,到拜登政府构建“小院高墙”,美国一直试图压制中国的高科技发展,维护其优势地位。深度求索(DeepSeek)等中国人工智能技术和产业的进步,使得美国政客对中国发展更加焦虑,白宫人工智能主管戴维·萨克斯(David Sacks)称,自DeepSeek推出以来,美国在人工智能模型层面可能只领先中国三到六个月。因此特朗普在第二任期一方面加快消除创新障碍,同时构建一套以美国法律为基准的全球技术管控体系,意图从芯片、人才、资本和国际协作等方面实现对中国人工智能供应链的严格封锁。2025年5月13日,美国商务部宣布撤销拜登政府拟于2025年5月生效的人工智能扩散规则,并发布三项加强海外人工智能芯片出口管制的指南,以“确保该技术不落入对手之手”。特朗普政府试图禁止英伟达(Nvidia)等企业向中国出口高端芯片,意在通过卡住算力这一关键要素,系统性削弱中国研发前沿模型的基础设施能力,从而在源头上迟滞甚至中断中国的技术进步。

美国科技巨头的商业利益与国家战略目标相互交织、彼此强化。为获取政府订单、降低跨境合规成本等商业利益,一些科技公司愿意主动拥抱监管,但被质疑是为了设置监管壁垒来抑制竞争。另外一些老牌科技公司希望获得灵活性和创新性,核心诉求集中在确保监管不会削弱其全球技术霸权和商业优势。美国政府与企业在遏制竞争对手上形成共谋,科技公司在政策制定过程中游说的影响不断加深,以OpenAI、Anthropic为代表的美国企业更是呼吁必须对中国加强技术封锁。在2025年4月美国网络与信息技术研究与发展(NITRD)公开的美国各界就《人工智能行动计划》提交的书面意见中,OpenAI直接建议美国政府立法禁止DeepSeek。

美国各方在如何平衡安全监管与发展促进上远未达成共识,而谋求国际竞争主动权正成为立法和政策制定的关键变量。支持联邦强化监管者认为这能减少法律的不确定性、提升公众信任,最终有利于创新;反对者则担忧过度监管会在“人工智能军备竞赛”中自缚手脚,损害美国的国际竞争力和国家安全。在实际操作中,“确保全球领先地位”的战略优先级往往压倒了对潜在风险的审慎考量。特朗普第二任期政府的一系列举措的核心目标,就是为美国人工智能产业“松绑”,全力冲刺以拉开与中国的差距:2025年1月,特朗普废除拜登政府第14110号行政令,并发布《消除美国在人工智能领域领导地位的障碍的行政命令》(Executive Order 14179)。2025年4月,美国白宫管理和预算办公室发布“关于通过创新、治理和公众信任加速联邦对人工智能的使用”(Accelerating Federal Use of AI through Innovation, Governance, and Public Trust, M-25-21)和“关于推动政府高效利用人工智能”(Driving Efficient Acquisition of Artificial Intelligence in Government, M-25-21)两份备忘录,促进联邦机构对人工智能的采购与应用,弱化风险管理。《人工智能行动计划》开篇即宣告:“如今,我们面前出现了一个新的科学发现前沿,由人工智能等变革性技术所定义……这些领域的突破有可能重塑全球力量平衡,催生全新的产业,并彻底革新我们的生活方式和工作方式。在全球竞争对手竞相开发这些技术的背景下,美国必须实现并保持无可置疑且不可挑战的全球技术主导地位,这是国家安全的当务之急。为了保障我们的未来,我们必须充分挖掘美国创新的全部潜力。”它还指出,“赢得人工智能竞赛将引领人类繁荣、经济竞争力和国家安全的新黄金时代,造福美国人民”,并具体强调,“人工智能将让美国人能够发现新材料、合成新化学物质、制造新药,并开发出利用能源的新方法——这是一场工业革命;它还将催生全新的教育、媒体和通信模式——这是一场信息革命。此外,它还将促成全新的智力成就:解读一度被认为无法解读的古籍,在科学和数学理论方面取得突破,并创造出新型的数字和实体艺术——这是一场文艺复兴。”

尤其值得注意的是认知域塑造的影响。美国国会每年都会出现大量关于人工智能监管的法律议案(bills),常被国内外部分媒体甚至学者误读为实际法律或政策走向,甚至被当作“美国加强人工智能监管”的证据加以引介。这种误读忽略了美国联邦层面人工智能实质性监管匮乏的事实,也忽视了其政策天平在激烈大国竞争下已明显向“发展优先于风险管控”倾斜的现实,一定程度上甚至会在我国学术界和舆论界塑造出应该进行强人工智能监管立法的认知。美国联邦层面迄今尚无一部有关人工智能综合性监管的法律,这固然有美国立法体制机制的原因,但也印证了联邦层面的关注重点显然不是人工智能监管立法,而是对内放松监管束缚以加速发展,对外则利用立法议题设置、技术封锁和标准输出等手段,全力遏制主要竞争对手的进步。

 

三、各国人工智能风险议题的显著化及其原因

 

人工智能尚未呈现出全貌,更未释放出其全部的影响,目前尚不具备科学、全面、准确地对其风险作出判断的客观条件。但人工智能确已在诸多方面带来了实实在在的风险。作为一项颠覆性前沿技术,人们对其潜在的未知风险也有着极大的想象空间。为了获取利益,资本、技术、舆论等各方或者夸耀人工智能的机遇,或者渲染人工智能的风险,形成有意无意的共谋,极力搅动人工智能的热度。特别是在大国竞争背景下,人工智能成为博弈的焦点。在各种因素的作用下,人工智能风险备受关注,成为世界各国都紧密关注的议题。

(一)人工智能风险的大概率性

无论是从已经发生的问题,还是其所蕴藏的巨大能量,都说明人工智能很可能存在巨大风险。各个不同国家、不同利益群体对其风险的担忧,客观上存在着一定的现实基础。

技术本身的复杂性与不确定性决定了人工智能风险的大概率性。人工智能系统尤其是基于深度学习的大模型,其运作机制常被视为“黑箱”。即便开发者设定目标,模型在追求优化目标的过程中也可能产生无法预测甚至偏离预期的行为,可能作出不可控甚至有害的决策,导致严重后果。人工智能训练对数据的深度依赖使风险加剧。数据偏差、质量低下甚至数据“投毒”将削弱模型的可靠性和安全性;算法也可能放大训练数据中的偏见,导致歧视性决策。人工智能系统存在固有的脆弱性。在目前的技术发展阶段,人工智能具有“前所未有的不确定性”。“人工智能技术除了可能加剧已经被认知和识别的歧视、滥用风险,在目前阶段带来的风险种类和程度也具有高度的不可预见性。”

人工智能深度嵌入社会,可能进一步放大潜在风险的广度和烈度,易引发系统性风险。一方面,人工智能深度融入能源、金融、医疗、交通、国防等国家命脉和民生关键领域,单个技术环节的失误可能引发远超预期的系统性危机。人工智能在军事领域快速发展可能引发“第三次战争革命”,网络诈骗、虚假新闻、舆论操纵、人工智能替代人类导致大规模失业等既有被认知的风险也引起了人们的广泛担忧。另一方面,风险类型呈现出快速迭代和交叉扩散的趋势,使负面后果出现的概率成倍放大,而非简单的线性叠加。技术安全风险会迅速渗透,进而演变为个体权利风险、社会安全风险甚至国家安全风险。

风险的大概率性引发和强化了人们对人工智能风险的焦虑。ChatGPT展现出巨大潜力后,未来生命研究所(Future of Life Institute)于2023年3月发布了千余名科学家的联名信,呼吁暂停更高级别人工智能开发至少六个月。以图灵奖得主辛顿(Geoffrey Hinton)、本吉奥(Yoshua Bengio)等为代表的顶尖学者多次公开发表警示,甚至呼吁暂停大型人工智能实验,建立类似国际原子能机构的全球监管组织,避免人工智能带来失控性风险。OpenAI、Google DeepMind等科技巨头内部也建立了专门的安全与伦理委员会,投入大量资源研究“对齐”(alignment)问题。广大社会公众出于对未知的恐惧,对人工智能潜在风险产生更为具体的担忧。皮尤研究中心(Pew Research Center)2025年对美国公众所做的一项调查显示,有56%的受访者表示极度或非常担忧人工智能引发的失业问题,66%的受访者高度担心人们会从人工智能中获取不准确的信息,57%的公众高度担忧人工智能会导致人际联系减少,55%的人表示他们非常担心人工智能决策中的偏见。

随着人工智能在社会各个领域的广泛应用,以往人类无法通过合理决策来规避的很多未来不确定性损害(危险)被转化为了可以被高效计算、决策与精准控制的未来不确定性损害(风险),社会公众期望人工智能的普遍应用能够带来更高程度的安全保障。由于不同场景的监管要求与风险敏感度各异,法律如果沿用传统的“事前穷尽式”的立法模式,势必会产生滞后的风险。公众的关注,使得人工智能的风险治理成为全球人工智能立法的重要议题。

(二)大国科技竞争增加了人工智能风险议题的复杂性

人工智能被认为是颠覆性技术,是大国竞争的胜负手。在以科技竞争为焦点的大国博弈中,人工智能成为决定国家前途命运的关键变量,人工智能竞争成为一场不能输的“战争”。正如马克思所说,“手推磨产生的是封建主的社会,蒸汽磨产生的是工业资本家的社会”。“每个历史时期里具有策略决定性的技术,相当程度地塑造了社会的命运。”人工智能技术发展已成为政治、经济和技术三位一体的复合型问题。有学者指出,与其他通用型技术相比,人工智能建立在大模型、大参数、高算力和大数据的基础上,不仅产业融合程度高而且易于形成垄断,因此人工智能技术发展水平已经成为国家实力的关键指标。

人工智能技术已经在诸多方面呈现出巨大潜能。人工智能具有极强的社会渗透性。作为一项底层技术,不同于量子科技、基因科学、航天科技等其他高新科技,人工智能可与军事、工业、商业、科技等各领域进行融合,呈现出体系化、集成化、融合化的特点,赋能千行百业,可能迅速引起一系列产业链、价值链的调整,继而外溢到各个方面。人工智能技术一旦引发链式突破,将推动经济社会从数字化、网络化向智能化加速跃进。人工智能还呈现出先发垄断性态势。人工智能的研发和应用对数据、算力、资本有着极大的需求,只有部分大国有发展人工智能的基础与实力。人工智能技术和产业一旦突破,就会形成先发优势,垄断某个行业或者领域,形成巨大代差。人工智能已与人类社会的生产生活方式深度互嵌,科技变革使一些大国对实力差距、国家安全与利益冲突的担忧更加明显,这促使其在该领域不断谋求垄断性优势。人工智能由于技术复杂性所引发的迭代路线不确定性可能带来人机关系变革,未来发展路线也可能无法被人类精准规划与完全支配。

人工智能技术与核技术有所相似,但存在根本上的不同。两者都将对国际社会产生深远影响,可能促成新的战争模式。核军备竞赛激发了军备控制方面的合作努力,这种努力值得在人工智能治理中尽可能地复制。核能技术,特别是核武器只能为几个主要大国掌握,而人工智能技术更易扩散,也更难通过类似国际原子能机构的国际组织进行监管。而且,人工智能武器系统使无生命系统本身能够拥有大规模破坏力的可能性,如由人工智能控制的无人机军队。

全球人工智能竞争态势已极为炽烈。竞争失败的代价极高,参与者不仅会失去转型发展的关键机遇,还可能在数字安全、数字主权等问题上面临极其不利的弱势地位。各个国家,特别是世界主要大国既担心其错过人工智能带来的发展机遇,也担心可能出现的不测风险,心态复杂。欧盟一直奉行“数字主权”政策,以加强国内硬件和软件能力,减少对外国技术的依赖。美国出台并不断强化实施半导体出口管制,以阻碍中国的人工智能发展,同时促进其国内半导体生产。中国既要抵御美国在高技术领域的打压、封锁与排斥,还要统筹安全和发展,关注让新技术造福世界人民,因此面临重重困难。以美国为主的西方国家正在发起“一场通往通用人工智能的赢家通吃的竞赛”,不断“破坏互信”。现有的人工智能竞争态势导致了一场迈向难以治理的高级人工智能系统的“人工智能军备竞赛”;而且,人工智能的技术竞争诱发全方位竞争。美国对中国高科技的极限封锁和打压,是当前大国科技竞争博弈的焦点。世界上独立拥有人工智能技术与产业的国家寥寥可数,目前仅美国、中国和少数欧盟国家有力量进行生成式人工智能大模型的开发与训练。总体而言,中美占据人工智能领域的全球领导地位,其他国家或集团很难超越。长期以来,中国一直被视为是模仿者而非创新者,但现今中国在不少技术领域已迅速崛起并开始领先:根据《自然》(Nature)杂志的研究,排名前十的研究机构中有七家位于中国;“新兴技术观察站”的数据显示,越来越多的英文人工智能论文至少有一位作者来自中国机构;《全球人工智能人才追踪报告》(Global AI Talent Tracker)显示,中国在培养人工智能精英研究人员方面几乎与美国匹敌,越来越多的人选择留在中国或返回中国。随着中国在关键技术领域的快速突破与全球治理议程中的积极参与,中国已被美国视为人工智能领域的主要安全威胁与头号竞争对手。

美国始终把人工智能技术作为重塑国家安全态势、改变国家权力结构与国际权力结构的重要力量,意图确保数字竞争绝对优势以维护霸权,促进产业扩张。由于算力被视作人工智能研发的基础要素,美国政府已经逐步收紧该领域的对华技术出口,以保持其在人工智能领域的领先地位。2024年,美国国会参议员麦克·朗兹(Mike Rounds)在达沃斯生成式人工智能讨论会上坦承,“对竞争对手实施芯片出口限制是一种获得短期成功的策略,可尽最大努力保持竞争优势”。数据和算法是人工智能的另外两大基石,但是都主要由少数巨型企业,特别是美国科技巨头所掌控,并从数据库、计算机辅助设计(CAD)软件、电子设计自动化(EDA)软件等各方面对中国进行封锁和打压。OpenAI等人工智能大模型公司为了维持技术垄断,始终拒绝开源,导致人工智能技术领域逐步形成强者愈强、弱者愈弱的马太效应。开源的DeepSeek-R1/V3等中国大语言模型出现后,上述局面可能会发生改变。开源技术可以通过互联网和国际合作等途径快速传播,导致技术优势的窗口期缩短,应用成本相对较低,使得更多中小国家有能力加以应用,将使全球人工智能技术出现发展速度更快、技术迭代迅速、扩散普及面广的局面。

人工智能立法议程成为认知域对抗的重要领域。为了抢占发展机遇,美国甘愿接受人工智能风险外溢,在立法监管人工智能风险上日趋保守。对外,美国显然正通过设置人工智能立法议题进行认知域塑造,诱导他国强化监管措施,削弱他国创新速度。对内,美国正对人工智能技术发展不断松绑,抢占发展先机。美国虽不断宣称强调人工智能伦理风险,但其大量财政预算仍投向人工智能产业研发。

(三)欧盟的“布鲁塞尔效应”迷思

欧盟是人工智能风险治理研究和实践的重要角色。以《人工智能法》的出台与分阶段生效为标志性事件,欧盟的行动强化了各国对人工智能风险治理议题的讨论。由于种种复杂因素,欧盟数字技术与产业发展不断萎缩,只剩下极少具有一定影响力的领先技术与数字企业。欧盟因此希望凭借其庞大统一市场,通过《人工智能法》以风险规制为导向的高标准、宽管辖、严惩罚的制度设计,在人工智能领域能够掌握国际规则的主导权,继续发挥出“布鲁塞尔效应”。受其影响,韩国《人工智能基本法》采取了类似的基于风险的监管方法,对高影响力人工智能进行分类管理;加拿大的《人工智能和数据法案》(AIDA)重点关注对公民基本权利有重要影响的高风险人工智能,并提出针对性治理要求,规定监管机构可针对任何违规行为实施行政罚款,明知或故意造成严重损害的行为人还将承担刑事责任;巴西的《人工智能利用法案》也构建了“过度风险、高风险、非高风险”三级风险治理体系,并设置了行政责任与民事责任,罚款最高可达5000万雷亚尔(约6400万元人民币)或总收入的2%。

真正严格监管人工智能的国家实际上却相当少。从已经通过的法律或者提出的法案来看,即便借鉴欧盟对人工智能风险进行分级应对的国家,大多也将关注重点放在如何促进人工智能发展方面。美国、英国、澳大利亚、日本、新加坡、印度等国在人工智能监管方面都采取了支持创新、限制较少的路线。例如,日本《人工智能促进法》采用促进型立法的路径;新加坡、印度等国家和地区出台的主要是一些非强制性的人工智能政策与文件,属于推荐性与倡导性规范。因此,对欧盟《人工智能法》是否真能产生“布鲁塞尔效应”一直存在争议。大多数学者认为,在人工智能立法领域,可以预见其他国家和地区将不会很快效仿欧盟。如果仅靠欧洲实施严格的规定,可能会阻碍投资,并压垮缺乏合规资源的小型企业,资本和人才可能会转向更为宽松的市场。也有学者认为,欧盟《人工智能法》即便能产生布鲁塞尔效应,也会伴随强烈的副作用。将该法打造为全球监管模板和标准,可能会传播欧盟监管方法中的许多缺陷,也可能会破坏欧盟人工智能战略旨在推广的许多欧洲价值观,与该法预期促进发展的政策目标背道而驰。已经有多位欧洲投资者和初创企业创始人于2025年6月底发表公开信,要求暂缓执行整个欧盟《人工智能法》;有44位欧洲企业高管也已另外致信欧盟委员会主要负责人,以规则不明为由,要求将该人工智能法规推迟两年执行。

几乎没有哪个国家真正在效仿欧盟《人工智能法》。人工智能技术正处于发展的关键时期,各国都不想错失这一重要机遇。在人工智能领域,目前各国在价值取向上尚未形成共识,当年那种以欧盟《通用数据保护条例》(GDPR)为效仿对象进行个人信息保护与数据安全立法的情况已不复存在。尽管几乎所有政府都认同保护隐私和确保竞争的必要性,但许多政府认为人工智能带来的好处大于风险。

符合欧盟所谓高标准的人工智能产品并不必然会受到他国公众的追捧与接受。欧盟本身就没有太多值得称道的人工智能技术或产品。而且,人工智能并非汽车、高端奢侈品等传统产品,也不同于数据,其作为一种模仿人类群体沟通、实现智能主体目标的“人工沟通”,拥有很强的社会网络属性,从而意味着不同国家、地区的人工智能都会具备本土特色与独特价值,不存在所谓的价值高低与一元性标准。鉴于塑造人工智能监管的不同法律和文化价值观,欧盟《人工智能法》在欧洲以外几乎没有真正的存在感。而且,欧盟严重高估了政府对人工智能不确定性的控制能力。政府层面根本不享有划分与监管人工智能技术发展与应用风险的知识与能力,人工智能的技术复杂性与应用复杂性很难让政府独自得出恰当可行的风险划分标准。例如,侧重于物质损害,而忽视了非物质的、金钱的和社会的损害。相反,法律完全赋予政府以宽泛的监管权力,很可能会破坏市场预期并阻碍人工智能的发展空间。无论是出于促进本国人工智能发展的“初心”,还是出于对本国监管他国人工智能或互联网巨头公司的实力的情形认知,大部分国家都不可能效仿欧盟《人工智能法》。而对于中美这样真正的人工智能领先国家而言,也越来越清醒地看到欧盟立法对“数字科技的发展与创新带来的较大阻碍”,更不会、也不应该效仿。欧盟利用《人工智能法》发挥“布鲁塞尔效应”的奢望,注定沦为“布鲁塞尔幻象”。

 

四、全球人工智能立法的未来趋向

 

在各种对人工智能风险的担忧中,“觉醒”是最具想象力,也是最可怕的前景。图灵奖得主约书亚·本吉奥提醒,当前AI在规划、推理等领域进步飞速,部分前沿模型已显现自我保护、欺骗性对齐、篡改系统等类生物主体行为,若形成“智能+自主目标+行动能力”组合将引发失控风险,甚至可能威胁人类生存。尽管也有科学家认为,人类目前连具有“猫猫狗狗”级别的人工智能都做不出来。但作为互联网信息技术底座上的明珠,人工智能技术具有相对于其他先进技术的独特性,尤其具有显著的全球性特征,世界各主权国家的国内人工智能立法也因此必须关注全球治理的面向。

(一)人工智能技术的特殊性

不同于人类传统领域的先进科技,人工智能具有显著的独特性:作为一项颠覆性技术,它是决定大国综合实力升降沉浮的关键;作为互联网信息技术发展的最新前沿,它是能迅速向全球渗透和扩展的前沿技术。人工智能某种意义上具有公共产品的性质,涉及到人类福祉,关系到国际治理和全球治理。

人工智能是决定大国兴衰的国运级别技术,对国际格局已经产生了深刻影响。人工智能的竞争关乎国家兴亡、民族盛衰。美国对中国高科技无所不用其极地打压、封锁和遏制,就是人工智能技术巨大影响的一个典型体现。美国通过出口管制、技术断供和市场限制等手段,试图延缓中国在人工智能领域的发展,特别是试图通过遏制中国获取关键技术和组件来维持其技术优势,以赢得未来国际竞争。

人工智能几乎在所有方面都具有涉外性、国际性和全球性。人工智能奠基在互联网、大数据、云计算等技术之上,深受梅特卡夫定律(Metcalfe's Law)的影响,用户越多、流量越大、价值越大,因此其技术和产品一定会尽力突破主权国家的边界,争夺全球用户市场。尽管以美国为首的西方国家不断举起贸易保护主义的大旗,利用封锁、制裁、高关税等扰乱全球经贸关系,破坏国际产业链、供应链和价值链,但人工智能技术、平台和产品的提供者实际上越来越集中在少数国家和少数科技公司。当前大模型研发集中于中美两国,两国企业产品通过云服务跨境覆盖多国用户,导致一国的数据本地化要求或算法审查规则均会直接冲击全球产业链协作与用户权益。人工智能作为全球战略性与变革性信息技术,既是推动国内产业发展、形成国际竞争新优势的战略抓手,也是诱发各国国内和国际新型安全风险与技术风险的源头,给国家治理与国际社会带来严峻挑战。人工智能所带来的风险往往不局限于单一国家的内部治理困境,而是以跨境扩散、风险外溢以及内外联动的方式深刻影响全球政治与安全格局。在政治安全层面,它可能被用于操纵选举,制造认知域对抗,甚至通过有组织的社交媒体操纵煽动非法社会动员;在信息传播层面,深度伪造内容、虚假信息迅速传播,塑造舆情操控与信息战的新态势;在数据安全与网络安全层面,人工智能的应用放大了数据泄露、网络攻击与跨境数据流动的风险,进一步加剧国家间的博弈与对抗;在军事安全层面,自动化致命武器系统引发“无人化战争”的国际法和伦理难题,甚至重塑大国军事竞争的基本逻辑。人工智能带来的问题,已经成为影响国际关系、全球治理秩序与人类共同安全的关键变量。人工智能立法因其对象的跨国性,涉及技术竞争与合作的复杂性,不仅是保障国内人工智能发展的基石,更是参与国际竞争的重要工具。正因此,欧盟《人工智能法》基于“投放市场”和“效果原则”主张域外管辖,要求全球开发者遵守其高风险人工智能禁令和透明度义务,无论所在地域。

人工智能发展涉及全人类福祉。当前,人工智能技术和产业发展尚未呈现全貌,并未释放出全部潜能,但作为颠覆性技术,其健康发展关系到全球每一个公民的根本性福祉。一些杰出科学家和人工智能领域的领先企业家,对人工智能可能危及人类生存的风险忧心忡忡。如图灵奖和诺贝尔物理学奖获得者杰弗里·辛顿(Geoffrey E.Hinton)、埃隆·里夫·马斯克(Elon Reeve Musk)、凯文·凯利(Kevin Kelly)等。辛顿指出,“当前人类与AI的关系,恰似饲养一只可爱的小虎崽——它长大后可能轻易超越人类。为了生存,要么消灭它,要么找到永久保护人类自身的方法。”尽管基于目前的技术发展,尚不能很快看到这种可能性,但人工智能对人类生产方式、国际贸易和地缘政治格局带来的影响,已经切切实实影响到世界各国人民的生活。

人工智能是亟需全球治理协作的公共产品。由于人工智能是一项对世界各国人民影响越来越大的技术,它越来越呈现出需要全球治理协作的特征。在《全球数字契约》(Global Digital Compact)中,开放人工智能模型被视为数字公共产品与数字公共基础设施的一部分,该契约提出:“治理人工智能以维护公共利益,确保人工智能的应用会促进多元文化和语文,并且支持本地生成数据,以造福国家和社区的发展。这尤其包括开展国际合作,支持发展中国家建设人工智能能力,并努力应对新兴数字技术对劳动力和就业以及环境的潜在负面影响。”2025世界人工智能大会暨人工智能全球治理高级别会议发表的《人工智能全球治理行动计划》指出:“人工智能是人类发展的新领域,是新一轮科技革命和产业变革的重要驱动力量,也可以是造福人类的国际公共产品。”图灵奖得主约书亚·本吉奥(Yoshua Bengio)也强调,“AI安全需要全球协作”,“我们需要确保所有的国家和公司在开发最强大的AI系统时,遵循最佳的安全实践规范,以规避人类失去AI控制权等灾难性后果”。2024年7月,中国研究机构发布的《人工智能安全作为全球公共产品》报告提出:“考虑到人工智能技术创新、产业应用规律及其引致风险机制的特殊性,人工智能安全应被视为具有公共属性的知识、能力、资源,政府、企业、第三方等不同主体需要在共商共建共享过程中共同探索,……确保每个人及人类整体从中获益。”2025年4月,牛津大学中国政策实验室(Oxford China Policy Lab)联合剑桥大学等多家机构发表政策研究报告《将人工智能安全视为全球公共产品:影响、挑战与研究优先项》,提出借鉴气候变化、核安全与全球健康治理等领域的经验,应将人工智能安全视为具有非排他性和非竞争性的“全球公共产品”,需在协调责任分配、促进公平发展、提升安全能力等方面展开系统应对。

(二)人工智能国家层面综合性立法仍将在一段时间内进展困难

人工智能立法的最大挑战,源于其作为立法对象的技术与产业自身仍处于急速演进与高度不确定之中。与相对稳定的传统技术领域不同,人工智能的技术内涵、产业形态与社会影响远未定型,进行系统性、前瞻性立法存在客观困难。

技术路线的模糊性与发展极限的未知性,使得立法难以获得坚实的科学基础。人工智能的概念与实践历经流变:20世纪八九十年代的“人工智能”以早期的专家系统(expert system)和美国IBM公司的“深蓝”为代表,核心是规则推理与符号逻辑;2016年,“人工智能”的焦点是AlphaGo,彰显了深度学习与强化学习的威力;自2022年底以来,以ChatGPT、DeepSeek为代表的生成式大语言模型又将技术范式推向预训练与内容生成。技术浪潮的更迭速度远超立法周期;更为关键的是,人工智能的能力阈值究竟何在,仍缺乏科学的、共识性的判定。在技术发展的内在规律与终极边界尚未廓清之前仓促进行综合性立法,既缺乏客观基础,也可能抑制技术迭代,还可能导致规制体系滞后于未来的风险形态。

人工智能从“离身”向“具身”的产业形态跃迁,将根本性改变法律规制的对象与范式。迄今为止,人工智能的主流产业形态是“离身智能”(disembodied AI),即以软件和服务的形式存在,如深度学习、自然语言处理等,涉及的法律关系调整尚可依托于现有的网络、数据服务合同等法律框架。然而,产业正处在剧烈变革的前夜,工业无人机、智能驾驶汽车、具身机器人等技术正推动人工智能与物理实体深度融合,“具身智能”(embodied AI)成为重要发展方向。一旦具身机器人在工业、医疗、照护、主动驾驶等复杂现实场景中自主运行,甚至走入千家万户,人工智能将从一种“服务”转变为集成了软硬件的“产品”,从而引发法律责任认定的剧烈变化。但具身智能能否实现、何时实现、如何实现全场景落地,目前尚难断言。任何国家在未能把握技术发展内在规律与完整形态(至少在一定的时间段内)前,都难以制定出一部成熟、稳定、周全的人工智能专门法。

立法者因此陷入两难:既不能对显而易见的风险视而不见,又无法为尚未成熟的技术和业态预设规则,还担心不科学的立法影响国际竞争实力。这种困境决定了,在未来可预见的一段时间内,全球人工智能立法极有可能仍将呈现出“探索积极、立法审慎”的复杂状态。

促进人工智能发展依然是世界各国相关立法的核心关切。人工智能被视为决定国家未来命运的战略制高点。绝大多数国家,尤其是霸权国家、技术领先国家,以及拥有产业发展抱负的发展中国家和金砖国家等,其战略和政策文件体现出来的立法议程的核心关切,依然是如何通过基础设施建设、政策扶持、产业激励和人才培育来抓住机遇。例如,印度于2018年发布的《国家人工智能战略》(National Strategy for Artificial Intelligence)旨在实现技术民主化、应对本地挑战、创造就业机会,并使其成为全球人工智能领导者。《2024—2028年巴西人工智能计划》[Plano Brasileiro de Inteligência Artificial (PBIA) 2024-2028]也明确将人工智能基础设施与发展、人工智能人才教育培训等内容作为战略轴心,致力于使巴西成为人工智能领域的全球领导者。即便是以风险监管为重心的欧盟《人工智能法》,也内嵌了为促进创新而设立的“监管沙盒”机制,并推出《人工智能大陆行动计划》,旨在加速追赶。美国的行动则更为赤裸裸,美国的立法僵局与政策转向清晰表明,其国家战略是在大国竞争的背景下不惜放松监管以维持技术霸权。“发展优先”的全球共识源于一个共同的基本判断,即在技术创新突破和产业变革的关键机遇期和窗口期,不发展才是最大的不安全。

治理人工智能风险依然是世界各国共同的深层关切。尽管发展是重心,但深度伪造、算法歧视、数据安全等现实风险已然显现,迫使各国必须作出回应。然而,各国的风险规制路径存在分化。欧盟试图通过《人工智能法》输出其基于风险分级的监管模式;中美等技术领先国家清醒地认识到过度监管对创新的扼杀,不会亦步亦趋;更多国家则根据自身国情,在战略规划、伦理指南、技术标准、专项立法等“软法”或“小快灵”立法工具中寻找平衡点。

全球治理将越来越成为各国人工智能相关立法的重要关注点。人工智能的跨国性、弥散性使得相关国内立法天然具有全球视野。特别是,在俄乌冲突中,人工智能武器与决策系统在精准定位、大数据处理、战场预测等方面展现出颠覆性军事潜能,各国均担忧人工智能是否会成为未来地缘政治冲突的爆发点或矛盾催化剂,对话和合作成为推动全球人工智能发展的必然选择。从《布莱切利宣言》(The Bletchley Declaration)到《人工智能全球治理行动计划》,国际社会日益认识到在人工智能基本安全、伦理底线和全球公共产品属性上合作的必要性。然而,大国战略博弈为合作蒙上阴影,人工智能全球治理正从技术伦理探讨迈向主权国家战略博弈的新阶段,不同治理模式间的对抗和分裂,将对人工智能全球治理机制的形成造成阻碍。

(三)人工智能立法的中国智慧

中国把握人工智能技术与产业发展的规律,洞察国内外人工智能发展的基本态势,立足中国人工智能发展的实际需求,坚持人工智能全球治理的人类关怀,为世界贡献了人工智能立法的中国智慧。

1.统筹发展和安全的科学立法

中国在人工智能立法实践中坚持以人民为中心的发展理念,统筹发展与安全,将推动技术创新与防范风险有机结合,构建既保障创新活力又守护安全底线的法律框架。中国通过顶层设计引导科学立法,以良法善治保障人工智能健康发展。2025年10月,党的二十届四中全会通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》强调,“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”;2024年7月,党的二十届三中全会通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》提出,完善生成式人工智能发展和管理机制,建立人工智能安全监管制度;《国务院2025年度立法工作计划》部署,推进人工智能健康发展立法工作。但在技术路线和产业场景未完全清晰的当下,立法逻辑不是追求一部大而全的“人工智能法典”,立法重心也不在于条款数量的多寡或立法层级的高低,而在于立法是否科学,能否精准回应现阶段最迫切的发展与安全需求。面对未知的风险态势和复杂的国际竞争格局,立法既服务于构建自主可控的产业生态,增强国际竞争能力,又要确保技术发展造福于民,增进人类共同福祉。

2.问题导向的敏捷立法

尽管人工智能技术路线尚未定型、发展规律仍待探索,但具体风险场景已局部显现。中国基于问题导向的敏捷立法模式,不追求短期内构建宏大却僵化的法律法规体系,而是以现实问题为牵引,以“小快灵”立法和专题立法作为核心手段,对生成式人工智能、算法推荐、深度伪造等典型应用场景中已出现的苗头性、倾向性问题,作出迅速、精准的制度回应。在某种程度上,美国各州围绕人脸识别使用限制、人工智能招聘公平性、深度伪造政治影响等具体议题的专项立法,在技术快速迭代阶段,呈现出类似的以具体问题为抓手的立法取向。当前,中国以民法典、刑法、治安管理处罚法等国家基本法律提供基础支撑,以网络安全法、数据安全法、个人信息保护法等网络领域立法构建数字治理基本框架,以《网络数据安全管理条例》《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》等问题导向的行政法规、部门规章敏捷响应现实问题,并辅以大量具有技术适配性和灵活性的国家标准与行业标准,系统性构建了一个多层级、多维度、多类型的规制框架。

3.多元参与的协同共治

人工智能的不确定性,导致人工智能治理规则必然是多元和动态的,人工智能时代的法治形态也应当是以“技术—法律—社会”共同演进为目标的“适应性法治”。中国的人工智能治理在已有法律规制的基础上,正在构建企业、政府、司法和社会公众共同参与的多元治理机制,在确保守住安全底线的前提下构建人工智能健康发展的良好氛围。在企业合规层面,推动形成创新与责任并重的内生治理机制。通过法律法规和标准体系建设,引导市场主体自觉履行数据安全保护、算法安全管理、生成内容标识和伦理审查等义务,激励企业建立内部治理结构。同时,新兴技术的科学有效治理依赖于公私互动形成的良好条件,企业在市场竞争与自主合规创新中积累了大量应用经验,法律应建立有效的反馈回路,及时吸纳这些经验。在行政监管层面,政府部门发挥统筹与督导作用,积极探索适应技术特性的灵活监管工具和监管机制。例如,2025年8月,上海市徐汇区检察院联合区委网信办、公安分局、司法局、市场监管局等多个单位,通过共同签署《关于加强人工智能协同治理的工作协议》,构建起了聚焦产业需求、完善行业监管、司法行政联动的递进式治理机制,有效强化各职能部门在人工智能治理工作中的协作配合。司法机关则通过人工智能生成作品创作、人工智能数据集采集以及滥用人工智能换脸、利用人工智能造谣等相关典型个案的审理和裁判,明晰人工智能应用中的权利边界与责任规则,为行业提供稳定预期和行为指引,护航人工智能向上向善。而且,人工智能治理过程高度重视吸纳社会公众、学术机构、行业组织及媒体的广泛参与,借助公众监督、伦理评议、舆论反馈等社会化机制提升治理的科学性。

4.着眼国际形势的涉外立法

习近平总书记在党的二十大报告中指出,加强重点领域、新兴领域、涉外领域立法。人工智能同时涉及这三个方面,相关立法必须统筹国内法治与涉外法治,关注国际国内的影响和变化,在维护国家主权、安全、发展利益的同时,积极履行大国责任。由于人工智能技术及产业应用天然具有跨国性和全球性,人工智能立法虽在形式上属于国内法范畴,但其规制对象、法律效力和利益关切均远超国界,人工智能立法必须具备国际视野。一方面,人工智能立法所涉利益内外交织,相关的数据跨境流动、技术研发合作、产品服务贸易等环节都可能涉及国际法规则,要求我国立法在保护国家安全与核心利益的同时,妥善平衡与国际规则的关系。另一方面,中国的人工智能国内立法始终密切关注并主动融入全球治理进程。在中国人工智能法律制度体系中,虚假信息内容治理和未成年人保护方面的一系列做法,已为其他国家提供了有益经验,需进一步通过主动解决世界各国人工智能立法中的共性疑难问题,促进话语传播和引导规则构建,推动全球范围内对中国规则的认知、接受与适用。尽管目前尚无明确证据表明人工智能已直接威胁人类生存,但中国在人工智能治理中致力于守护人类共同福祉,让技术进步更好惠及全球,展现出负责任大国在法治构建中的远见与担当。

中国不仅积极参与国际规则对话、支持构建多边治理框架,还通过推行《全球人工智能治理倡议》《人工智能能力建设普惠计划》《人工智能全球治理行动计划》等中国方案,在联合国等多边机制下推动构建开放、公正、有效的治理机制,为打破数字鸿沟、防止技术霸权贡献中国方案。中国对人类命运共同体理念的积极践行,不仅克服了冷战思维、地缘政治思维、零和思维,还体现了国际法追求良善正义的价值追求。

让人工智能造福中国和世界人民。“世界那么大,问题那么多,国际社会期待听到中国声音、看到中国方案,中国不能缺席。”人工智能立法并不存在放之四海而皆准的模式,而是必须充分结合本国经济发展水平、技术发展程度、国家政治制度及所处的国际环境等各种因素。中国的人工智能立法拒绝“技术霸权”模式,反对以收割全球维系垄断地位,是要以劳动创造替代掠夺逻辑。面对人工智能技术所带来的前所未有的变革,中国有能力也有责任展现大国担当,凝聚全球共识,通过立法保障技术发展惠及人民,增进全人类共同福祉,为全球人工智能治理贡献中国智慧和中国方案。

 

作者:支振锋,中国社会科学院法学研究所研究员,法学博士。

来源:《比较法研究》2025年第6期。