字号:小
中
大
首席专家
李洪雷 中国社会科学院法学研究所国际法研究所联合党委书记、研究员
课题组成员(按姓氏拼音顺序排序)
蔡星月 北京航空航天大学法学院副教授
曹艳林 中国医学科学院医学信息研究所医疗卫生法制室主任、研究员
陈天昊 清华大学公共管理学院长聘副教授
戴 昕 北京大学法学院副院长、长聘副教授
狄行思 广州大学法学院讲师、广州大学科技创新法治研究中心研究人员
冯子轩 西南政法大学数字法治政府研究院执行院长、教授
傅宏宇 阿里研究院人工智能治理中心主任
郭江兰 中国人民公安大学法学院讲师
何 波 中国互联网协会互联网法治工作委员会副秘书长
洪延青 北京理工大学法学院教授、网络空间国际治理研究基地主任
呼娜英 中国信通院人工智能研究所安全治理部副主任
金 晶 中国政法大学民商经济法学院教授
金 耀 宁波大学法学院副教授
李 霞 中国社会科学院法学研究所宪法与行政法研究室主任、研究员
李广德 中国人民大学法学院副教授、法律科技与社会治理实验室研究员
李晶晶 暨南大学学报编辑部副主编、副编审,《暨南学报》副主编
李学尧 上海交通大学凯原法学院长聘教授、法律与认知智能实验室主任
李延枫 中国社会科学院信息情报研究院第八编研室副主任(主持工作)、编审
林北征 广州互联网法院二级法官
刘 晗 清华大学法学院副院长、长聘教授
刘 权 中央财经大学数字经济与法治研究中心执行主任、法学院副院长,教授
刘灿华 中国社会科学院法学研究所助理研究员
马 兰 奇安信科技集团首席法律顾问
齐英程 吉林大学法学院副教授、司法数据应用研究中心研究员
苏 宇 中国人民公安大学法学院教授、数据法学研究院院长
孙南翔 中国社会科学院国际法研究所副研究员、国际经济法研究室副主任
汪庆华 北京师范大学法学院教授、数字法学研究中心主任
王 俊 21世纪经济报道商业秩序工作室负责人
王 磊 北京理工大学智能科技法律研究中心研究员
王 伟 同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员
王 翔 ISO 行政、商业、产业中流程和数据标准化技术委员会委员
王 玥 西安交通大学法学院教授
王 竹 四川大学法学院教授、四川智慧社会智能治理重点实验室主任
王禄生 东南大学社会科学处处长、法学院教授
王智飞 人力资源和社会保障部信息中心正高级工程师
吴 凡 联想集团法务执行总监,全球贸易法规、道德合规中国区负责人
肖尤丹 中国科学院科技战略咨询研究院研究员
谢鸿飞 中国社会科学院法学研究所研究员、《法学研究》副主编
谢惠加 华南理工大学法学院(知识产权学院)副院长、教授
徐玖玖 中国社会科学院法学研究所助理研究员
杨 帆 厦门大学法学院副教授、网络空间国际法研究中心副主任
姚 佳 中国社会科学院法学研究所编审、《环球法律评论》编辑部主任
姚志伟 广东财经大学法学院教授、人工智能法研究中心主任
袁 康 武汉大学法学院教授、武汉大学网络治理研究院副院长
袁 玥 美团南部大区高级法务总监
张 亮 宁波大学法学院教授
张 敏 西北工业大学马克思主义学院教授
张 嵩 中国石油昆仑数智科技有限责任公司高级工程师
张 欣 对外经济贸易大学法学院副院长、教授,中国法学会网络与信息法学研究会副秘书长
张 龑 中国人民大学法学院教授
张吉豫 中国人民大学法学院教授、未来法治研究院执行院长,中国法学会网络与信息法学研究会常务副秘书长
张效羽 中央党校(国家行政学院)政治和法律教研部宪法与行政法教研室主任、教授
郑春燕 浙江立法研究院、浙江大学立法研究院院长,浙江大学光华法学院教授
周 辉 中国社会科学院法学研究所网络与信息法研究室副主任(主持工作),中国法学会网络与信息法学研究会常务副秘书长
朱 悦 同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员
朱玲凤 美团数据合规法务负责人
2026年3月14日
《人工智能示范法4.0》十大核心修改
《人工智能示范法4.0》是中国社会科学院“人工智能安全治理研究”实验室孵化项目阶段性成果,是对前序版本的一次全面制度设计升级。本次修改范围大、篇幅多、程度深、创新多,贯彻落实《中华人民共和国国民经济和社会发展第十五个五年规划纲要》的相关部署。在制度框架上,本次修改明晰了多维度的责任与义务结构;在规制视野上,重点针对面向科学研究的人工智能(AI4S)、智能体应用以及基础模型风险防范等前沿议题,作出了具体的制度安排。以下是《人工智能示范法4.0》的十大核心修改方向:
一、面向科学研究的人工智能(AI4S)的责任边界与制度激励
人工智能在科学研究中的应用正在成为全球科技竞争的重要领域。为回应美、日等国近期智能科学政策布局,强化我国在相关科研范式竞争中的制度保障,有必要为科研活动创设相对稳定而审慎的制度环境。具体而言,可以通过确立“科研安全港”、保障普惠性算力与公共数据供给,并明确科研伦理与学术诚信要求等方式,在降低创新门槛的同时,防范伦理风险,促进源头创新。
二、构建优质高效、合规有序的数据要素供给体系
坚持延续高质量数据供给与培育有序数据市场的导向,统筹推进政务数据共享,公共数据开放和授权运营,健全公共数据资源开发利用责任制。同时,科学设计人工智能训练数据合理使用制度,在激励产业创新、保障合规数据供给与保护在先权利之间实现动态平衡。
三、人工智能生成物权属认定及安全治理
积极回应人工智能新技术新应用发展需求,持续跟踪并转化司法审判中的制度创新实践,探索建立人工智能生成物产权归属和各主体权责认定规则。统筹生成内容的安全治理体系,将生成物标识作为关键安全措施加以规范。同时,聚焦虚假信息治理,严密防范“AI魔改”及恶意篡改等滥用乱用带来的伦理与法律风险,维护清朗网络空间。
四、基础模型极端安全风险的防范
针对基础模型可能带来的极端安全风险,推动建立人工智能全生命周期风险管理制度,健全覆盖安全监测、风险预警、应急响应的风险防控体系。通过完善的风险监测、评估与必要的技术干预措施,防范因技术失控或者级联失效可能引发的系统性、灾难性危机,守住公共安全底线。
五、端侧智能的合规边界与软硬件协同规制
立足端侧智能体软硬件结合与本地物理部署的技术特性,探索形成适应新型交互模式的安全防御机制与风险管控路径。明确端云协同场景下的个人信息处理边界与动态授权原则,推动构建安全、开放、有活力的端侧智能生态。
六、多模型交互与智能体的规制路径
积极应对人工智能从单一系统向多模型交互与智能体演进中伴生形成的复杂连锁风险,将规制重心向多模型协同互动下的行为管控与系统性风险防范拓展。结合智能体调用工具与持续运行的技术特征,探索建立适应动态环境的持续风险评估与合规核验机制,强化运行监测与多方协同干预,确保复杂模型生态的安全可控。
七、人工智能使用者义务体系的精细化界定
从单一的“研发者/提供者”规制向覆盖研发、部署与应用环节的全链条责任结构延伸,科学构建使用者的权利义务体系。通过细化不同应用场景下使用者的行为边界与要求,确保技术应用的安全可控与权责对等。
八、公共机构应用人工智能的特别规制
针对国家机关及公共管理组织应用人工智能的特殊属性和风险可能,安全稳妥有序推进政务领域人工智能大模型部署应用,设定更为严格的透明度、公平性及敏感数据保护标准,并将正当程序原则贯穿于自动化决策的制度设计之中。特别是针对涉及核心公权力的人工智能应用场景划定红线底线,确保公共利益与公民基本权利不受技术的不当侵害。
九、人工智能的跨境流通促进、保障与涉外法治应对
构建“促发展”与“防风险”并重的跨境治理框架,一方面完善出口鼓励与纠纷应对支持机制,包括技术出口合规指导、国际规则对接以及涉外纠纷应对支持机制;另一方面建立以风险为基础的跨境流动监管制度,完善安全评估、合规审查与必要的对等反制措施,切实维护主权、安全与发展利益。
十、人工智能民事归责原则与责任分配
在传统侵权责任的框架下,探索构建更为科学、多元的过错认定与责任分担规则,并进一步完善“避风港”制度,在保护受害人权益与鼓励产业创新之间寻求合理的利益平衡。构建与完善人工智能上下游产业链中多元主体的义务和责任。基础模型方、精调模型方和应用方在技术研发、训练、部署、落地全流程中,各自承担与其控制力和风险相匹配的法律责任。分类界定商用/闭源模型应用方、开源模型应用方在模型部署和运营中承担的责任。整体遵循“谁开发谁负责”、“谁控制谁负责”、“谁使用谁负责”的原则,实现全链条风险共治与责任分担。
人工智能法治十大进阶议题
在数智文明重塑全球治理格局的新形势下,人工智能法治已超越单纯的技术规制,跃升为统筹发展与安全的战略制度安排。在技术、法治、伦理等不同议题交织共振的关键时期,围绕《中华人民共和国国民经济和社会发展第十五个五年规划纲要》的形势判断,基于中国社会科学院“人工智能安全治理研究”实验室孵化项目阶段性成果,我们提出人工智能法治十大进阶议题,以期锚定技术创新的法治坐标,为在法治轨道上更好推进人工智能健康发展提供立法探索、公共讨论、理论研究的基础。
议题一:全球治理加速背景下人工智能综合性立法的理论基础与体系协同
全球AI治理正迈入全面法治化阶段。从欧盟《人工智能法》的生效到韩国、日本、越南的人工智能立法出台,人工智能立法博弈日趋激烈。当前人工智能立法的研究和讨论已转向如何加快科学推进人工智能综合性立法,更好推动人工智能健康有序发展。统筹人工智能高质量发展和高水平安全,需要科学构建可预期、促创新、防风险的法治生态,需要制定一部能够覆盖技术全要素、实现体系化设计和全局化治理的综合性立法。通过确立人工智能治理的基本原则、划定基础性权利义务边界、构建权威统一协同的监管体制框架,主动塑造人工智能技术发展的规范环境,为人工智能治理提供根本遵循与顶层指引。
议题二:主要经济体政策转向对AI产业政策法治化的影响
以美国新一届政府高额投资与大幅去监管政策为代表,全球主要经济体的AI政策呈现分化态势。人工智能的可持续发展不仅是技术的较量,更是法治软实力的角逐。面对复杂的外部环境,我们不仅要积极参与人工智能国际治理,推动建立各国广泛参与的人工智能治理框架,共同构建平权、互信、多元、共赢的全球人工智能开放生态,还应探索如何以开源模型、标准规范等公共产品回应“全球南方”的关切和需要,支持全球南方国家加强人工智能能力建设,积极提出人工智能国际规则的中国方案。在提升涉外法治话语权的同时,有效应对系统性的地缘政治挑战。
议题三:国产大模型崛起的开源生态保障与涉外法治风险应对
国产开源模型的快速发展引发了国际市场的广泛关注与复杂的规则博弈。一方面,国内需要培育适应本土特征的开源协同治理体系,推进开源体系建设,完善开源运行机制,平衡创新活力与防范技术滥用的关系;另一方面,针对企业参与国际竞争时面临的贸易壁垒与合规审查等复杂风险,应当加快完善涉外法治服务和保障体系,为技术出海提供坚实的涉外法治保障。
议题四:面向模型安全与伦理风险的“制度工具箱”敏捷化扩充
针对深度伪造泛滥、算法黑箱及系统性失控风险,单一的监管手段已显露出迟滞性。未来的治理需要构建一个灵活且具有适应性的制度工具箱。除了传统的评估手段,如何将算法备案、透明度管理、安全评估等制度,模型测评基准、价值对齐的法律转化以及实质化的科技伦理审查纳入其中,同时厘清企业自治的合理边界,是完善人工智能治理体系的关键环节。
议题五:算力集群等关键数字基础设施的权责划分与规范治理
人工智能的底层竞争正迅速演变为对算力集群、模型开发平台等数字基础设施的争夺。国内AI企业在研发大模型时面临算力受限和资金投入不足等困境。在此背景下,政府与市场在数字基础设施投资、建设和使用过程中的权责边界亟待明确。在法律层面需要前瞻性地探讨是否应当向掌握核心基础设施的主体施加普遍服务与非歧视等义务,如何保障关键数字基础设施良性发展,并以全局视野维护公平竞争的市场生态。
议题六:智能体与端侧模型深度应用的法律调适与伦理考量
随着人工智能从工具演变为能够自主执行复合任务的智能体,其社会角色正逐步向人类代理人拓展。这一转变亟需法律的积极回应:在私法维度,需应对诸如界定用户与服务提供者的法律关系、明确智能体侵权(尤其是越权致害)的责任认定,以及防范端侧模型对未成年人等特殊群体的精神诱导风险等一系列问题;在公法维度,亦需调整相关规范,以解决当智能体在数字或物理世界作出违法行为、损害公共利益或他人合法权益时,应适用何种归责原则,以及应追究哪些主体的行政法律责任等相关问题。
议题七:高频版权争议下训练数据供给的合法性边界与利益衡平
伴随国内外涉及大模型训练的版权诉讼不断增多,数据爬取、API调用以及知识蒸馏等技术行为的法律定性仍处模糊地带。如何在满足AI产业海量高质量数据需求的同时,加快建设高质量人工智能语料库,建立人工智能训练数据合理使用制度,切实保护创作者合法权益,构建具有利益衡平功能的新型知识产权规则,是破除当前产业发展瓶颈的关键所在。
议题八:“人工智能+”战略赋能关键应用场景的精细化治理
随着“人工智能+”行动在制造、政务、医疗等核心领域的全面铺开,传统的“一刀切”式监管已无法适应垂直场景的复杂性。这要求立法者紧密结合场景特征开展精细化制度设计,特别是在智慧医疗的隐私边界与数据二次开发、智能政务系统的数据共享权限及自动化决策等高敏感领域,寻求公共利益与个人权利的最优解。
议题九:人工智能民事责任的前瞻性构建
人工智能民事责任应面向前沿技术进行前瞻性的体系化构建,包括以下具体方面:立足技术迭代规律与风险特征,在立法层面明确责任认定的基本框架与价值导向;重点回应归责原则、过错认定标准、损害因果关系证明以及生成式人工智能服务提供者侵权责任的“安全港”规则等核心议题,破解传统民事责任在智能场景下的适用困境;统筹不同应用场景下各主体责任划分、保险与赔偿基金机制、数据合规与算法透明等制度安排,实现技术创新与民事权益保护的平衡。此外,前瞻性立法还应保持适度弹性,为不同应用场景、不同智能程度的AI产品与服务预留规则细化空间,确保民事责任体系兼具稳定性与适应性。
议题十:具身智能与自动驾驶复杂价值链上的责任认定与分配
自动驾驶汽车、人形机器人等具身智能产品的规模化落地,正在实质性地冲击以人类过错为核心的传统侵权责任体系。面对技术研发、数据训练、算法部署至终端使用这套错综复杂技术链、产业链、价值链,需要推进智能驾驶等新兴领域立法,突破传统的产品与服务二分法,探索包含多重动态因素在内的合理责任分担与追溯机制。