字号:小
中
大
摘要:政务人工智能大模型的广泛部署,展现出更加精准多元的内容生成能力,实现更为自然流畅的人机交互政务服务效能,显著提升了智能系统完成特定政务任务的潜力。“数字政府”向“智能政府”深度转型,数字法治政府在向智能法治政府升维演进,但也面临着制度断层与创新激励约束、资源供给保障不足、技术与组织结构限制的现实障碍,并潜藏着技术可靠性不足、网络与数据安全受胁、技术依赖诱发“懒政”以及自动化决策公正性质疑等风险。智能政府建设应坚持为民、安全、法治的基本原则,秉持场景化、模型化、节点化的方法论。在具体建设路径上,智能法治政府应通过理念革新、权力重塑、流程迭代实现从“规制到塑造”的范式表达,并以嵌入伦理审查、规范要素供给、同构责任与激励机制、推动专门立法、做好适配性评估等方式强化制度建设,从而保障在法治的轨道上科学塑造政府人工智能活动,高水平建设智能法治政府。
关键词:智能法治政府;数字法治政府;政务大模型;人工智能;人工智能治理
一、问题的提出
以开放、跨界、协同、自控为主要特征的新一代人工智能技术引领着新一轮科技革命,为国家治理和经济社会发展注入了新动能。我国政府治理正加快从网络化、数字化向智能化转型。2025年8月26日,国务院印发《关于深入实施“人工智能+”行动的意见》(以下简称《人工智能+意见》),其中将“人工智能+治理能力”作为重点领域,要求开创社会治理人机共生新图景,打造安全治理多元共治新格局,明确应“安全稳妥有序推进人工智能在政务领域应用”。
立足人工智能发展机遇期,将人工智能融入政府治理并构建“人工智能+政府”范式,已成为推进国家治理现代化的战略选择。国际上,七国集团(G7)已承诺加速AI在公共部门的应用。美国已有超三千个政府机构逾九万名用户使用ChatGPT Gov,Anthropic公司也推出了面向政府和国安机构的“Claude For Gov”模型。在国内,以DeepSeek V3为代表的本土大模型,因其良好的中文处理能力与数据安全优势,正逐步应用于政策解读、公共服务与行政审批等场景,显著提升了政府治理的智能化水平。各国在政府智能化转型道路上已呈现出动态演变的竞争态势。
把握人工智能技术应用机遇的同时,不能忽视生成内容的“幻觉”、算法偏见、自动化决策“黑箱”、数据安全隐患等问题。智能政府建设不能任凭技术逻辑自行发展,必须在法治框架内寻求技术创新与权利保障、效率提升与行政公正之间的平衡。
我国注重在法治轨道上推动人工智能安全与创新发展,《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》明确提出加强人工智能治理、完善相关法律法规。《国务院办公厅关于健全“高效办成一件事”重点事项常态化推进机制的意见》提出应在确保安全的前提下稳妥有序推进人工智能大模型等新技术在政务服务领域应用。
构建相应的法治保障体系以确保技术应用的合法性与安全性,已是亟待解决的课题。智能法治政府命题的提出,旨在回应技术风险、保障公民权利,确保智能政府在法治轨道上健康运行。智能政府建设亟待解决的核心理论问题源于人工智能“技术赋能”逻辑与法治政府“制度约束”逻辑的辩证关系。前者追求效率、能力与应用范围的拓展;后者则要求权力、程序与权利具备明晰边界。本文从数字政府到智能政府的转型出发,探究数字法治政府到智能法治政府的维度变革,分析智能法治政府建设的现实障碍和运转的潜在风险,并在构建智能法治政府建设基本原则的基础上,提出智能法治政府的实现路径,以期为人工智能时代的政府治理现代化,提供在法治轨道内寻求动态平衡的制度方案。
二、智能法治政府的兴起
(一)从“数字政府”到“智能政府”的转型
从电子政务到数字政府,再向智能政府的演化,既反映了技术迭代对治理路径的广泛影响,也体现了政府运转与治理理念的深刻变革。
第一,政务电子化主要聚焦于政府业务的网络化和自动化,核心是利用计算机和互联网改造传统政府工作流程,实现办公自动化和政务上网。我国于1999年启动了“政府上网工程”,标志着电子政务建设的正式开始。2001年,国家成立国家信息化领导小组,随后又先后发布《关于我国电子政务建设指导意见》和《关于电子政务建设指导意见》,致力于政务服务的信息化改造和升级,强调建设政府对外网站与政务系统的电子化。在2015年至2019年间,《国务院关于加快推进“互联网+政务服务”工作的指导意见》等政务服务方面文件陆续出台。
第二,相较于电子政务,数字政府强调利用数字技术支撑政府全面履行各项法定职责、公共服务职能,注重数字化行政方式以推动政府治理结构的更新和完善。2019年党的十九届四中全会提出“推进数字政府建设”的概念。“最多跑一次”“一网通办”等实践创新也接续涌现。
第三,智能政府则是指在政府数字化的基础上,适应新一代人工智能技术发展趋势,智能化重塑政府治理活动。全国已有上百家政府单位接入了DeepSeek等大模型,涵盖智能问答、政策分析、交通便民、12345热线等多个场景。如深圳市福田区的“AI数智员工”协助处理行政事务、杭州市“城市大脑”实现城市综合管理等,都是政务大模型部署的典型案例。
目前,政务大模型部署在全球范围内尚处于从初期探索到发展蝶变的关键阶段。在美国,特朗普政府提出政府“人工智能化”,整合各部门的数据,减少政府开支。美国卫生与公众服务部已经利用人工智能管理健康医疗数据。在英国,斯塔默政府计划将人工智能部署到每一个政府部门之中,实现政府全面智能化转型。
在信息技术数字化、网络化向智能化迭代的过程中发展的智能政府,既与数字政府建设相衔接,又体现新的特点。
一是接续数字政府发展的继承性。智能政府的建设是在数字政府的基础上得以建设发展的,代表了政府治理形态在数字化基础上的深刻演进和能力跃升。数字政府不仅构建了坚实的数字化基础设施并积累了丰富的数据资源,而且在部分政府工作中建立了标准化业务流程。数字政府建设成果为智能政府的兴起,提供了必需的技术平台、数据根基、操作框架和有利的组织环境。
二是相对于数字政府的超越性。与数字政府所采用的技术工具相比,智能政府中的人工智能技术应用不再局限于“辅助性工具定位”,而可以成为核心驱动力量。通过AI Agent应用,智能技术将会拥有更好的能动性和自主性,具有超越人类专家的潜力,从而使智能政府实现更自然的语言交互、更富情感的沟通关怀和更主动精准的服务推送,提升面向公众政务活动的亲和力与满意度。
三是效能上实现双向赋能。相较于一般的技术类型,人工智能大模型技术的主动性、主体性明显增强。智能政府汲取数字政府建设成果,可以在数据训练基础上自主学习、自主分析、自适应优化。与以往技术应用中政府主要作为接受者、实现线性改进的单向赋能模式不同,智能政府开启了一种双向赋能的新范式:既可以通过人机协同,减少重复性工作,降低政府运行成本,又可以通过预测新态势、生成新内容、提出决策建议,形成政府效能新增量。
数字政府的核心逻辑是存量政务数据的高效利用,实现线下任务向线上的迁移。数据驱动政务流程运转,仍高度依赖人工干预以设定目标、判断风险、下达指令,输出的仍是标准化的政务信息。智能政府在利用政务数据对通用模型进行微调训练的基础上,汲取模型背后更广泛的数据资源和迁移学习能力,拓展行政决策、行政行为以进一步具备理解、推理和创造能力,实现从被动响应到主动预测、从标准化工具到个性化治理的转变。模型引领下,智能政府具备更强的泛化能力、自组织任务执行能力、跨部门跨场景协同能力,可以更广泛地适应复杂的治理场景和任务需求。通过支持大模型在政务系统中的部署,在实现政府内部管理服务的数字化改造,推动行政流程精简化的同时,还可以推动政府内外运行效能提升,构建跨越时空、层级的协同系统。
(二)从“数字法治政府”到“智能法治政府”的升维
数字法治政府的形成源于数字技术与法治政府建设的融合发展,是一种以数据为核心驱动、以法治为价值基础的现代政府形态。数字法治政府通过数字技术与法治路径的阶段性融合,重构了政府与社会的互动关系与政府治理模式。生成式人工智能及政务大模型的部署,深刻变革了政府与公众的交互模式。政府作为核心的公共部门,在推动社会演进中扮演着重要角色,需要随着社会演变而不断转型再造。
从“数字法治政府”到“智能法治政府”的演进,不仅是技术的迭代,更是法治范式的升维。智能法治政府建设并非简单地应用了更先进的技术,而在于其催生了一系列独特的内部运行机制,并要求构建一整套匹配的外部治理模式。智能法治政府建设的基本使命是确保技术赋能与法治约束保持平衡,避免政府的智能化进程偏离公共价值导向,并致力于保护和规范政府与人工智能之间的良性互动。与智能系统的运行细节主要靠机器学习而非人类完全设计建构不同,智能政府是可以通过人类学习、理解并把握技术发展规律,从而在法治轨道上有序建构的。
一是运行机制的重塑。智能技术嵌入行政权力,促使政府内部运行机制从被动的、规则驱动的自动化,转向了主动的、模型驱动的自主生成。决策机制也相应实现从数据辅助到模型驱动的核心变革。在智能政府中,政务大模型不再仅是数据辅助工具,而是能够自主分析、预测、生成方案的“认知中枢”。公务人员从传统的决策者和执行人逐步转变为事前的引导者、事中监督者和事后的审计人。决策机制的质变,催生了互动机制从响应式服务到预测性治理的演进。政府行为由被动回应公民请求,转向主动预警社会风险、推送个性化服务。在执行层面,高度自主的人机协同机制,将法律关系从“政府与相对人”,彻底重塑为“政府、大模型与相对人”的三元结构。法律关系的多维拓展也是智能法治政府区别于数字法治政府的关键特征。政府在智能化转型中既是创新主体又是价值引领者,既要掌握技术应用能力、又要推动技术发展以及承担技术治理责任,同时也不得不让渡部分权力于技术及相关主体。在新的治理结构下,如何有效保障公民在人机交互中的知情权、选择权、救济权,成为法治政府建设的全新课题。
二是治理模式的再造。政府内部运行机制的深刻重塑,必然要求外部治理模式的系统性再造。不同于数字技术,人工智能技术在政府治理中的话语权重得到实质性提升,并且获取了一定的决策权力。随着人工智能技术的成熟,其自主理解复杂指令、独立生成内容、作出预判性决策并与人类进行深度交互的可能性日益提高,日益呈现出“准主体”的特性。 “准主体性”模糊了传统法律关系中的主体边界,挑战了既有责任归属框架,使得《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》等数字化转型中建构的法律制度体系,在应对人工智能治理场景时存在一定的不适应性。
为此,智能法治政府必须构建一种将技术要素、法律规范与伦理价值深度融合的“嵌入式治理”新模式。一方面,人工智能技术的政务应用必须遵循法治原则,在法律授权范围内进行,确保公民权益不因技术变革而受损。另一方面,法律体系也需要主动适应智能政府建设带来的挑战。将实践检验有效的创新做法及时上升为制度规范,对不适应智能化发展的现有法规进行修订完善。通过构建起与政务大模型部署相适应的法治保障体系,推动实现政府的业务流程、体制机制、制度模式在人工智能现阶段的总体性再塑。
三、智能法治政府建设面临的挑战
(一)智能法治政府建设的现实障碍
1.创新激励不足与风险规避思维约束
智能法治政府建设面临的首要障碍是政府部门对人工智能技术应用的主动性和积极性欠缺,根源在于现行制度框架下的创新激励不足与风险规避倾向。
第一,现有法律规制框架与智能政府建设存在结构性脱节。我国现行行政法体系主要围绕传统行政行为构建。由于《中华人民共和国行政处罚法》(以下简称《行政处罚法》)《中华人民共和国行政许可法》(以下简称《行政许可法》)等现行法律在授权、程序和责任认定上均未考虑人工智能决策场景,执法人员在缺乏明确法律保障的情况下,为规避潜在风险,往往会选择更保守的传统工作方式。
第二,创新激励机制缺位导致应用动力不足。传统行政考核体系多关注稳定运行和风险控制,重点在于完成部门工作任务,并非提高服务满意度。智能政府建设重整后的行政流程,既可能减少人工岗位,也会重新分配权责。没有足够的激励,政府部门及其工作人员难有足够意愿去实施创新,甚至接受创新也有难度。因此,即使DeepSeek等大语言模型已证明其效能优势,对大语言模型的部署,政府部门也可能因缺少相应的绩效评价设计而抱持观望态度甚至产生一定程度的抵制情绪。
第三,缺乏可预期的创新容错机制。智能政府建设初期,探索中难免会出现数据安全、算力不足、算法不可控等可以预见的问题,也会遇到关于生成内容安全等难以预见的风险。在行政问责的框架下,如果没有明确的容错机制,人工智能技术应用失误的风险易被归咎于责任人,创新很难带来成比例的收益,政府部门易选择过度谨慎,甚至产生“创新懈怠症”[18]。
2.资源和要素供给保障不足
在具体适用层面,智能法治政府建设也面临技术资源投入不足的问题。政务大模型“不够用”集中反映了智能政府推进过程中的资源配置困境。
第一,本地化部署的高门槛与财政约束形成尖锐矛盾。政务大模型更好、更快的推理能力,意味着更高的计算资源需求。根据武汉理工大学2025年5月公布的DeepSeek服务器采购情况公告,相关硬件采购成本达280万元。在硬件配置之外往往还伴随着大量的电力消耗和运行维护成本。对于财政能力有限的地方政府而言,高额的部署成本是当前人工智能部署所面临的主要限制条件。人工智能大模型的资源约束不仅限制了技术应用的广度和深度,也导致区域间政府智能化水平的不均衡。
第二,技术人才短缺与专业能力不足成为关键瓶颈。政府部门在吸引和留住既懂技术又懂业务的复合型高端人工智能人才方面较企业存在先天劣势,现有公务人员队伍的知识结构和能力储备也与智能政府建设需求存在差距。因此,即使具备硬件设施、软件资源,智能政府的效能也可能因缺乏专业运维和应用开发能力而无法充分释放其价值。
第三,智能政府建设面临基础技术支撑不足的系统性制约。核心算法、基础软件、通用框架等基础技术是智能政府建设的底层支撑,但在高端芯片、开源框架等方面,我国尚难以完全掌握技术发展主导权。基础技术的自主性短板也会给智能政府建设带来潜在的安全风险和可持续发展挑战。政务大模型部署的核心能力可控性不足,会限制政府智能化转型的深度和广度,影响智能政府建设的整体进程。
3.技术限制与组织架构短板
人工智能技术赋能效果是衡量智能政府建设成效的关键指标。在探索应用初期,政务大模型应用往往面临“不好用”的问题。
第一,DeepSeek等大型语言模型虽具备强大的通用能力,但在专业性强、规范要求高、业务逻辑复杂的政务场景中,大模型“无法真正理解社会关系的复杂性、无法进行真正意义上的伦理判断、无法产生基于人类情感共鸣的决策反思”。从通用能力到政务领域的专精,需要经历持续的数据积累、参数调整和实践验证。在部署大模型之后进行调优以及长期更新,
方可适应政务领域的专业要求。
第二,政府的智能化转型与组织结构科层制惯性之间的矛盾,制约了人工智能系统整体效能发挥。政务大模型虽逐步融入政府运行体系,但以“科层控制”和信息“逐级传递”为主要特征的政府组织形态和运行模式难以适应新环境。传统行政思维与部门的条块分割,导致政府数据共享意愿不足,形成数据壁垒。政务大模型因缺乏全面、准确的数据输入而影响其推理与训练,由“数据孤岛”催生“模型孤岛”,最终制约智能系统的一体化效能。
第三,技术应用与业务流程的融合不足影响了任务流畅度。当前的政务大模型的部署多停留在“技术外挂”层面,未能与业务流程进行有机融合,导致操作复杂、流程脱节,使用体验不佳、输出结果可用性低。例如,在四川省多个区县接入DeepSeek的政务服务助手中,针对“开办企业需要提供哪些资料”等咨询,系统给出的答案常存在表述模糊、内容缺失等问题。在许多政务领域的“智能问答”仍在采用简单的关键词匹配机制,大模型应用并未发挥生成式理解与回答的能力,仅作为关键词索引工具,难以处理复杂多样的公众咨询需求。
(二)智能法治政府运转的潜在风险
1.技术可靠性:技术缺陷损害政府权威
在智能法治政府的构建过程中,政务大模型生成内容的准确性、真实性和公正性直接关系到政府公信力。任何技术缺陷或偏差都可能引发公众对政府权威的质疑,进而影响智能政府建设效能。
政务知识体系具有高度专业性、规范性与语境依赖性。无论是法律条文的精确解读还是政策文件的背景理解,都需要专业积累与实践经验。大模型通过海量文本训练获得的知识结构,与政务领域所需的深度理解之间存在本质差异,导致模型在处理专业政务问题时,易产生“幻觉”。但更为严峻的是,政务大模型的“幻觉”问题与“不可解释性”两大技术缺陷,会因政府权威的背书效应而被显著放大。智能系统通过政务大模型与公众聊天交互时,可能输出真实信息与虚假信息相互掺杂的低质量信息。由于政府官方的背书,公众往往将官方发布的信息视为权威内容,较少质疑其准确性。如果公众按照政务平台提供的事实上存在偏差的指引开展活动,不仅直接影响公众的实际权益,更会逐渐侵蚀削弱政府公信力,最终引发更为广泛的不利后果。据报道,美国某政府部门用于审查退伍军人事务合同的AI工具,因技术缺陷产生“幻觉”,错误地标记了千余份合同,引发了法律诉讼,充分暴露了技术缺陷损害政府权威的现实风险。
2.安全风险:系统防护与数据保护的双重压力
随着政务系统加速接入人工智能技术,安全防护的压力急剧攀升。政府作为数据主权的守护者和公共秩序的维护者,其系统安全边界的任何缺口都可能引发连锁反应,威胁国家安全和公民权益。
第一,开源模型的安全风险。政府部门在智能化转型中倾向选择开源模型进行本地部署和定制,虽可避免数据外传风险,但开源架构的透明性使系统面临统一攻击路径的风险。当源代码和架构对外公开时,潜在攻击者可针对共性漏洞,设计模型越狱、提示注入等攻击策略,导致开源模型本身具有的安全隐患传导至所有下游部署的实际应用。开源模型部署的风险在政务环境中尤为严峻。如果大量政府部门采用相似的部署方式,
一旦某类安全漏洞被发现,将会导致系统性安全威胁的快速扩散。
第二,本地部署环境的安全配置与维护风险。政务内网虽具有网络隔离优势,但部署其内的人工智能模型若未设置妥当的安全环境架构、安全配置和安全风险响应机制,仍可能引发内部安全事件。[29]尤其是,政务内网现有应急响应体系仅针对病毒感染、网络攻击等传统威胁设计,针对模型特有的模型投毒、对抗样本攻击等新型安全风险缺乏有效应对能力。
第三,政务数据安全风险。智能政府建设中,模型训练和优化过程需处理大量涉公民个人信息、敏感信息的政务数据,如果数据预处理和去标识化、匿名化不足,将会导致模型“记忆”敏感信息并在特定条件下意外泄露,影响政府公信力和社会稳定。在面向公众的应用中,提示词输入可能诱导模型输出不应公开的信息,形成“隐形漏洞”。重大公共事件或危机情况下触发的安全漏洞,甚至可能导致“系统性失声”或“功能性失能”,危及社会稳定和国家安全。
3.主体性弱化:过于依赖智能系统可能导致“技术懒政”
政府部署大模型的初衷是优化工作流程、提高行政效能。但随着大模型深度融入工作,其带来的流程优化和效率提升,也容易使政府工作人员形成依赖惯性,将本应由自身承担的分析、判断、决策责任推给大模型应用。即便在政府管理制度设计上加强对人工智能进行人工审查与监督,也可能因人的惰性而流于形式,从而在内部患上“技术依赖症”。长期发展下去,很可能导致公务人员独立思考能力和专业判断能力的逐步弱化,最终形成一种新型的“技术懒政”。
在个体层面,政府公务人员如果过度依赖人工智能辅助,减少自主思考和判断,将导致职业能力弱化,并在因算法引入而出现问题时,形成“算法卸责”。在组织层面,政府部门过度信任智能系统判断,减少人工审核,陷入“技治主义”陷阱,将行政机关应承担的决策责任不当推诿给技术系统。
政府决策本质上需要基于公共价值的判断和选择,过度依赖智能系统将导致价值判断能力萎缩,使决策偏离公共性和价值理性。当政府“智能化”异化为“去人化”,会忽视公众情感需求和价值诉求,损害政府与公众间的信任联结,背离全心全意为人民服务的根本宗旨。
4.公平性:智能决策考验行政公正
无偏私、平等地对待所有人是政务活动的重要核心价值。然而,随着人工智能技术日益融入政府决策过程,从行政处罚、行政许可扩张至行政给付等多元领域,并由半自动化逐步迈向全自动化,对行政公正的价值实现将带来前所未有的考验。
算法辅助或自动化决策已引发公平性争议。荷兰政府曾部署的SyRI人工智能系统用于识别社会福利欺诈,可根据申请人特征计算“风险分数”,却在独立调查中被发现对低收入社区和移民背景申请者给予不成比例的高风险评级,形成基于社会经济地位和族裔的差别对待,最终被海牙地区法院裁定违反欧洲人权公约的反歧视条款。
在我国行政执法实践中,公平性问题同样引发关注。我国广泛应用的交通电子监控系统虽提高执法效率,但其机械化判断逻辑无法充分考量紧急避险、特殊天气等情境因素,导致某些处罚缺乏合理性,算法执法的标准化处理忽视个案特殊性,事后司法审查也难突破技术壁垒。并且,受地方财政所限,不少地方政府采取与技术公司“风险共担、收益共享”的方式合作建设交通电子监控系统。而为偿还技术公司的投入成本,地方执法部门不得不利用“电子眼”加大执法力度,导致难以做出公正处罚。相比功能单一的“电子眼”,政务大模型的能力更为强大,其技术逻辑也更为复杂。复杂政务场景的自动化处理以及政务大模型技术服务外包对行政公正的挑战也将更为严峻。
当政府使用人工智能系统进行资源分配、许可审批、监管执法等活动时,任何系统性的偏见都可能构成对法治原则的实质性挑战。算法偏见一旦嵌入行政系统,其规模化影响可能远超传统行政过程中的个体偏见。算法决策应用于政务领域必须确保对行政相对人的公平对待。公平本身是一个多维度、高度复杂的概念,即使在传统行政决策中也常面临难以权衡的价值冲突。人类决策者通常能基于法律规范和社会共识做出灵活判断,但将其转化为代码时,公平的丰富内涵往往被简化为可量化数学模型。相较于人类决策者,大模型在处理需要权衡多重价值的复杂案例时,既缺乏灵活适应性,又存在伦理考量深度不足的局限。大模型继承并可能放大训练数据中的历史性偏见,使既有社会不平等通过算法决策被规模化地复制,形成可预测的偏见循环。算法决策与行政公平的协调是一个需要审慎处理、严肃对待的问题。
四、智能法治政府建设的基本面向
(一)智能法治政府建设的原则
第一,坚持以人民为中心建设智能法治政府。人工智能大模型的应用必须坚守技术发展“以人为本”,政府也应坚持“全心全意为人民服务”的根本宗旨。
人工智能在提升政府效能的同时,必须确保技术为人民服务的根本属性不变,政府的人民性不因技术应用而削弱,依法履职的使命不因智能化进程而偏离。人工智能介入政府决策与服务过程,可能带来权力运行方式的深刻变革。智能政府建设应警惕技术赋能可能导致的权力扩张和运行失范。
人工智能技术应当服务于规范政府权力与保障公民权利的法治价值。在设计和应用人工智能系统时,政府应将公平正义的法治理念置于算法逻辑之上,确保技术运行符合法治精神。应用人工智能技术的政务活动,必须高度警惕技术应用可能引发或加剧的“社会排斥”问题。[41]如果智能化的公共服务体系在设计上未能充分考虑不同群体的数字素养与接入能力,其结果将不仅是对老年人、残障人士等群体的边缘化,更是一种系统性的制度性排斥。智能政府的绩效评价中,应把“让人民满意”作为核心价值导向,切实保障人民的“满意权”。智能法治政府建设应当始终将技术视为实现为民服务的手段,而非目的本身。
政府在智能化进程中,应以“人民满意”为目标,识别和响应公众需求,不仅关注技术指标和效率提升,更要关注技术应用对公民权益的实际影响,确保技术赋能最终转化为民生改善和公共福祉增长,从而向公众提供高效的公共服务。
第二,落实“总体国家安全观”,推进智能政府和法治政府良性互动。必须坚持总体国家安全观的指导,从国家安全战略高度统筹智能政府与法治政府的协调发展,既要充分释放人工智能技术对政府治理的赋能效应,又要防范技术应用可能带来的风险隐患,确保国家治理体系安全稳定运行。
政府作为公共权力主体和社会稳定器,其安全边界应比一般市场主体更为严苛。“法律之于安全,是权利的稳定器,失控权力的抑制器。”法治政府是“权力受监督制约的责任政府”。将智能政府建设全面纳入法治政府的框架之内,正是要运用法治的确定性、规范性和强制性来驾驭人工智能技术的不确定性与潜在风险,从而确保人工智能发展安全、可靠、可控、始终在法治轨道上服务于国家安全与公共利益。
第三,在法治轨道上实现智能政府高质量发展和高水平安全的良性互动。引入大模型的核心目标在于政务服务智能化、行政办公效率提升、城市治理智能化以及营商环境改善,本质是基于政府提质增效的考量。
智能政府活动应同时确立“基于设计的人工智能”和“基于合规的人工智能”原则,致力于在政务大模型部署中寻求效率与安全的最佳平衡点,实现以发展促安全、以安全保发展的良性循环。智能法治政府不仅要对新技术、新应用带来的风险挑战予以回应,更应着眼于为智能经济、智能社会、智能政府构建具有基础性、原则性的制度框架。
(二)智能法治政府建设的方法论
第一,实施场景化分类治理。在清晰识别政府运用政务大模型具体场景的基础上,根据行政行为主要影响内部管理或直接作用于外部相对人的性质差异,制定不同的法律规则和监管措施。
在政府内部管理领域,大模型主要辅助公文处理、知识检索、流程自动化及内部决策参考,目标是提升行政效率和内部协同。针对内部应用场景,建设重心在于保障信息安全、确保辅助功能可靠性以及规范内部工作流程,确保数据安全和保密合规。伴随行政活动作用于相对人的人工智能应用,既会因与相对人的交互增加风险变量,也可能在效果上影响或改变外部公民、法人的权利义务,法律关系更加复杂,需要更加审慎。
对于负担性行政行为,例如,利用人工智能实施行政处罚、采取强制措施、限制或剥夺特定权益等活动,应施加更为严格的法律控制。应在严格落实《行政处罚法》等现行法律规定的基础上,明确算法决策的可解释性要求、归责机制和救济路径,设立有效的人工复核或干预机制,充分保障相对人的知情权、陈述申辩权,并提供通畅的法律救济途径,防止权力滥用和侵犯公民权利。
对于授益性行政行为,例如,发放行政许可、分配公共资源、确认福利资格等活动,法律规制应在遵循《行政许可法》《中华人民共和国社会保险法》等相关法律精神的前提下,侧重于保障机会公平与程序公正,确保人工智能应用过程中的标准统一、执行准确、结果一致,防止算法偏见或歧视导致的不公平现象。
第二,创新模型化治理。建设智能法治政府不仅是对人工智能技术的应用与管理,更需要引入大模型技术提升治理能力,实现从技术化治理到模型化治理的方式转变。
首先,政务大模型部署后的能力边界,必须有法律的明确设定。法律需要明确哪些政府活动或决策环节可以适度引入自动化,哪些领域因其复杂性、敏感性或对公民权益的重大影响而必须保留人工主导或严格的人工复核。在缺乏透明度、可解释性和公平性保障的情况下,应禁止或严格限制模型的自主决策。
其次,模型化治理要求从选型、训练、部署到监测优化,各环节均建立动态适应的标准规范,引导政务大模型不超越预设的应用范围,内部运作和外部行为影响始终处于可控状态,避免因“黑箱”特性导致权力失控或责任模糊。通过建立模型风险的动态评估与干预机制,利用好安全对抗测试工具,及时发现并修正政务大模型的安全风险。
再次,模型化治理应汲取模型训练的跨领域知识迁移、增量学习、实时优化等能力。通过不断收集政务大模型风险数据,持续优化政务大模型治理规则库和知识图谱,研发用于政务大模型治理的垂类模型,在“统一规制”工具库要素的基础上,迭代丰富“调优适配”的新型治理工具和风险解决方案。
第三,节点化配置权责。智能法治政府的构建,需要推动政府行为向节点化管理转变,并实现法治建设在权力、责任与相关方权益层面与相应节点的精准匹配。
2025年7月1日,中央财经委员会第六次会议提出要“统一政府行为尺度”,把政府行为放在法律制度的标尺下度量,做到“法定职责必须为,法无授权不可为”。实施节点化治理,正是将“统一政府行为尺度”的宏观要求,转化为对每一个政府行为节点的有效赋权与有序约束。
鉴于政务大模型在行政流程中扮演着多重角色,将复杂的政府行为分解为若干相互连接、功能清晰的“节点”或“环节”,便成为实施有效治理的关键前提。
政务大模型及相关政务活动的信息采集、数据分析、方案拟定、决策辅助、指令执行以及结果反馈,都应被视为相对独立的单元进行审视和规制。法律规范需明确界定该节点所涉及的权力范围、责任归属以及相关方的权利保障。例如,针对在信息筛选、个人评价、风险预测等特定节点的应用,必须清晰设定模型的权限边界、数据使用的合规性要求、人工干预的必要性与时机,以及该节点操作结果的法律效力与责任承担机制。
节点化的治理方法有助于将宏观的法治原则细化落实到政府运作的具体环节,提高权力行使透明度与责任追溯的可操作性。一旦出现决策失误、信息泄露或权益受损等问题,也能够更精准定位问题发生的具体节点,并依据该节点预设的权责配置规则进行处理。
五、智能法治政府的建设路径
(一)从“规制到塑造”的范式表达
智能法治政府的构建不仅是技术层面的革新,更深层次地触及了政府治理的基本理念与权力运作模式。其治理理念将从传统的“规制”转向主动的“塑造”,旨在将以人民为中心的价值追求贯穿始终,并确保技术创新与安全保障在法治轨道实现协同并进、良性互动。
第一,智能法治政府的理念革新。“转型社会制度变革总是在先进的意识、观念和理论的引导下展开的。”智能法治政府的构建,首先要求在监管理念上实现根本性转变,即从传统的、以事后应对和限制为主的“规制”思路,转向更具前瞻性、主动性和建构性的“塑造”范式。这并非否定规制的必要性,而是强调法治在人工智能时代应扮演更积极的角色。
“塑造”意味着智能法治政府建设不仅为人工智能应用划定红线、设定底线,更要主动参与技术发展路径选择、应用场景规划、价值伦理构建及制度环境营造。法治政府应以建设性姿态引导人工智能在政务领域的健康发展,将“规则刚性治理”与“语义柔性治理”相结合:一方面以明确的法律规则、技术标准和问责机制构建稳固的法治框架;另一方面通过政策引导、伦理共识和场景赋能,推动人工智能发展方向与公共利益和法治价值保持一致。
第二,智能法治政府的权力重塑。从“规制”向“塑造”转变的核心在于重塑政府公权力的内在形态与运作逻辑。政务大模型的引入并非仅仅是为现有权力体系提供新的技术工具,而是对权力本质、行使方式乃至合法性基础发起了一场结构性的变革。
传统公权力以人的理性和科层结构为主要依托。政务大模型正以数据驱动和算法赋能的方式,深刻重塑公权力的认知基础、决策模式与行使效能,使其从传统的人类经验与线性审批,转向基于智能分析、人机协同的高效非线性运作。然而,技术逻辑的复杂性与数据驱动的内在局限可能引发公众对政府权力运行的透明度、公正性和可问责性的质疑。因此,智能法治政府语境下的权力重塑,不局限于适应性调整或补充性规范,而在于前瞻性地思考和构建一种与智能化权力形态相适应的新的合法性框架、责任机制和监督体系。塑造大模型部署中的权力架构及其监督机制,增强规范性和问责性嵌入,方可在法治轨道上最大程度实现正当性与行政效能的统一。
第三,智能法治政府的流程迭代。理念革新与权力重塑的必然结果,是智能法治政府对传统行政流程的再造。
针对内部行政行为,流程迭代主要致力于提升行政效率、强化内部协同和实现管理精细化。既要让大模型适应政务流程的需求,也要以更好释放大模型效能为导向优化既有的公文处理、信息共享、政策辅助研判等内部环节。
面向外部行政行为的流程迭代,对智能法治政府建设提出更高要求。一方面,外部行政行为的行使必须在追求效率的同时,坚守公平正义、程序正当与权利保障的法治原则。直接影响公民、法人或其他组织权益的行政活动必须严格落实算法应用的透明可解释,确保相对人的知情权、参与权与申辩权,确保行政程序规范有效运行。另一方面,外部行政行为要提升相对人的便利度,将行政管理和服务尽可能集合、集成于一个窗口、一个客户端、一级界面,即形成具有跨部门能力的政务AI Agent。权力的融合必然伴随着权力滥用风险的增加。交通“电子眼”的经验表明,即便是功能单一的工具,也需法律严格授权并限定其边界。面对能力更强、逻辑更复杂的AI Agent,更需未雨绸缪,为其预设权力清单与责任机制,实现其在法治轨道内的可控运行与权责统一。
(二)智能法治政府的制度建设
确保人工智能在政府治理中得到负责任的应用关键在于构建一套与之相适应的、具体可行的制度体系,以保障智能法治政府的建设要求落到实处。
第一,伦理规范实质性嵌入政府人工智能全过程。我国虽然在2023年7月公布了《科技伦理审查办法(试行)》,但科技伦理审查制度仍处于起步阶段,存在审查形式化、虚置化等现实问题。政府作为公共利益的守护者和规则的制定者,在人工智能研发、提供和使用活动中的示范作用尤为重要。
随着政务大模型能力提升,人工智能对传统行政决策方式的替代从理论走向实践,为防范技术异化与自动化偏见,需构建细化的伦理审查机制。应基于人工智能在决策中的角色和影响程度设置针对性标准:对于完全代替人类决策的大模型应用,应明确禁止人工智能独立完成涉及国家安全、社会稳定、公民核心权益的重大决策;对于可适度引入智能决策的领域,则应设定明确的授权上限和程序保障,确保效率提升不损及合法性和公信力。伦理审查应关注训练数据偏见、算法设计公平性、决策过程透明可解释、责任链条清晰完整等关键问题,并建立动态调整机制优化审查标准。通过这种分场景的伦理审查体系,可以在促进智能决策创新的同时,有效防控决策风险,维护行政决策的法治底线。
第二,规范和保障智能法治政府基本要素供给。智能法治政府的构建与运行高度依赖于算力、数据、算法及模型等基本要素。这些作为“公共物品”属性的要素供给,应通过法治路径加以规范和保障。
一方面,要保障基本要素的规范利用。相关要素的采购应严守《中华人民共和国政府采购法》等法律规定,确保公平透明,保障各类人工智能服务提供者具有平等市场机会,形成竞争充分的政务大模型生态。政务大模型部署需符合相关法律要求,明确主体责任、供应商资质与安全评估,并通过对抗测试等手段评估安全性。需要确保技术供应商、数据管理者与政府主体的责任穿透,并引入公众参与的透明度验证,更好监督智能法治政府建设过程。
另一方面,要保障基本要素的供给能力。破解政府智能化转型中基本要素资源不足与配置失衡困境,需要推动基本要素支撑体系建设。目前我国各地政府的智能化进程存在显著差异,情况较好的地方政府可以实现自下而上式的智能化进程,但更多地区仍需要通过智能法治政府自上而下式统筹建设。在外部支撑维度,纵向上建立中央统筹、省级支撑、基层应用的协同机制,规划公共算力,提供专项资金,增强技术自主可控,“鼓励各地区从顶层设计上完善相关配套政策,推动数据要素的市场化、价值化”;横向上创新政企合作,通过购买服务、联合研发、数据共享等措施激活社会资本参与算力与数据建设。在内部改造层面,应构建与智能治理相适应的新型政府组织形态。政府内部需形成“人机协作”工作流程,设立专门协调机构统筹大模型应用,打破部门边界,优化业务流程,合理分配数据与决策权限,使组织与技术逻辑深度融合。同时,也需要加强对政府工作人员的人工智能素养培育,创新市场化人才引入与共享机制,破解智能政府的专业人才瓶颈,让各级政府“用好”人工智能。
第三,同构融贯智能政府责任机制与激励机制。应提升问责机制对人工智能应用场景的适应性,一体设计智能政府责任机制和激励机制,将责任边界与激励措施置于同一框架下考量。既要明晰智能应用中的责任链条,又要激发政府部门和公务人员的创新活力,从而缓解责任追究与技术创新间的结构性矛盾,塑造边界清晰、敢于创新、善于创新且负责任的智能政府形态。
为避免过度严格责任阻碍技术尝试,应构建区分主观过错与客观风险的尽职免责规则,完善试错容错管理制度。对于公务人员在引入智能技术过程中尽职尽责但因技术自身局限导致的不利后果,应当建立清晰、具体的责任豁免机制。尽职免责要以充分履行事前评估、过程监督和事后审查等职责为前提。通过明确界定政府部门和公务人员在智能应用中应当遵循的基本义务和行为标准,对于严格遵循规定流程并履行必要职责的情况下出现的技术失误或系统缺陷所导致的问题,区分不同情形予以合理责任减免。
智能政府可在具备条件的区域设立政务大模型创新试点,在开展大模型应用的探索性实践的同时,构建科学的监测评估机制全程跟踪实践效果。对取得显著成效的创新经验,应及时提炼其中的规律性认识,开发可广泛适用于某类政务场景的标准版本,推动成功做法“泛化”,最终实现创新成果的规模化复制与系统性推广。我国学者在《人工智能示范法》中提出鼓励政府机关、事业单位及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域依法开展人工智能技术应用先行先试,优先采购和使用安全可靠的人工智能产品和服务。为有效实施《人工智能+意见》,需要推动政府部门强化示范引领作用,通过开放场景等支持技术落地。政府部门的先行先试不仅有助于在内部环境中持续优化政务大模型的适用性和效能,还能为引导和促进国内人工智能产业的技术创新和市场发展注入信心和资金,形成政府应用与产业发展的良性互动循环。
第四,体系推进政府人工智能活动专门立法。智能法治政府建设需要法律规范体系作为基础支撑,为模型化治理提供统一、权威的法律框架。在短期内,可针对既有法律规范中与政府人工智能活动、政务大模型应用相关法律法规的具体条款进行修改,使其适应技术变革的客观需要,在保留法律体系整体稳定性的同时,回应新技术带来的新需求。从长远来看,修法模式难以应对技术跨界融合、快速迭代的系统性挑战,也无法突破现有行政法律框架对技术创新的约束性制度瓶颈。《人工智能+意见》中明确提出应“强化政策法规保障”,要求“完善人工智能法律法规、伦理准则等,推进人工智能健康发展相关立法工作”。国家发改委同中央网信办发布的《政务领域人工智能大模型部署应用指引》进一步从应用场景、规范部署、运行管理等方面提出了工作导向与基本参照。未来,应在人工智能发展和治理实践更加成熟后,创新立法机制和路径,制定关于政府人工智能的专门法律,或者在人工智能综合性立法中以专章形式规定政府人工智能活动的内容,从而为政府人工智能应用提供统一的法律框架。
域外相关立法设计对政府人工智能已做出一定探索。欧盟《人工智能法》对部分政府人工智能应用列为高风险应用,设置严格审查要求。早在2022年12月,美国就出台了《促进美国人工智能法》,要求各个联邦机构建立、公开并持续更新内部人工智能应用清单,对政府采购人工智能系统或服务在透明性、安全性等方面提出具体要求。特朗普政府针对政府人工智能使用所发布的《关于通过创新、治理和公众信任加速联邦对人工智能的使用》以及《关于推动政府高效利用人工智能》两份备忘录,强调各联邦机构应加速、最大化利用人工智能。[58]美国《人工智能行动计划》为加速政府机构对人工智能的应用,设立“首席人工智能官委员会”作为跨部门协调AI应用的主要平台,并由总务署牵头创建一个标准化的“AI采购工具箱”,以简化各联邦机构的采购流程。美国立法交流委员会发布的《州级人工智能示范法》要求政府机构全面盘点应用技术并提交详细报告。地方层面的实践同样值得借鉴,例如,《纽约市2022年第35号地方性法规》便要求市政府机构每年报告其所使用的“算法工具”情况,为公众参与监督创造了条件。由此可见,政府人工智能活动的专门立法应聚焦政府应用场景的特殊性,明确政府人工智能活动的基本原则、授权依据、适用程序、安全标准和责任机制,针对政务大模型部署中的技术可信性、安全风险、权责分配和算法公平等关键问题提供明确指引,构建包含伦理审查机制和事前评估、事中监督和事后救济的完整治理链条,实现法律体系内部的协调和统一。
第五,做好智能政府相关法律制度的适配性评估。为确保法律制度能够始终护航并引领技术发展,将在法治轨道上实现高质量发展和高水平安全的良性互动这一原则落到实处,适配性评估成为必不可少的关键环节。人工智能技术的发展和应用环境存在高度的不确定性和复杂性,传统的静态法律规范难以完全适应这种动态变化。适配性评估的核心在于主动把握人工智能技术发展和应用的制度需求,及时识别阻碍创新和影响安全的制度措施,进而推动法律制度的调整优化。
通过建立系统化的适配性评估框架,既能保持法律的稳定性和权威性,又能随技术演进而适时调整。适配性评估需关注市场调节机制的有效性、政策对市场秩序的影响、对创新的规制负担以及与技术发展趋势的适应性等多维度因素,综合评估监管措施的适当性和有效性,为政策优化提供科学依据。政府部门在推进智能化转型过程中,应将适配性评估作为常态化工作,定期对现有的政务大模型和拟出台的政策、制度进行组织评估。当评估发现某项政策或制度可能对人工智能发展构成不合理阻碍时,应及时启动优化调整程序,为智能技术创新预留足够空间。我国学者在《人工智能示范法3.0》中已前瞻性地提出政策和决策适配性评估条款,建议从国家层面建立人工智能政策适配性评估机制,对拟出台或已实施的政策、决策、制度,开展对人工智能发展和安全形势的适配性评估。经评估认为可能显著影响人工智能发展或安全的政策、决策、制度,应当及时调整、废止或修改完善。
六、结语
在新一代人工智能技术加速嵌入政府运行的时代背景下,技术不再是政府工作的外部工具,而是逐渐成为行政决策、公共服务和社会治理的内在逻辑。
智能法治政府命题的提出,本质上是对技术赋能与法治保障之间辩证关系在政务大模型广泛部署下的反思与回应,是从法治视角探索平衡政务大模型应用与公权力有序运转之间张力的解法。智能法治政府的构建,致力于解决人工智能技术应用难题,更追求在新型政府结构中重构行政权力行使的正当性基础、重寻公共价值的当代表达以及重塑政民关系的互动规范,核心在于坚守法治政府的基本原则与价值底线,并主动适应智能技术带来的治理逻辑变革。唯有在技术理性与价值理性之间寻求并维持平衡,才能真正实现人工智能技术的规范应用与创新发展,并由此带动政府治理效能的全面提升、公共服务质量的持续优化以及社会创新活力的充分释放,最终推动国家治理体系和治理能力现代化迈向更高水平。
作者:周辉,中国社会科学院法学研究所副研究员。
来源:《行政法学研究》2026年第2期。