摘要:在当前人工智能领域,需重点应对统筹人工智能全生命周期风险与全要素发展、实现新旧规则的平衡供给、适应全球竞争持续加剧三重挑战。相关议题的紧迫性,决定了开展人工智能综合性立法的必要性。总则性、碎片化、低位阶立法等替代性路径,面临可操作性不足、协同性欠缺及立法权限模糊等困境。人工智能综合性立法旨在确立全局应对、主动塑造的人工智能法律治理范式,其承载着促进发展、风险防控与权力规制的多重功能,核心任务在于实现规范内容的体系性、调整范围的全面性与价值目标的综合性,故其不必拘泥于“人工智能法”这一名称,亦非无所不包的人工智能法典。推进人工智能综合性立法需科学分析立法需求、前瞻布局机构改革以做好立法准备。在内容上,立法需以人工智能全要素、分主体、全周期为矩阵框架,以国家人工智能主管机关为枢纽牵引;同时内嵌动态更新、持续适配机制及技术研发暂停机制,确保立法出台后能主动维系有效性与适应性,及时回应新发展需求与新风险挑战。
关键词:智能时代;人工智能立法;人工智能治理;人工智能法;立法模式
作者:周辉,中国社会科学院法学研究所网络与信息法研究室副主任(主持工作)、副研究员。
来源:《法学研究》2025年第6期。为阅读便利,注释从略,建议阅读原文。
一 问题的提出
以生成式人工智能为代表的新一代人工智能技术正快速演进。人工智能带来了前所未有的发展机遇,也带来了前所未遇的风险挑战。党的二十届四中全会提出,坚持智能化方向,加快建设网络强国,抢占科技发展制高点,不断催生新质生产力。要掌握这一轮科技革命与产业变革的战略主动权,需加紧制定完善相关法律法规。当前,致力于推动人工智能发展的国家和地区已围绕人工智能立法开展各具特色的实践探索。欧盟、韩国、日本、意大利等先后出台人工智能专门立法,这些立法虽在命名上存在差异,但在立法思路上均体现出构建专门性法律框架的取向。美国早在2021年便在联邦层面颁布专门立法,以促进人工智能发展、规范政务领域的人工智能应用。特朗普政府再次执政后,虽废止了拜登政府时期的相关行政命令,试图避免过度监管影响人工智能技术创新,但仍针对深度合成色情内容的规制出台删除法。在各州人工智能立法加速推进的背景下,美国关于是否继续推进联邦层面人工智能立法的争论,已转变为是否通过联邦立法解决州级立法带来的碎片化问题。
我国注重在法治轨道上推动人工智能安全与创新发展,十四届全国人大常委会年度立法工作计划持续就人工智能立法作出部署,《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》明确提出加强人工智能治理,完善相关法律法规。从当前制度体系来看,与人工智能直接相关的法律规则较为分散,或见于部门规章、地方性法规,或见于网络安全法、《网络数据安全管理条例》等法律法规。在调整对象层面,现有立法主要聚焦数据、算法等要素,缺乏针对模型、算力的制度规则;在法律位阶层面,能够统筹人工智能发展与安全,且涵盖要素供给保障、风险类别区分、监管体制优化、监管工具整合、法律责任界分的立法仍属空白。更为重要的是,对于与人工智能发展不相适配的部分现行法律,应当如何完善尚未明确。这一现状凸显出制定覆盖全要素、体系化、全局式、高位阶的中国特色人工智能专门立法的迫切性。
我国学界针对人工智能立法的目的、路径、结构及制度设计等议题展开了丰富的研讨,同时总结分析了美欧等域外国家或地区的人工智能立法经验,为我国人工智能法律制度体系的构建提供了有益理论参照。然而,对于我国是否需要制定人工智能专门法律以及应采取何种模式推进,学界仍然存在不同观点。部分观点认为,当前人工智能领域的法治需求尚不迫切,主张“先发展后立法”;也有观点提出,立法可能增加市场主体合规成本,给人工智能技术与产业发展带来监管负担;另有观点认为,人工智能技术迭代迅速,制定统一的人工智能法律存在技术层面的困难,面临法律出台即落后的风险;还有观点建议,可通过总则式立法、部门法完善、低位阶立法相结合的“小快灵”模式先行供给制度。上述分析在一定程度上指出了当前人工智能立法所面临的障碍,但未充分意识到人工智能的变革具有颠覆性,难以套用互联网规制经验,“先发展后立法”恐积累不可逆风险,也没有看到统一立法在避免地方立法或部门立法碎片化方面所可能具有的优势。事实上,立法并不等同于“增负”,科学立法可通过明确风险分级、权责边界以降低企业试错成本,为创新提供稳定预期。如若不能明确科学的立法模式,相关理论构建难免存在靶向性不足、方向性偏离等问题,进而阻碍制度转化,不利于充分释放法治对人工智能发展的规范与保障作用。
本文认为,人工智能是引领产业变革、关乎国家竞争、深刻改变人类生产生活的战略性、颠覆性技术,统筹人工智能高质量发展和高水平安全,需要科学构建可预期、促创新、防风险的法治生态,需要制定一部能够覆盖技术全要素、实现体系化设计和全局化治理的综合性立法。作为人工智能领域的基本法,人工智能综合性立法的核心任务是实现促进发展、防控风险与规制权力之间的平衡,通过确立人工智能治理的基本原则、划定基础性权利义务边界、构建权威统一协同的监管体制框架,主动塑造人工智能技术发展的规范环境,为人工智能治理提供根本遵循与顶层指引。基于这一核心判断,本文力图全面分析人工智能发展的立法需求,阐释推进人工智能综合性立法的紧迫性与必要性,在此基础上深入探讨人工智能综合性立法的定位和实现路径。
二 人工智能综合性立法的逻辑基点
人工智能技术凭借前所未有的创新性与颠覆性,正加速重塑全球产业格局与治理秩序。这种变革不仅在技术迭代、经济转型层面带来新挑战,更对既有的法律体系提出深刻的调适需求。当传统法律框架面对具备自主学习能力和动态演进特征的技术形态时,其暴露的并非单一领域的规则空白,而是体系性的治理赤字与制度供给的结构性失灵。
01统筹全生命周期风险应对和全要素发展
人工智能作为技术系统,其运作具有生命周期多环节性与要素多维度耦合性的特征。人工智能风险的弥散性、累积性、跨阶段传导性,及其持续发展所需的全方位、整体性制度供给,决定了相应的法律保障体系必须具备综合性与协同性,制度设计既要关注人工智能各环节、各要素的特殊制度需求,更应着眼不同环节与要素间的耦合关系。
首先,应对人工智能的全生命周期风险,需要形成贯穿始终的规制链条。人工智能从概念设计到退出使用,通常经历设计、开发、训练、部署、运行、迭代、退役等环节。设计阶段确定的功能目标与伦理准则,会贯穿于模型训练的数据处理与优化过程中;部署的可行性既约束前期技术路线选择,也影响运行阶段的受众覆盖范围;运行阶段产生的监控数据与性能反馈,不仅能驱动系统迭代优化,还直接关联风险治理举措的制定;最终的退役环节则涉及剩余风险是否终结、系统能否安全退出、相关服务可否平稳关闭。设计阶段的偏见嵌入、开发过程中的数据质量缺陷、训练环节的算法不透明、部署后的模型漂移、运行中的安全漏洞,以及迭代更新时的责任认定模糊,共同构成多维度风险图谱。各环节产生的风险并非孤立存在,而是通过时间维度的累积效应与空间维度的扩散效应,形成复杂的因果链条。
其次,适配人工智能的全要素发展需要协同一致的制度供给。数据是算法执行训练的信息基础,算法定义了从数据中学习并提取模型的计算规则,模型是对算法学习成果的参数化凝练与结构化呈现,算力则为算法训练及模型推理等计算密集型任务提供必要的物理资源支撑。数据要素的合规获取与安全流转、算法的创新激励与持续迭代、模型的知识产权界定与责任划分、算力资源的普惠可及与高效利用,均非单纯依靠技术手段或市场自发行为就能完全解决。例如,北京抖音科技有限公司诉某信息公司案虽对人工智能模型的核心结构与参数提供了竞争利益层面的司法保护,但仍未能有效回应模型训练数据来源合法性这一关键的基础性问题。
人工智能与蒸汽机、电动机一样,属于通用目的技术,其全生命周期风险不局限于任一单一环节;人工智能的全方位发展,亦需全面把握各要素间的关联与支撑关系。传统以成品为规制对象、呈碎片化特征的法律规制模式,难以适配人工智能动态化、内生性的风险特性,既可能形成规制盲区,也易因过度规制抑制技术协同效应。唯有通过覆盖全要素、具备体系化、贯穿全局式、处于高位阶的综合性立法,方能立足产业生态的全局高度,开展全链条、体系化的制度设计,实现促进创新与保障安全双重目标的平衡。
02实现新规则的供给和旧规则的突破
人工智能技术的颠覆性特征,对现有法律体系的适应性与完备性构成挑战。有效的法治应对,不仅需为前沿技术发展中涌现的全新法律关系提供规则,还需对既有法律体系中不适配技术创新的制度安排进行审慎调整。但是,现有法律框架在回应这两大需求时,均显现出内在局限性,凸显了开展体系化制度重构的必要性。
第一,现有法律框架难以有效供给人工智能发展所需的新规则。人工智能固有的“黑箱”运作模式、潜在的内生缺陷,以及对海量计算与数据资源的深度依赖等特性,不仅使其决策过程难以被外部理解,加剧信息不对称并形成事实上的“信息壁垒”,更导致技术研发者与应用提供者在探索创新边界时,面临显著的合规不确定性与潜在的法律追责风险。若模型在实际应用中因核心技术要素问题暴露出严重缺陷,甚至引发系统性风险,相关主体不仅可能承担难以预估的法律责任,还需被迫投入巨额经济与时间成本进行修正乃至重训模型。在当前算力资源紧张、高质量数据获取难度较大的背景下,这无疑将大幅增加人工智能的发展负担。更为严重的是,法律规则碎片化、不明确所导致的不确定性,还会沿产业链传导,并在不同产业层次与应用领域中累积放大。例如,在上游数据采集与算法研发环节,权属界定模糊、公平性标准不明,将直接阻碍数据要素流通,并使技术投资趋于保守;这些源头上的不确定性会进一步传递至中游基础模型开发与平台集成环节,因知识产权保护边界不清、平台责任范围弹性化,技术投资会面临难以评估的法律风险;最终在下游应用部署环节,无论自动驾驶、智能医疗还是金融风控,行业标准的差异与滞后均会显著增加市场准入与合规成本。这种上游不确定性向下游的持续叠加,会形成风险聚合效应,而下游应用的合规困境又会反向抑制上游的创新选择。基础大模型的不合规、不安全问题,还将影响所有基于该模型开展的下游应用或终端产品,进而威胁整个产业生态。
第二,既有法律规则对人工智能创新应用构成现实阻碍。人工智能作为通用目的技术,其发展与应用广泛嵌入社会经济秩序,不可避免地与现行诸多法律法规产生冲突。例如,在产业前端,权利归属规则的明确性不足,模型训练对受版权保护数据的合法使用范围与边界尚未厘清,合理使用标准悬而未决;人工智能生成物的法律地位、独创性认定标准及其权利归属,亦缺乏统一规范。在损害救济层面,责任主体认定规则同样存在模糊性,人工智能的“黑箱”特性与复杂主体关系(涵盖算法设计者、数据提供方、模型训练者、应用开发者、最终使用者等),导致传统侵权法的归责原则难以直接适用。当下游应用因上游基础模型缺陷造成损害时,法律未为受害者提供清晰的追责指引;即便明确责任主体,责任分配规则仍处于空白状态。基础模型研发者与下游应用开发者的责任如何划分,平台与用户的责任边界何在,是否需引入产品责任、服务责任或全新责任形态,这些问题均处于现有法律的模糊地带。对此,应开展体系化规则再造,而非采取碎片化规制举措。
03塑造全球人工智能治理话语权
作为一项正重塑全球权力结构的颠覆性技术,人工智能引发的国际竞争已超越单纯的技术层面,日益演变为治理范式与法治能力的深层博弈。当前,人工智能立法的定位已从传统的国家治理工具,升级为各国彰显全球竞争力与法治软实力的核心载体。基于此,人工智能立法不能仅从国内治理视角出发,还需立足涉外法治全局进行系统性统筹设计。
2024年8月生效的欧盟人工智能法是全球首部人工智能综合性立法。其后,韩国国会于2024年12月通过人工智能发展和建立信任基本法,日本国会于2025年5月通过人工智能相关技术研究开发及应用促进法。此外,巴西参议院已于2024年12月批准通过巴西人工智能法案,西班牙政府部长会议于2025年3月批准了西班牙人工智能法案草案,马来西亚与英国亦在推进专门性人工智能立法的起草工作。多个国家和地区在出台综合性立法推动国内人工智能产业与技术发展的同时,亦致力于争夺人工智能领域的国际话语权。当前,人工智能全球规则博弈的窗口期正逐步收窄,人工智能法已不能仅定位为普通的国内立法,而是将成为国际竞争中抢占规则优势与话语权的关键法律工具。
第一,人工智能综合性立法是有效应对他国“长臂管辖”、维护国家主权与发展利益的战略工具。当前我国人工智能产业发展的自主性仍存不足,在高端芯片、开源框架、算法模型等关键领域对外部技术依赖度较高,尚未完全掌握技术发展主导权。面对部分国家依托其技术优势与法律体系,试图对全球人工智能产业及技术发展施加单边影响乃至实施不当干预的态势,我国亟需通过立法明确该领域的管辖原则、数据主权边界及技术应用规范。人工智能综合性立法既能为我国人工智能企业的全球运营提供坚实法律支撑,抵御不合理的域外效力延伸,亦能在国际博弈中确立对等反制的法律依据,有效维护我国在人工智能这一关键战略领域的国家主权、安全与发展利益。
第二,人工智能作为具备全球流动性与渗透性的技术,其发展天然伴随国际竞争与规则制定权的激烈争夺。中国作为负责任的人工智能大国,需积极引领国际规则制定进程。在人工智能治理的国际话语权博弈中,综合性立法作为国内制度性权力的重要载体,可进一步提升中国法治在全球范围内的影响力与贡献力。欧盟通过《通用数据保护条例》所确立的“布鲁塞尔效应”表明,完备、系统且具有全局性的立法体系,能够推动区域规则上升为全球通行标准。进行人工智能综合性立法,是参与并引领当前人工智能国际规则话语权竞争的关键抓手。当前不少国家或地区均通过立法明确了其在人工智能伦理准则、安全标准、技术规范等领域的核心主张,力图将本国规则或区域共识转化为国际标准,进而在全球人工智能治理体系中占据优势地位,掌握未来技术发展方向与产业格局的话语权及主导权。作为新兴发展大国,被动参与全球治理既不符合中国的利益,也不利于维护广大发展中国家的利益。推进人工智能综合性立法,既是中国积极参与全球人工智能规则制定、提升国际影响力与竞争力的必然选择,也是塑造契合自身发展阶段与价值理念的国际治理新秩序的战略需要。
第三,人工智能综合性立法可推动国内外法律协同发展,促进跨国商业活动与监管合作。随着人工智能技术在各国广泛应用,国际社会对统一化或兼容性质规则的需求持续增强。“人工智能可以是造福人类的国际公共产品,应该广泛开展人工智能国际合作,为弥合全球智能鸿沟作出中国贡献,推动早日形成具有广泛共识的全球治理框架和标准规范。”进行人工智能综合性立法,能够系统地向国际社会传递我国在人工智能领域的基本立场、发展路径及具体举措。通过明确统一的合规要求、强化制度可执行性,该立法有助于吸引国际智力与资本资源,以具有确定性、可操作性的人工智能合规框架,引导全球人工智能企业在我国布局发展。人工智能综合性立法不仅是完善国内治理、提升治理能力的内在要求,更是我国在全球人工智能治理中展现责任担当、弥合治理赤字,为构建公正包容的国际新秩序贡献中国智慧与方案的关键支撑。
三、人工智能综合性立法模式的理论证成
当前,人工智能领域是否需制定专门立法及选择何种立法模式,已成为学术界与实务界广泛探讨的焦点议题,多数观点认同以法律手段规范人工智能发展的必要性与紧迫性,但在总体立法进路的选择上,仍存诸多分歧。
01总则性、碎片化、低位阶立法模式的适用困境
有学者认为,鉴于人工智能技术与产业发展仍存不确定性,当前制定专门法律的时机尚未成熟,因此提出以总则性立法、碎片化立法或低位阶立法作为过渡性方案或替代性方案。相较于综合性立法,上述立法路径虽各有其可行性与优势,但亦有其适用困境。
第一,总则性立法可明确立法方向,但缺乏落地实施的可操作性。总则性立法指制定一部框架性法律文件,其核心在于确立基本原则、划定核心权责、凝聚治理共识,为后续体系化立法奠定基础。一些学者提出,人工智能法应定位于基本法并充分发挥其高阶引领作用,具体宜采取“立总则、廓主线、留接口、适时灵活推进”的“总则式”进路;强调在当前阶段保持立法灵活性,先以“总则”“原则”“框架”等形式明确方向、凝聚共识,为人工智能发展提供必要制度保障,同时避免超前立法阻碍技术进步。此外,他们还认为,2012年全国人大常委会出台《关于加强网络信息保护的决定》,以“决定”形式对公民个人信息保护、网络信息内容管理等作出框架性规定,四年后网络安全法才正式出台,人工智能立法可借鉴这一“先决定、后立法”的总则性立法模式,以化解法律滞后性与技术创新性之间的冲突。但是,人工智能涉及数据安全、算法透明、伦理责任等问题,其内在矛盾与复杂性决定了立法需针对具体领域、具体技术特征予以细致调整,而总则性立法中抽象且宽泛的规范,难以及时回应技术发展的细微变化。并且,医疗人工智能、自动驾驶、智能司法等不同领域存在差异化风险谱系,总则性立法难以兼顾各场景的特殊规范需求。过于抽象的规定,往往会在司法实践中引发解释多义、适用不均,导致司法机关难以统一裁判尺度,还可能造成法律体系内各项规定的脱节或重叠,影响整体效能,最终损害法律权威。要实现法律的确定性需要针对具体风险制定明确、细致的规则,而总则性立法在面对复杂多变的人工智能问题时,易陷入空泛无力的局面。
第二,碎片化立法可应对特定风险,但难以满足人工智能治理的整体需求。碎片化立法既是一种立法模式,也是对立法现状的总结归纳,其主要指在缺乏统一顶层设计的情况下,不同部门或层级的立法主体,以规则全面覆盖的方式,依据各自的职责,针对其所负责的行业领域出现的具体问题各自进行立法。碎片化立法多体现为修订既有法律条款或制定专项规定,目标则聚焦于解决特定风险,而非构建普遍适用的基础性法律框架。
在相关讨论中,有观点认为,人工智能立法完全可通过场景式、碎片化立法方式解决,以保障法律整体稳定性并实现敏捷治理;通过小切口立法规制人工智能的特定风险,同时为其预留发展与探索空间,是我国当前乃至未来一段时间内的最优选择。另有观点提出,当前人工智能技术仍局限于具体领域,尚未形成通用人工智能,因此,不存在针对人工智能的一般化法律规制路径。亦有学者指出,我国应针对特定技术出台“定制型”规范,并以多部门联合制定的部门规章作为治理载体。但是,现实情况是,人工智能的法治需求无法通过碎片化立法满足,场景式立规模式无法直接有效适用于人工智能治理。一方面,场景式立规模式的立法成本过高。人工智能技术将逐步渗入社会生活各领域,或对当前绝大多数法律制度产生影响,若采取该模式,每部法律修改任一条款,均需与该法律涉及的所有利益群体、相关部门开展协商;且一旦启动立法程序,还将涉及一系列关联法律问题,这将导致立法协商成本过高。另一方面,该模式存在立法协调性缺失问题。各领域分散立法易造成法律重复,甚至产生规范冲突,削弱法律执行的权威性;且场景式立规难以凝聚人工智能治理共识,可能导致人工智能法仅存规则而缺失基本价值理念。
规则体系的碎片化必然导致监管的碎片化。缺乏顶层法治统摄的场景式立规,在后续人工智能监管制度执行过程中,会因央地之间、各部门之间缺少统一的执行原则与标准,且相关主体权责模糊交叉,导致“监管重叠”与“监管空白”现象并存。一个表面规则繁多的制度体系,实则会因庞杂与内在冲突,使人工智能的安全保障与发展促进均陷入规则不清、适用不明的制度性困境,削弱法治的权威性与可预期性。
第三,低位阶立法可满足部门监管需求,但难以构建统一、权威的治理框架。人工智能领域的低位阶立法,主要指监管部门在缺乏最高国家权力机关制定的“法律”予以指导的情况下,为应对特定问题而制定的更为具体的规则。有观点认为,当前人工智能治理领域的一系列部门规章、司法实践,以及未来法律的立改废释,足以应对人工智能引发的各类风险并满足监管需求,现有法律框架完全能够回应人工智能带来的挑战;若开展专门的人工智能立法,法律固有的稳定性将使其难以适配技术迅猛发展所带来的规制需求的快速变化。但是,人工智能领域的低位阶立法,往往缺乏完备的立法程序与充分的民主审议,既可能因部门利益考量而难以有效平衡安全与发展的双重需求,更可能成为个别部门固化权力乱作为或规避责任不作为的借口,进而出现“立法的部门化”与“地方保护主义法律化”的倾向。
部门立法或地方立法还会因制定主体权限受限,难以构建统一的权利义务框架。例如,美国白宫科技政策办公室针对美国各州人工智能立法泛滥的情况指出,各州人工智能立法给人工智能技术发展带来监管错配、结构性不兼容、监管清晰度缺失、规则过时及执行职能分割等五类障碍,这对美国人工智能技术创新与安全均产生不利影响。比较而言,部门规章会因部门职能调整、规划更替而频繁修订,地方性法规则因地方利益驱动呈现“各自为政”的特点,人工智能技术发展由此面临“规则朝令夕改”与“跨区域标准差异”的双重不确定性。以我国《生成式人工智能服务管理暂行办法》为例,该部门规章主要规范特定服务场景,且体现出对产业发展的支持态度,但其难以从数据使用的版权合理使用豁免、硬件研发的税收优惠等维度,提出促进产业发展的具体要求。再以当前各地政府对自动驾驶的立法尝试为例,涉及自动驾驶汽车运输服务的相关事项,地方虽可先行立法,但不得与法律相抵触;在道路交通安全法等法律未修订相关条款前,若缺乏针对此类问题的专门法律,即便地方政府开展“沙盒监管”创新,也属于“灰度”探索,甚至可能构成违法。此外,依据立法法第11条确立的法律保留原则,税收基本制度、民事基本制度的调整,只能由全国人大及其常委会制定相关法律。任何形式的低位阶立法,均因无法开展税收抵免、责任豁免等基本制度创新,难以为人工智能技术创新与产业发展提供急需的制度支撑。
02综合性立法模式的独特价值与优势
面对替代性立法路径的局限性,推进人工智能综合性立法成为必要选择。唯有在法律位阶层面构建人工智能法律制度,方能统筹协调并确立国家层面的人工智能治理体系,真正实现立法先导,发挥法治在人工智能发展治理领域固根本、稳预期、利长远的基础性作用。人工智能综合性立法可扮演人工智能领域“一般法”或“基础法”的角色,通过对现行规则的梳理、确认与衔接,明确不同规范间的适用关系,进而消除法律体系内部的矛盾。对于法律固有稳定性与人工智能治理所需敏捷性之间的张力问题,则需通过重塑立法机制、推进制度创新予以解决。法的安定性并不等同于制定法文本的绝对明确性,也不是“全有或全无”的僵化状态,而是在法律适用过程中,借助理性法律方法得以动态维系的状态。人工智能综合性立法的核心优势,并非追求规范内容的无所不包或万世不变,而在于通过高位阶、体系化且可动态更新的制度设计,为人工智能治理提供基础性法律框架,从而实现其他立法路径难以达成的治理目标。
第一,确立人工智能领域的规范要求,构建基础性权利义务框架。人工智能应用已广泛渗透社会经济领域,但关键制度的缺失导致技术发展预期不明与风险边界不清的问题并存。例如,在算法知识产权保护、人工智能生成内容的法律定性、自动化决策中的人格权益保障等方面,均存在立法空白。人工智能综合性立法可在国家法律层面,构建统合发展激励与风险防控的基础性权利义务框架。该举措既能以明确的产权与责任规范,激励人工智能核心要素安全有序流转与高效利用,又能为个人权益与公共安全划定不可逾越的保护“红线”,从制度源头上为产业健康创新与负责任发展提供坚实法治保障。
第二,整合现有分散规则,提升法律体系的内在协调性。人工智能综合性立法的重要功能之一在于开展体系化整合,强化法律规则体系的统一性与协调性;同时对现行规则进行梳理、确认与衔接,明确不同法律规范间的适用关系,消除法律体系内部的潜在矛盾。通过构建逻辑连贯、内在协调的统一法律框架,人工智能综合性立法有助于破解“九龙治水”的治理难题,降低社会主体的合规成本。
第三,提供兼具权威性、可行性的制度方案,通过协同部门间、央地间监管需求指引产业实践。在自身权限范围内,综合性立法可规定高风险领域的许可准入、监管试验机制的设立、责任的例外设定等低位阶立法难以独立规定的制度内容,同时通过明确国家层面统一的人工智能监管机制,确保法律原则与规则转化为统一的监管标准与行动,进而“把握人工智能发展轨迹”,以及解决“谁来控制它”的问题。
四、人工智能综合性立法的定位
人工智能综合性立法作为人工智能领域的“基础法”,其核心任务是实现促进发展、防控风险与规制权力之间的平衡,通过确立人工智能治理的基本原则、划定基础性权利义务边界、构建权威统一协同的监管体制框架,主动塑造人工智能技术发展的规范环境,为人工智能治理提供根本遵循与顶层指引。
01综合性立法的基本内涵
人工智能综合性立法的核心要义,在于实现规范内容的体系性、调整范围的全面性与价值目标的综合性,但其并不拘泥于“人工智能法”这一特定法律名称。欧盟、日本、韩国的立法实践表明,法律文本的名称可有所差异,规范侧重也可各有不同,但其内在逻辑均指向为人工智能的研发、应用与治理提供基础性、框架性规范体系;穿透当前规则庞杂、位阶与领域交叉的纷乱局面,为人工智能治理搭建清晰、统一、协调的法律主干,进而统合人工智能技术发展促进、风险防控、权利保障与权力制约等多重价值目标。
人工智能综合性立法的关键,在于通过高位阶法律对散见于各部门法中的人工智能相关规则进行系统性协调,统筹处理人工智能基本要素、公私权力主体关系、内外法律关系衔接、实体与程序同步规制、通用与特殊场景兼顾及安全与发展平衡等核心议题,对人工智能领域的法律问题开展体系化制度设计。人工智能综合性立法主要应由人工智能支持与促进、风险管理、主体责任、综合治理等核心部分构成。在促进发展层面,可建立系统性创新激励与要素保障体系。例如,通过创设版权领域的法定许可与合理使用规则,为基础模型训练提供法律确定性;通过明确财税优惠政策等方式,为产业发展注入实质动力。在风险管理层面,立法应清晰界定覆盖研发者、提供者、使用者的全链条责任,区分一般义务与针对基础模型等关键主体的增强义务,并辅之以模型开源责任减免等精细化规则。为确保上述制度有效运转,最终需确立统一领导、多元共治的综合治理机制。
人工智能综合性立法并非要成为无所不包的“人工智能法典”,亦不追求一揽子解决人工智能带来的所有问题。法律本身“不可能事无巨细地对每一项事务进行个性化的精确设计”,我国人工智能综合性立法的重点应放在确立核心原则、特别权利、关键义务与基本程序上,尤其应针对高风险领域开展重点规制。至于法律的最终名称,可依据其核心内容与时代需求灵活确定。人工智能综合性立法的功能定位,与纯粹的“监管法”或单一的“促进法”不同,其是多元目标的有机统一。需明确的是,“综合性”不等于“全面性”,综合性立法并非旨在穷尽所有细节、包罗万象,其核心在于对特定领域立法总需求的统筹设计与系统回应,从宏观层面识别并解决人工智能治理中的核心、紧迫问题。若一味追求全面,易导致立法过于细碎僵化并迅速滞后于技术前沿,也可能因内容过度庞杂而削弱实践中的可操作性与指引效能。综合性立法重在搭建制度基础,并为特定领域或未来发展预留与其他法律法规衔接的空间,同时保留通过配套措施细化规则的可能性。
综合性立法与其他立法模式并非“有或无”的对立关系。“综合性”是立法追求的目标,对现有行业立法的修订、部门与地方的先行先试,乃至总则式框架的搭建等,均可以作为对综合性立法的补充与细化。综合性立法不追求也无法实现一步到位,其必须在结合现有立法资源与实践能力、持续探索的基础上逐步发展成熟。因此,人工智能综合性立法应保持足够的弹性与开放性,应将其定位为人工智能领域的“一般法”,在处理其与网络安全法、个人信息保护法、著作权法等“特别法”的关系时,需适用“特别法优于一般法”的法律适用原则,以化解法律规范间的潜在冲突。
02综合性立法的功能统合
在当前人工智能立法相关讨论中,存在显著的功能定位窄化倾向,集中体现为将人工智能立法主要甚至仅视为“管理法”“风险控制法”或纯粹的技术性规制工具。有学者明确建议增设“人工智能监管法”;也有学者呼吁生成式人工智能立法应采取全面监管原则,通过结构化控制实现总体可控;还有学者据此指出,人工智能立法可能导致“一刀切”监管,产生“寒蝉效应”,影响人工智能正常发展。这些观点虽认可立法在防控技术风险中的基础作用,但一定程度上忽视了立法本应承载的促进创新、引领发展、保障多元权益等多重功能与综合价值。一部科学、良善且契合时代需求的人工智能法,其定位无需局限于单一监管功能,也不应冗杂泛化,而应统合“促进”“防控”“规制”等核心功能。
一是促进发展。我国已将发展人工智能上升为国家战略,人工智能的发展对国民经济与社会发展具有重大意义,其创新潜力需通过法律予以支持与引导。当前,全球治理格局正发生显著战略调适,这一转变在2025年2月举办的巴黎人工智能行动峰会上得到充分体现。该峰会主基调已从前两届的维护人工智能安全,转向推动人工智能创新与发展。受此影响,欧盟委员会在正式发布的2025年工作计划附件中,宣布撤回《人工智能责任指令》与《电子隐私条例》两项备受关注的立法提案,这一方面是因为相关协商陷入僵局,另一方面是因为相关立法设计已无法适应当前技术发展与法律需求。美国自特朗普政府再次执政后,不仅通过放松监管维持产业发展优势,还在联邦层面推动全美人工智能治理框架的协调;美国白宫管理和预算办公室已发布两份备忘录,旨在“消除美国在人工智能领域领导地位的障碍”、维护人工智能的“创新、治理和公众信任”,并为国家各机构在政府工作中使用及采购人工智能提供指导。意大利关于人工智能事务的规定及向政府的授权法第5条亦规定,国家及其他公共机关应促进高质量数据的可用性与可获取性,供开发或使用人工智能系统的企业、科学界及创新界利用。人工智能综合性立法可通过设定清晰的规则与激励机制,为产业创新提供稳定的合规预期与透明的监管要求,优化人工智能所需算力的配置,拓宽高质量训练数据的获取渠道,强化规则对发展的促进作用。同时,体系化的立法还有助于统合现有规范,并针对复杂技术形成差异化规制,进而实现发展与安全的动态平衡。
二是风险防控。促进发展并不意味着完全放松监管,要求相关主体履行人工智能安全防控义务,是保障技术有序创新的必要前提;同时,对人工智能实施安全防控,也能在一定程度上降低社会公众对该技术的不信任感,进而推动人工智能技术的普及与应用的商业化进程。技术创新史反复证明,一项应用的成功推广,在很大程度上取决于公众的信任度与接受度。当社会对新兴技术缺乏信心时,其发展进程将会受阻,且可能引发更强烈的监管诉求。通过综合性立法建立明确的安全机制与责任体系,既能以更清晰、更有力的法治方式回应社会关切、助力人工智能技术获取公众信任,也能综合考量人工智能在数据、算法、模型层面面临的规制问题。将风险控制作为功能定位之一的人工智能立法,本质上是对技术演进与社会治理需求的结构性回应,旨在在法治轨道上“确立必要的风险社会理念”。
三是权力规制。随着人工智能算法的发展,算法已成为私权力的新基础、公权力的新赋能手段,其功能强化将扩大公权力主体与私权力主体的权力边界、提升其执行能力,进而增加公民权益空间被侵蚀的风险。当前各界对于风险的关注多局限于技术本身,忽视了源于治理体系不完善、政府行为失范的制度性风险。这类制度性风险的危害更具系统性,既包括监管供给侧因权责不清或部门利益导致的过度监管与监管真空,也包括政务应用侧因缺乏规制机制而一哄而上“乱部署”。这种现象不仅会造成财政资金浪费,更可能影响政务服务的安全性。此种“智能形式主义”风险,恰恰凸显了人工智能立法强化权力规制的必要性与紧迫性。具有强制性的法律规范,将增强人工智能领域权力规制的刚性。以立法形式为人工智能高风险应用设置强制性规则,有助于明晰各类主体权责,实现对相关主体权力的规范与对相应风险的控制。
03综合性立法的范式创新
人工智能的风险具有显著的系统性与联动性特征,为解决个别问题而零散开展的“头痛医头、脚痛医脚”式立法,往往难以触及风险根源,且易忽视风险间的深层关联及潜在系统性崩溃点,进而无法构建全面有效的防控体系。零敲碎打的立法方式还会导致人工智能法治领域出现类似网络治理领域“九龙治水”的立法冲突、监管重叠或责任推诿局面。若简单套用我国早期互联网治理中“先发展、后规范”的经验,则易低估人工智能立法面临的独特挑战,错失构建科学治理体系的历史机遇。人工智能与互联网在社会影响和立法起点上均存在根本性差异,必须超越旧有治理思路,确立全局性的治理新范式。
第一,立法目标在于实现法律规则的“体系优化”。当前我国已有一系列与人工智能相关的法律规则,但这些规则分散于各类法律文本中,尚未进行归纳统合。以法律层面为例,除网络安全法、数据安全法、个人信息保护法等针对与人工智能密切关联的网络数据处理活动作出制度设计外,反垄断法、反不正当竞争法、电子签名法等已就算法相关问题作出规定,电子商务法亦对人工智能应用相关问题作出规范。在部门规章层面,《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》等,已针对人工智能领域的重点问题探索法治化应对路径。如果说互联网发展中的立法历程是从“0”到“1”的渐进兴起过程,当前人工智能立法则需在现有法律体系基础上,开展“从1到N”的系统性整合、衔接与升级,其核心任务是优化并完善国家层面整体的人工智能治理框架。
第二,立法思路由被动响应转向主动塑造。早期互联网治理多聚焦于具体的网络服务与应用场景,而以通用大模型为代表的人工智能技术,呈现“基础大模型+上层垂直应用”的典型生态结构。基础大模型的风险具有全局性、传导性与基础性特征,一旦基础大模型在数据、算法或价值观层面存在缺陷,风险将沿产业链向下游无数垂直应用扩散,进而引发系统性危机。互联网“先发展、后规范”的模式,本质是被动响应式治理;但人工智能对社会就业、伦理秩序、国家安全等领域的潜在冲击更具全局性。因此,人工智能立法应充分吸收互联网立法的经验教训,从被动跟进转向主动推进,从“先发展、后监管”转向“边发展、边监管”,坚持立法的动态性与灵敏性,构建更具前瞻性与主动性的制度设计。这一转变既能改变当前法律体系与人工智能技术安全与发展需求不匹配的状况,实现“改革要于法有据”,亦能达成“创新要于法有依”的目标。
04综合性立法的技术塑造
技术与法律的关系,既不能用简单的“技术决定论”解释,也不应主张“法律无能论”。法律并非技术的对立面。通过顶层设计与标准统一,可以为技术的规范化运作和良性发展提供关键制度支撑与环境保障,进而提升技术治理的可行性与有效性。通过制定法律塑造人工智能技术发展的规范框架,虽然可能面临挑战,但并非无法实现。找到化解这一挑战的可行路径,正是对否定、拒绝人工智能综合性立法之观点的最好反驳。
第一,法律体系并非只能被动滞后或固守既有模式,其本身具有塑造技术发展的建构能力、调适能力与创新动力。近年来,全球范围内涌现的“沙盒监管”等制度创新实践,可作为模块化治理工具加以组合与优化,以积极回应技术快速发展的需求,避免因过度包容或过于严苛导致监管失衡,防止人工智能治理陷入“叠床架屋”的监管困境。人工智能综合性立法能够成为对人工智能监管制度创新进行体系化整合与权威授权的关键载体,通过丰富规制工具箱、优化立法程序、引入实验性或适应性机制,其可在维护核心法治原则与必要稳定性的前提下,显著提升对技术动态演变的敏捷回应能力。同时,各类创新型监管制度作为具体的、可动态调整的规制工具,又能为人工智能综合性立法的文本规定提供灵活实现路径。二者共同构成兼具原则稳定性与内容适应性的治理体系,致力于在法律确定性与技术演进之间达成动态平衡。
第二,法律并非旨在完全复制或替代具体技术规范,其核心价值在于设定宏观价值导向、明确参与主体的基本权利义务框架、构建风险治理的原则性规范与底线要求,可为“具体的利益相关者进行发展与风险决策提供合理的沟通渠道与程序保障”。例如,通过确立强制性影响评估机制、规定关键领域的人类监督原则等,法律可有效引导技术发展的伦理航向、规范市场参与者的行为边界,而非必须预设所有可能的技术实现路径。将技术细节的复杂性视为立法不可逾越的根本性障碍,实质上可能低估了法律在宏观调控、价值引领及提供稳定预期方面的核心功能。将人工智能综合性立法过程的客观复杂性直接等同于制度创新的不可行性,不仅存在逻辑推演缺陷,更可能因固守传统立法思维,错失推动法律体系现代化、提升国家治理能力以适应智能时代需求的历史契机。
五人工智能综合性立法的实现路径
中国社会科学院法学研究所等团队于2023年起草及至2025年逐年更新的“人工智能示范法”,以及中国政法大学等高校的学者在2024年撰写的“人工智能法(学者建议稿)”,是当前体例相对完整、内容较为丰富的人工智能专门法学者建议文本,对开展综合性立法具有一定参考价值。但是,综合性立法的内容应更具全面性,需进一步实现促进、防控、规制的三维融合。此外,综合性立法的落地,不仅意味着完成单部法律内部的规则设计,更依赖于适配人工智能技术与产业快速迭代的立法技术准备以及实施机制的构建,且需搭建覆盖立法“前、中、后”全周期的系统性实现方案。结合国内外制度经验与研究成果,人工智能综合性立法的推进应从立法准备、立法内容设计、立法后调适三方面体系化地展开。
01
人工智能综合性立法的前期准备
立法是一项复杂的系统工程,能否取得成功不仅取决于法律文本设计,更依赖于对前期立法需求的科学分析和前瞻性的机构改革设计。
第一,立法准备的首要任务是基于立法的必要性分析形成具体的立法议程。针对当前法律体系面对人工智能挑战时所暴露出的结构性缺陷,综合性立法应尊重立法规律,克服主观随意性和盲目性,系统归纳和梳理实际的立法需求,实现科学立法。
要实现上述目标,首先需要识别人工智能领域的制度空白。人工智能的发展催生了诸多全新的法律关系,而现有法律体系尚未对此提供明确规范。为此,一方面,应启动系统性的比较法分析,通过对其他法域人工智能治理相关立法的深入研究,借鉴问题清单与解决方案,检视我国现行法律体系可能存在的共性短板。另一方面,应开展广泛的国内实证调研,深入产业、司法与执法监督一线,通过分析企业合规痛点、梳理司法裁判分歧、研判行政监管障碍,从实践中精准定位法律供给不足或相互冲突的领域。在明确制度空白后,还需确立一套标准化且具有适应性的制度构建程序。一是健全多方利益相关者磋商机制,针对具体制度需求,召集产业界、学术界、技术专家、社会公众与监管部门进行充分论证,形成备选的制度设计库。二是实施立法影响评估程序,对备选方案的经济成本、社会效应、权利保障、创新激励进行前瞻性的量化与质化分析。三是探索建立规则试验与反馈通道,即在综合性立法草案形成后,在立法法允许的框架内,选择适合的场景或区域,对创新性制度方案进行小范围实证测试,以确保后续正式出台的制度具有可行性和可操作性。
其次,立法还需考虑如何应对和协调与传统法律规则体系之间的冲突。传统法律体系下针对传统技术与商业模式设计的法律框架,其内在的法理逻辑和体制机制已不适应人工智能技术的颠覆性特征。人工智能技术的发展速度远超传统技术领域,这与传统监管的相对静态性之间存在显著冲突,导致技术发展和法律调整之间存在显著的时间差。应运而生的敏捷治理理念,强调通过快速迭代、持续反馈和适应性调整来应对复杂和不确定的环境。人工智能综合性立法应及时将小规模试点中被证明行之有效且较为成熟的变通规定,系统性地提炼、升华为正式条款,实现从地方经验到国家立法的转化。在规则体系的整体协调上,必须确立“新法优先适用”的宏观原则,设计法律适用条款,规定凡涉及人工智能研发、应用、治理的事项,若同既有法律规定不一致的,应优先适用本法。
第二,前瞻性布局机构改革与资源配置,为法律实施奠定执行基础。法律的生命力在于实施。综合性立法因具有体系化的特征,对执行机构的专业能力与资源配置具有更高要求。因此,在立法准备阶段就必须着手进行体制与资源的预备,以避免未来出现“法律空转”或执行乏力的困局。
构建执行基础的首要环节是机构保障,即应以设立人工智能主管机关为目标启动机构改革。组建人工智能主管机关,既是从根本上破解人工智能领域监管重叠和监管空白并存、部门立法“竞赛”等结构性难题的客观选择,更是国家治理为适应人工智能转型进行组织重塑的切入点和突破口。在启动立法的同时,应建立健全国家人工智能发展与安全协调机制,加强国家层面设立人工智能主管机关的前期研究与方案设计,系统性地梳理当前分散在发改、网信、工信、科技等多个部门的相关监管职能,避免有的部门管执法、有的部门管发展造成的监管预期难以统一的问题。此外,还需要在机构改革中不断推动人工智能主管机关在运行方式和监管机制上进行优化创新,以充分体现人工智能时代的特点。
仅有机构框架还不足以保障执行效能,还需完善招考机制,吸引和招募人工智能专业监管人才。优秀的人工智能研发人才是稀缺资源,优秀的人工智能监管人才更是如此。在此方面,欧盟人工智能办公室的组建困境提供了深刻的教训。欧盟人工智能办公室作为欧盟人工智能法的核心执行机构,其权责超百项,却因僵化的薪资体系相较于私营部门动辄七位数的薪酬毫无竞争力;繁琐的招聘流程长达数月,且受制于欧盟公民身份及27个成员国代表性平衡的政治要求,导致关键领导岗位长期空缺,专业人才池狭窄。为避免类似困局,我国在立法之初即应提前规划监管人才招募机制,吸取英国人工智能安全研究所在全球范围内招募顶尖人工智能人才的经验,通过有市场竞争力的薪酬和灵活高效的录用机制,储备建立覆盖法律、技术、伦理、国际治理等人工智能监管各方向的专业团队,确保监管能力与技术发展相匹配,在履行国内监管职责的同时也可有效参与国际治理。
02
人工智能综合性立法的矩阵式制度体系
综合性立法并非简单的规则堆砌,而是具备结构化特征与系统性逻辑的治理工程。在立法内容构建上,应以人工智能的全要素覆盖、分主体规制、全周期监管为矩阵框架,并以国家人工智能主管机关为枢纽进行统筹协调,进而推动立法核心功能的有效彰显。这一制度设计,正是综合性立法相较于前述“人工智能示范法”与“人工智能法(学者建议稿)”,在制度内容上更具系统性、在制度衔接上更具严密性的关键所在。
第一,人工智能综合性立法应构建覆盖人工智能数据、算力、模型、算法等全要素的发展激励机制,为市场主体提供可预期的制度红利与低成本的合规指引。
首先,针对模型训练环节,立法应着力破除数据与版权的合规瓶颈,为解决模型训练所需数据授权难、成本高等问题,创设专用于模型训练的合理使用规则、法定许可制度,清晰划定数据抓取、清洗、标注的合法边界,平衡技术创新需求与既有权利人利益,以此降低研发主体的法律风险,释放数据要素潜能。
其次,针对算力基础设施,应提供强有力的政策与财税支持。算力正在加速成为驱动社会生产力变革的关键力量。综合性立法须将智能算力中心建设纳入国家统一规划,简化项目审批流程,引导社会资本参与。财税支持方面,应设立专项财政补贴,重点用于支持绿色算力基础设施建设;同时,对企业采购高端芯片、服务器等关键设备的行为,以及为保障系统安全可控而进行的安全防护投入,给予明确的税收抵免或加速折旧政策。对符合条件的重大安全技术研发与合规审计投入,可设立专项税收豁免或额外加计扣除。此外,综合性立法也可针对采用可再生能源、达到先进电能利用效率标准的绿色数据中心设计专门的激励举措,确保算力发展与国家“双碳”目标协同推进。
最后,针对开源模型与关键算法研发,综合性立法需提供精准的创新激励机制。开源生态是技术扩散与产业繁荣的关键载体。立法应前瞻性建立开源贡献者的有限责任豁免制度,对于非商业、善意的开源活动,引导国家科技基金、产业基金定向支持开源算法、基础算法研究与关键“卡脖子”技术攻关,展现我国立法的开放性特征。同时,立法应积极探索算法模型参数作为新型知识产权或商业秘密的法律地位,保障创新成果获得应有的经济回报,激活技术要素市场。
第二,为打破传统的单一责任主体框架,综合性立法需结合技术支配力、决策控制权、收益获取度,在横向上确立将法律义务精确分配给人工智能生态内核心主体的顶层设计。
首先,就整体框架而言,法律义务的分配需贯穿研发者、提供者与使用者三大主体,并以技术支配力、决策控制权、收益获取度为核心标准实现精准划分。其一,研发者因在算法架构设计与模型训练过程中拥有绝对技术支配力及核心决策控制权,需从技术源头承担设计安全义务,具体体现为数据供应链尽职调查等过程性义务,确保技术研发阶段即嵌入安全与伦理考量。其二,提供者作为连接技术研发与市场应用的枢纽,既掌握服务部署、应用及交互的决策控制权,又是商业化收益的主要获取方,因此需履行持续监控的动态义务,同时应对其可能存在的复合角色设计差异化的义务分配规则。其三,终端用户的决策控制权仅局限于具体使用行为,其责任亦相应限定为有限反馈义务;而专业用户因将人工智能技术融入商业活动以获取更高收益,且对特定应用场景具备更强控制力,应配置额外义务。需特别说明的是,不同主体的透明度义务存在显著差异:研发者的透明度义务侧重技术层面,该义务要求以完整技术文档记录算法逻辑与决策机制;提供者的透明度义务则侧重用户层面,提供者需以清晰易懂的方式向用户解释模型生成结果及主要影响因素。
其次,人工智能综合性立法应重视对特殊类型角色的责任义务进行差异化配置。其一,对具备强大基础设施影响力的“守门人”主体,需设定额外义务与责任。例如,大型算力服务商不得再以“技术中立”为免责事由,而应承担对异常算力使用的监测与报告义务。其二,对政府部门在公共管理与服务中应用人工智能的行为,需施加更严格的义务约束。鉴于该类应用直接关涉公共利益与公民基本权利,其不仅需遵循商业领域人工智能应用的一般性安全义务,还须承担更高标准的程序正当、公开透明责任,构建全周期管理体系;同时,应明确人工智能的辅助型定位以落实行政主体的最终决策责任,并有效防范模型幻觉等技术风险与“数字形式主义”等管理问题。其三,开源模型研发者与提供者的直接商业收益通常有限,但其研发的开源模型可产生显著的社会公共价值。为给开源创新保留必要空间,人工智能综合性立法应设定有别于商业主体且与开源贡献性质相匹配的注意义务标准。对于主动采用技术手段开展内容审核、建立风险报告机制的开源平台,立法可依托高位阶法律的制度优势,设置相应的“避风港”规则或责任减免条款,以激励开源生态在安全治理与自由创新之间实现平衡。
再次,人工智能综合性立法在纵向上需进一步区分系统设计、开发、训练、部署、运行、迭代、退役七大环节的归责原则,将有针对性的规制与促进机制精细化地嵌入各环节,在有效切断风险传导链条的同时,充分激活市场主体的创新潜能。
从前端环节来看,设计开发阶段的风险相对可控,立法规制的重点应放在风险识别与安全设计的前置性要求上,此阶段适用过错推定责任。在举证责任倒置的规则下,研发者可通过提交完整的设计文档与合规记录,证明其已遵循行业最佳实践,进而免于承担责任。这一归责原则的激励价值在于,为履行审慎义务的研发者提供“避风港”保障,鼓励其在合规框架内开展技术创新探索。
在训练与部署阶段,由于有多方主体介入,责任配置更加复杂,规制重点需转向数据质量控制、算法偏见防范、应用场景适配性验证及用户知情同意保障,归责原则应呈现严格责任与过错责任并存的特征。具体而言,数据提供者需对数据质量缺陷承担严格责任,模型训练方需对算法选择不当承担过错责任,人工智能部署方则需对场景适配性验证不充分承担过错推定责任,通过这一差异化配置,可将责任精准施加于各环节中具备最强风险控制能力的主体。
当系统进入直接面向公众的运行阶段,风险系数显著上升,需通过对系统持续监控、维护与循环迭代强化风险防控,归责原则也应随之转向以严格责任为主。在此阶段,无论人工智能提供者是否存在过错,只要系统造成损害,就需承担赔偿责任。确立严格责任既符合“风险与收益对称”的法理原则,也能回应人工智能系统“黑箱”特性给受害者带来的举证困境。同时,为平衡产业发展与权益保障,可通过设定赔偿上限、建立产业补偿基金等机制,激励提供者投入更多资源开展风险防控。即便进入系统终止或应用下架的退役阶段,潜在风险仍未完全消除。立法需明确研发者对模型的永久性监护责任,要求其履行模型销毁、数据清除与技术能力遏制等义务,以此防范代码泄露、模型滥用等遗留风险。
最后,人工智能综合性立法需设立国家人工智能主管机关,以构建敏捷化管理体制。立法的关键任务之一,是通过法律位阶确立国家人工智能主管机关的枢纽驱动地位,既要赋予其统一负责人工智能发展促进与安全治理的核心职责,授予其制定配套立法、技术标准的权限,也要明确其在许可准入、创新统筹、安全测试等领域的功能定位。
在具体监管机制设计上,国家人工智能主管机关需重点负责实施负面清单制度。对人工智能实行区分式治理,是综合性立法需解决的基础且关键问题,但单一的风险分级模式难以破解风险内涵模糊、边界不清的难题。例如,欧盟人工智能法的风险分级管控体系存在“叠床架屋”式的烦琐划分;我国数据安全法实施过程中,数据分级认定的困难导致实践中常出现“就高不就低”的倾向,不必要地抬高了数据合规成本。因此,人工智能综合性立法更适合采用兼具明确性与灵活性的负面清单管理制度:将少数风险明确、社会共识度高的人工智能研发应用列入清单,对其施加许可或禁止要求;对清单之外的人工智能活动,则不进行事前监管。立法中可基于现有认知与风险预判,在附件的负面清单中初步列明需限制或禁止的应用场景、技术方向,为技术研发与市场投资提供清晰合规指引。此外,国家人工智能主管机关除负责审查市场主体是否可开展清单内活动外,还应被授权对负面清单进行动态调整,从而在不修改法律的前提下,灵活适配技术发展与安全治理能力演进带来的风险变化。
为提升对技术快速迭代的适应性,立法还需从法律层面明确,由国家人工智能主管机关统筹建立并运行人工智能监管沙盒机制。在该制度框架下,企业可在真实市场环境中测试创新产品或服务,监管部门则能根据测试情况及时调整监管策略。具体而言,国家人工智能主管机关可通过这一机制测试创新成效、评估安全风险,进而决定被测试项目是否可扩大推广范围,并研判现有监管规则是否需优化、安全要求是否需完善。
03
人工智能综合性立法出台后的优化机制
人工智能技术尤其是前沿领域的通用大模型,展现出指数级迭代、非线性演进及“涌现”性能的鲜明特征,对传统立法追求静态稳定与全面覆盖的模式构成了根本性挑战。通过内嵌动态更新、持续适配机制和暂停机制,在人工智能综合性立法出台后,仍可以主动维系其有效性和适应性,及时满足发展的新需求、应对风险的新挑战。
第一,建立综合性立法出台后的适配性评估与动态优化循环机制。一方面,建立人工智能法律和政策适配性评估机制,对拟出台或已实施的人工智能法律、政策、决策、制度,机制化开展与人工智能发展和安全形势的适配性评估。经评估认为可能显著影响人工智能发展或安全的,应当及时调整、废止或修改完善。另一方面,明确定期开展“立法后评估制度”,通过定期分析人工智能综合性立法中制度设计实施的效果、后果,评估其本身是否存在问题,进而及时修订完善。例如,日本人工智能技术研究开发及应用促进法在附则的第2条中明确指出,政府须考虑人工智能相关技术研究开发及应用推进措施的国际动态及其他社会经济形势变化,检讨该法施行情况,必要时须依据检讨结果采取相应措施。
第二,需为人工智能应用垂直领域的立法活动预留相应立法接口。人工智能综合性立法应构建模块化、可扩展的规范架构,该法制定后,原则上不必再制定其他人工智能专门法律,而是通过综合性立法中的授权立法条款,明确授权有关机关,在遵循人工智能综合性立法基本原则和程序要求的前提下,制定更具操作性的行政法规或部门规章等配套立法。针对技术性强、迭代迅速的垂直领域,可鼓励行业组织在综合性立法框架下先行制定相关的技术标准、安全指南或最佳实践。此外,应建立对人工智能配套规则、标准设计的评估与吸纳机制,择其优者通过修法程序将其核心内容融入正式的法律规范之中,以实现国家治理、行业监管、技术自律之间的有效协同。
第三,人工智能综合性立法应充分激活地方立法的试验功能,拓宽制度创新来源。这一路径可参照浦东新区“先行先试”的法治经验,在人工智能发展条件成熟的地区设立人工智能特区,并通过立法授权构建差异化的制度空间。具体而言,可授予人工智能特区所在市制定类似“浦东新区法规”的专项立法权限,允许其结合特区内人工智能研发、使用的实践需求,在遵循宪法规定及法律、行政法规基本原则的前提下,就相关活动对法律、行政法规、部门规章等作出变通规定;对于暂无法律法规明确规范的领域,支持其先行制定管理措施并按程序报备实施。通过这一模式,人工智能特区可成为人工智能立法的“制度试验田”。在划定区域内以更大立法权限开展新型人工智能研发与应用的规则试验,既能规避全国性立法面临的制度博弈成本,又能通过区域限定防控全国范围的系统性风险,更能在实践中积累制度经验、提炼一般性规则,为人工智能综合性立法的修改完善提供实证支撑。
需明确的是,人工智能立法特区与监管沙盒存在本质分野,二者不可混淆。前者的核心是授予特定区域配套立法或变通现行法律的权限,本质是一种制度供给层面的试验,试验对象直指规则本身;后者则属于监管工具的创新,其核心是为技术或产品提供可控测试环境,试验对象是人工智能技术或产品。此外,监管沙盒的构建更为灵活,甚至可在综合性立法出台前,依据全国人大常委会作出的授权决定先行建立,其功能聚焦于行政监管的精准适配而非制度规则的源头创制。
第四,人工智能综合性立法应确立人工智能技术研发的强制性暂停机制。从风险防控逻辑来看,部分顶尖人工智能科学家与从业者已提出警示:未来可能出现超级智能体,若其目标与人类意图存在偏差,或对人类构成生存性威胁。因此,综合性立法需为人工智能技术发展中的此类重大风险设计“安全阀”机制,具体而言,可授权国务院在特定条件下,对存在高风险的特定人工智能技术采取开发或部署的暂停措施。为避免机制滥用,人工智能强制性暂停程序的启动必须有具体证据作为支撑,并满足严格的触发条件。同时,任何暂停措施均需设定明确的有效期:有效期届满后,若经评估确认相关风险已处于可控范围,应当及时取消暂停措施,以平衡风险防控与技术创新。
六结 语
人工智能领域的法治建设需承担双重使命,既要科学构建风险规制与权益保障的制度体系,又要为技术研发与产业创新应用提供稳定的法律预期及有力的制度支撑。当前学界与实务界存在的不同观点,如“人工智能立法应缓行”“人工智能立法宜采用总则式或‘小快灵’立法模式”等,本质上反映了对法律能否适配技术快速演进、是否会因过度监管抑制创新等问题的思考。实际上,借助科学的立法技术,法律亦可具备全面性、灵活性与开放性的制度特质。正是由于人工智能立法具有复杂性与实施难度,才更加凸显了加强人工智能立法体系化研究的必要性。
人工智能技术的广泛渗透及其固有的不确定性,既是对人类社会治理智慧与前瞻能力的严峻考验,也构成了驱动法律体系发生深刻范式革新的根本动力。人工智能综合性立法的理论构建与制度路径选择,本质上是对日新月异的技术演进与传统法律调控手段之间动态关系的深刻反思与系统性重塑,其科学性、合理性与实效性,高度依赖于对立法多重功能定位的精准把握、对既有规制经验的审慎扬弃与超越性创新、对立法可行性挑战与适应性要求的清醒认知及积极回应。通过构建兼具原则稳定性与技术包容性的法律框架,同时创新立法机制以持续适配技术的非线性发展与社会需求的动态变迁,人工智能综合性立法将在法治轨道上,更有效地推动人工智能领域实现高质量发展与高水平安全的协同统一。