摘要:面对人工智能立法的时代需求,推进我国人工智能立法已成共识,但立法模式的选择仍面临着“统分之争”与“急缓之辩”的激烈论争。担忧统一立法可能导致规制僵化、法律滞后、创新抑制、规则场景错配的疑虑,是对统一立法任务定位与制度品格的误解。而统一立法所具备的体系协调、价值平衡、规则奠基与实践引导等多重制度功能亦被忽视。制定一部统一且通用的人工智能法,发挥其在人工智能法律体系中的基础性、框架性和统领性地位,避免碎片化的分散立法造成规则冲突,对实现人工智能的良法善治具有重要意义。我国应继续稳步推动人工智能统一立法进程,坚持基础性立法定位,平衡发展导向与底线思维,确保制度规则的敏捷与弹性,发挥立法过程的治理效果,探索人工智能法治的中国方案。
关键词:人工智能;立法模式;统一立法;立法过程
人工智能技术迅猛发展带来的社会变革与风险挑战,激起了法律人探索制度因应与规制方案的雄心。各国陆续针对自动化决策、深度伪造、自动驾驶等人工智能应用制定相关规则,掀起了人工智能立法的浪潮。欧盟于2021年提出的《人工智能法》开启了人工智能统一立法的序幕。在中国,国务院办公厅2023年和2024年的立法工作计划中两度提出预备将“人工智能法草案”提请全国人大常委会审议,学术界也积极开展研究论证,形成了《人工智能示范法》和《人工智能法(学者建议稿)》文本,统一制定专门的人工智能法似乎已箭在弦上。然而,随着人工智能成为大国竞争的关键场域,产业界对立法束缚人工智能发展的担忧日益增长,国务院2025年度立法工作计划中“制定人工智能法草案”的表述被“推进人工智能健康发展立法工作”取代,这一变化被解读为中国人工智能法立法进程的终止,也有学者旗帜鲜明地提出“人工智能统一立法宜缓行”。人工智能统一立法的遇冷,反映了立法机关在面对人工智能这一新兴复杂领域时,对立法时机、立法模式、立法重点等核心问题的审慎权衡、政策考量的动态演进,以及在凝聚社会共识过程中的反复斟酌。在此背景下,中国的人工智能立法究竟是应当“改弦更张”,放弃追求统一立法,转而采取更为灵活的分散式、场景化规制路径,还是应当“知难而进”,在借鉴国际经验和总结国内实践的基础上,继续探索和推进统一立法?这一选择不仅是回应理论界焦点争议的现实需求,更是构建人工智能法治中国方案的时代命题。
一、人工智能统一立法的分歧与实践
通过人工智能立法防范风险和促进发展已成共识,然而是否应当制定一部人工智能统一立法,以及何时制定统一立法,仍然存在较大的分歧,各国立法实践对此也持观望态度。所谓人工智能统一立法,是指通过制定一部基础性、综合性、体系化的“人工智能法”统筹人工智能治理的原则、目标和规则的立法模式。此模式有助于构建系统全面的人工智能法律框架,但也面临能否适应人工智能的复杂场景与快速迭代、能否平衡创新发展与风险防范的质疑。
(一)人工智能立法的“统分之争”
是否需要且能够以一部基础性法律统筹人工智能的法律治理,是人工智能统一立法争论的关键焦点,也是立法模式选择的根本问题。当前理论界围绕该问题,形成了人工智能立法模式的“统分之争”,即采取综合性的统一立法,还是针对不同领域、不同场景进行分散化或场景化立法。
主张统一立法的观点认可基础性法律能够对人工智能进行统筹规制,认为应当制定一部人工智能法以确保法律制度的体系化。持此主张者认为,人工智能技术具有跨领域、系统性的影响,其所引发的伦理、法律和社会问题往往超越了单一部门法的调整范围。一部统一的人工智能法能够在宏观层面确立人工智能治理的基本原则、核心概念、价值导向和制度框架,有助于协调各部门法之间的潜在冲突,保障法律体系的内在统一性与完整性,提升整体治理效能。我国当前人工智能立法呈现出非体系化特征,相关规定散见于不同层级和效力的法律文件中,存在主体交叉、位阶较低、碎片化等问题。因此,制定一部具有总则意义的人工智能法,对于解决我国人工智能立法碎片式、迭代式等非体系化问题,串联与调适现有法律规范,具有现实的必要性。一部兼具框架性与包容性的人工智能法,是人工智能立法体系逻辑一致、价值融贯和整体关联的基本保障。有学者提出以“两步走”策略编纂人工智能法典,即先制定人工智能法总则,抽象提炼目标价值、基本原则、调整对象、治理理念等基本性问题,再就支持促进、安全监管、权利义务、法律责任等编章,从而形成一部完整的人工智能法典。
主张分散立法的观点则否认人工智能统一立法的必要性与可行性,倾向于在现有法律体系内,通过修订、解释或针对特定领域、特定问题制定专门性的法规或规章来应对人工智能的挑战。持此主张者认为,人工智能技术正处于高速发展和持续演进之中,其应用场景日益多样化和复杂化。一部统一的、试图包罗万象的法律,可能难以适应这种高度的不确定性和复杂性而面临失效风险。有学者认为人工智能立法通常横跨不同法律部门,需要根据不同问题分别设计相应的法律制度和实施机制,立法应坚持灵活的“小步快跑”,避免一刀切立法造成负面影响。也有学者主张从问题意识出发的适应性立法和反馈性修法的动态立法模式,以“无必要不立法”原则下传统部门法的立改废释实现规制目标。 还有学者认为人工智能立法应坚持软法先行,采用更为灵活的技术标准或伦理指南形成更加柔性的规制模式,在当前阶段可能更为适宜。
“统分之争”的背后,实际上反映了对立法效率、适应性、体系性、创新激励与风险规制等多重价值目标的不同权衡,以及对立法在社会治理中角色的不同理解。统一立法追求体系周延与逻辑自洽,力图为人工智能发展提供一个稳定和可预期的宏观法治框架。而分散立法则更强调对具体问题的快速响应和对技术创新的包容审慎。如何在两者之间寻求平衡,是中国人工智能立法面临的关键抉择。而事实上,持统一立法立场者也并非未考虑人工智能立法中的多元目标冲突与体系复杂性。有学者主张突破风险管理的单一路径,融合人工智能活动的科学性和工具性,按照科技法与应用法的复合属性定位开展统一立法。也有学者主张统分结合式的立法模式,即由全国人大常委会以综合性法律为人工智能技术发展的基本原则、一般规则、管理体制、运行机制、促进发展的综合措施、法律责任等进行统一立法,同时根据人工智能不同应用场景和生命周期进行分散立法。可见,统一立法与分散立法并非截然对立,而是承担着不同而互补的功能。统一立法在于以基本原则和基础性制度为人工智能分别立法提供统一思想、制度框架和普遍约束,而分散立法则作为基础性法律的延伸和细化,能够满足特定场景和应用的特殊需求。
(二)统一立法的“急缓之辩”
即便在认同统一立法必要性的学者中,对于立法时机亦存在“急缓之辩”的分歧。立法时机的“急缓之辩”,即是否应立即着手制定统一的人工智能法,还是应采取更为审慎和渐进的策略,待技术发展和风险认知更为成熟后再行立法。
主张抓紧制定统一立法的观点主要基于两方面理由。一是回应人工智能迅速发展的现实需求。在人工智能技术快速迭代的背景下,需要通过立法将促进产业发展和风险防范纳入法治化轨道,从而避免人工智能行业的无序发展。龙卫球认为亟须以人工智能科技作为特殊规范对象制定专门的人工智能法以适应日益迫切的法律需求。宋华琳亦认为亟待以统一立法促进人工智能产业发展,防范人工智能安全风险,并厘定人工智能治理的基本原则与基本要求,明确不同主体的权利义务。二是抢占人工智能全球治理话语权的雄心。在世界主要经济体陆续出台人工智能法以抢占人工智能治理制高点的形势下,中国作为人工智能发展大国,亟需通过国内立法明确自身立场,积极参与并影响全球人工智能治理规则的构建,争取国际话语权。在某种意义上,贡献人工智能法治的中国智慧与中国方案,参与和引领人工智能全球治理,成为我国人工智能统一立法的重要目标。
主张暂不急于统一立法观点的学者则是在认同最终需要人工智能统一立法的基础上,主张先以分散式、场景化立法回应人工智能发展的法治需求,待时机成熟时制定综合性人工智能法。持此观点者主要基于以下三个理由:一是当前人工智能技术发展与应用尚存在诸多不确定性,贸然统一立法缺乏认知基础。例如,彭诚信认为人工智能技术尚处在不断进步的阶段,且人们对人工智能的认识仍然有限,尚无条件进行统一立法,权宜之计是采用分别立法的路径,先就突出问题进行立法规制,但仍要为未来人工智能统一立法作准备。二是人工智能风险的表征与机理存在多样性,目前尚无统一风险规制的规则基础。例如,丁晓东认为如果对人工智能进行统一化监管,法律将变得高度不确定且难以操作,因而当前宜坚持场景化规制进路,待时机成熟时再制定综合性人工智能法。三是人工智能统一立法的时机应以立法共识基础为前提,综合性人工智能立法宜择机出台。
“急缓之辩”的核心争议在于当前人工智能统一立法的时机是否成熟。所谓立法的成熟时机,既要求立法不脱离社会需要而滞后,也不脱离社会实际而超前。从回应人工智能发展的法治需求,加快构建人工智能规制的治理框架的立场出发,推动人工智能立法确属时代所趋。然而,从务实的角度看,人工智能统一立法需要考虑社会共识、治理方案、立法技术等诸多因素。不同于一般意义上的社会规范,法律有着稳定性、明确性等特有品格。制定一部综合性的人工智能法必须首先明确其规范对象和规范策略,这建立在人工智能技术及其应用已相对清晰,且平衡安全与发展的规制方案基本明确的基础之上。因此,立法进程的推动并非仅系于立法者或研究者的主观意愿,也必须考虑客观的认知基础、规则基础以及共识基础。在这个层面上,“以更加审慎和渐进的态度和方法推动统一立法进程”似乎是更为稳妥的方案。然而,是等待立法基础齐备后再推动统一立法,还是在统一立法过程中积累基础,仍是有待进一步讨论的话题。
(三)人工智能立法模式的比较考察
人工智能技术迅猛发展的产业需求和风险隐忧激发了全球范围的规制冲动。欧盟延续其在数据治理和数字市场领域的立法传统,试图通过制定严格且统一的人工智能法将“布鲁塞尔效应”拓展至人工智能治理领域。美国则在重商主义传统的驱使下,倾向于有条件地放松人工智能监管并形成碎片化的立法体系。欧美在人工智能立法模式层面的迥异选择也影响了其他国家的人工智能立法。
作为世界首部人工智能专门立法,欧盟《人工智能法》被视为开人工智能统一立法之先河,系统地构建了一套全面的、基于风险的监管模式,意在构建统一的内部市场规则、保障基本权利并促进人工智能的创新与可信。该法提出基于风险的人工智能监管框架,将人工智能系统类型划为不可接受风险、高风险、有限风险和最小风险四类并科以对应等级的合规义务。该法整合原有分散的规范与监管资源,建立协调一致的监管机制,以减少成员国法律碎片化问题。此外,为支持人工智能创新,该法还设专章规定了人工智能监管沙盒机制以及小微企业合规义务的减免。
美国的联邦体制与两党政治导致了联邦和各州立法机关在应对科技行业游说时的“割裂”,进而形成了人工智能碎片化立法的分散模式。在联邦层面,美国并未尝试制定统一的人工智能法,而是针对特定场景下的深度伪造、算法歧视等不当应用制定相应的专门规则。例如限制人工智能生成内容的《删除法案》,以及一些议员提出的尚未正式成为联邦法律的提案,如《算法问责法案》《过滤气泡透明度法案》等。拜登政府曾尝试以《确保美国AI安全、可靠、可信的行政命令》对人工智能进行规制,后被特朗普政府撤销。这反映了联邦层面在硅谷强大的游说力量下对科技行业“轻触式”监管思路的延续。反观州法层面,美国各州积极扩张人工智能监管立法权,纷纷出台相应法律。例如,犹他州《人工智能政策法案》和科罗拉多州《人工智能消费者保护法》试图制定相对全面的人工智能法律。加利福尼亚州也通过了一系列法案,包括要求医疗机构披露使用生成式人工智能向患者提供信息的情况,以及要求人工智能开发者公开模型训练数据来源等。据美国全国州议会联合会(NCSL)统计,仅2024年就至少有45个州提出了人工智能相关法案。这种分散式、碎片化的立法模式,凸显了美国人工智能治理中“央地冲突”,而碎片化的多元规制也推高了企业合规成本。特朗普政府曾尝试在《大而美法案》中嵌入一项阻止各州对人工智能进行任何形式监管的十年禁令,但参议院却以99:1的压倒性优势通过了在法案中删除该禁令的决议。据此可判断在相当时期内,美国难以通过联邦统一立法的方式整合各州的分散立法。
在欧美立法模式选择的影响下,各国人工智能立法也可被大致分为分散式和统一式两种模式,其具体实践也因本国国情而各具特点。或受美国影响,英国立法机关经广泛讨论最终得出目前并不急于推进人工智能统一立法的结论。印度与英国秉持大致相同的思路,认为应更多发挥领域法律的作用。在统一立法的阵营一侧,韩国于2025年出台《关于发展人工智能及建立信任基础等基本法案》,在鼓励人工智能技术的研发和应用的同时也强调要遵守伦理准则,保护个人隐私和数据安全。日本也制定了《人工智能相关技术研究开发及应用推进法》,规定了日本政府有责任全面且系统地制定和实施推动人工智能研发和应用的措施,并应对人工智能侵权行为进行调查并追究责任。2025年9月,意大利正式批准《人工智能法》,完成了欧盟立法的本土化,一方面通过明确主管机构和战略更新机制强化风险防控,另一方面通过设立10亿欧元的投资计划推动创新生态。此外,加拿大、哥斯达尼加、智利等国都正在起草人工智能法相关草案。
值得注意的是,即便在探索统一立法模式的国家,其立法重心和规制思路也呈现一定的分化。欧盟的监管型统一立法模式虽体系性强,规则相对明确,但其也面临诸多批评。例如,规则可能过于僵化,合规成本较高,中小企业的创新活力可能会受到抑制,风险的分类和界定标准存在一定的主观性,且静态的风险清单难以完全适应技术的动态发展和“涌现”特性。对此,意大利在本土立法中通过设立投资计划实现“管制”与“赋能”的兼顾。不同于欧盟的强监管立场,包括日韩在内的诸国统一立法都具有较为明显的创新促进取向。这些国家虽也寻求建立统一的法律框架,但更侧重于通过立法促进本国人工智能产业发展、技术创新和广泛应用,同时兼顾伦理规范和风险防范,呈现出“发展与规范并重”甚至”以促进为主,规范为辅”的特点。其优点在于能够根据本国国情和发展阶段,有针对性地推动人工智能产业的快速发展,提升国家竞争力,然而也面临着如何有效平衡发展与监管的关系,避免出现“重发展、轻监管”导致的风险失控,或因监管不足而引发伦理和社会问题的挑战。
二、人工智能统一立法的误解澄清
关于人工智能统一立法的争论焦点体现在四个方面:统一立法的任务定位、技术演进带来的不确定性挑战、过度监管抑制创新的担忧以及规则与场景错配的适用难题。不宜统一立法或暂不急于统一立法的观点,在某种程度上是基于对上述问题仍持疑虑。澄清这些误解与分歧,对于我国人工智能立法的模式探索殊为必要。
(一)统一立法是要制定一部人工智能法典吗?
对人工智能统一立法的一个常见误解是将其等同于制定一部包罗万象、事无巨细的“人工智能法典”。这种理解往往导致对统一立法可行性的悲观预期,即在技术日新月异、应用场景纷繁复杂的人工智能领域,试图通过一部法律来规制所有问题是不切实际的。然而,人工智能统一立法并非追求法典式的“大而全”,而是要构建一部具有基础性、统领性和框架性的综合立法。这一定位意味着,人工智能统一立法的目标不在于预设所有具体问题的答案,而在于为人工智能治理体系搭建制度框架。它需要在法律层面,对以人为本、安全可控、公平正义、创新发展等核心价值理念进行确认,并将其转化为具有法律约束力的基本原则,如风险预防原则、透明度与可解释性原则、可问责原则、促进创新原则等。这些高度凝练的“元规则”,能够超越具体的技术形态和应用场景,为未来所有与人工智能相关的立法、司法和行政活动提供根本的价值指引和解释依据,确保人工智能的发展始终位于正确轨道。
统一立法的主要目标是对人工智能法律关系中的共性问题作出基础性规定,而非填充所有制度细节。这包括:第一,界定统一的人工智能法律概念体系,例如对“人工智能系统”“算法”“模型”“提供者”“部署者”等关键术语进行界定,以避免在不同法规和实践中产生歧义。第二,搭建风险治理的基本框架,例如确立风险分类分级的基本方法论,明确高风险人工智能的判定标准和领域清单的动态调整机制,并规定不同风险等级所应遵循的差异化监管路径。第三,设定各方主体的基本权利、义务与责任框架,例如明确开发者、提供者、部署者和使用者在数据治理、算法透明、安全保障、风险告知等方面的基础性义务,以及在损害发生时责任分配的基本原则,为具体的责任认定规则提供依据。第四,构建人工智能治理体系,明确国家层面统筹协调机构与各相关监管部门的职责分工,建立跨部门的协同治理机制。
更为关键的是,统一的人工智能法并非要取代或排斥其他规范,而是扮演“上位法”或“基本法”的角色,引领和协调一个多层次、结构化的法律规范体系,它的生命力恰恰体现在其具有开放性和统合性。一方面,它要与现行法律规范做好衔接,协调与我国民法典、网络安全法、数据安全法、个人信息保护法等法律的关系,解决因人工智能应用产生的法律适用冲突或空白。另一方面,它必须为下位法和配套规范的制定预留充足的制度空间,通过明确的授权条款,赋予国务院或相关主管部门针对生成式人工智能等特定技术、自动驾驶和智慧医疗等特定领域、算法影响评估和模型安全测试等特定问题制定更具操作性的行政法规、部门规章和国家标准的权力。如此,便能形成一个以统一的人工智能法为核心,以各类专门法规、标准为支撑的法律规范体系。在这一体系中,统一立法保障了治理的体系性、原则性和价值统一性,而下位法和配套规范则确保了规则的灵活性、场景适应性和技术敏感性。因此,对统一立法任务的再审视,就是要破除“法典化”的迷思,清晰地认识到其使命在于构建一个稳定、开放、协调的治理框架,而非打造一个封闭、僵化、无所不包的规则囚笼。
(二)统一立法会遭遇技术演进的不确定性冲突吗?
对统一立法最尖锐的质疑,源于人工智能技术演进的不确定性。人工智能技术迭代之快、应用范围之广早已超出了人类的预期与想象,这似乎与法律的确定性和稳定性形成了先天的冲突。法律规制是基于对技术本身及其演化路径的预设,而技术演化本身就具有不可预测的突变性特点。既有技术会通过重新组合嵌套和自我创造(autopoiesis)形成新的功能结构,这个过程就像生物进化一样高度复杂且不可预知。而通用人工智能展现出的“涌现”特征更是凸显了这种不确定性。“涌现”描述了系统在达到一定规模和复杂性后,自发获得了未被直接编程或训练的新能力。紧随这种不可预测的“能力涌现”而来的便会是“风险涌现”,这些风险同样是不可预测的。这就导致传统意义上基于经验与预测的立法面临根本性的挑战——如果连开发者都无法完全预知其创造物的所有潜能和风险,立法者又何以制定出全面、前瞻且有效的法律规则呢?这似乎使得任何试图为人工智能制定统一法律的努力,都注定会因过时而沦为技术发展的“背景板”。
然而,这并不意味着人工智能统一立法不可行或不必要。一方面,在不确定性面前的犹豫会导致人工智能立法陷入“科林格里奇困境”(Collingridge Dilemma),既无法应对当前的规制需求,也容易推高未来的规制成本。科林格里奇困境揭示的是一种治理悖论:技术发展早期风险尚且可控,却因难料长期影响和潜在风险而无法作出明智的规制决策;而当技术被广泛应用、其影响充分显现时,它已经深度嵌入社会经济结构之中,形成了强大的技术路径依赖和利益固化,此时再去改变或控制它则变得极其困难。立法时机一般应把握在社会矛盾与问题已经出现端倪或初步形成,尚未病入膏肓,而又有条件加以解决的时候。如果当前不尝试通过统一立法促进和规范人工智能健康发展,日后再亡羊补牢反而可能会造成更大的社会成本。另一方面,人工智能技术的不确定并不等于技术应用所产生的社会关系的不确定。法律规制的对象并非技术代码或算法模型本身,而是由技术应用所引发的社会关系、权利义务分配与价值冲突。尽管技术细节瞬息万变,但其所触及的基本法律价值(如人格尊严、公平、安全、隐私)和核心法律关系(如开发者、提供者、使用者与利益相关者之间的关系)具有相对的稳定性。因此,应对技术不确定性的关键,不在于放弃统一立法,而在于将统一人工智能法塑造为一部能够学习和进化的法律,在稳定与适应之间保持动态平衡。
面对人工智能技术的不确定性的挑战,统一立法可以通过以下制度设计和立法技术予以有效回应。第一,坚持原则导向与技术中立的立法策略。统一立法的核心应是确立一套具有高度概括性、包容性和前瞻性的基本原则,聚焦于人工智能系统应达成的功能目标、应遵循的价值导向和应避免的负面后果,而非限定其具体的技术实现路径。这种“技术中立”的表述,使其能够跨越不同技术代际,为评估和规制未来出现的、形态各异的人工智能系统提供持久的法律依据。第二,从实体规制更多地转向过程性规制。面对“涌现”带来的结果不可预测性,法律的重心可以部分地从规定“不能做什么”的实体禁令,转向规定“必须如何做”的程序性义务。这种过程性规制,旨在确保人工智能系统的开发与部署过程是负责任、审慎和透明的,从而在无法完全预知所有风险的情况下,最大限度地降低风险发生的概率并减轻其危害后果。第三,采用“模块组合”的立法思路,增强法律体系的适应性。我们可以将统一的人工智能法设计为一个由“核心模块”与若干“功能模块”组成的开放体系。“核心模块”规定适用于所有人工智能系统的基本原则、定义、治理架构和通用义务,确保法律体系的统一性与稳定性。而针对特定技术、特定领域或特定问题,则可以制定相对独立的“功能模块”。当技术或社会需求发生重大变化时,可以更为灵活地增补、修订或废止某个“功能模块”,而无需对整个法律体系进行颠覆性重构,从而提升法律的敏捷性。通过原则导向、过程性规制和模块化设计,统一立法可以成为一个稳定而开放的治理平台,不求一劳永逸地解决所有问题,而是致力于构建一个能够持续学习、适应和演进的法律框架,从而在驾驭不确定性的同时,为人工智能的负责任创新提供稳定可期的法治轨道。
(三)统一立法会导致创新抑制后果吗?
将统一立法等同于“一刀切”的严苛监管,进而推断其会抑制技术创新与市场活力,是反对统一立法的常见论调。持此论者往往以欧盟《人工智能法》为例,认为该法确立的严格监管框架推高了企业合规成本,扼杀了市场创新活力。这种观点将法律规制与创新发展置于一种非此即彼的对立关系之中,忽视了二者之间的辩证互动。人工智能统一立法对于技术创新与产业发展的效果,取决于其立法目标、价值取向与规范路径。法律并非总是压制型的强制性规范,还有鼓励型的提倡性规范与奖励性规范,通过保障创新主体权益、集聚创新要素、豁免创新责任等方式,可以在规制创新风险的同时促进创新。一部制定良好的人工智能法,其目标并非简单地施加束缚,而是通过构建一个清晰、稳定且可预期的法治环境,为负责任的创新划定“跑道”而非设置“路障”。面对市场自发的人工智能技术应用创新,缺乏统一的顶层设计可能导致监管真空与监管冲突的混乱局面,立法阙如导致的监管不确定性亦会对创新活动形成抑制。在没有统一立法进行系统性调整的情况下,创新主体疲于应对不同部门和地区出台的碎片化规则,合规成本急剧攀升,最终同样会抑制创新。申言之,是否会导致创新抑制后果不在于统一立法本身,而是在于统一立法所制定的制度规范能否实现规制与激励的精巧平衡。
从立法宗旨来看,坚持“安全与发展并重”的规制目标可以避免过度监管的倾向。人工智能立法的呼声源于对人工智能风险的担忧,主张抓紧立法的观点也多着眼于风险防控与行为规范。这一立场在很大程度上被解读为要对人工智能进行严格监管,进而造成了人工智能法就是人工智能监管法的误解。然而,立法是一个广泛听取意见和平衡利益的过程,人工智能产业创新发展的需求并不会被无视。随着人工智能在数字经济发展和大国博弈中地位的日益凸显,“不发展是最大的不安全”开始成为共识。回应人工智能的发展需求,也是人工智能立法的重要任务。这也就决定了人工智能统一立法不能片面强调监管,而是要兼顾风险规制法与产业促进法的双重属性,在对人工智能技术及其应用进行有效监管与规范的同时,也为人工智能创新活动提供制度空间与保障激励。
从立法技术来看,人工智能立法中的“促进型规范”可以为技术与产业创新提供制度支撑。法律规制不只是消极的限制与禁止,还包括积极的鼓励与促进。人工智能立法中着眼于支持人工智能技术和产业发展的“促进型规范”,能够为人工智能创新提供有利的制度空间。一方面,人工智能统一立法可以在更高位阶为支持和促进人工智能发展提供法律依据,协调配置财税、金融、人才等资源,促进算法、算力和数据等要素的集聚和供给。另一方面,通过统一立法引入人工智能监管沙盒等创新友好型治理工具,允许企业在风险可控的真实或模拟环境中测试新技术、新产品、新模式,而监管机构则可以从中观察风险、积累经验,从而制定出更具针对性和适应性的监管规则。通过这些制度设计,统一立法非但不会抑制创新,反而能够通过主动赋能,为人工智能产业的高质量健康发展提供坚实的法治保障。
(四)统一立法会存在规则场景错配的适用难题吗?
人工智能的应用场景横跨金融、医疗、交通、司法等众多领域,其技术形态、风险特征与利益结构千差万别。由此引发的疑虑是:统一的人工智能法所设定的普适性规则,能否有效应对如此高度异质化的场景需求?是否会因其抽象性而导致在具体适用中出现规则与场景错配的困境?这一担忧实质上源于对统一立法功能的误解,即认为它试图穷尽所有应用场景的细致规则。这不仅是不现实的,也违背了现代法律体系分工协作的基本原理。诚然,人工智能风险规制与产业发展的制度需求在多元场景下呈现出差异化、复杂化的特点,但不同应用场景并不会脱离人工智能的技术实质,其底层逻辑上的共性并不会因场景不同而消弭。基于共性的人工智能统一立法,能够在明确通用制度框架的基础上形成动态的规制体系,实现对具体应用场景的灵活有效适用。
人工智能统一立法的任务在于以通用性规范为基础,构建一个能够实现“一般”与“特殊”良性互动的开放式法律体系。统一立法的核心目标在于构建人工智能治理的基本原则与核心制度,而不是试图穷尽所有应用场景的具体规则。技术演化和应用场景的多样化,决定了统一立法必须保持原则性和开放性,通过发挥其统领性作用与配套制度形成协同规制的效果。具体而言,一方面,可以通过授权条款为下位法的制定预留充足的制度空间,例如授权国务院或相关主管部门针对自动驾驶等特定类型的人工智能应用制定更具操作性的行政法规或部门规章。另一方面,对某些已经形成独特法律关系和规制需求的领域,可在统一法的基础上制定专门的单行法律或法规,进行更为深入和系统的规范。此外,统一立法确立的基本原则和规制框架也能为地方立法和行业自律规则探索新兴场景的人工智能应用规则提供指引和依据。概言之,统一立法旨在建立人工智能治理制度框架和各类应用场景的通用规则,特殊场景由统一立法指引下的具体规则予以规范,并不会出现规则场景错配的问题。
人工智能统一立法的层级也决定了其不宜承担对所有具体场景设定细致规则的使命。作为全国人大常委会制定的法律,人工智能法要保持稳定性与权威性,就应妥善处理条文内容的详略,以基本框架和底线原则作为主要内容,而不是沦为僵化繁杂的“操作手册”。当然,这并非意味着统一立法会完全回避对具体场景应用的规定。对于一些风险等级极高、对公民个人权利与社会公共利益影响重大的特殊应用场景,例如利用人工智能进行关键基础设施运营、提供核心公共服务、开展执法活动等,统一立法中可以也应当设定一些关键的、底线性的规制要求,以确保基本的安全与公平。这种“抓大放小”的策略,结合完善的法律解释机制和动态评估修订机制,能够确保统一法在保持宏观指导性的同时,具备足够的场景适应性,最终形成一个以统一立法为纲、多层级规范协同演进的有机法律体系,从而有效化解规则与场景错配的适用难题。
三、人工智能统一立法的制度功能
立法不仅是社会发展的产物,更是塑造社会秩序、引导社会发展的建构性力量。对于人工智能这一重塑社会结构与生产关系的颠覆性技术,统一立法的意义远超对既有规则的简单增补,也承载着构建国家治理体系新范式、回应技术革命系统性挑战的宏大使命。尽管有个话题常被提及:有统一立法的欧盟人工智能技术与产业却明显落后于尚未统一立法的中美,那么统一立法是否确有必要?需要说明的是:技术与产业的进步受资本、人才、市场、创新文化等多重因素的影响,法律只是变量之一,不宜简单地认为统一立法造成了欧盟在人工智能领域的滞后,更不宜将中美人工智能的发展归功于没有统一立法。中美虽无统一立法,但在人工智能领域依然有分散的法律规则发挥调整作用,然而碎片化规制模式造成了人工智能规则体系的内部冲突与失衡,难以系统性回应人工智能的法治需求。一部精心设计的统一人工智能法,能够发挥体系协调、价值平衡、规则奠基与实践引导等多重关键的制度功能,为人工智能的健康发展提供坚实的法治保障。
(一)体系协调功能
当前,我国针对人工智能的法律规制呈现出“碎片化”特征,相关规则散见于不同位阶的法律、行政法规、部门规章、地方性法规、国家标准乃至各类政策性文件。从我国网络安全法、数据安全法、个人信息保护法等法律对数据处理和算法应用的基础性规范,到国家网信办等部门密集出台的《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章对特定技术或场景的“精准滴灌”,再到深圳、上海等地为促进地方产业发展而出台的专门条例,共同构成了一幅看似繁茂却结构松散的规则图景。这种“小步快跑”的规制策略虽然在一定程度上对新兴技术风险作出了快速反应,但由此带来的“多头并进、条块分割”的治理格局也无可避免地产生了立法层级不高、概念术语不一、规则交叉重叠甚至相互冲突以及监管空白等问题。而以部门规章为主要形式的人工智能立法尝试,可能因治理体制模糊而形成“九龙治水”式的困境。
从法体系理论的视角审视,成熟的法律体系追求内在的逻辑自洽与价值统一,以确保其作为社会系统沟通媒介的有效性与可预期性。法律的碎片化不仅会侵蚀法律体系的融贯性,增加市场主体的合规成本与法律适用的不确定性,更可能因缺乏顶层设计而无法有效应对人工智能所带来的系统性、全局性风险。在此背景下,统一立法首要的制度功能,便在于发挥其强大的“体系协调”作用,推动人工智能法律从自发零散的“规则簇群”演进为协调融贯的“法律体系”。
统一立法能够通过设定“元规则”,为人工智能治理提供统一的法理基础和制度框架。统一立法的底层逻辑在于为多层级的规则体系提供上位法依据,从而弥合分散立法下人工智能治理规则碎片化导致的话语鸿沟与制度罅隙。随着基础性立法指引功能的发挥,多层级的治理规则能够实现体系上的统一性。一是对人工智能法的核心概念作出明确界定。通过在国家立法层面对“人工智能系统”“研发者”“提供者”“高风险人工智能”等核心概念作出明确的界定,为整个治理体系提供一套通用的概念话语,避免在不同法规和司法实践中产生语义分歧与适用混乱。二是对人工智能法的基本原则作出明确规定。确立如“以人为本”“安全可控”“公平正义”等贯穿始终的基本原则,使其成为解释和适用所有涉人工智能法律规范的根本指针,确保治理的价值导向不发生偏离。三是对人工智能法的制度框架作出明确规定。从整体层面构建产业促进、风险评估、伦理审查、负面清单、责任分配等核心制度的基本框架,为各部门和地方在制定配套法规和政策时提供共同遵循,避免部门或地方因本位主义导致规则偏差。
统一立法能够协调新法与旧法、一般法与特别法的关系,通过扮演“法律路由器”的角色为碎片化的人工智能治理规则提供协调统合的基石。一方面,它可以明确自身与我国民法典、著作权法、个人信息保护法等现有法律的衔接与适用关系,解决因人工智能应用而产生的法律适用冲突或规范竞合问题。例如可以通过明确数据训练中的合理使用问题,解决人工智能模型训练中的知识产权法律障碍。另一方面,它能够通过明确的授权条款,为位阶较低却更加细化的专门立法和软法规范的制定提供合法性基础和制度空间,形成一个以统一法为核心,多层级规范协同配合、纲举目张的有机整体。最终,通过这种体系化的协调与整合,能够有效克服碎片化治理的弊病,提升国家整体治理效能,推动人工智能法律制度从“反应式修补”向“建构式塑造”的根本性转变。
(二)价值平衡功能
人工智能的发展与应用伴随着深刻的价值重塑过程,其间充斥着多元甚至相互冲突的利益诉求。效率提升与公平正义、产业发展与社会安全、技术创新与风险防控,这些价值冲突在人工智能语境下被前所未有地放大和激化,由此引发了一系列根本性的追问:我们是否应当容忍一个“野蛮生长”的早期阶段,以换取技术领先的优势?“先发展后治理”的“亡羊补牢”模式,其社会总成本是否真的经济?法律的核心功能在于对社会中相互冲突的利益进行识别、衡量与排序,人工智能立法也绕不开“利益衡量”这一核心命题。在碎片化的立法格局下,价值平衡往往是局部的、权宜的,甚至可能因部门本位主义而出现系统性偏差。例如产业主管部门可能天然倾向于激励创新,而安全监管部门则更侧重于风险防范,二者制定的规则可能传递出相互矛盾的价值信号。统一的人工智能法的不可替代的制度功能便在于能够在一个更高的位阶上对这些根本性的价值冲突进行系统性的审视、权衡与决断,为整个国家的人工智能负责任创新确立清晰的价值航向。
首先,统一立法可以发挥强大的价值宣示与整合功能,指引人工智能健康发展。尽管在技术与产业发展过程中,人工智能的伦理准则与价值原则不断在凝聚共识,然而由于缺乏权威性和约束力,治理实效有限。而法律能够以最权威的形式,通过其立法目的、基本原则等条款,以及具体规则设置中所体现的利益衡量,宣告国家在人工智能发展与治理上的核心价值取向。例如将“促进发展”与“保障安全”并列为立法目的,本身就是一种深刻的价值宣示。这能为所有后续的制度设计、法律解释和适用提供根本的价值遵循,避免在具体治理实践中无所适从或各行其是。同时,统一立法确立的基本原则,也能为人工智能研发和应用活动的参与者和利益相关者提供明确的价值指引,实现行为规范与风险预防的制度效果。
其次,统一立法可以通过精巧的制度设计,将抽象的价值理念转化为可操作的法律机制。将立法的价值目标和基本原则融入制度规则的细节,形成可以分配和调节不同主体的利益并实现激励相容的法律机制,体现了从原则到规则的制度机理。人工智能统一立法,可以在平衡多元利益与价值的基础上设置相应的法律机制,从而实现安全与发展并重的价值目标。例如通过人工智能分类管理制度,构建以风险为基础的差异化的规制体系:对于绝大多数低风险或无风险的人工智能应用,采取“软法”引导或市场自律的宽松政策,最大限度地释放创新活力;对于具有一定风险的应用,则设定透明度、数据质量等通用性义务;唯有对少数涉及基本权利、公共利益的高风险的人工智能系统,才施以严格的、贯穿全生命周期的监管措施。这种“精准施策”的制度安排,本身就是对发展与安全两种价值进行动态平衡的产物。
最后,统一立法可以在利益平衡的基础上降低人工智能发展的社会总成本。从法律经济学的视角看,允许制度缺失下的“野蛮生长”实质上是默许创新主体将其产生的负外部性转嫁给整个社会。事后的侵权救济往往面临着因果关系证明困难、损害弥散化、维权成本高昂等难题,其社会总成本可能远高于适度的事前规制。一部统一的人工智能法,通过设定必要的准入条件和行为规范,促使开发者和提供者从源头上考虑和控制风险,能将外部性“内部化”,这在制度经济学上是更有效率的安排。因此,统一立法所承载的价值平衡功能,并非简单的利益折中,而是基于对社会整体福利和长远利益所作出的理性制度抉择。
(三)规则奠基功能
法治的核心要义之一在于提供确定性。正如哈耶克所言,法治意味着政府在一切行动中都受到事前规定并宣布的规则的约束,这些规则使得人们能够十分肯定地预见到当局在特定情况中会怎样使用其强制权力,并据此规划自己的个人事务。人工智能作为一项充满不确定性的颠覆性技术,其发展尤其需要一个稳定、透明、可预期的法治环境。缺乏清晰的规则,市场主体将面临巨大的法律风险和合规成本,创新探索将畏首畏尾,长期投资将缺乏信心。美国联邦层面在统一立法上的迟滞,导致各州立法“多点开花”,行政命令与司法判例交织,形成了一个动态但碎片化的“反复框架”,这给跨州经营的企业带来了显著的合规挑战。根据制度经济学的理论,稳定和明确的制度安排能够显著降低交易成本,从而促进经济活动的繁荣。统一的人工智能法能够发挥至关重要的“规则奠基”功能,其核心不在于为人工智能的发展设定具体的路径或条条框框,而在于为整个生态系统划定清晰的“底线”,在一定程度上消除制度的不确定性,奠定人工智能健康发展的制度基石。
首先,统一立法通过明确各方主体的基本权利、义务和责任,为人工智能相关活动提供清晰的指引。相比于分散式、碎片化的人工智能规则,统一立法能够以更高的法律位阶和效力层级规定相关主体的行为模式和法律后果。就市场主体而言,规定研发者和提供者在安全性、透明度和公平性等方面的基础义务以及涉及高风险人工智能时的特殊义务,并规定其违反管理规定或造成民事侵权时的法律责任,可以使市场主体能够预见其行为的法律后果,从而在创新活动中进行理性的风险评估与管理。这不仅可以降低法律模糊性带来的交易成本,有效保障使用者和其他利益相关者的权益,而且能为人工智能领域的投资决策提供稳定的预期,吸引长期资本进入这一战略性领域。同时,统一立法能够建立人工智能综合治理的体制机制,明确相关部门的职责权限和制度工具箱,为人工智能治理提供明确的制度依据。
其次,统一立法通过设定不可逾越的“伦理红线”和“安全底线”,为整个社会构建起一道安全屏障。法律是最低限度的道德,构筑着社会控制的底线标准。统一立法可以将人工智能的基础性伦理原则从软法倡议转化为具有法律强制力的制度规范,并且凭借其普遍适用性形成统一化的规制效果,明确人工智能研发和应用的底线规则。统一立法对底线规则的设置,既能为不同主体、不同场景、不同地区的人工智能活动划定最低限度的行为边界,确保人工智能的技术创新和产业发展与公民基本权利和社会公共利益的相容,又不妨碍其他层级的制度规则或软法规范对人工智能活动提出更高标准的要求。通过统一立法奠定人工智能活动的底线规则,可以确保人工智能发展不偏离安全轨道,进而塑造负责任创新的制度框架,使人工智能产业获得持久的社会信任和市场生命力。
最后,统一的顶层设计有助于增强我国在全球人工智能治理中的规则影响力和制度竞争力。欧盟在数字立法领域的“布鲁塞尔效应”启示我们,一部具有前瞻性、体系性和稳定性的统一人工智能法,本身就是中国向世界展示其治理理念和制度方案的“名片”。它有助于构建一个可信赖的国内人工智能生态,吸引全球顶尖人才和技术,同时也为我国企业“走出去”提供了坚实的国内法治保障。通过在国内奠定坚实的规则基础,中国能够更自信、更主动地参与全球人工智能治理规则的制定,推动形成更加公平、合理、包容的人工智能国际治理新秩序。
(四)实践引导功能
法律的生命力不仅体现在颁布后的文本中,更蕴含于其形成过程的社会互动与公共审议之中。对于人工智能这样技术与社会深度交融的新兴领域,统一立法的过程本身,就具有不可忽视的规范塑造、预期引导、共识凝聚和知识普及等多重治理效果。从法社会学和商谈理论的视角看,立法过程是一个国家围绕特定社会问题展开的最大规模的“公共说理”和“集体学习”过程。即使立法最终出台尚需时日,统一立法的过程效应也不容忽视。
首先,立法过程具有强大的“议程设置”与“规范塑造”效应。当一部统一的人工智能法被正式列入国家立法规划,其本身就向全社会传递了一个强烈的信号:人工智能治理已从部门层面的技术性问题,上升为关乎国家发展与安全的根本性、全局性问题。这会迅速将算法偏见、数据安全、人工智能伦理、就业冲击等议题置于社会舆论的聚光灯下,引发社会各界的广泛讨论。在这一过程中,立法草案、专家建议稿中提出的原则、理念和规则,会逐渐渗透到行业实践中,对企业产生“软约束”和示范引导效应。企业为了适应未来的监管环境、规避声誉风险,可能会提前调整其研发策略和内部治理结构,主动采纳“负责任创新”的实践。这种“未立先生效”的现象,正是立法过程实践引导功能的生动体现。
其次,立法过程是构建多方参与的沟通反馈机制、凝聚社会共识的宝贵平台。根据贡塔·托依布纳的“反身法”理论,面对高度复杂的社会子系统,法律的最佳角色并非直接的命令与控制,而是通过程序性规则来促进该系统内部的自我反思与沟通。统一立法的过程,特别是草案的公开征求意见、立法听证会、专家咨询会等环节,恰恰为多元主体提供了一个制度化的沟通、博弈与协商平台。在这种开放、透明、包容的审议过程中,不同利益相关方的观点得以充分表达与碰撞,有助于吸纳各方智慧,弥合认知分歧,在多元诉求中寻求最大公约数,从而提升立法的科学性、民主性和最终的可接受性。经由充分公共商谈而形成的法律,其正当性基础更为坚实,实施的阻力也更小。
再次,立法过程本身就是一个知识生产与社会动员的过程。立法议题的提出和讨论本身就具有强大的规范功能。将人工智能发展与治理中的核心问题,如算法歧视、深度伪造、机器幻觉、自动化决策的透明度与可解释性、人工智能的责任认定与权利保障等正式纳入国家立法议程,能够极大地提升全社会对这些问题的关注度和反思深度。这有助于推动形成关于“好的人工智能”和“负责任的人工智能”的社会规范,促进科技伦理教育的普及,为后续的司法实践、行政执法以及行业自律提供更为清晰的价值导向和判断依据。
最后,立法过程的治理效果具有持续性。即使统一立法在短期内难以一步到位,围绕其展开的持续性研究、政策试点、标准制定、伦理倡导以及小范围的专项立法探索,本身也是一个动态演进、积累经验、凝聚共识的治理过程。这些过程性的努力,都在为最终形成一部高质量、能够有效引领和保障我国人工智能健康发展的统一法律文本创造条件、积蓄力量。而统一立法过程所伴生的公众参与、议题设置、预期调节,都会对人工智能活动的参与主体和利益相关者产生持续的治理效果。因此,我们不仅要关注统一立法的“结果”,更要善于运用和放大立法“过程”所蕴含的治理能量。
四、我国人工智能统一立法的路径选择
统一立法是实现我国人工智能良法善治的重要保障。尽管不能指望毕其功于一役,但也不宜因为一时的争议或遇冷而偃旗息鼓。当前我国制定一部统一的人工智能法的核心挑战不仅仅在于技术层面上具体条款的精雕细琢,更在于如何从宏观层面把握统一立法的推进策略与实现路径。
(一)坚持基础性立法定位
人工智能技术具有快速迭代、广泛渗透和场景多样等特点,仅凭一部法律不足以穷尽细节,强求完备只会使立法条文臃肿且易于过时。加之人工智能开发与应用所涉法律关系并非完全排斥其他成文法调整。因此,我国人工智能统一立法不应执着于追求法典化的完备性,而是应当定位为人工智能法律治理体系的“基石”,侧重于构建人工智能治理的底层逻辑与通用规则,明确其作为基础性立法的边界与功能,在构筑治理制度的“四梁八柱”的同时建立与法律体系其他部分的有机联系。
首先,明确统一立法的规制边界,厘清统一立法与下位法的内容分工。统一立法应聚焦于具有根本性、全局性和跨领域性的“元规则”的创设。具体而言,人工智能技术与应用中应当坚持的根本价值与基本原则,如以人为本、安全向善、公平普惠等,应当在统一立法中予以确认,作为解释和适用所有人工智能法律规范的根本指南。人工智能治理领域的核心概念,如人工智能系统、提供者、高风险等,需要在统一立法中予以界定,以避免适用过程中的模糊与歧义。人工智能治理体制机制的顶层设计,包括人工智能促进与管理制度、监管机构的设置、职责划分与跨部门协调机制等,需要通过统一立法完成分配与授权。人工智能活动主体所应负有的维护安全、透明和公平的基础性、通用性义务,以及违反法律或侵权行为所产生的法律责任,需要在统一立法层面予以规定。除此之外,具有高度场景依赖性或技术易变性的具体规则,原则上应交由下位法予以调整。易言之,统一立法旨在为人工智能治理提供制度框架和基本原则,特定类型的人工智能领域则可由更具体的制度规范予以调整。
其次,设计科学的授权机制,确保下位法在统一立法的统领下保持灵活性。统一立法主要的规范内容应当是可以保持相对稳定性和普适性的通用规范,对于具有不确定性的规范内容,则应该充分发挥下位法与基础性立法的协同效应,通过授权国务院或相关主管部门以法规、规章的形式予以规范。当然,鉴于我国人工智能产业布局在空间维度上的巨大差异,各地可在遵守统一立法的前提下根据产业特色、资源禀赋和风险场景的不同制定更加细化的地方性立法,在鼓励地方创新的同时亦可精准回应本地需求,避免“一刀切”。此外,为了确保规范的一致性,统一立法中的授权条款不应是简单、笼统的交由国务院或主管部门规定,而应是“附带指引的授权”。这意味着授权条款需要明确授权的目的、范围、原则和关键内容,为行政立法提供清晰的框架和边界。
最后,建立有效的衔接机制,处理好统一立法与现有法律体系的关系。人工智能的开发与应用所涉法律关系复杂多元,广泛触及民法典、个人信息保护法、网络安全法等既有法律。为避免法律冲突和适用空白,统一立法应当设置相应的引致条款和转致条款,明确人工智能法律关系的法律适用,发挥基础性立法的“法律路由器”功能。具体可通过“映射—识别—衔接”三步实现:在立法过程中系统“映射”出现有法律中可能与人工智能相关的条款,“识别”出潜在的冲突点、模糊地带或规范空白,继而通过设置明确的“衔接”规则予以回应。例如,其他法律对人工智能在金融、医疗等特殊应用场景的准入有许可要求的,应从其规定。这种主动的、明确的衔接设计,能够将统一立法无缝嵌入现有法律体系,而非制造新的法律孤岛。
(二)平衡发展导向与底线思维
海德格尔技术哲学认为,技术的本质超越工具,是一种能够揭示自然界的隐匿宝藏的“解蔽”之力。但与此同时,每一次聚焦都伴随盲区,“解蔽”的同时也可能“遮蔽”潜在的风险。为充分释放人工智能技术的创新潜力并防范其潜藏的各类风险,我国人工智能统一立法必须在制度设计中充分体现促进创新发展与保障安全规范的双重目标,在发展导向与底线思维之间寻求精妙的动态平衡。
首先,可通过构建“双支柱”的法律结构,从体系上确保发展与安全的平衡。统一立法可在总则之后,分设“促进与发展”和“风险与治理”两大核心章节,赋予二者同等地位。在“促进与发展”章节中,系统规定国家在发展规划、财政投入、数据资源开放共享、知识产权保护、要素供给、基础设施建设、人才培养、国际合作等方面的支持性、激励性措施。在“风险与治理”章节中,则围绕风险分类分级、高风险领域监管、算法透明度和可责性、外部监督等内容,构建起坚实的风险防范框架。这种结构化的设计,本身就向社会传递“发展与安全并重”的强烈信号,避免立法在实践中滑向单一维度的风险规制或产业促进,确保价值平衡在法律文本层面的制度化表达。
其次,应引入“双向影响评估”作为规制决策的法定程序。为避免监管措施对创新造成不必要的抑制,统一立法可规定,任何针对人工智能的重大监管政策或标准在出台前,必须进行“双向影响评估”,不仅要论证该措施在防范风险方面的必要性与有效性,还必须系统分析其对技术创新、产业发展、市场竞争以及中小企业可能造成的成本与负担。评估过程应有产业界、学术界和利益相关者代表的实质性参与,评估报告须向社会公开,作为决策合法性的重要依据。
再次,建立“激励相容”的合规机制,将“安全”与“发展”的目标内在地统一起来。“命令—控制”的威慑监管模式,极易陷入“威慑陷阱”或引发“寒蝉效应”。因此,人工智能统一立法不应仅仅是惩罚违规者,更应通过合规激励机制奖励负责任的创新者。例如,对于那些在内部治理、伦理审查、风险管理等方面表现出色,并获得权威第三方认证的企业,可以在政府采购、数据开放、项目申报等方面给予优惠待遇,或在进入“监管沙盒”时享受更宽松的条件。此外,可以探索建立合规领域的“安全港”制度作为责任有条件豁免的创新激励机制,即企业若能证明其严格遵守了国家认可的最佳实践标准或行为准则,在发生某些非恶意的技术性损害时,可以作为减轻或免除其行政责任的法定事由。这种设计将合规成本转化为一种竞争优势,引导企业将“负责任创新”内化为核心竞争力,从而在市场机制下实现发展与安全的良性互动。
最后,在风险治理上采取“底线思维+比例原则”的精细化策略。统一立法必须划定不可逾越的“安全底线”,通过“负面清单”的方式,明确禁止开发和使用对基本权利和公共安全构成不可接受风险的人工智能系统。对于底线之外的广大领域,则应严格遵循“比例原则”,将监管强度与风险等级精确匹配。对于低风险人工智能系统的应用,应以市场自律和“软法”引导为主,最大限度释放创新空间。对于有限风险的人工智能系统的应用,则施加透明度等一般性义务。对经程序认定的高风险应用,则适用严格的全生命周期监管,对相关研发者和提供者科以增强义务或特殊义务。
(三)确保制度规则的敏捷与弹性
人工智能技术以前所未有的速度和广度进行迭代创新,这对传统法律的稳定性提出了严峻挑战。一部僵化、滞后的法律不仅无法有效规制风险,反而可能成为技术进步的桎梏。因此,我国人工智能统一立法应当高度重视制度规则的敏捷性与弹性,通过嵌入一系列“敏捷治理”机制,使其能够成为一部适应技术动态演进和场景多元复杂的灵活有效、弹性包容的法律。
首先,构建“核心框架+动态清单”的规制模式。统一立法本身应专注于构建稳定、原则性的治理框架,避免对易变的技术细节和应用场景作过多硬性规定。维持敏捷性的关键,在于将具体的、易变的监管对象通过“动态清单”的方式进行管理。例如,对于高风险人工智能的界定,法律应只规定核心判定标准,如对基本权利、生命健康、公共安全的潜在重大影响,以及原则性领域,如关键基础设施、医疗、司法等。而具体哪些人工智能应用属于高风险,则参照欧盟《人工智能法》的做法以附件或配套规定的形式,形成一份“高风险人工智能清单”。更重要的是,法律必须授权特定监管机构建立一套公开透明的法定程序,对该清单进行定期评估和动态更新。这一机制将通过相对固定的核心框架维持法律的稳定性,同时通过定期更新的动态清单确保规则的适应性,两者相结合使得法律能够跟上风险演进的步伐。
其次,探索“模块组合”的适应性立法架构。可以将统一立法设计为一个由“核心模块”与若干“功能模块”组成的开放体系。“核心模块”即统一立法本身,规定适用于所有人工智能系统的基本原则、定义、治理架构和通用义务,确保法律体系的统一与稳定。在此基础上,法律授权针对特定技术(如基础模型)、特定领域(如自动驾驶)或特定问题(如人工智能知识产权)制定相对独立的“功能模块”(形式上可以是行政法规或部门规章)。当技术或社会需求发生重大变化时,可以更为灵活地增补、修订或废止某个“功能模块”,而无需对整个法律体系进行颠覆性重构。这种模块化的思路,结合定期的需求评估和效果反馈机制,能够显著提升法律的适应性和生命力。
再次,明确“监管沙盒”与“试点示范”的制度设计。法律规则本身是刚性的,但是在统一立法中设置具有责任豁免色彩的监管沙盒与试点机制,能够在风险可控的基础上为人工智能创新提供弹性空间。监管沙盒在金融科技领域的成功应用形成了较好的制度经验,其本身也与具有中国特色和中国智慧的“试点”机制异曲同工,具备将其应用在人工智能治理中的基础。因此,统一立法应当明确人工智能监管沙盒的制度机制:一是明确申请进入沙盒或试点的资格条件、审批程序和监管机构。二是厘清参与者的法律责任豁免范围,对试验中因技术探索而产生的非恶意、非重大损害,可依法减免其法律责任,以消除创新者的后顾之忧。三是建立全过程的风险监控与应急处置机制,确保试验风险始终处于可控范围内。
(四)发挥立法过程的治理效果
法律的治理功能并不仅仅体现在最终颁布的法律文本上,立法过程本身也具有不可忽视的治理效果。推动我国人工智能统一立法,不能只关注形成统一立法文本的结果目标,还应当高度重视立法过程并充分发挥其治理效果。尽管在当前人工智能统一立法存在分歧,难以一蹴而就,正式出台可能尚需时日,文本内容也会经历反复调整,但不影响我国持续稳步推进统一立法,在立法过程中进一步凝聚共识和引导实践,从而实现立法目标和治理效果的有机统一。
首先,构建制度化的多方沟通协商机制,确保立法的科学性与包容性。人工智能统一立法涉及政府、企业、技术社群、社会公众等多元主体的利益关切,为避免立法决策陷入“信息孤岛”或被少数利益集团俘获,应超越传统的、非正式的专家咨询模式,制度化引入利益相关方参与立法全过程,建立常态化的公众参与立法机制和多元沟通协商渠道。立法机关可以尽快形成《中华人民共和国人工智能法(草案征求意见稿)》,通过组织学术研讨会和立法座谈会,邀请企业家、技术专家、学者以及人大代表等,针对草案征求意见稿中的相关条款进行讨论与论证,为各方利益相关者进行辩论与博弈提供平台,通过理性的对话与论证,寻求能够兼顾各方核心关切的“最大公约数”,提升立法的正当性与可接受性。
其次,完善立法信息公开机制,提升立法过程的透明度与公众参与的有效性。在人工智能立法过程中,应将透明度原则贯穿始终。这不仅意味着要依法向社会公布立法草案征求意见稿,更应主动、全面地公开与立法相关的背景资料,如立法研究报告、域外立法比较资料、对关键争议点的不同观点综述等,以帮助公众更好地理解立法意图和制度设计的缘由。同时,应创新公众参与的形式与渠道,利用数字化平台开设专题讨论区、进行在线问卷调查、举办网络直播听证会等,降低公众参与的门槛,广泛汇聚民智。更重要的是,要建立对公众意见的反馈机制,对于被采纳或未被采纳的代表性意见,应通过适当方式予以说明和回应,使公众参与从形式上的“告知”转变为实质性的“互动”,从而增强公众对立法过程的信任感和认同感。
最后,利用立法草案塑造规则预期,引导负责任的创新实践。立法机关公布的草案虽然并不具备法律效力,但会向市场和社会传递出明确的政策信号和规则预期。这种预期管理本身就是一种强大的“软法”治理工具。立法机关可以有意识地发布包含前瞻性、引导性规则的草案,配合以新闻媒体和专家学者的解读,激发产业界对未来合规义务的思考,促使其在技术研发和商业模式设计之初就主动融入“伦理设计”“安全设计”和“合规设计”的理念,以避免未来的法律风险和声誉风险。在某种意义上,这种治理效果实质上是立法过程催化了行业自律规范的形成,以一种成本更低、更灵活的方式,引导整个产业生态向着更加负责任、可持续的方向发展,同时也会降低统一立法文本获得正式通过的阻力。
五、结语
人工智能的浪潮席卷全球,通过立法回应其带来的深刻变革与潜在风险已成为时代必然。然而选择何种立法模式,是人工智能立法必须直面的基本问题。面对当前关于我国人工智能统一立法的激烈论争,是“让子弹飞一会儿”的消极等待,还是积极主动地持续推动统一立法进程,成为摆在理论界和立法者面前的艰难选择。事实上,对人工智能统一立法难以实现全面有效规制、无法应对技术演进的不确定性、过度监管抑制创新、规则场景错配造成适用困难的担忧,实际上是对统一立法基础性、灵活性、包容性和开放性的误解。更为重要的是,持不宜或不急于统一立法观点者,忽视了统一立法所具备的体系协调、价值平衡、规则奠基与实践引导等多重制度功能。因此,我国应当稳步推进人工智能统一立法,通过坚持基础性立法定位、平衡发展导向与底线思维、确保制度规则的敏捷与弹性、发挥立法过程的治理效果,制定一部具有中国特色的统一人工智能法,在规范和促进我国人工智能健康发展的同时,为全球人工智能法治贡献中国智慧与中国方案。
原文刊载于《比较法研究》2025年第5期