陈坤:“四法并置”:迈向适应性治理范式的人工智能立法

选择字号:   本文共阅读 4579 次 更新时间:2025-07-24 23:01

摘要:基于人工智能领域的特点、人工智能善治的目标以及平衡安全与发展的现实需求,人工智能治理需要迈向适应性治理范式。在人工智能治理问题上,适应性治理范式从敏捷性治理、协作式治理与自适应治理三个面向提出了若干具体要求。为满足这些要求,也为最大程度地实现人工智能治理的全面性、有效性与及时性,我国人工智能立法宜采取由总纲性的“人工智能基本法”、规制风险的“人工智能规制法”、鼓励创新的“人工智能促进法”与规范人工智能在法律领域应用的“人工智能控权法”构成的“四法并置”立法路径。为实现或接近“维护基本价值”“增进社会福祉”“推动个人发展”的善治状态,人工智能立法还应充分考虑“四法并置”专门法体系与其他法律规范、技术标准、伦理规范以及国际治理体系的外部耦合问题。

关键词:“四法并置”;人工智能基本法;人工智能立法;适应性治理;敏捷性治理;人工智能治理

 

随着欧盟率先推出《人工智能法》(AI Act),全球已经正式进入人工智能立法时代。当前,争论的焦点已不再是是否需要对人工智能进行立法规制,而是如何立法。不同国家采取了不同的立法路径与立法模式。人工智能立法是人工智能治理的一个环节,因此在不同的立法模式与路径的背后,是不同的治理理论与范式。例如,欧盟《人工智能法》背后依赖的治理理论是基于风险的治理理论(Risk-Based Governance),该理论强调对人工智能技术可能带来的风险进行分类与管理,以确保技术的安全使用与个人权利、社会利益的保障。我们在思考中国的人工智能如何立法这一问题时,同样需要从治理的全局与整体出发。基于此,本文旨在论证,考虑到人工智能领域的特点、人工智能善治的宏观目标,以及平衡安全与发展的现实需求,人工智能治理亟须转向适应性治理范式。在此基础上揭示适应性治理范式对人工智能治理的具体要求,并以此为出发点进一步思考人工智能立法的具体路径。

一、适应性治理:理论来源、定义与治理领域特点

(一)理论来源

“适应性治理”(Adaptive Governance)这一术语最早由诺贝尔经济学奖获得者Elinor Ostrom和两位生态学专家Thomas Dietz、Paul C. Stern在Science上发表的一篇综述性文章中提出。这篇文章在结合许多国家和地区在公共治理中的实践经验提出了适应性治理的五个关键要求:(1)信息提供(providing necessary information);(2)冲突解决(deal with conflict);(3)循规诱导(induce compliance with rules);(4)提供基础设施(provide physical, technical, and institutional infrastructure);(5)鼓励适应和改变(encourage adaption and change);并给出了满足这些要求的若干一般原则。这些关键要求与一般原则对于我们理解适应性治理提供了一个基本的出发点。

适应性治理之所以最早在社会生态学(Socio-ecology)领域提出,是因为传统的集中、单一治理模式无法很好地应对全球化时代的复杂生态治理难题。因此,有些学者从生态学中的韧性理论(Resilience Theory)出发,认为治理本身应该像生态系统一样具有韧性,即在面对干扰时能够迅速复原,保持稳定。要做到这一点,就需要及时调整治理策略;而及时调整策略需要保证信息反馈的通畅性,从而进一步要求知识共享和多主体参与。这些想法和Elinor Ostrom在公共治理领域的想法不谋而合。人们在传统上认为,公地悲剧问题的解决需要外部干预,或者通过私有化与市场的方式,或者通过强制性规范的方式。但Elinor Ostrom和她的同事通过大量的实证研究表明,自治可以成为政府和市场之外的新选择,公共事务的参与者可以自发地创造多中心秩序。这两种理论的交汇,并在政治经济学、进化博弈论、自组织理论、复杂系统科学等诸多理论进展的影响下,催生了强调灵活性与参与性的适应性治理理论。

(二)定义

“适应性治理”这一概念仍在不断的发展过程中,尚未形成统一的定义。作为早期定义之一,Folke等人认为适应性治理是一种由准自治的决策单元构成的多中心制度安排。这一定义聚焦于适应性治理的多中心性与自治性。随后的定义更多地强调互动与合作。例如,Chaffin等人将适应性治理理解为“在追求社会生态系统理想状态的过程中,行动者、网络、组织和机构之间的一系列互动”。 Westskog等人同样将适应性治理定义为一个“社会被引导趋向集体协商所确定之目标的互动过程”互动过程,但同时强调了这一过程应允许不断学习,治理策略、治理方式以及治理目标均应随着新知识的出现而不断调整。在这个定义中,动态调整和合作互动同样重要。还有学者从规范的角度将适应性治理理解为“随着理解、目标以及社会、经济和环境背景的变化,促进满足基本人类需求和偏好的规则和规范的演变”。这一定义同样强调了治理的动态性,同时还提到满足人类需求与偏好这一治理目标。

上述定义与其说是相互竞争的,倒不如说是互补的——作为对适应性治理不同侧面的刻画。综合这些定义、适应性治理的理论渊源,可以将适应性治理界定为:

一个综合性的治理范式,强调在快速变化和不确定的环境中,多方主体协同合作,通过动态调整的治理策略来处理复杂的治理难题,以保障系统具有持续的适应性,始终有助于促进基本价值保障、社会福祉增进与个人全面发展。

这一理解具有综合性与包容性。综合性体现在它包含治理对象、治理主体、治理方式、治理目标等面向。包容性体现在以下诸多方面:(1)适应性治理范式既可以作为一个理论范式,也可以作为一个实践范式——作为理论范式,可以用来分析与评价治理模式变迁;(2)基本价值保障、社会福祉增进与个人全面发展作为任何治理领域的一般目标,具有很强的抽象性与共识性;(3)它搁置了适应性治理是否应当采取非中心化的决策方式等争议。下文相关处还会详述这些方面。

从上面的讨论中可以看出,适应性治理最鲜明的特色是治理模式(治理的具体目标、决策模式、权力结构与互动机制等)的持续适应性。

(三)治理领域特点

适应性治理理论最初起源于生态治理领域,主要用于分析和应对气候变化、海洋保护以及灾害管理等复杂的环境问题;随着时间推移与知识扩散,这一理论逐步延伸到社会治理领域,用于探讨城市治理、基层治理和行业治理等问题。进入数字化时代,人们尝试将适应性治理理论应用于物联网治理、平台治理和数据治理等领域,以提高这些领域治理体系的灵活性与韧性,应对快速变化的科技环境和不断更迭的社会需求。

可以看出,适应性治理的适用领域是不断扩展的。但这些领域具有一些高度重合的特点,高度复杂、不确定性、知识分散与冲突。

高度复杂与不确定性是一体两面的。正因为这些领域的现象与因果机制在本体论意义上是高度复杂的,导致人们的认识存在不确定性。例如,在生态系统中,构成要素具有多样性和动态性,构成要素之间存在非线性的互动关系,每个要素都可能以不可预测的方式影响整个系统;这些特征使得人们难以收到完整的信息并在此基础上建立可靠的理论模型进行描述、解释和预测。虽然基于有限变量的简化模型在一定程度上有助于认识,但它们难以捕捉到复杂系统的全貌,并以牺牲准确性为代价。此外,在这些领域中,良好治理所需要的知识不仅是匮乏的,而且分散在不同的主体手中。以城市治理为例,良好的城市治理既需要城市规划、公共管理、环境科学、社会学等专业理论知识,也需要人工统计、交通流量、环境监测、经济指标等具体数据,而拥有专业知识的主体与拥有数据信息的主体往往是不一致的。

这些领域的另外一个共同特征是不同类型的冲突。首先是不同主体间的利益冲突。例如,在生态治理中,发达地区的高生态目标追求与欠发达地区的高经济发展追求之间的冲突;在城市治理中,城市更新过程中各参与主体之间的利益博弈与邻避冲突;在公共产品治理中,不同层级政府机关之间以及政府与社会资本之间的非合作互动;等等。其次是短期利益与长期利益之间的冲突,例如消费主义与可持续生活方式之间的冲突。这种冲突往往和不同主体之间的利益冲突混杂在一起,例如,城市有序发展和流动摊贩生存之间的冲突。最后是不同治理目标的冲突,这种冲突根源于善与人类需求的多样性,例如安全与自由作为基本的人类需求在社会治理中经常形成矛盾。尽管这些冲突并不总是坏事,“一定程度的冲突是群体形成和群体生活持续的基本要素”,但的确对这些领域的治理带来了挑战,并在多元参与等方面提出了更高要求。

二、人工智能治理为何需要迈向适应性治理范式?

(一)人工智能治理场景特征

人工智能领域和生态环境等领域在场景特征上具有高度的契合性。这既是人工智能领域可以采纳适应性治理的原因,也是人工智能治理需要迈向适应性治理范式的理由。

首先,人工智能领域在技术、产业与治理等层面具有高度复杂性。在技术层面,人工智能的技术架构和算法持续演化,从传统的机器学习到深度学习,再到当前的强化学习和生成对抗网络(GANs),技术复杂性不断攀升,“黑箱”“涌现”“不可解释性”成为热门议题。此外,人工智能应用会引起复杂的互动关系。例如,在智慧司法建设中,“信息技术既凭借其独特的技术刚性在一定范围内重塑着司法的组织结构,又受到了司法科层制组织结构的影响”。产业层面,人工智能技术推动各行各业的产业变革,大幅增加了产业链中的结构复杂性和决策复杂性。在治理层面,人工智能治理决策与产业发展之间的互动是复杂性增加的一个重要因素。有研究表明,当监管机构试图通过政策对人工智能应用进行规范时,行业往往通过游说、技术创新或者调整业务模式来对抗或适应这些政策。面对这些层面的复杂性,人工智能治理需要更加注重灵活性、前瞻性以及多方利益的平衡。

其次,人工智能领域具有高度不确定性,包括技术发展的不确定性、风险与机遇的不确定性与社会接受度的不确定性。 AI Impacts(人工智能影响)“2023年人工智能进展专家调查”(ESPAI)报告显示,人工智能的技术前景与社会影响存在巨大的不确定性;人工智能专家在人工智能的未来发展与社会应用方面没有明显共识。此外,人工智能的社会接受度在不同地区、不同文化背景下的不同人群中存在显著差异,这也深刻影响人工智能的发展与治理。

再次,人工智能领域存在严重的知识分散情况。人工智能技术本身是由多种子领域构成,如机器学习、深度学习、自然语言处理、计算机视觉等;这些技术领域的知识通常由各类科技公司、大学机构和科研部门掌握。此外,人工智能的治理不仅需要技术知识,还需要伦理学、法学、社会学、经济学等多学科的支持,这些知识掌握在不同的学科专家手中。

最后,人工智能领域存在广泛的冲突。人工智能治理涉及多个利益相关者,包括政府、科技公司、消费者、开发者、民间组织等,不同利益主体的不同的诉求往往相互冲突。例如企业最大化数据利用的需求与公民隐私保护之间的冲突。不同利益主体对人工智能的关注焦点不同,可能导致对同一问题的不同看法和处理方式。例如行业中的利益相关者(如企业、投资者、开发者等)可能侧重于技术应用的经济效益和市场潜力,忽视技术应用可能带来的伦理风险和社会责任;伦理学家则侧重于技术应用的社会影响,关注人工智能是否符合道德标准、是否会造成社会不平等、如何保证技术对所有人的公平性等。此外,效率与公平的冲突、短期利益与长期可持续发展的冲突、全球化与本土化的冲突等传统的目标冲突在人工智能治理问题上也进一步凸显。

(二)人工智能善治目标的要求

很多学者讨论过善治。例如,在俞可平看来,善治包含合法性(社会秩序和权威被自觉认可和服从的状态)、透明性(政治信息的公开性)、责任性(人们应当对其自己的行为负责)、法治(任何政府官员和公民都必须依法行事)、回应(公共管理人员和管理机构必须对公民的要求作出及时的和负责的反应)、有效(合理的行政结构、科学的行政程序、灵活的行政活动以及最大限度地降低管理成本)等六个要素;在王利明看来,善治包括民主治理、依法治理、贤能治理、社会共治、礼法合治等内容。这些要素与内容涉及治理状态、治理过程、治理方略、治理结果、治理主体、治理依据等多个层面。从治理目标的角度考虑,这些不同层面的善治要素最终都是为了实现:(1)促进自由、平等、公平等道德价值的实现;(2)增进社会福祉,实现经济、文化、环境等各领域的协调发展;(3)推动个人发展,这以个人权保障为前提。例如,在王利明关于善治的讨论中,民主与法治是作为善治的基本要素的,贤能治理是为了实现“个人才能得到充分施展,个人智慧得到充实发挥,个性得到全面发展”,社会共治则是出于解决食品安全、环境污染、诚信缺失等社会转型中出现的各种社会问题的需要。

在人工智能治理问题上,基本价值、社会后果与个人发展这三个维度的善治目标要求采纳兼具敏捷性、协同性与自适应的适应性治理范式。首先,适应性治理强调在动态变化的环境中,根据外部环境的变化调整治理策略。在人工智能领域,这意味着需要不断地评估和调整人工智能技术的发展,以确保其符合基本的伦理和道德价值,如尊重人权、保护环境和促进社会公正。适应性治理的发展型理念和动态适应能力使其能够更好地应对人工智能技术快速发展带来的伦理挑战。其次,适应性治理通过多中心、多层次的治理系统,社会网络和社会学习等核心概念,提供了一种灵活的框架来应对人工智能技术可能带来的社会后果,如就业变化和不平等加剧。最后,适应性治理强调社区参与和多方主体的协同,这有助于提升个人在人工智能技术发展中的参与度和能力,从而促进个人发展。

总的来说,适应性治理的敏捷性使得治理体系能够快速响应社会需求,确保治理措施的及时有效;协同性强调多方参与、跨界合作,确保技术治理能够兼顾各方利益,推动社会整体福祉;自适应性则是指治理框架能够根据不断变化的技术、社会和伦理环境进行自我调整,保持其持续性和有效性。这些特点使得适应性治理能够在多变的人工智能应用环境中最大程度地推动基本价值、社会后果和个人发展方面的善治需求,从而实现人工智能善治的目标。

(三)平衡安全与发展的需要

适应性治理能够更好地平衡安全与发展。很多学者与机构都讨论过人工智能的风险。例如,Bernd W. Wirtz等人通过深入的文献分析,总结了人工智能的六种风险:技术、数据和分析风险、信息和通信风险、经济风险、社会风险、道德风险和法律和监管风险。全国网络安全标准化技术委员会发布的《人工智能安全治理框架》(1.0版)区分了内生安全风险与应用安全风险,前者包括模型算法风险、数据风险和系统风险,后者包括网络域风险、现实域风险、认知域风险与伦理域风险。任何总结难免挂一漏万,为了克服这一局限,MIT发布了一个在线的实时数据库,根据风险的原因和风险所在的领域对700多种人工智能风险进行了分类,并提供了反馈机制以及时更新。

对于人工智能治理来说,我们不能只看到风险,而且要看到人工智能应用带来的好处与机遇。正如欧盟2024年9月发布的《人工智能与人权、民主和法治框架公约》所指出的,“人工智能系统可能为保护和促进人权、民主和法治提供史无前例的机遇”,虽然同时也可能“削弱人类尊严和个人自主,侵犯人权、民主与法治”。实际上,人工智能在个人、社会与国家层面上每一个可能的风险都对应着相应的机遇。表1是一个简要的概览。

表1 人工智能应用风险与机遇对比

在表1中,有些对应是直接的,即在同一个焦点上,人工智能技术应用虽然可能阻碍某个特定目标的实现,但也可能推动其实现。例如,在就业问题上,人工智能应用尽管可能会替代某些行业或人群,但同时也提供了其他工作岗位,例如知识工程师;再如,在社会平等问题上,人工智能可能加剧数字鸿沟,但其广泛应用也可能通过丰富教育、医疗等方面的资源获取以及便捷化落后偏远地区对这些资源的获取从而增进社会平等。有些对应是间接的,涉及到不同价值之间的平衡,例如对于个人来说,尽管收集个人信息的人工智能应用可能会带来隐私泄露的问题,但同时也提升了生活的便捷性与服务体验等。因此,人工智能治理应当兼顾安全与发展,以安全为底线,以发展为目标。

基于已有文献,可以总结出四种不同的治理模式:基于风险的规制型治理、基于原则的自主型治理、逐步递进的回应型治理、基于后果的元规制治理。这些单一的治理模式都不能很好地平衡安全与发展。基于风险的规制型治理是一种传统的治理模式,侧重于通过识别、评估和管理潜在的风险来进行治理。这种方法的优势在于对潜在危害进行预警和控制,但它也可能过于谨慎,从而抑制技术创新和发展。基于原则的自主型治理试图通过企业的自我规制来确保技术的开发和应用符合社会的核心价值观。虽然赋予企业和开发者更大的自主权,能够促进创新,但同时也可能缺乏足够的监管机制来应对不良后果。企业治理中的资源不均衡和缺乏透明度也削弱了治理目标的实现。逐步递进的回应型治理是一种基于经验和现实情况的治理方法,通过在实际应用中不断调整政策与措施来应对问题,通常适用于较为复杂和不确定的领域,但其局限性在于可能缺乏前瞻性,并且有时可能在面对突发问题时反应过慢;治理过程中可能存在信任缺失或治理效果差异化问题。基于后果的元规制治理侧重于通过监控技术的最终后果来调整政策与规则,过于强调后果与事后干预,而忽视了事前预防和规划;同样可能存在激励扭曲与反应滞后的问题。

为了更好地平衡安全与发展,包括治理的具体目标、决策模式、权力结构与互动机制等在内的治理模式本身需要不断调整,以实现其与治理环境的动态匹配。但值得注意的是,治理模式的动态调整有两个基本前提:一是现实的、无法容忍的风险得到及时的应对与解决,以确保安全底线;二是治理具体目标的选择、治理效果的评估等应当通过协商民主的方式确定。一方面,相关的治理难题是否得到了及时、精准与高效的解决,对于治理模式的持续适应来说,既是目标也是标志;另一方面,在现代社会,不管是治理目标的确定,还是治理策略的制定与实施,以及治理效果的评价,都应是基于协商共识的。将这些要点综合起来,可以将适应性治理在人工智能领域的具体要求总结为三个方面:敏捷性、协作式与自适应。下面具体阐述这些要求。

三、适应性治理在人工智能领域的具体要求

(一)敏捷性治理

在人工智能领域,敏捷性治理是以风险为导向的,将人工智能风险作为治理起点。敏捷性治理的第一步是对风险进行分类。风险可以根据不同的标准进行分类,例如,Bernd W. Wirtz等人根据风险发生的场域区别了六种不同的风险,并在此基础上提出了一个由风险层、管理和指导流程层、指南层与治理层构成的风险治理框架;其核心的思路是为不同类型的风险提供不同的治理方案。我们可以将风险的确定性程度与可容忍程度作为相互独立的定量指标对风险进行分类。图1给出了这一分类框架构成的象限图和对具体风险所在区域的一个实验性定位。

横轴表示风险的可容忍程度,纵轴代表风险的确定性程度。风险的确定性程度需要结合风险发生的历史和频率以及它和人工智能应用的关联程度进行综合判断。一些风险发生的确定性程度还可以通过经济学模型与贝叶斯推断、蒙特卡罗模拟等方法进行预测。风险的可容忍程度是指人们在多大程度上能够接受该风险所涉及的价值或利益在其真实发生后的损失。可容忍程度同样是多个因素的一个函数。一般来说,一个风险所涉及的价值或利益能够得到其他方面的补偿,其可容忍程度会较高;一个风险所涉及的价值在基本价值排序中越低,其可容忍性越高,例如,人们一般认为,财产的损失比起身体健康或生命的损失更可容忍。

图1 风险分类象限图

一个风险的确定性程度与可容忍程度需要在进行大量研究后进行判断,这里给出一些实验性、猜测性质的判断以进一步理解和应用这一分类框架。例如,一般来说,人工智能应用导致的失业(图中以a表示)的容忍度不高,但相较于自动驾驶所导致的生命健康损失(图中以b表示)会高一些;从确定性的角度来说,由于后者已有实例而前者仅是推断,后者的确定性程度会更高一些。因此,在这一象限中,失业处于生命健康危险的右下方。再比如,平台数据收集应用过程中的隐私泄露(图中以c表示)由于已经发生了多次,其确定性程度比自动驾驶导致的生命健康损失更高,但其可容忍性相较于生命健康损失要低;另外,由于隐私泄露更现实、覆盖面更广,它比失业的可容忍程度要低一些,因此在横轴上处于失业与生命健康之间,在纵轴上要高于生命健康损失。一个可容忍程度和确定性程度都较高的例子是人工智能的应用所导致的教育、培训、咨询等产业的衰减(图中以d表示)。另外一个可容忍程度较高、确定性程度较低的例子是个性化广告带来的购物成瘾(图中以e表示)。

每类风险采的治理策略随着具体风险而不同,但敏捷性治理可以根据上述分类框架提供一般性的治理策略:(1)对于确定的、不可容忍的风险,需要采取最严格的控制措施,引入“红线”“熔断”等机制,避免该类风险的发生;(2)对于确定的、可容忍的风险,应当明确可容忍的风险水平和阈值,实施常态化的监测和评估,增强替代性选择的可及性与丰度,确保相关损失在可接受的范围内;(3)对于不确定的、不可容忍的风险,应当加强防范机制,采取预防性措施,同时定期评估风险发生的可能性;(4)对于不确定的、可容忍的风险,应当保持警觉、适时介入,设置风险提示触发;避免过早干预。

在人工智能治理问题上,敏捷性治理的原则性要求是及时、精准、高效。及时一方面是指治理机构能够迅速识别风险和问题并及时做出决策,另一方面是指治理机制应快速调整不能滞后于时代要求。精准是指针对具体问题、技术和场景进行精准施策、避免“一刀切”。高效是指高效利用治理资源,最大化治理的收益/成本比;同时避免治理带来的其他损失。要最大化这些原则的实现,一方面要在上述分类框架下仔细研判不同风险的特征采取针对性的治理策略,例如有学者根据数据特异性程度与系统自主性程度对人工智能进行了分类并给出了不同的政策工具组合;另一方面要明确政府、产业、社会、公民等不同治理主体的责任以及知识共享等,这些将在协作式治理部分得到更多的讨论。

(二)协作式治理

在适应性治理的早期文献中,非中心决策被视为一个核心特征,显示了和Ostrom关于公共事务的自治理论的亲缘性。但对于人工智能的治理来说,自治显然并不是一个很好的选择。已有研究表明,上游行业参与者在拥有过强影响力时,往往具有逃脱监管的倾向。另一方面,非中心决策未必能够带来最好的治理效果。非中心决策在增强透明度、民主性的同时也可能降低决策效率和责任清晰性;此外,非中心决策还存在应急能力弱、政策连贯性不强等问题。实际上,决策方式作为治理模式的组成部分,应与治理环境相互匹配,这正是适应性治理中自适应层面的要求。人工智能治理领域中协作式治理的具体要求取决于:协作为什么如此重要以至于不能随着治理模式的其他部分被调整。

首先,人工智能领域在技术、产业、治理等层面的高度复杂性与技术发展、风险与机遇、社会接受度等层面的不确定性使得治理过程中的多方参与成为必须。任何单一决策主体都没有足够的资源来应对人工智能治理问题所涉及的高度复杂性与不确定性。另外,从风险的角度看,不同类型的风险也需要不同主体来解决。例如,对于模型算法安全风险要由企业来应对,信息内容安全风险则应主要由市场监管部门来应对。在多方主体参与治理的过程中,核心的问题是权力与责任的明确。一般来说,明确的权责分配是确保治理功能实现的前提。权责不明确不仅影响治理的效果,而且可能导致治理结果的合法性与正当性受到质疑。

其次,人工智能领域的知识分散情况使治理过程中的知识共享成为必须。知识共享的重要意义包括但不限于:通过避免重复提出问题或解决方案、增进协同创新等方式提高治理效率;通过提升治理透明度增进不同主体间的信任;通过缓解信息不对称、保障各方话语权平等的方式促进治理结果的公平性;通过协调不同主体的信念与观念、构建共同语言促进价值共识。人工智能治理过程中的知识共享可以传统的定期汇报、信息交换与会谈交流的方式实现,还可以通过数字化的知识共享平台或包含知识共享功能的适时协作工具来进一步扩展和优化。

再次,协作式治理还是人工智能善治的要求。从结果上看,善治是其正当性和权威被认可和接受的治理状态。为了达成这一理想状态,治理要体现各方利益。而在治理过程中,不同主体的利益诉求往往具有差异,甚至可能产生冲突。如何有效地调和这些差异,使所有相关方都能感受到自身利益的体现,成为实现善治的一个重要课题。早期的适应性治理理论对于自治的重视正是由于它有助于实现各方利益在治理过程中被考虑。但在超大规模的社会中,自治面临诸多挑战。超大规模社会的复杂性、多元化需求、资源分配不均以及跨区域问题,都要求治理机制具备更多的集中协调与统一性。在这种情况下,就需要广泛的社会对话确保各方利益都不会被忽视,并通过合理高效的协商机制来协调不同主体之间的利益分歧。

最后,协商与对话不仅是实现正当性与权威被认可的善治状态的途径,其本身同样是值得追求的,因为它体现了共识这一现代民主社会的核心价值。对于人工智能治理来说,这意味着,促进道德价值、增进社会福祉、推动个人发展等抽象治理目标在特定治理环境下的具体要求,以及安全与发展的平衡点等问题,都需要通过民主协商的方式达成共识,才能作为政策与方案制定的具体目标指引。

总的来说,协作式治理并不要求某种特定的决策方式,而是要求参与主体的权责明晰、知识共享、利益体现与协商共识。

(三)自适应治理

首先需要明确的是,人工智能生态并不像自然生态那样是一个自组织系统。人工智能技术的推动力多由顶尖科研机构、大型科技公司以及国家政策导向所主导(如谷歌、微软、华为等),这些力量决定了产业的研究方向、技术框架以及市场需求;人工智能的研发与应用都受到伦理、法律层面的规制以及政策、经济的影响。因此,人工智能生态更多地呈现出集中性而非分散性、他治性而非自发性的特征。但是,从人工智能的健康发展出发,需要在目标导向下增强人工智能生态的自主适应性。自组织系统在本质上是无目标的,但人工智能的发展不应是无目标的,应有助于实现促进道德价值、增进社会福祉与推动个人发展等宏观目标。正是这些目标使得适应性治理成为合理选择。像自然生态一样,人工智能生态的自主适应性具体表现为非中心性、韧性与创新性等特征。人工智能自适应治理的第一个层面是,治理应致力于增强人工智能生态的自主适应性。例如,从非中心性的角度来说,治理应致力于减少对少数大型公司或机构的依赖,使得不同的小型企业和研究机构也能参与到技术创新中,并推动各参与主体的平等与自主性,避免单点故障风险——这种风险在其他领域的治理中已现端倪。从增强适应性的角度来说,治理还应致力于提升人工智能生态的韧性,即增强其在面临自然、社会、政策等方面的冲击风险时能够迅速恢复、适应并维持稳定和发展的能力。这一方面依赖于技术本身,例如分布式架构、应急恢复能力建设等,另一方面也依赖于政策与合规引导、教育与技能培训以及良好的社会沟通机制等。正如有学者所言:“国内外的人工智能立法和实践前沿也表明,在人工智能立法中确定安全保障措施有利于提升应用部门和消费者对于人工智能产品的信任度,一味放纵只会导致我们的人工智能产品被污名化,最终会使技术被安全要求所扼杀。”

自适应治理的另一个层面是促进人工智能治理模式的动态适应性。治理模式包括治理目标、治理主体、治理结构、治理策略、互动机制等要素。自适应治理的第二层面是指这些要素能够动态调整以应对技术快速发展的挑战和社会需求的变化。当然,并不是治理模式中的所有要素都可以动态调整。动态调整的前提是:(1)人工智能治理的抽象目标始终是促进基本价值实现、增进社会福祉与推动个人发展——这也是所有领域治理的宏观目标;(2)已经出现的问题或危机得到了解决,现实的、不可容忍的风险得到了有效的控制;(3)在有关治理的重要决策与评估等方面有民主协商机制。就此而论,治理模式中的抽象目标以及与敏捷治理、协作治理相关的要素需要保持稳定。在此条件下,具体的治理目标、治理主体的参与和沟通方式、权力与责任的分配方案等是可以并需要动态调整的。治理具体目标层面的动态调整,例如,设立定期检查机制进行专项治理。中央网信办开展的“清朗”系列专项行动是这一治理方式的典范。治理策略、权力与责任的分配方式、互动机制等需要根据新的社会现象、技术发展、治理角色与具体场景等来确定,并在外界条件发生变化时进行调整以适应现实需求。例如,在数据要素价值凸显的情况下,国家数据局的组建给数据收集、处理相关问题上的权力与责任分配方式带来了显著变化。

四、满足适应性治理要求的人工智能立法:“四法并置”

(一)适应性治理与“四法并置”

随着欧盟《人工智能法》的出台,人工智能立法时代已经来临,但在人工智能立法的定位、基本路径以及推进模式上,尚存在许多争论。争论的焦点之一是,我国是否应当借鉴欧盟《人工智能法案》制定一部综合性的人工智能法?在支持者看来,统一立法有助于提升人工智能事业发展的整体性,“把分散在不同层级、不同地方的人工智能法律规范集中起来,制定一部统一的人工智能法,有利于推进人工智能法律规范体系化,为寻法、适法、执法、司法等提供便利”。但在反对者看来,制定一部统一的人工智能法的时机尚不成熟,我国人工智能立法应当继续“灵活性、小步快跑”的小切口立法模式,“欧盟的做法不具有普适性”。这一争论反映了人们在相互冲突的政策目标之间做出的不同选择。一方面,统一立法有助于提升人工智能法律体系的整体性与一致性,也有助于增强我国在国际规则制定竞争中的影响力——实际上,人工智能治理上的“布鲁塞尔效应”被认为是欧盟率先立法的重要动因之一。但另一方面,在认识尚不清晰、共识尚未达成的情况下贸然统一立法可能会阻碍创新或危及其他人工智能治理目标的实现;此外,统一立法还可能面临迅速失效的风险。

一般地说,在治理问题上,存在一个由深度、宽度和及时性构成的“不可能三角”,即这三个维度只能同时实现两个。对于人工智能治理来说,这意味着人工智能立法的全面性、针对性与及时性很难同时达成。如果想制定一个全面的且有针对性的人工智能法,就要耗费较长的时间——欧盟人工智能立法实践充分验证了这一点。我国之前的小切口立法模式在这三个维度中选择了针对性与及时性。这种模式能够迅速回应由特定技术引起的新问题,但也存在“规制范围与内容重合、法律概念冗余与定义分歧、规制内容前后不一致”等问题。

从适应性治理的角度看,为了更好地平衡人工智能治理的全面性、针对性与及时性,可以采取“四法并置”——总纲性的“人工基本法”、规制风险的“人工智能规制法”、鼓励创新的“人工智能促进法”与规范人工智能在法律领域应用(例如人工智能在司法裁判中的应用)的“人工智能控权法”——的立法路径。

从适应性治理的角度看,统一的人工智能法应当是框架性的而非细节性的。一方面,人工智能的风险与治理与技术和场景密切相关,在不同的细分领域,潜在风险的类型与等级以及与责任承担的主体与方式等方面存在显著的差异性;另一方面,不同种类人工智能开发、应用问题上的各种权利、义务与责任的共识达成仍需要较长的时间。此外,技术迅速迭代使得立法越细致、规定越具体,立法的滞后性就越大。因此,不管是从敏捷性治理的及时、精准、高效的要求出发,还是从自适应治理的增强适应性的角度出发,都不宜制定一部大而全的人工智能法,而是应当制定一部关注基础问题、凝结已有共识的人工智能基本法。

为了实现敏捷性治理的要求,在制定一部综合性、框架性的人工智能基本法的同时,针对特定技术或具体应用场景的人工智能特别立法仍然应当继续保持。敏捷性治理还要求人工智能规制法、人工智能促进法、人工智能控权法分别立法。规制法、促进法与控权法在立法目标方面存在差异,规制法关注风险控制,促进法重在支持创新,控权法则针对人工智能技术在立法、执法、司法等法律领域的特殊应用场景,只有分别立法才能更加细致地考虑不同目标的特殊需求,避免规范内容上的混乱与冲突,从而实现及时、精准、高效的治理。此外,规制法、促进法和控权法在性质上的差异也使得它们最好通过不同的立法主体来制定不同类型的规范。规制法主要涉及强制性的义务与法律责任,最好在全国范围内保持统一性;促进法重点在于为人工智能技术的创新、开发与应用提供支持,可以因地而异;控权法则主要是对立法、执法、司法等公权力行为的指引和约束,只在某个法律实务系统内有效。

“四法并置”也能够很好地促进协作式治理与自适应治理。一方面,通过分别立法的方式,人工智能基本法与三种不同的人工智能特别法分别由不同的立法主体主导,规范对象也各有侧重,能够为不同的治理层级和参与主体提供更为明确的法律框架与指引,更好地实现协作式治理中的权责明晰。此外,通过区分人工智能治理中的基础性问题、风险规制问题、创新促进问题以及公权力约束问题,能够更好地通过具体条款来鼓励和引导行业协会、企业、公众等多元主体参与到人工智能治理中。另一方面,“四法并置”中特别法采取分阶段、分领域的形式,使人工智能治理能够随着技术的发展和社会风险的变化灵活调整。例如,在人工智能技术尚处于发展初期时,促进法可以通过激励政策推动创新,而规制法则集中关注核心风险领域;随着技术逐渐成熟和广泛应用,规制法可以扩展到更多领域以应对新出现的挑战。这种分阶段、分领域的立法模式不仅增强了法律体系的灵活性,还为不同阶段的治理重点提供了针对性保障。与此同时,人工智能基本法发挥着统领全局的作用。基本法确立了人工智能治理的核心目标、原则框架和红线边界,为特别法的制定与调整提供了统一的指导方针。它能够确保各类特别法在适应技术变化的同时保持协调性与一致性,避免因部门立法或地方立法的分散化而导致的法律冲突或治理碎片化问题。特别法的灵活性与基本法的稳定性相结合,为人工智能治理构建了一种“动态适应与稳定引导”并存的法律框架。

总的来说,“四法并置”的立法路径,为快速响应技术变化、平衡多方利益、灵活调整治理策略提供了有力支持,提供了与适应性治理相契合的法律框架,从而为人工智能的长效治理提供坚实的法律保障。

(二)“四法并置”的具体方案

人工智能基本法作为人工智能法律治理的顶层设计、基础性法律以及人工智能特别法的制定依据在人工智能法律体系中起着凝聚共识、协调一致、明确核心概念与基本原则、构建治理目标与治理机构、为人工智能特别法提供方向指导等方面的关键作用。人工智能基本法的立法主体应当是全国人大及其常委会,以确保权威性、科学性与全国范围内的统一性。从法律位阶上说,人工智能基本法作为特别法的制定依据,其效力应当高于特别法;从内容方面说,人工智能基本法所确立的基本原则应当具有普适性。此外,人工智能治理涉及民法、刑法、行政法等多个法律领域,相关规范需要通过立改废释等多种形式相互调适,因此立法主体需要具有充分的法律权威与资源能力。

作为总纲性的法律,人工智能基本法不应当追求事无巨细地设计具体治理方案,而应当专注于确立治理的基本框架与总体方向。具体来说,人工智能基本法应当主要包括以下内容:(1)人工智能法的立法目的、适应对象、适用范围与基本定义等。(2)人工智能的治理目标,在治理目标条款中,应当确立促进基本价值保障、社会福祉增进与个人全面发展的宏观目标、人工智能治理的中长期战略目标以及平衡安全与发展的抽象目标;(3)人工智能的基本原则,包括人工智能治理的基本原则(基本原则条款应当确立敏捷性治理、协作式治理与自适应治理三大基本原则)与人工智能系统开发与应用的基本原则(例如合法正当原则、安全原则、透明原则、公平原则、绿色原则等);(4)人工智能的治理机构及其职责,从适应性治理的角度说,治理机构层面的设计应当体现国家统筹(确立国家人工智能主管机关及其职责)、地方实施(确立地方各级人工智能主管机关及其职责)、专业支持与社会参与(如人工智能技术、产业与伦理专家委员会等)、社会参与(如公众咨询委员会、教育与培训中心、投诉与监督平台等)的原则,形成多元协同治理体系;(5)人工智能特别法的制定主体、权限与程序等,除了人工智能治理机构的职责之外,人工智能基本法不宜设置针对人工智能开发、应用等行为的法律责任条款,这些条款最好由通过授权制定的特别法来设置。此外,为了更好地维护国家安全与利益、开展国际合作,人工智能基本法可以设置相关的安全保障、境外反制、合作促进等条款。

人工智能规制法、促进法与控权法并不是三部法律,而是三类性质不同的规范性文件集。人工智能规制法应当包含三类规范:(1)全国人大常委会制定的设立国家与地方的人工智能治理机构的法律,虽然人工智能基本法已就人工智能的治理机构做出了一般性的规定,但在治理机构的具体形式、职责分工、权限范围、运行机制、监督方式等方面仍然需要一部专门的法律进行细节性的规定;(2)国务院制定的人工智能风险规制条例,内容主要包括风险分级管理框架,人工智能研发者、提供者的义务与责任,相关部门的协作机制等;(3)若干部由国务院部委单独或联合制定的针对特定技术、领域或应用场景的风险规制办法,例如已经制定施行的《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能暂行办法》等。

目前,人工智能在能源、医疗、金融、水利等领域的应用同样应当由相关部门领衔制定相应的办法。虽然这种各领域的小切口立法的确具有一定的重复性,可能造成立法资源的浪费;但从适应性治理的角度看,这种立法模式仍需继续推进。首先,不同行业的技术特点、运行模式与风险类型有很大不同,需要根据行业特性来制定针对性的规制办法,以避免“泛化”的规定无法有效解决具体问题,例如医疗人工智能与金融人工智能在个人健康信息的保护义务与法律责任可能不同。其次,在技术迅速发展和应用落地的过程中,不同领域的快速反馈机制非常重要。此外,各领域的具体规制办法通过立法的实践,积累了行业经验,能够为制定通用性的人工智能风险规制条例提供参考,提升科学性;同时也便于各部门、各行业有效参与一般性的人工智能风险规制条例的制定以及其他一般性的人工智能立法中来,提升民主性。

与人工智能规制法不同,制定一部统一的人工智能促进条例的必要性并不是很强。一方面,促进法通常并不涉及强制性义务、违法行为与司法救济等问题,法制统一的需求相对较低。另一方面,人工智能的技术发展水平具有显著的地区差异性,导致不同地区在人工智能促进方面的需求各不相同。目前已有的地方人工智能促进立法均为经济发达地区,例如《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》,也充分印证了这一点。因此,人工智能促进法应当赋予地方充分的自主权,使其能够结合自身的经济结构和产业优势制定具体的促进措施。人工智能促进法主要以地方性法规与地方政府规章的形式存在,其主要内容包括产业发展目标与战略规划、政策支持与财政扶持、技术创新与产业链建设、人才培养与引进、市场培育、国际合作等方面。

人工智能控权法针对人工智能在立法、执法、司法等领域中的应用,旨在对人工智能在公权力行使中的作用和边界进行严格规范,以确保其在提升法律实施效率的同时有助于或至少不损害公正。最高人民法院发布实施的《关于规范和加强人工智能司法应用的意见》(法发〔2022〕33号)是人工智能控权法的示例性文件。该文件对人工智能司法应用的指导思想、总体目标、基本原则、应用范围、系统建设与综合保障等方面做出了规定。在立法与行政执法领域,尚未出台相关的规范性文件。人工智能在立法领域的应用初现端倪,但在行政执法领域已有较为广泛的应用。“数字技术的发展不断促使政府进行数字化转型,政府越来越注重运用数字化方式来执法。”特别是随着中共中央、国务院联合印发的《法治政府建设实施纲要(2021—2025年)》将“建设数字法治政府”作为目标,提出“坚持运用互联网、大数据、人工智能等技术手段促进依法行政,着力实现政府治理信息化与法治化深度融合”,进一步推动了人工智能技术在行政执法中的应用。为了避免数据偏差带来的公平性问题、算法黑箱造成的问责问题、技术依赖导致的决策权转移问题等,这些应用亟需相应的规范性文件来指导和规范。一般来说,人工智能控权法要由应用人工智能行使公权力的最高级别实务部门作为制定主体,其内容则通常包括应用的基本原则、数据管理、风险管理、应用规范、监督与问责机制等规定。为了与人工智能促进法相协调,人工智能控权法还可以规定鼓励创新与发展等内容,但这些不应作为控权法的主要关切。

下表是对上面讨论的“四法并置”专门法体系的总结。

表2 “四法并置”专门法体系框架简表

(三)“四法并置”的外部耦合问题

要最大程度满足适应性治理的要求,不仅需要较为完善的专门法体系,而且需要充分考虑这一体系的外部耦合问题。

首先,人工智能立法要实现体系性,既要在自身内容上保持内在一致性,还需与其他法律规范进行协调,以避免法律之间的冲突、提升实效性。第一,人工智能立法作为领域性立法,其中涉及的一些事项同时也是民法、刑法等传统法律部门的规范对象或内容,这些事项上的规定应具有一致性。例如,人工智能立法涉及的数据权属、智能产品的侵权责任、智能合同等问题,涉及传统民法中的物权法、合同法、侵权责任法等部分;人工智能生成内容引发犯罪的行为需要在刑法框架内解决。第二,人工智能立法应与已经制定或将要制定的智能要素法相匹配。例如,人工智能技术对数据的收集、处理、存储等需符合《个人信息保护法》《数据安全法》的要求;人工智能技术作为网络信息系统的一部分,应符合《网络安全法》的相关规定;人工智能算法在透明性、公平性、非歧视性方面应符合《算法推荐管理规定》所要求的可解释性与可控性等要求。第三,人工智能应用场景的法律规制需要与各行业立法相协同。例如,人工智能在信用评估、风险控制、反欺诈等金融服务中的应用需符合《商业银行法》《证券法》等规定。为了使人工智能立法与其他立法相协调,立改废释应同步推进。由人工智能基本法和特别法构成的专门法体系,旨在构建人工智能治理的全面法律框架。但人工智能规范体系的建立不能仅靠人工智能专门立法来完成,还需要充分运用法律解释方法增强其他规范的灵活性、其与专门法体系的一致性以及专门法体系本身的适应性。一般来说,如果能够通过解释现有法律解决实际问题,则无需修改法律。但法律解释的空间毕竟是有限的,在其无法应对人工智能带来的挑战时,就需要考虑修改现有的规范。此外,对于那些已不适应人工智能发展需求的规定,也应及时废止。

其次,人工智能立法应实现与技术标准的耦合。标准与法律属于不同的规范体系,在效力来源与作用方式等方面存在差别。在法律领域,标准通常通过被规范性法律文件援引以“间接实施”。目前,世界各国在人工智能领域制定了大量标准。截至2024年12月31日,国家标准全文公开系统中收录与人工智能相关的标准14项。在我国的人工智能治理实践中,这些标准在一定程度上弥补了法律的一般性与滞后性,增强了人工智能治理的敏捷性与动态适应性。此外,由于中小企业参与人工智能标准制定的意愿非常强烈,通过标准的治理也提升了协作式治理的水平。人工智能治理从法律与标准协同治理的角度看,一方面,标准的制定与实施应当遵循合法性原则;另一方面,人工智能规范的制定应当为标准留足“接口”,为标准实施提供依据。

再次,人工智能立法应实现与伦理规范的耦合。实现途径包括但不限于:(1)将伦理规范作为人工智能立法的指导原则。例如,欧盟《人工智能法》明确指出,人工智能伦理准则构成了起草相关行为守则的基础。(2)将伦理规范作为法律原则嵌入到相关的人工智能立法中。直接嵌入的方式,例如《生成式人工智能服务管理暂行办法》第4条要求生成式人工智能服务提供者与使用者尊重社会公德和伦理道德,更加具体的直接嵌入方式是将具体的伦理规范要求写入法律规定;间接嵌入的方式,例如《互联网信息服务算法推荐管理规定》第7条要求算法推荐服务提供者建立健全科技伦理审查管理制度和技术措施,第8条要求算法推荐服务提供者不得设置诱导用户沉迷、过度消费等违背伦理道德的算法模型。(3)以伦理规范指引相关法律规范的解释与适用,“去法学方法论的工具箱里寻找理论工具”。

最后,国内人工智能立法应实现与国际人工智能治理框架的耦合。人工智能治理是一项全球事业。不管是从参与国际规则竞争、提升国际话语权的角度,还是从全球化语境下最大化治理效果的角度,国内人工智能立法都应考虑与国际人工智能治理框架的耦合,积极融入全球治理格局。这一方面要求人工智能立法“引入全球比较视野”,在充分考虑一般性与特殊性的前提下从其他国家的人工智能立法中寻找可能的借鉴和启示,例如有学者指出,“美国人工智能立法存在霸权主义与排外主义弊端,但其发展导向、实用主义与场景化的规制进路与我国契合”“欧盟人工智能立法存在价值优越主义、过度规制的陷阱,但其对弱势群体保护的立场也具有合理性”;另一方面,在国际人工智能法律规范缺失的当前,以《全球人工智能治理倡议》为蓝本,大力加强国际合作,积极参与发展指南、倡议协议、全球标准等国际软法的制定,同时推动联合国层面人工智能相关条约的制定。

结语

人工智能治理是现代社会面临的重要挑战,其复杂性与动态性决定了传统的静态治理模式已不足以应对人工智能技术发展所带来的法律问题。适应性治理范式以敏捷性、协作性和自适应性为核心,为人工智能立法提供了全新的理论框架。在这一背景下,通过“四法并置”构建人工智能治理的法律体系,不仅能够在宏观层面提供治理的总纲性指引,还可以在微观层面实现针对不同场景的精细化规制,最终在安全保障与创新促进之间寻求动态平衡。与此同时,为实现人工智能治理体系的科学性与系统性,人工智能立法还需要注重其与现有法律规范、技术标准、伦理规范及国际治理框架的耦合。未来,人工智能治理的法律体系需要随着技术迭代和社会风险的变化不断调整优化,在此过程中不断趋向于实现适应性治理的最终目标,即保障基本价值、增进社会福祉与推动人类共同发展。

    进入专题: 人工智能基本法   人工智能立法   适应性治理   敏捷性治理   人工智能治理  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/165380.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统