许可:包容审慎2.0范式:化解人工智能的“步调难题”

选择字号:   本文共阅读 68 次 更新时间:2026-03-23 23:11

进入专题: 包容审慎   科林格里奇困境   人工智能  

许可  

  要:立法者如何回应人工智能是当今最令人瞩目,却又最难以达成共识的数字法议题之一。在聚讼纷纭的背后,潜藏着“技术与法律之间速度失衡”的“步调难题”。对此,技术评估、风险预防、技术建构、敏捷治理等西方经典化解范式,均各有所短。相较之下,我国“包容审慎原则”正确纳入了时间考量,可谓切中肯綮。然而,由于其依然秉持法律中心主义立场,试图从上而下地驯服技术,致使因无法锚定风险底线而功亏一篑。经由“规范技术”向“规范权力”的路径反转,“包容—禁止”的包容审慎二元结构被改造为“观察—评估—调试”的立法论证过程,进而基于技术和法律动态演化图式,演绎为“三段九步”的技术立法审查架构。这一全新的“包容审慎2.0范式”不但根本上消弭了步调难题,而且为我国人工智能立法提供了理论指引。

关键词:科林格里奇困境;包容审慎;人工智能

技术与法律的复杂纠葛是当今法学的核心命题之一。作为第四波产业革命的技术策源力,人工智能正在重塑时代的经济形态、社会组织、文化观念与国际格局。尽管人们对于这一历史变迁的深度和广度几无异议,但对于法制度和法秩序应否以及如何回应该等挑战,特别是当下是否是规制人工智能的适当时机?以及对其规制是否需要一部综合性的“人工智能法”?依然分歧重重。放眼寰球,在美国,历经12轮修正才获加州议会通过的《安全与可靠前沿人工智能创新法案》最终被州长否决。2025年,美国众议院在《大而美法案》中试图禁止“任何州或其政治分区在10年内执行任何监管人工智能模型、系统或自动决策系统的法律或法规”,但随即被参议院删除。几乎在同一时期,欧盟《人工智能法》也因行为准则和技术标准起草引发争议,掀起了行业日益强烈的反对声浪,酝酿数年的《人工智能责任指令》的提案亦被撤回。回到我国,《国务院2025年度立法工作计划》一改2023、2024年度计划,未将人工智能法草案继续列入预备提请全国人大常委会审议的项目,而是提出“推进人工智能健康发展立法工作”。2025年10月,《中华人民共和国网络安全法》(以下简称《网络安全法》)修订,以人工智能朝向有益、安全、公平方向健康有序发展为导向,增设第20条作为人工智能健康发展的框架性条款。

聚讼纷纭的背后,是我们既担心法律固守安定性失去了控制人工智能风险蔓延的机会,又担心立法太早阻碍真正的创新,此即“步调难题”(Pacing Problem)在人工智能领域之映射。为此,本文首先回顾步调难题的起源及其经典化解范式,然后探讨我国包容审慎原则适用于人工智能规制的可能性及其局限,继而在批判性汲取既有理论的基础上再造“包容审慎2.0范式”,最后将其运用于人工智能立法,希冀激活包容审慎原则的理论潜力,并为人工智能全球治理贡献可能的中国方案。

一、反思“步调难题”的化解范式

(一)从“科林格里奇困境”到“步调难题”

人工智能绝非人类第一次面临的技术挑战。一百多年前,当汽车问世之时,英国皇家汽车委员会认为其最严重的问题是道路扬尘,而污染、事故、拥堵显然不在他们预测的范围内。大卫·科林格里奇以此为例提出了著名的“科林格里奇困境”(Collingridge Dilemma):一项技术的社会后果在其生命早期无法预测,而当人们发现不良后果时,该技术已深度融入经济与社会结构之内,致使管控异常艰难。换言之,当制度变革容易发生时,变革的必要性就无法预见;当变革的必要性显而易见时,变革就变得代价高昂。

尽管科林格里奇因“困境”闻名,但他并非悲观主义者。这是因为,与其说这一困境是超越历史的普适性规律,毋宁是在特定情景中被有意或无意所构建,它是人类决策和行动的结果。故此,困境的解释恰恰蕴含了困境解决的可能。科林格里奇列举了两种控制方式:“预测进路”和“能力进路”。其中,“预测进路”旨在突破知识层面的限制,强调在技术尚处于起步阶段时,便着手研究并拓展与其社会后果相关的定量知识,以期作出明智决策。由于“知识”特指以技术演进轨迹为导向的客观预测,相关信息的收集和分析成为关键。“能力进路”立足于“权力”:控制技术的精髓不在于预测后果,而在于保持改变技术的能力,即使在技术业已充分发展之时,也要利用组织架构设计,令技术随时处于可被控制的状态。基于此,技术应当具备一系列应然特征,如流程上的可改正性、反馈后的系统可控性、备选方案可选择的灵活性以及抵御外部应力和错误的稳健性。智者见于未萌,控制之所以可能,恰恰因为人类应当研发可控的技术,这就是技术的规范性循环。易言之,我们无需解决科林格里奇困境,而要确保其不会出现,“君子不立危墙之下”可谓最佳策略。

尽管科林格里奇困境包含了知识、权力和时间三个维度,但上述克服措施只侧重于前两者,并未充分阐释技术与时间的矛盾关系,遑论提炼出技术与法律的两难境况。直到晚近,受启发于“技术呈指数级变化,但社会、经济、法律的变化却是渐进式的”的“颠覆规则”(The Laws of Disruption),人们才开始将科林格里奇困境与“步调难题”相关联。究其实质,该困境一方面源于时间的不可逆:在初期,技术容易控制但评估困难;在中晚期,技术效应清晰,但规制却窒碍难行;另一方面则源于法律的“时滞性”:法律基于静态而非动态的社会和技术,立法者的改革必然受阻于维持现状的影响力群体;况且,即便改变,立法者也倾向于对即时性政治利益或重大灾难做出快速反应,而对系统性修正过时的制度反应迟钝。

如果仅将“步调难题”理解为法律落后于技术,就忽视了它对科林格里奇困境的重大改进,事实上,它洞见了法律可能不当领先于技术的危险。回顾过往,法律并非只关注旧事物而忽视新事物的保守派。与传统议题相比,新技术的新问题往往更令人瞩目。譬如,在铁路系统刚刚起步的1858年,美国就有两部铁路法论著出版,处理了轨道和征用权,对员工、乘客、土地的损害赔偿责任等议题。无独有偶,基于“法律应当规制所有新兴技术风险”的观念,我国围绕元宇宙、区块链、具身智能的研究可谓汗牛充栋。再如,欧盟《一般数据保护条例》(GDPR)确立了多项数字时代的新型权利,可遗忘权、可携权和算法解释权却因超出技术水平而形如虚设。法学的历史表明,从太空法律到神经科学,法律人对新技术的想象是极其大胆的。如何避免法律比技术的迭代速度更快,由此成为步调难题的另一面。

总之,“步调难题”呈现出广狭两义。就狭义论,其指向了“新技术的引入与建立新法律、法规和监督机制以保证其安全发展之间的鸿沟”,此为法律化的“科林格里奇困境”;就广义论,其囊括了“技术与法律之间的所有速度失衡问题”,本文即立足于此。

(二)化解“步调难题”的既有范式及其不足

在技术驱动商业,进而驱动用户的创新飞轮下,“步调难题”构成了当代的普遍性挑战,我们不得不在技术创新的潜在利益及其对经济、社会和个人的潜在影响之间反复权衡,诸种方案因而应运而生。以科林格里奇提出的“预测进路和能力进路”为坐标,既有方案可分为旨在消弭知识难题的“技术评估范式”和“风险预防范式”,以及旨在消弭能力难题的“技术建构范式”和“敏捷治理范式”。

1.确定知识:技术评估范式

脱胎于预测进路的技术评估是最容易想到的应对方案。所谓“技术评估”(Technology Assessment),意指以科学为基础考察和分析技术变革的社会影响,从而改善技术的立法、监管和自我规制复合机制。作为基于技术工具论的控制范式,技术评估坚信人类应当且能够预测和管理技术发展。

20世纪70年代,随着“技术评估办公室”(OTA)的成立,技术评估正式纳入美国立法决策流程。技术评估办公室肩负着消除立法机关相对于行政分支的技术信息劣势,确保在公共政策论辩中预见、理解、充分考虑技术应用的后果。尽管技术评估对立法机关的问题界定和能力建设发挥着重要的辅助作用,但仍有批评者质疑其对具体立法的实际影响,以至于技术评估办公室于1996 年被撤销。实际上,技术评估的缺陷早已被科林格里奇所预见。详言之,评估对象绝非技术自身,而是“技术—社会系统”。故此,评估的不确定性不是源于方法论的障碍,而是社会现实的性质。一方面,任何评估都可能因人类未来的行为变化而落空;另一方面,评估仰赖不偏不倚的专家视角,但专家既是技术的践行者,又是社会的参与者,利益冲突难以避免。不仅如此,为弥补专家单一观点引入的多元参与者,反而导致评估结果的更多分歧。研究表明,技术风险的感知因人而异:人们如何认识身处的组织和社会环境,决定了他会预测到什么或忽视什么;更重要的是,对风险的接受程度还取决于特定群体之于正义的观念。

当然,这并不意味着技术评估的彻底失效,毋宁是迈向“技术评估2.0”,将灵活性、反思性和社会学习方法贯彻其间,通过促使科学家、企业、雇员、用户的广泛参与,使之在技术开发和使用过程中相互学习,融汇各方的社会关注和偏好,对相同功能的不同技术设计持开放态度,在历时性的交互作用和定期审查中考量社会、环境、政治和其他后果,最终从木已成舟的事后控制,转向全过程的技术建构。正因技术评估内在的生命力,其在美国衰落后,反而在大西洋彼岸落地生根,以“议会技术评估”的形式在德国、荷兰、挪威、西班牙等国开枝散叶。欧盟《人工智能法》对高风险人工智能系统开展的“基本权利影响评估”(FRIA),就是成功的应用例证。

2.不确定知识:风险预防范式

当人们认识到其知识不足以预测技术发展时,一种“上游治理”(Upstream Governance)的先发制人策略开始出现。该方法主张将规制前移到基础科学研究的早期决策,以避免后期应用的困境。在针对颠覆性创新的研究中,研究者指出:监管机构不应对新技术犹豫不决,而应在早期就予以果断监管。这是因为,既然无法通过评估把握技术后果,就不得以缺乏充分证据为由,延迟作出保护国民的决定。在法律上,此种在不确定环境下的决策所依据的正是“风险预防原则”。因此,除非特定活动的开展者能够证明其行为没有任何危害,否则不能进行。该原则抱持“安全胜过后悔”的信念,可谓“小心为上”传统智慧的现代版本。

1982年联合国《世界自然宪章》首次认可风险预防原则以来,该原则已从环境法向生物工程、传染病防治、核能安全、无人机和区块链等广阔领域迈进。随着人工智能的兴起,将之与核能相提并论的类比,组建美国国家算法技术安全管理局、联邦机器人委员会的声音,以及在社会问题涌现之前就“尽早并频繁地”监管人工智能的警告不绝于耳。这些主张多基于风险预防原则,建议只有经过事前许可解决潜在危险后,才能得到主管机关的上市批准。欧洲立场与之不谋而合。2020年,欧盟议会明确指出:公民对人工智能的信任必须建立在精心设计的道德规范之上,以符合指导欧盟立法的风险预防原则,这是人工智能监管框架的核心。欧盟《人工智能法》禁止了危害基本权利和联盟价值的人工智能系统,高风险的人工智能则应在投入市场前,完成数据库注册与合格性评估。

风险预防原则对技术的消极态度,使之面临着是否符合比例原则、成本收益是否相称以及滥用行政裁量权的质疑,甚至有学者认为,因为技术研发者几乎不可能满足举证责任的要求,对其严厉禁止或限制,剥夺了社会的机会利益。将风险预防原则运用到人工智能中,不但忽视了通用目的技术的特性,更可能限制创新并阻碍人工智能推广,从而危及经济增长、竞争优势和社会进步。究其实质,风险预防范式不当夸大了人工智能的威胁,无法涵盖其对社会生产、生活广泛且积极的影响。

3.技治能力:技术建构范式

如果说技术评估和风险预防范式与预测进路有关,那么“技术建构范式”则源于能力进路。如科林格里奇所洞见,控制技术的最佳方案就是直接建构技术本身。这一范式的有效性奠基于特定事实和信念之上。以事实论,作为自创生系统,技术演进呈现出“问题—解决—新问题—再解决”的“以技制技”逻辑;以信念论,该范式拒绝技术决定论,而是将技术视为嵌入性的“社会过程”,其能够也应当被人类行为和社会选择所塑造。

技术建构范式包含纷繁多样的治理路径,如价值敏感性设计(Values Sensitive Design)、经设计的法律保护(Legal Protection by Design)、监管科技(RegTech)、治理科技(GovernTech)、通过设计的合规(Compliance Through Design),不胜枚举。观其大略,可分为“价值导向设计”和“规则导向规则”两类。其中,“价值导向设计”试图在技术整个设计过程中贯彻人类价值,“尝试用人工智能价值对齐来矫正当今人工智能伦理中的一些风险”,而非实现特定的监管目标。需要指出,该方法既不把价值注入视为外部社会力量简单传导,也不将其视为技术的内生元素。相反,其持有一种“交互立场”,从而平衡技术的可能性和可欲性,并在人与技术的实际互动中优化。1970年代美国斯坦利屋工作组提出的“人化系统”,可视为价值挹注于算法设计的经典实践。将这一方法运用于人工智能,在立法层面可见于人工智能伦理审查,其将符合伦理与否的判断融入持续应用阶段的全过程,达成科技创新的智慧性、可持续性与包容性;在技术层面,“人机对齐”通过人类反馈的强化学习、原则型AI、大模型的后训练等机制,促使人工智能的行为与人类的意图和价值观保持一致。所谓“规则导向性设计”,即将法律规范转换为技术标准或机器可读的条件,铭刻在硬件和软件中,法律得以直观执行,技术也因而置于法治之下。此外,该方法还激励行为人主动采取多种世界建模方式,使分析和决策既可被核验又可被选择和调整,从而最大程度避免技术失控。可以预见,“经设计和默认的权利保护”将成为未来人工智能产品服务中不可或缺的组成部分。

尽管技术建构范式直指技术鹄的,但其面临着重重挑战:人类价值的多元和冲突,法律“湿规则”(Wet Code)和技术“干规则”(Dry Code)的罅隙,人工智能的技术自主性与可控性的悖论。追根溯源,联结主义的算法黑箱和能力跳变的涌现性,使得以技制技进路难竟全功。

4.监管能力:敏捷治理范式

与亲近“技治主义”(Technocratism)的技术建构范式不同,敏捷治理范式强调再造公共权力,以动态化和柔韧性的监管能力,回应技术变迁。在本文中,敏捷治理范式是一个宽泛的治理进路,兼容了实验主义治理(Experimentalist Governance)、适应性治理(Adaptive Governance)、试验性治理(Tentative Governance)、动态治理(Dynamic Governance)等多种方案。敏捷治理承认技术变化的速度和复杂程度前所未有,主张重新思考和设计政策流程,从而获得快速感知能力、灵活响应能力和持续协调能力。质言之,敏捷治理要求被监管者纳入规则制定过程,通过试探性、助推式的监管在变化中作出及时政策反馈,既要相时而动、随势而变,又要宁小勿大、宁浅勿深,在发生意外影响后及时回调。“沙盒机制”可视为该等治理的典范。其既为技术创新提供了安全、快捷、可控的测试环境,又协助监管者采取可预见、可参与和可集成的管理方式,通过信息交流和合作,依据具体情势进行个性化的全程指导,不但避免风险蔓延,而且降低了创新前沿地带所特有的法律不确定性。

敏捷治理已成为人工智能治理的主流范式。欧盟《人工智能法》第五章特别建立了人工智能沙盒制度,提供了在监管机构动态监督下的微观测试空间,同时在常规路径外,开启另一条高风险人工智能上市的管道。日本《人工智能原则实施治理指南》将灵活的“敏捷治理”定位为数字化社会的基本政策。在美国,特朗普上任伊始便废除了《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》,并用《推进机构使用人工智能的治理、创新和风险管理》备忘录取而代之,表现出向市场主导的轻触式(light-touch)立法的回归。我国《关于加强科技伦理治理的意见》《全球人工智能治理倡议》等同样将“敏捷治理”视为核心治理原则之一。

诚然,敏捷治理范式充实了国家控制技术的能力,有效缓解了“步调难题”。但其本质上是政策的敏捷制定,而非敏捷立法。就此而言,敏捷治理意味着政策取代法律的政策型治理,其由此面临双重困境:固守政策工具将削弱“依法治国基本方略和依法执政基本方式”,而通过立法贯彻该范式的努力,却又与法的一般性、稳定性、规则清晰性、适用一致性等内在道德抵牾,在极端情形下,还可能不当减损了当事人的基本权利。职是之故,敏捷治理亟待向“规范敏捷治理”转型,进而实现笔者所谓的“敏捷法治”(Agile Rule of Law)。

回顾种种范式,它们均不脱知识和权力之窠臼,“时间”仅作为隐而不彰的背景存在。更重要的是,其囿于狭义“步调难题”的设定,未能全面回应“技术与法律之间的速度失衡”,特别是法律领先于技术的问题。因此,我们需要探求新的解决方案:它既立足于法治,又能统合知识、权力、时间等诸般要素;既是对广义步调难题的化解,又能与上述范式和现有制度保持融通。倘若真有这样的制度构想,不妨从包容审慎原则开始。

二、我国“包容审慎原则”的再造

(一)“包容审慎原则”及其困境

“包容审慎”一直是我国对新技术的基本政策。早在2016年,《国务院关于印发2016年推进简政放权放管结合优化服务改革工作要点的通知》就指出,针对新技术、新产业、新业态、新模式,“积极探索和创新适合其特点的监管方式……对一时看不准的,可先监测分析、包容发展,不能一下子管得过严过死;对潜在风险大的,要严格加强监管”。2020年,中共中央、国务院《关于新时代加快完善社会主义市场经济体制的意见》中进一步提升为“健全对新业态的包容审慎监管制度”。包容审慎的法律化见于《优化营商环境条例》第55条和《中华人民共和国科学技术进步法》(以下简称《科学技术进步法》)第35条。以此为基础,《生成式人工智能服务管理暂行办法》第3条明确对生成式人工智能实行包容审慎监管。2024年,全国人大常委会法工委相关同志再次强调包容审慎的人工智能立法思路。

包容审慎是“包容监管”和“审慎监管”的对立统一。其中,“包容监管”与敏捷治理范式相契合,为新技术保留观察期,宽容、鼓励、保护技术创新,强调探索试验型规制,为命令控制型监管体系注入创新友好、灵活包容的延展空间。“审慎监管”则坚持严守质量和安全底线,对与人民生命财产安全、社会稳定、文化安全、金融风险密切相关业态采取底线监管,一旦新技术引发了不可接受的风险,立即启动严厉措施。作为金融“审慎监管原则”的发展,这一原则借鉴了目标监管的经验,以防范技术灾难为目的,通过监测、预警、控制平衡创新与安全。然而,世间难有两全法。回顾我国技术监管的教训,包容与审慎之间的失衡是常态:行政机关既可能因逐底竞争而过度包容,沦为不监管、弱监管或慢监管,又会因政府主体责任而过度监管,损害数字经济成果,不当限制市场创新活力。

包容审慎原则的困境有着深层次的制度动因,其症结并不在于如何包容,而在于“何为审慎”。由于风险底线缺乏可操作的分析方法,行政机关对于是否包容、何时监管、采取何种措施等事项拥有巨大裁量权,他们或许在制度性问责和社会舆情压力下,为规避责任而过于审慎,也可能出于发展第一要务的考量而过度包容。然则,如何寻找风险底线?在风险社会中,风险已然从客观的危险,转变为主观的判断。行为经济学表明,损失厌恶、不确定性厌恶和后见之明偏差,共同导致了过度的风险规避,使得人们愿意承担的风险,远低于理应承担的风险水平。同时,风险不但关乎个体认知,更是群体认知。在观点极化的时代,偶然事件由网络化信息渠道传导到关键节点,再到政治和社会运动,引发涟漪效应,不仅关系国家安全泛化观念,而且影响普通民众和决策者,容易出现安全泛化、风险倍增的不利后果。正因如此,看似非黑即白的风险底线,最终沦为恣意的灰色空间,甚至成为外界无法探知的决策黑箱。

但包容审慎原则绝非无药可救。恰恰相反,该原则正确纳入了时间因素,从而切中“步调难题”之肯綮。以《吉林省优化营商环境条例实施细则》第31条为例,其规定:对 “四新经济”采取包容审慎监管执法方式,科学设置观察期、给予过渡期、实行保护期。该原则还洞见法律超过技术的时间错位,强调通过比例原则约束政府行为,防范监管引发次级风险。故此,问题毋宁是如何汲取前述四种范式的智慧,再造“包容审慎2.0范式”。

(二)技术和法律的共同优化

一如技术评估、风险预防、技术建构、敏捷治理等范式,包容审慎原则延续了控制技术的观念,试图在“国家/主体—技术/客体”的架构下,从上而下地驯服技术。但这种将技术实质化的潜在理解,不但悖离了“作为系统的技术”的现代认知,而且还因技术风险的底线难寻,陷入顾此失彼的窘境。事实上,技术根植于社会之中,并与国家权力、市场力量、专业社群紧密交叉,编织出不可分割的无缝之网。正因如此,技术规制遵循着笔者提出的“共同优化原则”。质言之,技术系统最优往往以每个独立维度都低于最佳状态为代价。与其执着于法律或技术的单一优化,不如追求法律与技术在双向奔赴中的异质耦合。这意味着摒弃控制技术的幻想,转向技术和法律的动态协调。这一转变有着更深刻的理由,那就是随着复杂科学兴起,人们越发认识到:失控和涌现才是人工智能的本质。其实,这一解决思路蕴含在步调难题的设问中:即如何让技术和法律在演进中同频共振?

1.技术的时间之维

时间是同频共振的关键。任何技术都不可能一蹴而就。晶体管、集成电路、以太网、应变硅的历史表明:颠覆性技术从灵光一现到首次商业产品所需的时间跨度相当一致,大概需要10年到15年。这是因为,技术变革绝不仅是工程现象,而是产业的作用网络以及“发明、创新和扩散”的社会过程。其中,“发明”是科学事实;“创新”是经济事实,其把孤立的发明转变为市场活动;但要具有社会意义,就要大规模地使用,也就是“扩散”。发明本身并不能改变世界,创新浪潮才能。为进一步揭示上述机理,我们可以把发明拆解为科技基础理论研究、基础技术开发、产品开发前技术研究;把创新拆解为渐进式创新(incremental innovation)和颠覆性创新(fundamental innovation),前者是延续既有路径,几乎不需要迭代技术、市场、实施等要素的创新,后者则是通过轨道转换创造全新商业,或者以原本不可能的方式破坏主流市场的创新;把扩散拆解为萌芽期、期望膨胀期、泡沫破裂谷底期、稳步爬升复苏期、生产成熟期等五个阶段。

2.法律的时间之维

法律的生长同样需要时间。敏捷治理范式试图缩短甚至消除法律和技术间的时间差距,其意可谓良善,结果却以丧失法律自主性为代价,因为其实质是法律工具主义,念兹在兹的是法律服务于规制目标的有效性,而不关心内部融贯性。但问题在于:遵守规则和实现目标的紧张关系无法根除,而法治恰恰意味着国家在采取行动时必须受到规则约束,从而令人们合理预见特定情形下的强制力将会如何运用,并据此安排自己的事务。透过系统理论的棱镜,敏捷治理范式的缺陷看得尤为清楚。作为功能分化涌现出的子系统,技术和法律各自独立运作,其耦合并非一方施加直接的因果联系,而是一方基于自身结构对另一方的间接回应。借此,技术和法律只能在个别事件或共享结构中彼此激扰,而不可能拥有完全一致的时间节奏。在此意义上,敏捷治理范式的失败,源于其不区分封闭的系统和开放的环境,未能理解法律生长是对技术环境观察后的自我指涉和自我生产。

据此,法律生长可分为认知(Awareness)、评估(Evaluation)和调试(Adaptation)三阶段。其中,“认知”系国家对技术的实然观察,即以监测技术发展为目标,透过实验、观察、访问、调查、爬梳文件等方法系统收集技术的原理、功能、使用场景等信息。只有通用性的颠覆性技术,才能变革产品、流程、组织和管理,进而从生产和服务领域扩散到整个经济领域,最终改变社会结构和全球格局。为避免耗费立法资源,准确判断技术的类型和现状是定规立制的前提。但现实中,国家既面临内部不同部门之间的信息碎片化,也面临着理解外部技术复杂性的信息不对称。为此,国家一方面应秉持整体治理的理念,协调中央和地方、行业主管部门和横向监管机构的职能,通过政务数据共享,使技术规制从分散转向整体、从破碎转向整合。另一方面,国家应把政府作为平台,通过有形的信息平台和无形的组织平台,将政府与不同利益相关者都纳入开放互动的网络之中,促使其彼此交流学习和共识凝聚。此时,国家所关注的毋宁是来源者、沟通者、汇聚者之间的交涉机制,以保证技术信息的多元、准确、完整、及时。

“评估”系国家对技术后果的实然分析。技术并非驱动法律变革的决定性因素,那种“新技术—新法律”的观点,是过于简化的技术决定论。从印刷机到无人机,技术和法律的线性关系从未被证实。正因如此,国家不应关注技术的新颖性,而应关注其影响的显著性,即评估该技术突出了人类活动或状况的哪些特征,或使之成为困扰?是否令某方面比以前更重要、更普遍、更核心,对基本价值又有何种影响?鉴于这一正反两面的评估远超风险评估的边界,其须汲取技术评估2.0的经验,将专业和非专业公众,企业和非营利组织均纳入评估流程,通过政府调研、企业自评、第三方评估、公民会议等方式,让企业呼应政府和公众的关切,让技术开发者考虑社会、经济和其他后果,让政府了解和预见技术可能的冲击,从而发挥教育大众、激发公共辩论、打破不信任僵局和开启政治议程的功能。另一方面,该评估的对象亦非漫漶无边,因为法律系统不可能拥有足够的多样性一一响应作为环境的技术,因而关键在于哪些后果具有法律上的显著性?对此,“事物本质”或是参考尺度。作为事物正义与规范正义的中间件,事物本质是社会生活关系的典型类型和基本构成要素。只有技术引发了事物本质的实质改变,才是制度变革的规范理由,正所谓“世易时宜,变法宜矣”。

“调试”是国家和技术相互适应的动态过程。与敏捷治理范式的单向进路迥异,调试立足于双向运动,不但与技术建构范式保持融通,更凸显了法律的审慎,即对世界的复杂性保持尊重,仅在技术迭代、社会自治、市场竞争不敷适用之际才直接介入,并且,其合理性应止于促进上述诸系统自我修复与完善的必要范围内。在此脉络下,法律应当从决定的内容或结果中适度抽离,而集中在由谁、按照何种手续来作出决定,此为“实质性规则的再形式化”。循此,国家应退回到程序和组织的元层面上,将任务的执行内化于技术、市场和社群规范,从而令分散的社会关系遵从受规整的自治(Regulated Autonomy)。实践中,该原理表现为先后相继的“软法优先”和“硬法优化”。作为法律上无法直接执行,却能产生实质效力的规范,技术标准、行为准则、最佳实践、伦理原则、认证认可、示范文本、国际倡议等软法可视为国家对非政府组织、企业自身及其竞争对手的监管授权,以期达致公私合作治理。凭借着灵活性、分布式、强调自愿而非对抗的特性,软法得以在不抑制创新的前提下引导技术向善,有效平衡了“必然不完美的国家规制和必然不完美的时间竞争”。当然,软法如欲发挥实效,还要以硬法为后盾,否则将流于策略性的漂绿。正因如此,作为奥援的硬法不可或缺。不过,与侧重苛加义务的管制不同,“硬法优化”不但体现为与软法相容的行为激励规则,而且指向了法律自身的调整。其一面经由法院释法,在个案中不断累积和发展旧规则,一面通过立法和监管机构的系统性减法,对现行法开展修改、废止和必要的法典化,以消解因积重难返导致的“规制过时”和因多头监管新技术导致的“规制积聚”。

3.技术和法律的动态演化图式

随着时间维度的嵌入,技术和法律的动态演化图式渐次展开(见图1)。(1)在渐进式创新之时,技术仅仅在传统框架内修正,不会改变经济社会秩序,国家要做的只是“观察”;(2)任何技术均有极限,当增产有困难、成本无法降低,或是难以实现生产多样化时,原有体系的曲线被迫断裂,由突破性发明为先导,在新的平衡点上重建技术的范式转移成为可能;(3)在颠覆性创新的萌芽期,新技术能否取得成功尚未可知,国家保持定期监测即可;(4)到颠覆性创新的中期,新技术的社会影响出现,国家开始实质性介入,有步骤地开展评估,并在必要时发出预警;(5)当新技术从低谷转向复苏,一个经济社会技术系统日益成熟,法律终于作出适时回应。

【图1技术和法律的动态演化】

(三)从包容审慎原则到“包容审慎2.0范式”

技术和法律的动态演化图式不只是描述性的,还有着丰富的规范意蕴,其融知识、权力、时间为一炉,吸纳技术评估、技术建构、敏捷治理等范式之所长,并利用“创新原则(the Innovation Principle)”平衡风险预防范式,将之前“包容—禁止”的二元结构改造为“观察—评估—调试”以及“持续观察—再评估—再调试”的循环往复过程,体系性和操作性兼备的“包容审慎2.0范式”就此成型。

该范式以“统筹安全与发展”为理念。肇始于《网络安全法》,并由《中华人民共和国数据安全法》和《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)延续的“安全和发展并重”,已成为我国数字法的准则。在后工业时代,国家不得不肩负起技术风险终极管理者的重大职责,安全亦从隐而不彰的背景性价值一跃登台。与此同时,发展技术亦是国家的根本任务。此为《中华人民共和国宪法》第14、20条和《科学技术进步法》所明定。作为相辅相成的价值,安全与发展并不是非此即彼的选择,而是动态地折中调和。

该范式以“尊重法律自主”为基点。秉持“只有法律才能改变法律”的“反省法”(Reflective Law)立场,法律既不是对技术的应激反应,也不是政策的便捷工具,相反,其应以系统性、一致性、安定性为标准,审慎回应挑战。既然技术的不确定性无法避免,法律就不能以消弭不确定为鹄的,而应反求诸己,在体系封闭运作的同时对技术的开放认知,最终以法的融贯性抵消技术的不确定性。这意味着新法不但通过解码社会信息并转译为法律规则,从而与变化中的事物本质相联系,还要自洽于整体性的法体系。

该范式以“规训国家权力”为重心。迥异于以技术为对象的努力,其可谓从规范技术向规范权力的路径反转。这种主客易位,标志着风险预防范式下技术方的自证清白向国家自证适当转移。在比较法上,其与美国助力互联网兴起的“无需许可的创新”(Permissionless Innovation)原则相契合,即新技术通常应被默认允许,除非有令人信服的理由证明其会带来严重危害。《中华人民共和国立法法》第7条下的“立法适当性审查制度”不但为国家的举证责任提供了实体法基础,还可细化为科学立法、合理立法和说明立法理由等三项子规范。“科学立法”要求立法在最佳且可行的科学基础上,采取独立、客观、透明的科学方式完成。“合理立法”要求立法者充分论证立法目的的正当性、手段的妥当性、必要性和手段与目的的均衡性,评估立法对技术创新环境和创新能力的影响,通过风险机会分析和成本收益分析,综合考量技术的危害及其预期利益,以期最大化社会福祉。“说明立法理由”要求立法者在启动立法时,应就立法目的、原则以及该立法在法律体系中的地位与作用作出说明,从而回答为何立法、何时立法、如何立法的问题。作为国家的基础性职权,立法启动必须基于“规范性理由”,而规范性理由依赖于社会商谈的沟通理性。故此,立法理由的阐明将为公众参与、科学评估、专家论证提供制度化渠道,再建不确定性情景下政府决策的合法性之基。

三、包容审慎2.0范式下的人工智能立法

(一)包容审慎2.0范式的操作框架

基于技术和法律动态演化图式,包容审慎2.0范式为技术立法确立了“三段九步审查机制”:(1)审查技术是否发展到国家应予回应的程度。其一,是否存在颠覆性发明?其二,该发明发展到何种程度?其三,该发明是否足以造成“显著影响”?(2)审查是否存在有效的法律治理措施。其一,是否存在软法?其二,软法治理能否发挥实效?其三,硬法能否弥补软法治理的不足?(3)审查立法时机是否界至。其一,能否通过旧法的解释、漏洞填补或续造间接实现立法目标?其二,修改或废止旧法是否足够?其三,采取专门性立法抑或体系性立法进路?该三段审查分别对应着人工智能等技术的事实性审查、实践性审查和规范性审查,不但层层递进地过滤审查的主观性,而且对立法者苛以过程性论证义务,要求证明其回应业已付出了充分且合理的努力,充分考量客观情势和各种路径,并审慎权衡了立法利弊。

(二)人工智能立法的“事实性审查”

人工智能是否构成“颠覆性发明”是立法审查的第一步。回顾历史,人工智能已有七十年。依循发明、创新和扩散的脉络,其在二十世纪五十年代被发明,在经过近半世纪的渐进式创新后,在二十一世纪一〇年代发生了范式转移。与之前基于规则的人工智能相比,以AlexNet竞赛获胜为标志的神经网络不是累积式改进,而是新技术原理的根本性革新,其采用了迥异于传统技术的原理来满足人类需求。2024年诺贝尔物理学奖基于“人工神经网络的基础性发现和发明”而颁发,即是明证。以此论之,立法针对的并非年逾花甲的人工智能,而是刚刚开启的新一代AI,后者才是颠覆性发明。由此而来的问题是:它目前发展到哪种程度?

高德纳(Gartner)“2025年人工智能技术成熟度曲线”显示:当前,人工智能工程化还处在商业可行性未得到证明的萌芽期,自主智能体、多模态和特定领域的生成式人工智能(GenAI)方才进入大多数公司不会采取行动的期望膨胀期,而大语言模型(LLM)已滑入技术创造者被抛弃、只有幸存者改进产品的低谷期。这首先是因为生成式人工智能和基座模型依然面临内容准确性的挑战,更严峻是作为性能预测基准的“规模法则”(Scaling Law)正遭受质疑。经验显示,随着数据集、计算资源(算力)和模型(如参数数量)的规模扩张,大语言模型性能会按照幂律得到改善。但晚近研究却表明,该等性能提升将随着数据集或模型规模增加而减缓,以至于有人断言大语言模型已接近实际极限。不过,业界的主流观点依然坚持“没有看到任何偏离规模法则的迹象”,最乐观的预计是“通用人工智能(AGI)将在5年内来临”。与之针锋相对的是,有学者将现有大语言模型视为“波将金式方案”,是与人类理解方式完全不可调和的理解假象,延续这一进路的通用人工智能将永不可能。

面对争议,国家的事实性审查除参考的行业意见以外,还应组建“早期预警部门”,聘任独立的专家小组监测技术动态,构建囊括企业采用率、生产转化率、生态成熟度、人才供给等可量化指标体系,督促专家小组遵循多源对照、时间序列验证、情景化设定触发条件的方法论,开展定期审查并持续更新。揆诸当前权威的研究,本文可以判定:人工智能正处于加速与物理世界融合的关键期,其开发部署成本显著下降,具身智能、自动驾驶、智慧医疗等应用大有可为;另一方面,受制于基础理论、能源瓶颈、地缘竞争和商业模式,人工智能获得广泛市场适用性和主流地位仍有待时日,至于成熟日期则因具体技术而异。总之,鉴于人工智能在技术路线、应用场景和发展阶段上芜杂多元,毕其功于一役的综合性立法时机显然未至,立足个别技术的立法更为可行。具体而言,除LLM有待国家评估其影响之外,包括AGI在内其他技术尚处于观察期,而无需国家干预。然则,如何评估LLM的影响?

第三步的技术评估可从我国《科学技术进步法》第99条下的“科技评估与决策制度”开始。详言之,LLM影响评估应遵循如下原则:(1)科学原则:评估应当尽量摆脱传统观念、社会舆论、个人直觉或意识形态,采取与学术研究相同的科学方法,基于当下可得的客观材料作出判断。(2)包容原则:为消解科学的不确定性和社会价值观的分歧,相关各方均应纳入流程之中,通过对话增强透明度并建立信任,从而厘清问题、确定事实和凝聚共识。(3)实质原则:技术评估系服务于技术决策和立法的活动,因而与一般反映经济、社会、环境、风险的评估不同,其对象毋宁是LLM的特性及其所影响的社会基本生活关系,从而指向了LLM引致的信息生产与传播、个体基本权利、公共权力行使、劳资关系等法制建构所依存的事物本质。基于上述,LLM影响评估可采取如下流程:(1)划定评估时间表和路线图;(2)设立影响评估小组和影响评估委员会;(3)向利益相关者广泛采集信息;(4)进行影响评估分析;(5)完成评估报告。为保证评估兼具及时性、中立性和客观性,可考虑分层的评估主体架构:国家早期预警部门适时发起技术影响评估和组建评估小组;再由立法机关或国务院整合各方力量,设立跨领域、跨部门的影响评估委员会。

(三)人工智能立法的“实践性审查”

当评估报告显示LLM业已产生现实且显著影响的前提下,立法者得以开展实践性审查。

软法在人工智能领域行之有年。2022年,新加坡推出了全球首个人工智能测试框架和工具包国际试点。2023年,美国出台《人工智能风险管理框架》,多家领先企业亦在政府组织下就标准制定和测试积极签署自愿承诺,以期确保人工智能安全、可靠和可信。英国的《支持创新的人工智能监管方法》旨在利用实用指南、风险评估模板和监管沙盒,建构一个清晰的、有利于创新的监管环境。2025年,日本在《实施人工智能原则的治理指南》的基础上发布《推进人工智能相关技术研究开发及利用法》,坚持依凭私营部门的自觉行动和自我监管的软法进路。随着《新一代人工智能伦理规范》《生成式人工智能服务安全基本要求》等相继出台,我国对人工智能的软法监管也不遑人后。

鉴于软法具有塑造行为规范、引导市场预期的功能,其被视为化解人工智能步调难题的重要方法。(1)软法的灵活性、适应性和持续更新的特征,得以保持与技术同步并及时回应风险;(2)软法制定和实施的透明性,提升了执行效率;(3)经由可信第三方机构的认证和审计,社会公众的信任得以建立;(4)软法与国家法的疏离,弥补了国内法在跨域适用上的局限,有效应对人工智能风险的全球性。但我们也不能高估软法的实效。对全球634 个人工智能软法治理项目的研究发现,由于缺乏可信的执行机制和正当性认知,三分之二的项目无法实现预期目标。而在我国,标准组织的半政府性质导致协商不足,加剧了软法的共识性危机。更重要的是,软法不能设定明确义务用以问责和救济,从而无法有效保护个体权益。事实上,当事人之所以会遵从约束力较弱的软法,恰是因为它在国家的阴影下制定。职是之故,硬法和软法如何协同,成为实践性审查的最后一步。

硬法绝非软法的替代,而是对软法的完善。循此,硬法可两面发力:(1)增加软法的执行性。作为自我监管机制,软法实效来自各方的认同。硬法应通过程序的法律保障,防范私主体或行政机关滥用支配性力量,推动利益相关方平等参与、自由商讨下形成软法的公共善。其次,硬法可以为软法实施的制度化提供支持。如欲转变为有约束的社会规范,软法必须经过规范内容和规范组织的“双重制度化”。通过强制分配人工智能伦理委员会、外部监管机构、第三方评估和认证组织、企业合规负责人的角色,硬法促使相关组织在内部培训、流程设计、技术研发中承担软法宣贯工作,进而通过行业认证、最佳实践、合规声明、专家评价、尽职免责、声誉处罚等工具实现激励相容。最后,硬法可以吸纳软法术语和原则,参照援引软法规则,架设软法先导、硬法后盾的衔接管道。(2)弥补软法的救济性。无法为受侵害的当事人提供救济是软法最大的软肋。鉴于LLM可能引发人机交互风险、恶意使用风险以及歧视、仇恨言论和虚假信息风险,硬法应在个体赋权的基础上,综合考量技术标准、行为守则、伦理审查程序等软法,设定开发者、提供者履行合理的注意义务,利用侵权规则保护相关方免受侵害。

(四)人工智能立法的“规范性审查”

在事实性审查和实践性审查之后,对LLM的规范性审查就成为最后的作业。

回顾技术与法律的互动历史,当新技术挑战旧规则时,通过目的解释和利益衡量方法突破狭义的文义解释,是法律人最习以为常的因应。在法律解释上,能否沿用旧法的第一步审查正是“相同问题同等对待,不同问题区分对待”的类推适用方法。鉴于新技术并不在既有法条的语义射程之内,类推并非基于演绎推理的概念涵摄,而是将其视为寻找最佳法律解释的过程,即通过三步在体系内确定具有融贯性的法律解释:(1)明确规范对象和新技术的相似处;(2)阐述相似处的关联性和重要性理据;(3)从立法意旨出发在复数的法律判断中进行比较和选择。需要说明的是,新技术往往是各种旧技术的新组合。循此,将多个旧法规范加以变形和重组,以化解新法律的挑战就成为可行的选择。以LLM为例,作为以数据处理为核心架构,依靠自我注意机制的深度学习模型并最终生成文本、图像的技术,在纵向上看关涉数据安全、个人信息保护、算法治理、信息内容管制等传统议题,不妨援引相应的特别法规范;在横向上看关涉隐私权、版权保护和不正当竞争行为防范,仍可立足《中华人民共和国民法典》(以下简称《民法典》)等一般性法规范,经由扩张或缩限解释而适用。

然而,既有规则均聚焦于LLM的安全问题,对“人工智能健康发展立法”的政策导向回应不足。针对性地修法由此成为第二步审查的合理结果。例如,高质量数据是LLM开发和迭代的基础,从设计、训练、评测、仿真到整个算法更新迭代的全生命周期,都需要持续不断的结构化数据输入。但与此同时,林林总总的数据合规刚性规制不但是数据汇聚的障碍,而且大幅限制输入的数据源,可能有损于数据的客观性、多样性、公平性。为此,有必要在《个人信息保护法》第13条下引入模型训练中个人信息合理使用条款,在《中华人民共和国著作权法》第24条下增设模型训练中版权作品合理使用条款。再如,LLM缺乏对人类知识的真实理解,其输出是在多个备选答案中随机抽取的概率统计结果,信息错误和幻觉在所难免,在判断侵权责任和行政责任时,可拓展《民法典》第1195条的避风港制度,确立LLM的“通知—删除”规则,将服务提供者在接到权利人通知时是否采取必要措施,作为责任成立的基础,限制泛化的信息内容安全责任。

到了第三步审查,其结果已昭然若揭。考虑到人工智能技术和产业的现状,急用先行的“小快灵”立法是快速响应LLM的立法选择,《生成式人工智能服务管理暂行办法》即是典型例证。但在包容审慎2.0范式下,这一敏捷的立法进路必须完成敏捷法治的脱胎换骨。其一,尊重规范体系。任何立法都不是在白纸上作画,而在错综复杂的法律环境下建造。如何协调在先的法律制度,强化立法的系统性和协同性,是LLM立法的成败关键。就此论之,欧盟《人工智能法》可谓前车之鉴。作为一种横向立法,其与相关法律犬牙差互,形成了错综复杂的法律迷宫,徒增合规成本和交易成本。其二,预防未来陷阱。以往经验表明:一旦一项法规生效,由于沉没成本效应、路径依赖原理、责任承担顾虑,往往倾向于一直实施并保持不变,笔者称其为“法律的惯性定律”。为避免前期的碎片化立法在后期尾大不掉成为创新障碍,有必要在立法伊始就采取“模块化”立法。针对个别化问题固然需要量身定制式的“个别设计模块”,但更重要的是坚持嵌入整体设计模块,通过分阶段、分步骤地制定子模块,最终实现兼容与开放并存、统分结合的人工智能法律体系。其三,强制规范与时俱进。敏捷治理的优势并不是快速,毋宁是适应性,其成功的关键系于在“探索—反馈—修订”的循环过程中的动态调优。因此,专门立法的生效就意味着未来的修改和废止,这就是“暂行办法”之真意。一方面,暂行意味着临时性,其在技术发展的中期提供了试验性的监管环境,为政策的调整和完善提供了实践依据。另一方面,暂行要求通过日落条款为法律设定有效期,使任何一方都不可能坚持现状,从而为各方塑造不断变化的预期。为此,立法者不得不定期重新评估其必要性、有效性以及意料以外的结果,对发现的重要缺陷或新问题,采取快速修订程序加以修正,否则该法律因过期而终止。

四、结语

“我们的法律监管框架建立在邮件、纸张、文字的基础上,而新的世界秩序则建立在24/7全天候无休止的比特和字节之上,我们需要以某种方式平衡这两个世界。”这句话生动揭示出当代法学的核心挑战:法律和技术如何同步演化?传统观点多持有法律中心主义立场,片面强调法律对技术的规训,忽略了技术对法律的塑造和法律的自我证立。本文试图在被称为人类最后一项技术发明——人工智能的背景下,揭示技术与法的发展时序;呼吁一种摒弃幻想、回归证据,拒绝恐惧、重拾理性,尊重体系、循序渐进的科学精神。我们深信,技术永不止步,而法治理想长存。

    进入专题: 包容审慎   科林格里奇困境   人工智能  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/173998.html
文章来源:本文转自《行政法学研究》2026年第2期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统