孙志伟:从技术竞逐到“智能公域”:人工智能全球治理的范式转向

选择字号:   本文共阅读 52 次 更新时间:2026-02-02 23:28

进入专题: 人工智能   全球治理   公地悲剧   范式转向  

孙志伟  

内容摘要人工智能全球治理的本质逻辑对传统公域理论构成了根本性挑战。传统公域理论的讨论大多聚焦于竞争性稀缺资源、相对平等的权力结构以及清晰稳定的系统边界。而人工智能中的算法与数据资源具有复合特性且能衍生出新型的能动性权力,其治理结构呈现出由少数大国与科技巨头主导的态势,其治理体系的系统边界则处于快速的动态演化之中。这一“范畴误置”削弱了传统理论的解释力,更在实践中直接催生了以规则壁垒和生态垄断为特征的技术竞逐。面对这一困境,“智能公域”的范式转向致力于打破技术垄断与规则壁垒,将全球南方的参与能力、话语提升和技术发展纳入核心议程;通过推动形成包容制衡的权力格局、功能性的共生合作与敏捷的适应性学习,以期实现对人工智能发展和扩散的有效治理。这一转向为解决当前治理碎片化问题、构建更具包容性与韧性的全球技术秩序奠定了新的逻辑基础,也将持续影响全球人工智能治理的演进方向。

关键词人工智能治理 公地悲剧 范式转向 智能公域

一、问题的提出:技术竞逐与人工智能全球治理的碎片化

人工智能技术的迅猛发展正以前所未有的深度和广度重塑国际权力格局与全球治理秩序。与技术发展形成鲜明对比的是,人工智能全球治理体系的发展进程却明显滞后,呈现出日益显著的碎片化特征。这一现象主要是源于国际社会在缺乏有效顶层设计的情况下,各主要行为体基于自身利益与安全考量,对新兴的人工智能治理场域进行分割和争夺。该过程反映了传统现实主义逻辑和治理范式同新兴技术生态之间的根本性张力。

从体系层面观察,全球人工智能场域呈现出“多中心化、竞合并存”的复杂图景。一方面,国际社会缺乏一个具有普遍权威的全球性机构来制定并落实统一的人工智能治理规则。联合国等传统多边机构在技术标准制定和伦理规范约束方面力有未逮。另一方面,主权国家、跨国公司、技术专家等多元行为体,普遍试图构建满足自身利益需求的规则体系。不同行为体之间竞合并存的复杂图景,使得人工智能治理在规范生成、标准确立与制度构建等维度陷入一定困境。

既往研究普遍关注到了人工智能的快速发展为全球治理带来的新挑战。在技术发展的视角下,学者们普遍认为人工智能的发展能够为经济治理带来增益,但同时也存在着“马太效应”等不确定性。面对技术发展对全球经济和政治格局带来的挑战,部分研究聚焦于不同区域在治理体系上的异同与联系,内含治理“多中心化”的研究隐喻。有鉴于此,国内外学者大多试图提出一项囊括多主体的多边主义治理议程,并在此基础上讨论其合法性基础。尽管一些学者已关注到治理碎片化问题,但此类研究并未涉及造成上述态势的逻辑起点,因而也无法对治理的具体需求进行切实有效回应。

碎片化问题的持续加剧,反映了一个根本性的认知困境——国际社会在理解人工智能治理时,仍然不自觉地将其视为传统的公共资源领域,试图沿用既有的公域治理框架,却忽视了这一新兴技术领域对传统治理范式的系统性挑战。具体来看,相关行为体将人工智能治理简单归类为与公海、大气层等类似的传统公域,尝试通过建立排他性规则、划分势力范围等来加以应对。然而,传统公域的认知框架与人工智能的技术现实之间存在显著不同,形成“范畴误置”的问题。这促使我们有必要重新审视一些关键问题,即人工智能在何种意义上可以被理解为公域?传统公域理论在人工智能时代的解释力如何?人工智能的特殊性是否会造就有别于传统公域的新型场域?对此类问题的理性探讨,将为国际社会理解并突破当前全球人工智能治理的碎片化现状提供重要的理论支点,也有助于学界对公域理论适用性进行更深层次的思考和探索。

二、公域理论的演进及其在人工智能治理中的解释力边界

将全球人工智能治理简单类比为传统公域问题的认知逻辑,虽然在表面上具有一定的自洽性,但是从根本上模糊了治理问题的本质以及技术的特征,存在简单化的研究取向。要突破当前全球人工智能治理的碎片化困境,必须首先回归理论源头,对主导性的公域理论框架进行溯源分析。传统公域理论在人工智能领域的解释力存在一定局限。如何超越传统公域理论的认知局限,为构建更为契合的治理范式探寻新的理论基础,是当前学界亟待思考的重要问题。

(一)理论起源:从“公地悲剧”到自主治理的范式突破

传统公域理论的思想源流,最早可追溯至“公地悲剧”(Tragedy of the Commons)模型。该模型由加勒特·哈丁(Garrett Hardin)于1968年提出,为理解公共资源的治理困境提供了经典的分析框架。其核心命题在于分析了个体理性与集体理性之间的根本性冲突。模型将场景具象化为,在一片向所有人开放的公共牧场中,每个理性的牧羊人为了追求个人利益最大化,都会选择持续增加放牧数量,最终却会使得牧场因过度放牧而退化。这一“收益私有化、成本社会化”的牧场机制鲜明地揭示了公共资源治理的内在困境,更深刻指出在缺乏有效制度约束的情形下,个体追求利益最大化的理性选择将不可避免地导致集体层面的非理性结局。基于此,哈丁提出了“国家管制”或“资源私有化”的解决方式,主张通过强有力的中央权威干预,或进行清晰的产权界定,尽力避免“公地悲剧”的发生。

然而,埃莉诺·奥斯特罗姆(Elinor Ostrom)对此持有不同观点。她通过对全球数百个公共资源治理案例的实证研究,对哈丁的公地模型提出了质疑和修正。奥斯特罗姆提出了“公地池塘资源”(Common-pool Resource)的概念,将分析对象明确限定为具有竞争性但难以排他的资源系统。她根据长期存续的成功治理案例,进一步总结出公地可以自主治理的特征。在她看来,清晰界定边界明确了治理的物理边界和人员范围;收益与成本的对等原则可以确保治理规则的正当性;集体选择的安排保障了规则制定的民主性监督与分级制裁,使其得以形成适合规则执行的保障机制;冲突解决机制则为矛盾化解提供了基本的机制途径。奥斯特罗姆的贡献在于,她将公地治理的分析焦点从传统的“政府与市场”的二元对立,转向多中心、多层次的制度设计,为揭示复杂系统中的治理问题提供了新的分析视角。

值得注意的是,尽管哈丁与奥斯特罗姆在治理举措上存在显著差异,但二者却共享着若干关键的理论前提与适用范围。两大公地模型都建立在三个相互关联的基本预设之上。其一,公地资源具有明显的零和性,一方对资源的使用将会直接减损其他方可获得的资源量。其二,参与治理的行为体在权力、信息、能力等方面大致对等,因而具备进行有效协商的理想场域。其三,公地的边界清晰且保持相对稳定的状态。就其治理举措的差异而言,哈丁所设想的解决方案,其有效性依赖于一个中央权威或普遍接受的产权共识。由此,资源边界、有效制定分配原则才能被清晰界定并获得各方认可,规则的执行也才能得到多方保障。与之相对,奥斯特罗姆则倡导基于自主协商的治理模式。其理想运作的前提在于,相关行为体间存在一定的相对对称的谈判能力、相互制衡的监督机制和大致对等的社会资本。换言之,奥斯特罗姆的公地治理模型更需要建立在一种相对公开、信息充裕的博弈环境之下。

简言之,传统的公地模型在解释近海渔业管理、应对气候变化、农村治理等公共资源治理时展现出强大的解释力。此类公共资源符合该理论的基本预设,即资源系统具有明确的地理或功能边界,使用者群体的规模有限、成员身份相对固定且权力结构相对均衡。尽管上述模型在人工智能治理中未必完全适用,但恰恰为界定其理论边界提供了参照,有助于我们明确相关理论在人工智能治理中的解释力边界。

(二)“范畴误置”:传统公域理论在人工智能治理中的现实映射

传统的公地模型在解释公共资源治理时拥有强大的解释力,然而当我们将这一理论框架直接应用于人工智能治理领域时,其基本预设与经验现实之间的张力便开始显现。由此,人工智能治理的碎片化现状也具有了相应的理论原因。

首先,哈丁的“国家管制”方案在人工智能实践中面临主权边界与技术无界性的根本矛盾。当下全球人工智能治理体系中,以欧盟的《人工智能法案》(Artificial Intelligence Act)为代表的国别模式意图建立起统一的监管体系。该方案基于四层级的风险分类框架,对人工智能系统展开全生命周期管理,涵盖从“不可接受风险”(Non-acceptable risk)的全面禁止到“最小风险”(Minimal risk)的轻度监管。此种管理路径体现了哈丁描绘的中央权威治理逻辑。其深层预设在于,唯有通过强有力的统一规则,才能有效避免人工智能领域中出现伦理失序和安全危机的现象。与欧盟类似,美国、东盟等人工智能发展行为体也在不断框定自身主权范围内的人工智能治理模式。不同模式之间的规则冲突也时有出现。然而这种基于主权边界的规制模式与人工智能技术固有的全球性、流动性和跨界性特征明显对立。各主要行为体竞相谋求扩大自身规则的影响力,极易导致全球人工智能市场被不同规则体系所割裂,进而产生更深层次的标准冲突与合规困境。

其次,以科技巨头为代表的数字企业的平台垄断,反映了哈丁“私有化”逻辑在人工智能时代的异化与变形。技术领先企业通过搭建“技术体系—平台生态—商业模式”的三位一体架构,实现了对关键算法、海量数据和算力资源的技术性“圈占”。在技术体系层面,TensorFlow、PyTorch等深度学习框架主导了技术标准与开发者生态,确立了事实上的行业垄断;在平台服务层面,云计算服务和基于应用程序编程接口的经济形式持续强化用户对科技巨头的依赖,构成了科技巨头对用户市场的实质性支配;在商业模式层面,数据网络效应和企业的算法优势创造了难以逾越的技术壁垒,巩固了生态垄断的商业实质。科技领先企业的技术性“圈占”行为与哈丁的“私有化”方案存在相似之处,即通过明晰产权以促进场域内部的资源优化配置,但这一举措也引发了更深层次的治理困境。技术权力的过度集中导致创新生态被垄断压制,算法黑箱的出现也削弱了社会公众监督的有效性。可以说,全球数字鸿沟也在科技领先企业的市场扩张中持续扩大。

再次,全球人工智能治理领域的碎片化进一步展现出传统公域治理逻辑在人工智能时代的系统性困境。奥斯特罗姆模式所倡导的多中心自主治理理论难以有效应对当前极端不对称且颇具竞争色彩的权力结构。当下,联合国人工智能治理高级别咨询机构(High-level Advisory Body on Artificial Intelligence)、经合组织人工智能政策观察站(OECD Artificial Intelligence Policy Observatory)等国际平台积极推动多方对话,试图构建基于共识的治理框架,但相关努力并不尽如人意。从制度供给维度看,人工智能治理缺乏清晰的功能性和地域性边界,难以形成奥斯特罗姆强调的“公地池塘资源”的边界。从可信承诺维度看,在技术快速迭代和技术赋能战略竞争态势不断趋向紧张的背景下,各行为体受到利益扩张的预期影响,越发难以建立稳定的互信机制。从相互监督维度看,算法黑箱和技术鸿沟的出现使得有效的同行监督难以真正落实。更为根本的是,奥斯特罗姆的多中心自主治理理论虽然预设了权力结构相对对称的理想环境,但这与当前的人工智能领域存在较大差距。科技领先企业和技术领先国家凭借其技术优势和资本实力占据主导地位,其他国家则更多将其市场规模作为博弈筹码,换取更加多元的技术来源。权力态势的结构性失衡使得基于平等协商的自主治理模式难以有效运作。各类治理平台的探讨极易沦为话语权竞争的角力场,更难以形成实质性的问题解决机制。

当前全球人工智能治理体系中的诸多制度设计,在本质上仍然套用了传统公域治理的理论模型和思路,构成了“范畴误置”的认知根源。传统公域理论建立在资源的竞争性、系统的相对封闭性、行为体的相对平等性等假设的基础上,而人工智能治理却面临着技术快速迭代、系统边界模糊、权力结构不对等的现实新挑战。若将适用于传统公共资源的理论工具简单移植到人工智能全球治理领域,不仅难以产生预期效果,更可能因理论工具与治理对象之间的结构性错位而加剧现有的碎片化困境。

三、人工智能技术的独特性及其对传统公域理论的拓展

人工智能技术的独特属性正在重塑全球人工智能治理的理论根基。传统公域理论得以成立的核心预设在人工智能时代面临着理论与现实的外在张力。理论层面的失范和不适配性,既解释了现有治理模式的失效原因,更指向了当下对传统公域理论进行内涵拓展与范式重构的迫切需求。因此,厘清人工智能技术的独特性,针对公域理论的不适配之处进行深入辨析,将为缓解当前的治理困境提供必要的解释框架。

(一)资源属性的根本重构

人工智能技术的发展推动着资源属性的根本性重构。传统的公地模型强调单一资源是稀缺且竞争性的,而数据与算法模型展现出与传统公共资源截然不同的特性,对传统公域理论的治理指向构成了首要挑战。

价值贬损的有限性与数据资源的网络效应颠覆了单一资源的稀缺性假设,数据资源的属性相较其他资源存在明显不同。作为人工智能时代的关键性生产要素,数据呈现出更为复杂的竞争性。具体来说,单个数据资源可以同时被多个主体使用而不会产生损耗,其使用过程出现的价值贬损相对有限。同时,数据资源也具有显著的网络效应,即随着可供使用的数据规模扩大和适用范围的扩展,数据本身的价值属性呈现指数级增长,在模型训练中形成“使用越多、越智能且越有价值”的正向循环。由此,不同行为体之间围绕数据资源的竞争博弈更为复杂。一方面,数据价值贬损的有限性在一定程度上降低了不同行为体的竞争烈度,使之更为关注数据资源的充分利用。另一方面,数据资源在模型训练中的基础性地位,导致各行为体进一步拓展优质数据、保护己方资源的倾向愈发明显,这在一定程度上也为治理带来竞争色彩。两种特性共同塑造了数据资源的价值增值模式,造成其与传统语境下的公共资源竞争存在区别。后者遵循边际效益递减规律,而数据资源在该方面的递减态势并不明显,这为不同行为体的竞合互动带来变数。

数据资源的属性转变也带来了风险形态的变化。在人工智能时代,“公地悲剧”的表现形式不再是传统意义上的资源过度消耗,而是演变为行为体不得不应对数据偏见、算法失实和信息生态恶化等新型风险样态,同时保障自身的数据利益不被侵蚀。在数据资源的存量治理一侧,核心风险从防范资源的“逐渐枯竭”转向防范“遭受污染”与“价值扭曲”。风险形态的变革具有更强的隐蔽性特征。带有偏见的数据输入会导致算法输出的系统性偏差,并伴随算法的部署应用不断放大,最终形成结构性的价值扭曲。以部分印尼企业采用的人工智能人事管理系统为例,在招聘算法中使用带有历史偏见的数据进行训练,将导致算法在简历筛选过程中对特定群体产生歧视。此类风险在初期往往难以被迅速察觉,更会通过算法的自动化决策过程被不断强化,最终形成具有路径依赖的恶性循环。在数据资源的增量流动一侧,如何保障涉及自身重大利益的数据信息不被其他方面窃取,成为亟待应对的重要议题。进一步来看,优质数据普遍蕴含着特定行为体的隐私信息,若此类信息被其他行为体乃至竞争对手掌握,那么行为体自身的利益必然日益受到侵害。以军事安全为例,俄军第五集团军司令罗曼·库图佐夫(Roman Kutuzov)在2022年6月5日执行军事任务时,因通讯数据遭到追踪和定位而遭受打击。因此,治理体系中的行为体必然需要围绕数据的流动作出回应。

风险形态的变化必然进一步要求治理逻辑相应进行根本性重构。在治理实践中,现行方案试图建立排他性权力来解决公共资源问题,体现在通过产权确定、配额分配、限制获取为核心的治理逻辑来细化行为体的权利与义务。欧盟推出的《人工智能法案》和《通用数据保护条例》(General Data Protection Regulation)即为典型例证。但人工智能时代的资源价值,恰恰在于开放流通和更充分地多元使用。例如,在数据治理领域,简单采取数据本地化存储或严格限制数据跨境流动的措施,虽然可以在表面上保障行为体的数据主权,但极易阻碍数据要素的价值增值,抑制人工智能产业的创新发展。

(二)权力结构的进一步重组

以奥斯特罗姆自主治理理论为代表的传统治理模式,其有效运作的前提在于,参与主体在理想状态下保持相对均衡的权力格局,但仍然存在权力不对称与资源不均的现实困境。然而,人工智能时代的技术特征引发了全球权力结构的重组,权力资源也以前所未有的速度流向并集中于少数巨头或领先国家,使得传统治理的逻辑趋于瓦解。

技术赋能催生了新型的“生成性权力”。此类权力不再局限于对既有资源的分配和控制,而是透过算法决策、数据分析与预测建模等途径,将权力影响深入渗透进社会发展之中。“生成性权力”不再是一种在国家间施加影响的工具,更成为一种能够塑造社会认知、引导政治话语的能动性力量。社交媒体的推荐算法可以契合用户的实时偏好,更能够系统性地建构学习环境,深刻影响着公共议程乃至政治话语走向。伴随“生成性权力”的出现与拓展,人工智能系统超越了传统治理工具的中立性定位,嬗变为内嵌特定价值判断、负有传导功能的权力载体,也进一步动摇了传统公域理论中资源客体与治理主体之间的明确界限。

技术垄断导致行为体获得了新的“制度性权力”,深刻影响着全球人工智能治理的规则生成。领先国家或科技巨头正将其技术优势转化为制度创设能力,即“制度性权力”。少数技术领先行为体得以借助技术标准的先行,系统性地塑造全球治理的技术基底。以美国半导体联盟(Semiconductors in American Coalition)为例,其主要成员通过共同制定芯片设计标准和制造工艺规范,主导了行业技术路线图,并致力于将这些技术标准转化为具有广泛约束力的产业规范。上述过程展现出部分行为体如何利用技术优势打造“制度性权力”,使得传统公域治理中的规则制定过程发生了根本性转变。技术领先行为体既掌握核心技术,又能够通过参与和主导各类标准制定组织,令规则制定权日益向领先行为体集中;而技术后发者则被迫在他人设定的制度框架内寻求跟进,导致二者间的制度性鸿沟日益固化且难以逾越。

“生成性权力”与“制度性权力”诱发了人工智能治理领域技术领先行为体的结构性支配,导致传统自主治理范式面临失效。国际标准化组织(International Organization for Standardization)的标准制定过程虽保持形式上的开放透明,但实质决策权却高度集中于少数技术垄断企业。在人工智能管理系统标准(ISO/IEC 42001)的制定过程中,来自谷歌(Google)、微软(Microsoft)、国际商业机器公司(IBM)等企业的代表占据了工作组超过60%的关键职位,并且直接影响到数据治理和风险管理等核心章节的起草工作。权力结构的重组使得传统治理理论中的平等协商前提失去现实基础,已使全球人工智能治理从平等博弈转向结构性支配,最终造成传统公域理论的平等前提趋于瓦解。

(三)系统环境的维度突破

传统公域模型建立在系统环境相对稳定的基本假设之上,而人工智能技术的兴起和迭代正在突破传统模型的既定边界,展现出持续演进、动态变化的复杂特征。

一方面,技术迭代的加速度特征引发了规则制定与技术演进之间的结构性张力。人工智能的技术发展遵循指数级的发展规律,而传统立法程序通常需要3至5年方可完成从提案到实施的全过程。技术发展和规则制定的错位导致治理规则极易陷入“科林格里奇困境”(Collingridge Dilemma),即技术发展早期难以预见社会影响,待问题暴露、显现时却遭遇技术体系已趋于固化的窘境。以深度伪造(Deepfake)技术的发展和治理为例,该技术在2017年尚处于实验室阶段,但在随后24个月内就实现了技术成熟度的大幅度提升,相伴而生的被滥用案例也从2018年的不足1万例激增至2020年的逾500万例。与之形成对比的是,美国各州议会尽管在此期间陆续提出相关立法动议,但直到2025年4月,美国国会才通过了《通过冻结网站和网络技术深度伪造工具解决已知剥削问题法案》(Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites andNetworks Act),(又称《删除法案》,Take it Down Act)。上述过程凸显了传统治理逻辑和立法模式在应对技术迭代加速度时的力不从心。

另一方面,治理对象的多层嵌套导致系统边界难以清晰界定。人工智能系统呈现出“数据—算法—平台—应用”的多层架构体系,各层级之间存在着复杂的交互与反馈机制。例如,针对自动驾驶系统的治理涉及数据采集规范、算法决策机制等技术问题,还延伸至车辆安全标准、交通管理制度、保险责任认定等社会层面。不同层级之间的治理对象互相嵌套、不同社会系统内的行为主体相互影响,使得基于清晰边界假定的传统治理方案陷入一定的操作困境。复杂的交互、反馈机制也使得传统公域理论所依赖的权责划分难以真正明确。传统的医疗责任建立在相对清晰的因果链之上,而人工智能系统的自主决策特性则使得这一基础受到极大挑战。当诊断辅助系统基于深度学习算法给出错误建议并导致医疗事故时,其责任链条可能涉及算法开发者、数据提供者、医疗机构、临床医生等多个主体,形成难以清晰划分的责任网络。据《英国医学杂志》(BMJ Oncology)于2021年发布的调查报告指出,IBM Watson for Oncology系统因训练数据等问题,所提供的癌症治疗建议与主流临床指南存在显著差异,引发了医学界对其安全性与可靠性的广泛担忧。此类人工智能技术与医疗系统的深度捆绑正是当前人工智能技术赋能社会发展的集中体现,也凸显了传统责任框架的不适配。

(四)“智能公域”对传统公域理论的拓展

基于前述人工智能技术在资源属性、权力结构与系统环境三个维度上对治理需求的根本性重构,传统公域理论已难以支撑起更加行之有效的治理框架。为此,本文提出“智能公域”这一概念,旨在勾勒出一个以数据、算法与算力为核心要素,具有竞争复合性、权力内生性与动态演化性的新型公共领域。“智能公域”并非对传统公域的简单数字摹写,而是一个能够更加符合人工智能时代技术特质、满足技术引发的治理需求变动、具有自我演进能力的复杂“社会—技术”系统。

“智能公域”是人工智能技术演进与全球治理现实需求深度融合的自然延伸,也是技术政治学与全球治理议题相互融合的新范式。伴随人工智能的持续迭代与自我升级,其在全球范围内的应用日益深化,这不仅对治理机制提出了新的要求,更呼唤治理模式的相应演进。“智能公域”的模式特征在于开放性、动态性和演进性。一是开放性,主要体现在资源要素的开放层面。“智能公域”需要回应人工智能时代复合且动态的作用对象,同时考虑智能体在自我迭代过程中生成的新内容。在使用过程中,数据资源的价值与数量不断提升,使之有别于传统公域的存量分配与竞争。二是动态性,指向治理对技术及场景演进的适应能力。人工智能在技术路线与应用场景上的快速变迁,催生出新的治理挑战,这要求治理机制能够灵敏响应、实时调整。治理机制需要通过制度化的反馈与更新循环,以更好地应对技术不确定性所带来的各种风险。三是演进性,即侧重于价值伦理的有序发展。人工智能在技术和场景上的不断演进正在给其治理带来新的挑战,因此价值伦理必须关注技术的前景及其广度,使伦理原则与规范能够随着技术认知的深化和社会共识的累积而实现有序调适。

与传统公域相比,“智能公域”在治理逻辑上具有根本性差异。在治理目标层面,传统公域的核心特征在于单一资源的稀缺性。在针对渔业资源枯竭等公地悲剧时,其治理目标多侧重于控制存量分配与严格使用限制。与此不同,“智能公域”的核心特征则源自数据的复合竞争及其衍生的“系统污染”与“价值扭曲”,其治理目标更侧重于保证质量与价值对齐。在治理架构层面,传统公域的理想运作建立在行为体之间权力、信息与能力相对对等的理论预设之上。然而,现实中的公域治理往往面临权力不对称与资源不均的结构性困境,使得平等协商难以完全实现。“智能公域”强调正视由技术垄断所形成的权力不对称现状,更加重视技术弱势方,致力于构建更具包容性与制衡性的治理架构。在治理边界层面,传统公域依赖相对清晰和稳定的物理边界。“智能公域”则超越了固定的物理疆界,其边界动态发展并随着技术迭代、数据流动与算法应用而持续演化。

综上所述,人工智能技术的根本特性构成了对传统公域理论的系统性挑战。在理论层面,“智能公域”突破传统公域理论的经典预设,为解析和应对人工智能时代的技术治理难题提供了更为契合的分析框架。在逻辑层面,“智能公域”从技能生态系统的整体性、关联性出发思考治理问题,重构治理体系的认知基础。当前,治理碎片化的现实暴露了传统公域理论在人工智能时代的解释力局限,突破将人工智能简单类比为传统公域或公共资源的认知框架,建立起能够回应技术独特性的新型治理范式,方能从实践层面有效破解当前全球人工智能治理的碎片化问题。

四、迈向“智能公域”:人工智能治理的范式重构与路径探索

面对人工智能的快速发展及其带来的治理赤字,构建中国特色人工智能治理体系是掌握人工智能治理主动权的必然要求。在范式层面,“智能公域”使得人工智能治理得以从传统的资源分配模型,转向更具包容性与适应性的生态治理逻辑。在路径层面,中国提出的《全球人工智能治理倡议》和《人工智能全球治理行动计划》旨在推动构建开放、公正的人工智能治理机制,促进技术造福人类。在国际社会层面,东盟和海合会在人工智能治理上的相关实践在一定程度上呼应了“智能公域”的本质要求。

(一)系统维度:实现从资源分配到生态系统的转变

区别于传统公域理论将治理目标设定为避免资源枯竭、防范“公地悲剧”的场景预设,“智能公域”治理更需实现“数字生态系统健康”的新范式。究其原因,人工智能技术生态的核心风险不再是有限实体资源的存量争夺,而是植根于系统演变及其引发的全局性质变风险。同时,“智能公域”并非否定传统公域治理范式,而是对其进行整合式重构。具体而言,新范式的治理需求体现在三个层面。

在治理目标层面,“智能公域”的治理取向需要维护数字生态系统的整体健康。当前,人工智能系统中的偏见与歧视日益成为亟待解决的问题。《科学》曾刊文指出,部分医疗算法被发现在美国医疗体系中对黑人患者存在系统性歧视,导致其获得的医疗资源远低于病情相似的白人患者。单纯关注资源供给已经无法应对系统的内部偏见与结构风险。“智能公域”的治理重点应从确保资源存量的可持续性,扩展到数字系统的完整性、稳定性和合规性。它可继承传统公域中关于利益外部性的基本理念,但将治理重点从“存量限制”转向“质量维护”。也就是说,在生成式人工智能的治理中,建立起涵盖发展水平、治理环境与治理工具等多元指标的评估体系,以系统化方式防范技术应用中的伦理失范问题。遵循这一治理逻辑,中国组织编制了“全球人工智能治理评估指数”(AI Governance International Evaluation Index, AGILE),为全球提供了一个更综合、可量化、可比较的人工智能评估框架,由此打破了发达国家垄断特定治理标准的局面。

在治理对象层面,需要实现从静态的资源管理到对技术影响力动态规制的转变。目前,视频网站、购物软件等系统的推荐算法能够通过“信息茧房”(Information Cocoons)效应深刻影响数据用户的认知结构和观念的形成。这种由算法架构产生的技术影响力产生了超越传统资源的渗透能力,理应成为重点关注的对象。在治理实践中,中国要求大型在线平台公开其推荐算法的主要参数、强化对人工智能的开源管理,正是对这种技术权力进行规制的初步尝试。因此,将治理对象从静态资源扩展至动态的技术权力,反映了“智能公域”治理的本质要求。

在治理逻辑层面,人工智能的全球治理实践需要实现从“排他性划分”到“负责任共生”的转变。传统治理倾向于通过确定产权、权威管制等排他性方式来解决资源冲突,而在“智能公域”的场景中,治理重心应当落脚于构建能够促进多元主体协同发展的生态环境。“智能公域”延续传统治理倾向在严守法律底线与监管框架稳定性上的偏好,但允许在技术更新中开展动态调整,使治理更具适应性与可演进性。近年来,中国在数据与人工智能相关领域的诸多实践,已体现出这一转向思路的可行性与成效。在不同行为体的数据共治方面,贵阳初步探索“个人数据信托”模式,以信托理念将市民、企业和政府纳入治理框架中,以信托机制实现了开放式的数据共享与协作治理。国内的探索为中国在全球层面倡议建立兼顾公平与效率的数据治理机制提供了有益参考,而“智能公域”理念也与全球南方国家的治理实践存在诸多契合之处。中国人工智能产业发展联盟联合科技企业、学术机构等,建立算法测试联盟。通过开展算法、数据测试的测评工作,提高人工智能在金融、医疗等方面的应用,以此构建跨主体、跨场景的协作生态。东盟则强调以原则为导向、通过能力建设与互认机制来协调区域成员的差异。海合会国家推出“国家能力—平台治理”组合,快速把握技术部署节奏与产业化路径,试图在区域内探索统一或协调的规则框架。这些实践表明,通过数据治理委员会、算法测试联盟等新型制度架构,相关人工智能治理机构能够建立技术红利共享与风险分担的有效机制,为全球人工智能治理向共生发展模式转向提供了重要的实践参考。

(二)机制维度:构建符合“智能公域”的新型治理架构

“智能公域”治理机制的创新需要突破传统治理模式的制度瓶颈,构建具有弹性特征与动态适应能力的新型治理架构。这一架构创新体现在权力制衡、功能共生与适应性治理等维度。三者共同构成了“智能公域”治理的制度基石。从实践来看,作为负责任大国,中国应当在构建“智能公域”的治理架构中发挥关键作用,也包括与其他多元行为体的沟通合作和制度对话。

在权力的制衡机制层面,有必要建立超越传统主权国家范畴的多层级治理体系,并对全球南方国家的技术缺憾形成回应。当前,全球人工智能治理领域呈现的“监管多边主义”趋势,在一定程度上回应了多层次治理体系的现实要求,但现有的治理模式大多围绕少数几个技术领先国家和科技巨头展开,难免削弱多边主义的包容性和有效性。针对这一现象,国际社会期待形成对技术权力的制度性约束网络。通过构建政府间组织、专业机构与非政府组织共同参与的协同监督框架,在防范技术权力的过度集中之外,也能通过多元主体的实质性参与增强治理体系的合法性基础。这一策略的前提在于提升全球南方的技术能力和话语权。对此,中国提出了《人工智能能力建设普惠计划》和“人工智能能力建设国际合作之友小组”等方案,力求推动弥合智能鸿沟,保证全球南方国家在技术发展中保持相对平衡。东盟成员国公开表示支持东盟将“应用、治理、合作”理念纳入其区域科技政策与行动计划中。

功能共生机制的构建,则应当基于议题领域的内在特点,形成专业化的治理网络体系。在气候变化、公共卫生等具有全球公共产品特征的领域,建立专门化的国际合作机制能够实现知识共享与技术协同的良性互动。与上述议题相仿,人工智能全球治理同样属于全人类的共同需要,任何单一国家都难以独立承担治理责任。基于功能共生的专业治理模式可以保持各议题领域的治理自主性,又能够通过制度化的协作网络促进整体治理效能的提升,避免“一刀切”治理模式可能带来的制度僵化问题。中国倡议并推动构建的世界人工智能治理组织,正是践行这一理念的代表。该组织遵循联合国宪章和宗旨,致力于协调不同国家与多元主体的利益,将各类国家、专家网络和科技巨头纳入对话框架,推动人工智能发展和治理的普惠性并实现善治,为全球治理提供可靠的公共产品。

适应性治理机制的核心在于确立敏捷治理范式,即通过建立“监测—评估—响应”的循环体系,实现治理原则同技术演进之间的动态耦合。其一,监测环节构成敏捷治理的感知基础。面对具有潜在高风险的人工智能系统,中国政府出台的《生成式人工智能服务管理暂行办法》,要求系统提供者建立日志记录和持续运行监测机制,以实现对潜在风险的事后应对。《东盟数字总体规划2025》也借助区域化的能力测评与培训项目,帮助成员国提升对风险伦理的系统评估能力。其二,评估环节是敏捷治理的分析中枢,负责将监测数据转化为治理知识。目前,各类人工智能评估与测试机构的不断涌现,为不同层次和领域的治理举措拓展评估渠道,有助于政府部门和社会公众对人工智能治理形成清晰的认知。阿联酋等海合会国家建立的“人工智能监管实验室”将评估制度嵌入人工智能的全生命周期,体现了此类国家对评估环节的重视。其三,响应环节体现了敏捷治理的执行能力,其关键在于建立灵活的规则调整机制。例如,中国在制定国家标准的进程中,相关决策咨询方已内置持续维护和更新机制,确保技术标准能够对行业共识和技术迭代及时响应。沙特的人工智能战略采用“动态标准更新”方式,每年根据产业界反馈对治理规范进行微调。总之,全球南方国家的相关理念及其实践也有助于推动人工智能治理议题更趋可靠性和合理性。

(三)价值维度:重塑“智能公域”的规范基础

“智能公域”治理范式的确立,不仅需要系统性的目标转向与机制性的架构创新,也需要以坚实的规范和理念共识作为价值锚点。传统公域治理内嵌的“效率优先”与“形式公平”原则,在应对人工智能的复杂社会技术系统时已显乏力。“智能公域”的治理秩序应当以系统韧性、包容性发展与可持续创新为核心原则,引导全球人工智能治理迈向一个兼具适应性、公正性与前瞻性的秩序格局。

在系统韧性维度,治理体系需要从根本上超越单一的效率或竞争导向,转而构建起抗冲击的数字治理体系。人工智能技术的不确定性使得传统治理在应对不可预见的“黑天鹅”事件时面临失效的风险。基于此,“智能公域”所秉持的治理价值应从效率优先转向韧性优先。其逻辑核心在于承认系统可能面临冲击,确保系统在受到冲击时保持核心功能的稳定,并具备从中学习并适应冲击,甚至在其中实现系统演进。韧性治理要求相关行为体建立多层次、分布式的治理架构,避免少数节点的失效引发系统性崩溃。在具体实践中,各方需要在技术标准制定中保持多元技术路线的竞争与共存,在监管体系中设置熔断机制和学习机制,并在数据治理中建立备份与恢复能力,同时在风险事件中不断学习和进化。

包容性发展维度意在突破形式公平,追求实质性的数字正义。“智能公域”的构建不能仅停留在“允许参与”的表层开放,而是需要搭建起权力与资源再平衡的发展框架,从根本上为相关行为体谋求实质性的数字正义。基于此,国际社会应建立制度化的合作模式以及更合理的赋权机制,确保发展中国家、中小企业、非政府组织等弱势群体在标准制定、规则设计和伦理审查中获得实质性话语权。同时,包容性发展也需要通过技术的有效扩散、知识平台的共享和普惠性的技术转让等方式,帮助弱势行为体缩小日益扩大的数字鸿沟。换言之,包容性发展的核心在于承认差异性,并通过制度设计实现“差异化的公平”,使技术发展的红利能够惠及全球。这一理念在中国提出的《全球人工智能治理倡议》中得到体现。该倡议明确提出“坚持公平包容”与“反对技术壁垒和阵营对抗”,并呼吁“增加发展中国家在全球人工智能治理中的代表性和发言权”,为摆脱治理困境提供了建设性思路。

可持续创新维度旨在平衡发展与责任,以确保技术进步带来可持续的长期效益。在激烈的人工智能技术竞争中,“野蛮生长”的自由主义创新观以及霸权主义的技术观念,一度在发达国家中占据主导地位,但放任式的“野蛮生长”虽然可能带来短期技术突破,但其代价往往是社会伦理的失序、生态环境的透支以及对人类价值的侵蚀。“智能公域”可视作对可持续的创新范式的呼唤。它将社会责任、伦理考量与人类福祉内嵌于技术发展的全过程,从而实现发展效益与可控风险之间的动态平衡。上述逻辑要求建立覆盖技术发展全生命周期的影响评估机制,将环境成本、社会成本纳入创新评价体系。同时,借助监管沙盒、创新基金等政策工具,推动形成负责任的研究与创新文化,使伦理考量真正成为技术研发的内在维度。在《全球人工智能治理倡议》中,中国强调“坚持伦理先行”,并主张建立“测试评估体系”与“风险等级分类”。这一思路恰恰体现了在发展活力与安全保障之间寻求动态平衡的治理智慧。从在国内多地试点推行的监管沙盒,到在国际倡议中主张的“鼓励自主制定行业标准、行为准则”,中国内外并举的治理实践,为在保障安全底线的同时充分释放创新活力,贡献了极具借鉴意义的中国方案。

    语

人工智能技术的快速发展正在深刻重塑全球治理格局,而治理体系的演进却呈现出明显的路径依赖特质。当前全球人工智能治理面临的碎片化困境,其深层症结在于传统治理范式与新兴技术现实之间的结构性错位。这既体现在制度层面,更深植于理论认知、哲学基底之中。现有治理方案将具有非竞争性、权力高度不对称和系统边界动态演化特征的人工智能领域,与传统公共资源治理对象简单类比,本质上构成了一种治理实践的“范畴误置”,反而在一定程度上导致甚至加剧了人工智能治理的碎片化。

要突破这一困境,需要实现从技术竞逐到“智能公域”的治理范式转换,打造具有开放性、动态性的新型治理生态体系。“智能公域”的范式转换,其理论意义在于突破了传统公域理论的解释边界,为理解数字时代的公共资源治理提供了新的视角。在系统目标层面,治理实践的指向需要从防范资源枯竭转向维护数字生态系统健康。在机制建设层面,应构建融合权力制衡、功能共生与适应性治理的复合型制度架构。在价值重塑层面,应确立以系统韧性、包容性发展与可持续创新为核心的规范基础。中国、东盟、海合会三方围绕人工智能的协作,是“智能公域”在跨区域合作上的典型例证,反映出全球南方国家在人工智能治理领域的治理关切和前景共识。

总体而言,人工智能治理涉及技术规制,更关乎人类文明的发展方向。构建一个兼具适应性、包容性与前瞻性的治理体系,需要国际社会超越零和博弈思维、破除技术治理各自为政的思想桎梏,走向“智能公域”的新型合作范式。只有在技术发展与人类价值之间建立动态均衡,才能真正驾驭人工智能技术,引导其服务于全人类的共同福祉和可持续发展。

    进入专题: 人工智能   全球治理   公地悲剧   范式转向  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 国际关系 > 国际关系理论
本文链接:https://www.aisixiang.com/data/172382.html
文章来源:本文转自《国际展望》2026年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统