万方:人工智能国际治理的三重维度

选择字号:   本文共阅读 332 次 更新时间:2026-01-10 13:05

进入专题: 人工智能  

万方  

 

人工智能治理并非孤立的法律议题,而是由技术、伦理与安全等多重要素交织形成的综合性制度体系。从产品责任、伦理价值与国家安全三重维度展开,可揭示出各维度之间由微观到宏观、由个体到整体的逻辑递进关系。产品责任体现了人工智能风险治理的基础层面,其核心在于通过安全标准与法律归责机制确立制度底线;伦理价值进一步拓展治理的规范内涵,在权利保障与社会正当性层面回应技术应用带来的结构性影响;国家安全则标志着人工智能治理从社会规范层面向国家战略层面的延伸,关切已超越个体与市场,指向国家整体安全体系的稳固与长远发展。三者既相互关联,又在层级上相互衔接,共同构成了人工智能国际治理的制度逻辑与价值框架。本文关注的核心问题在于如何在这三重目标维度之间实现制度承接与功能互补,以形成兼具规范性、协调性与可操作性的治理路径。通过这一主线的贯通,本文拟在比较法研究的基础上,构建人工智能国际治理的整体结构,并进一步阐释中国方案的制度价值与理论意涵。

一、人工智能的责任体系为产品责任的逻辑延伸

本文所称的人工智能治理主要指在法律规制体系中通过责任制度、伦理规范与安全机制实现风险控制与公共利益保护的整体制度安排。其中,产品责任是人工智能治理的核心路径之一,体现为将人工智能系统视为特殊产品并通过责任规则约束其安全与可预期性。产品责任的核心是保障消费者及相关主体的人身及财产安全。从这个意义上来说,产品责任对保护个人信息、数据及系统安全的规制目标与人工智能治理的底层性要求完全契合。各国人工智能的责任体系也基本为各自产品责任的逻辑延伸。这一逻辑的延伸不仅体现在对产品的界定标准上,还需要综合考虑主体、归责等产品责任的其他要件的适用性。

(一)产品责任在人工智能领域的实践

在人工智能治理的整体框架下,责任体系构成基本路径,而产品责任则是实现治理目标的核心机制。由于人工智能产品兼具高度复杂性与不可预测性,其潜在风险不仅涉及传统意义的人身、财产安全,还延伸至数据安全、隐私保护、算法歧视等新型权益领域。不同法域在制度设计、责任归属、风险防控等方面形成了各具特色的治理模式。值得注意的是,在传统法律框架中产品责任与服务责任在对象、归责基础及责任构成上具有明确区分。然而,人工智能技术的嵌入性和可更新性模糊了二者界限:算法既可能作为产品的一部分被纳入产品责任,也可能以独立服务的形式承担相应的注意义务。因此,人工智能治理需要在产品责任的结构内吸纳部分服务责任因素,形成一种复合型责任结构。

欧盟的《人工智能法案》(Artificial Intelligence Act)遵循传统路径,根据人工智产品及服务的类型对其进行风险分级规制。其核心思路是将人工智能系统视为具有高度技术含量的产品,依其在特定使用场景中可能引发的危害程度,划分为不可接受风险、高风险、有限风险以及最低风险四个等级,并据此施加相应的合规义务。人工智能作为嵌入式的软件系统,其所引发的风险多与产品设计缺陷、功能不当或信息不对称密切相关,因此适用于以产品安全为核心的传统规范架构。

美国则是强调从透明、公平和问责等消费者视角出发,将人工智能治理的相关规则嵌入到现有消费者保护法律体系之中。美国的消费者保护制度的基本特征为去中心化监管与事后责任制,主要体现在以行业自律性的产品安全标准为治理抓手。只要企业遵循非强制性的安全标准,则在司法实践中可被视为已采取合理行为或尽到了相关的注意义务。此种规制突出权利导向,更强调市场自由与个人责任的适应性。在对金融领域的规制中,人工智能系统被作为服务或产品的新形态,延续了信息披露、误导性陈述与公平交易的传统底层要求。从实践效果来看,非强制性规制手段对系统性技术风险防控较弱,而对标准与合规的高要求又将社会成本在一定程度上转嫁到司法成本之上。

我国当前的人工智能治理方案也与产品责任体系呈现高度相似的结构性特征,两者均以立法与行政规范性文件为总体框架进行指导并辅之以相关的国家标准作为重要参考。例如,《网络安全法》《数据安全法》及《个人信息保护法》分别从不同维度对关键信息基础设施、数据安全和个人信息安全等核心问题作出规制,这在功能上与《产品质量法》《消费者权益保护法》等在传统产品责任领域的效果定位趋同。传统产品责任通过立法界定制造者、销售者、使用者等各环节的安全保障义务,人工智能治理则是通过立法、行政规范和技术标准构建多元的责任框架,从而实现对人工智能生成产品及服务全生命周期的规制。

在人工智能治理领域,尤其面对生成式人工智能技术的快速扩张与潜在风险,单靠立法和标准文件往往难以实现全面、动态的管控,而必须辅之以强有力的行政监管体系。

常态化行政监管在人工智能治理中具有前瞻性和灵活性的制度优势。立法与标准制定往往需要较长周期,而生成式人工智能行业的技术迭代和应用扩散却极为迅速,深度合成、人工智能幻觉等问题常在立法尚未细化前就已形成一定的社会影响。行政监管通过开展专项行动、制定行业指引、发布风险提示等方式,能够快速响应新兴风险、填补制度空白、引导行业调整,在法律与标准未能即时应对时,为社会提供第一道防线,而敏捷治理的理念也能有效减轻趋于僵化的风险规制路径带来的负面影响。

(二)产品责任无法完全适用于人工智能治理

虽然各国目前普遍的实践仍然倾向于延用传统的产品责任体系对人工智能责任进行规制,甚至有些国家直接以传统的消费者保护部门来制订相应的法规,但实际上人工智能领域的问题并非能完全被产品责任体系所覆盖。以传统侵权体系判断人工智能产品及服务是否需要承担法律责任需要首先要对以下问题进行回应:

学界对于人工智能的主体资格问题尚未有定论,那么对于责任认定之难就不言而喻。人工智能的产业链复杂,涉及开发者、部署者、用户、平台等多方,相比传统责任体系而言,人工智能的责任认定方式更为复杂,且更加依赖技术标准作为责任的承担依据。人工智能治理的难度大,不仅源于其主体复杂,还由于主体之间的行为可能相互叠加产生不可控的风险,而往往这些风险难以在第一时间内被洞察。例如,未参加生成式人工智能原始模型开发的下游开发者可能会将原始模型调整后再整合到其他软件系统。由于双方均对整体情况不明,或将显著增加软件的错误及失控风险。对于因人工智能而造成的损害还存在难以认定因果关系的难题。算法“可解释”与结果“可信任”之间的唯一关系链条已被发散。人工智能系统的高度复杂性与算法黑箱效应,使得责任认定中的因果关系难以明确。按照传统侵权法中的条件说、相当因果关系理论,受害者需要证明加害行为与损害后果之间存在明确的因果链条。

归责原则的适用也存在大量争议。在传统的产品责任风险规制体系之中,核心的逻辑是通过立法对产品各环节的隐患的消除。从侵权责任的角度而言,人工智能的自主性和不透明性可能会导致适用传统侵权法归责困难。传统无过错责任的适用以存在缺陷为前提,但人工智能的损害结果往往难以归因于产品本身的缺陷,而可能源于其自主学习过程中的意外行为。这使得缺陷的界定变得模糊,对无过错责任的适用空间提出了新的挑战和限制。人工智能软件与操作系统中的程序错误难以避免,无法从赋予产品生产者责任的角度来避免损害的发生。另一方面,将人工智能纳入无过错责任的范畴则又会使得提供信息类服务的人工智能陷入发展困境。因此有学者建议,在人工智能提供的信息类服务中应当对其适用合同责任、侵权法上的过错责任以及基于政府或行业管理的伦理责任,而对人工智能的终端产品适用无过错责任的归责原则。随着人工智能产业形态的不断变更,更多类型的业务形态逐步展现,难以期待事先对不同类型的人工智能产品固化地适用某一种侵权责任的归责原则。

最后,发展风险抗辩存在使责任制度全然落空的风险。我国的《产品质量法》第41条可被视为我国引入发展风险抗辩的例证。发展风险抗辩体现了法律在归责体系中对技术进步与创新的平衡考量。制造商或开发者应对已知或可预见的风险承担责任,但不应为当时客观无法认知或预防的风险负责。在严格的无过错产品责任体系之下引入发展风险抗辩不仅有助于合理分配创新过程中不可避免的风险,也能防止因过度归责而扼杀企业科技创新的积极性。但是,该抗辩在人工智能的背景下容易产生新问题。人工智能技术的复杂性和算法的不透明性可能增加未知风险的范围,使制造商、开发者更频繁地诉诸此类抗辩。人工智能技术的可自我进化特征又模糊了产品投放市场的时间节点。传统意义上以时间节点为界的抗辩条件,在人工智能自主学习与持续更新中面临重大挑战。对此有学者主张,以是否构成高风险人工智能系统进行分类来决定在该领域内发展风险抗辩的适用,即若属于高风险类型则不适用该抗辩。即使以上问题均能达成统一的学术共识,判断相应主体是否应当承担责任也并不只是一个纯粹关乎法律技术的问题。还存在一个前置性的问题尚未解决:对人工智能的伦理认知是界定损害的前提,而目前并未形成对人工智能伦理边界的共识性认知。责任体系的进一步完善,必然依赖于伦理层面的价值共识。只有在明确何为损害的伦理框架下,法律责任的边界才能被清晰划定。因此,人工智能治理的逻辑在此由制度层面的产品责任延伸至价值层面的伦理治理。

二、伦理共识与损害界定

人工智能风险不仅具有动态性和不可预测性,更因其深度嵌入人类社会网络而呈现出显著的伦理化特征。人工智能的伦理治理旨在应对人工智能技术在研发、部署与应用过程中可能引发的伦理问题与社会风险,其核心在于确保人类基本权利得到保障,同时确保人工智能的发展方向符合社会公共利益。伦理主要聚焦于价值引导、规范约束与道德原则的确立。伦理治理看似是抽象的独立问题,实际上既可以借由技术标准转为产品或技术的安全规制体系,也可能因其存在的意识形态性落入泛化的国家安全领域成为政治问题。目前之所以未能在人工智能伦理治理上全面达成共识,主要原因在于以下几个方面:

(一)单一伦理价值需程序正义加结果公平双重制度保障方可实现

在人工智能伦理框架中,公平和非歧视是公认的核心价值之一。联合国教科文组织《人工智能伦理问题建议书》中指出人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,据此应当对人工智能技术进行规范性评估和指导,以人的尊严、福祉和防止损害为导向,并始终以科技伦理为基础。人们对于是否受到了歧视和不公平的待遇往往基于自身的感知,并以一定的不利后果作为受到实际损害的佐证。

在传统侵权法领域中“损害”往往能被更为清晰地界定为民事权益遭受了侵害的客观事实,指任何物质的或精神的利益的非自愿的丧失,如财产减少、人身伤害、权利被剥夺等。但是,在人工智能领域,许多风险并非直接产生后果,而是涉及制度性、结构性或感知性的伤害,必须通过伦理框架来界定其是否构成“损害”。当事人感受到的不公正及歧视待遇是否能进入法律系统被评价且成为责任承担的依据,是伦理治理需要回应的重要课题。此时,伦理标准在此先行于法律判断,为“什么构成损害”提供了价值尺度。

虽然目前我国诸如《宪法》《劳动法》《妇女权益保障法》等多部立法将公平和非歧视的理念纳入其中,但是对于个体而言,在使用人工智能技术的场景之下判断某种情况是否为因歧视造成损害仍然存在两类困难。第一是纯粹的技术原因。如前文所述,侵权责任法要求被侵权人对因果关系要件进行明确的证明,但人工智能歧视导致的损害往往属于结构性、隐蔽性的原因,使得个体难以证明自己是具体受害人。第二类是因为部分不利后果属于不利后果的感知并非侵害主体权益的结果。在美国国家标准与技术研究院(National Institute of Standards and Technology)《人工智能风险分类草案》(Draft-Taxonomy of AI Risk)中,将人工智能系统应用中的感知方式列为第二类风险。所谓“感知方式”是指人类对模型的心理表征,包括模型输出是否足以用于合规性评估(透明度)、模型运作是否易于理解(可解释性),以及模型是否输出可以用于作出有意义决策的信息(可理解性)。相对于其他类型的风险而言,此类风险更难以完全通过标准化手段进行衡量,有时,虽然客观主体的相应民事权益确实得到了克减,但并不能直接得出该种不利后果为法律上的损害并对相应的主体赋予法律责任。从横向来看,录入人工智能系统的数据类型越多,越容易带入某些敏感属性的变量,从而间接导致歧视的产生。从纵向而言,历史数据往往已经沉积了许多社会偏见。生成式人工智能应用的过程,实质上是对过往人类社会模式的特征进行总结,并据此对未来社会进行感知和决策的过程,这一过程不可避免地会复制并延续传统社会特征,使得现阶段生成式人工智能技术无法完全避免歧视。人工智能系统可能因训练数据偏差或算法设计缺陷而强化或放大社会偏见。而此时的关键问题在于如何界定算法确实存在设计缺陷同时提供有效的救济。

实际上,公平和非歧视性要求往往是以程序正义叠加结果公平的方式来实现。从程序正义的角度需要增加人工智能处理过程的透明度。透明度是程序公平的首要条件,其核心在于使受人工智能影响的主体能够知悉算法决策的依据、结构与效果。欧盟《通用数据保护条例》(General Data Protection Regulation,以下简称“GDPR”)第22条明确赋予个人拒绝纯自动化决策的权利,并要求企业提供解释权、申诉机制等程序保障。欧盟的《人工智能法案》更是将“高风险人工智能系统”纳入重点规制范围,要求其在设计、部署过程中满足公平性、透明度、可追溯性等伦理与法律要求。增强可解释性及可理解性均可对相应主体权益救济发挥重要作用。但是,即便是使得整体程序更为透明,相应的群体也会因为长期以来形成的社会偏见而承受不利后果。因而对非因人工智能系统产生的问题,则需要对人工智能系统开发者提出进一步要求,评估预测结果对不同群体的影响分布,并在必要时加入公平调整函数(fairness adjustment function)或群体平权约束(group fairness constraint),以实现更公正的结果。

但是,结果平等追求的是最终状态的均衡而非仅形式上机会一致的平等,因此在法律与公共政策领域中,结果平等应当具有重要但相对谨慎的适用范围。仅形式上的机会平等与程序正义难以纠正现实中的结构性不平等与制度性障碍,因此应在特定场景中对弱势群体给予实质性扶持、补偿或干预。但若过多干涉,则会造成对其他群体的不当影响。因此,在人工智能伦理治理中,程序正义所要求的透明度、可解释性与可理解性最有可能通过标准化的方式加以落实;相比之下,对于结果公平的追求则需根据具体应用场景,审慎判断其要求是否具有合理性。即便如此,对程序正义的追求实际上也受到社会成本及实际条件的客观限制,无法在技术上做到极致。正是由于人工智能应用中的某些结果属于非故意、非直接的系统性偏差,导致对其直接适用法律存在困难,如均将因人工智能产生的不利后果界定为损害,则不仅会抑制技术发展进步,也会最终使得社会分配体系陷入混乱之中。因此更宜以伦理治理的方式对该领域进行引导性、倡导性规制,以起到渐进式规制的效果。

(二)多元伦理价值的冲突与不同社会的价值位阶差异

伦理治理不仅具有高度的交叉性,而且还会因不同的考量而产生统合冲突问题。这些不同考虑之间存在很多复杂的、经常冲突的面向,很难提炼出可以普遍适用的、稳定的决策要件。美国国家标准与技术研究院提出的第三类风险为指导政策与价值原则风险。这类风险主要涉及更广泛的社会价值判断,如隐私、问责、公平、正义、平等等。这些价值因其高度依赖具体语境而难以跨领域进行一致测量。因此,对于此类风险,需首先借助特定场景之下的伦理框架予以预先判断是否存在相关权益受到侵害的事实。

在缺乏完善法律规制的前提下,伦理规范可在价值引导和行为约束之间发挥桥梁作用,促进政府、企业与公众之间的信任关系构建,从而实现以技术促进社会整体利益最大化的目标。伦理治理的最终指向是维护和提升技术发展过程中的公共利益,实现技术进步与社会价值之间的协调统一。人身权是最基本的个人权利,因此公共健康、公共安全和环境信息就构成典型的公共利益。对公共利益内涵及外延的积极探索,正在成为人工智能治理相关的数据处理中的重要命题。

实际上,对于“维护公共安全所必须”这一概念的理解,我国和欧盟成员国存在差异。以行车记录仪的适用问题为例,在德国虽然行车记录仪中保存的影像可以作为事故的责任诉讼的证据,但是其可用性要进行个案衡量。此种衡量中涉及到当事人的个人形象信息,因此个人信息自决权应当占有优势地位。出于维护公共安全所必须,行车记录仪在我国的适用依照一般车辆及特殊用途车辆进行分类管理。我国的《汽车数据安全管理若干规定(试行)》中明确了汽车数据依法合理有效利用的原则,包括车内处理原则、默认不收集原则、精度范围适用原则及脱敏处理原则,兼顾了个人隐私利益和公共安全。

以上对于信息访问权以及出于维护公共安全目的对信息的处理活动的限制差异体现出两种体系在打击犯罪和维护安全目的之下不同的规制思路,并由此对各自体系下的个人信息权(益)的具体内容及限制产生直接影响。我国在处理相关问题时更加注重对于使用端目的及正当性的考量,而欧盟更偏向于在收集端进行规制。在不同的阶段介入进行规制,体现出对于风险规制和数据利用的不同态度,从更深维度的伦理角度而言,是个体主义与集体主义何者为先的辩证关系在伦理层面对制度的映射。东方国家的普遍集体主义思维倾向于对“公共利益”的概念做作更为泛化的理解。因此,由于各国存在不同的历史文化传统,处于不同的社会及经济发展阶段,同时还存在不同的产业布局,在存在多重伦理价值冲突的前提下,难以期待各国能有完全一致的价值位阶选择。而集体主义和个体主义之间的辩证关系使得各自对“以人为本”的内涵理解存在一定差异。亦有学者指出欧盟的个人权利为本的立法策略是权利中心主义的体现,然而公共利益很难被简单归入权利保护的范畴,这是由于“公共利益”本质上是一种不同群体利益之间的内部权衡。而多元主体的诉求难以被一种统一化的价值所完全涵盖。因此,对公共利益的理解必然是动态的、具有区域化特征的,并非一个简单的一体化目标,而是一个竞争性的复合体。从某种程度上来说,伦理治理的手段相对于权利义务边界更为分明的立法而言更为适宜作为人工智能治理的主要方式。而各国对人工智能的伦理治理必定沿着自己所界定的公共利益价值进行展开。

伦理治理的边界并非止于社会规范层面。当伦理冲突上升为制度性博弈、价值体系分歧演化为国家间的技术竞争时,人工智能治理的重心便从个体与社会层面进一步延伸至国家安全层面。伦理多元化的现实格局,使得不同国家在人工智能治理中呈现出以公共利益、国家安全为核心的价值取向。由此,国家安全不仅是人工智能伦理治理的外部约束,更构成其制度逻辑的最终延伸。

三、军民两用背景下的人工智能安全治理

在伦理治理向国家层面延伸的过程中,人工智能安全问题逐渐从社会价值议题演变为国家安全议题。尤其是在军民两用技术背景下,人工智能的战略属性显著增强,其潜在风险已超出个体权利与社会伦理的调节范围,直接关系国家安全体系的整体稳定。因此,人工智能安全治理可以视为人工智能治理体系的宏观层面,是产品责任与伦理治理在国家战略领域的延伸与再结构化。人工智能技术在全球范围内的应用涵盖了经济、社会、国防等多个领域,其治理也代表主权国家或地区的价值导向。法律上往往以主权、领土安全及国防安全作为对国家安全问题研究的起点。我国的《国家安全法》从总体国家安全观的角度对国家安全进行了全面界定,即国家安全是指国家政权、主权、统一和领土完整、人民福祉、经济社会可持续发展和国家其他重大利益相对处于没有危险和不受内外威胁的状态,以及保障持续安全状态的能力。技术经济安全指国家通过建立相应机构和制度保护本国根本利益不因技术与经济、国家安全的对立统一关系及其产生的影响而面临“存在性威胁”或导致对“存在性威胁”的恐惧。在总体国家安全观之下,国家安全当然包括国家经济及科技安全。各国也在都在人工智能等领域拓展军民两用的空间,但是不当强调人工智能的军事性风险会使得实际威胁与手段不具有对称性,同时会加剧援引国家安全例外条款的冲动。

(一)从国家安全层面规制人工智能的必要性

风险规制的客观要求使得规制的视角从事后的责任分担转为事前的重点预防,这是由国家义务的特定性所决定的。也有学者担心如转为预防国家,将法益的安全保障直接作为国家活动的方向,会随着其在质和量上的变化而最终导致法治国家性丧失。因此,人工智能领域如何在国家承担保障职能的同时维持国家其他经济活动等法治国家制度活性,是理论路径选择的前置性课题。

人工智能治理和人类曾经面对的其他需要全球协同的事项都存在不同。首先,国际贸易性问题传统的解决路径是通过管制协调,以去除贸易壁垒的方式进行相应制度的对接,同时完成标准的统一以去除融合成本,促进更高水平的某一部门的管制相融的具体措施。人工智能的产业发展存在产业链较长的问题,虽然对国际贸易的依存度较高,但是与传统的货物买卖及服务贸易存在差异。这种差异体现在产业和国家的战略需求出现分化。产业本身倾向于市场化配置最先进的技术及成本最低廉的供给,从科技发展的国际构图来看,人工智能产业链条的尖端分布在不同的国家级区域,国际贸易的需求持续存在。但是从国家的产业布局层面来看,产业链安全可控成为首要追求。因此,扶持本国企业发展,壮大核心产业链成为必然的举措,而这种对于安全的追求又会直接对国际贸易的发展产生抑制效应。

在人工智能产业的发展之中,之所以会有安全优先的考量,是源于此种技术的军民双重性。美国已经从战略上将人工智能产业纳入到军事管理的范畴,从国家安全的角度来统筹管理产业发展。正是基于人工智能的此种特殊性,使得一般国际贸易规则对其不能完全发挥作用,国家安全条款的存在往往会成为直接跳脱出经贸规则的最大变数。

(二)军民两用背景下泛化国家安全概念的问题

2024年9月9日,美国商务部工业与安全局(Bureau of Industry and Security,以下简称“BIS”)依据2023年《关于安全、可靠和可信开发和使用人工智能的行政命令》(Executive Order on the Safe,Secure,and Trustworthy Development and Use of Artificial Intelligence,以下简称“第14110号行政令”)发布“建立先进人工智能模型和计算集群开发的报告要求:拟议规则”(Establishment of Reporting Requirements for the Development of Advanced Artificial Intelligence Models and Computing Clusters: A Proposed Rule,以下简称“拟议规则”),对符合特定标准的人工智能企业施加强制性报告义务。该拟议规则旨在通过定期报告制度,强化对人工智能模型开发和大规模计算基础设施的安全监管。

当前,BIS援引美国《国防生产法》(Defense Production Act,以下简称“DPA”)发布拟议规则的做法,正是“国家安全”概念不断扩张的体现。DPA的最初立法目的是为保障战争物资供应,经过多次修订和实践扩展,逐渐发展成为一个涵盖优先分配权、生产能力扩展、外资审查、市场管控等多重权能的综合性监管工具。DPA的扩展性适用经历了从军事需求到民生安全,再到技术管控的演进过程。DPA适用的持续扩张映射出美国政府试图通过行政强制力重构产业链的政策取向,同时是美国政府对国家安全概念不断扩大解释的实践做法之一。

根据BIS发布的拟议规则,报告主体为开发双重用途基础模型或大规模计算集群的公司,其所采用的“双重用途基础模型”(dual-use foundation models)并不同于传统出口管制领域中“军民两用”(military-civilian dual-use)的表述。“双重用途模型”这一概念起源于《出口管制条例》,聚焦于可用于军事与和平目的的技术。然而,根据第14110号行政令的定义,“双重用途基础模型”是“在广泛数据上训练;通常使用自监督;包含至少数千亿个参数;应用于广泛的场景;并在可能对国家安全、国家经济安全、国家公共卫生或安全或这些事项的任意组合造成严重风险的任务中表现出或可通过轻微调整而表现出高水平性能”。且拟议规则要求所有在美国境内开发的、符合条件的模型均需报告,并非仅面向出口技术,表明其管控范围不仅限于军事用途,还涵盖国家安全、国家经济安全、公共卫生等多重领域。此外,拟议规则还为 BIS设立界定管控对象的动态调整机制,表明其管控对象并非传统“军民融合”中与国防部合作的私营企业,而是面向所有具备先进人工智能开发技术的企业。

国家安全研究通常围绕保护对象、面临威胁与应对手段三个维度展开分析。从保护对象角度看,以人工智能为代表的科技安全已成为国家安全体系的重要支撑。所谓科技安全是指国家科技体系完整有效,国家重点领域核心技术自主可控,国家核心利益和安全不受外部科技优势危害,以及保障持续安全状态的能力。值得注意的是,此时对于科技安全作为国家安全问题的保护对象,需要满足国家重点领域的核心技术要求,而非将科技安全对国家安全的影响泛化到所有技术类型的层面。

就面临威胁及对应的手段而言,任何治理体系的合法性与有效性,都建立在对风险的准确识别与对策匹配的基础之上。如果治理手段与实际威胁之间存在脱节,不仅可能导致治理资源浪费、技术发展的不必要抑制,还可能破坏法治原则下的比例性要求与最低限度干预原则(principle of minimum intervention)。在人工智能治理中尤其如此,因为该技术高度复杂、风险多元,涵盖了从算法偏见、数据滥用到军事化应用、社会稳定等多个层面。例如,面向算法偏见和数据歧视风险的治理,应当集中在优化数据质量、引入算法可解释性、建立独立审计机制等技术与合规手段,而不宜通过全面封禁或技术禁止等极端手段,这不仅违背了比例性,也阻碍了技术创新。相反,当涉及人工智能在军事领域的致命性自主武器系统(lethal autonomous weapon systems,LAWS)、大规模杀伤性潜力、国家关键基础设施攻击等威胁时,传统的行业自律、软法框架显然不足以应对,需要纳入国际法框架下的强制性限制、危机沟通机制与联合监管工具。换言之,治理的强度、范围和手段设计,必须与其应对的风险类型和严重性严格匹配,才能避免因小题大做或过度安全化引发的治理失衡。

更重要的是,国际治理中的面临威胁与使用手段对应关系,也是维护国际合作与信任的前提条件。当前美国的人工智能双用标准中,风险的定义并不基于具体应用,而是以诸如参数量、处理能力、多模态推理能力等模型能力为核心来划定“高风险”或“受控”模型。这种标准可能会将大量用于教育、研究、非敏感产业的基础模型纳入“准军用”的监管范围。参数门槛实际上是一种能力先行而非用途导向的先发式风险规制,没有对模型是否真正进入军事用途进行充分事实判断,这种模式会直接影响到各场景下正常的市场应用行为。当标准划分不以实际用途为核心,而是以能力为标准时,开发者会因不确定性而限制模型开放性、功能性与研究发布,对未来的研发造成负面影响。目前美国人工智能军民两用标准的核心制度基础,主要来源于第14110号行政令、美国国家标准与技术研究院发布的《人工智能风险管理框架》(AI Risk Management Framework)以及BIS《关于可能用于训练人工智能模型的先进计算集成电路及其他商品的管控政策声明》(BIS Policy Statement on Controls that May Apply to Advanced Computing Integrated Circuits and Other Commodities Used to Train AI Models)。这些标准虽有政策权威,但大多非正式法律文件,并非由国会立法确立,没有形成明确的实定法边界,缺乏可诉性。美国人工智能两用标准目前没有为被认定为“高风险”“双用途”的模型提供任何正式申诉机制或司法复核通道,这导致企业和研发主体难以预判自身是否会被认定为“受控模型开发者”或“军用高风险技术提供者”。因此,美国现行人工智能军民两用标准的软法形式与程序缺失偏离了法治治理的基本规范性框架。反之,建立基于实际威胁、科学证据与共识评估的分层治理体系,才能推动各方在安全与发展的动态平衡中找到共同点,为全球人工智能治理提供稳固的法治基础与合作空间。

相较于美国以“前沿人工智能能力”“高参数模型”等模糊标准设限,缺乏法定目录的情况,我国则是通过法定清单将受控技术品类逐项列明,企业可提前查询判断,具有明确的前瞻性与可操作性。另外,我国实行个案许可制,出口商可申请、申诉、复议。中国企业在出口前可以依法申请许可证、获得审查意见,甚至提起行政复议或诉讼。我国清单制度依据《出口管制法》,具备立法机关授权的实定法地位,可直接适用、可作为执法依据、可纳入国际谈判。因此,在国际技术贸易争端中,我国以动态清单方式管控军民两用物更易被视为“合理限制”,美国软法标准则可能被视为歧视性管制。

美国采取了该国体系之下的军民两用物资的路径进行规制体现了其将人工智能技术力量泛军事化,过分强调其军事威胁性,使其落入国家安全的范畴并以经济手段予以应对的意图。虽然,人工智能确实可因其通用性与跨界性,天然具备军民两用属性。无论是美国的国防创新单位(Defense Innovation Unit)、欧盟的防务基金(EU Defense Fund),还是中国的“军民融合发展战略”,都明确将人工智能列为优先发展的前沿技术,用以提升情报分析、武器系统、战场管理等能力。但是这种扩张逻辑也引发了人工智能军事化风险的被过度放大。例如,美中技术竞争背景下,欧美智库和媒体频繁将人工智能视为“战略威胁”,呼吁针对中国采取出口管制、投资限制、技术封锁等安全措施。这种军事化叙事但如果缺乏精准界定,容易陷入“泛安全化”陷阱,使得原本用于防御真实威胁的国家安全工具被滥用于贸易保护或地缘政治竞争中。

(三)国家安全例外条款的滥用及其问题

国家安全例外条款在国际法中主要体现在《关税与贸易总协定》(General Agreement on Tariffs and Trade,GATT)第21条、《服务贸易总协定》(General Agreement on Trade in Services,GATS)第14条、《与贸易有关的投资措施协议》(Agreement on Trade-Related Investment Measures,TRIMS)等多边框架中。这些条款本意是给予成员国在面临真实安全威胁时的适度弹性空间。然而,近年来伴随技术领域特别是人工智能领域的地缘政治化,各国频繁以国家安全为由实施投资审查、技术封锁,甚至引发了WTO争端。这种例外条款的泛化使用,不仅削弱了多边贸易体系的稳定性,也可能反噬国家自身的治理合法性,使国际社会对其动机和正当性产生质疑。在国际权力结构视角下,大国在安全例外条款的解释和适用过程中往往具有更强的话语权和实践自主权。有学者指出,虽然WTO第21条在形式上赋予所有成员国平等的自主判断权,但实践中这种权力的行使却呈现出显著的不对称性。美国对人工智能芯片的出口管制以及拟议的硬件管制将国家安全目标与产业政策目标混为一谈,这已经成为迄今为止美国人工智能政策的一个普遍特征。

从法理上看,国家在人工智能治理中援引国家安全例外条款,必须符合必要性、比例性与最小干预等国际法原则。然而,军事性风险的独特性质往往模糊了这种法律审查的边界。一方面,人工智能的威胁尚多停留在理论层面,例如“自主武器系统”尚未大规模部署、人工智能引发的战略稳定失衡尚缺乏实证支撑;另一方面,基于这些风险采取的法律和政策手段(如全面技术禁运、对外投资审查、跨境数据流限制)却具有高强度、广覆盖的特点,导致治理手段与实际威胁之间出现严重的不对称性。这种不对称不仅带来了对国际贸易法、投资法的冲击,也使国家更容易借国家安全例外条款之名,规避国际法下的义务,损害国际经济秩序的稳定性。

四、人工智能国际治理的进路分析

人工智能技术的迅速发展正在重塑全球治理格局,各国为应对其带来的伦理、法律与社会挑战,采取了截然不同的治理路径。当前,欧盟、美国和中国代表着三种典型模式:欧盟以个体权利保护为核心,将涉及产品及系统安全的层面置于首要位置;美国以去中心化的综合性权利保护路径为基础,逐步走向对外防御性、泛国家安全化的治理路径;中国则以公共利益平衡下的个人权利保护为核心。这三种路径不仅反映了各自独特的法律体系和价值观,还在产品责任界定、伦理价值判断以及国家安全保障等方面带来了法律与制度挑战。本文试图在产品责任、伦理价值和国家安全三重维度下,提炼出兼具可操作性与前瞻性的人工智能规制进路。

(一)产品责任:利用技术标准、行业规则搭建基本共识

综上所述,欧盟遵循严格的产品安全监管传统,强调统一立法与事前合规;而美国的规制模式更倾向于去中心化的综合性权利保护路径,强调通过对隐私、知情同意、公平获取等权利的保护间接实现人工智能治理,而非以人工智能产品本身直接作为规制对象。从规制的价值来看,欧盟体现出一种基于后果主义的产品风险规制目标,而美国在人工智能治理的消费者权益保护进路中更关注矫正后的交易正义。然而,无论是事前的风险治理,还是去中心化的权利保护,人工智能治理与传统产品责任治理相比,面临着更加复杂和多变的风险场景,单一的法律工具或监管手段难以有效应对。人工智能治理亟需多元化、协同化的法律与监管体系。

通常风险管控任务需要借助公私法体系的全面落实,以所谓的“相互工具化”手段达成。我国行政机构往往将技术标准作为事实认定构成要件判断的根据,并根据事实认定的结果作出是否给予许可或者进行处罚的决定。产品质量安全体系中的技术标准往往从生产的各环节、全流程进行体系化设计,以确保在生产过程中的品质符合特定产品或服务的最低安全保障要求。以我国的食品安全标准体系为例,食品安全标准体系围绕食品链全流程,食品的危害因子,食品类别以及标准层次来进行食品安全标准化体系设计。与此相似,我国的人工智能标准体系也是由处理流程的安全规范、危害行为治理、场景治理及标准层次等要素组成。例如,在个人信息处理及生成式人工智能预训练全流程有一系列国家标准,从更为实操的层面规定了个人信息处理活动应遵循的原则和安全要求以及人工智能训练数据的各项安全要求及评价方法。针对网络上大量的虚假信息及人工智能合成信息的不规范使用问题,全国网络安全标准化技术委员会出台了《网络安全技术生成式人工智能数据标注安全规范》(GB/T 45674-2025);同时,围绕医疗、家居等生活场景,以及交通等重点行业及场景需求,相关应用标准也正在研制之中。不同的是,依据《食品安全法》,食品安全标准必须为强制性执行标准,而涉及人工智能领域的标准以国家推荐性标准为主。两者的差异体现在效力之上:食品不符合安全标准可以直接作为行政处罚的依据,而在网络安全及数据治理领域,尽管标准不属于正式的法源且不具有形式上的约束力,由于其鲜明的行为导向功能和信号功能,仍能够被法院和行政机关援引,产生实际的规范效果;还能够构成行政机关判断事实认定构成要件的基准,从而拘束行政机关的决定。

推荐性国家标准往往意在推荐行业中的最佳行为标准,对于人工智能行业而言,其行为样态及危害在不同场景中不具有统一性,且主体的风险预防及控制能力也存在较大差异,事前难以找到“一刀切”的社会最佳使用标准。原本对于社会风险控制的最佳标准往往通过私法的渠道,由法官在个案中依据具体的情势予以定夺。但是在人工智能这种具有高度技术要求的领域,法官往往由于缺乏相应的知识储备而需向外求助相应的技术支援。此时,以推荐性标准的方式引入系统将更为可行,既填补了法官在相关案件判决时无技术支持的被动局面,也以标准化的方式降低了整体的社会成本。

公法上的食品安全标准意在为相关行业设定最低的门槛性要求,许多标准被法律所援引成为立法的重要组成,经营者可以此为基准在后续的运营中慢慢形成新的领域内的“最佳实践”样本,以增强企业的市场竞争力。而人工智能治理领域往往也是基于对标准进行最佳实践,以确保人工智能不会对关键基础设施和网络安全造成威胁。但值得注意的是,人工智能的最佳实践本身并非行业的最低门槛性要求,这是由于人工智能领域的技术一直处于不断迭代的动态环境之中,若采用最低门槛,容易使企业出于成本考量满足于最低限度的合规,不利于构建高质量的人工智能生态,难以对企业产生自发性规制的激励效果。正因为最佳实践的非底线性要求,对于人工智能治理的标准往往以推荐性“软”标准的形态出现。推荐性标准在《中华人民共和国标准化法》中的定位为非强制性:“供社会自愿采用”“鼓励采用推荐性标准”。但是在实践中非强制性的推荐性标准常被作为技术评估、行政审查、行政监管、合同解释的重要参考依据,同时在人工智能领域已经成为弥合立法滞后、引导产业合规的重要工具。但是,由于推荐性标准本身的法律性质定位与实际产生的约束性效果存在明显不对应的情况,也容易引起依据推荐性标准执法合法性不足、企业权利救济空间不清晰以及行政执法的不确定性上升等种种疑问。

(二)权利义务具体化的伦理价值共治

欧盟、美国与中国在人工智能治理上的法律逻辑和实践路径展现出明显差异,既反映了各国法治传统和社会价值观的不同,也突显了算法歧视治理中面临的共同挑战,即如何在鼓励技术创新、维护社会公平与保障个体权利之间寻求动态平衡。另外,数据隐私的治理还与一国的产业发展息息相关。学者认为即使在欧盟和美国之间,对数据隐私的监管领域实际已经出现了巴尔干化现象。数据隐私监管的巴尔干化是指不同司法管辖区的数据隐私法律的碎片化,导致复杂的、不一致的监管格局。这种现象的特征是缺乏统一的数据隐私监管方法,从而形成了一套各不相同的规则体系,这些规则在不同地区或国家之间存在差异。强行移植相关的规则可能导致与一国社会发展脱节的严重后果。例如,GDPR和《加州消费者隐私法案》(California Consumer Privacy Act,以下简称“CCPA”)在数据隐私保护的具体措施上存在显著差异。GDPR要求“择入机制”(opt-in),而CCPA则允许采用“择出机制”(opt-out)。不同的制度设计为产业发展带来了不同的成本,也引导着产业的区域化布局。GDPR和CCPA都引入了数据可携权,但GDPR更强调数据主体的权利,而CCPA则更注重企业与消费者之间的经济关系。数据隐私监管的碎片化不仅涉及法律的复杂性,还涉及公共和私人权力之间的权力分配。例如,GDPR通过“问责制”原则,将部分监管责任转移给私人企业,而美国则更依赖于市场机制和消费者选择。不同的治理模式背后折射的是治理伦理的差异。换句话说,规制路径并没有对错之分,只有适履之别,个人权利保护和对自由竞争的偏好体现出不同国家及地区的历史传统及伦理底色,而这种伦理底色又在以各种形式重塑着该地区的产业生态。

中国的人工智能治理强调在整体公共利益框架下保护个人权利。这种路径反映出中国法治体系中长期存在的集体主义取向与国家主导治理传统,即个体权利保护始终嵌入国家安全、社会稳定、公共秩序等更宏观目标之中。近年来的《个人信息保护法》《数据安全法》《互联网信息服务算法推荐管理规定》等法律和规章,虽引入了类似欧盟的数据保护机制,但在落地实施中更重视政府监管、产业政策协调和整体风险管理。这种平衡路径的优势在于灵活性较强,能够在国家战略目标与个体权益之间作动态调整。我国的整体风险管理的考量极具中国特色,具有强烈的人文主义色彩。2021年出台的《互联网信息服务算法推荐管理规定》是我国算法治理的里程碑文件,其中明确要求算法不得利用算法模型对用户进行不合理差别对待、不得诱导沉迷或实施不正当竞争。尽管该规定面向全行业,但对外卖平台特别提出了“向用户明确标识算法推荐服务”的义务,为后续骑手保护措施提供了重要法律依据。

更具针对性的是,人力资源和社会保障部、国家发展改革委等七部门于2021年联合发布的《关于维护新就业形态劳动者劳动保障权益的指导意见》,针对平台企业提出不得通过用工外包、制定不合理考核指标、利用算法规则等方式损害劳动者权益。该意见要求外卖、快递等行业的互联网平台优化订单分配、报酬支付、工作时间安排等算法规则,避免对骑手形成过高强度和不公平待遇,强化了对算法治理的劳动法嵌入。我国对于人工智能治理的关切不仅仅聚焦在个体的信息权益保障,更多是作为社群的共生性的伦理理念贯穿其中。外卖骑手问题成为算法规制实践的典型案例,不仅体现了对新业态劳动关系的回应,也展示了我国算法治理中公共政策导向与行业治理相结合的特色路径。

(三)国家安全视角下的人工智能治理

美国的人工智能治理逐渐呈现出偏重国家安全化趋势,尤其是在与中国的科技竞争背景下,这一趋势表现得尤为明显。美国在缺乏联邦层面统一人工智能立法的情况下,主要通过出口管制、投资审查、供应链安全、科技制裁等国家安全工具来应对人工智能技术带来的风险。这一路径的本质逻辑是防御性,即通过将人工智能纳入国家安全范畴,强化对外部威胁的警惕与防范。与欧盟的权利路径相比,美国的国家安全路径具有更为明显的扩张性和弹性。一旦国家安全被确立为治理的核心框架,就难以为其划定清晰边界,极易引发技术封锁、产业保护和国际合作的系统性崩解。此外,由于国际法对国家安全例外条款缺乏有效约束(例如WTO框架下的GATT第21条多次被架空),美国的国家安全化路径在全球范围内往往表现为对话的封闭化和治理的单边化。

(四)三重治理维度分析

从产品责任、伦理价值规范与国家安全三重视角考察,人工智能的标准化治理在欧盟、美国和中国分别呈现出个人权利主导、国家安全主导与权利平衡主导的三种路径。

欧盟路径的优势在于边界清晰、权利保障强,但缺乏灵活性和组织权利调节机制,在其治理中将保障产品与系统安全作为维护个人信息权利的手段;美国路径则强化防御性国家安全治理,但易引发治理扩张与国际对话失效;中国路径的优势在于动态平衡,从群体性伦理的视角实现整体利益的最大化,但对国家组织协调能力要求较高。从本质上看,欧盟以分级分类制度落实人权保护,美国则以多重要素的场景化评估支撑其去中心化模式,虽有利于科技创新,却易产生泛安全化倾向。我国在人工智能伦理治理的顶层设计上更注重行业治理,在各行业内部梳理人工智能可能产生的风险并及时提出应对方案。三种治理路径各有优先目标,国际人工智能治理的关键在于如何在三者间寻求平衡与融合,推动建立既有共同底线又尊重制度多样性的全球治理架构。

三种治理模式的差异在根本上体现为对安全、伦理与主权三重价值的不同排序。为进一步说明这三重价值如何在制度层面相互嵌合与影响,本文以下从三重维度加以分析。

首先,三重维度具有相互覆盖性。产品安全主要聚焦于人工智能技术的功能安全与可靠性,例如自动驾驶与医疗人工智能的安全可控性;伦理安全则关注算法公平、隐私保护与非歧视性,体现对社会价值的回应;国家安全维度则将人工智能治理置于更宏观的框架,涉及国家间的技术竞争、供应链安全、战略稳定与自主武器系统的发展。这一层面往往超越单一产品或伦理问题,但也与前两者重叠,例如一款被广泛使用的社交平台算法,既可能带来大规模伦理风险,也可能因介入到特殊场合而使得国家政治在安全、功能与制度层面面临新的风险。三重治理目标之间并非泾渭分明,而是存在着复杂的相互覆盖关系。其中一个目标的实现在某种程度上能促成其他目标的实现,同时这种关联性也并非完全正相关。开源模型的共享机制有助于防止垄断、保障技术公平,但也可能引发军事化滥用风险。将伦理引入人工智能治理往往意味着明明存在更为高效的目标实现方式,但是为了伦理要求而不得不舍近求远。这种伦理要求在涉及个人信息保护的人工智能应用领域尤为强烈。

其次,三维度在治理功能上保持相对独立。产品安全治理的核心任务是通过法律、标准与技术审查确保系统的可用性和稳健性;伦理安全关注算法可解释性与偏见检测,以确保技术符合人权保障与社会公正;国家安全维度则是主权国家的核心关切,集中于人工智能的军事用途、跨境数据流与供应链依赖等问题,更依赖出口管制、投资审查与国家安全例外条款。三类功能作用层级不同,因此政策与法律工具的设计亦应有针对性。

最后,三者之间需要构建起合理的承接关系,才能为全球治理奠定可操作的共识基础。从国际合作实践来看,最有可能实现直接对话与落地合作的,是基于产品安全层面的治理。例如,国际标准化组织(International Organization for Standardization,ISO)、国际电工委员会(International Electrotechnical Commission)、国际电信联盟(International Telecommunication Union)等机构,近年来已就人工智能系统安全性、数据质量、风险管理等制定了系列技术标准,成为跨国合作的桥梁。这些标准避开伦理与主权敏感议题,更容易形成多边共识。相较之下,伦理安全的文化差异与价值冲突使全球一致性难以达成。欧盟在《人工智能法案》中提出的高风险人工智能系统伦理要求,或联合国教科文组织发布的《人工智能伦理建议书》,显示了区域层面(如欧盟)或软法机制在推动伦理共识方面的可能性,但要上升为全球共识仍困难重重。至于国家安全层面,过度强调科技安全、供应链控制、军事竞争,不仅不利于多边对话,还容易使人工智能治理沦为大国博弈和技术冷战的延伸。然而,这并不意味着国家安全可以被完全搁置。在极限情境下,如涉及重大军事对抗、恐怖主义利用人工智能技术、国家关键基础设施被人工智能驱动的网络攻击等,维护国家安全依然是不可放弃的底线。虽然欧盟的《人工智能法案》采取分级分类的思路通过封闭列举的方式界定高风险与禁用场景,但是由于刚性分类本身的逻辑结构使其难以及时回应技术迭代带来的新型风险。另外,场景设定过于依赖既有经验,难以覆盖如卫星图像人工智能识别等边缘性军民融合技术。同时,单一的分级分类制度难以对各领域的问题做细化回应,还有赖于具体场景之下的风险评估制度加以完善。

五、完善我国的治理路径

产品安全、伦理安全与国家安全三重维度构成了人工智能治理的基本结构,不同法域正是因其在三重价值间的排序差异而形成了不同的制度路径。相较而言,中国的人工智能治理更具体系化与整合性特征。其制度设计并非在三重维度中择一取向,而是在风险防控、价值引导与安全保障之间寻求动态平衡,从而形成兼具规范性与战略性的治理体系。由此,探讨中国的治理路径,不仅是分析一国经验,更是对如何在多重价值目标之间实现制度衔接的考量。中国的人工智能治理思路着眼于构建有层次、可承接的治理结构,强调伦理先行。伦理安全关系到一国根本的价值秩序,其规则植根于社会文化与法律传统,因此在不同法域中表现出差异。伦理规制最终仍需回到产品责任与标准体系的设计中,国家安全的考量不仅影响国内立法取向,也深刻影响国际经贸关系与全球技术秩序的重塑。而国际贸易格局的重塑终将重塑各国的法律期待,一旦科技深度地嵌入社会,形成相应的使用文化,再进行矫正就会十分困难。虽然我国一直采取积极采用国家标准的态度,并稳步扩大标准的制度型开放,但是在采用国际技术标准之时依然要考虑到该标准与我国目前立法及强制性标准体系是否存在冲突,以及是否符合我国相关行业的规划及产业政策,同时将标准落地后的预期经济效益、社会效益及生态效益进行多维度的综合性考察。因此,标准的治理绝不仅仅是单一产品质量维度的问题而是一项需要将伦理治理及国家安全进行通盘考察的体系化建设。

对于人工智能治理而言,最初阶的伦理共识应当聚焦于是与否的问题决断之上,不应纠结于伦理嵌入各国立法的程度与方式,即聚焦于人工智能对于人类整体利益的冲击及程序透明化的保障。这些更为精细化的伦理嵌入型设计应当是区域性对话及协议应当完成的目标。习近平主席强调坚持“以人为本”,意在警示技术发展不能偏离人类文明进步的方向。这一理念倡议各方以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。我国近年来在全球人工智能治理议题中积极发声,明确主张人工智能的发展应当服务于全人类的共同利益。在《全球人工智能治理倡议》中,我国强调人工智能技术应坚持“智能向善”的价值导向。这一主张不仅体现了对技术伦理的高度重视,也彰显了我国对构建公正合理的国际科技治理体系的责任担当。具体而言,“智能向善”的宗旨要求人工智能发展必须符合和平、发展、公平、正义、民主、自由等全人类共同价值,防止人工智能被滥用于危害人类尊严、加剧社会不平等或扰乱国际秩序的用途。该倡议从伦理原则、制度机制、技术路径等多个维度呼吁全球协同治理,试图为构建兼顾国家利益与全球公共利益的人工智能治理体系提供中国方案与制度贡献。

在涉及国家安全的议题上,则应在承认主权底线的前提下,探索建立危机管理、风险沟通机制,防止因过度安全化而破坏整体对话空间。这一多层承接式治理框架不仅是理论上的需要,也是现实国际政治与技术发展格局的必然要求。虽然国家安全也是人工智能需要关注的领域,而从国家安全角度不断强化人工智能的军事化无助于国际治理,其底层逻辑也必然宣示着国际合作的失效。因此,其只能作为托底性的规制,不可将其常规性地使用于体系之中。我国目前已经建立了人工智能算法与大模型备案机制,探索建立算法安全评估制度将成为下一个阶段的工作重点,设立领域导向的“分级分类”制度,将人工智能按技术属性、使用场景、涉众程度分为军用、军民两用、关键基础设施、一般商业等类型,分别设定进入门槛与监管强度。其次,在该分级分类制度基础上嵌入风险评估机制,针对各类场景设立差异化的合规评估标准,引入第三方评估机制,实现从静态许可到动态监管的转化。构建军民两用审查机制,对具有潜在军用价值的人工智能项目实行前置备案、出口限制、共享管控等措施,进一步完善军民两用人工智能的管控机制。在对方向的认同之上从产品安全入手,利用技术标准、行业规则搭建最小共识;在此基础上,逐步向区域性协议、软法工具过渡,形成更高阶的价值对话与合作框架。

从产品安全的角度切入具有可操作性,理论上可以国际标准化组织牵头以制定人工智能安全标准的方式进行规制。由于不同文化对技术相关风险和责任感知存在系统性差异,此种方式只能在社会生产水平差异不大的区域之间达成。另外,不应在绝对安全性意义上来理解科技设施的安全性,只能将其目标限缩到社会能承受的风险。目前,大部分全球南方国家的首要要求是发展振兴,因此,全球人工智能标准全球一体化的设想并不现实。实际上,全球南方国家能否有效参与标准治理,直接关系到全球人工智能伦理与安全秩序的构建。产品治理逻辑能较为简易地达成共识形成共治,人工智能治理的共识构建首先体现在产品标准的规则层面。以WTO《技术性贸易壁垒协定》(Agreement on Technical Barriers to Trade)为核心的国际标准体系,已通过贸易、认证与政府采购等机制实现了事实上的准法律化运作,使标准成为市场准入与全球竞争秩序的重要基础。然而,现有体系内部存在显著的不平衡结构。ISO等主要国际组织在议题设置、程序设计及成员代表性方面仍体现出制度性偏向,发展中成员虽在数量上不断增加,但在技术话语权、文件起草及投票决策等关键环节仍处于弱势地位。由此导致伦理、安全等具有价值取向与制度导向特征的议题,往往被边缘化于技术规则的外围。面对这一结构性困境,全球南方国家需要在既有国际框架内拓展实质参与的空间,一方面通过积极参与ISO等机制强化程序透明度与能力建设,提升规范供给能力;另一方面以区域合作与互认机制为依托,推动标准成果的制度化吸收与实践化落地,使国际规则从文本共识转化为可执行的制度安排。如此,方能在技术规则、伦理秩序与安全治理的交织中,形成既具共识性又具主体性的全球人工智能标准治理格局。各国根据自己的立法及传统模式各自探索出适合自己的治理模式,实际已经套嵌了某种更为精细的伦理价值,正如同各国的立法中多多少少已经存在有各自特色的伦理性立法一样。人工智能的伦理价值不仅体现于对人类尊严、隐私与公平的普遍关切,也应体现对各国法律传统与文化差异的尊重。全球治理应以包容多元、尊重差异为前提,通过本土制度间的衔接形成具有合法性与可行性的伦理框架,从而在维护治理秩序稳定的同时,有效应对人工智能在军事滥用、认知操控等领域的风险。

人工智能的迅猛发展正促使法律体系从静态规范走向动态风险治理。产品责任奠定了安全与可预期性的制度底线,伦理价值提供了社会信任与公平正义的规范支撑,国家安全则确保技术进步不偏离公共利益与国家利益的总体方向。三者的互动标志着人工智能治理正由单一规制模式迈向系统化、层级化的制度格局。人工智能治理的核心命题,不在于如何限制技术,而在于如何在法的框架下重构人与技术的关系。法律的任务不再止于事后救济,而在于通过制度引导与标准化机制,将风险防控、伦理约束与创新激励纳入同一治理体系。未来的国际人工智能治理应当以伦理先行为共识,以标准互认为抓手,在尊重制度差异的前提下形成最低限度的合作基础。中国方案的独特价值在于,以责任体系为路径、以伦理平衡为导向、以安全共治为边界,实现了从制度移植到规范自觉的转化。它不仅回应了技术治理的现实需求,也为全球人工智能治理提供了制度性整合的中国方案。

(责任编辑:高薇)

【注释】

[1] 参见薛澜、贾开、赵静:“人工智能敏捷治理实践:分类监管思路与政策工具箱构建”,《中国行政管理》2024年第3期,第99—110页。

[2] 参见陈吉栋:“论机器人的法律人格——基于法释义学的讨论”,《上海大学学报(社会科学版)》2018年第3期,第78—89页;龙文懋:“人工智能法律主体地位的法哲学思考”,《法律科学》2018年第5期,第24—31页;刘洪华:“论人工智能的法律地位”,《政治与法律》2019年第1期,第11—21页。

[3] 参见中国信息通信研究院人工智能研究所:《人工智能风险治理报告——构建面向产业的人工智能安全治理实践方案(2024年)》,载中国信通院官网,https://www.caict.ac.cn/kxyj/qwfb/ztbg/202412/P020241225616766856414.pdf,最后访问日期:2025年11月14日。

[4] 参见袁曾:“生成式人工智能责任规制的法律问题研究”,《法学杂志》2023年第4期,第119—130页。

[5] 参见丁晓东:“全球比较下的我国人工智能立法”,《比较法研究》2024年第4期,第51—66页。

[6] 参见《产品质量法》第41条第2款第3项。

[7] 参见贺琛:“我国产品责任法中发展风险抗辩制度的反思与重构”,《法律科学》2016年第3期,第135—144页。

[8] 参见谢尧雯:“生成式人工智能价值链行政监管与侵权责任的匹配”,《政法论坛》2025年第2期,第36—46页。

[9] 参见张新宝、魏艳伟:“我国人工智能立法基本问题研究”,《法制与社会发展》2024年第6期,第9—10页。

[10] 参见张欣:“算法公平的类型构建与制度实现”,《中外法学》2024年第4期,第866—883页。

[11] 参见程啸:《侵权责任法》(第2版),法律出版社2015年版,第214—216页。

[12] See National Institute of Standards and Technology, “Draft-Taxonomy of AI Risk,” https://www.nist.gov/system/files/documents/2021/10/15/taxonomy_AI_risks.pdf, last visited on 8 July 2025.

[13] 参见王翠娟:“人工智能时代内容生成的伦理治理——访清华大学文科资深教授、人工智能国际治理研究院院长薛澜”,载《学习时报》2025年4月21日,第5版。

[14] See Sofia Richter, “Ethical AI: Balancing Innovation with Moral Responsibility in the European Context,” https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5078883, last visited on 3 July 2025.

[15] 参见《生成式人工智能服务管理暂行办法》第4条第2项。

[16] 参见赵鹏:“科技治理‘伦理化’的法律意涵”,《中外法学》2022年第5期,第1201—1220页。

[17] 参见赵精武:“人脸识别技术应用的利益权衡与合法性认定”,《法律科学》2024年第1期,第100—110页。

[18] See Markus Trengove and Emre Kazim, “Dilemmas in AI Regulation: An Exposition of the Regulatory Trade Offs Between Responsibility and Innovation,” https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4072436, last visited on 3 July 2025

[19] 参见王贵松:“论法治国家的安全观”,《清华法学》2021年第2期,第33页。

[20] 参见东艳:“全球贸易规则的发展趋势与中国的机遇”,《国际经济评论》2014年第1期,第45—64页。

[21] See Bureau of Industry and Security, “Establishment of Reporting Requirements for the Development of Advanced Artificial Intelligence Models and Computing Clusters: A Proposed Rule,” https://www.federalregister.gov/documents/2024/09/11/2024-20529/establishment-of-reporting-requirements-for-the-development-of-advancedartificial-intelligence, last visited on 14 November 2025.

[22] See Executive Order 14110, “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” https://bidenwhitehouse.archives.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/, last visited on 8 July 2025.该行政令于2025年1月20日特朗普总统签署“Initial Rescissions of Harmful Executive Orders and Actions”而撤销,但截至目前并未对“双重用途基础模型”重新进行定义。

[23] 游光荣:“统筹科技发展与科技安全是新时代赋予的重大课题”,《中国科技论坛》2022年第4期,第3页。

[24] 参见董青岭:“人工智能‘武器化’与数智时代的国家安全”,《人民论坛·学术前沿》2025年第9期,第88—94页。

[25] 参见李巍:“新的安全形势下WTO安全例外条款的适用问题”,《中国政法大学学报》2015年第3期,第99—108页。

[26] 参见安佰生:“WTO 安全例外条款分析”,《国际贸易问题》2013年第3期,第125—131页。

[27] See Mona Paulsen, “Trade Multilateralism and U.S. National Security: The Making of the GATT Security Exception,” Michigan Journal of International Law, Vol.41, No.1, 2020, p.4.

[28] See Amba Kak and Sarah Myers West, “A Modern Industrial Strategy for AI?: Interrogating the US Approach,” https://ainowinstitute.org/publications/a-modern-industrial-strategy-for-aiinterrogating-theus-approach, last visited on 1 July 2025.

[29] See Michael J. Hahn, “Vital Interests and the Law of GATT: An Analysis of GATT's Security Exception,” Michigan Journal of International Law, Vol.12, No.3, 1991, pp.599-602.

[30] 参见万方:“公私法汇流的闸口转介视角下的网络经营者安全保障义务”,《中外法学》2020年第2期,第357—377页。

[31] 参见房庆、刘文、王菁:“我国食品安全标准体系的现状与展望”,《世界标准化与质量管理》2004年第12期,第4—8页。

[32] 参见许可:“数据交易流通的三元治理:技术、标准与法律”,《吉首大学学报(社会科学版)》2022年第1期,第96—105页。

[33] 参见陈伟:“作为规范的技术标准及其与法律的关系”,《法学研究》2022年第5期,第84页。

[34] 参见叶名怡:“个人信息的侵权法保护”,《法学研究》2018年第4期,第83页。

[35] 参见王贵松:“作为风险行政审查基准的技术标准”,《当代法学》2022年第1期,第101页。

[36] See Fernanda G. Nicola and Oreste Pollicino, “The Balkanization of Data Privacy Regulation,” West Virginia Law Review, Vol.123, No.1, 2020, p.62.

[37] 参见万方:“隐私政策中的告知同意原则及其异化”,《法律科学》2019年第2期,第61页。

[38] 参见刘权:“风险治理视角下的个人信息保护路径”,《比较法研究》2024年第2期,第62—76页。

[39] 参见《关于维护新就业形态劳动者劳动保障权益的指导意见》第3、7、10条。

[40] 参见李晓玲:“WTO安全例外条款:实践演进、路径选择与中国因应”,《国际法研究》2023年第3期,第25页。

[41] 参见孙成昊、谭燕楠:“生成式人工智能对美国选举宣传的介入:路径、场景与风险”,《世界经济与政治论坛》2024年第4期,第1—22页。

[42] 参见郑晓龙:“中国大模型密集开源的原因及可能影响”,《人民论坛》2025年第11期,第64—67页。

[43] 参见赵鹏,见前注[16],第1208页。

[44] 参见《采用国际标准管理办法》。

[45] 参见袁康:“可信算法的法律规制”,《东方法学》2021年第3期,第5页。

[46] 参见王贵松,见前注[35],第103页。

[47] 参见吴志成、刘培东:“论全球南方精神与中国的实践作为”,《国际问题研究》2025年第4期,第1页。

[48] 参见吴红、杜严勇:“人工智能伦理治理:从原则到行动”,《自然辩证法研究》2021年第4期,第49页。

 

万方,北京外国语大学法学院教授

    进入专题: 人工智能  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/171529.html
文章来源:本文转自中外法学,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统