内容提要:人工智能安全是各国当前均重视的复杂治理议题。美国的人工智能治理实践近年来受到“国家安全泛化”思维的影响,而欧盟对特定人工智能应用采用禁令式立法,体现出其面对某些人工智能风险时的“安全绝对化”思维。对于美欧两大法域的这两种安全思维,可结合相关法域治理者面临的内外环境与社会认知及情绪加以理解。这两种思维对于各国人工智能国内治理体系的有效建构与必要国际合作的开展均可能产生负面影响。对它们在理论层面加以批判性审视和分析,有助于中国超越类似思维的桎梏,有效探索有利于自身发展和人类命运共同体的人工智能治理方案。
关键词:人工智能治理;国家安全泛化;风险规制;数据安全;内容安全
一、引论:人工智能时代的安全思维
事关安全的考量一向不简单,在具体语境中,要追求何种安全,要保障多高程度的安全,不同个体及群体在认知、偏好和观念上常有明显差异。
自互联网普及以来,“安全”就一直是网络数字治理的最基本面向。网络数字语境中的安全议题覆盖广泛,极端者如网络暴力致受害者死亡,严重者如电信诈骗造成民众巨额财务损失,寻常者如电商平台侵害消费者权益,不一而足。国家安全当然也是题中应有之义——各类从一国境外发起、针对该国网络基础设施的破坏行动,或借助网络开展的各类敌意行动,在公开报道中时有出现。而当人工智能技术逐步被引入数字经济的生产组织和生产场景后,许多互联网时代已出现的问题延续下来并有所演进。例如,作为当代网络法治“原点”问题的网络性暴力现象,在元宇宙和体感交互技术的“助力”下,生出更为恶劣的形态,也引发新一轮安全治理呼声。而在总体更为严重的安全焦虑笼罩下,无论社会公众还是决策精英,其有关人工智能治理的话语、认知和思维,相比于此前互联网时代的基调都有明显转变,安全作为治理议题的优先性更为突出。
但人工智能治理语境中,各国治理者寻求实现的“安全”到底意味着什么?结合对有代表性的制度动态的观察,本文尝试识别并分析美国和欧盟这两大主要法域近年来呈现的有关人工智能安全的政策思维模式。以TikTok事件相关法律流程为典型样本,可看到美国在人工智能治理领域的安全思维有“国家安全泛化”倾向。相比早先治理互联网时的自由放任姿态,美国近年将国家安全作为统领人工智能治理论域的首要议题,其范畴也远超出如自动化武器、大规模网络攻击等场景,横向吸纳了内容、数据、算法治理等各类此前与国家安全有一定区别的常规议题。不但美国立法和行政机关可在并无“实锤”的情况下认定一家商业社交媒体平台构成“严重、特殊的国家安全风险”,而且司法机关也会对政府泛化国家安全的举措予以合宪性确认。
而以《人工智能法》(Artificial Intelligence Act)为观察样本,欧盟有关人工智能安全治理的思维模式受其在风险规制领域采用的预防原则(precautionary principle)影响,倾向于对特定人工智能风险作静态认知、对安全作绝对化追求。尽管《人工智能法》在外观上呈现出技术理性的特点,尝试在梳理应用场景、区分评估风险的基础上搭建规制架构,但其背后存在情绪性因素驱动。这尤其体现在该法对“不可接受风险”(unacceptable risks)的识别及其采取的缺乏动态考量的禁令式应对之上。在忧虑人工智能风险的情绪于全球流行之际,欧洲决策者更看重的是在法律和政策层面率先抛出鲜明但趋于绝对化的安全至上立场。
本文将对美欧前述两种有关人工智能治理的安全思维作批判性分析。毫无疑问,上述安全思维不足以勾勒全球范围内有关人工智能安全治理思维的完整图谱。借助对美欧相关制度动态的观察,本文旨在提炼这两种具有普遍性的思维模式,并批判性地分析其对人工智能治理的可能负面影响。国家安全泛化思维会阻碍人工智能治理领域有益且必要的国际合作,也会影响一国国内安全治理的正常建构和实施。而安全绝对化思维强化了人工智能治理领域中常见的非此即彼、非黑即白的思维惯性,过早放弃了对有正面社会价值的应用本可采取的更为克制、动态适应的监管方案。中国应有意识地避免前述两种思维的负面影响,寻求有利于保障人工智能积极健康发展的治理方案。
二、从网络自由到国家安全泛化:
以TikTok事件为例
美国在网络数字领域长期标榜其自由竞争、开放创新的治理理念。即便在如《国际紧急状态经济权力法》(International Emergency Economic Powers Act)这样与国家安全直接相关的限制性涉外立法中,美国也曾专门将跨境信息流动排除在限制性监管的适用范围之外。但近年来,美国对地缘竞争及相关国家安全考量日益看重,政府对科技领域的干预动力明显增强。自2018年以来,美国政府多次叫停、阻拦涉及中国企业在美科技领域投资的交易。而为遏制中国发展先进人工智能,美国政府运用包括出口管制在内的各类直接和间接规制手段,限制中国获得研发所需硬件和软件。当中方取得如深度求索(DeepSeek R1)一类研发进展时,就会被视为构成针对美国的严重国家安全风险。更讽刺的是,这种官方叙事如今已被传统上宣扬技术无国界的美国产业界广泛采纳。像OpenAI等美国头部人工智能企业均公开向白宫建言加大针对中国的限制力度。尽管国家安全泛化思维在美国涉新型人工智能的法律、监管和政策领域相当突出,但其对法律流程的全面、深刻影响,在TikTok事件这一涉及“老一代”人工智能——内容推荐算法——的案例中呈现得尤为明显。TikTok事件的法律纷争表明,包括数据安全、内容安全等在内的传统治理议题,在美国已被深度统合到国家安全议题之下,这使得国家干预数字经济活动的传统边界规则被根本动摇。
(一)流行短视频社交平台的“国家安全风险”
2024年4月,美国会通过的《保护美国人免受外国对手控制应用程序侵害法》(Protecting Americans from Foreign Adversary Controlled Applications Act)被时任总统拜登签署生效。该法中,知名短视频社交媒体公司TikTok及其母公司字节跳动被指名道姓认定为“受外国对手控制”,并被要求在法案生效后270天之内完成“符合标准的权益剥离”(qualified divesture),否则不得继续在美国境内运营。所谓“符合标准的权益剥离”,指TikTok需通过交易等方式将其股权中由“外国对手”直接或间接持有的比例降至20%以下。TikTok及其用户随即在哥伦比亚特区联邦上诉法院提起诉讼,控告该法违宪。TikTok方提出,由于技术、商业和法律三方面因素,TikTok不可能按时完成权益剥离,因此该法实际上就是对TikTok的禁令,对言论自由构成严重限制,需接受严格合宪性审查。在应诉状中,美司法部为论证“不卖就禁”的合宪性提出的论点之一,是这一措施符合并服务于最重要的国家利益,即应对TikTok构成的所谓“特殊的国家安全风险”。为支持上述论点,美司法部最初只援引了一些充满臆测的媒体报道和智库材料,后向法庭提交了一份长达174页的国会内部听证发言记录,但又以涉密为由拒绝让原告查看这些所谓的事实证据。而就该论点的逻辑而言,“因为中美存在竞争关系,所以中国未来可能利用一切手段伤害美国”,这是典型的“莫须有”。
如此缺乏事实基础和逻辑性的叙事,在此前其他针对中国企业的案件中就已被美政府抛出,而其被不断重复、扩散后,逐渐便在美国公共政策话语中获得近乎“常识”的认知待遇。美国法院对此几乎照单全收。2024年9月16日,哥伦比亚特区联邦巡回上诉法院组织了该案初审的口头辩论,主审法官在庭上甚至直接给作为被告的政府“支招”,提示其应去查阅一个对其有利的先例。而在12月6日做出的初审判决中,撰写附和意见的法官提出即便《保护美国人免受外国对手控制应用程序侵害法》构成基于内容限制表达自由、应适用最严格的合宪审查标准,只要国会认为有必要“假设”国家安全风险的存在、判断其他措施不足以应对此种风险,法院也便不宜置喙。TikTok在初审判决后紧急向美联邦最高法院上诉,后者予以受理并加急审理。但在2025年1月17日做出的简短一致判决中,美最高法院认为“不卖就禁”的限制是针对所有权结构,并非针对言论内容本身,只需适用中等水平审查;尽管政府在证成禁令时提到了内容安全考量,但其同时提出了内容中立的数据安全理由,后者足以支持该法的合宪性。
2025年1月19日,《保护美国人免受外国对手控制应用程序侵害法》原定的“不卖就禁”期限达至,TikTok短暂在全美下线半天。但自特朗普1月20日就任以来,多次签署行政令,要求美司法部暂停依据《保护美国人免受外国对手控制应用程序侵害法》对TikTok执法,以寻求与中方协商解决该公司相关股权与运营安排。
(二)以数据安全捍卫内容安全:国家安全泛化的典型路径
传统上,数据安全治理针对的主要威胁是未经许可的数据获取行为,广义上也涵盖网络攻击导致的隐私侵害。而内容安全治理主要针对可能致害的特定违法违规信息内容,常见如诽谤、虚假广告、儿童色情等。各国就数据安全和内容安全形成了有区别的治理和监管议题域。数据安全相关制度主要包含对数据控制者和基础设施控制者提出的合规操作要求,从技术、流程、制度规范等方面追求控制泄露和恶意盗取等风险,并结合通知、账号被盗用的保护等机制为受影响人群提供救济。而内容规制则基于平台运用的类型极为丰富的审核、发布和传播限制、问责等机制,寻求控制致害信息的负面影响,缓解社会保护与表达自由、文化多元之间的张力。只是出于价值取向不同,各国在认定何种内容足够有害、必须受到何种限制方面常有差异。
数据安全与内容安全的规制论域中各有部分牵涉国家安全。数据安全中的国家安全风险,主要涉及外国发起的间谍情报活动,以及结合数据对网络基础设施实施的攻击。而内容安全中的国家安全风险主要涉及外国势力有针对性的宣传、煽动和渗透。上述国家安全风险传统上随时局变化起伏,但并非国内治理场域中的常规议题。然而在TikTok案中,可以明显看出,数据安全与内容安全这两大议题,在美国政府泛化国家安全的总体思路下已形成法律层面的相互绑定。在法律层面,这种绑定的后果直到TikTok事件才充分彰显,即其导致美国宪法第一修正案对于媒体原本提供的保护在数字时代遭遇“短路”。传统上,如果美国政府直接以特定媒体发表、传播的内容为对象出手规制,会面临极高的合宪性审查要求。但正如本案中美国最高法院选择的论证策略一样,如果政府以保护上升为国家安全的数据安全作为理由规制社交媒体,即使相关规制措施会对平台承载的表达产生影响,也更难被认定违宪。根据学者的观察,在国会支持下,美政府自2018年以来以国家安全名义干预跨境数据流动的权力持续扩张。而在当前法律体制下,数据安全规制实质上就是内容规制,却又是更容易通过合宪审查的内容规制,政府预计可以数据安全而非内容安全的理由更多干预社交媒体平台。
更一般而言,TikTok事件的法律纷争突出展示了美国在人工智能治理领域中泛化国家安全的思维模式及其影响。这种泛化显然不会止于社交媒体这种“老一代”人工智能的治理论域。至少就当下最热的生成式人工智能而言,其相关技术的核心原理仍可理解为“基于数据生成内容”,因此政府出于内容安全担忧要求管控数据、借助管控数据谋求内容规制的思路,定会延伸至此。甚至,由于生成式人工智能在结合推荐算法的基础上,将进一步放大内容风险,因此美国政府将视生成式人工智能为更大的国家安全风险,其以内容安全为实际目标的管控措施也已超越了数据和算法,进一步达至算力层面。而在TikTok事件中,企业本已主动提出建立将全部数据存放在可信第三方、允许政府对算法和数据行为深入监控的安全方案,即所谓“德州计划”(Project Texas),但仍不被美国政府接受。当美国这种所谓传统科技自由大国在治理思维上转向国家安全泛化,包括欧盟、英国、澳大利亚等在内的其他主要经济体,在人工智能治理领域同样可能扩张基于国家安全的投资经贸限制措施。
三、预防原则与禁令规制:
欧盟《人工智能法》中的安全绝对化思维
欧盟于2024年推出了全球首部人工智能立法,其基于风险分级的立法模式获得广泛关注。有批评者认为《人工智能法》的风险分级本身科学性存疑,且缺乏对技术应用风险及其规制的必要场景化理解;有些认为其过于死板、缺乏足够灵活性;另一些则反过来认为关注规制风险会导致保护权利不足。本文无意就《人工智能法》的立法科学性和政策合理性做完整评述,而希望将其中部分规定——尤其是第5条——作为样本,分析其反映的安全绝对化思维。尽管欧盟决策者意识到发展自身人工智能产业的战略重要性,但其在人工智能安全治理问题上延续了厌恶风险的预防原则进路。这种绝对化强调安全的思路,在应对社会情绪叙事方面或有价值,但可能过于轻易地放弃了在发展中寻求安全解法的机会。
(一)预防原则与“不可接受风险”应用禁令
在环境污染和食药安全等传统风险规制议题上,欧美之间一直被认为存在范式差异,前者奉行预防原则,后者则总体上采用成本收益分析,而何者更优则是学术界持续争论的话题。人工智能安全成为风险规制新的核心主题后,二者间比较也变得愈发微妙。所谓“预防原则”,简单说即在特定风险的存在和严重程度无法科学确证的情况下,规制者不能因“不确定有害”就不积极作为,而应推定其足够危险并加以干预。成本收益分析则要求决策者在预防特定风险的安全收益未必大于相应预防措施自身成本时不要轻举妄动,以避免导致更糟糕的未意图后果。传统讨论中,成本收益分析经常被视为更“理性”,而基于预防原则的风险规制被认为是决策者受困于“损失厌恶”或其他认知偏误的产物,甚至被称为“恐惧之法”。
有关风险的社会叙事对于公共决策等社会行动一向都有很强的驱动能力。除了常见的传言或“都市传说”(urban myth)外,不少风险叙事是由专业精英或领域专家结合专业知识建构的,后者被经济学家席勒称为“专业叙事”,其在公共政策层面产生的影响可能更大。在人工智能领域,包括曾获诺贝尔物理学奖的“机器学习之父”辛顿(Geoffrey Hinton)和商界巨头马斯克(Elon Reeve Musk)在内,许多科技业内人士近年都开始高调鼓吹人工智能毁灭人类文明的存亡风险(existential risk)。而根据席勒(Robert Shiller)的梳理,自二战以来至少出现过四波有关人工智能将替代大量劳动的叙事,这些叙事调高了人们对经济萧条即将发生、自身即将失业的预期,由此均产生过抑制社会消费的效果。
当风险叙事足够强劲时,其底层的事实基础再薄弱,也有较大可能影响到制度和政策实践。《人工智能法》以人工智能系统应用的风险高低,分出“最小风险”“有限风险”“高风险”和“不可接受的风险”四档,对应匹配宽严有别的规制。尽管这种分级分类的结构总体看追求差异化监管,但进入结构内部,却不难发现其体现出绝对化强调安全的思维:如果某种人工智能系统应用被立法者认为可能导致“不可接受的风险”,这些应用便在原则上被该法禁止。而根据《人工智能法》第5条,“被禁止的人工智能实践”包括:(1)侵入潜意识、寻求操控或欺骗;(2)利用个人弱点;(3)社会评分;(4)犯罪风险评估;(5)无区别地爬取面部图像;(6)情绪推断;(7)基于生物特征进行分类;(8)公共场所实时远程生物识别。上述应用当然有不难想象的风险,如可能危害个体安全、自由、权利。但除了(1)和(2)之外,前述实践应被一律禁止,还是应在承认可能有应用价值的前提下被有效治理,并非无可争议。
特别是,第5(1)(c)条所禁止的基于人工智能的“社会评分”(social scoring),之所以会被认为构成“不可接受的风险”,与欧盟立法者近年来迷信的关于社会信用体系建设的风险叙事脱不开干系。所谓“社会信用”(social credit),即基于传统征信数据外的行为数据评估借款人违约风险的做法,本身是西方首创。而如荷兰、奥地利、法国等国,在社会保障等公共管理领域早已有基于评分开展筛查审核的做法。但基于意识形态及有关西方社会自身严重种族歧视等问题的忧虑,欧盟建构出了有关“社会评分”的风险叙事。
虽然第5(1)(c)条中针对社会评分的规则在原则上被表述为“禁令”,但细读条文就能发现,这一“禁令”到底禁止了什么并不清楚。该条号称要禁止所有基于“社会行为”对个体或群体的评价或区别式评分,但“社会行为”概念极为宽泛,将与此相关的评分全部禁止不切实际。因此条文中又加上了诸多限定和豁免条款,指出被禁止的评分需要给人造成“不合比例”或“无法正当化”的负面影响,且不包括那些符合欧盟或成员国法律、为特定目的开展的评分实践。上述限定中,没有一条足够确切,各有巨大解释空间。而欧盟委员会在2025年2月发布的指南中,更承认该条的适用留有诸多“个案评估”空间,可能给许多实践操作留出口子。
(二)风险叙事及其应对
《人工智能法》对“不可接受风险”作出姿态上“一刀切”式禁令,在客观应对风险的意义上未必合理,也无法真正落地。《人工智能法》的立法者有意放弃了理性假设,转而更多关注风险规制具有的社会沟通属性。
理性主义规制假定只有以科学态度应对风险,才能真正有效管控风险;用科学方式向公众提供信息,能够帮助公众校正认知;而只要理性政策取得最优规制效果,就能赢得人心,化解“非理性”叙事对社会认知和行动的影响。但在人工智能风险面前,上述假设是否成立值得疑问。首先,人工智能风险活动可能的伤害后果及伤害发生的概率均有较高不确定性,“理性”的风险认知在科学上有局限,甚至科学的态度本就意味着已有知识不足以支持选用某种特定应对策略。其次,风险本身不只是纯粹的客观事实,而是一个具有主体间性的概念。脱离社会共同体及其成员的主观感知与情绪反应,我们并不能对“风险”及其影响实现全面理解。例如,针对某些病毒性传染病,除了病毒“客观”的生物属性对其致病性和传播速率有影响之外,公众对相关疾病的认知、理解及情感反应本身也会影响病毒的实际传播和致病后果。因此,将“非理性”的认知和情绪排除出风险规制的决策视野,可能意味着无法对症下药。再次,通过沟通、慎议确保社会认知遵循理性往往是过于理想化的指望,而在社交媒体建构的认知环境下,对误导信息实现有效干预的政策难度会更大。最后,想要绕开沟通、纯凭规制效果说服公众,也没有直观上那么简单。理性的风险规制追求权衡意义上的最优,这意味着必然有部分风险会落实为损失。如果伤害事件仍然发生,公众可能接受“风险规制并未奏效、实际失败”的叙事。而如果权威部门对公众心理和情绪始终不闻不问,只是“闷头开干”,那么叙事驱动下的公众行为就可能成为理性风险规制展开并见效的障碍。
基于此,在人工智能风险成为重要社会话题时,如果监管者和政策制定者明确提出某种特定风险,例如歧视加剧风险、致害事故失控风险、大规模替代风险等,尚无确凿科学依据,立法和监管不宜妄动,这即便在客观意义上是理性的,但政策实效也较为可疑。这是因为,一旦有伤害事件实际发生,而公众认为权威机关毫无作为,此时前者可能更多诉诸自发预防或防护,但这些行为要么无效,要么有效也因分散、缺乏协调而不如集中、有序、充分协调的风险应对更有效率,反而耗费更多社会资源。抑或,若权威决策者起初坚持理性克制监管的姿态,但当伤害事件发生后,公众情绪反应过度强烈,决策者被逼无奈要作180度转弯,这又会导致法律、政策和监管实践波动过于剧烈。相比于稳定的严格监管姿态,波动过大的制度环境可能反而更不利于产业发展和创新投入。在波动过大的监管环境下,企业家会有动力追求在监管宽松时期以最快速度套现获利,在政策转向的前夜迅速离场。而这不但不利于创新,本身也孕育风险:产业主体会放弃长期主义,寻求把成本尽可能外部化,而不会致力于与公众共同应对或分担技术变革的风险。
四、两种安全思维对治理的影响
人工智能等新兴科技发展迅速,在任何给定时点,人们对其应用可能带来的风险达成客观、充分甚至完整的认知或理解都很困难。美欧在人工智能治理领域呈现出的“国家安全泛化”和“安全绝对化”两种思维,各有其政治社会乃至文化基础。而在充分理解其各自背后的驱动性社会诉求基础上,我们还需要批判分析两种安全思维对人工智能治理可能产生的影响。
(一)国家安全泛化与人工智能安全的困境
无论对于国内还是国际治理而言,泛化国家安全的思维模式恰恰不利于推进真正有效的人工智能安全治理。首先,国家安全泛化不利于国内治理体系建设。如前所述,人工智能相关的数据风险和内容风险,当前在美国日益被主要作为国家安全问题来处理。当国家安全泛化时,国内监管和治理难免投鼠忌器,各国均担忧自身实施的监管过于严格,会限制其国内产业相对于他国产业的竞争力。特朗普第二次就任总统后立即废止了拜登时期颁布的内容较为全面的人工智能安全行政令,这虽有党派政治斗争的出发点,但也明显以为美国产业创新进一步松绑为落脚点。过度监管会限制技术进步,但以保护创新为名彻底放任风险也不合理。即使暂且搁置极端风险不论,新型人工智能应用的推广本身也会导致数据安全和内容安全风险加剧,这些风险虽不必然与国家安全关联,但本身足够重要。例如,生成式人工智能在训练和输出环节都可能涉及对个人数据的处理,而其输出的内容则可能包含有害信息。对于这些几十年来网络治理领域的顽疾,各国本可持续探索适当监管策略。但若受泛化国家安全的思维模式影响,将相关治理主要围绕国家安全或外来威胁展开,可能会导致监管同时过严和过松。以TikTok事件为例,一方面,只因其有所谓国家安全风险,哪怕企业同意在“德州计划”框架下接受美国政府严格监管,也仍被认定无法满足“安全”要求;另一方面,可一般适用于美国老牌社交媒体平台的联邦数据隐私立法,多年来在游说阻力下无法出台。
其次,国家安全泛化会阻碍必要的国际共识形成与合作开展。人工智能安全领域的许多议题固然有其文化性,但不意味着国家间无法形成任何共识。例如,就内容安全问题而言,各国对于恶意欺诈消费者的虚假信息的有害性和规制必要性就可以有共识。再如,各国对成年人是否可以接触色情内容并无共识,但对于禁止儿童色情,乃至禁止未成年人接触色情制品,在较大范围内有共识。国家间需要通过沟通和对话识别、促成这类共识,并在相关共识基础上形成合作。但囿于国家安全泛化的思维模式,对零和博弈的渲染遮蔽了这些共通性。2025年7月,特朗普政府发布了新的白宫人工智能政策,其开篇即将政策核心宗旨定调为赢得针对中国的人工智能竞争,这使得相关框架下人们很难寻找、开拓必要的合作空间。
而新型人工智能技术及其应用的能力日益强大,且模型开源,这使得有致害可能的人工智能技术能力的扩散存在失控风险。与核扩散失控风险所明确对应的共同毁灭性后果相比,人工智能应用能力扩散的积极和消极后果很难全面预估。竞争中的各国均有凭借技术优势压倒对方而同时确保自身毫发无伤的指望,这使得各国间更可能陷入安全竞争的困境。在生成式人工智能广泛应用于社交媒体内容生产后,可预计美国乃至更多国家都会进一步寻求限制跨国数字媒体平台在本国运营。同时,“进攻就是最好的防守”,为争夺意识形态影响力优势,各国也将有动力投入更多资源开发基于人工智能的高强度认知操控技术。
(二)安全绝对化思维的风险
虽然欧盟《人工智能法》所体现出的缺乏灵活性的绝对化安全思维并非全然不理性,但追求以严格监管姿态回应社会情绪,也可能引发至少两类未意图后果。
第一,由于“确认偏误”(confirmation bias)的作用,严厉的法律和政策表态,反而可能强化既有风险叙事对公众认知和情绪的影响。所谓“确认偏误”,是指人们通常会倾向于用与其既有信念一致的方式搜寻或解读新的信息。若权威机关对风险叙事作积极迎合姿态,公众固然可能因看到前者与其认知一致而感到宽慰,却也可能认为这种姿态恰恰印证了风险叙事的可信性。在近年有关算法和人工智能的公共讨论中,相关风险叙事时常伴随或引发人们的负面情绪。例如有关人脸识别、算法公共决策、自动驾驶、智能诊疗等应用可能带来严重风险的讨论,往往都有某种“人机双标”(human-machine double standard)倾向,即在相应领域中人类行为同样有致害风险,公众甚至专家却对换用机器后可能导致的更小风险格外看重并抵触。根据研究者梳理,个体心理倾向、群体认知习惯和特定任务属性等因素都会导致或加剧社会话语与行动层面的“算法厌恶”。人工智能相关风险叙事同样会加剧“算法厌恶”。如不能有效、系统、全面对待与这些认知相互强化的风险叙事,严厉的监管姿态可能进一步强化认知偏误。
第二,在以立法形式做出严厉治理表态后,决策者或许同时寄望由监管或司法机关借助实施细则、裁判规则等微观制度工具,为人工智能研发和应用活动提供相对宽松也更可预期的规制环境,构造“音效隔离”。但这样的制度结构会为监管俘获制造条件。经验意义上,风险规制从来都是利益集团密集投入资源寻求政策影响的领域,游说动力、游说行动和游说成果的存在,本不应令人感到意外。规制机构的中立性和专业性本应有助于抑制监管俘获,但若这两点本身得不到有效保证,且监管规则制定和执法开展的过程透明度不足,特别利益寻求俘获公器的机会就相当可观。即便事实上不存在俘获,一旦“音效隔离”失败,民众发觉立法严厉表态之下监管和司法有意变通,这同样可能推定这种变通实为监管俘获的结果。
五、思考人工智能安全治理的未来
以前述欧美思维模式为鉴,我国应基于充分的制度自信,思考、探求形成更加务实、有效、符合人类命运共同体长远利益的人工智能安全治理路径。
(一)坚持总体安全观
有效防范、应对人工智能技术及其应用可能带来的风险,包括国家安全风险,是我国人工智能治理的重要目标。相对于其他各类安全利益,国家安全具有基础性地位。新时代,我国国家安全工作以总体国家安全观作为科学指引。在人工智能治理领域,坚持总体国家安全观意味着我们应充分认识到国际斗争的现实性与严峻性,警惕外部势力破坏、遏制我国在人工智能领域实现正当发展利益的企图,并关注人工智能技术被用于破坏我国政权安全、制度安全和意识形态安全等安全利益的风险。与此同时,我国应在内容、数据等常规安全治理场景中建构科学有效、有针对性的制度和政策。我国向来坚持“互联网不是法外之地”,强调对数字空间各类风险的常态化治理,既持续关注国家安全,又同时关照发展利益。在人工智能技术兴起后,这样的治理路径得到了持续。无论是针对推荐算法,还是生成式人工智能,我国监管的治理路径都是在坚持社会保护的基础上,以具体应用场景和行为为指向,有的放矢,力求提供稳定监管预期,避免在完全放任和过度限制之间剧烈摇摆。长期上看,我国应继续坚持这一治理思路。
(二)把握社会情绪、应对风险认知
欧盟以《人工智能法》坚决对特定应用加以“封杀”,首次立法就以禁令为起点,可能导致治理部门不再有动力投入资源,从更具专业性的角度思考建构更合理、平衡、务实的治理方案。
以此为鉴,我国人工智能治理应坚持以科学精神为基础的“包容审慎”,决策部门尤其应避免被风险叙事及其诱发的情绪“带节奏”。随着对风险主体间性的理解不断深入,风险规制经验不断积累,以及规制工具箱不断丰富,在面对特定人工智能风险叙事时,治理者也可考虑以积极能动的姿态关照、疏导社会心理,回应、安抚公众情绪。例如,某些在外观或公众感知层面看起来相当严厉的制度,如对人工智能应用侵权适用无过错责任,其给产业界造成的实际负担未必沉重。如果法律和政策在应对风险时采用从严姿态,就应对受风险叙事影响的社会心理进行疏导,并同时借助特定制度技术避免在实质层面抑制创新和发展,这无疑有助于提供稳定预期、有利于创新和发展的监管环境。但这种“两全其美”是否可能达成,取决于治理者能否善用适当法律技术,并理解其局限和风险。一个或可参照的先例是,《通用数据保护条例》虽在制定时被广泛宣传为“史上最严”的立法,但就其生效后几年的实际执行来看,由于成员国分散实施的执法体制,企业享有一定的挑选管辖地的空间,这使得该法的执法时常被数据隐私业内人员批评不够严格、一致。但与此同时,有调查发现,法律生效后,尽管执行力度不够强,公众却似乎仅由于立法的存在而感到更放心了。这一经验有无可能迁移到人工智能治理,值得关注。
(三)共识积累与单边立信
人工智能治理需要加强国际对话、积累共识。例如在未成年人保护议题上,各国对相关安全利益的认知有较大重叠;像澳大利亚等西方国家,甚至已采取了比中国更为严格的限制措施。在这类议题上,我国应积极与各国开展交流,让他国了解我国的理念和经验。而我国在对内开展人工智能治理体系建设和监管实践的同时,应有意识地对国内治理议题进行充分细致梳理,使其他国家能够更清晰地看到我国在人工智能安全领域的关切,特别是看到其中与他国关切能够形成重叠和共识的范畴。在2023年《布莱切利宣言》(The Bletchley Declaration)中,包括中国在内的29国原则达成的一点共识即应致力于识别有关人工智能安全风险的“共享关切”。
基于此,尽管目前我国进行全面、横向统合各类场景的人工智能立法,在政策技术意义上仍需时日,但立法的一个可能价值在于创造有助于中国更深入参与人工智能安全治理国际合作的机制,向外界提供聚焦了解中国人工智能治理关切的窗口。其他国家可据此更有理由相信,中国确实将人工智能视为“造福人类的国际公共产品”,并正以负责任的态度着手应对人类共同面临的安全挑战。此外,坚持在人工智能领域支持开源,维护国内科技界与国外技术界的沟通交流管道,对于提升中国在人工智能安全治理领域的可信度同样至关重要。当前有关人工智能发展的国际合作强调科技发展在全球范围内的包容、公正。我国2023年发出的《全球人工智能治理倡议》已明确提出“鼓励全球共同推动人工智能健康发展,共享人工智能知识成果,开源人工智能技术”,此即对中国对人工智能发展秉持开放性的重要立场。
六、结语
在人工智能治理领域,中国已不再是法律移植的目的地,而是比较法模版的原产地。这既是中国自身经济与科技实力支撑的客观事实,也为国际社会所期待。即便在如今的美欧舆论中,主张对中国人工智能治理经验更认真对待甚至参考借鉴的论调也已经相当常见。
我国思考、探索符合本国和全人类长远利益的人工智能治理方案是一项高度复杂的工程,无法一蹴而就,也不能埋头独行。对于我国而言,持续关注美欧经验依然具有重要价值。但这不仅意味着要以批判的视角审视其具体实践,也要把握、提炼其实践背后的思维模式,并深入剖析其后果。以此种比较法工作为基础,有助于生成具有自主性的治理知识和思路,为人工智能治理提供中国智慧、中国方案。
来源:《环球法律评论》2025年第6期