黄慧敏:涉外人工智能侵权的法律适用偏差及其调适

选择字号:   本文共阅读 331 次 更新时间:2026-01-16 23:26

进入专题: 人工智能   涉外侵权   冲突规范   法律适用  

黄慧敏  

内容提要:涉外人工智能侵权行为的特殊性给现代涉外侵权冲突规范带来前所未有的挑战。现行涉外侵权冲突规范适用于涉外人工智能侵权案件时,暴露出特殊侵权识别标准的模糊性、侵权行为地认定的不确定性、强制规性规范判断标准的缺失以及公共秩序保留范围的模糊性等偏差。尽管如此,中国现行涉外侵权冲突规范凭借其技术中立性与体系包容性,仍能为涉外人工智能侵权提供法律适用基础,短期内并无单独制定涉外人工智能侵权冲突规范的必要性和紧迫性。针对涉外人工智能侵权的法律适用偏差问题,应通过基于解释论的调适路径对涉外侵权冲突规范的核心规则进行解释和重塑,以更好地应对人工智能技术所带来的法律适用难题。

标题注释:本文系国家社科基金青年项目“我国航空制造业涉外法治保障研究”(项目编号:24CFX118)的阶段性成果。

关键词:人工智能/ 涉外侵权/ 冲突规范/ 法律适用/ 准据法

原文出处:《中国政法大学学报》(京)2025年第5期 第266-276页

作者简介:黄慧敏(1995- ),女,广东珠海人,现为中国政法大学国际法学院/涉外法治学院博士研究生,研究方向为国际私法。

 

一、问题的提出

随着人工智能技术的不断发展和跨国应用的不断加深,其引发的民事侵权风险已突破地域限制,呈现出全球化的新态势。人工智能的自主性、不可解释性等技术特征对既有的侵权责任体系构成严峻挑战。在涉外人工智能侵权场景中,现行侵权冲突规范的局限性日益凸显。如何在技术创新和受害人保护之间取得平衡,并有效应对因各国法律价值取向的分歧所导致的侵权法律适用冲突,已成为国际私法领域亟须回应的重要议题。

放眼全球,国家之间人工智能发展政策和立法价值取向的差异深刻影响着各国人工智能侵权体系的构建方向。以美国为例,其立法倾向于在既有法律框架内对人工智能侵权责任做出扩张解释,以鼓励技术创新。例如,内华达州2011年通过的《自动驾驶车辆法案》明确了车辆原制造商仅对原始制造缺陷承担责任,经第三方改装的自动驾驶系统制造商不承担改装所致的损害责任。①与之形成鲜明对比的是巴西,该国致力于突破传统侵权责任框架的束缚,构建体现受害者保护倾向的侵权责任规则。巴西《人工智能法案(草案)》规定,高风险人工智能系统的提供者和使用者承担严格责任,并推定其在损害方面存在过错。②可见,不同国家人工智能立法价值差异导致的侵权规则碎片化,不仅会增加跨国人工智能企业的合规成本,还可能诱发监管套利风险。与此同时,各国法院在处理涉外人工智能侵权案件时,既要应对缺乏统一冲突规范带来的不确定性,又需平衡技术创新保护与受害人救济的价值冲突。

我国始终秉持发展与规制并重的治理理念,已逐步构建起分层递进的人工智能立法体系。自2017年国务院印发《新一代人工智能发展规划》确立人工智能发展“三步走”战略以来,我国的人工智能发展政策呈现出从技术研发到产业应用逐步深化的趋势,形成了覆盖人工智能全生命周期的政策体系。2023—2024年国务院连续将人工智能法列入立法计划,意味着中国的人工智能立法进入系统立法攻坚期。借此契机,国内学者起草了《人工智能示范法(专家建议稿)》《人工智能法(学者建议稿)》,并对人工智能民事侵权责任作出了原则性规定,为涉外侵权准据法的讨论留下了接口。③在这一背景下,深入探讨涉外人工智能侵权的法律适用问题具有现实意义。为此,本文旨在聚焦现行侵权冲突规范在涉外人工智能侵权中的法律适用偏差及其调适路径,以期为我国的司法实践与立法完善提供参考。本文首先剖析涉外人工智能侵权的特殊性;继而分析现行侵权冲突规范在涉外人工智能侵权案件场景中暴露出来的适用偏差;本文最后立足于中国“发展与规制并重”的人工智能治理理念,提出中国无须单独制定涉外人工智能侵权冲突规范,而是在解释论层面对现行侵权冲突规范的核心规则进行解释和重塑的调适路径。

二、涉外人工智能侵权的特殊性

(一)涉外人工智能侵权类型的多样化

随着人工智能技术的不断发展,人工智能的应用已从自动驾驶汽车、无人驾驶航空器等实体硬件产品扩展至云端算法、生成式人工智能等无形的服务系统。人工智能应用形式呈现出多元化的特点,而这样的特点决定了涉外侵权类型和侵权客体的多样性。例如,在医疗领域,医生可以借助配备人工智能系统远程医疗平台跨境诊断病情、实施外科手术,在此过程医生中可能会因人工智能算法缺陷导致误诊,从而引发人身侵权。又如,在金融领域,跨境投资机构可以通过人工智能对全球金融活动进行风险评估、基于算法提供跨境投资和资产管理的建议,一旦人工智能系统出错,可能导致用户遭受巨额财产损失,构成财产侵权。再如,在法律服务领域,法律人工智能进行在合同审查、案件预测时出现错误,可能损害当事人的合法权益,引发服务侵权。

涉外人工智能侵权有着不同维度的分类方式。按照人工智能的自主程度,可以分为因人类使用人工智能引发的侵权和因人工智能自身缺陷或瑕疵导致的侵权;按照人工智能侵权的客体不同,可以分为人身侵权、财产侵权、产品侵权、环境侵权、知识产权侵权、劳动侵权等。按照人工智能的应用形式,可以分为实体人工智能造成的侵权和人工智能系统造成的侵权。本文聚焦于由人工智能造成且具有涉外因素的一般侵权、产品侵权、人格权侵权,不涉及涉外知识产权侵权的讨论。这是因为,跨境知识产权保护具有强烈的地域性,各国在人工智能生成内容是否构成作品、作者的身份、著作权的归属以及侵权责任的认定等问题上存在更大的分歧。另外,人工智能知识产权侵权的客体可能涉及多个作品的集合,存在多个侵权行为地,侵权行为地、被请求保护地的认定更为复杂,因而有其特殊的研究范式。

(二)不同风险等级人工智能侵权责任规则的冲突

对人工智能进行风险分级,将人工智能风险置于应用领域和场景中进行管理与规制,是各国人工智能监管立法的主要趋势。人工智能风险层级的确定取决于多种因素,包括对个人基本权利、安全等价值的威胁程度、风险与应用方式之间的相互作用、损害结果的严重程度以及可逆性等。④欧盟《人工智能法案》确立的不可接受风险、高风险、有限风险、低风险四级风险分类体系正是基于此逻辑将人工智能的技术特征与侵权责任进行匹配。具体而言,高风险人工智能因其具有自主性、不透明性和不可解释性等特性,使得受害者在确定侵权责任主体、证明产品缺陷、因果关系等问题上存在极大的举证困难。为此,欧盟《人工智能民事责任指令(提案)》高风险人工智能系统的运营商设置了严苛的证据披露义务和过错推定责任。⑤而对于自主化程度、风险等级较低的人工智能而言,因其可解释性强、损害后果可控等特点,其应用过程对于人身安全和财产权的危害性不大,宜适用过错责任。然而,全球范围内并未形成统一的风险分级标准,甚至有的国家未对人工智能实施分级分类监管,这直接导致了不同法域之间监管模式的碎片化与不兼容。这种制度差异直接导致相同的人工智能在不同国家可能被认定为不同风险等级,从而引发跨法域的法律冲突。

(三)侵权行为实施地和损害结果发生地的隔地性

人工智能的开发、运营和应用通常不受物理界限的限制,其决策过程和行为可能在全球范围发生。人工智能每个组件的运行和维护可能分散在不同地区,这样的分布式特点决定了涉外人工智能侵权案件的侵权行为实施地、损害结果发生地以及其他与该案件有实质联系的地点具有隔地性,从而增加了法律适用的难度。在实体人工智能造成物理伤害情况下,侵权行为实施地和损害结果发生地通常较为集中,较易认定。然而,当人工智能系统侵犯他人的虚拟财产或者人格权时,侵权行为地的确定将存在相当大的困难。例如,若人工智能系统侵犯了存放于区块链中的虚拟货币财产,由于虚拟货币以去中心化方式储存在遍布全球的大量节点上,法院难以确定损害发生地。又如,生成式人工智能系统的用户使用该系统生成了虚假的图片、视频等内容并跨国传播,可能同时侵犯他人的隐私权、名誉权、肖像权。这类侵权涉及两个问题:一是生成式人工智能需要海量的数据作为参数,如果开发者非法搜集境外的数据对人工智能系统进行训练,则可能导致隐私权侵权发生在多个国家,进而引发不同国家法律的适用问题;二是侵权行为人通过网络方式在全球范围内传播虚假信息,使得人格权侵权的侵权行为地和损害发生地具有隔地性。

三、涉外人工智能侵权的法律适用偏差

涉外人工智能侵权的特殊性正以前所未有的方式对现代侵权冲突规范提出了挑战。本部分旨在深入剖析现行侵权冲突规范适用于涉外人工智能侵权时所显现的偏差,揭示现行法律体系在调整涉外人工智能侵权所面临的困境。

(一)特殊侵权识别标准的模糊性

涉外人工智能侵权的准确识别是正确选择冲突规范和准据法的前提和基础。然而,人工智能应用形态的复杂性使得侵权类型识别成为一个难题,直接影响法律选择的准确性。

1.产品侵权的识别

从历史发展来看,侵权责任法经历了类型化到一般条款再到一般条款与类型化并重的发展历程。⑥在一般侵权责任规则与特殊侵权责任归责并行的侵权责任体系下,区分人工智能的产品属性和服务属性对涉外人工智能侵权的识别具有重要意义。然而,人工智能的表现形式既包括人工智能系统与硬件相结合的有体物,也包括以无体物形式存在的人工智能系统。前者符合大多数国家对于产品有形性的要求,可较为明确地被界定为“产品”。也就是说,因实体人工智能产品缺陷导致的涉外侵权可以通过产品侵权冲突规范确定准据法。然而,在更多情况下,人工智能以无形的软件、算法或云端服务的形态出现,具备服务和产品双重属性,学界对于这类人工智能是否属于产品的范畴众说纷纭。一种观点认为,有形性是界定产品的核心标准,储存在如DVD或闪存盘等有形介质中的软件可以视为产品;而通过云服务下载的人工智能应视为服务。⑦另一种观点认为,有形性不是判断人工智能产品的唯一标准,人工智能软件即便是通过云服务下载的,也可能因其使用目的具有产品的属性。⑧由此可见,人工智能软件在产品属性与服务属性之间的界限模糊,往往会导致不同国家对于“产品”的定义存在差异,从而引发涉外侵权类型的识别冲突。识别结果的差异不仅导致受害人在举证责任、责任主体范围和赔偿标准方面存在巨大落差,也使得涉外人工智能侵权案件中的法律结果具有高度不确定。

2.人格权侵权的识别

人格权侵权的非实体化特征同样对涉外人格权侵权的识别构成挑战。涉外人工智能人格权侵权涉及隐私和个人信息保护权、名誉权、肖像权等非物质性权利,其具体表现形式是通过内嵌于生成式人工智能的算法生成虚假或误导性信息、图片、视频。这类虚假信息是根据特定用户输入的指令生成的,本身不具有直接公开性,只有经过该用户或者其他主体的二次跨境传播才会对人格权造成现实侵害。《法律适用法》第46条将人格权侵权的方式界定为“通过网络或者采用其他方式造成的人格侵权”,但其“其他方式”措辞的含义并不清晰,在实践中可能存在人工智能造成的人格权侵权能否适用该条款的争议。尽管有法院在司法实践中将“其他方式”解释为“与网络相近或相类似的媒介传播方式”,例如电视、电影、广播、传真、电报、短信等无线通信方式或报纸、杂志、图书、信件等纸质传媒方式。⑨但由于人工智能侵犯人格权与网络方式侵犯人格权的行为在公开性和扩散速度等方面存在本质差异,这样的解读不足以证成涉外人工智能侵犯人格权适用第46条具有合理性。此外,在既有的司法实践中,已经出现了一般侵权冲突规则在人格权侵权领域扩大适用的倾向,即适用侵权行为地和意思自治原则确定涉外人格权侵权案件的准据法。⑩若这种趋势延续到涉外人工智能侵权场景,如果人工智能在损害他人人格权的同时造成了生命、健康的严重损害,一般侵权冲突规范适用的不当扩张将进一步加剧了裁判结果的不确定性与法律冲突。

(二)侵权行为地认定的不确定性

传统的涉外侵权冲突法通常选择“侵权行为地法”(lex loci delicti)作为调整涉外侵权法律关系的核心连结点,目的是在维护潜在侵权行为人法律适用的可预见性和保护受害人权益之间取得合理平衡。在涉外人工智能侵权中,侵权行为地这一连结点面临的适用困境主要体现为两对矛盾:一是侵权行为实施地(lex loci delicti commissi)和侵权损害结果发生地(lex loci damni)之间的适用冲突。前者通常指向人工智能开发、训练、部署的物理场所及信息设备所在地,而后者则指向实际受害人遭受损害的地点。在涉外人工智能侵权案件中,人工智能的开发、训练和部署可能分别位于多个国家,法院难以确定侵权行为发生时主要的侵权行为实施地。与此同时,人工智能造成的损害结果可能通过互联网或者跨境服务扩散到多个国家。无论是适用侵权行为实施地法,还是适用侵权结果发生地法,法院在确定准据法时均存在明显的局限性。二是人工智能创新与弱者利益保护的矛盾。从价值取向上看,侵权行为地的选择直接体现出法官对于创新激励与受害人保护的价值保护倾向。一方面,适用侵权行为实施地法固然可以提高潜在侵权行为人对法律适用的可预见性,为人工智能的发展和创新提供稳定的法律环境。但是,这种方法也可能增加受害者的诉讼成本、减少他们获得赔偿的机会,并且可能导致人工智能企业通过将核心环节置于人工智能侵权责任规则较为宽松的国家来规避更严格的法律责任。另一方面,适用损害发生地法虽有利于对受害者进行倾斜保护,便于受害者在当地寻求救济,但人工智能企业可能因为难以预见损害可能会发生在哪个国家而导致合规成本激增,从而抑制技术创新。

然而,《法律适用法》对于如何在侵权行为实施地法和侵权结果发生地法之间做出选择的问题并未确立客观的选择标准,而是交由法院根据个案定夺。从表面上看,《法律适用法》似乎为涉外人工智能侵权行为地的确定提供了一定的选择空间,但实际上缺乏统一的界定标准会导致判决结果的不确定性以及充满法官强烈的个人色彩。(11)

(三)强制性规范适用的判断标准缺失

在涉外侵权法律适用中,尽管允许当事人协议选择准据法,但考虑到侵权领域所承载的公共政策和公平价值理念,法律能够允许当事人自由选择准据法的空间相对有限。(12)在人工智能领域,各国均试图通过强制性规范引导人工智能的发展方向、规制潜在风险、维护核心公共利益。然而,各国人工智能立法的碎片化使得法院在识别和适用强制性规范时存在不确定性,从而削弱其对当事人意思自治的限制功能。

此处的强制性规范应理解为国际强制性规范,即为了维护一国在政治、社会、经济与文化等领域的重大公共利益,无须多边冲突规范的指引而直接适用国际民商事案件的实体法强制性规范。(13)国际强制性规范的适用在客观上具有排除冲突规范指引和当事人意思自治结果的特点,主观上旨在服务于维护国家的政治、社会和经济秩序等重要社会利益。(14)然而,中国人工智能领域的立法现状给强制性规范的识别和适用带来了现实困境。当前,中国的人工智能法律体系并不完备,呈现出规范碎片化且法律位阶不高的特点。虽然《网络安全法》《个人信息保护法》《数据安全法》等法律初步确立了部分人工智能的制度基础,但是大量具体规定分散在行政法规、部门规章和政策性文件中。这些规范往往不属于《法律适用法》第4条所规定的“法律、行政法规”的范畴,因而不能直接适用于涉外人工智能侵权关系。更为复杂的是,由于人工智能立法的调整对象、调整的社会关系具有高度不确定性,人工智能立法应适应未来技术发展中产生的不确定性。(15)因此,现有的人工智能法律规范往往较为原则和宏观,缺乏具体适用标准,从而加重了法官对国际强制性规范识别的压力。一方面,法院需要面对分散在不同法律、行政法规、部门规章、规范性文件中的大量不明确规范,并逐一判断其是否构成国际强制性规范;另一方面,法院还要结合公共利益保护需求判断其是否具有排除冲突规范和意思自治的效力。这种主观判断的模糊性导致适用标准的不统一,使得当事人意思自治原则的边界变得难以把控。

在涉外人工智能侵权中,强制性规范可能涵盖算法反歧视、消费者保护、数据隐私与透明度等诸多方面。尽管这些规范中的部分规定不具备《法律适用法》第4条的法律位阶要求,但所保障的消费者知情权、劳动者平等权、未成年保护等实质性利益,已达到应被认定为“强制性规范”的主观标准。因此,法院在个案中对这些规范的适用与界定亟须结合人工智能发展的政策导向,确保不会忽视对重大利益的保护。

(四)公共秩序保留范围的模糊与滥用风险

在涉外侵权的法律适用过程中,无论外国实体法是经冲突规范指引而适用,还是当事人协议选择适用,倘若其适用后果与法院地国的基本法律原则和社会核心价值严重冲突,法院即可援引公共秩序保留制度予以排除。然而,公共秩序保留制度只能在外国实体法严重违背本国法律基本原则或强行法的情况下才能被运用,以体现公平对待外国法的态度。(16)

瑞士学者布鲁歇提出将公共秩序分为国内公共秩序与国际公共秩序两类,前者在法院地的内国法适用时才予以适用,而后者则绝对要求在国际私法领域内适用。这一理论表明,在涉外人工智能侵权案件中,仅当涉及国际社会普遍接受且本国法律明确承认的基本法律原则和人工智能发展价值导向时,法院方可据此排除外国法的适用。然而,公共秩序保留制度在涉外人工智能侵权领域的适用面临双重困境。首先,国际治理格局的碎片化导致共识丧失。尽管联合国国际贸易法委员会、联合国教科文组织等国际机构和中国、美国、欧盟、俄罗斯等国家已形成了监管和规制人工智能的基本构架,但不同国家和地区在人工智能立法的目标、重点与进程上难以达成一致。(17)这种多元分化的治理方式使得各国对涉及人工智能侵权的国际公共秩序难以形成共识。其次,公共秩序的适用具有主观性和不确定性。涉外人工智能侵权所适用的外国法是否违反法院地国的公共秩序取决于各国对基本法律原则、根本政策或者国家利益的衡量标准。该标准与法院地国的政策导向紧密相关,但缺乏明确的实体考量因素。可见,涉外人工智能侵权案件中公共秩序保留制度适用的不确定不仅损害了当事人的预见性利益,还可能引发法院地国滥用公共秩序保留的问题,从而有损国际私法的稳定性根基。

四、中国涉外人工智能侵权法律适用的调适路径

(一)调适的前提:中国现行侵权冲突规范的包容性

在人工智能的极速发展和广泛应用的时代背景下,科技与法律之间的冲突已经延伸到国际私法领域中,对我国传统侵权冲突规范提出适应性挑战。然而,尽管我国尚未制定涉外人工智能侵权法律适用规则,但是《法律适用法》所构建的侵权冲突规范体系本身就具备足够的包容性和灵活性,足以应对涉外人工智能侵权所带来的法律问题。首先,这种包容性源于法律的技术中立性原则。现代侵权冲突法体现出来的技术中立原则旨在确保法律规则的长期适用性,避免因技术发展而频繁修改立法。(18)这种立法原则聚焦于侵权行为构成要件与法律效果的本质关联,而非具体技术的实现路径。因此,中国现行涉外侵权冲突规范能够覆盖不同类型人工智能侵权,并在确定人工智能损害赔偿责任准据法方面起到主导作用。单独为人工智能侵权设计冲突规范不仅可能违背技术中立性原则,而且还可能导致法律过度干预技术发展。其次,人工智能侵权并未突破传统侵权法律的理论框架。虽然涉外人工智能侵权类型多样,但无论其具体表现形式为何,本质上仍是侵权行为的一种。在实体法上,涉外人工智能侵权所涉及的责任主体、归责原则、因果关系等核心问题并未超出传统侵权法的范畴。即使人工智能所具有的自主性和不透明性增加了民事责任的认定难度,但仍可以通过现有的法律框架进行解释以适应人工智能侵权的特性。

从实证角度来看,单独设计涉外人工智能冲突规范可能导致法律碎片化,增加法律适用的复杂性和不确定性。在全球人工智能治理共识尚未形成的情况下,各国人工智能立法差异巨大。在此背景下制定专门的涉外人工智能侵权冲突规范很有可能导致国际法律碎片化和法律冲突加剧,反而不利于涉外人工智能侵权问题的解决。欧盟关于人工智能民事责任立法过程为这一解释路径提供了实证支撑。欧盟议会曾在2020年提出的《人工智能民事责任指令(草案)》中,试图将涉外人工智能侵权的冲突规范从传统侵权冲突规范体系中剥离出来。然而,由于有学者批评其偏离了欧盟传统侵权冲突规范立法理念,被视为是一种“向过去前进”的方式。(19)因此,2022年提出的《人工智能民事责任指令(提案)》删除了草案中单设的涉外人工智能侵权冲突规范,回归到欧盟传统侵权冲突规范体系的做法。然而,由于欧盟各成员国对人工智能民事责任实体法的分歧在短期内无法弥合,欧盟在2025年的工作计划中撤回了该提案。这一系列立法历程印证了继续沿用传统侵权冲突规范应对新技术挑战的可行性。

综上,无论从学理角度还是实证角度,我国并无单独制定人工智能侵权冲突规范的必要性和紧迫性。对于现行侵权冲突规范在涉外人工智能侵权适用问题上产生的偏差,完全可以通过制定专项司法解释、发布指导性案例等方式偏差进行适应性调适。

(二)基于解释论的调适路径:核心规则的解释与重塑

尽管我国现行侵权冲突规范具备一定的包容性,但在实践中,人工智能侵权所带来的新型挑战使得现行侵权冲突规则的适用存在诸多模糊地带。因此,有必要采取解释论的调适路径,通过对核心规则解释与重塑,为司法实践提供清晰、可操作的指引,从而提升法律适用的确定性和可预见性。

1.确定不同侵权类型的识别标准

在涉外人工智能侵权案件中,特殊侵权类型的识别是准确进行法律适用的前提,需以《法律适用法》第8条确立的法院地法为依据。然而,我国现行法律体系对不同侵权类型的界分存在制度空白,导致冲突规范适用面临现实困境。为了提升法律适用的一致性和可预见性,中国亟须建构明确的类型化识别标准。

首先,解决涉外人工智能产品侵权识别问题的着力点是明确“人工智能产品”的概念。我国应突破《产品质量法》对产品的传统界定,结合人工智能应用类型多样化和数字服务的技术特点对产品的外延进行调整和更新。一是对具备批量生产和流通属性的实体人工智能,应直接纳入产品范畴。二是突破有形性限制,将具有规模化生产特征、服务同质化属性且风险可控的人工智能软件纳入产品责任体系。这是因为产品的本质属性在于其生产、规模销售带来的社会效应,软件的无形性特征并不构成其适用产品责任的障碍。三是结合产品责任的制度功能,从生产规模化程度、服务同质性特征及风险控制能力等维度对人工智能软件的产品性质进行动态评估,对兼具产品与服务特性的混合型人工智能进行个案识别。

其次,针对《法律适用法》第46条在涉外人工智能人格权侵权中的适用争议,需构建明确的解释机制。法院在适用第46条人格权侵权冲突规范时,应结合人工智能侵犯人格权的场景对该条款进行扩张解释,即将深度学习、自然语言处理、图像生成等技术生成虚假内容的新型侵权方式纳入为造成人格权侵权的“其他情形”的范畴,从而呼应《民法典》第990条对精神性人格权的保护需求。在此基础上,当同一人工智能侵权行为分别造成身体性人格权侵权和精神性人格权侵权时,可通过双层解释框架进行法律适用:对于身体性人格权侵权,应适用第44条一般侵权冲突规范,而精神性人格权侵权则适用第46条规定。

2.合理界定侵权行为地的具体指向

在涉外人工智能案件中,侵权行为地的认定应当体现出提高法律适用的可预见性和保护受侵害人权益之间的合理平衡。结合人工智能的“算法黑箱”特性以及侵权行为与损害结果的隔地性,法院应当将人工智能侵权案件中的侵权行为地统一解释为损害结果发生地。尽管有学者担忧此举可能导致受害人只能获得较低的保护,(20)但从政策考量来看,由于人工智能侵权往往具有不可预见性和广泛扩散性,适用损害发生地法可以有效防止侵权行为人“挑选法院”,遏制行为人规避严格责任的行为。与此同时,适用损害发生地契合“弱者利益保护”的价值取向,适用受害人熟悉的法律寻求救济,实质上改善了当事人因“算法黑箱”特性带来的不公平的诉讼地位。从经济角度来看,损害结果发生地法的选择实现了风险分配的最优配置。在大多数情况下,侵权行为人应该能够预见其行为可能在另一个国家造成损害,而受害者则应该能够依据其遭受损害地的法律标准获得赔偿。(21)如此看来,在现有的法律框架不变的情况下,将传统侵权冲突规范中的侵权行为地解释为损害发生地,既能为人工智能产业的发展留足创新空间,又贯彻了实质正义的价值追求。

3.明晰国际强制性规范的适用界限

涉外人工智能侵权当事人协议选择的准据法并非毫无限制,而是要接受强制性规范的约束。当前,我国人工智能的立法如《数据安全法》《个人信息保护法》《网络安全法》《互联网信息服务管理办法》《生成式人工智能服务管理暂行办法》等,已初步建立起以风险要素为基础的分级监管体系,这样的立法更多地体现了对国家安全、公共利益以及个人信息保护的安全价值。(22)尽管我国暂未通过法律形式明确人工智能分级分类标准,但是《人工智能法(学者建议稿)》确立的关键人工智能特殊监管制度,基本可以成为识别国际强制性规范的示范。(23)基于此,中国法院在审查涉外人工智能侵权案件中当事人协议选择的准据法时,应当结合人工智能分级监管的特点,对现行立法中的强制性规范进行区分和识别。一方面,对于涉及关键人工智能的监管规则,如信息披露义务、重要数据处理、个人数据控制权、算法歧视等,因其直接关系到社会公共利益及弱者利益,应被解释为《法律适用法司法解释(一)》第10条中“应当认定为强制性规定的其他情形”,从而具有排除冲突规范与意思自治的直接适用效力。另一方面,对于非关键风险人工智能的监管规范,除非涉及重大民生问题和社会公共利益,否则一般不宜认定为“直接适用的法”,以免过度限制当事人的协议选法的自由。

国际立法趋势亦印证了人工智能领域强制性规范识别的价值导向。在欧盟、美国、日本、韩国等法域,人工智能法律的监管重点在于保护劳动者、消费者等特殊群体,防范算法歧视,加强隐私权与数据安全保障,以及提升系统透明度和责任机制建设等方面。例如,英国于2025年提出了《人工智能(监管)法案》草案,明确要求人工智能开发及运营企业必须做到对人工智能技术及其应用进行全面的透明度测试,并应严格遵守如数据保护、隐私、知识产权等法律的强制性规定。(24)中国法院可以借鉴前述立法例中重点规范的内容,作为识别人工智能强制性规范的参考。在国际强制性规范的具体判断上,应以关涉重大公益作为国际强制性规范的必要条件,应综合考虑该规范所属领域的特点、规范的目的、内容、实施方式、法律效力及其所体现的政策等因素。(25)唯有如此,才能在促进国际民商交往稳定性的同时,有效实现人工智能治理中的国家利益保障与个人权利保护之间的平衡。

4.列举公共秩序保留的考量因素

由于传统侵权冲突规范存在一定的局限性,公共秩序保留作为国际私法中排除外国法适用的一项重要制度,有利于一国法院或法官根据本国利益的需要,决定是否适用根据冲突规则指引所应予适用外国法,从而有效保护本国利益、保护当事人合法利益。(26)在人工智能迅速发展的背景下,该制度对于应对人工智能技术的不透明性、责任分配困难等问题尤为关键,能够防止形式上的法律适用剥夺受害人获得实质救济的权利。现有的国际人工智能立法与治理政策已为公共秩序保留范围的划定提供了若干参考路径。例如,欧盟的人工智能高级别专家组(AI HLEG)在2019年发布的《人工智能道德准则指南》明确提出尊重人类自主权、防止人工智能损害、公平和可解释性四项核心道德原则,形成了较为系统的公共秩序评估框架。(27)美国加利福尼亚州通过《违反公共政策的合同、个人或专业服务、数字复制品法案》,明确限制合同中滥用人工智能复制演员姓名、肖像等人格信息的条款,反映出公共政策对新型人格权的保护。与国际趋势相呼应,我国《新一代人工智能发展规划》确立的“人工智能的发展与防范风险并重”的政策导向,以及《人工智能伦理规范》提出的“增进人类福祉、促进公平公正、保护隐私安全、强化责任担当”等基本伦理原则,为法官判断外国法的适用是否违反本国的公共秩序提供了价值指南。在涉外人工智能案件中,如果外国法的民事侵权责任规则与上述伦理原则相冲突时,法院即可援引公共秩序保留排除该外国法的适用。

然而,鉴于当前司法实践中存在公共秩序保留的裁量尺度模糊的困境,我国有必要通过司法解释或者指导案例明确涉外人工智能侵权案件中公共秩序审查的实体因素,具体可以从以下几个维度考虑:(1)在国家安全与社会稳定维度,重点评估人工智能技术应用对国家数据主权、网络主权、关键基础设施安全的潜在威胁;(2)在公序良俗与社会伦理维度,考察算法歧视、深度伪造等技术滥用对社会道德底线的冲击,损害社会信任机制与伦理规范;(3)在个人基本权利维度,应关注外国法是否妥善保障受害人的隐私权、知情权、肖像权、声音权等数字人格权,避免对人格尊严构成侵害;(4)在风险控制与责任分配维度,审查法律选择结果是否削弱我国对关键风险人工智能系统的监管效果,或降低人工智能开发者、运营者的责任承担标准;(5)在创新激励维度,在保障基本权利的同时,也应避免对外国法适用的过度排除,防止滥用公共秩序保留制度抑制人工智能产业创新和技术发展,应在促进创新和保障公正之间寻求平衡。

五、结论与展望

涉外人工智能侵权因其自主性和不可解释性的技术特性,呈现出与传统侵权类型截然不同的特殊性。这些特殊性集中体现在以下几个方面:一是涉外人工智能侵权类型和客体复杂化;二是不同风险等级侵权责任规则的冲突;三是侵权行为地与损害发生地的隔地性。

现行侵权冲突规范适用于涉外人工智能侵权时,暴露出明显适用偏差。一是传统侵权冲突规范在涉外产品侵权与人格权侵权的识别上,存在概念界定模糊和一般侵权冲突规则扩张适用的局限;二是在涉外人工智能侵权中侵权行为地的认定上难以提供统一指引,侵权行为地的确定存在困难;三是在涉外人工智能侵权中,强制性规范的识别和适用标准付之阙如,存在不确定性,从而削弱了法律选择规则的功能;四是由于人工智能技术风险的复杂性以及全球治理格局的碎片化,公共秩序保留范围的模糊性加剧了制度适用的不确定性和滥用的风险。

当前,现行侵权冲突规范的技术中立特点及其本身所具备的灵活性,足以包容涉外人工智能侵权的特殊性,为涉外人工智能侵权案件提供基础的法律适用指引。中国单独制定人工智能侵权冲突规范不具备必要性和紧迫性。因此,本文认为可以通过解释论对中国现行的侵权冲突规范中的核心规则进行调适。首先,中国亟须在实体法层面建构明确的类型化识别标准,以增强冲突规范适用的确定性。其次,鉴于涉外人工智能侵权行为实施地与损害结果发生地常呈现出隔地性特征,将侵权行为地解释为“损害发生地”既能回应实质正义需求,又能避免过度扩张管辖对人工智能产业创新的抑制。第三,中国在审查涉外人工智能侵权案件中当事人协议选择的准据法时,应当结合人工智能分级监管的特点对强制性规范作出国内强制规范和国际强制规范的区分。在国际强制性规范的具体判断上,应以关涉重大公益作为国际强制性规范的必要条件。最后,针对当前司法实践中存在公共秩序保留的裁量尺度模糊的困境,中国有必要通过司法解释或者指导案例明确涉外人工智能侵权案件中公共秩序审查的实体因素,为司法实践提供指导。

尽管传统涉外侵权冲突规范适用于涉外人工智能侵权时存在诸多偏差,但通过解释论对现行侵权冲突规范解释和重塑,足以在保障法律稳定性的前提下,有效应对人工智能时代带来的法律挑战。但从长远来看,全球范围内人工智能侵权责任立法的趋同与协调才是破解涉外人工智能侵权法律适用困境的根本之道。

注释:

①美国内华达州《自动驾驶汽车法案》明确了机动车辆原制造商与将其改装为自动驾驶汽车的第三方之间的责任:车辆在被第三方改造为自动驾驶车辆后,车辆的原始制造商不对自动驾驶车辆的缺陷承担赔偿责任,除非有证据证明造成伤害的缺陷存在于最初制造的车辆中;经未经授权的第三方改装的自动驾驶系统的原制造商,不对因第三方改装自动驾驶系统所造成的缺陷承担损害赔偿责任,除非有证据证明造成伤害的缺陷存在于原制造自动驾驶系统中。详见Nevada.Revised.Statutes.§ 482A.090。

②Anna Oberschelp de Meneses et al.,Brazil's Senate Committee Publishes AI Report and Draft AI Law,2024.1.27,http://gffggd577fe4cadd84a45scxfn0f665o996wu0.fgzb.hbpu.wttczd-86544418598.com/emerging-technologies/brazils-senate-committee-publishes-ai-report-and-draft-ai-law/,last visited on September 3th,2025.

③《人工智能示范法1.0(专家建议稿)》第66条、《人工智能示范法2.0(专家建议稿)》第70条规定,人工智能侵权者和提供者为人工智能民事侵权的责任主体,适用过错推定责任。相比之下,《人工智能法(学者建议稿)》则对人工智能民事侵权责任规定得更为详尽,其中第85条规定人工智能提供者主要适用过错责任,对于关键人工智能适用过错推定责任;第86条规定人工智能使用者则适用过错责任,开发者和提供者在未尽义务时承担补充责任;第87条为人工智能服务提供者设定了避风港原则;第88条协调了人工智能产品侵权与传统产品责任侵权直接的关系,对于人工智能产品侵权适用严格责任。

④See Johanna Chamberlain,"The Risk-Based Approach of the European Union's Proposed Artificial Intelligence Regulation:Some Comments from a Tort.Law Perspective",European Journal of Risk Regulation,Vol.14,No.1(2023),pp.5-7; Ş.Barιș Özçelik,"Civil Liability Regime for Artificial Intelligence:A Critical Analysis of European Parliament's Proposal for a Regulation",The European Legal Forum,Vol.21,No.5-6(2021),pp.4-5.

⑤欧盟《人工智能民事责任指令(提案)》第3条、第4条。

⑥王利明:《论侵权责任法中一般条款和类型化的关系》,载《法学杂志》2009年第3期,第2页。

⑦Tiago Sérgio Cabral,"Liability and Artificial Intelligence in the EU:Assessing the Adequacy of the Current Product Liability Directive",Maastricht Journal of European and Comparative Law,Vol.27,No.5(2020),p.5.

⑧郑志峰:《人工智能产品责任的立法更新》,载《法律科学(西北政法大学学报)》2024年第4期,第10页。

⑨参见(2019)苏05民终7190号民事判决书。

⑩徐伟功、张亚军:《从单一到多元:互联网跨境人格权侵权法律适用制度之反思与重构》,载《国际法研究》2023年第2期,第103页。

(11)梅傲:《涉外人工智能侵权的司法进路》,载《中国高校社会科学》2022年第2期,第137页。

(12)李先波、谢文斌:《我国有关涉外侵权民事关系法律适用立法评析》,载《湖南师范大学社会科学学报》2013年第1期,第75页。

(13)肖永平、龙威狄:《论中国国际私法中的强制性规范》,载《中国社会科学》2012年第10期,第107页。

(14)卜璐:《国际私法中强制性规范的界定——兼评〈关于适用涉外民事关系法律适用法若干问题的解释(一)〉第10条》,载《现代法学》2013年第3期,第151页。

(15)张凌寒:《中国需要一部怎样的〈人工智能法〉?——中国人工智能立法的基本逻辑与制度架构》,载《法律科学(西北政法大学学报)》2024年第3期,第4页。

(16)袁发强:《分割法:涉外侵权法律适用中的二元价值追求》,载《法律科学(西北政法大学学报)》2013年第1期,第41页。

(17)邓子纲:《人工智能的全球治理与中国的战略选择》,载《求索》2020年第3期,第185页。

(18)Tobias Lutzi,"Internet Cases in EU Private International Law—Developing A Coherent Approach" International and Comparative Law Quarterly,Vol.66,No.3(2017),pp.708-709.

(19)Jan Von Hein,"Forward to the Past:A Critical Evaluation of the European Approach to Artificial Intelligence in Private International Law",in S.Voeneky,P.Kellmeyer,O.Mueller & W.Burgard eds,The Cambridge Handbook of Responsible Artificial Intelligence,Cambridge:Cambridge University Press,2022,pp.210-226.

(20)宋晓:《侵权冲突法一般规则之确立——基于罗马Ⅱ与中国侵权冲突法的对比分析》,载《法学家》2010年第3期,第158页。

(21)Jan Von Hein,"Of Older Siblings and Distant Cousins:The Contribution of the Rome Ⅱ Regulation to the Communitarisation of Private International Law",Rabels Zeitschrift Für Ausländisches Und Internationales Privatrecht,Vol.73,No.3(2019),p.475.

(22)张宇帆:《论人工智能政策与法律协同治理》,载《东方法学》2024年第5期,第190页。

(23)《人工智能法(学者建议稿)》第61条规定:“国家建立人工智能分级分类制度,根据人工智能在经济社会发展中的重要程度,以及对国家安全、公共利益或者个人、组织的合法权益可能造成危害的程度,进行分级分类监督管理,依法对关键人工智能实施特殊监管。”

(24)英国《人工智能(监管)法案》第2条。

(25)肖永平、张弛:《论中国〈法律适用法〉中的“强制性规定”》,载《华东政法大学学报》2015年第2期,第115-125页。

(26)任际:《国际私法中公共秩序保留的综合要素及适用趋势》,载《武汉大学学报(哲学社会科学版)》2013年第6期,第35页。

(27)Nathalie A.Smuha."The EU Approach to Ethics Guidelines for Trustworthy Artificial Intelligence-A Continuous Journey towards an Appropriate Governance Framework for AI",Computer Law Review International,Vol.20,No.4(2019),pp.99-100.

    进入专题: 人工智能   涉外侵权   冲突规范   法律适用  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 国际法学
本文链接:https://www.aisixiang.com/data/171798.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统