林洹民:人工智能侵权的过错责任

选择字号:   本文共阅读 3261 次 更新时间:2025-10-08 23:49

进入专题: 人工智能侵权   产品责任   过错责任   证据开示   避风港规则  

林洹民  

内容提要:人工智能致损的侵权责任认定是人工智能治理的重点与难点之一。无论是扩张适用产品责任还是赋予人工智能主体资格的路径,对调整人工智能侵权行为均难以自洽。法律上的风险不同于危险,法秩序不能仅以“人工智能活动引发高风险”即对人工智能侵权适用危险责任。人工智能侵权原则上仍应适用过错责任,准确、全面地评价相关主体的行为,并满足被侵权人多样的损害赔偿诉求,且不应扩张适用过错推定责任。在责任认定上,提升透明度的实体性权利义务规则与程序性证据开示规则相结合,能够有效平衡两造诉讼力量,纾解被侵权人的过错证明压力。即便人工智能使用者的行为直接导致损害,提供者也未必能够援引避风港规则提出抗辩,主张民事责任减免。为推动人工智能开源生态的形成与发展,即便开源可能带来更多的误用与恶意利用,法秩序也应例外地创设非商业性质的完全开源人工智能侵权责任豁免规则。

关键词:人工智能侵权;产品责任;过错责任;证据开示;避风港规则

 

引言:人工智能侵权的责任分配难题

人工智能致损的侵权责任认定是人工智能治理的重点与难点问题,已经成为阻碍人工智能应用的三大障碍之一,亟需法学研究予以回应。其一,人工智能系统具有一定的自主性,损害是否因相关主体过错行为导致,不易判断。自主性意味着人工智能系统可以根据并非完全预先编程的规则作出决定或采取行动。以大语言模型为基础的人工智能系统有能力实现“智能涌现”,即使没有经过针对性训练也可以胜任陌生的任务,并表现出超预期的性能,这使得人类对人工智能的控制力遭遇挑战。例如,生成式人工智能输出虚假信息侵犯名誉权的,无法判断输出结果是相关主体违反义务所致,还是人工智能系统自我进化的结果,因为算法完全可以从海量数据中挖掘新的语言规律以进行合乎逻辑的“捏造”,即产生所谓“幻觉”。当人工智能输出偏离预期并不表征存在研发或应用错误时,被侵权人要证明人工智能相关主体具有过错,就更加困难。其二,人工智能活动具有网络性,一旦发生人工智能侵权,难以准确识别过错行为人。人工智能产业链条绵长,一项产品或服务涉及主体众多,包括设计者、提供者、使用者、第三方服务商、感应器制造商等复数主体。人工智能链条上任何一处出现纰漏,均可能导致损害。尤其值得注意的是,当下的人工智能活动表现出较强的人机交互性,即人工智能使用人可以直接影响系统运行结果,此与以往的商品(如计算机、智能手机、聊天软件等)存在明显不同。人工智能系统并非完全依赖于硬件和软件自动运行,而是在系统与人类操作者的互动中实现预设目标。人机交互下的人工智能活动,一方面通过人类参与(human in the loop)防止系统失控,另一方面也使得人工智能被滥用的风险增加。使用者可以切换云计算服务商、底层大模型、第三方数据处理商,甚至可以直接改变系统设计或运行逻辑。当发生人工智能致损时,被侵权人可能无法确定是人工智能系统自身设计出现问题,还是后续的使用行为导致损害。如果无法确定责任主体,则难以有效地救济被侵权人。

面对人工智能侵权带来的责任分配难题,法律人可以借助革新民法典中的交通事故侵权责任、医疗侵权责任等规则调整自动驾驶汽车、医疗人工智能等特定人工智能应用侵权。如果人工智能被应用到核设施、航空器等高度危险作业,当然也有民法典第1236条以下高度危险责任之适用。只是针对特定场景的责任规则难免挂一漏万,不能全面调整不同应用场景中的人工智能侵权活动(如数字助理、人脸识别、智能家居调控系统、生成式人工智能侵权等),学者由此强调应创设新的人工智能侵权一般规则。然而,无过错责任、过错推定责任等设想虽有助于填补被侵权人的损失,但若不加限制地适用,将加重人工智能企业的负担,尤其构成中小企业进入人工智能行业的“责任墙”。研究指出,未来在人工智能领域大放异彩的企业,大概率不会是现在的大型企业,而可能是目前并不起眼的小公司。如何设计一套妥当的人工智能侵权责任规则,既充分救济被侵权人的损害,又无碍于人工智能中小企业发展,实为人工智能治理的荦荦大端。

有鉴于此,本文将在分析既有人工智能侵权规范设想的基础上,尝试借助侵权法基本原理,建立既符合人工智能人机构造与技术特性,又可桥接现行侵权责任分类体系、归责体系的人工智能侵权责任框架,以期实现鼓励创新与权益保护之间的动态平衡。

一、调整人工智能致损活动的两种路径检讨

当下学界存在两种试图解决人工智能侵权纠纷的通行路径:一是通过扩张产品责任的适用范围,借助作为无过错责任的产品责任规则调整人工智能研发与应用活动;二是设想直接赋予人工智能民事主体资格,按照民法典中的替代责任或自己责任解决责任认定与承担问题。下文将分别检视这两种路径的合理性与可行性。

(一)产品责任规则适用剖析

产品责任属于无过错责任,似较之一般过错责任更能保护被侵权人的合法权益。欧盟于2024年10月修改通过新的《缺陷产品责任指令》,将产品责任的适用范围扩张至软件等程序。该法前言第13条清晰地指出,“软件是一种适用无过错责任的产品,无论其供应或使用方式如何,也无论软件是通过设备存储、通信网络或云技术访问,还是通过软件即服务模式提供”。据此,人工智能系统成为欧盟产品责任的适用对象。但是,欧盟的这一立法动向始终存在巨大争议。欧盟法院长期认为软件服务不应适用产品责任规则。上述第13条虽然指出软件即服务模式(SaaS)下的软件也属于产品,但也指出电子文件、源代码等属于信息,并不属于产品,这使得人工智能系统是否属于产品仍具有一定的不确定性。学者指出,过度扩张产品范围将混淆产品与服务的边界,带来法律适用上的混乱。更重要的是,适用产品责任调整人工智能活动,并不会降低被侵权人的证明难度,也不符合产品责任的规范目的,随着人工智能的广泛应用还可能颠覆侵权法的过错基石。

其一,产品责任路径不能有效缓解因人工智能系统自主性带来的过错证明压力。欧盟《缺陷产品责任指令》前言第2条指出,之所以将产品范围扩张至软件,是为了借助无过错责任解决现代技术发展带来的损害分担问题。然而,产品缺陷认定同样具有过错色彩。对于缺陷的判断目前主要存在“消费者合理期待”与“风险—效益测试”两套标准。在消费者合理期待标准下,生产者仅对可预见的危险负责。《缺陷产品责任指令》第7条第2款b项和d项均强调可预见性对于评估缺陷的意义。可预见性本就是判断注意义务的核心标准。在产品责任路径下,被侵权人仍应证明存在合理期待。但是,民事主体很难充分了解人工智能系统的运行机制,未必会产生合理期待。例如,消费者是否应预见到人工智能和人一样会出错,抑或人工智能是否应表现得比人更优秀,均不存在确定答案。随着人工智能的正向效应越发明显,或许在特定时空场景下不使用人工智能系统反倒构成过错。风险—效益测试同样具有过错判断色彩。该测试是一种量化分析方式,高度依赖高质量数据的积累和有效的评估模型。在人工智能技术被投入应用前,并不存在可供评估风险、收益的数据与模型。在这一背景下,或可借助美国《侵权法(第三次)重述:产品责任》第2条(b)款提出的替代设计标准判断是否存在缺陷:如果市场上存在更为安全的合理的替代设计,就可以认定产品存在缺陷。但若如此,将导致赢家通吃的局面,不利于中小人工智能企业的发展。《缺陷产品责任指令》第7条第3款明确规定,不得仅以市场上存在较优的产品,就将特定人工智能产品视为存在缺陷。是否存在合理的替代设计,应结合在不损害产品实用性的前提下消除产品危险的可能性、用户的风险控制能力、通过警示控制风险的可能性以及制造商的损失分散可能等多种因素综合判断。上述因素同时也构成判断行为人是否应承担注意义务的参考框架。美国学者由此认为,风险—效益测试本质上是在适用过错责任。可见,对产品缺陷的判断均应证明生产者违反合理的注意义务,此与认定行为人是否具有过错殊途同归。源于缺陷认定同样涉及对注意义务的判断,对人工智能侵权活动适用产品责任并不能有效减轻被侵权人的证明压力。

其二,产品责任路径无助于破解人工智能系统网络性引发的责任主体识别难题,尤其不利于评价使用者行为对责任认定的影响。我国民法典将产品责任主体限定为生产者与销售者(第1203条)。传统产品往往是线性生产链的产物,即产品零部件的次级供应商将零部件出售给生产商,生产商制造并将之投入市场。因为消费者无法直接接触零部件生产商,消费者应向将部件“捆绑”组成产品的终端生产者请求损害赔偿,此为产品责任限定责任主体的合理性所在。与之不同,人工智能商品具有非线性特点。在数字化世界,商品会被“拆分”,这使得价值链条并非线性,而是呈现出一种网络性结构。换言之,使用者得自由选择切换不同的云计算服务商、底层大模型、提供升级或更新服务的第三方服务商等。如果仍让终端的系统提供者承担无过错责任,未免偏颇,毕竟使用者能够影响产品运行,应为其决定承担不利后果。此外,使用者还可能实质性地更改人工智能系统设计,直接影响甚至改变系统输出结果。人工智能系统使用者相较于提供者有时甚至处于更能影响输出结果的地位,例如下游企业可以通过微调(fine-tuning)、普通用户可以运用提示工程(prompt engineering)等方式,绕开系统过滤机制,输出不当结果。人工智能问责必须超越“提供者/生产者中心主义”,通过动态责任分配重构规则框架。欧盟虽然坚持生产者责任,但又不能忽视使用者的作用,最终只能采取扩张责任主体的策略。《缺陷产品责任指令》第8条第2款规定,对产品作出实质性更改的自然人或法人也应被视为生产者。于是,欧盟产品责任主体包括产品生产者、零部件生产者(软件生产者、关联服务提供者)和进行实质性修改的用户。又根据该指令第12条,多个生产者应对损害承担连带责任。据此,欧盟新的产品责任本质上是通过将相关主体都界定为生产者并承担连带责任的方式解决责任分担问题,原有限定责任主体、由终端生产者或销售者承担无过错责任的制度设计落空。但是,网络型商品中的任何一方主体均无法控制商品的表现,简单罗列可能的责任主体并要求其对损害承担连带责任,未必合理。

其三,若将产品范围扩展至软件,随着人工智能系统的广泛应用,产品责任将无处不在,取代过错责任成为一般的侵权责任类型。人工智能已经在医疗、金融、制造、家居、教育、电商等众多行业推广应用,同时向其他领域快速扩张,最终将全面渗透人类社会。在不远的将来,所有商品都可能被智慧化重构,彼时将不存在不包含人工智能系统的商品。如果对人工智能侵权一概适用产品责任,无过错责任将取代过错责任成为侵权法的一般归责原则。果若如此,现行侵权法体系将被完全颠覆。智能时代究竟需要什么样的侵权法,还需要长期的思考与试验。在理论与实务部门尚未达成基本共识之前,不应轻易置换掉过错责任这一侵权法的基石。

(二)民事主体资格模式省察

在产品责任外另一种常被提及的路径是,法秩序赋予人工智能系统民事主体资格,借助民法典中的替代责任或自己责任解决侵权责任分配问题:一种方案是通过将人工智能类比为雇员或未成年人的方式要求适用雇主责任或监护人责任,另一种则是在创设独立账户基础上要求人工智能独立承担损害赔偿责任。

其一,雇主责任、监护人责任的功能定位与人工智能应用扞格不入。无论雇员还是未成年人,均有脱离控制自行其是的风险,相关责任人因此应对雇员、未成年人的不可控行为负责。人工智能具有自我学习能力,系统运行同样具有一定的不可控性,此与雇员和未成年人具有一定的类似性。然而,人工智能侵权活动不应参照适用上述责任规则。(1)就雇主责任而言,欧盟议会在2017年发布的《机器人民事法律规则的决议》(CLRR)第52条明确提出“非人类代理人”的概念。如果人工智能可以在合同法领域成为代理人,在侵权法领域也有成为雇员的可能。但是,我国民法典为了平衡雇主与雇员的利益关系,相较原侵权责任法的规定,专门在第1191条规定雇主对有故意或重大过失雇员的追偿权。源于人工智能系统并无独立财产,人工智能系统提供者或使用者承担责任后无法向人工智能系统追偿。借助雇主责任调整人工智能活动,等同于要求人工智能系统提供者或使用者承担终局责任,并不契合雇主责任的规范逻辑。(2)目前强人工智能尚未真正出现,人工智能的能力仍有局限性,直观上类似于无民事行为能力人或限制民事行为能力人。如果参照适用监护人责任,人工智能“监护人”应对人工智能致损行为承担无过错责任(民法典第1188条第1款)。但是,人工智能虽不具有一般性的认知能力,在一些场景中的表现却比具有完全民事行为能力的民事主体还要专业。例如,人工智能已经在智能投顾、自动驾驶、数字助理等领域广泛应用,人工智能大模型正在逐渐具备类人的执行任务能力。将人工智能类比为无民事行为能力或限制民事行为能力人,忽视了人工智能在特定场景中的强大技术能力。

其二,人工智能系统自己责任模式尚不具备可行性。人工智能独立承担损害赔偿责任的前提有二:一是人工智能系统能够认知行为的意义,“理性”地趋利避害,为避免承担损害赔偿责任而自我拘束、自我克制;二是,人工智能系统拥有独立的财产,能够获取收益并为自身的不当行为独立承担赔偿责任。上述两个条件目前均不成立。(1)人工智能技术虽有发展,但仍无法真正认识到行为的法律意义。责任感来自于理性,只有当人工智能系统可以权衡利弊调整自身的决策时,要求人工智能独立承担责任才能有效拘束人工智能系统的行为。当下技术尚未达到临界点,规定人工智能独立承担责任将有损责任法的预防功能,使得人工智能提供者、使用者等相关主体借此逃避追责。欧盟议会《机器人民事法律规则的决议》第59条曾要求欧盟委员会研究赋予机器人电子人格的可能性。欧洲经济与社会委员会注意到人工智能系统尚不具有“责任感”,指出如果赋予人工智能某种形式的法律人格,将削弱责任法的预防功能,因为自然人会将责任尽可能地转移到人工智能系统上,淡化对安全、可靠等目标的追求。欧盟委员会责任与新技术高级专家组在2019年的报告中也倾向于否定设立电子人格,并且强调“将责任直接指向个人,比创设新型法律人格能更好地回应人工智能带来的挑战”。(2)目前并不存在提供人工智能独立账户或专门保险的商业模式。我国正在推广自动驾驶汽车试点运行。乘客通过手机应用程序支付的车费未被存入自动驾驶汽车专门账户,而是由汽车背后的运营公司收取。目前保险公司也未推出针对自动驾驶汽车的专门险种。要求人工智能系统独立承担责任,缺乏现实的物质基础与机制保障。此外,如果赋予人工智能民事主体资格,逻辑上还需进一步回答人工智能是否享有人格尊严、报酬请求权、公民权等问题,这将冲击整个法律体系;法人是独立的民事主体,但法人依靠自然人进行活动,机器人则并非如此,不能从法人这一模型中当然推出机器人也可以具有拟制的主体资格。简言之,要求人工智能系统独立承担损害赔偿责任的方案,尚欠缺物质与技术基础,也有根本颠覆既有法律体系之嫌。

二、规则建构起点:人工智能侵权的过错责任

确定人工智能侵权的归责原则,是建构人工智能侵权规则体系的前提与基础。下文将首先廓清风险与危险的内涵与外延,在此基础上讨论人工智能侵权的归责原则。

(一)风险与危险二分下的人工智能侵权责任

一种观点认为,人工智能研发与应用活动带来高风险,因此应对人工智能活动适用危险责任。但是,风险不同于危险,二者内涵不同,对应不同的评价体系。法律人应避免受到风险社会理论的影响、直接套用社会学概念,而忽视法律概念的本来含义。

风险(risk)与危险(danger)在法律上的出现时间不一,内涵也完全不同。危险活动天然地属于法律调整的对象。危险是一种具体、紧迫与相对确定的威胁,典型如加害行为马上就要发生,此时需要法秩序采取断然措施保护人身财产安全。随着刑法、侵权法等法律的诞生,危险始终是法秩序关注的重点。与之不同,风险成为一个法律概念并不古早。“风险有着很久的过去,但仅有很短的历史。”面对不确定的未来,古人选择一种被动接受的态度,“传统文化中并没有风险概念,因为他们并不需要这个概念”。彼时人们多用“运气”或“命运”指代不确定性或可能性。直到12世纪,风险一词才开始在航海贸易相关的文献中出现。风险在语言学上来源于意大利语“risco”,意指“撕破”(rips),与暗礁(reef)和礁石(rock)相关,引申出海运货船面临的不确定性。不确定性也意味着机遇,意大利商人开始以风险为标的进行保险、投资等商行为。于是,商品风险与商品本身分开,未来变得“可以估计、商品化和交换”。自16、17世纪以来,英国等地出现了海上保险,以风险为规范对象的保险法诞生,风险一词正式进入法律系统,成为一个法律概念。通过梳理概念史可知,法律上的风险是抽象、延迟与不确定的,为一中性概念;危险则是具体、紧迫与相对确定的,属于一种需要法秩序马上采取有效措施应对的法律状态。

风险与危险对应不同的规范模式与法律评价。风险活动触发对不确定性的事前的制度安排(如航海风险、科技应用风险等),风险管理侧重于实现权益保护与社会经济发展之间的平衡;危险则属于法律上具体的不利益,引发紧迫的救济需求(如房屋倒塌危险、缺陷产品致损危险等),要求义务人采取果断措施控制危险,否则就将承担法律责任。(1)法律对风险活动的调整以风险预防为原则。风险起初是作为商业标的进入法律体系的,但真正使风险概念大放异彩的是近代以来国家任务的转变。随着理性国家的兴起,风险活动成为政府治理的重点,风险开始成为行政法的重要关注对象。工业革命引发社会变迁,彼时人们开始反思私法在社会治理中的局限性。20世纪中期,美国国会认定侵权法“无法有效应对新技术发展对公众健康安全以及环境保护日益增长的威胁”。国家治理的任务不再是恢复过去造成的伤害,而是从一开始就防止损害发生。这一趋势很快扩散到欧洲、澳大利亚、日本和韩国等国家与地区,“规制国”(regulatory state)由此诞生。例如,德国法学借助宪法对基本权的保护,指出国家应承担防御功能,观察、研究风险并采取风险最小化或风险阻碍措施控制风险。进入21世纪后,信息技术、纳米技术和人工智能技术等新科技革命的发展在给人类带来巨大机遇的同时,也给社会带来了高风险。在这一背景下,政府更加倾向事前治理,以期“有效地管理民众的行为以最大限度地降低风险”。一言以蔽之,法秩序对风险活动侧重于事前管理,风险预防是政府治理的目标与重点。(2)法律对制造具体、紧迫、确定危险的行为直接追究法律责任。风险具有转换为危险的可能性,毕竟抽象与具体、潜在与现实、不确定与相对确定等状态之间本就在不断转化。当出现危险行为时,个人权益遭受紧迫的、具体的威胁或损害,公私法均对制造危险活动问责。刑法将制造危险的行为定义为“危险犯”,即行为本身具有潜在的危险性,即使未造成实际损害,也可能构成犯罪。例如,刑法第114条及以下规定的危害公共安全罪(如放火、决水、爆炸等)并不需要实际损害结果,只要行为具有危险性即可。在私法上,行为人制造的危险威胁或损害民事主体权益的,受害人有权请求消除危险或损害赔偿。民法上的危险,典型如民法典第179条规定的“消除危险”,针对的是具体之危险,且危险是现实存在的、迫切的,对他人人身财产安全造成现实的威胁。此外,无论正当防卫还是紧急避险,针对的均是正在进行中的危险,行为人为了保护本人、他人的人身财产权利免受不法侵害而不得已实施防卫或避险(民法典第181、182条)。自助行为同样针对持续中的危险,权利人若不立即采取措施其合法权益将遭受损害的,可采取扣留侵权人财物等合理措施(民法典第1177条)。

厘清风险与危险的不同内涵与评价机制后,重新审视既有法律规则,会发现一些概念混用。民法中的自甘风险、风险负担以及给付风险等,针对的均是具体的、相对确定的危险,不属于风险范畴。例如,自甘风险实质上是受害人自愿承担可能的损害而将自己置于危险环境,如拳击运动员参加拳击比赛而自愿承担可能遭受的具体的、紧迫的、相对确定的人身伤害危险。事实上,上述概念的德文表达均为危险(Gefahr)而非风险(Risiko),应译为自甘危险(Handeln auf eigene Gefahr)、危险负担(Gefahrenübergang)、给付危险(Leistungsgefahr)等。法律上风险与危险的不同,决定了法秩序不应仅以某种行为引发风险就对其严格问责。

人工智能风险是中性的。一方面,人工智能研发应用活动可能引发歧视、被操纵、失业、人的主体性弱化乃至文明颠覆等风险。面对人工智能技术应用带来的大量“既无法证实、又无法排除的”的潜在威胁,国家需转向风险预防原则,扩张保护职责。另一方面,人工智能也带来增强人的认知能力、制造新的工作岗位、强化人的自我控制乃至实现新型进化等发展机会。与之相应,法秩序对人工智能风险活动的规范应综合运用风险评估、风险交流与风险管理等手段,有效实现多种价值目标之间的平衡。人工智能风险具有两面性,风险预防机制属于一项平衡的艺术。只有当风险转换为危险,如人工智能应用引发侵犯名誉权、生命健康权等纠纷时,个别的、具体的危险才进入侵权法的关注视野。但是,并非只要风险转换为危险,就要适用作为无过错责任的危险责任。民法典中的产品责任、高度危险责任等针对的均是异乎寻常的危险行为。美国《侵权法(第二次)重述》第519条明确指出:(1)从事某种异常危险(abnormally dangerous)行为,即使尽其最大注意避免损害,也应对其行为给他人人身、土地或动产造成的损害承担责任;(2)严格责任仅适用于那种因行为具有异常危险性而导致的损害。是以,即便科技活动因“严重影响健康和安全”或“对基本权利、环境以及民主和法治造成严重不利影响”(如人脸识别、信息茧房等)而被认为具有高风险,只要该行为未引发异常、过度的危险,就不应适用作为无过错责任的危险责任。退一步说,即使对高风险活动严格问责,侵权法上的危险责任针对的也是具体危险,要求危险活动类型高度确定。高风险行为概念本身不具备清晰的内涵与外延。若抽象地认为“对高风险人工智能活动适用危险责任”,将因无法界定高风险人工智能活动的类型与范围而在事实上欠缺可执行性。一言以蔽之,人工智能引发的风险与危险对应不同的治理路径,法秩序不能仅因人工智能活动可能带来高风险就对之适用危险责任。

(二)人工智能侵权过错归责原则之证成

除非人工智能活动引发异常危险,否则应对人工智能侵权适用一般过错归责原则。过错责任最符合私法自治理念。自由的实现依赖于自由意志,后者以复数选择和认知能力为前提。自由会随着选择增多而扩展,认知能力则是个人把握命运、实现自由的前提和保障。民事主体在有能力意识到后果的前提下承担损害赔偿责任,此为自我负责原则的当然之理。不仅如此,对人工智能侵权适用过错责任,也能妥当地平衡科技发展自由与被侵权人权益保护之间的关系。

其一,过错责任有利于全面评价人工智能链条中相关主体的民事行为。人工智能上下游产业链异常庞杂,包括开源大模型、具体应用模型、衍生开发等,涉及的主体包括提供者、使用者、后端服务商、用户等。过错责任能够细致评估各方行为,激励各方采取措施防范风险。在设计层面,现代人工智能应用多由基础大语言模型和具体模型结合构成。通过海量数据训练出来的大模型提供底层逻辑支持,具体模型则通过“术业有专攻”的专业优化训练,适配众多具体行业和场景。在这一协同应用关系中,系统引发的风险具有叠加性。只有适用过错责任,使每个民事主体均为自己的过失行为负责,才能恰当地追究不同开发者的法律责任。在应用层面,人工智能使用者可进一步细分为前端使用者与后端运营者,前者有权决定并使用人工智能系统,后者持续定义人工智能的技术特征并提供必要的服务。前端使用者虽然具有所有者或保管者身份,但人工智能系统的运行离不开后端运营商的服务,且后者从持续提供服务中获益。在过错责任模式下,法律人将在整个行为脉络中寻找责任人,激励相关主体采取有效措施控制风险。

其二,过错责任避免一刀切,能够精细地识别并剔除真正需要给予否定评价的行为。人工智能应用场景广泛,从自动驾驶、人脸识别、深度合成到个性化推荐算法、生成式人工智能、智能家居人形机器人等,引发的纠纷也千式百样。对人工智能侵权采过错责任,有助于准确界定不法行为,避免责任机制阻碍行为自由。以深度伪造为例,行为人深度合成图片、音频的,可能侵犯民事主体的著作权、名誉权、隐私与个人信息等民事权益。若对之适用无过错责任,将抵触言论自由、思想自由等核心价值,压缩“讽刺作品”的生存空间。对人工智能活动的调整,应充分发挥法律“手术刀”作用,细致剔除真正需要被否定的行为。在判断民事行为应否受到否定评价时,行为人的过错是重要的考虑因素。如果人工智能使用者借助深度伪造技术恶意侵犯他人名誉权,该使用行为当然应受到法秩序的谴责;若人工智能提供者并未违反相关注意义务,即便侵犯他人名誉,至多应及时删除不当信息,但不必承担损害赔偿责任。过错责任可以帮助识别真正应受法律调整的行为,避免损及行为自由。

其三,过错责任符合当下损害赔偿的多元化趋势,能够满足被侵权人多样的损害赔偿请求。当人工智能不当删除对个人重要的数据(如家庭照片、旅游视频等)时,原告能否主张精神损害赔偿,与被告的主观状态密不可分。一般而言,加害人主观恶性越大,给予精神损害赔偿的可能性就越高。生成式人工智能提供虚假信息导致原告遭受纯粹经济损失的,原告能否获赔也与被告的主观状态相关。若行为人故意以背俗的方式导致他人遭受纯粹经济损失,原告的主张就很可能获得法院的支持。即便主张对人工智能侵权适用无过错责任的学者也认为,无过错责任应将精神损害、纯粹经济损失等排除在救济范围之外,因为上述损害只能在“行为人过错的情况下才能考虑是否对其予以救济”。随着人工智能对社会的深度渗透,不同的救济需求将层出不穷,过错责任的救济范围明显更广。再如,民法典第1185条和第1207条将侵犯知识产权、产品致损适用惩罚性赔偿的前提均限定为行为人故意。聊天机器人抓取受著作权保护的数据、智能家居机器人给他人造成人身损害的,只有在行为人故意的情况下才应适用惩罚性赔偿。相较于无过错责任,过错责任机制下的损害赔偿范围更广,能够满足被侵权人不同的损害赔偿需求。

目前存在一种值得关注的设想,即对人工智能系统使用者适用过错责任,对提供者适用无过错责任。但是,基于人工智能产品的非线性、网络化特点,即便是人工智能产品终端提供者也无法控制产品的运行,使用者完全有能力通过切换模型、数据服务商等改变预定风险控制机制。要求人工智能系统提供者对不可控的结果承担无过错责任,实属强人所难。当使用者实质性地改变系统设计时,仍要求提供者承担无过错责任,也难谓公平。鉴于人工智能系统提供者无力避免损害发生,若要求提供者承担无过错责任,理性的责任主体将怠于通过技术与管理手段降低事故发生概率,转而倾向于通过价格机制分散事故成本,最终导致事故成本上升、社会总体福利下降。此外,保险机制在新兴科技应用初期难以充分发挥作用,市场上缺乏建立人工智能保险模型的有效数据。人工智能属于新兴技术,相关应用尚未全面推广,损害赔偿案例较为稀缺。无论是推广自愿保险(市场驱动)还是强制保险(国家监管),由于缺乏事故与损害的统计数据,都无法进行有效的风险边际计算。考虑到人身财产损害的赔偿数额较高,保险公司会更倾向于对人工智能活动收取较高的保费。欧盟委员会的评估报告指出,无过错责任模式下的人工智能企业应支付的保费每年将增加35%。大型企业或许可以承受较高的保费,但潜在创业者将因过高的保费而对是否从事人工智能研发与应用举棋不定。由是观之,当前保险机制不仅难以有效分散风险,反倒可能阻碍中小企业进入人工智能行业。是以,区分人工智能系统提供者与使用者分别适用无过错责任与过错责任的方案,对系统提供者责之过苛,不仅不会降低社会总体成本,反倒可能阻碍人工智能产业的发展。

(三)人工智能侵权过错推定责任之弊端

过错推定责任可能使中小人工智能企业陷入责任困境,束缚企业发展。过错推定责任通过转换证明负担的方式,让人工智能活动参与者承担举证不能的后果。但是,人工智能产品或服务涉及主体众多,相关主体若均需自证无过错,将产生巨大的交易成本。鉴于人工智能系统具有自主性与不透明性,人工智能活动参与方证明自身无过错的难度极高,可能阻碍中小企业进入人工智能行业。这并非杞人忧天。我国个人数据交易之所以不畅,个人信息侵权采过错推定责任是重要原因。大型平台企业往往建立自身的数据生态系统,并无旺盛的数据交易需求,反而更倾向于将数据流通限制在生态系统之内。只有初创企业为了摆脱“冷启动”的困境,迫切希望借助数据交易获得优质个人数据。在个人数据交易中,数据供方与数据需方均为个人信息处理者。一旦出现不法情事,数据交易双方应自证已经履行个人信息保护义务,且义务内容包括但不限于个人信息保护法第51条的相关规定。数据供方不能证明在获得个人同意的条件下提供个人信息的,当然应承担法律责任。数据需方若不能自证已经履行合规义务,也将承担法律责任。但是,数据需方无力调查个人数据来源的合法性,毕竟其无法一一询问个人信息主体是否同意数据的收集与交易,所以只能选择相信数据供方的说明。但若如此,数据需方将难以证明已充分履行个人信息保护义务。除民事责任外,数据需方将承担罚款、暂停相关业务或者停业整顿等行政责任,还可能被认定为“以其他方法非法获取公民个人信息”而有承担刑事责任的可能(刑法第253条之一第3款)。数据需方不能证明已经履行义务便要承担法律责任,是其惮于进行数据交易的主要原因。若对人工智能侵权适用过错推定规则,中小企业可能因过错推定责任而心生忌惮,不敢轻易从事人工智能研发与应用。

既然过错推定责任不利于中小企业发展,或可考虑区分企业规模适用法律责任,即对大型人工智能企业侵权适用过错推定责任,对中小企业适用一般过错责任。根据企业规模确定归责原则,符合“深口袋”理论,即要求资源占有者承担更重的法律责任。然而,深口袋理论在经济角度无法完全让人信服,因为承担经济压力的企业可以通过提高价格的方式最终让消费者承受损害。再者,根据企业规模确定归责原则也将遭遇操作层面的挑战。科技企业的能力与规模并非必然相关,如何认定是否属于大型人工智能企业,将是司法实践的难点。若僵硬地以人数、营业额等为判断基准,可能会诱发企业通过外包、技术授权等方式分散风险,最终增加监管成本。最后,单纯以规模确定归责原则,也将颠覆行为在侵权法中的核心地位,导致责任认定与过错行为脱钩,形成事实上的“企业规模税”。即便法政策要求大型企业承担更重的责任,也应通过施加特别义务(如个人信息保护法第58条规定的守门人规则)的方式,督促大型企业采取更高标准保护被侵权人的权益,而非根据规模区分配置归责原则。

需要说明的是,本文强调人工智能侵权应适用过错侵权责任,并不影响既有特殊侵权责任规则的适用。民法典中的产品责任属无过错责任,个人信息保护法也已经明定个人信息侵权采过错推定规则。即便我国未来制定专门的人工智能侵权责任条款,也不影响当事人在特定场景中选择适用上述特殊侵权责任规则。本文反对的是一般性地对人工智能应用侵权适用无过错责任或过错推定责任。人工智能侵权在过错认定上的难题,则可通过便利举证的实体性与程序性规则予以破解。

三、过错责任下人工智能侵权的举证便利性规则

在过错责任模式下,原告应举证证明被告具有过错。源于人工智能侵权的自主性与网络性特征,原告要证明被告具有过错并不容易,需要立法配置专门的举证便利性规则。

(一)实体性权利义务规则

人工智能系统具有自主性,一旦发生人工智能侵权,查清过错行为极为不易。在大模型的加持下,致害输出的运行逻辑更加幽暗难明。据OpenAI研发人员介绍,即便在训练阶段,大模型循环训练的结果也具有突发性与不可预测性,且训练的结果基本不可逆。面对这一不透明性,如果不辅之以必要的权利与义务,原告将难以成功指证被告存在过错行为。

1.被侵权人的说明请求权

法秩序应赋予人工智能被侵权人系统说明请求权,使得其有权要求提供者说明人工智能系统的运行逻辑。人工智能算法的书写甚至阅读都属专业技能。只有借助计算机科学家对科研活动的自我批判,才能理解与规范人工智能活动。目前也已经存在以控制人工智能为目标的科研项目,如谷歌公司、斯坦福大学等都在进行算法可视化研究,以增强算法的可解释性。当下的研究增加了对图像识别人工智能算法的解释可能,但仍有很多工作未能完成。只有借助系统提供者的说明,被侵权人才能更好地了解系统自身及其风险。有鉴于此,欧盟《人工智能法》第86条第1款明确规定了算法解释请求权,即高风险人工智能系统相对人有权要求人工智能应用者就人工智能系统在决策程序中的作用和所作决定的主要内容作出明确而有意义的解释。我国个人信息保护法第24条第3款也规定了算法说明请求权,即通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明。但是,个人信息保护法未清晰地指出说明请求权的内涵与外延。较为可行的解读是,公权力借助人工智能系统从事行政或司法行为的,相对人应有权请求解释人工智能系统的具体决策;商业机构使用人工智能进行决策的,相对人是否有权请求解释具体决策,则应综合衡量解释可能性、商业秘密保护等因素进行判断。

人工智能系统说明请求权的对象不限于系统运行机理,还应包括作品和个人数据利用情况。大模型借助作品等非个人数据学习语言逻辑,通过个人数据了解如何类人地行为。洞悉大模型是如何借助作品、个人数据进行训练的,对于理解其输出结果至关重要。是以,人工智能系统说明请求权的对象不仅包括算法与模型的设计特征,还应包括相关的著作权保护政策与个人数据训练情况。(1)在作品使用问题上,被侵权人借助说明请求权可了解人工智能企业是否已尽最大努力保护著作权人的合法权益。大模型训练使用涉著作权数据是否构成侵权,是当下法律适用的难点。我国著作权法第24条规定了十三种合理使用情形,但似乎难以涵盖大模型训练的情况。著作权保护对人工智能训练数据的汇聚和融合造成挑战。为鼓励人工智能科技发展,日本政府官员表示,日本法律不会保护人工智能集中使用的原始材料版权。但是,一概允许人工智能使用他人作品进行训练,未免过于极端。欧盟2019年《单一数字市场版权指令》第4条为了实现数据利用与权益保护之间的平衡,一方面规定以人工智能训练为目的使用作品构成著作权保护的例外,另一方面允许著作权人以可机读的方式明确反对人工智能系统使用其作品进行训练。通过行使系统说明请求权,被侵权人可以了解企业是否采取有效措施贯彻著作权保护。如果著作权人无合理渠道反对人工智能系统借助自己的作品进行训练,即可认定系统提供者具有过错。(2)在个人数据训练层面,被侵权人借助对数据训练情况的了解,可以判断系统提供者是否在“容忍”损害发生。例如,人工智能系统借助人工合成数据进行训练的,虽然可以避免涉及敏感个人信息时的合规问题,但也可能带来“模型崩溃”(model collapse)风险,即模型借助合成数据进行训练,反而丧失从真实数据中获得的知识,且这一过程不可逆。借助系统说明请求权了解数据训练情况,原告可以更好地判断是否存在不当之处,从而便利地证明过错。再者,未经个人同意利用已公开个人数据进行人工智能训练,是否构成不法,尚有争议。德国科隆高等地方法院在2025年5月的判决中指出,人工智能公司未经用户同意使用其已公开的个人数据训练人工智能的,只要人工智能企业已通过应用程序或尽可能通过其他途径通知用户,且用户可以事先将数据设置为“非公开”或提出反对意见阻止数据处理,就具有欧盟《通用数据保护条例》(GDPR)第6条第1款f项意义上的“正当利益”。如果人工智能系统借助已公开个人数据进行训练,但未履行告知义务从而使得个人无法行使反对权,系统提供者即具有过错。

人工智能系统说明请求权还可倒逼建立透明化机制。为回应被侵权人的说明请求权,人工智能系统提供者将更严格地控制算法设计与运行,制定著作权与个人信息保护政策,采取有效的组织与技术手段确保行为合规。例如,系统提供者可采用可解释AI技术,如LIME或SHAP值分析等,推动提供者充分了解自身的人工智能系统;对数据爬虫行为、个人信息处理行为进行合规审计,并保留审计报告;根据应用场景划分风险等级,并建立与之相应的风险管理与应急处理制度等。系统提供者还应在系统中插入一定的提示机制,保证使用者在系统运行过程中可以及时行使知情权,获得相关信息。一旦被侵权人请求提供者履行说明义务,提供者可采取类似模型卡的方法,对人工智能系统的功能、能力、限制和潜在的偏见进行详细说明,以增强人工智能系统的可问责性。人工智能系统提供者还应设置人工复核通道(如人工智能客服转接人工服务),解释相关决策情况,或至少允许用户拒绝自动化决策(个人信息保护法第24条第3款后半句)。

2.系统提供者的注意义务

侵权法的发展趋势之一是过错的客观化,即不是从行为人的主观状态认定其过失,而是主要依据是否违反法定义务或合理的注意义务判断其有无过失。通过确定人工智能系统提供者的注意义务,如信息说明义务、数据管理义务、人工监督义务、网络安全义务、合规评估义务等,可以帮助原告判断被告是否具有过错。人工智能侵权虽不存在统一的样态,但根据人工智能研发应用阶段的不同,其可大致分为训练侵权、模型侵权以及应用侵权。在语料训练阶段,人工智能侵权突出表现为未经著作权人或个人信息主体同意使用相关数据训练人工智能系统。在模型生成、优化阶段,人工智能提供者违反对模型的安全审查义务,导致模型设计背离初衷,应认定具有过错。相较而言,人工智能应用输出侵权更为复杂,下文将以生成式人工智能为例集中讨论。

生成式人工智能提供者应履行网络信息安全保护、个人信息保护、投诉或举报机制设立等义务。我国2022发布的《互联网信息服务深度合成管理规定》第16、17条及2025年发布的《人工智能生成合成内容标识办法》,更是明确规定人工智能提供者对生成内容的标识义务。人工智能系统提供者有义务告知相对人是否在与人工智能系统交互,内容是否由人工智能系统生成。欧盟《人工智能法》第50条第2款也要求合成图像、文本、音频等以机器可读的格式进行标注,第4款要求人工智能应用者主动披露深度合成事宜。该法前言第133条还列举了一系列标识方法,如水印、元数据识别、证明内容出处和真实性的加密方法、日志记录方法、指纹等。如果被告未按照规定履行标识义务,原告即可主张被告具有过错。相较查清被告的主观状态,客观化过错认定将显著降低原告的证明压力。如果人工智能系统提供者违反上述义务,即可推定其具有过错。

除上述法定义务外,因生成式人工智能应用直接引起法律关系的变化,提供者还应根据场景承担“一般防范损害发生之义务”。至于具体注意义务的内容,则应结合人工智能服务的性质、当前人工智能技术的发展水平、避免损害的替代设计的可行性与成本、可采取的必要措施及其效果、侵权责任承担对行业的影响等因素予以确定。也有学者指出,应结合时间维度、行业维度与地域维度综合判断行为人是否违反注意义务。人工智能输出阶段注意义务的不确定性,也可为注意义务的发展提供空间。司法实践可以结合技术发展、商业实践等不断调整注意义务内容,逐步形成一套具有指引性的规则。例如,欧盟法院在2021年的判决中指出,若平台有下列行为之一,就需对平台内用户发布的侵犯知识产权的内容承担法律责任:(1)未对已知的侵权内容迅速删除或屏蔽访问;(2)未采取可预期的技术措施,以切实有效地遏制侵权;(3)在平台上提供传播或帮助传播侵权内容的工具。相较于“通知删除规则”,欧盟法院的判决无疑提高了平台经营者的注意义务。同理,司法机关也可以借助对注意义务的动态调整,实现对人工智能侵权的司法控制。

(二)程序性证据开示规则

人工智能研发记录、活动日志等是帮助查清被告是否违反注意义务的重要书证。人工智能说明请求权的对象限于法律规定,不能覆盖所有人工智能活动。如果被侵权人无法了解被告的经营活动,就不能有效地完成举证。只是人工智能相关方多以涉商业秘密为由,拒绝原告查阅书证的请求。为消除这一障碍,人工智能治理应规定证据开示规则,允许被侵权人在一定条件下申请法院作出书证提出命令,要求相关主体披露信息。

1.化解证据偏在的证据开示规则

虽然民事诉讼法第67、70条以及第132—134条等规定了法院依职权调查取证制度,但法官取证特别耗费人力,在案多人少与法官员额制的当下,法官依职权取证在司法实务中已经少之又少。再者,人工智能技术具有专业性与复杂性,要求法官调查取证,恐怕也强人所难。

为破解证据偏在困境,书证提出命令制度应运而生。《最高人民法院关于适用〈中华人民共和国民事诉讼法〉的解释》(法释〔2015〕5号,以下简称“民诉法解释”)第112条(经法释〔2022〕11号修改,但该条未改)正式规定了书证提出命令制度,《最高人民法院关于民事诉讼证据的若干规定》(法释〔2019〕19号,以下简称“证据规定”)第45—48条将书证提出命令制度予以具体化。当出现证据偏在时,法院根据一方当事人申请,向控制书证的对方当事人或者第三人作出提交书证的裁定;书证控制人若拒绝执行,将承担不利法律后果。如果能在人工智能侵权案件中适用书证提出命令,法院将根据原告的申请裁定是否要求被告披露技术文件、系统日志等信息,帮助查清事实,减轻原告的举证压力。然而,实践中“书证提出命令司法适用率低、准许率低”。这一现象具有一定的合理性,毕竟书证提出命令制度是对“谁主张谁举证”原则的修正。我国学者也多认为,一般性的事案解明义务并不适合我国诉讼实践,应将书证提出义务限定在法律规定的情形。由此导致,如果没有法律明确授权,司法机关多不敢作出书证提出命令。

人工智能治理应规定特定条件下的证据开示规则,为法院作出人工智能书证提出命令提供明确的规范依据。在我国现行法体系下,即便两造之间存在合同关系,被告也不负有解释损害发生原因的义务。消费者有权了解商品和服务的相关信息(消费者权益保护法第8条第2款),远程销售或金融服务经营者还应额外提供安全注意事项和风险警示、售后服务、民事责任等信息(同法第28条)。但是,消费者无权了解行为人的日常经营和运行情况。只有通过立法创设证据开示规则,使人工智能相关主体在特定条件下负有信息披露义务,才能促使司法机关作出书证提出命令,有效解决证据偏在问题。欧盟《缺陷产品责任指令》第9条专门规定证据开示规则,允许被侵权人提出申请并由法院判断是否核准披露证据,从而推动自下而上的人工智能善治。欧盟设立证据开示规则是受反不正当竞争案件的影响。诉讼法理论一般不承认民事诉讼当事人有要求相对方或相关第三人提供有关事实、证据资料之权利。但在反不正当竞争案件中,信息不对称现象明显,受害方难以获得被告的违法证据。欧盟认识到证据获取难题已成为阻碍竞争法私人实施的重大障碍,因此引入证据开示制度减轻原告举证压力。在人工智能侵权诉讼中,两造之间的信息不对称现象同样明显。我国可借鉴欧盟立法经验,允许人工智能活动相对人在特定条件下向法院提出申请,由法院作出书证提出命令,要求相关主体提供活动记录;如果义务人拒不提供相关信息,即推定其具有过错。

2.证据开示规则的适用条件与范围

证据开示规则毕竟是对经典证明责任理论的偏移,须满足特定条件。首先,原告申请公开的应是法律明确要求被申请人记录并保存的信息。被侵权人仅应请求开示被申请人有义务记录的信息,以核验被告是否履行数据管理、人工监督、合规评估等法定义务。其次,被侵权人应提出合理的事实和证据,证明存在“合理怀疑”。根据“证据规定”第45条,被侵权人应在书证提出命令申请书中,载明所申请提交的书证名称或者内容、需要以该书证证明的事实及事实的重要性、对方当事人控制该书证的根据以及应当提交该书证的理由(第1款);如果对方当事人否认控制书证,法院应当根据法律规定、习惯等因素,结合案件的事实、证据,对书证是否在对方当事人控制之下的事实作出综合判断(第2款)。简言之,被侵权人应举证证明相关证据极为重要、自己并未持有且不可归责、被告控制且有义务出具文书等。证据开示不属于被侵权人的权利,人工智能相关主体是否有义务提供证据,应由法院判断。只有对证据开示规则进行必要的控制,才能防止引发滥诉,严重干扰人工智能企业的正常经营。最后,原告只有在已尽一切适当之努力仍无法获得足够证据的情况下,才能申请法院作出书证提出命令。证据开示规则旨在平衡两造诉讼力量,如果原告可以容易地获得相关证据(如被告使用开源算法),不应额外增加被告负担。

争议在于,被侵权人可否对侵权人以外的第三人提出证据开示请求。无论是“民诉法解释”第112条还是“证据规定”第45—48条,均将书证提出命令的适用对象限定为诉讼当事人。但在人工智能侵权中,活动日志等书证可能由第三方掌控。例如,在自动驾驶汽车侵权中,车辆传感器数据可能由第三方运营商持有;生成式人工智能侵犯名誉权的,训练数据的合法性判断依赖数据供应商能否提供有效记录。要求掌握书证的第三方开示证据,对查清行为人是否违反注意义务至关重要。我国人工智能治理应允许法院依申请向被告以外的第三人作出书证提出命令,要求其提供活动日志等信息,帮助查清事实。对人工智能治理而言,这一模式也有助于激励第三方(如云计算中心等)完善人工智能上下游合作审查机制,形成行业治理的“看门人”效应。

3.保护在先权利的证据开示规则

证据开示应避免侵犯人工智能活动相关主体的商业秘密、个人信息与隐私等在先权利。法院应在衡量两造利益关系的基础上,适当裁量被告如何开示研发记录、活动日志等信息。具体而言,相关信息应仅向法院以及负有保密义务的民事主体提供,并非必须向对方当事人披露。证据开示规则在诉讼程序上类似于英美法中的“非公开审理”程序。当对方当事人或第三人以涉及商业秘密、国家机密、免于披露的特权事项等事由拒绝提供自己持有的文书时,一方当事人为获取该秘密的、敏感的文书以证明己方主张的诉讼请求或重要事实,得依据“非公开审理”程序请求法院在法官办公室等庭审之外的私密空间审查该文书。法官围绕争议在合理范围内抽取文件的若干样本审查,该文书不会记录在法庭卷宗中,法官有充分权力决定禁止使用、限制使用还是公开文书,并有权命令一方当事人采取所有必要措施对准予使用的信息保密。在人工智能侵权纠纷中,研发记录、系统日志、数据使用情况等信息涉及相关权利人的商业秘密、个人信息与隐私等,若完全公开对权利人极为不利,但禁止披露又不利于查清事实。通过有限披露的证据开示规则,法院将在特定范围内公开书证,最大程度地保护正当的在先权利,实现权益救济与经营自由之间的平衡。“证据规定”第47条第2款已明确指出,控制书证的当事人应当提交之书证,涉及国家秘密、商业秘密、当事人或第三人的隐私,或者存在法律规定应当保密的情形的,提交后不得公开质证。据此,司法机关可通过不公开审理的方式实现查清事实与保护合法权利之间的平衡。

综上,我国人工智能治理应借助实体性的权利义务规则与程序性的证据开示规则,平衡两造诉讼力量,既不过度干涉人工智能提供者的经营自由,又能有效减轻被侵权人的举证压力,保护被侵权人的合法权益。

四、人工智能使用者行为对过错侵权责任认定的影响

使用者在人工智能侵权纠纷中扮演着不容小觑的角色,其运用学术研究、假设场景等提示工程,诱导人工智能输出不当信息,已成为人工智能治理的一大难点。使用者还可能直接提供素材以供人工智能系统进行训练,最终生成涉嫌侵犯特定人物人格权的虚拟角色。例如,我国已出现用户上传特定人物肖像,供人工智能系统训练生成虚拟角色,人工智能系统则允许用户“调教”该虚拟角色,最终引发是否侵犯该特定人物肖像权、一般人格权的纠纷。此等情况下,人工智能系统提供者得否援引避风港规则,主张对收到合格通知前的损害不承担责任,存在争议。此外,考虑到人工智能开源运动的影响,使用者对开源人工智能系统的进一步研发与应用引发的侵权责任减免问题,也需进一步分析。

(一)限制适用的避风港规则

当发生人工智能侵权时,提供者常主张自己处于网络服务提供者的地位,仅在收到合格通知后有义务采取必要措施防止损害继续扩大。原侵权责任法第36条规定了通知删除规则(避风港规则)。民法典第1195、1196条几乎全面“拷贝”了电子商务法第42、43条的规则,只是将“电子商务平台经营者”替换为“网络服务提供者”,使避风港规则适用于网络侵权,既不限于电子商务领域,也不限于知识产权领域。人工智能侵权同样发生于网络空间,当因使用者原因直接引发人工智能侵权时,提供者得否援引避风港规则免除或减轻责任,成为法律适用的争议之一。

避风港规则仅适用于不作为型侵权,而人工智能应用多表现出作为属性。民法典第1195、1196条规定避风港规则,针对的是自身不制作、不生产与传播内容,只是为他人信息分享提供技术便利和平台支持的网络服务提供者。因为内容并非由网络服务提供者生产,其原则上不负有积极审查义务,仅在收到通知后才有义务转通知、删除链接等。人工智能应用多表现出明显的作为属性,致使避风港规则的适用场景极为有限。以生成式人工智能侵犯他人名誉、个人信息等权益为例,即便使用者存在不当诱导行为,人工智能系统也至少部分地主动生成与传播信息,系统提供者很难借助避风港规则请求责任减免。主动创作与发布信息的主体始终是生成式人工智能系统,并无“转通知”“反通知”等规则的适用空间。或许正是基于这一考虑,国家互联网办公室2023年发布的《生成式人工智能服务管理暂行办法》(以下简称“暂行办法”)第9条第1款明确要求生成式人工智能提供者承担网络信息内容生产者责任,而非网络服务提供者责任。在神经网络技术加持下,人工智能的主动性增强、作为属性明显(如人脸识别、个性化推送、智能投顾等),避风港规则的适用将明显受限。

此外,人工智能提供者处置义务的内容也与避风港规则下网络服务提供者应采取的删除、屏蔽、断开链接等必要措施有所不同。“暂行办法”第14条规定,提供者发现违法内容时,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告;提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。可见,人工智能提供者的处置义务更为积极,甚至包括一定程度的用户管理。《生成式人工智能服务安全基本要求》第7条g项也指出,生成式人工智能服务提供者应采取关键词、分类模型等方式对使用者输入信息进行检测,使用者连续三次或一天内累计五次输入违法不良信息或明显诱导生成违法不良信息的,应依法依约采取暂停提供服务等处置措施。唯需注意,处置义务应平衡提供者与相关主体的利益关系,避免阻碍人工智能科技发展。欧洲数据保护委员会指出,只要人工智能大模型并非旨在输出个人信息,即便在训练过程中违法处理个人信息,人工智能企业也未必需要删除模型本身,后续的模型操作并非当然违法。通过区分大模型研发与数据活动的方式确定处置措施的内容,有助于实现鼓励创新与权益保护之间的平衡。

(二)开源人工智能责任减免规则

开源人工智能系统常被使用者进一步训练,用以完成特定任务。经过再次训练形成的专业人工智能系统造成他人损害的,若事后证明作为关键技术底座的开源人工智能系统存在故障或漏洞,系统提供者是否应承担法律责任,就需审慎分析。

人工智能开源生态对于推动人工智能研发与应用具有明显的积极作用。根据开源代码促进会(Open Source Initiative)发布的《开源人工智能定义1.0》,开源人工智能应:(1)可用于任何目的,无需事前征得许可;(2)可被自由研究工作原理并检查其组件;(3)可为任何目的修改该系统,包括更改其输出;(4)可基于任何目的将系统共享给他人使用。开源模式具有强大的资源汇集和协同创新优势,将有效实现人工智能开发成本降低与应用快速迭代的双赢局面。但也有研究指出人工智能开源可能带来更多的误用与恶意利用,并强调在缺乏防护措施的情况下公开模型是不负责任的。当下游研发者或使用者使用开源人工智能系统给他人造成损害时,开源人工智能系统提供者是否应承担损害赔偿责任,是当下一项重要的研究议题。

开源大模型提供者原则上只应对故意或重大过失造成的损害承担侵权责任。开源大模型提供者不能预见到每一个具体的应用场景,无法针对各个不同场景中的不同风险采取有效的防范措施。源于大模型的开源特征,大模型设计者与提供者无法有效限定模型应用场景。用户完全可以通过“微调”开源模型的方式使大模型偏离预设目的,执行具有潜在危险的任务。即便在预设应用场景中运行大模型,下游民事主体也可以轻松地移除应用限制,使得原防御机制失效。当上游大模型提供者无力控制下游民事主体行为时,法秩序若要求大模型提供者为下游致损行为承担侵权责任,未免责之过苛。欧盟《缺陷产品责任指令》第2条明确规定,本指令不适用于在商业活动范围之外开发或提供的免费、开源软件。该指令前言第14条指出,这一责任豁免是为了避免阻碍创新或研究。前言第15条进一步明确,企业在商业活动中将开源软件作为组件集成至产品并投放市场,该企业应对此类软件缺陷造成的损害承担责任,而开源软件原始提供者不应被追责。但完全豁免开源大模型提供者的责任,似乎也有所偏颇。如果开源大模型提供者恶意植入不良程序或留出安全漏洞,完全豁免其法律责任难谓公平。对于免费开源大模型引发的侵权纠纷,除非提供者具有明显恶意,法秩序应坚持末端责任原则,原则上免除大模型提供者的损害赔偿责任,以免给人工智能生态系统带来无法估量的负面影响。因此,除非开源大模型设计者或提供者故意违反义务,否则其不应对损害承担法律责任。只是考虑到故意与重大过失难以区分、立法也多将故意与重大过失并列,当大模型设计者或提供者对损害发生有重大过失时,也不得主张适用开源大模型责任减免规则。

需注意的是,人工智能大模型的开源程度不同,对责任机制的影响也有所不同。开源存在一个过渡性谱系:从完全封闭到完全开放,中间还存在逐步或分阶段访问、托管访问、基于云或API的访问、可下载访问等访问等级。有研究指出,既有的人工智能大模型依据不同的访问程度可以分为十四种不同意义上的开源类型。受限的开源程度将影响他人对大模型的理解与应用。对于存在可训练参数的算法模型,仅开放源代码远不足以实现开放协作目标,开放协作的需求已延伸到模型参数、训练数据集、训练过程及应用指南等信息。在缺乏上述信息的情况下,下游主体难以真正了解大模型的运作机理,也无法进行有效的风险评估。上游大模型提供者使得下游研发者或使用者陷入信息不对称状态的,若下游主体因认知瓶颈给他人造成损害,就不能免除大模型提供者的法律责任,否则将不利于激励大模型提供者充分披露信息。此外,一些开源行为具有明显的商业目的:用户可以免费使用大模型,但若修改源代码或将其集成到自己的商业产品中,就需要向大模型提供者购买商业许可证(如ChatGPT 4、文心一言等)。当大模型开源属于商业营销的一部分时,下游民事主体使用大模型给他人造成损害的,豁免大模型提供者的民事责任就难谓公平。欧盟《缺陷产品责任指令》前言第14条明确指出,只有在人工智能开源行为不属于商业活动的前提下,对人工智能大模型的开放访问才不会被视为“投入市场流通”。一言以蔽之,开源人工智能责任减免规则应仅适用于完全开源的、非商业行为的人工智能应用活动。

余论:破解科林格里奇困境的人工智能侵权责任

面对人工智能这一新事物,法律规制容易陷入两难境地。一方面,基于防范风险、保护个人权益的考虑,法秩序似应尽快出台规制性法律以调整相关活动;另一方面,人们也常质疑,在产业发展初期制定法律规则是否过早,会不会过度限制科技研发与应用?监管机关既怕技术失控,又担心过早介入遏制产业发展,此即科技法上著名的科林格里奇困境。当面临不确定的未来时,法律原则应发挥指引作用。《G20人工智能原则》强调人工智能治理应推行包容性增长、以人为本、透明度和可解释性、稳健性和安全性、问责制五项原则。这些原则在抽象层面无可反驳,在实践层面却相互龃龉。例如,包容性增长原则需要与问责原则协调,毕竟严格的法律责任将阻碍产业发展;透明度原则的实现也与隐私保护原则相冲突,因为要了解人工智能的运作,不可避免地需要审查训练时的个人数据。当原则之间存在冲突时,具体规则设计将面临更多困惑。

法律规则其实未必抑制创新,清晰、适当的责任规则也可成为人工智能创新的催化剂。随着人工智能技术的跨越式发展与产业化应用,人工智能致损事件正在不断增多。一个有效的责任机制可以鼓励研发机构开发降低风险的技术并改进产品或服务设计,降低损害发生的概率,增加用户对人工智能技术的信任与接受度。法秩序真正需要警惕的是过度苛刻的问责倾向。正是基于这一立场,笔者强调应建立人工智能侵权的过错责任框架。如果我国未来出台关于人工智能的决定或制定人工智能法,均应确立人工智能侵权的一般过错责任。诚然,民法典第1165条第1款已经确定了过错侵权的一般条款,但专门性规定可以更鲜明地展现立法态度,为司法实践提供更确定的指引,也有助于为人工智能企业提供清晰的行为预期。人工智能自主性与网络性引发的过错证明难题,并不构成否定过错责任的充分理由。借助实体性的权利义务规则与程序性的证据开示规则,以及精细剖析使用者行为对人工智能侵权的影响,完全可以建立既不过度限制人工智能技术的研发与应用,又能充分保护民事主体合法权益的人工智能侵权责任框架。当然,立法可以基于特殊的政策考虑,在特定人工智能应用领域规定无过错责任或过错推定责任。由此,我国将形成“一般过错侵权责任+特殊性规则+特殊侵权责任”的人工智能侵权责任体系。一套反映人工智能特性、规则清晰的责任制度,既能增加民众对人工智能系统的信任,又可为人工智能企业提供清晰的行为预期,将成为破解科林格里奇困境的一项重要举措。

*本文原载《法学研究》2025年第5期第113-133页。

    进入专题: 人工智能侵权   产品责任   过错责任   证据开示   避风港规则  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/167927.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统