张凌寒 于琳:生成式人工智能价值链上的侵权责任划分

选择字号:   本文共阅读 3587 次 更新时间:2025-11-21 23:16

进入专题: 生成式人工智能   侵权责任   价值链  

张凌寒   于琳  

 

【摘要】生成式人工智能在价值生成的链条上涉及多方主体,如继续按照传统网络侵权责任认定规则,要求服务提供者承担全部责任将有违公平性。基于生成式人工智能价值链及侵权行为的特殊性,应沿着生成式人工智能价值链划分侵权责任,即抓住基础模型开发、系统集成、服务应用三个关键环节,对各环节所涉责任主体分别设置合理的注意义务,基于过错责任展开,针对模型“幻觉”补充适用公平责任。沿着生成式人工智能价值链的侵权责任划分区别于传统规则,体现在主体识别与责任判断两个方面:一是将侵权责任主体从服务提供者向价值链的上下游分别延伸,本质是对主体的扩张;二是跳出传统的主观过错与因果关系判断,转向以注意义务设置为核心的判断规则。

【关键字】价值链;侵权责任;过错责任;人工智能安全;人工智能法

 

当前,生成式人工智能在大规模应用过程中已产生诸多版权、人格权侵权纠纷,而服务提供者通常被认为是生成式人工智能侵权责任主体,也得到了一些学者支持。同时,在立法层面,《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)延续传统网络服务监管思路,将生成式人工智能服务提供者同此前的算法推荐服务提供者、深度合成服务提供者一样,作为主要的责任主体,要求其负担数据和基础模型来源合法、数据标注、内容标识、违法内容处置等法定义务;在司法层面,“奥特曼案”中,针对原告在信息网络传播权方面提出的诉求,法院要求作为服务提供者的某AI公司承担监管责任[1],尽管服务提供者并非侵权功能的实际开发者和侵权素材的实际上传者。事实上将生成式人工智能侵权归责于服务提供者这一单一主体,是延续传统互联网服务视角对侵权责任行为及主体的判别规则。

作为一种处于迭代时期、有着诸多环节的人工智能技术,其“用户输入+机器输出”的内容生成范式和逐步占优势的开源共享运行模式,使得处在增值链条上的不同参与者行使着不同程度和种类的控制权。虽然基础模型融合海量数据、算法、算力,开发成本极高,但即使是中小企业往往也可以通过 API(Application Programming Interface,应用程序编程接口)或者开源的方式访问底层基础模型,继而向终端用户提供生成式人工智能服务。

在生成式人工智能价值链的复杂构造下,生成式人工智能服务提供者既难以控制价值链下游的用户使用行为,也难以控制价值链上游的基础模型开发活动。本文尝试延长生成式人工智能侵权责任链条,沿着生成式人工智能价值链识别侵权责任主体,并以注意义务设置为核心,合理划分价值链上各方主体应承担的侵权责任,以期为“人工智能法”提供立法参考。

一、生成式人工智能价值链及侵权行为

生成式人工智能价值链上各主体身份易发生重叠与转换、上下游相互依赖且具有极强的风险传导性,生成式人工智能侵权行为主体复杂、人类行为与侵权损害结果之间的因果关系高度分散、主观过错认定困难。面对全新挑战,需建立新的分析框架,方便识别生成式人工智能下的侵权责任主体与责任划分。

(一)生成式人工智能价值链概念与特征

价值链是一个管理学概念,其最初用以描述企业为发展其竞争优势,所从事的设计、生产、营销、交货以及对产品起辅助作用的各种活动的集合。而“人工智能价值链”多被产业界用于结构化或层次化描述人工智能市场中的经济价值创造过程。欧盟《人工智能法案》首次在法律层面引入“人工智能价值链”概念,其中第25条专门规定了“人工智能价值链中的责任”(Responsibilities Along the AI Value Chain)[2],但该法并未对人工智能价值链作出明确界定。欧盟政策研究中心将人工智能价值链高度概括为“开发单个人工智能系统并将其投入使用(或部署)的组织过程”{1}。据此,本研究定义的生成式人工智能价值链是生成式人工智能系统从开发到部署应用的一系列经济价值创造过程,具有高度复杂性,涉及多个方面、多个要素和环节、多项投入和活动。更值得注意的是,生成式人工智能价值链还具有区别于传统人工智能价值链的特殊性。

第一,生成式人工智能价值链上各主体身份易发生重叠与转换。例如,在“模型即服务”的业态下,当基础模型开发者直接以基础模型向终端用户提供服务时,其已兼具服务提供者身份,此种情形即为主体身份的重叠。再如,欧盟《人工智能法案》第25条规定,如果分销商、进口商、部署者或者其他第三方存在“将自己的名称或商标放在已经投放市场或投入使用的高风险人工智能系统上”“对已经投放市场或投入使用的高风险人工智能系统进行了实质性修改”“改变人工智能系统的预期用途从而使其成为高风险人工智能系统”这三种情形之一,则不再被视为该法规定的提供者。上述情形下的实体已然被视为更高风险的人工智能系统提供者,此种情形即为主体身份的转换。当同一主体兼具多重身份时,须履行多重身份下相应的法律义务;当不同主体间发生身份转换时,与其身份对应的法律义务同时会发生转移,而义务的叠加或者转移都将影响最终的侵权责任承担。

第二,生成式人工智能价值链的上下游之间具有相互依赖性。生成式人工智能价值链的上下游之间在系统集成和主体间关系两个维度有着相互依赖性。一方面,模型和其他组件在系统集成维度表现出一种相互依赖性。一个能够对外提供服务的生成式人工智能系统通常是由模型和其他人工智能组件集合而成。模型是生成式人工智能系统的核心组件,模型自身又是由训练数据、模型架构、智能芯片等要素集合而成。生成式人工智能完成从模型到系统的转化过程还需要集成其他软硬件组件,即便是在“模型即服务”的业态下,模型也需要通过搭建用户界面在应用端实现内容生成。另一方面,上下游主体间关系维度也表现出一种相互依赖关系。基础模型开发的资源密集型特性促成了价值链上下游公司(主体)之间相互依赖关系的建立,这种关系使基础模型的生命周期变得复杂。这一点在合规义务履行方面体现得尤为明显。位于生成式人工智能价值链下游的服务提供者不了解基础模型开发的相关信息,上游开发者亦不清楚基础模型在下游被如何修改及应用。下游主体合规义务履行往往依赖上游主体的信息共享和披露,上游主体对基础模型的安全维护也需要下游主体信息反馈。

第三,生成式人工智能价值链具有极强的风险传导性。生成式人工智能侵权损害虽然实际发生在服务应用环节,但风险或损害成因往往可向前追溯至基础模型开发环节。基础模型是生成式人工智能的核心驱动,模型通用性使其在具备广泛任务执行能力的同时,也会被下游继承自身存在的缺陷。当模型训练阶段使用的训练数据存在缺陷时,下游应用往往会产生有害内容、泄漏敏感数据、生成错误信息等风险。由于基础模型位于生成式人工智能价值链上游,一旦基础模型存在内生安全问题,所产生的风险或影响将蔓延至整个价值链,继而演变为全链条风险。

(二)生成式人工智能侵权行为的特殊性

第一,生成式人工智能侵权行为主体复杂。生成式人工智能侵权行为的表现便是应用终端各种侵权内容的生成。而从最初的系统开发设计到最终的内容生成,其中至少涉及数据收集与处理、模型预训练与再训练、系统集成、系统部署与应用等环节,每一个环节均涉及不同参与主体,包括但不限于数据提供者、数据收集者、数据处理者、模型设计者、云服务商、生成式人工智能服务提供者、生成式人工智能服务使用者。这就意味着,人工智能生成侵权内容可能是训练数据、模型设计、人机交互等多种因素共同作用的结果,由此引发技术行动中常常出现的“多手问题”,即当多方主体参与活动,且每个主体的贡献都是部分的、分散的,出现问题或不良后果时,难以确定谁应该为此承担责任。

第二,人类行为与生成式人工智能侵权损害结果之间的因果关系高度分散。人工智能生成内容是通过人机交互完成的,即先由用户向生成式人工智能服务应用界面输入提示词,而后生成式人工智能根据提示词完成内容输出。因此,用户输入行为距侵权损害发生最近,但在这一过程中,用户实际上并未直接实施内容生成行为,难以认定为用户直接侵权;而相较于用户,基础模型开发者、服务提供者对内容生成的作用又更为间接。生成式人工智能价值链构造复杂,从系统开发设计到侵权内容生成的距离过于遥远,人类行为与损害结果之间的因果链过长且模糊,侵权行为的可追溯和可预见性变弱,二者之间的因果关系已经高度分散。

第三,生成式人工智能侵权行为主观过错认定困难。生成式人工智能固有的“幻觉”问题使其极易“编造”出看似合理实则不存在的内容,难以认定行为主体对基于模型“幻觉”自动生成的侵权内容存在主观过错。随着生成式人工智能技术日渐复杂,模型内部运行机理及推理过程愈发不透明且难以理解和解释,被侵权人现实中难举证证明开发者、服务提供者等相关主体对损害结果存在过错。

二、基于生成式人工智能价值链的侵权责任分析框架

目前,人工智能价值链的划分标准大致可以分为商业模式、要素、行为与要素结合三大类。其中基于商业模式的人工智能价值链划分是从企业盈利视角出发,关注不同实体在整个人工智能产业各个环节中如何进行价值创造;基于要素的人工智能价值链划分是将经济价值创造过程具象化为某几个客体,忽略参与主体及其所实施的具体行为在人工智能价值链的经济价值。相比而言,要素与行为相结合的人工智能价值链划分标准一方面能够识别生成式人工智能从开发设计到部署应用各个环节中的核心增值要素,另一方面能够通过要素与行为相结合锁定生成式人工智能价值链各个阶段的主要参与主体,兼顾其要素控制者和行为实施者双重角色。例如,经合组织将生成式人工智能价值链划分为构建基础模型、调整模型、部署三个关键步骤{2};Levity公司将机器学习价值链划分为问题定义、数据采集、数据存储、数据准备、算法编程以及应用程序开发六个主要步骤{3};美国信息技术产业理事会(ITI)将人工智能价值链分为基础设施、数据、开发、部署四个阶段{4}。现阶段,根据这一标准自下而上回溯生成式人工智能的整个增值过程,可将生成式人工智能价值链完整地划分为基础模型开发、系统集成与服务应用三个关键环节(见图1),以符合法律层面上面向事后救济和问责的主要目的,也便于司法部门结合行为与要素精准锁定风险源及关键行为主体。

第一,基础模型开发环节位于生成式人工智能价值链的上游。“基础模型”是由斯坦福大学基础模型研究中心创造的术语,其本质是人工智能模型{4}。之所以称之为“基础模型”,原因在于其具有通用性。基础模型在广泛的数据集上使用自监督学习进行预训练,经过预训练后,其便可以通过特定任务微调、线性探测或者提示工程进行调整,以此作为大量的下游任务的“基础”。因此,欧盟《人工智能法案》(第97条)也称其为“通用人工智能模型”。基础模型是生成式人工智能的核心,开发基础模型需要庞大的训练数据集、多个领域的深厚专业知识以及大量计算资源。相应地,该环节至少涉及数据提供者、云服务商、软硬件供应商、模型设计者、基础模型开发者等主体。

第二,系统集成环节位于生成式人工智能价值链的中游。虽然基础模型是生成式人工智能系统的重要组成部分,但模型本身并不构成系统,人工智能模型需要集成其他组件(例如用户界面),才能成为人工智能系统。面向终端用户的生成式人工智能系统除了需要基础模型提供的基本推理能力,还需要具备用户管理、权限控制、数据管理、内容标识、与外部系统交互和组件依赖等能力。由于生成式人工智能具有广泛的应用场景,下游开发者、部署者可以对基础模型进行微调,向终端用户提供面向特定应用场景的生成式人工智能服务。例如专门用于医疗诊断的生成式人工智能软件;将基础模型集成到现有许多正在运营的软件或平台中,向终端用户提供具有内容生成功能的服务应用。由此,该环节至少涉及预训练阶段数据提供者、云服务商、软硬件供应商、基础模型开发者、微调阶段数据提供者、生成式人工智能服务提供者等主体。

第三,服务应用环节位于生成式人工智能价值链的下游。经过基础模型开发、系统集成,生成式人工智能最终以网络服务的形式在服务应用环节向终端用户提供文本、图像、声音等内容生成服务。在应用端,生成式人工智能既可以作为独立的应用软件满足用户回答问题、日常办公、休闲娱乐、创作内容等使用诉求,也可以仅作为一种功能嵌入即时通信、办公软件、社交软件等传统互联网产品中。无论以何种形式提供服务,服务提供者都在其中发挥着关键作用,既要保障生成式人工智能服务质量,还需防范生成式人工智能在提供服务过程中可能产生的安全风险,这一点与传统网络服务并无二致。但与传统网络服务使用者不同,生成式人工智能服务使用者的加入不仅要使用生成式人工智能,还能对人工智能生成内容以及生成式人工智能技术自身产生影响。一方面,用户使用行为与训练数据、模型架构、算力等要素一同作用于人工智能生成内容;另一方面,生成式人工智能可以利用用户使用过程中产生的反馈数据不断优化自身性能。

三、沿着生成式人工智能价值链划分侵权责任:规则与理据

沿着生成式人工智能价值链划分侵权责任区别于传统侵权责任划分规则,体现在侵权责任主体识别与侵权责任判断两个方面。在侵权责任主体识别上,沿生成式人工智能价值链划分侵权责任,是将生成式人工智能侵权责任主体从服务提供者向价值链的上下游分别延伸,本质是对侵权责任主体的扩张;在侵权责任判断上,沿生成式人工智能价值链划分侵权责任的判断规则,可跳出传统的主观过错与因果关系判断,转向以注意义务的设置与判断为核心的侵权责任划分。

(一)侵权责任主体识别的规则与理据

对侵权责任主体识别而言,沿着生成式人工智能价值链划分侵权责任意味着将生成式人工智能侵权责任主体从服务提供者向价值链上下游延伸而扩张,其主要规则与理据有三点。

一是符合“利益与风险一致原则”。“利益之所在,风险之所归”{5}。生成式人工智能价值链各环节的参与主体均围绕生成式人工智能价值链上的单个或多个要素从事经济创造活动,并以此获得经济利益。例如,在基础模型开发环节,数据提供者从数据交易中获取经济利益、云服务商通过提供云计算平台获取经济利益、基础模型开发者通过设计开发并向下游提供基础模型获取经济利益。与此同时,数据、云计算平台、基础模型既是生成式人工智能的构成要素也是风险因素,任何一个构成要素出现安全问题均有可能导致生成式人工智能造成他人损害的情形发生。基于“利益与风险一致原则”,如果行为人想从智能算法中获益,则相应地需承担由此带来的风险。据此,生成式人工智能价值链各环节参与主体从基础模型开发、系统集成、服务应用等开发应用活动中获益,也相应地需承担上述活动造成他人损害的赔偿责任,即获得利益者承担损失。

二是符合危险控制理论。基于传统互联网法理的多数现有法律倾向于将责任分配给一个中心参与者,原因在于这个中心行为者是潜在风险或伤害的来源,或者是可能引起法律责任的资源控制者。我国现行法律之所以以服务提供者为中心进行责任规则构建,主要是因为在既往的网络侵权案件中,服务提供者是网络侵权风险的主要来源,是算法技术或网络平台的控制者,同时其对用户行为具有较强的控制能力,能够以最小成本控制侵权行为,因而由其承担侵权责任具有社会和技术条件的合理性。然而,面对生成式人工智能下的侵权行为时,情况开始发生变化。一方面,生成式人工智能服务提供者位于服务应用层,当基础模型开发者与生成式人工智能服务提供者为不同主体时,后者既难以控制上游的基础模型,前者也难以预测下游会将基础模型用于何种目的并产生何种风险。另一方面,生成式人工智能服务提供者事实上难以控制用户或第三方行为。传统网络侵权中,针对用户发布的侵权内容,网络平台可通过事前的内容审查和过滤机制以及事后的删除、屏蔽措施实现预防并阻止用户侵权行为的目的。而在用户诱导生成式人工智能输出侵权内容的情况下,生成式人工智能服务提供者已难以在事前预测用户的输入行为,也难以将侵权内容从训练数据集中彻底删除。当服务提供者不再对生成式人工智能享有基本控制权时,相应的责任链条就理应延伸并划分至对生成式人工智能具有控制能力的各个主体。生成式人工智能价值链上的不同参与主体分别控制着生成式人工智能从开发到应用各个环节所涉的不同要素,均可能是生成式人工智能价值链上的要素控制者、行为实施者以及利益获得者。

三是能够避免行为人将侵权责任推卸给人工智能技术自身。布莱恩(Bryan)指出:“人工智能领域或许是一个试图掩盖人为因素以彰显其技术奇观的独特领域。”{6}既有研究倾向使用“自主性”“自学”“不可解释”“不可预测”等来描述人工智能的特征,此种将人工智能过度拟人化的倾向会诱使行为人将人工智能致害归咎于技术自身,从而引发“责任鸿沟”问题,得出“无人应为人工智能损害结果担责”的悖论。在侵权诉讼中,人工智能企业往往辩称损害结果是人工智能技术自身进化所致,以此主张其对人工智能造成的损害不存在过错或者人工智能算法不存在缺陷,因而不负侵权责任。归根结底,人工智能技术带来的风险和损害并非由人工智能系统本身造成,而是人工智能技术在应用过程中间接造成的,侵权责任划分的主要挑战在于人类行为与损害之间高度分散的因果关系而非人工智能技术自身的自主性或自我学习能力。国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中提出共担责任原则,沿生成式人工智能价值链划分侵权责任可通过事前的注意义务设置确保生成式人工智能从开发设计到部署应用的关键环节与核心要素均在法律层面有相对应的控制主体,通过事后的过错认定与损失分担确保生成式人工智能损害赔偿/补偿责任始终由人类承担或分担,避免出现受害人无处寻求救济的局面。

(二)侵权责任判断的规则与理据

在识别应当为生成式人工智能侵权结果负责的责任主体后,继而需要在不同主体间配以法律责任,通过事前确定责任归属解决事后侵权责任判断难题。传统侵权责任认定注重主观过错与因果关系判断,但人工智能具有“众创性”,生成式人工智能侵权可能是海量主体“众创”的结果,更多情况下难以准确识别出具体是哪一个参与主体具有“过错”责任,进而与侵权结果之间存在因果关系。在侵权责任判断上,沿生成式人工智能价值链划分责任,正是为了跳脱出传统的主观过错与因果关系判断,转向以注意义务的设置为核心的侵权责任判断规则与理据。司法实践中已经开始采取此类做法,在“奥特曼”案中的过错认定这一焦点问题上,法院并未遵循传统的过错与因果关系分析路径,而是直接援引《暂行办法》中的合规义务,以服务提供者未履行合理注意义务为由,认定其存在过错。比较法视域下,欧盟的人工智能责任框架将事前预防与事后救济相结合,先是通过欧盟《人工智能法案》(第3条等)沿着人工智能价值链对提供者、部署者、进口者、分销者等参与主体设定不同的合规义务,而后通过《产品责任指令》法案及成员国国内立法规定了人工智能损害救济规则{7}。

在理想情况下,向价值链不同阶段的参与者设置义务的有效方式是确保由“最廉价的成本规避者”,即那些能够最有效地识别和评估特定行为风险性并采取行动减轻风险的实体承担责任。生成式人工智能侵权风险具体表现为人工智能生成内容侵权,对人工智能生成内容的控制力是决定义务和责任的关键因素。

四、生成式人工智能价值链上的侵权责任主体识别:设定与法律定性

人工智能生成内容的影响因素主要包括算法、算力、数据集、用户。因此,能够以最“廉价的成本规避者”的角色控制上述人工智能生成内容影响因素者,即为生成式人工智能价值链上的责任主体,具体包括基础模型开发者、生成式人工智能服务提供者、生成式人工智能服务使用者三类主体。其中,基础模型开发者应当从生成式人工智能服务提供者的法律定义中分离,赋予其独立的法律身份;生成式人工智能服务提供者的法律性质判断应当摆脱技术/内容二分的网络服务类型划分标准,将其认定为一种新型网络服务提供者;生成式人工智能使用者应当依据是否用于职业活动,进一步细分为专业用户与非专业用户。

(一)沿着价值链对责任主体识别设定

生成式人工智能价值链在基础模型开发、系统集成以及服务应用的各个环节存在多个参与主体,但参与主体不能等同于责任主体。如果价值链上所有参与主体均对人工智能生成侵权内容承担责任,将导致侵权责任主体的冗杂和分散,不同责任规则重叠,无法确定一个明确的诉讼切入点,徒增受害人维权成本。如果说引入生成式人工智能价值链旨在全面梳理可能影响人工智能生成内容的主体范围,那么沿价值链对责任主体的识别设定就是严格限制承担人工智能生成内容侵权责任的主体范围,确保侵权责任划分的公平性与合理性。

第一,基础模型开发者是最初创建和预训练模型的实体,其对基础模型的开发设计、开放程度及性能优化具有最强的控制力。首先,基础模型融合了数据、算法、算力三要素。相较于数据提供者、云服务商、软件或硬件供应商这类单一要素控制者,基础模型开发者控制着训练数据来源、模型架构设计、云服务平台或者芯片选择,前端的基础模型开发直接影响后端人工智能生成内容。其次,基础模型开发者直接决定下游主体对基础模型的控制程度。基础模型开发者向下游开发、部署人员开放基础模型的程度越高,下游主体对模型的访问程度以及对模型训练细节的了解程度就越高,所应承担的责任就越大。反之,则基础模型开发者对模型设计和使用方式的控制权就越大,相应地其所承担的责任就越大。最后,基础模型开发者仍能在生成式人工智能系统投入使用后持续对基础模型性能进行优化调整。基础模型在设计上需保持开放性,以确保应用端的生成式人工智能系统能够正常运行与持续更新升级。例如,ChatGPT所使用的GPT系列基础模型已经历从GPT-1到GPT-5的多次迭代。

第二,生成式人工智能服务提供者是将生成式人工智能系统以服务的形式提供给终端用户使用的实体。在“模型即服务”业态下,基础模型开发者同时也是生成式人工智能服务提供者;而在非“模型即服务”业态下,服务提供者会对上游开发者提供的基础模型进行微调,而后通过API集成到现有软件或平台,最终向用户提供服务。尽管上游开发者能够通过合同预见下游提供者的预期用途,但后续行为或数据输入如没有达到一定规模,便无法准确了解提供者对基础模型实施的具体行为。基础模型会随着新数据、新用途和新集成而发生变化,因此责任不应该仅落在最初的模型开发者身上,服务提供者在系统集成与服务应用环节的参与行为,也可往往导致后续内容生成中的侵权风险,也应当对其行为负责。

第三,生成式人工智能服务使用者是使用生成式人工智能生成输出的实体。传统的人工智能致害案件中,使用者往往是受害者,是需要法律救济的一方。在生成式人工智能侵权法律场域下,使用者的角色逐渐可以从受害者转变为施害者。这是因为生成式人工智能的技术机制塑造了人机共生的新型关系,内容输出由算法和用户共同完成,用户提问的呈现方式、关键要素的引入、对生产内容的迭代与选择等因素都将极大影响生成式人工智能的输出结果。此种内容生成机理使得生成式人工智能易受提示词操控发生“越狱”,用户可以通过提示词对模型结构、训练数据、损失函数等方面进行修改,使模型生成侵权内容{8}。相较于模型开发者和服务提供者,使用者对生成式人工智能服务具有更直接的控制力,应被纳入生成式人工智能侵权责任主体范畴。

第四,值得注意的是,作为数据的参与者,还有其他主体,但其中数据提供者与数据处理者并不适合单独作为承担生成式人工智能侵权责任的主体身份类型。这主要是因为数据是影响人工智能生成内容的关键要素,生成式人工智能价值链中的任何一个环节均涉及数据。基础模型开发者对数据进行收集、加工后将其用于模型训练,生成式人工智能服务提供者使用数据对模型进行再训练,使用者在人机交互界面的输入内容和反馈数据也会被用于模型优化。站在生成式人工智能全生命周期视角,数据提供者与处理者身份已被上述责任主体身份吸收。即便存在数据提供者、数据处理者与基础模型开发者、服务提供者、使用者身份不同一的情况,前两者也不承担侵权责任。这里假设基础模型开发所使用的训练数据是其向前端数据提供者采购的,而人工智能生成内容侵权的成因最远只能追溯至该训练数据。换言之,此时仍应由基础模型开发者承担侵权责任,原因在于其负责筛选原始数据,并决定数据处理到何种程度方可用于模型训练。总之,基础模型开发者控制着训练数据的来源、质量,应当对由该训练数据造成的不利后果担责,而数据提供者与基础模型开发者之间的责任划分可通过合同解决。

(二)价值链上责任主体的法律定性

基础模型开发者、生成式人工智能服务提供者以及生成式人工智能使用者的法律性质界定关系到三者的义务与责任承担。

第一,基础模型开发者应当从生成式人工智能服务提供者的法律定义中分离,赋予其独立的法律地位。基础模型开发者法律地位独立的必要性根源于其控制对象,也即基础模型的规制必要性。基础模型的训练已经成为一个融合数据、算法、算力的专门过程,需要出台专门、独立的规范予以规制。欧盟《人工智能法案》(序言第101段)提到,“通用人工智能模型提供者在人工智能价值链中具有特殊的作用和责任,其所提供的模型可能构成一系列下游系统的基础。”ChatGPT广泛应用后,欧盟《人工智能法案》(第1条)将“通用人工智能模型投放市场的统一规则”作为单独的规制对象。相应地,通用人工智能模型提供者也作为独立的法律主体,履行合规义务。我国生成式人工智能相关法律法规也开始出现基础模型与生成式人工智能服务二分的立法趋势,例如《暂行办法》(第7条)要求生成式人工智能服务提供者使用具有合法来源的数据和基础模型。全国网络安全标准化技术委员会2024年发布的《生成式人工智能服务安全基本要求》(TC260003)进一步对“基础模型”作出概念界定。而基础模型开发者的法律地位尚未独立,依据《暂行办法》第22条,当基础模型开发者直接向终端用户提供服务时,基础模型开发者的身份被生成式人工智能服务提供者涵盖,通过提供可编程接口(API)等方式提供生成式人工智能服务的组织、个人也被纳入生成式人工智能服务提供者范畴。

结合“奥特曼案”判决,当基础模型开发者向企业用户(to B)提供 API 接口,企业用户调用API向终端用户提供服务时,生成式人工智能服务提供者是调用API接口向终端用户提供服务的企业用户而非基础模型开发者。当人工智能生成内容侵权时,基于第三方基础模型提供服务的生成式人工智能服务提供者只能采取关键词过滤、停止生成等措施在应用端控制内容输出,而实际从事模型训练的基础模型开发者既不被认定为生成式人工智能服务提供者,也并非单独的法律责任主体,司法诉讼中原告要求从训练数据中删除侵权物料这一“釜底抽薪”的诉求不可能得到支持,由此导致责任漏洞与责任规避。基础模型开发者无须承担侵权责任,调用基础模型提供服务的一方将不得不在服务应用环节承担过重的侵权责任。实践中,基础模型开发成本极高,往往由大型互联网公司提供,大量下游主体一般为中小企业,他们通过API接入基础模型从而向终端用户提供服务。投入成本与承担风险的长期不对称,不利于生成式人工智能价值链的下游应用市场发展。因此,基础模型开发者应从生成式人工智能服务提供者的法律定义中分离,成为独立的法律主体,对外承担侵权责任。

第二,生成式人工智能服务提供者的法律性质判断应当摆脱技术/内容二分的网络服务类型划分标准,将其认定为一种新型网络服务提供者。关于生成式人工智能服务提供者法律性质的探讨,首先需明确生成式人工智能服务提供者是否属于网络服务提供者。有学者认为生成式人工智能服务能够以离线形式提供,因而生成式人工智能服务提供者不能被界定为网络服务提供者{9}。本研究认为此种观点对网络服务的理解放在目前的网络技术环境下而言已过于狭隘,因为网络服务提供者并不能等同于在线服务提供者(OSP),前者还可以是网络内容服务商(TCP)等其他角色,而后者仅为网络服务提供者的类型之一。网络服务提供者的身份判断应取决于其是否利用信息网络提供服务,而非服务是否完全依赖实时网络连接。尽管用户使用生成式人工智能时不需要实时连接网络,但基础模型开发者或服务提供者依然需要利用网络技术进行模型训练、分发、更新与维护,以支持生成式人工智能服务的整体运行。据此,生成式人工智能服务提供者无疑是网络服务提供者。

传统网络侵权中,一般将网络服务提供者分为网络技术服务提供者和网络内容服务提供者两类。此种二元划分的意义在于两者在网络侵权中承担不同责任,即当生成式人工智能服务提供者被认定为网络技术服务提供者时,承担间接侵权责任,适用通知删除规则;反之,作为网络内容服务提供者承担直接侵权责任。与传统网络服务不同,生成式人工智能服务兼具技术服务与内容供给双重属性,生成式人工智能服务提供者也兼具技术服务与内容提供的双重主体身份。因此,生成式人工智能服务提供者的法律性质难以适用传统的技术/内容服务二元划分标准进行界定,应将其视为一种新型网络服务提供者。相应地,侵权责任规则也不必遵循技术/内容服务二分下直接/间接侵权责任的二元规则适用。

第三,鉴于是否用于职业活动将影响生成式人工智能使用者的注意义务内容、水平以及侵权责任规则适用,因此责任主体需进一步细分专业用户和非专业用户。对“使用”行为的界定决定了生成式人工智能服务使用者的主体范围。《暂行办法》第22条将生成式人工智能服务使用者界定为使用生成式人工智能服务生成内容的组织、个人。欧盟《人工智能法案》(第3条)使用“部署者”概念来表述使用人工智能系统的自然人、法人、公共机构、机构或其他组织;同时定义,“使用”既包括通过API接口调用生成式人工智能系统的企业用户,也包括在职业活动中使用生成式人工智能生成内容的个人用户,但不包括在非职业活动中使用生成式人工智能生成内容的个人用户。然而,大多数情形下的行为发生于个人在非职业活动中使用生成式人工智能服务生成内容的场合。结合《暂行办法》第22条规定,将“通过提供可编程接口等方式提供生成式人工智能服务的”个人,也归入了生成式人工智能服务提供者范畴。因此,本研究认为生成式人工智能服务使用者仅指在服务应用端进行内容生成的非专业的最终用户。

五、沿着价值链关键环节的侵权责任划分

综上,基于生成式人工智能价值链和侵权行为的特殊性,应沿着生成式人工智能价值链划分侵权责任,即沿着基础模型开发、系统集成、服务应用三个关键环节,针对各环节所涉责任主体(见表1),分别设置合理的注意义务,以违反注意义务作为侵权过错判断依据。

(一)基础模型开发环节的侵权责任划分

基础模型开发环节处于基础模型发布前,基础模型开发者对该模型具有完全的控制力,作为责任主体,应当对基础模型开发行为负担全部的注意义务。目前,基础模型存在着幻觉和错误信息、有害偏见、隐私泄露、安全漏洞等需要管理的风险。这些风险主要源自数据和模型,因此基础模型研发者的注意义务主要围绕这两个层面展开。

表1 生成式人工智能价值链上的责任主体

第一,数据层面,基础模型开发者需对数据来源合法性和数据质量承担注意义务。一方面,基础模型开发者需确保数据来源合法合规。实践中,用于训练基础模型的数据主要来源于自有数据、开源数据集、外采数据、数据自动化采集及合成数据等{10}。其中,开源数据集、外采数据、数据自动化采集均存在违规收集风险,将违规收集的数据用于模型训练可直接导致人工智能生成内容侵权。例如,在“全国首例AI生成声音侵权案”中,原告诉某智能科技公司作为人工智能技术开发者未经原权利人许可,将其声音素材用于模型训练,侵害自然人声音权益,法院认定被告智能科技公司存在主观过错,承担侵权损害赔偿责任[3]。另一方面,基础模型开发者需承担训练数据质量管理义务。训练数据质量直接影响模型性能,《暂行办法》第7条列举了训练数据质量要求所包含的四要素,即真实性、准确性、客观性、多样性。其中,前三个要素的缺失可能使模型产生“幻觉”问题继而生成虚假、错误信息,而训练数据缺乏多样性可能导致歧视与偏见内容生成,继而降低模型公平性。

第二,模型层面,基础模型开发者负有模型运行安全保障义务。实践中已经发生多起由于模型安全漏洞引发的违法有害内容生成、用户隐私泄露等安全事件,为防范模型安全风险,基础模型开发者应在基础模型发布前对其进行“红队测试”,即通过模拟人类输入来测试模型输出有害内容的能力,并针对测试结果调整优化模型直至其符合安全标准。这一点上,欧盟《人工智能法案》第55条即要求具有系统风险的通用人工智能模型提供者“对模型进行对抗测试并记录在案”。这里的对抗测试(adversarial testing)即为红队测试。

(二)系统集成环节的侵权责任划分

系统集成环节涉及的责任主体涉及基础模型开发者与生成式人工智能服务提供者,前者为后者提供基础模型,后者对其进行部署。两者之间的注意义务不能够简单地依据“模型是否开源”界分,而应结合个案中基础模型的发布要素、公开程度具体判断。

第一,当基础模型开发者向下游的服务提供者发布基础模型时,其对基础模型的控制力开始全部或者部分转移至服务提供者,此时是针对相应责任的划分点。实践中,基础模型的发布方式主要是开源和API两种。然而,侵权责任划分并非完全依此界定,仍要看具体情形。一方面,开源并不意味着完全开放基础模型,因为模型开源与传统意义上对开源的理解不同。传统意义上的开源通常指软件开源,而更具体的模型开源是指软件的源代码公开可访问。基础模型开源所涉要素复杂,除了源代码外,其可能发布的要素还包括训练数据、权重以及其他模型组件和可用文档。只有前述要素全部发布或公开,基础模型才处于完全开放状态。鉴于基础模型所涉要素的复杂性,基础模型的发布呈梯度性,在完全封闭和完全开放之间存在多个中间选项。另一方面,通过 API访问也并不意味着基础模型开发者完全控制基础模型。API访问模式又可依据是否微调分为基于云的访问和基于云的微调访问{11}。前一种情形下基础模型开发者能够有效控制基础模型,下游部署者仅能使用模型,无法对其进行修改;后一种情形下基础模型开发者无法控制服务提供者对基础模型的微调行为,这意味着服务提供者需对模型微调承担注意义务,包括确保微调阶段的数据来源合法性、数据质量、模型运行安全等。

第二,生成式人工智能服务提供者在部署生成式人工智能系统的过程中还应承担风险管理义务。在系统集成环节,生成式人工智能服务提供者直接决定生成式人工智能系统的应用场景。具体场景下的应用风险无法在基础模型开发环节被预见,而生成式人工智能服务提供者最有可能识别并防范潜在的应用风险,因此其应在生成式人工智能系统上市前就应履行风险管理职责。风险管理分为风险评估和风险应对两个方面[4],风险评估要求生成式人工智能服务提供者在了解生成式人工智能系统内部运行与外部部署环境的基础上对其展开风险识别、分析与评价;风险应对要求生成式人工智能服务提供者根据风险评估结果,采取合理的风险应对措施。

(三)服务应用环节的侵权责任划分

服务应用环节是生成式人工智能价值链上的最终环节,生成式人工智能侵权纠纷在该环节发生,基础模型开发者、生成式人工智能服务提供者、生成式人工智能使用者均有可能由于违反注意义务而承担侵权责任。而服务应用环节侵权责任划分的关键在于厘清生成式人工智能服务提供者和使用者对于用户使用行为所需承担的注意义务。

第一,生成式人工智能使用者应当合理预见到内容生成与传播行为均有可能造成人工智能生成内容侵权结果,因而其所承担的注意义务至少应细化为内容生成阶段的输入合规义务以及内容传播阶段的内容甄别与交叉验证义务。在使用者对其使用行为承担注意义务的同时,服务提供者作为平台管理者,也需承担用户管理义务。因此,使用者与服务提供者之间的注意义务边界本质上是在探讨当二者对用户使用行为的注意义务存在交叉时如何界分的问题,而这取决于二者对用户使用行为侵权损害结果的预见与避免的可能性。服务提供者虽无法完全预见并避免用户侵权行为与损害结果,但至少应合理预见到用户可能利用生成式人工智能服务实施侵权行为,并应采取措施主动防范,包括履行内容标识、输入合规提示、防沉迷、风险提示等注意义务;对于难以在事前预测的侵权风险,则需在主动发现或者被通知发生侵权后履行应急处置义务。

第二,无论是基础模型开发者与服务提供者,还是服务提供者与使用者之间,均存在由信息差带来的注意义务履行度受限问题。为保证价值链上各方主体获取足够信息,有效控制侵权风险,上下游主体均应履行信息提供义务。上游基础模型开发者应向下游部署者提供充分、准确的信息,下游部署者(服务提供者)应向最终用户提供作出知情选择所需的信息,让各类主体基于其角色承担安全责任。例如,可使用模型卡、数据表等通信工具将有关基础模型、训练数据的信息向下游主体共享。

结语

判断规则的清晰,不但可以使法律更加公正、高效地划分生成式人工智能价值链上多方主体间的责任,也有利于推进数字社会由传统治理向灵活、多元与包容的“敏捷治理”转型{12}。从目前的生成式人工智能侵权案件所涉权利类型来看,生成式人工智能引发的侵权行为主要是侵害人格权和著作权,通常不会对用户的生命权、身体权或者健康权造成严重损害,也不会给用户造成重大财产损失,这意味着生成式人工智能侵权风险可以被控制在一定限度内,不宜适用严格责任。与此同时,《暂行办法》也明确将生成式人工智能作为服务而非产品进行监管。基于此,生成式人工智能价值链上的侵权责任划分宜基于过错责任展开,补充适用公平责任。而从侵权形态来看,可得出相近的结论。因为大多数情况下是由于模型“幻觉”生成虚假错误信息,用户基于对生成式人工智能服务的合理信赖而使用人工智能生成内容,造成侵权损害结果,并非侵权人个体有意为之。基础模型开发者、服务提供者、服务使用者如果对侵权损害结果可能均不存在过错,也即各方均在自己能力范围内尽到了合理的注意义务,此时损害结果的发生造成了不可归责于任何人的情形。但基于分配正义的要求,受害者因人工智能生成内容遭受的损失仍然需要救济。换句话说,针对模型“幻觉”导致的侵权,应引入公平责任作为过错责任的补充,结合价值链上各方主体的获益水平分担受害人的经济损失。

【作者简介】

张凌寒(1979—),女,中国政法大学数据法治研究院教授、博士生导师,上海市人工智能伦理与治理委员会专家委员;于琳(1998—),女,中国政法大学数据法治研究院博士研究生。

【注释】

[1] 参见广州互联网法院(2024)粤0192民初113号民事判决书。

[2] 本文的欧盟《人工智能法案》均参见European Commission: Regulation (EU)2024/1689 of the European Parliament and of the Council of 13 June 2024,https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689,访问日期:2025年6月8日。

[3] 参见北京互联网法院(2023)京0491民初12142号民事判决书。

[4] 参见国家市场监督管理总局、国家标准化管理委员会:《风险管理指南》(GB/T 24353-2022),第6章。

【参考文献】

{1} Centre for European Policy Studies. Reconciling the AI value chain with the EU's Artificial Intelligence Act[R]. Brussels: CEPS,2022.

{2} Organization for Economic Co-operation and Development. Artificial intelligence, data and competition: background note[R]. Paris: OECD,2024.

{3} ARNE WOLFEWICZ. The value chain of machine learning[EB/OL].(2024-09-30)[202506-08]. https://medium.com/levity/machinelearning-value-chain-c8d00cbc2236.

{4} Information Technology Industry Council. Understanding foundation models & the AI value chain: ITI's comprehensive policy guide[R]. Washington, DC: ITI,2023.

{5} 程啸.侵权责任法(第三版)[M].北京:法律出版社,2021:126.

{6} BRYAN H. CHOI,Negligence liability for AI developers[EB/OL].(2024-09-26)[2025-06-28]. https://www.lawfaremedia.org/article/.

{7} 朱悦.欧盟《人工智能法》研究——以立法过程为视角[M].上海人民出版社,2024:13-14.

{8} 高阳.通用人工智能提供者内容审查注意义务的证成[J].东方法学,2024(1):189-200.

{9} 姚志伟.生成式人工智能服务提供者在私法上的法律性质[J].上海交通大学学报(哲学社会科学版),2024(12):127-142.

{10} 丁道勤.生成式人工智能训练阶段的数据法律问题及其立法建议[J].行政法学研究,2024(6):16-28.

{11} BOMMASANI R, KAPOOR S, KLYMAN K, et al, Considerations for governing open foundation models[J]. Science,2024,386(6718):151-153.

{12} 郑煌杰.生成式 AI 数据风险治理的模式转型——从“传统治理”到“敏捷治理”[J].上海政法学院学报(法治论丛).2024(6):84-100.

    进入专题: 生成式人工智能   侵权责任   价值链  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/169724.html
文章来源:本文转自《北京行政学院学报》2025年第5期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统