程啸:生成式人工智能服务侵权不应适用网络侵权规则

选择字号:   本文共阅读 55 次 更新时间:2026-03-22 17:34

进入专题: 人工智能   生成式人工智能   网络侵权规则  

程啸  

来源:《比较法研究》2026年第1期。

摘要基于互联网提供的生成式人工智能服务属于网络服务,生成式人工智能服务提供者既不同于网络技术服务提供者,也有别于网络内容服务提供者,其生成了新的信息和内容。基于人工智能的自主性,生成式人工智能服务提供者对于生成内容的控制力要弱于网络内容服务提供者。生成式人工智能服务是立法者在确立网络侵权规则时未能预见的新型网络服务,网络侵权规则也不是以其为目标原型的。我国民法典第1195—1197条规定的网络侵权规则由通知规则与知道规则所组成,规范的核心对象是网络服务提供者,为网络服务提供者确定了及时采取必要措施以预防和制止侵权行为的作为义务。网络侵权规则适用于本身没有直接实施作为的侵权行为的网络服务提供者即网络技术服务提供者,不适用于直接实施了作为的侵权行为的网络服务提供者。生成式人工智能服务提供者输出内容的行为属于作为,因此,不符合网络侵权规则所调整的侵权关系。生成式人工智能侵权可能源于数据训练中的侵权行为、系统内置的侵权危险或者其他系统原因(如模型幻觉等),也可能来自用户故意输入侵权提示的操控行为。对于生成式人工智能侵权适用通知规则与知道规则,既无助于预防和制止同一侵权行为的发生,也不利于鼓励生成式人工智能技术的创新与发展。因此,不能将网络侵权规则适用或类推适用于生成式人工智能侵权责任。

关键词生成式人工智能;侵权责任;网络侵权;通知规则;知道规则

01问题的提出

随着生成式人工智能技术的飞速发展,尤其是ChatGPT、DeepSeek等大语言模型的出现以及广泛使用,国内外司法实践中已经开始出现了一些与生成式人工智能相关的侵权案件,如我国广州互联网法院、杭州互联网法院审理的“奥特曼案”,北京互联网法院审理的“利用AI软件丑化恶搞他人肖像侵权案”、“AI换脸案”等。在国外,也发生了多起生成式人工智能侵权纠纷。例如,2024年以安德烈·巴茨(Andrea Bartz)、查尔斯·格雷伯(Charles Graeber)及科克·华莱士·约翰逊(Kirk Wallace Johnson)等为代表的作家及美国作家协会在加州北区联邦法院提起集体诉讼,指控开发著名的大语言模型和AI助手Claude的人工智能初创公司Anthropic未经许可,从“创世纪图书馆”“盗版图书馆镜像”等盗版数据库非法下载他们的作品来训练Claude。该案于2025年9月25日达成庭外和解,Anthropic公司同意向原告支付高达15亿美元的和解赔偿金,该数额也成为美国史上侵犯版权案件中已公开的最高赔偿金额。2025年9月,美国科罗拉多州的13岁少女朱莉安娜·佩拉尔塔的家人以及纽约的一位名为“尼娜”的女孩的家人分别针对开发ChatGPT的人工智能公司OpenAI提起侵权赔偿诉讼,称该公司开发的ChatGPT持续传递错觉,教唆他们的孩子自杀。随着这些生成式人工智能侵权纠纷的陆续发生,法学理论界与实务界日益关注生成式人工智能侵权责任适用的归责原则、过错认定、因果关系的判断、责任主体以及责任承担方式等问题。

目前,学界争议很大的一个问题就是:生成式人工智能侵权责任能否适用《中华人民共和国民法典》(以下简称“《民法典》”)第1195—1197条确立的由通知规则与知道规则所组成的网络侵权规则?对此,我国法学界存在两种观点。肯定说认为,由于绝大部分生成式人工智能服务都是通过互联网的方式提供,因此,生成式人工智能服务属于网络服务。生成式人工智能需要以数以万亿计的数据为参数,对于这些巨量的数据,生成式人工智能服务提供者难以逐一审查把关,其与普通的网络服务提供者具有相似性。有鉴于此,生成式人工智能侵害著作权以及生成虚假信息的侵权责任应当直接或类推适用通知规则与知道规则。否定说认为,《民法典》网络侵权规则明确区分了网络服务提供者因自身行为产生的侵权责任和因用户实施侵权行为所承担的侵权责任,生成式人工智能生成的内容不是用户自己创作或发布的,而是服务提供者创作和发布的,故此不能适用网络侵权规则中的通知规则。而且,知道规则也与生成式人工智能的自主性的技术特征不符,要求生成式人工智能服务提供者知道侵权内容与客观事实相悖。

在美国法学界,对于生成式人工智能侵权责任能否适用避风港规则也存在争议。有的学者认为,生成式人工智能服务满足美国《1996年通信规范法》第230条规定的三个要素:其一,生成式人工智能属于“交互式计算机服务”;其二,针对生成式人工智能服务提供者提起的诉讼将其作为“发布者”(publisher);其三,所生成的内容源于“另一个信息内容提供者”(即训练数据和用户输入)。因此,对于生成式人工智能服务可以适用避风港规则。有的学者认为,对于生成式人工智能服务提供者应当建立与“通知与移除”规则相类似的退出机制,允许著作权人向人工智能服务的提供者发出通知,要求移除其作品或采取过滤、机器“反学习”等措施,以防止生成侵权内容。有的学者认为,避风港规则通常只是保护网络平台不对第三方发布的内容承担责任,但生成式人工智能是“生成”而非“传播”内容。这一特性决定了其可能无法适用避风港规则。因此,生成式人工智能服务提供者很可能被法院认定为"“信息内容提供者"”,而非仅仅是“交互式计算机服务”的提供者。部署这些模型的公司应当为自身在数据收集、筛选和训练过程中的“自主意志行为”承担直接的侵权责任。还有的学者认为,生成式人工智能不同的技术设计(如“提取式生成”与“抽象式生成”)会影响《1996年通信规范法》第230条的适用性。其中,提取式方法更接近于传统搜索引擎,可能获得免责;而生成式方法因创造新内容,可能不被保护。况且,服务提供者通过人工反馈优化模型内容的行为也可能使其被视为内容的“发布者”,从而失去第230条的保护。

本文认为,网络侵权规则不能也不应当适用于生成式人工智能侵权责任。为论证这一观点,首先,本文将分析《民法典》第1194—1197条中“网络服务提供者”的涵义,并指出生成式人工智能服务提供者与其究竟有何不同。其次,本文将阐述网络侵权规则所调整的三元侵权关系结构,并指出生成式人工智能服务的内容生成属于服务提供者的“作为”,而非“不作为”,应当就该作为本身来认定提供者有无过错,不能以通知规则和知道规则来认定提供者因不作为(即未及时采取必要措施)而具有的过错,进而确定侵权责任。再次,本文将结合生成式人工智能服务的特点与引发生成式人工智能侵权的不同原因,阐述生成式人工智能侵权责任不能适用通知规则与知道规则的理由及适用后会产生的弊端。

02生成式人工智能服务提供者与网络服务提供者的区别

为了既能有效预防和制止网络侵权行为,保护人身财产权益,又可以避免给网络服务提供者施加过重的审查义务,维护合理的行为自由,《民法典》第1195—1197条确立了由“通知规则”与“知道规则”所组成的网络侵权规则。通知规则,也称“通知移除规则”或“通知删除规则”,是指网络用户利用网络服务提供者提供的网络服务实施侵权行为,网络服务提供者在不知道且不应知道该侵权行为的情形下,于收到权利人发出的侵权通知后,应及时采取必要措施以制止侵权行为,避免损害的扩大;网络服务提供者没有履行该义务的,应当就被侵权人损害的扩大部分与网络用户承担连带责任(《民法典》第1195—1196条)。知道规则,也称“明知或应知规则”,是指网络服务提供者在知道或者应当知道网络用户利用其网络服务侵害他人民事权益时,应当采取必要措施制止该侵权行为,否则网络服务提供者就需要与该网络用户承担连带责任(《民法典》第1197条)。我国法上的通知规则与知道规则并非免责事由,而是过错责任原则的具体体现,旨在确定网络服务提供者的过错。它们属于并列关系,而非递进的关系,更不是包含关系。如果被侵权人有证据证明网络服务提供者知道或者应当知道网络用户利用网络服务侵害其民事权益而没有采取必要措施的,则无须依据《民法典》第1195条向网络服务提供者发出通知,可以直接依据《民法典》第1197条要求网络服务提供者与实施侵权行为的网络用户负连带责任。通知规则只是在被侵权人无法证明网络服务提供者“知道或者应当知道”或者网络服务提供者确实不知道且不应当知道网络用户利用网络服务实施侵权行为时,方能适用。由此可见,网络侵权规则所规范的核心对象是网络服务提供者,其为网络服务提供者确定了及时采取必要措施来预防和制止侵权行为的作为义务及违反时的民事责任。

(一)网络侵权规则中“网络服务提供者”的界定

首次对“网络服务提供者”这一概念作出规定的法律是《中华人民共和国侵权责任法》第36条。此后,《全国人民代表大会常务委员会关于加强网络信息保护的决定》《中华人民共和国刑法修正案(九)》《中华人民共和国慈善法》《中华人民共和国网络安全法》都提及了网络服务提供者。从广义上说,任何提供网络服务的自然人、法人或非法人组织都可被称为“网络服务提供者”。就《民法典》第1194—1197条规定的“网络服务提供者”的范围,理论界曾有不同的理解。目前的通说认为,网络服务提供者既包括网络技术服务提供者(Internet Service Provider, ISP),也包括网络内容服务提供者(Internet Content Provider, ICP),还包括既提供网络技术服务也提供网络内容服务的混合型网络服务提供者,如电子商务中为交易双方或者多方提供网络经营场所、交易撮合、信息发布等服务,供交易双方或多方独立开展交易活动的电子商务平台经营者。所谓网络技术服务提供者,是指按照用户的指令在用户指定的两点或多点之间通过信息网络就该用户提供或修改的内容自动提供网络接入、信息传输、自动存储、存储空间、信息搜索、链接服务等技术服务的民事主体。网络内容服务提供者,也称互联网信息服务提供者,是指通过互联网向用户提供各种信息内容服务的民事主体,既包括有偿提供的信息或者网页制作等服务,也包括无偿提供的具有公开性、共享性信息的服务活动。

虽然《民法典》中的网络服务提供者既包括网络内容服务提供者,也包括网络技术服务提供者,但是《民法典》第1195条至第1197条的通知规则与知道规则的适用主体仅限于网络技术服务提供者,不包括网络内容服务提供者。这是因为,网络内容服务提供者主动实施了制作并发布信息或内容的“作为”行为,其应当就其发布的信息的真实性与合法性负责,防止因错误或虚假的信息而侵害他人民事权益。国务院颁布的《互联网信息服务管理办法》第13条规定:“互联网信息服务提供者应当向上网用户提供良好的服务,并保证所提供的信息内容合法。”第15条明确列举了互联网信息服务提供者不得制作、复制、发布、传播含有九大类法律、行政法规禁止的内容,具体包括:(1)反对宪法所确定的基本原则的;(2)危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一的;(3)损害国家荣誉和利益的;(4)煽动民族仇恨、民族歧视,破坏民族团结的;(5)破坏国家宗教政策,宣扬邪教和封建迷信的;(6)散布谣言,扰乱社会秩序,破坏社会稳定的;(7)散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的;(8)侮辱或者诽谤他人,侵害他人合法权益的;(9)含有法律、行政法规禁止的其他内容的。无论网络内容服务提供者发布的信息是自己收集、制作、发布的,还是转载、传播来自第三人的信息,网络内容提供者都负有相应的审查义务。依据《民法典》第1025条,如果行为人捏造、歪曲事实,或者对他人提供的严重失实内容未尽到合理核实义务的,那么,即便行为人是为公共利益实施新闻报道、舆论监督等行为的,也需要承担民事责任。依据《民法典》第1026条,在认定是否尽到“合理核实义务”时,要考虑内容来源的可信度、对明显可能引发争议的内容是否进行了必要的调查、内容的时限性、内容与公序良俗的关联性、受害人名誉受贬损的可能性、核实能力和核实成本等因素。因此,倘若网络内容服务提供者自己发布的内容是虚假或错误的,侵害了他人民事权益,那么该提供者就是直接实施加害行为之人。对于网络内容服务提供者侵权责任的认定,既无须适用通知规则,也不以知道或者应当知道为要件。只要其存在故意或过失,即须依《民法典》第1165条第1款承担侵权责任。反之,如果信息内容不是网络服务提供者所提供的,其“既不参与信息交流,也不选择信息的接收方,仅是提供接入、缓存、信息存储空间、搜索以及链接等技术服务,即在双方当事人的信息交流中处于消极中立第三方主体地位”,则不能将提供者仅仅是提供网络技术服务的行为看作加害行为,而要求网络技术服务提供者承担侵权责任。故此,为了维护技术中立的原则,不妨碍网络信息技术的发展,应当适用通知规则与知道规则,对网络技术服务提供者施加及时采取必要措施以预防和制止网络用户利用网络服务实施侵权行为的义务,并在提供者违反该义务时,责令其与网络用户承担连带责任。

(二)生成式人工智能服务提供者的法律性质

生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。除非本地部署且仅通过局域网供内部人员使用,否则,绝大部分生成式人工智能服务都是通过互联网提供的并且无须附着于有体物之上,属于网络服务。从这个意义上说,生成式人工智能服务是网络服务,提供生成式人工智能服务的民事主体也是网络服务提供者,从文义上看,可以被《民法典》第1194—1197条中的“网络服务提供者”所涵盖。所谓生成式人工智能服务提供者,本身可能就是生成式人工智能技术的开发者,也可能只是通过提供可编程接口等方式来调用第三人提供的大模型。在后一种情况下,生成式人工智能服务的提供者属于部署者或运营者,开发者另有其人。如果说生成式人工智能服务提供者也是网络服务提供者,那么,认定其究竟是网络技术服务提供者还是网络内容服务提供者,对于决定能否适用网络侵权规则具有重要的意义。对此问题,学说和实务上存在很大的争议。

 1.学说和判例的不同观点

目前,学说与判例对生成式人工智能服务提供者的法律地位问题,主要有网络技术服务提供者说、网络内容服务提供者说与新型的网络服务提供者说等三种观点。网络技术服务提供者说认为,生成式人工智能服务提供者就是网络技术服务提供者。生成式人工智能服务作为一种新型的信息处理与传递中介,其与传统的网络平台虽然在结构上有差异,但本质上仍然是一种中立的信息传播方式,其既不主动输出任何内容,也不预存任何即将输出的内容,其是基于既有语料进行预测的自动化信息处理工具,是信息传播链条的中立节点。这与传统的网络平台的特征相同,因此生成式人工智能服务提供者与网络服务提供者具有本质上的相似性,既不控制,也不应当控制服务中的内容,具有技术中立性。在美国联邦第二巡回法院审理的Force v. Facebook案中,该院处理了美国《1996年通信规范法》第230条能否阻止作为美国公民的受害者及其近亲属起诉Facebook使用一种基于用户输入决定显示内容的算法的问题。法院认为,使用算法本身并不会使交互式计算机服务提供者成为发布者,因为Facebook的算法只是组织第三方信息。所谓信息内容提供者是指对通过互联网或任何其他交互式计算机服务提供的信息的创建或开发全部或部分负责的任何个人或实体。如果Facebook创建或开发了原告索赔所依赖的内容,那么Facebook本可能被追究责任,因为这将把Facebook的身份从“发布者”转变为“信息内容提供者”,并剥夺其受《1996年通信规范法》第230条的保护。美国联邦第二巡回法院认为,Facebook的算法只是获取用户提供的信息,并将该内容与其他第三方内容匹配,以生成供用户消费的信息流。故此,因为Facebook只是显示未经更改的内容并使其更可见而已,不应当被视为《1996年通信规范法》第230条目的下的内容创建者。

网络内容服务提供者说认为,生成式人工智能服务提供者属于内容服务提供者。就ChatGPT等大语言模型的提供者而言,大语言模型自动生成的信息内容并非是其用户创作或发布的信息,而应当将其看作是系统提供者本身创作、发布的信息。此外,在我国,国家互联网信息办公室等部门联合发布的《生成式人工智能服务管理暂行办法》第9条第1句也明确规定:“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。”当然,生成式人工智能等通用人工智能的提供者也有不同于传统的网络内容提供者之处,如相较于传统的内容提供者,通用人工智能提供者对于生成的内容控制力较低。此外,通用人工智能的创作行为需要人类的提示词予以激发。

新型网络服务提供者说认为,生成式人工智能服务提供者既不同于传统的网络技术服务提供者,也不同于传统的网络内容服务提供者,而是介于二者之间的新型的网络服务(内容服务)提供者。支持该观点的理由在于:首先,生成式人工智能服务提供者并非搜索链接服务提供者。其次,尽管生成式人工智能服务提供者在形式上符合网络内容服务提供者的定义,但在实质意义上不宜将其认定为网络内容服务提供者,因为其控制力不同于网络内容服务提供者,而且我国立法中鲜有关于网络内容服务提供者侵权责任的规则,将生成式人工智能服务提供者纳入网络内容服务提供者将对现有体系带来不必要的冲击。司法实践中也有法院采取这一观点,例如,杭州互联网法院在“奥特曼案”的判决中认为:“生成式人工智能服务提供者提供的网络服务有别于传统的网络内容提供行为、网络存储空间服务提供行为和搜索链接服务提供行为等,生成式人工智能服务提供者兼具内容生产者与平台管理者的双重身份,属于一种新型的网络服务。”

 2.本文的观点

本文认为,生成式人工智能服务提供者不是单纯的网络技术服务提供者,也有别于传统的网络内容服务提供者,而是兼具技术提供与信息内容生产在内的新型的网络服务提供者。一方面,生成式人工智能服务也属于网络技术服务,但又不同于传统的网络技术服务。传统的网络技术服务提供过程中并不制作、生成新的信息或内容,也不对信息内容进行改变,信息内容的产生完全由网络用户自主决定。网络技术服务提供者只是单纯地按照用户的指令在用户指定的两点或多点之间通过信息网络就该用户提供或修改的内容自动提供网络接入、信息传输、自动存储、存储空间、信息搜索、链接服务。然而,生成式人工智能服务会生成新的信息或内容。生成式人工智能服务要依据用户的指令而通过算法、模型等技术生成文本、图片、音频、视频、代码等新的信息或内容。作为通用型人工智能的生成式人工智能可以在开放环境中执行动态策略,能够在不同的场景中自由切换,并根据环境的变化不断调整行为方式和思维模式,改变输出的内容,从而实现最佳适应,以满足不同的任务需求。因此,生成式人工智能服务提供者并非处于消极中立第三方主体地位,不是单纯的信息传播链条的中立节点。虽然生成式人工智能的模型训练数据包括了网络上一切公开的数据,而搜索引擎也是通过爬取、索引以及排序和算法处理网络上公开的数据后呈现相应内容给用户,但是,生成式人工智能生成的内容是基于深度学习技术的不同模型通过算法来处理数据后生成文本、图像、水平等不同内容的,如通过扩散模型、Transformer模型生成文本、图像、视频,基于卷积神经网络模型进行图像识别,基于循环神经网络模型进行语言翻译等。因此,生成式人工智能并非如搜索引擎那样单纯地传递来自第三方的信息,而是通过算法和模型对于生成的内容产生了全部或部分的实质性贡献。

另一方面,生成式人工智能服务和网络内容服务一样都提供了信息内容,但生成式人工智能服务提供者与网络内容服务提供者对于信息内容生产与呈现的结果上的控制力是完全不同的。传统的网络内容服务的提供是基于提供者的自主意志,提供者在网络内容的产生、改变上具有很强的控制力,其可以基于自己的意志和决策判断,通过推荐、排名、选择、编辑、整理、修改等各种主动的行为来控制或改变呈现的信息内容。虽然生成式人工智能也需要依据用户的指令进行反馈,生成相应的信息内容,但其是依赖“数据—算法—算力—模型”等四要素的驱动,通过海量数据的深度学习与概率预测自动生成新内容,其信息生成的机制具有自主性与动态适应性。生成式人工智能服务具有人机互动的特征,能够持续学习和优化灵活调整生成的结果,无论是用户还是生成式人工智能服务的提供者都不可能完全自主地掌控输出的内容究竟是什么。现代人工智能,无论是生成式人工智能还是决策式人工智能,都必须具备“数据”(data)、“算法”(algorithms)、“算力”(computing Power)和“模型”(models)这四大要素。其中,数据是基础,尤其是对于机器学习(ML)和深度学习(DL)模型而言,需要大量数据来进行训练和优化。算法属于核心,它定义了如何从数据中学习模式、进行预测或作出决策。算力为训练复杂的人工智能模型(尤其是深度学习模型)提供了强大的计算资源,需要依靠CPU、GPU、TPU等硬件予以支持。模型是人工智能系统的核心输出,它能够根据输入数据生成预测或决策。就数据而言,生成式人工智能的训练数据是海量、多源的混合物,不仅囊括了互联网上所有可公开获取的、结构化和非结构化的信息,如各类网站、社交媒体和论坛、博客上的信息,还包括了线下的各种数据信息,如已出版的著作、论文等各类出版物。生成式人工智能就是从如此海量的大数据中自动学习模式和规律的,其需要通过大数据来训练模型,而大数据的核心是建立在相关关系分析法基础上的概率预测。对生成式人工智能而言,就是学习数据中的联合概率分布,即数据中多个变量组成的向量的概率分布。以Transformer模型生成文本的过程为例,其核心在于注意力机制,即通过计算编码器端的输出结果中的每个向量与解码器端的输出结果中每个向量的相关性,得出若干相关性分数,再进行归一化处理将其转化为相关的权重,用来表征输入序列与输出序列各元素之间的相关性。这一机制使得模型能够深度理解整个输入序列中每个词之间的关系和上下文含义,减少了对外部信息的依赖,更擅长捕捉数据和特征的内部相关性。因此,对于生成式人工智能所生成的内容,无论是提供者(包括研发者)还是用户都很难说可以完全、自主地加以控制。例如,正是由于生成式人工智能依赖概率分布学习,才会出现“模型幻觉”,这显然有别于传统的网络内容服务。

综上可知,虽然生成式人工智能服务提供者在文义上可以为《民法典》第1194—1197条中的网络服务提供者所包含,但其与传统的网络技术服务提供者和网络内容服务提供者都存在明显的区别,属于新型的、特殊的网络服务提供者。在我国编纂民法典时,无论是学术界还是立法机关,都没有预想到会出现这种新型的网络服务,网络侵权规则当然也不是以生成式人工智能服务提供者作为规范目标原型的。也正因如此,不能仅仅因为生成式人工智能服务依赖互联网而提供,属于网络服务,就当然地认为网络侵权规则可以适用或类推适用于生成式人工智能的侵权责任。

03生成式人工智能侵权责任无法纳入网络侵权规则的调整范围

要解决生成式人工智能侵权责任能否适用网络侵权规则的问题,应当分析网络侵权规则调整的侵权关系,并判断生成式人工智能侵权责任关系与其是否相互匹配。

(一)网络侵权规则调整的侵权关系

《民法典》第1195—1197条规定的通知规则和知道规则所规范的是三元的主体关系,包括以下三方主体:其一,利用网络服务实施侵权行为的网络用户(即侵权人);其二,权利遭受侵害的权利人(即被侵权人);其三,网络服务提供者。在这三元侵权关系中,网络服务提供者处于核心枢纽的地位,是网络侵权规则所确定的作为义务人与责任主体。首先,网络用户利用了网络服务提供者提供的网络服务实施侵害他人民事权益的作为的侵权行为,其当然要为自己的行为负责,应当依据《民法典》第1165条第1款的过错责任原则承担侵权赔偿责任。对此,《民法典》第1194条也作出了宣示性规定,毋庸质疑。

其次,网络服务提供者并未通过发布信息内容而直接实施侵害他人民事权益的作为,它不是直接侵权行为人,直接侵权行为人是网络用户。如果网络服务提供者本身直接实施了作为的侵权行为,如发布了虚假的、诽谤他人的信息内容的,它就实施了作为的侵权行为,是直接侵权行为人。此时,无论提供者是故意还是过失,也无论权利人是否对其发出通知,网络服务提供者都要依据《民法典》第1165条第1款承担侵权责任,无需也不应当适用通知规则与知道规则。正因如此,《民法典》第1194条第1句才宣示性地规定,网络服务提供者利用网络侵害他人民事权益的,应当承担侵权责任。

再次,网络服务在网络用户的侵权行为中起到了作用,或者说是被作为侵权的手段。如果没有案涉的网络服务,网络用户就无法或至少难以实施相应的侵权行为,或者不可能造成如此严重的损害后果。例如,没有网络服务提供者提供的存储服务,侵权人就无法将他人享有著作权的作品存储在相应的网络空间中,进而出售给大量的用户获利,从而给著作权人造成严重的损失;又如,倘若没有网络服务提供者提供的社交平台网络服务,网络用户很难在极大的范围内对他人进行侮辱、诽谤或者泄露他人的隐私或个人信息。在这种网络用户利用网络服务侵害他人民事权益的情形下,虽然侵权行为不是网络服务提供者直接实施的,但由于提供者具有相应的技术能力与技术手段,客观上有能力预防和制止网络用户的侵权行为,因此,在其已经知道或者应当知道网络用户利用其网络服务实施侵权行为时,或者虽然不知道且不应当知道但接到了权利人发出的通知,就负有及时采取必要措施以预防和制止该网络用户的侵权行为的作为义务。如果其违背该义务,将被认定为具有过错,应当承担连带责任。

由此可见,无论通知规则还是知道规则,都是立足于网络用户、权利人与网络服务提供者这三元结构关系而存在的,其规范的核心是网络服务提供者,即确定网络服务提供者负有预防和制止侵权行为的注意义务,并在其违反该义务时施以连带责任。通知规则和知道规则都是围绕着网络服务提供者的作为义务展开的,是用来确定其对网络用户利用其网络服务实施侵权行为时有无过错的标准。一旦网络服务提供者的行为不是“不作为”(即没有及时采取必要措施),而是“作为”,即直接实施了侵害权利人的民事权益的作为的行为时,无需也不应适用网络侵权规则。

(二)生成式人工智能侵权责任中服务提供者存在“作为”

用户利用生成式人工智能实施侵害他人民事权益的侵权行为时,存在网络用户、生成式人工智能服务提供者以及被侵权人三方主体,看上去似乎可以适用网络侵权规则。但是,仔细考察生成式人工智能服务提供者的行为后可以发现,其不同于网络侵权规则所规范的网络服务提供者的行为。如前所述,网络侵权规则是以网络服务提供者仅仅提供网络技术服务而本身并未发布信息内容,即未直接实施任何侵害民事权益的作为为前提的。网络服务提供者之所以承担侵权责任,只是因为在知道或者应当知道网络用户利用其网络服务实施侵权行为,或者在不知道且不应当知道的情形下于收到权利人通知后,没有及时履行删除、屏蔽、断开链接等作为义务而被认定为具有过错,继而成立侵权责任。然而,在所有的生成式人工智能侵权责任中,提供者所提供的生成式人工智能服务是按照用户的要求自主地生成了相应的内容,服务提供者是“有所为的”,即实施了作为。在这种情况下,不能脱离该等“作为”,而仅以服务提供者接到通知后的不作为来判断生成式人工智能服务提供者是否具有过错,应否承担侵权责任。例如,在广州互联网法院和杭州互联网法院都审理过的“奥特曼案”中,原告并没有起诉任何一个网络用户,只是起诉经营Chatstudio网站的被告,认为被告未经授权,擅自利用原告享有权利的作品训练其大模型并生成实质性相似的图片,构成侵权行为。又如,在北京互联网法院审理的“利用AI软件丑化恶搞他人肖像侵权案”中,被告孙某利用生成式人工智能将原告程某作为微信头像的肖像照生成为衣着暴露的动漫风格图片并发送至原被告同在的摄影交流微信群内。在原告多次制止后,被告仍继续使用涉案AI软件将原告的上述微信头像肖像照片生成衣着暴露且身体畸形的动漫风格图片并私信给原告。原告认为被告的行为侵害了其肖像权、名誉权、一般人格权以及个人信息权益,遂提起诉讼。该案中,被告孙某用生成式人工智能生成丑化原告程某的动漫风格图片后,如果只是自己欣赏或消遣,并未通过微信发给原告以及发在微信群中,显然是不会产生侵权纠纷的。该案之所以会发生原告程某的民事权益被侵害的结果,是三个行为共同所致,即孙某向人工智能系统输入指令,人工智能系统生成相关图片,孙某将图片进行公开传播(以及一对一发给原告)。被告孙某需要就其直接实施的侵权行为承担责任。由于生成式人工智能系统存在生成丑化原告的图片的作为,因此,也需要判断生成式人工智能服务的提供者对这种生成丑化他人的图片的“作为”本身是否存在过错的问题,以确定其责任。当然,由于该案的原告并没有起诉生成式人工智能服务的提供者,所以法院未对此问题进行处理。

04生成式人工智能侵权责任适用网络侵权规则难以实现规范目的

(一)引发生成式人工智能侵权的原因

依据引发生成式人工智能服务侵权的原因,可以将生成式人工智能侵权责任分为以下两类:

第一类是由生成式人工智能服务本身的原因引发的侵权。此类生成式人工智能侵权,是指生成式人工智能服务本身存在侵权行为或具有侵权的危险性,具体分为以下四种情形:(1)生成式人工智能数据训练行为本身侵害了他人的著作权。例如,前文所述的美国Anthropic公司未经著作权人许可从“创世纪图书馆”“盗版图书馆镜像”等盗版数据库非法下载他人享有著作权的作品来训练其人工智能软件Claude的情形。(2)生成式人工智能数据训练行为本身侵害了他人的个人信息权益、隐私权。例如,通过非法购买或非法收集的个人信息来进行数据训练或者开发算法模型等。(3)生成式人工智能的模型或算法存在侵权的危险性或者内含了侵权的属性,也就是说,侵权危险被内置于生成式人工智能系统的目标功能,即其任务设定之中。例如,人工智能就是为了文字作品的自动配音而开发的,或者为了从合法公开的个人信息中刺探他人私密信息或敏感的个人信息而开发算法模型等。(4)由于生成式人工智能的其他系统原因而引发的侵权,如模型幻觉(model hallucination)导致输出的信息是虚假的或错误的,或者由于过度拟合(overfitting)使得生成的图片或视频侵害了他人的著作权、肖像权等。

第二类是由用户原因引发的生成式人工智能侵权。这一类侵权情形是指,由于用户在先的侵权行为或以侵权为目的的操控行为而引发的生成式人工智能侵害他人民事权益的情形,具体分为两类:(1)用户输入侵权内容或信息而导致的侵权,如输入他人享有著作权的作品以致生成的内容构成侵权作品,用户进而使用或传播该作品;又如,输入非法获取的他人的个人信息或数据,从而进一步分析获取他人的私密信息或敏感的个人信息。(2)用户故意输入侵权提示词而引导生成侵权内容,如通过指令要求生成一篇虚假的或者诋毁他人的文章。目前,生成式人工智能服务提供者都会通过算法对于这种明显的侵权内容或信息予以规制,一般很难生成这种内容。

(二)生成式人工智能侵权适用通知规则无助于预防和制止用户实施的同一侵权行为

在上述第一类的(1)、(2)种情形中,生成式人工智能服务提供者都因过错实施了在先的侵权行为,因此,不仅可以认定算法、模型的设计行为以及数据训练行为是侵权行为,提供者对之存在过错,而且,在由此而生成的内容侵害他人民事权益时,也可以认定提供者具有过错,即因在先侵权行为而牵连的过错。此时,提供者应当单独承担侵权责任,或者在与用户存在共同故意的情形下构成共同加害行为或帮助行为(《民法典》第1168—1169条)从而承担连带责任。在第一类的(3)种情形中,生成式人工智能服务内置的侵权风险意味着提供者对输出的内容构成侵权内容时具有故意,在用户利用该服务实施侵权行为时,提供者构成帮助行为。无论如何,第一类(1)、(2)、(3)种情形下,无须也不应当适用通知规则。即便权利人发出通知且人工智能服务提供者在接到通知后及时采取了必要措施,也不能排除提供者的过错,进而免除侵权责任。

至于第一类中的(4)种情形以及第二类的情形下,适用通知规则要求生成式人工智能服务提供者采取必要措施,也缺乏实际意义,无法实现其规范目的。具体阐述如下:

一是生成式人工智能依赖“数据—算法—算力—模型”四要素驱动,通过海量数据的学习与概率预测自动生成新内容,具有人机互动性和自主性。其中,“提示是一种能够显著影响大语言模型后续输出的技术手段,也是造成不同的面对面测试结果差异显著的重要原因” 。只要用户输入的提示词稍有差异,生成式人工智能输出的内容就有显著区别。而且,不同的用户输入相同的指令,所生成的内容也并非完全一致。一个用户可能是在故意输入侵权的提示词的情形下使生成式人工智能生成侵权内容(如要求生成丑化他人肖像的图片),也可以是在完全没有任何过错的情形下输入非侵权提示词就生成了侵权内容,如因为模型幻觉而生成虚假或错误信息。此外,某一个用户在偶然地使生成式人工智能输出侵权内容的时候,其他用户通常也不会使用完全相同的提示词输出同一侵权内容。况且,即便是输出了侵权内容,用户是否从事下一步的行为,如公开传播该侵权内容,或者利用该侵权内容实施某种侵害他人民事权益的行为,亦非提供者所能预知并加以控制的。通知规则的目的就是基于网络服务提供者的技术能力而使其及时预防和制止同一被指控的侵权行为的持续存在,以避免损害或损害的扩大为目的。但是,在生成式人工智能输出的侵权内容具有不确定性、偶发性以及侵害民事权益的结果发生与否由用户掌控的情形下,生成式人工智能服务提供者既无法如同网络技术服务提供者那样对已经确定的、持续存在的同一侵权行为采取必要的措施,以预防和制止该侵权行为,避免损害的发生或扩大,也不可能预知并控制用户获取生成的侵权内容后是否实施侵害他人民事权益的行为,也就无力避免损害的发生或扩大。

二是《民法典》第1195条虽然采取了“等”字来涵盖网络服务提供者应采取的必要措施,但从所列举的“屏蔽、删除、断开链接”这几项典型措施来看,都是直接指向网络用户利用网络服务实施的同一侵权行为本身的。从目前理论界提出的生成式人工智能服务提供者应当采取的必要措施,如停止生成、删除语料库的语料、调整模型参数或者完善算法来看,性质上并不是指向网络用户实施的同一侵权行为,其实质上是将生成式人工智能服务提供者作为侵权人,而要求其承担停止侵害、排除妨碍或消除危险的侵权责任。这与《民法典》第1195条规定的必要措施的性质是完全不同的。试问,如果语料库中的语料本身并不构成侵权(如不是非法处理的个人数据或者盗版作品),为什么仅仅因为输出的内容偶然构成了侵权,生成式人工智能服务提供者就要删除这些训练数据?如果模型或算法本身并不具有侵权风险,只是由于生成了被用户用来侵权的信息内容,提供者为何必须要调整模型参数或者完善算法?即便是要求生成式人工智能服务提供者停止输出,也并非就是针对同一侵权信息,因为同一用户的指令稍有差别或者不同用户输入同一指令,都未必能生成完全相同的信息内容。所以,对于生成式人工智能侵权适用通知规则表面上似乎减轻了提供者的责任,实际上对提供者施加了更重的责任。事实上,只有当权利人能够直接证明生成式人工智能训练的数据本身就是非法数据或是侵权作品,或者算法、模型本身内置了侵权的风险,权利人作为被侵权人才有权主张性质上属于绝对权请求权的停止侵害、排除妨害、消除危险,从而要求提供者删除数据、调整算法参数,优化模型等。不能仅仅因为用户利用了生成式人工智能技术实施了侵权行为,就当然地认定生成式人工智能的训练数据、算法、模型本身也构成侵权,一方面适用通知规则,另一方面又给提供者施加性质上属于停止侵害、排除妨碍或消除危险的所谓“必要措施”。此外,即便可以认定算法或模型具有侵权的风险或侵权行为,权利人有权请求提供者停止侵害、排除妨碍或消除危险,服务提供者也可以基于生成式人工智能发展的现有技术水平而主张“发展风险抗辩”,从而不承担侵权赔偿责任。

(三)网络侵权规则不利于鼓励生成式人工智能技术的创新与发展

学说上用来支持对生成式人工智能侵权责任适用或类推适用网络侵权规则的一个重要理由是,这样做符合生成式人工智能服务的特点,也有利于保护服务提供者,避免不当地加重其责任。然而,对于生成式人工智能侵权责任适用网络侵权规则不符合生成式人工智能的技术特点,未能真正地减轻生成式人工智能服务提供者的责任,无法确保人工智能技术的安全性、可靠性、可控性,也不能起到鼓励人工智能技术发展与创新的作用。

如果只要出现了用户利用生成式人工智能技术实施了侵权行为,就不区分出现侵权行为的原因是什么,究竟是生成式人工智能服务提供者在先的侵权行为或者该服务所具有的内在侵权风险,抑或用户操控生成式人工智能服务而自主实施的侵权行为,权利人都可以通知生成式人工智能服务提供者采取相应的措施,如停止生成、删除数据、优化模型、调整算法等,既不利于生成式人工智能技术的安全与可控,也会对生成式人工智能技术的发展构成很多的妨害。一方面,这直接导致了人工智能的自主性风险与不透明性风险被全部分配给生成式人工智能服务提供者,服务提供者势必要疲于应付权利人发来的各种通知,而直接实施侵权行为的用户甚至完全无需对其自主可控的行为承担责任。另一方面,生成式人工智能服务提供者对于在先实施的侵权行为或者具有内在侵权风险的人工智能服务本应直接承担责任的时候,却可以借助通知规则而逃避应当承担的侵权责任。

生成式人工智能服务面向不特定的公众,使用的方式和输出的内容千差万别,数量众多,提供者显然是不可能对用户究竟输入何种提示词,上传哪些文字材料和训练图片等数据内容,以及输出的内容用作什么用途逐一事先加以审查,更谈不上全面控制,其只能在模型、算法中预先设置一些防范生成侵权或违法内容的规则。生成式人工智能具有自主性和不透明性,提供者难以完全自主地控制究竟生成什么内容,也无法全面解释为什么会生成侵权的内容。例如,导致人工智能输出内容错误的原因可能是模型幻觉等系统原因,也可能是第三人采取虚构干扰数据、恶意标注数据、对抗样本攻击等技术手段损害人工智能运行安全的行为所致。知道规则中的“明知”或“应知”是以网络技术服务提供者具有预见和避免的能力为前提的。在生成式人工智能服务与传统的网络技术服务存在明显差别的情形下,简单套用知道规则来确定生成式人工智能服务提供者的过错,一方面会导致基于后见之明而不合理地强化人工智能服务提供者的注意义务的要求,而且基于通知规则与知道规则所产生的连带责任,对于生成式人工智能服务提供者也过于苛刻,会损害人工智能技术的发展与创新。另一方面,也会使得因训练数据、算法或模型存在缺陷,本来就负有主动采取删除数据、调整模型参数或者完善算法等措施来消除侵权风险的义务的生成式人工智能服务提供者,还需要权利人向其发出通知后才需要这样做,这也不利于确保人工智能发展的安全性、可靠性、可控性、公平性。既然生成式人工智能服务所生成的内容就是提供者的作为,那么对其是否需要承担侵权责任就只需要依据过错责任原则,合理确定其注意义务,判断过错并根据因果关系来确定侵权责任即可,没有必要削足适履地套用知道规则。

05结语

总之,生成式人工智能服务是本质上有别于传统的网络技术服务和网络内容服务的新型现代网络服务。从网络侵权规则调整的范围与规范目的来看,《民法典》第1195—1197条规定的通知规则与知道规则无法也不应适用于生成式人工智能侵权责任。正确的做法是,在充分考虑生成式人工智能服务的技术特点的基础上,区分生成式人工智能服务侵权行为的类型,依据《民法典》第1165条第1款的过错责任原则来确定服务提供者的侵权责任。惟其如此,才能更好地协调民事权益保护与鼓励人工智能技术创新发展之间的关系。

    进入专题: 人工智能   生成式人工智能   网络侵权规则  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/173977.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统