谢凡:生成式人工智能侵权诉讼的类型化建构

选择字号:   本文共阅读 50 次 更新时间:2026-03-17 13:06

进入专题: 生成式人工智能   人工智能   侵权诉讼   私益诉讼   群体诉讼   公益诉讼  

谢凡  

内容提要:如何应对因生成式人工智能技术引发的侵权纠纷,是当前人工智能科技革命时代背景下的重要司法命题。相比传统民事诉讼,生成式人工智能侵权诉讼的特殊性体现在争点的多元,诉讼目的之多重,以及法律、事实和技术问题高度复合等方面。基于侵害法益的不同类型和层次,生成式人工智能侵权诉讼可被分为救济私权的私益诉讼、救济大规模权益侵害的群体诉讼和公益诉讼三大诉讼类型。在此基础上,应结合各类诉讼的诉讼目的、两造当事人结构、实体构成要件要素、证明责任分配等因素展开程序分类设计,以分层实现私权救济、“公私交融”法益救济、公益救济与秩序规制等不同目的。

关键词:生成式人工智能/ 生成式人工智能侵权诉讼/ 私益诉讼/ 群体诉讼/ 公益诉讼/

作者简介:谢凡,中国政法大学民商经济法学院助理研究员、中国民商事争议解决研究中心研究员。

原文出处:《数字法治》(京)2025年第4期 第127-142页

一、问题的提出

加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。①在此背景下,党的二十届三中全会审议通过的《中共中央关于进一步全面深化改革 推进中国式现代化的决定》部署了完善推动人工智能产业发展政策和治理体系、引导新兴产业健康有序发展的任务,对生成式人工智能发展和管理机制的进一步完善提出了要求。②生成式人工智能(Generative Artificial Intelligence)是近年来人工智能领域最具突破性的技术之一,与传统的判别式模型不同,生成式人工智能模型能通过深度学习数据分布,生成与训练数据相似但全新的内容。2025年,我国企业自主研发且开源的DeepSeek上线,再次掀起生成式人工智能的发展热潮。

在创造机遇的同时,爆发式发展的生成式人工智能技术也为社会治理带来了新的挑战。尽管理论界关于是否有必要通过法律规制人工智能、以何种强度规制等问题仍有争议,但近年来,大量生成式人工智能侵权诉讼案件已经涌入法院,并呈现出快速增长趋势。如新近,杭州互联网法院审结首例生成式人工智能平台侵犯信息网络传播权案,判决某生成式人工智能技术平台构成侵权;③与此类似,广州互联网法院也于日前公开了首例生成式人工智能平台侵权案的情况,同样判决生成式AI绘画平台承担侵权责任。④宏观视角下,从近五年全国法院已审结的千余起人工智能相关案件情况看,绝大多数案件围绕生成式人工智能产生。⑤可见,伴随生成式人工智能技术的快速演进,纠纷化解和秩序治理的需求也随之同步增长。基于此,如何在人工智能相关法律法规、政策制度和应用规范尚付阙如的背景下,对因该新技术产生的侵权纠纷予以有效回应,⑥亦即如何对生成式人工智能技术经自主学习后产生损害的情形展开救济,是司法实务面临的现实困境。鉴于权利救济的实现以程序为其载体和依托,这就同时对生成式人工智能侵权纠纷化解的程序回应提出了全新要求。故而,秉承“无利益则无诉权”理念,从程序法的“后端”视角入手,结合人工智能“前端”实体法相应研究进程,为生成式人工智能技术发展提供司法层面的法治保障,为该新类型侵权的纠纷化解、秩序治理及时提供可行方案,正是当务之急。

二、生成式人工智能侵权诉讼的类型化建构基础

(一)棘手现状:多场景应用背景下多重法益侵害的混同

牢牢掌握人工智能发展和治理主动权,推动我国人工智能朝着有益、安全、公平方向健康有序发展,⑦要求司法在把握技术发展趋势和规律的前提下,公正、及时地化解生成式人工智能侵权纠纷。当前,生成式人工智能技术已在社会发展过程中得到广泛运用。根据不同应用场景,生成式人工智能具有辅助搜索、展开对话等功能,其既可通过技术高效赋能传统搜索引擎,亦可通过多轮交互学习理解并生成新的内容。基于生成式技术的多面性和应用场景的广泛性,因生成式人工智能技术产生侵权纠纷的法律关系相较传统民事诉讼更为复杂。伴随生成式人工智能技术的快速迭代发展,其在侵权类型和侵权链条方面的多样性已在当下阶段开始显现,主要表现为侵害法益层次的多样性和混合性,对通过诉讼形式展开权益救济带来挑战。

从程序法角度观察,要有效化解生成式人工智能侵权纠纷,以解决“多重法益侵害混同”问题为其前提和基础,以实现针对各类损害的救济为其最终目标。因应用场景的多样化和复合化,从实践反映的案件情况看,当前以生成式人工智能技术实施侵权的客体范围相当广泛、侵害法益类型众多,包括对个体民事权益的侵害,针对民事权益和知识产权的大规模权益侵害,以及对公共秩序和社会公共利益等多层次的侵害。有鉴于此,若不加区分地对不同层次的法益损害均以同一套民事诉讼程序为纠纷化解载体,展开笼统且不具备侧重点的救济,恐会引发损害救济的不准确和不充分问题。

目前,我国人工智能相关立法尚在进程之中,国家层面的相关专门规范性文件仅有2023年国家网信办等七部门联合印发的《生成式人工智能服务管理暂行办法》,⑧且暂未涵盖诉讼层面的规范。虽然《民法典》《著作权法》《反不正当竞争法》《民事诉讼法》等法律和相关司法解释也能为多数人工智能侵权纠纷解决提供指引,但由于其调整对象是较为传统稳定的民事法律关系而非人工智能带来的高度不确定法律关系,⑨当将其适用于生成式人工智能侵权诉讼时,难免因专门性和针对性不足产生不准确的问题。在此背景下,囿于实体法中基础规范在人工智能侵权案件审理时的指引作用有限,在通过诉讼程序化解生成式人工智能侵权纠纷时,就会面临“多重法益侵害混同”时的权益救济难题。可见,“后端”的诉讼问题也同时反映出数字时代传统侵权法等“前端”实体法转型升级的现实需求。

(二)底层逻辑:人工智能时代侵权法及诉讼的转型变化

随着法律制度和技术方法的持续演进,社会中的侵权法不断转型变革。伴随工业革命的兴起,以过错责任为核心的近代侵权法体系逐步形成。及至19世纪末期,随着工业革命的深入发展,“受惊的马与坍塌的脚手架”等工业事故频频发生,⑩其带来的侵权风险对过错责任造成冲击,侵权法开始面临变革挑战。在后来的全球侵权法融合浪潮中,产品责任、网络侵权责任等新型责任的产生与演变,更推动了侵权法体系的进一步转型。

当前,被认为是第四次工业革命重要驱动力的生成式人工智能技术正快速演进,其在赋能经济社会转型方面发挥重要作用的同时,也引发了多种新型侵权纠纷。与上述侵权形态相比,在数字时代借助该技术实施的侵权行为更加抽象、隐蔽和多样。如同“生活中的风险及其产生的损害由法益享有主体自行承担”(11)的罗马法原理随民法的转型不再适用于现代侵权法,在面对生成式人工智能侵权这一全新的侵权形态时,通过传统侵权法对各类权益进行保护也已开始呈现“捉襟见肘”(12)之态,侵权法的再次转型呼之欲出。在此背景下,作为“后端”的诉讼程序与“前端”实体法的协同转型升级适逢其会。

从底层逻辑上看,在生成式人工智能侵权诉讼中,新技术的介入对“前端”实体法中诸多关键构成要件的认定标准产生了冲击。在其与侵权手段“升级”的双重作用下,生成式人工智能侵权的客体范围同时产生变化,受损的法益开始从私益的范围逐步扩张至公益范畴。鉴于这种变化,从“后端”视角看,原本作为私益救济程序载体的诉讼程序就必须协同转型、作出有效调整。原因在于,侵权行为的客体恰恰是引发诉讼的起因,其能对诉讼主体、案件的审理范围和程序走向等问题施加关键影响。如果说在工商文明时代的诉讼中,当事人诉讼地位的平等基本不需要技术上的特殊帮助或法律责任上的倾斜即可实现,(13)数字时代的人工智能等新兴技术则是通过作用于社会活动的方式对诉讼活动施加变革性影响。(14)故而,在生成式人工智能侵权这一新型诉讼中,这种影响力就体现得更为明显。

在此背景下,生成式人工智能侵权诉讼相比传统民事侵权诉讼的特殊之处已在实践中逐渐显现:生成式人工智能侵权在主体、归责原则、因果关系和损害结果方面的多样性和复杂性,使此类侵权诉讼的争点更为多元化。同时,在客体范围上,由生成式人工智能技术引发的侵权行为既可能侵害民事主体的私法权益,也可能对具有公共属性的社会秩序造成侵害,(15)亦可能兼而有之,使该类诉讼的目的进一步多重化。(16)此外,该诉讼中法律、事实和技术问题互相纠缠、高度复合的现象也使其裁判过程相比其他诉讼更为复杂。综上所述,基于不同应用场景对该新型侵权诉讼展开类型化研究,有助于在各类诉讼救济目的指引下,对诉讼争点、当事人结构、裁判对象等程序问题展开分类研究,并对当事人权利义务、诉讼的进程和裁判的作出产生重要影响。

(三)分类方法:生成式人工智能侵权诉讼类型化的基准

从目的上看,生成式人工智能侵权诉讼以实现权益救济为其程序功能。换言之,当生成式人工智能侵权对不止一种法益类型造成侵害时,只有达到“救济法益全覆盖”的效果,才能真正实现诉讼作为损害救济程序载体的价值。在此前提下,基于“有侵害的地方就有救济”(17)原理,针对生成式人工智能技术引发的新型侵权纠纷,思考如何对不同层次的法益侵害展开有效救济,如何尽早在程序法范畴内统一相关诉讼的各类法律适用标准,成为当前阶段亟须解决的核心问题。

理论工具方面,在生成式人工智能侵权纠纷的解决过程中,鉴于生成式人工智能侵权造成的风险最终仍体现为造成损害,(18)以各类损害作用的法益层次不同作为区分生成式人工智能侵权诉讼程序类型的基准,是当下较为合理且成本较低的方法。在当前的民事诉讼体系中,以损害作用的法益层次不同为基准对生成式人工智能侵权诉讼进行分类建构,既能够达成“救济法益全覆盖”程序目标、实现损害救济在体系上的闭合,也有利于损害救济在当前法律体系中更“教义”地展开。此外,确立明确的区分基准也有助于该类型诉讼在较早阶段形成较为一致的裁判尺度,为生成式人工智能技术的发展提供统一法治保障。

在明确基准后,接下来研究的核心问题,即是如何秉承“对类似的纠纷采取大致相同的解决方法”(19)理念对当前生成式人工智能侵权的主要类别进行梳理,并将其中的多元诉讼要素进行提炼整合,通过更具层次感的程序类型建构来实现多重诉讼目的,使权利实现救济、受风险侵害的秩序得到规制,并使裁判者在诉讼中能根据个案需求通过类型化、格式化(20)的诉讼构造,作出规范有效的裁量和判决,继而推动具有中国特色的数字法治规则之塑造形成,切实发挥司法在数字时代社会治理体系中的作用。

三、生成式人工智能侵权形态的主要类别

从当前实践反映的情况看,基于侵害法益类型和层次的不同,生成式人工智能侵权形态可被大致分为针对特定主体民事权益的侵害,针对知识产权、个人信息等权益的大规模侵害,以及针对社会公共利益的侵害。

(一)针对特定主体民事权益的侵害

结合《民法典》的规定看,针对特定主体民事权益的侵害较为集中地体现在围绕姓名权、肖像权、名誉权、隐私权等产生的人格权侵害方面,为传统语境中的人格权益救济带来了新的挑战。该类侵权主要有以下几种情形。

1.侵害民事主体肖像权的侵权行为

当前,侵害公众人物肖像权的案件屡见不鲜。诸如在此前引起广泛关注的“AI陪伴者案”中,在未经权利人何某同意的情况下,某人工智能科技公司将以何某姓名、肖像为标识生成的“AI陪伴者”置于其运营软件中,并通过算法机制向众多用户开放使用。审理法院认为,用户“明知其上传的图片会在涉案软件中被推送给不特定用户而仍然实施该行为”的原因在于被告公司的鼓励和组织。(21)因此,该公司的行为构成对何某肖像权的侵害,不适用技术中立原则,并据此判决被告侵权责任成立。

2.侵害声音权益(22)等其他人格利益的侵权行为

当下,不少平台运营的多款AI学唱软件可以基于Sovits4.0等模型学习并精确模拟人声,用户只要输入歌词、曲调等需求,软件就可以通过生成式人工智能技术实现对原素材的转换与合成,自动生成一首翻唱歌曲或是“新”曲艺作品,甚至“AI孙燕姿”“AI郭德纲”等。(23)针对这类新问题引发的侵权纠纷,实践中已有法院对此作出裁判。如在配音演员殷某桢诉北京某智能科技公司等侵权案(24)中,被告在未经许可的情况下调取了原告录制的语音产品,此后通过生成式人工智能技术生成文本转语音产品在其平台发布、出售,案涉产品播放超32亿次。法院认为,对经人工智能技术处理后的声音而言,若社会公众能够根据音色、语调和发音风格识别出特定自然人,则该声音即属于自然人的声音权益。此时,未经许可擅自使用经技术处理的声音,即构成对自然人声音权益的侵权。由此,法院依据《民法典》第1023条第2款判定侵权责任成立。

3.侵害死者人格利益的侵权行为

近年来,不少平台开始基于大数据分析、语音合成等技术,借助大模型对死者生前的音视频、文字资料进行深度学习,创造出足以“以假乱真”的“数字人”。(25)这些经由技术“复活”的“数字人”可以在应用程序中与用户进行语音甚至视频聊天,满足亲人追思的愿望。在此背景下,有平台通过生成式人工智能技术“复活”公众人物并以此作为商品出售牟利。(26)此类“数字明星”能在与用户互动的过程中不断自主学习生成新的素材,在未经许可的情况下,会侵害已逝公众人物的姓名、肖像利益。此时,侵权行为人须承担《民法典》第994条、第1019条规定的侵权责任。

4.侵害民事主体名誉权的侵权行为

通过自主学习,生成式人工智能可以编造、生成关于特定主体的不利信息,导致其社会评价降低,造成名誉损害。因生成式人工智能技术在学习时同时受人工筛选的学习范围、输入的喂养数据和材料提供者的价值理念等多方面影响,其在内容生成时会产生“内源性幻觉”,继而输出带有偏见甚至完全虚构的内容,(27)乃至生成“诽谤模型”。(28)目前,因生成式人工智能自主生成虚假、诽谤性内容,并通过社交媒体等渠道损害民事主体名誉权的相关纠纷诉讼正不断产生。(29)

此外,尽管理论界对生成式人工智能生成的内容是否具有可版权性等关键问题仍存在不同看法,借助生成式人工智能技术侵害特定知识产权的案件已经成为当前实践中较为常见的纠纷类型。从生效裁判文书反映的结果看,针对这类知识产权纠纷案件,当前的裁判观点并不一致,对生成式人工智能自主生成的内容是否构成对原作品著作权的侵权存在分歧。(30)总体上,涉及生成式人工智能侵害特定的著作权等知识产权的纠纷数量正在日益增长。

(二)大规模民事权益侵害

1.针对知识产权的大规模侵权

当前,因生成式人工智能技术引发大规模侵权的情形已并不鲜见,最常见的是大规模版权侵权纠纷。2023年1月,Sarah Andersen等知名艺术家对Stability AI、Midjourney等公司发起了全球第一例关于生成式人工智能生成物侵权的集团诉讼,(31)被视为关于未经许可使用他人作品训练人工智能模型并输出侵权生成物问题的标杆性案件。此后,以画家、作家、音乐家和唱片公司、新闻出版企业为代表的利益相关者纷纷对包括微软、Stability AI等科技巨头公司提起了版权侵权诉讼,其中较为知名的如大量音乐创作者、出品方对Suno、Udio等公司提起的侵权诉讼(32),以及《纽约时报》针对OpenAI等公司通过ChatGPT进行大规模版权侵权行为提起的诉讼(33)等,2023年以来在美国掀起了针对生成式人工智能生成物的大规模版权侵权诉讼浪潮,引发全球对这一新型大规模侵权问题的关注。

2.针对“新型”个人信息权益的大规模侵权

新近几年,实践中还产生了针对通过生成式人工智能大规模侵害个人信息权益行为提起的诉讼。如2023年6月,16名原告向美国旧金山联邦法院针对OpenAI提起诉讼,称ChatGPT在未经充分通知或获得其同意的情况下,“系统性”地从其发布在互联网上的信息中抓取了其大量个人信息。这些信息不仅包括兴趣爱好等一般信息,还包含原告的简历、照片等敏感信息。据此,原告认为,OpenAI的上述行为侵犯了其个人信息权益。(34)这类通过技术擅自爬取、加工信息后泄露用户个人信息的现象近期也开始在我国出现。比如,部分不法企业在爬取甚至非法获取大量公民的个人数据和信息后,通过生成式人工智能技术对数据进行精准“画像”,(35)再利用“画像”信息定向推销产品或服务,以牟取商业利益。如今,这类纠纷正随着生成式人工智能技术的发展持续增加。

3.针对传统民事权益的大规模侵权

当下,通过人工智能技术大规模侵害特定主体肖像权、声音权益的现象也正不断涌现,引发大量纠纷。如在“网红”博主对上海某信息科技有限公司提起的围绕生成式人工智能技术产生的肖像权侵权系列案件(36)中,原告“四月”“墨绿”“仙遥”等主播均为拥有数十万至数百万粉丝的创意短视频博主,长期在视频平台发布原创作品。在被告公司运营的应用软件中,用户能够在缴费后以自己的照片“一键”替代这些原创博主在原视频中的形象,通过生成式“换脸”技术获取原告创作的古风造型视频。众多原告起诉后,审理法院认定该公司以营利为目的擅自大规模“使用”上述博主肖像并利用深度合成等生成式技术制作伪造视频的行为构成对原告肖像权的侵权。

(三)针对社会公共利益的侵害

在生成式人工智能技术面世之前,理论界已经有观点对算法可能对社会公共利益施加的不利影响进行阐释。其认为,算法妨害具有抽象性特征,若借助“算法黑箱”等方式操纵大众进行不利选择,此种行为即构成对社会公共利益的侵害。(37)举轻以明重,作为能经自主学习生成内容的“进阶产物”,生成式人工智能技术对社会公共利益造成侵害的可能性显然更高。

从技术角度看,基于生成对抗网络(GAN)结构建模特点,生成式人工智能在学习过程中对于数据没有任何假设,其训练过程存在不可控性,所以其生成结果普遍存在过于自由无法敛收的问题。(38)与此同时,生成式人工智能模型在生成内容时还会出现“幻觉”问题,即呈现的文本虽然具备形式逻辑和语法规范,却可能是虚构或与事实不符的信息,(39)输出内容“一本正经胡说八道”情况较为常见。有鉴于此,当前阶段生成式人工智能对社会公共利益造成的侵害,主要表现为对社会公共秩序的冲击。

第一类是生成式人工智能通过制造并广泛传播虚假信息甚至虚假的煽动性信息等,对公共秩序造成损害的情况。生成式人工智能自主学习及经学习输出的内容受“喂养”主体的价值影响。所以,大模型可能输出虚假内容、偏见内容甚至带有煽动性内容。2024年,OpenAI继ChatGPT后再度发布重磅级产品——人工智能文生视频生成模型Sora。作为通用人工智能重要里程碑之一,Sora能够根据文本描述生成长达60秒的视频,并具有生成复杂场景甚至人物表情的技术能力,一经问世即引发各界对其社会风险的讨论。有观点称,该模型已在无意中具备了宣传引擎的功能,将引发“火车脱轨式的”虚假信息纠纷,(40)对其不加控制很可能引起误导社会公众的后果。曾有黑客将知名政治人物在官方渠道发布声明的视频作为学习内容“喂养”给生成式人工智能大模型,此后将其学习后生成的一段全新的伪“官方声明”视频上传至互联网。虽然该伪造“新闻”的内容完全是捏造的,但由于技术可以精准学习人物音色、语言节奏以及面部表情等仪态细节,广大民众对这一伪造视频信以为真,继而引发了社会恐慌,对当时的公共秩序造成严重冲击。(41)此外,在数字金融等领域,通过生成式人工智能技术运营的金融服务产品还会因“算法权力”等技术缺陷问题,带来侵害社会公共利益的系统性金融风险,著名的美国道琼斯指数暴跌“闪电崩盘”案(42)即是例证。

第二类是利用生成式人工智能技术广泛侵害人格权等权益,对社会伦理秩序产生不利影响的情况。2024年,因子女在与Character AI产品聊天后自杀,Megan Garcia及遗产管理人对服务商Character Technologies和谷歌等公司提起生命权侵权诉讼,被视为全球首例起诉AI机器人致死案。(43)该案围绕生成式人工智能产品的社会安全性和伦理责任展开了深入论证,引发全球对生成式人工智能产品影响社会公共秩序问题的关注。事实上,我国对通过生成式人工智能技术侵害社会公共利益的行为进行规制的时间要早于这起国际广泛关注的案例。如在2023年8月,杭州互联网法院就已对虞某在互联网非法获取他人信息,并利用“AI换脸”技术侵犯公民个人信息民事公益诉讼案(44)作出了裁判,判决被告虞某侵害社会公共利益的相关民事责任成立。

综上所述,尽管立法尚在进程之中,围绕生成式人工智能技术产生的众多不同类别新型侵权纠纷却已大量涌现。从数字时代的现实需求出发,要通过司法途径公正、准确、高效地对各类生成式人工智能侵权展开侧重点不同的救济,及时为生成式人工智能侵权案件的裁判提供诉讼法层面的对接方案就显得尤为必要。

四、生成式人工智能侵权诉讼的分类架构

如前所述,当前生成式人工智能侵权已呈现出多样化特征,涉及作用于个体私益、大规模聚合性权益、公共秩序和社会公益等不同法益的多种类型侵权形态。面向实践需求,以侵害法益类型的不同层次为区分基准对生成式人工智能侵权的诉讼程序展开类型化架构,其可被相应地分为救济私权损害的私益诉讼、救济大规模损害的群体诉讼和救济社会公共利益的公益诉讼三大类型,分别对私益、“公私交融”利益、公共秩序和社会公益展开分层救济和规制。

(一)救济私权损害的私益诉讼

针对生成式人工智能侵害特定主体民事权益纠纷,原则上应通过传统的私益诉讼进行救济,因为这类诉讼本质上仍属民事侵权诉讼范畴,只是因技术介入而使主体和方式相对特殊。从诉的目的看,生成式人工智能私益侵权诉讼应旨在对受到侵害的私权进行救济并解决纠纷,但不论侧重实现何种诉讼目的,(45)对生成式人工智能侵权私益诉讼而言,明确诉讼的适格当事人都是最核心的程序问题。

1.生成式人工智能侵权私益诉讼的适格当事人

不论技术如何发展迭代,生成式人工智能侵权私益诉讼的两造当事人都应是利害关系当事人,而不能通过法律拟制。从学理上看,利害关系当事人指围绕民事权益产生纠纷并以自己的名义参加诉讼,据此受到法院裁判拘束的与案件有直接利害关系的人。(46)对于生成式人工智能侵权私益诉讼而言,其在适格原告的明确方面基本不存在问题,因为只有存在民事权益受到损害的对象时,诉讼才会产生。目前实践中争议较大的问题,是生成式人工智能侵权私益诉讼中适格被告的认定问题。在此应明确的首要问题是,由于生成式人工智能技术本身不享有民事权利、无法承担民事责任,不具备民事主体资格,所以其无法成为侵权行为的主体,更毋论成为侵权诉讼的被告。在此基础上,生成式人工智能侵权私益诉讼的被告应当区分以下情况确定。

在生成式人工智能技术对特定知识产权侵权的诉讼中,适格被告原则上应为生成式人工智能服务提供者。(47)从技术角度来说,虽然生成式人工智能技术本身具有高度随机的不可预测性,但生成式人工智能服务提供者对其数据输入和运算过程具有注意义务,(48)若生成式人工智能算法及其相关衍生品存在侵权可能,以其“制造者”为被告提起诉讼兼具正当性和合理性。这一思路在实践中已经得到运用,如在某生成式人工智能绘画平台知识产权侵权诉讼中,案涉服务提供者即被法院认定为侵权责任主体,并据其未尽到注意义务判决责任成立。(49)

在以生成式人工智能技术侵害特定民事权益的诉讼中,适格被告的范围还可能更宽泛,既可能包括人工智能服务提供者,还可能包括参与侵权行为的其他主体。如在前文所述擅自制造“AI明星”侵害人格权纠纷案件中,如果借助生成式人工智能技术实施侵权时还涉及音像公司、传播公司等其他辅助主体,则原告可将其列为共同被告提起诉讼。

然而,将生成式人工智能服务提供者列为针对特定主体民事权益侵权诉讼的被告,在一类诉讼中可能尚存理论障碍。在生成式人工智能“诽谤”传统主体侵害其名誉权的纠纷中,由于生成式人工智能服务提供者“喂养”输入给机器学习的原材料本身很可能不具备明显的“诽谤”属性,只是存在一些潜在价值导向,因此在责任要件不明确的情况下,很难推定生成式人工智能服务提供者存在“教唆”机器诽谤的故意。故而,在此情形下将其认定为生成式人工智能“诽谤”侵权诉讼的被告是否妥当仍有待进一步研究。例外情况是,在名誉侵害已实然产生后,若被侵害人通知服务提供者、要求其删除运营平台中生成式人工智能输出的名誉侵害相关内容,(50)但后者拒绝履行或置之不理,此时类推适用“避风港规则”将服务提供者列为被告提起诉讼即具备正当性和合理性。

2.生成式人工智能侵权私益诉讼的局限性

生成式人工智能侵权私益诉讼虽能救济绝大多数民事主体受到的侵权损害,但在许多场景下,通过私益诉讼程序救济由技术造成的新型损害仍然具有局限性。原因在于,尽管生成式人工智能侵权与传统侵权存在诸多不同,但因其在性质上仍属侵权诉讼,在立法尚未对其作出专门规定或特殊处理前,仍要适用当前侵权法中的相关规范。这就意味着判断生成式人工智能侵权责任成立与否,仍然需要比照传统侵权责任构成要件来逐一认定。根据侵权责任理论,一般侵权责任的构成要件主要包括对权利的侵害、可归责性、行为的违法性以及过错。(51)因通说认为我国侵权责任构成要件不包含违法性要件,(52)生成式人工智能侵权私益诉讼在实体法律适用时的局限性主要体现在以下方面。

在权利侵害要件方面,拟通过该诉讼救济的权益理论上必须是《民法典》或其他实体法明确规定的民事权益,即“法律上保护的利益”。(53)据此,在《民法典》和《个人信息保护法》均未将个人信息权益明确为法定民事权利的情况下,(54)如果生成式人工智能技术侵害的只是个人信息本身,而不涉及隐私权等其他权利,此时原告提起生成式人工智能侵权私益诉讼就只能以《个人信息保护法》第69条为基础请求被告承担因侵害个人信息权益产生的责任,其与因侵害法定民事权益产生的侵权责任尚存一定差别。

在过错要件方面,通过生成式人工智能侵权私益诉讼展开救济主要受限于生成式人工智能不存在“主观”状态。针对前述广受关注的生成式人工智能聊天软件“教唆”用户自杀案,如在我国法体系中对该案受害人的生命权进行救济,就会面临对过错构成要件认定不能的情况。原因在于,对聊天软件主动告知用户自杀的方法和步骤这一侵权行为,退一步看,即使未来原告有可能以人工智能技术本身为被告起诉,那么基于技术不存在主观状态的现实,对过错要件的认定就无从谈起;如果原告以生成式人工智能服务提供者为被告提起诉讼,则理论上原告需要在诉讼中完成关于后者存在过错的证明责任,总体存在较高难度,其最终获得胜诉判决的可能性很低。由此可见,在现行成文法体系中,若试图通过传统民事私益诉讼程序来救济生成式人工智能侵权损害,可能面临因权利侵害、过错要件认定困难等产生的实体法律适用问题,以及当事人选定、证明责任分配等方面的程序问题。

(二)救济大规模侵权损害的群体诉讼

针对借助生成式人工智能技术对人格权、知识产权以及个人信息等权益造成的大规模损害,通过群体诉讼来实现“公私交融”法益损害救济是较理想的方案。在我国法语境下,生成式人工智能侵权群体诉讼可被进一步分为救济大规模特定权益侵害的代表人诉讼和救济大规模不特定权益侵害的“团体”诉讼两类。

1.救济大规模特定权益侵害的生成式人工智能侵权代表人诉讼

针对生成式人工智能技术大规模侵害特定民事权益的情况,如果受到损害的群体人数众多但数量确定,通过《民事诉讼法》第56条规定的代表人诉讼救济群体性权益损害、继而化解纠纷是较为理想的选择。

在两造当事人的结构方面,生成式人工智能侵权代表人诉讼以特定权益受到侵害的对象为原告,以实施侵权行为的生成式人工智能服务提供者等主体为被告。从理论上看,因诉讼代表人必须是案件的利害关系当事人,所以即使是在群体侵权诉讼中,通过代表人诉讼救济的对象仍被限定在针对特定民事权益的侵权损害范围内。虽然从外观上看,生成式人工智能大规模侵权纠纷往往大量涌现,但本质上,这些侵权行为都是单独发生的,彼此之间并不存在牵连性,均具有独立的诉讼标的。如前文提及的对“网红”博主实施的大规模“换脸”侵权纠纷,本质上是具有相似案件生活事实和法律关系的同类型案件。当这类利用技术实施的侵权行为在某特定时段内集中甚至同时涌现时,受害人即可以选择提起代表人诉讼来实现权利救济。

在诉讼标的方面,对救济特定权益损害的生成式人工智能侵权代表人诉讼而言,其法律关系应围绕基本民事权益侵权责任是否成立这一核心展开,而非生成式人工智能产品责任。从比较视野看,欧盟《人工智能法案》将人工智能引发的风险划分为产品风险与基本权利风险两大类型的做法,就从侧面反映出人工智能侵权问题已超越产品责任的范畴,开始危及一般民事主体的基本权利。应当认识到,生成式人工智能侵权责任不能简单等同于产品责任,因为产品责任的核心要件是存在产品缺陷,(55)而以生成式人工智能实施侵权造成的损害并不能被完全纳入因产品缺陷导致的损害范畴。如在大规模“换脸”侵权案件中,众多博主受到侵害并不由生成式人工智能技术本身的缺陷导致,在此技术只是实施侵权的工具而已。因此,针对这类大规模侵权提起的代表人诉讼从本质上看仍属于围绕特定民事权益纠纷展开的、原告人数众多的共同诉讼。对这类侵权而言,由于技术手段的同一,关于被告如何通过AI实施“换脸”侵权行为、最终产生何种肖像权侵权损害结果等要件事实也趋于一致。在这种情况下,由推选出的代表人出庭参加诉讼能在一定程度上提高诉讼效率,其判决效力及于其他未参加诉讼的当事人也就具备合理性。综上,从性质上看,救济大规模特定权益侵害且起诉人数确定的代表人诉讼仍属主观诉讼的范畴,其判决效力仅及于诉讼当事人。

但也应当承认,传统代表人诉讼在适用于大规模生成式人工智能侵权案件时同样存在局限性。学者指出,代表人诉讼之所以在我国司法实践中少有适用,是因其与群体纠纷解决中的调解等核心手段存在难以兼容等多方面问题。(56)而在当前阶段,关于人工智能的相关法律规定仍较少,通过调解、和解等方式化解大规模侵权纠纷的情况不在少数,传统的代表人诉讼的适用场景颇为有限。

2.救济大规模不特定权益侵害的生成式人工智能侵权“团体”诉讼

以生成式人工智能技术针对知识产权实施的大规模侵权行为与针对肖像权等民事权益实施侵害的情况存在性质上的明显差异:首先,前者一般以特定主体为对象实施,不论损害结果还是侵害权益类型均具有特定性;而后者一般具有不断持续、集中涌现的特点,其损害对象和结果范围并不特定。其次,前者造成的侵害一般为对个体的损害,而后者具备一定的社会危害性,可能同时对公共秩序产生影响。此时,针对生成式人工智能侵权展开救济的对象就由纯粹的私益层面逐渐向公共领域转化,其损害作用的法益层次具备“公私交融”的属性。在这种情况下,有必要面向现实需求,探索确立我国法语境下的“团体”诉讼,对生成式人工智能针对大规模不特定权益产生的侵害予以有效救济。

第一,在诉的目的层面,生成式人工智能侵权“团体”诉讼已不同于传统代表人诉讼,其具备双重诉讼目的。引起这种变化的原因在于,生成式人工智能引致的大规模侵害带来了不确定的损害,在实体法方面完全套用传统侵权法对其展开救济存在困难。(57)同时,在程序法视野下也应当意识到,不论是针对版权还是个人信息权益的大规模侵害,都已超出传统民事程序的救济能力范畴,许多民事诉讼制度如传统意义上的代表人诉讼针对这种全新的现代型纠纷难以进行充分救济。(58)对现代型民事诉讼原告而言,其诉讼目的已发生改变:不仅主张自己的利益,而且还尝试救济针对与其处于同一利益阶层其他民众的扩散性利益损害,许多情况下还包括对某种公共政策提起抗议。(59)

设立具备双重救济功能的“团体”诉讼,能够在救济受损个体利益的同时起到间接维护社会公共利益这一作用,这一点在数字时代尤其必要。随着社会的不断发展,诉讼的功能已经不再局限于解决私权救济,其终究会被逐步塑造为公共规范制度运用于实践中,(60)此时民事诉讼及其裁判的性质也就将随之转变。如针对借助技术系统性地从互联网上爬取并披露公民敏感信息的大规模侵权行为,通过“团体”诉讼救济其对不特定主体造成的持续性损害,就能在对个体进行救济的同时对利用技术侵害公共安全的行为进行有效威慑和规制,对未来人工智能相关公共政策的制定施加正向影响。

第二,在诉讼构造层面,群体诉讼的诉讼构造理论上决定了该诉讼中两造当事人结构、诉讼请求以及判决的效力范围等(61)多方面内容。而其中的核心命题,是选出能够公正地代表团体利益的代表人,代表众多成员提起诉讼。比较视野下,最具代表性的群体诉讼样本当为集团诉讼和团体诉讼。从集团诉讼发源地美国法的情况看,其通过在诉讼法中赋予“集团”这一拟制主体的方法,将基于同一法律或者事实问题、存在实体共同利益关系的当事人聚合成一个诉讼主体参加诉讼,最终使诉讼判决对全部集团成员生效,甚至对“根本料想不到的主体”也产生约束力。(62)大陆法系代表国家德国则通过团体诉讼来救济群体权益,该制度以救济分散性小额损害为设立制度初衷,通过赋予某些具有资质的公益团体诉权的方式使其具备原告资格,代表团体成员提起并参加诉讼。(63)德国团体诉讼与美国集团诉讼最大的差异在于,美国集团诉讼的原告本质上仍为自己的权利救济提起诉讼,而德国团体诉讼的原告已经不是受到损害的直接对象,从利害关系当事人转变为了程序当事人。(64)

就我国的情况而言,专家指出,针对同一类型标的进行持续、海量侵权的情况在数字时代十分常见;虽然此类案件同质化现象突出,但原告起诉时,许多类似侵权行为的受害人很可能尚未与侵权行为主体产生纠纷。(65)这一特质在新近几年生成式人工智能引发的大规模侵权纠纷中体现得十分明显,如在前述类似ChatGPT擅自大规模爬取敏感个人信息并披露的纠纷中,由于生成式人工智能技术可以全天候、不间断地通过神经网络算法(66)以“爬取信息—学习信息—生成新信息—输出新信息”的循环进行学习、输出内容,其引发的侵权纠纷即会源源不断地产生,对群体权益产生大规模不特定的损害结果。

有鉴于此,若要对利用生成式人工智能技术实施的大规模不特定权益侵害展开有效救济,就必须在我国法语境中找到对应的程序载体。在当前的法律体系中,与集团诉讼和团体诉讼最相似的群体权益救济诉讼制度是《民事诉讼法》第57条规定的人数不确定的代表人诉讼。针对生成式人工智能大规模持续性侵权造成的不特定“开放式损害”,人数不确定的代表人诉讼能在一定程度上作为我国生成式人工智能侵权“团体”诉讼的基础样本,为权利侵害救济提供程序保障。

若适用该诉讼程序,首先,应明确其在我国法语境中的诉讼目的。从性质上看,这一现代型群体诉讼程序须同时具备私权救济和公共秩序规制的双重功能,已不再是纯粹的主观诉讼。其次,在两造当事人结构已经固定的前提下,还应进一步明确生成式人工智能侵权“团体”诉讼的程序构造和诉讼请求,同时对其判决效力范围进行一定限制,以防止出现判决效力无度扩张的情况,(67)对生成式人工智能技术发展产生不利影响。

除此以外,可以考虑在生成式人工智能侵权“团体”诉讼中尝试嵌入示范诉讼模块,在人数不确定的代表人诉讼的登记制度基础上,通过示范诉讼的灵活性结合“二阶式”的诉讼结构实现权利救济和秩序规制的双重诉讼目的。概括看,即是在生成式人工智能侵权“团体”诉讼的第一阶诉讼中,主要侧重救济群体性法益侵害;而第二阶诉讼则主要以救济个体损害为程序功能。通过“二阶式”结构,生成式人工智能侵权“团体”诉讼救济“公私交融”权益损害的程序功能即有望实现。

(三)救济社会公共利益的公益诉讼

当前,生成式人工智能科技浪潮已不可避免地对众多涉及社会公益的领域施加影响,并对部分公法秩序产生冲击。在此背景下,通过极具我国特色的公益诉讼来救济生成式人工智能技术带来的社会公益侵害,成为针对性较强且灵活度较高的可行选择。结合我国公益诉讼制度的实际运行情况,可以将生成式人工智能侵权公益诉讼进一步划分为救济“继发型”损害的公益诉讼和救济“原发型”损害的公益诉讼两大类型,以更具针对性地救济公共利益、增进民众福祉。

1.救济“继发型”损害的生成式人工智能侵权公益诉讼

所谓救济“继发型”损害的生成式人工智能侵权公益诉讼,指的是救济由高度聚合的不特定私益转化形成的公共利益之诉讼类型。而之所以称其为“继发型”公益损害,是因为这类损害的作用对象本质上是私益的集合体。这类民事纠纷虽然具备社会属性,(68)但基于损害数额小、受害者数量大且分散等原因,被侵权人往往选择放弃诉讼。比如,针对大规模集中侵害个人信息权益的情形,利用生成式人工智能技术侵害他人权益的企业能够通过大范围、可反复实施的“小微”侵权牟取可观的非法收益。但是,每一个独立受害人作为“理性个体”提起诉讼的积极性却十分低迷,(69)客观上助长了这类“低成本”侵害的大规模蔓延,对公共秩序和社会公益造成侵害。据此,救济“继发型”损害的公益诉讼能够在救济上述“权利集合”的同时发挥维护社会公益、预防类似侵害反复发生的作用。根据《个人信息保护法》第70条的规定,(70)针对大规模侵害个人信息权益的情形,检察机关和社会组织可以提起公益诉讼。该条为检察机关等拟制主体提起利用生成式人工智能大规模侵害个人信息权益行为的救济提供了程序法规范基础,为救济“继发型”损害的公益诉讼提供了法律依据。

在当事人结构方面,救济“继发型”损害的生成式人工智能侵权公益诉讼以法律拟制的原告和与纠纷存在利害关系的被告为两造当事人。在我国法语境下,公益诉讼与人数不确定的代表人诉讼的最大区别在于二者在当事人结构上的差异。虽然学界对由拟制主体提起公益诉讼救济大规模私益侵害这一问题的争论仍在持续,但实践中,由检察机关等拟制原告提起公益诉讼已经成为一种现实选择,消费者权益保护公益诉讼即是其典型样例。针对生成式人工智能造成的大规模不特定权益侵害同样可以通过公益诉讼展开救济。

首先,生成式人工智能侵害社会公益的责任形态不同于环境公共责任等既有类型,是一种全新的责任形式。从学理上看,当某类新的纠纷发生时,团体通常就已经脱离了原来的秩序状态,旧有规范即已失去其应有的规制力,此时就需要有特别的裁判规范来解决纠纷,其在内容上也就会与以前的规范有所不同。(71)当过多针对不特定私人权益的风险高度聚合,其就会转化为对公共秩序的侵害。如在虞某利用生成式人工智能技术侵害社会公共利益案中,法院即指出,被告非法获取众多人脸信息在社交软件传播的行为已经侵害了承载在不特定多数社会主体个人信息之上的公共信息安全,构成对社会公共利益的侵害。(72)在这类情况下,若仍局限于私法体系考虑生成式人工智能侵权纠纷化解方案,很可能无法起到应有的救济效果,更毋论对生成式人工智能研究应用过程的规制。与此相应,如同许多私益诉讼事实上包含了涉及公共利益的要素,(73)公益诉讼所涉利益中也会包括特定主体的私权利益,二者很可能互相“交织”。举例看,个人信息本身具有公共财产的属性,但信息主体对其也同时享有介入权。(74)据此,虽然个人信息权益属于“新型人格权益”,(75)但当生成式人工智能技术大规模侵害这类高度聚合的权益时,该侵权行为就会上升到侵害公共利益的范畴。此时通过生成式人工智能侵权公益诉讼来化解纠纷,能在实现权利救济的同时,在全局性视野下通过裁判规则对部分生成式人工智能的“野蛮生长”予以反向规制,进而对人工智能相关市场秩序施加影响。

其次,通过救济“继发型”损害的公益诉讼来“填平”因大规模侵害产生的分散性权益损害,有利于发挥检察机关等拟制主体在调查取证方面的优势。客观看,不论在何种生成式人工智能侵权诉讼中,要围绕这一新兴技术完成证明责任对原告而言都是巨大的挑战。在面对生成式人工智能技术引发的公共秩序侵害时,作为个体的受害人在过错、因果关系等方面的举证难度就更不言而喻。以利用Sora等文生视频大模型生成知名人物的虚假视频、散布不实信息继而引起社会恐慌的情况为例,由于对侵权人利用Sora散布不实信息的过错、其行为与产生大面积社会恐慌结果间因果关系等多方面要件的举证均受生成式人工智能大模型“算法黑箱”(76)等技术问题的制约,原告要完成证明责任难度极大。而检察机关和具有专业能力的社会组织对案件线索和证据的距离相对更近、(77)调查取证的能力更强,若通过救济“继发型”损害的公益诉讼解决相关纠纷,就能在很大程度上化解处于弱势地位的原告在生成式人工智能技术和模型方面的举证困难,有助于权利救济、公益维护等多重诉讼目的之实现。

2.救济“原发型”损害的生成式人工智能侵权公益诉讼

所谓救济“原发型”损害的生成式人工智能侵权公益诉讼,指的是救济单纯社会公共利益的公益诉讼。其可以细分为以下情形。

第一类救济“原发型”损害的公益诉讼救济因生成式人工智能侵权带来的社会风险。毫无疑问,生成式人工智能为人类社会带来了全新的风险,将德国社会学家乌尔里希·贝克“风险社会”理论(78)中的风险层级进一步升级,要求社会对数字侵权风险予以关注与控制。产生这一全新风险的核心原因在于,生成式人工智能技术大多涉及算法数据的自动化过程,然而当其自动化决策或者输出过程产生了不利后果时,能对其进行实质性救济的手段仍然处于空白状态。(79)如针对生成式人工智能聊天模型“教唆”未成年用户自伤自杀行为,或是向未成年用户大规模推送暴力、黄色内容的情况,适用传统民事诉讼来救济权益已无法达到“填平损害”的基本效果,而需要以救济单纯社会公共利益的诉讼模式发挥治理功效。从性质上看,这类救济“原发型”损害的公益诉讼已经不再属于私权救济诉讼而趋于客观诉讼性质,因此通过该诉讼程序作出的生效判决还可能具备对世性特征。

第二类救济“原发型”损害的公益诉讼则是救济以生成式人工智能技术同时对国家利益造成损害的诉讼,严格意义上,这类诉讼应属“国益诉讼”范畴。但因我国并未设立“国益诉讼”这一专门的诉讼形式,所以针对生成式人工智能捏造虚假信息甚至煽动性信息使国家利益遭受严重损害的情况,除了适用刑事手段和行政措施对其予以惩戒和规制外,还可以通过公益诉讼程序予以救济,此时该类公益诉讼即应属于最狭义的生成式人工智能侵权公益诉讼范畴。对此种情况,有必要对其展开专门研究。

五、结语

人工智能是新一轮科技革命和产业变革的战略性技术。助力数字经济高质量发展、为生成式人工智能大模型发展提供法治保障,要求司法对伴随生成式人工智能技术发展产生的各类新型侵权纠纷展开及时、有效的救济。应该认识到,鉴于生成式人工智能技术应用场景的多元,越早对人工智能治理相关问题展开类型化、精细化研究,越可能在更早的阶段形成具有中国特色的数字法治规则。对生成式人工智能侵权损害作用的不同法益层次进行区分,并以此为基础对生成式人工智能诉讼展开类型化建构,能够更合理地针对私益、“公私交融”利益和公益等不同类型的法益展开侧重点各异的有效救济,继而通过规则的示范作用引领人工智能产业发展秩序,为我国在人工智能领域保持优势提供助力。

注释:

①习近平:《加强领导做好规划明确任务夯实基础,推动我国新一代人工智能健康发展》,载《人民日报》2018年11月1日,第1版。

②参见2024年7月18日中国共产党第二十届中央委员会第三次全体会议通过的《中共中央关于进一步全面深化改革 推进中国式现代化的决定》。

③参见杭州互联网法院(2024)浙0192民初1587号民事判决书。

④参见广州互联网法院(2024)粤0192民初113号民事判决书。

⑤参见陈颖婷、胡蝶飞:《生成式AI狂飙突进 代表委员热议立法破局》,载《上海法治报》2025年3月12日,第A2版。

⑥参见王利明:《生成式人工智能侵权的法律应对》,载《中国应用法学》2023年第5期。

⑦《习近平在中共中央政治局第二十次集体学习时强调坚持自立自强突出应用导向推动人工智能健康有序发展》,载《人民日报》2025年4月27日,第1版。

⑧《生成式人工智能服务管理暂行办法》第4条明确规定,提供和使用生成式人工智能服务应当遵守法律和行政法规,尊重知识产权和他人合法权益,不得利用算法、平台等优势实施垄断行为,不得侵害他人肖像权、名誉权等民事权益。

⑨张凌寒:《中国需要一部怎样的〈人工智能法〉?——中国人工智能立法的基本逻辑与制度架构》,载《法律科学(西北政法大学学报)》2024年第3期。

⑩朱岩:《风险社会与现代侵权责任法体系》,载《法学研究》2009年第5期。

(11)参见朱虎:《过错侵权责任的发生基础》,载《法学家》2011年第1期。

(12)参见王利明:《迈进数字时代的民法》,载《比较法研究》2022年第4期;王利明、丁晓东:《数字时代民法的发展与完善》,载《华东政法大学学报》2023年第2期。

(13)景汉朝:《数字时代在线诉讼模式特有原则与制度构建》,载《华东政法大学学报》2025年第1期。

(14)参见左卫民:《迈向数字诉讼法:一种新趋势?》,载《法律科学(西北政法大学学报)》2023年第3期。

(15)参见宋华琳:《人工智能立法中的规制结构设计》,载《华东政法大学学报》2024年第5期。

(16)何文燕、廖永安:《民事诉讼目的之界定》,载《法学评论》1998年第5期。

(17)Ashby v.White(1703)14 St Tr 695,92 ER 126.

(18)参见杨立新:《人工智能产品责任的功能及规则调整》,载《数字法治》2023年第4期。

(19)[日]谷口安平:《程序的正义与诉讼》,王亚新、刘荣军译,中国政法大学出版社2002年版,第68页。

(20)参见章志远:《行政诉讼类型构造研究》,法律出版社2007年版,第22-23页。

(21)参见北京市第四中级人民法院(2021)京04民终777号民事判决书。

(22)关于声音权益的法律保护问题,参见王利明:《论声音权益的法律保护模式》,载《财经法学》2024年第1期;石佳友:《人格权编的中国范式与中国式现代化的实现》,载《中国法学》2023年第3期,等等。

(23)参见温远灏:《警惕AI悄悄“偷”走你的声音》,载《法治日报》2024年6月15日,第4版。

(24)参见北京互联网法院(2023)京0491民初12142号民事判决书。

(25)参见徐艳红:《人工智能“复活”逝者视频是否侵权?》,载《人民政协报》2024年6月6日,第9版。

(26)参见赵丽、李纪凡:《“复活”已逝明星在网上成了一门生意》,载《法治日报》2024年3月22日,第4版。

(27)参见许茂恒:《AIGC大模型中内源性幻觉难题溯源与版权规制路径》,载《北京理工大学学报(社会科学版)》2024年第6期。

(28)See Eugene Volokh,Large Libel Models? Liability for AI Output,Journal of Free Speech Law,Vol.3:489-558,2023.

(29)See David Leslie,Xiaoli Meng,Future Shock:Grappling With the Generative AI Revolution,Harvard Data Science Review,Special Issue 5,May 2024.

(30)相关案件及裁判情况可参见徐伟伦:《北京互联网法院审结“AI文生图”著作权案,认定利用人工智能生成的内容可构成“作品”》,载《法治日报》2024年1月4日,第4版;北京互联网法院(2018)京0491民初239号民事判决书、浙江省杭州市中级人民法院(2024)浙01民终10332号民事判决书、湖北省武汉东湖新技术开发区人民法院(2024)鄂0192知民初968号民事判决书等裁判文书。

(31)Andersen,et al.v.Stability AI Ltd.,et al.,Case No.3:23-cv-00201-WHO(N.D.Cal.)

(32)See Seth L.Cooper,It Sounds Like Generative AI Music Services Are Infringing Copyrights,Perspectives from FSF Scholars,Vol.19,No.24,2024.

(33)See Reuters,OpenAI,Microsoft want court to toss lawsuit accusing them of abusing open-source code,http://gffgg48b18c917ab84fb2scouku6nn05996q0k.fgzb.hbpu.wttczd-86544418598.com/legal/litigation/openai-microsoft-want-court-toss-lawsuit-accusing-them-abusing-open-source-code-2023-01-27/,2025年1月10日访问。

(34)参见IT之家:《ChatGPT被起诉索赔30亿,未经允许收集并泄露个人信息,16人匿名状告OpenAI》,http://gffggcac56252079c452dscouku6nn05996q0k.fgzb.hbpu.wttczd-86544418598.com/0/704/762.htm,2025年1月10日访问。

(35)参见卢泽华:《让AI用户更有安全感》,载《人民日报(海外版)》2024年6月3日,第8版。

(36)参见上海市金山区人民法院(2022)沪0116民初10304号民事判决书、上海市金山区人民法院(2022)沪0116民初13377号民事判决书、上海市金山区人民法院(2022)沪0116民初13856号民事判决书、上海市金山区人民法院(2022)沪0116民初15727号民事判决书,以及江苏省江阴市人民法院(2022)苏0281民初8863号民事判决书等。

(37)参见王莹:《算法侵害责任框架刍议》,载《中国法学》2022年第3期。

(38)柴梦婷、朱远平:《生成式对抗网络研究与应用进展》,载《计算机工程》2018年第9期。

(39)参见刘霞:《生成式AI“幻觉”困境如何破解》,载《科技日报》2025年1月28日,第4版。

(40)参见方兴东、钟祥铭:《谷登堡时刻:Sora背后信息传播的范式转变与变革逻辑》,载《现代出版》2024年第3期。

(41)See Sameer Hinduja,Lessons Learned from Ten Generative AI Misuse Cases,Cyberbullying Research Center,April 9,2024.

(42)参见陈梦根:《算法交易的兴起及最新研究进展》,载《证券市场导报》2013年第9期。

(43)Megan Garcia v.Character Technologies,Inc.,et al.Case No.6:24-cv-01903.

(44)参见杭州互联网法院(2023)浙0192民初4563号判决书。

(45)参见陈刚、翁晓斌:《论民事诉讼制度的目的》,载《南京大学法律评论》1997年春季号,第190-197页。

(46)参见柴发邦等:《民事诉讼法通论》,法律出版社1982年版,第152页;王亚新、陈杭平、刘君博:《中国民事诉讼法重点讲义》,高等教育出版社2017年版,第112页。

(47)所谓生成式人工智能服务提供者,指的是利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。《生成式人工智能服务管理暂行办法》第7条对生成式人工智能服务提供者的研发过程进行了多方面规制。

(48)参见林北征:《论生成式人工智能服务提供者的注意义务》,载《法律适用》2024年第10期。

(49)参见广州互联网法院(2024)粤0192民初113号民事判决书。

(50)参见丁晓东:《重构“知情”:平台间接侵权责任反思》,载《东方法学》2025年第1期。

(51)Vgl.Maximilian Fuchs,Deliktsrecht,Eine nach Anspruchsgrundlagen geordnete Darstellung des Rechts der unerlaubten Handlungen und der Gefährdungshaftung,7 Aufl.,2009,Springer,S.9.

(52)参见王利明:《我国〈侵权责任法〉采纳了违法性要件吗?》,载《中外法学》2012年第1期。

(53)参见[日]圆谷峻:《判例形成的日本新侵权行为法》,赵莉译,法律出版社2008年版,第68页。

(54)参见江必新、郭锋主编:《〈中华人民共和国个人信息保护法〉条文理解与适用》,人民法院出版社2021年版,第20页。

(55)参见张新宝、任鸿雁:《我国产品责任制度:守成与创新》,载《北方法学》2012年第6期。

(56)参见章武生、杨严炎:《群体诉讼的价值与功能》,载《法学评论》2007年第5期。

(57)参见丁晓东:《数字法学:多维知识的组织方式》,载《华东政法大学学报》2024年第3期。

(58)参见王福华:《群体诉讼的博弈分析》,载《法学研究》2022年第4期。

(59)参见[意]莫诺·卡佩莱蒂编:《福利国家与接近正义》,刘俊祥主译,法律出版社2000年版,第66页。

(60)参见[意]莫诺·卡佩莱蒂编:《福利国家与接近正义》,刘俊祥主译,法律出版社2000年版,第97页。

(61)参见唐力:《对话与沟通:民事诉讼构造之法理分析》,载《法学研究》2005年第1期。

(62)参见肖建华:《群体诉讼与我国代表人诉讼的比较研究》,载《比较法研究》1999年第2期。

(63)参见吴泽勇:《德国团体诉讼的历史考察》,载《中外法学》2009年第4期。

(64)关于程序当事人,参见[日]新堂幸司:《新民事诉讼法》,林剑锋译,法律出版社2008年版,第89页。

(65)景汉朝:《数字时代在线诉讼模式特有原则与制度构建》,载《华东政法大学学报》2025年第1期。

(66)张夏恒:《ChatGPT的逻辑解构、影响研判及政策建议》,载《新疆师范大学学报(哲学社会科学版)》2023年第5期。

(67)参见陈杭平:《“合众为一”:代表人诉讼判决效力论》,载《法学评论》2024年第2期。

(68)参见张卫平:《民事纠纷的社会性与民事诉讼程序和制度的构建》,载《学习与探索》2020年第8期。

(69)参见张怀岭:《德国群体诉讼机制的实践困境与立法变革》,载《德国研究》2020年第3期。

(70)《个人信息保护法》第70条规定:“个人信息处理者违反本法规定处理个人信息,侵害众多个人的权益的,人民检察院、法律规定的消费者组织和由国家网信部门确定的组织可以依法向人民法院提起诉讼。”

(71)[奥]欧根·埃利希:《法社会学原理》,舒国滢译,商务印书馆2022年版,第142页。

(72)参见杭州互联网法院(2023)浙0192民初4563号判决书。

(73)参见吴俊:《公益性私权诉讼的程序构造与法理基础》,载《苏州大学学报(法学版)》2024年第1期。

(74)参见杨晓:《论我国私法体系中个人信息权的性质及保护路径》,载《人民司法》2024年第1期。

(75)参见程啸:《个人信息保护法理解与适用》,中国法制出版社2021年版,第36页。

(76)关于算法黑箱问题,参见徐凤:《人工智能算法黑箱的法律规制——以智能投顾为例展开》,载《东方法学》2019年第6期。

(77)参见徐全兵:《检察机关提起公益诉讼有关问题》,载《国家检察官学院学报》2016年第3期。

(78)参见周战超:《当代西方风险社会理论引述》,载《马克思主义与现实》2003年第3期。

(79)参见桑德拉·沃切特等:《无需打开“黑箱”的反事实解释:自动化决策和〈通用数据保护条例〉》,陈宇超译,载《国外社会科学前沿》2022年第7期。

    进入专题: 生成式人工智能   人工智能   侵权诉讼   私益诉讼   群体诉讼   公益诉讼  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 诉讼法学
本文链接:https://www.aisixiang.com/data/173690.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统