摘 要:生成式人工智能服务在带来前所未有的发展机遇的同时,也带来了前所未有的侵权风险。法律上应持如下应对立场:在侵权规制模式上,宜恪守审慎包容的监管态度,坚持“发展中规范,规范中发展”这一理念,避免过度严苛的监管扼杀新兴技术的生机,并在现有法律框架内解决生成式人工智能的侵权问题。在侵权归责原则上,宜采纳过错责任原则,可围绕场景化、现有技术等构建科学合理的过错认定标准。在具体侵权的应对上,宜类推适用避风港规则认定生成式人工智能服务提供者主观上是否具有过错,并规范生成式人工智能对已公开个人信息、敏感个人信息和已公开作品的收集处理行为,还应当规制深度伪造技术的应用。
[关键词]生成式人工智能 侵权 归责原则 过错责任 在发展中规范 避风港规则
作者简介:王利明,中国人民大学民商事法律科学研究中心研究员,中国人民大学教授、博士生导师。
来源:《广东社会科学》2026年第1期
引用格式:王利明.再论生成式人工智能的侵权风险及其应对[J].广东社会科学,2026,(01):247-258.
习近平总书记在中央政治局第二十次集体学习时指出:“人工智能带来前所未有发展机遇,也带来前所未遇风险挑战。要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。”人类社会已从农业社会、工业社会再到信息社会,而今正快步迈向智能社会,人工智能将深刻改变人类的生产方式、生活模式和社会治理模式,“人工智能+”将成为当前乃至今后最重要的经济增长点。但生成式人工智能的发展可能引发对个人人格权益、知识产权等的侵害,造成个人信息与隐私的泄露,并给科技治理带来算法“黑箱”与歧视、人工智能伦理等新的挑战。如何应对生成式人工智能发展中所带来的侵权风险,以促进科技向善、增进人类福祉、推动人工智能健康发展,是我们必须回应的时代之问。笔者拟就此谈一点粗浅的看法。
一、生成式人工智能侵权规制法律模式的选择
针对生成式人工智能侵权,国外实践对此存在两种完全不同的规制模式。一是以欧盟为代表的强监管模式。2022年,欧盟委员会发布《人工智能责任指令》(草案),建议专门针对人工智能所造成的损害制定应对规则,并规定“因果关系推定”等规则。2024年欧盟出台的《人工智能法案》是全球首部全面监管人工智能的法规,其将人工智能所涉及的法律风险划分为不可接受、高风险、有限风险和最小风险四个等级,并针对不同的风险分别确立相应的合规义务。该法案充分体现了欧盟对人工智能的强监管理念,其注重对个人信息与隐私的保护,设置了许多监管义务。一旦模型开发者、服务提供者违反这些监管义务,就可能构成侵权。二是以美国为代表的轻监管、重发展模式。2021年1月,美国颁行了《国家人工智能倡议法案》,作为一部人工智能促进法,该法案中的监管规范大多是原则性条款,并无强制性的法律约束力,呈现自愿型监管的特点。在此种模式下,模型开发者、服务提供者所承担的合规义务相对较轻,发生侵权的法律风险整体概率较小,基本贯彻了轻监管、重发展的理念。
那么,我国应当采取何种模式来应对生成式人工智能的侵权风险呢?有观点认为,我国应当尽快立法,通过专门立法实现生成式人工智能的全面规制,并有专家提出了人工智能立法的基本逻辑与制度架构。目前,我国学界至少已经提出两种人工智能立法方案:一是由中国社会科学院法学研究所牵头起草的《人工智能示范法1.0(专家建议稿)》,并于2025年更新至3.0版本;二是由中国政法大学牵头撰写的《人工智能法(学者建议稿)》。总的来说,两个学者建议稿均深入探讨了中国人工智能发展和治理的系列理论命题,并主张加快立法。该观点不无道理。但笔者认为,目前针对生成式人工智能侵权出台专门法律为时尚早:一方面,当前生成式人工智能侵权的潜在风险总体可控,其主要是对隐私权、个人信息、知识产权等造成侵害,完全可以通过解释现有的法律规则予以解决,而没有必要另行制定新的规则。另一方面,人工智能技术发展日新月异,技术与风险形态处于快速演化阶段,这些技术带来的侵权新问题、新挑战,需要时间去观察、认识和总结,在相关的问题出现之前,如果匆忙制定相关法律规则,急于立法可能产生滞后性。新技术治理需兼顾国家战略与产业发展,宜秉持“在发展中规范,在规范中发展”的监管理念,避免过度约束服务提供者的合理创新空间,以有效利用生成式人工智能技术;尤其是就人格权与知识产权保护而言,我国已具备较为完善的规则体系,可通过法律解释方法予以回应,而没有必要急于进行专门的人工智能立法。
因此,从促进人工智能发展这一国家重大战略出发,笔者认为,针对生成式人工智能,应当采取先发展后规范、在发展中予以规范的路径。事实上,《民法典》《个人信息保护法》等相关法律已针对生成式人工智能可能引发的侵权问题予以规范,可以在现阶段有效应对生成式人工智能引发的个人信息泄露、隐私侵害、深度伪造侵权、侵害著作权等主要风险。当务之急是解释好、适用好这些规则,在个案审理中明确注意义务的边界与层级,通过司法解释的配套规定统一裁判尺度,并逐步总结典型案例与可复制做法,以实证经验反哺制度完善。在此基础上,逐步将成熟做法上升为专门立法,这既可以避免制度供给过度超前导致合规负担失衡,也能保持规则与技术演进的协同。具体而言,应当以人格权保护与个人信息保护为底层规范,借助合理使用与避风港规则等制度,在过错归责原则之下,构建认定过错的妥当标准,对人工智能产业的发展,适度保留试错空间,保持审慎包容的监管态度。对深度伪造涉嫌侵权等高风险领域要从严把控并强化事后救济。同时,行政监管与行业规范应当与私法救济形成良性互动,通过逐步完善现有法律的解释适用来规制生成式人工智能的侵权问题,避免过度严苛的监管限制人工智能的发展。从而在保障创新动力的同时,有效维护民事权利和社会秩序,保障人工智能健康发展、行稳致远。
二、生成式人工智能侵权的归责原则
归责原则是认定侵权的基本原则,只有确定归责原则后,才能准确认定侵权责任,因为归责原则不仅关涉侵权责任构成要件,而且关涉侵权责任的免责事由以及当事人的举证责任分配;同时,不同的归责原则也将直接影响对受害人的救济以及对行为人行为自由的保护。在人工智能侵权的情形下,对归责原则的界定尤为重要,其需要妥当兼顾受害人的权益保护与服务提供者行为自由之间的关系,如果归责原则过于严苛,则可能影响人工智能的有效开发利用。
应当看到,与传统的侵权相比,生成式人工智能侵权确实具有自身特点,在侵权主体上,生成式人工智能服务提供者和用户等侵权主体具有多元性,可能会涉及生成式人工智能服务提供者和用户等多元主体。在侵权对象上,生成式人工智能所引发的侵权,主要侵权对象是他人的隐私权、个人信息、知识产权等权益,一般不涉及生命权、身体权等权益。换言之,生成式人工智能侵权往往不会造成他人生命权、身体权等权益的严重损害。在过错上,生成式人工智能所引发的侵权中对侵权过错的判断更加复杂。在因果关系上,往往存在涉及算法、数据和用户等多重因素交织的复杂情形。虽然生成式人工智能侵权具有上述特殊性,但并不意味着我们一定要在法律上将其视作一类特殊的侵权并适用特殊的归责原则。从我国的司法实践来看,在相关的案件中,法院对生成式人工智能侵权均采取了过错责任原则。例如,在“上海某文化发展有限公司与杭州某智能科技有限公司著作权侵权及不正当竞争纠纷案”中,涉案AI平台系杭州某智能科技公司(以下简称“杭州公司”)运营的生成式AI产品,该平台提供图生图、文生图服务,同时亦提供允许用户通过第三方开源基础模型训练个性化的LoRA模型并进行应用和发布。就此,本案原告主张,杭州公司将侵权图片和侵权模型置于信息网络中,直接或间接侵害其著作权,并构成不正当竞争。但法院认为,生成式人工智能的训练阶段可被视为合理使用,因此平台无需为数据训练阶段的行为负责;与此同时,杭州公司未能有效采取技术防范措施预防侵权,未及时采取必要措施防止侵权内容的传播,应承担帮助侵权的间接责任。在该案中,法院在认定服务提供者的侵权责任时,采用了过错责任原则,其承担责任是因为其未能有效采取技术防范措施预防侵权。此种立场值得赞同,在现阶段,之所以要对生成式人工智能侵权适用过错责任,主要是基于如下原因:
第一,过错责任原则符合我国现阶段鼓励人工智能产业发展的需要。确立人工智能致害的归责原则,应当符合鼓励人工智能发展的需要。有学者主张,生成式人工智能侵权属于新型危险活动,应当适用严格责任,这有利于强化对受害人的保护;同时,生成式人工智能服务提供者能够从服务中获益并有能力分散损失,采用严格责任有助于降低风险并减少不确定性成本。笔者认为,此种观点虽不无道理,但值得商榷。任何创新活动都有一定的风险,如果要求创新者承担过重的责任,则创新者可能因受到不当限制而不敢创新,最终抑制社会创新。在责任范围不确定的情况下,严格责任将导致人工智能的开发成本过于昂贵,也可能导致开源的基础大模型提供者面对重重未知风险,相关开发者或使用者也可能要承担“毁灭性的责任风险”。按照过错责任原则,如果模型制造者尽到了同样场景下一般理性人的注意义务,就不应当承担侵权责任;但如果AI服务提供者并未尽到一般理性人的注意义务,则其对AI导致的损害应当承担赔偿责任。过错责任的设定,能促使人工智能的研发者、设计者合理控制成本,积极进行科技创新,从而对于整个社会的科技创新都起到积极作用。
第二,过错责任可以有效协调行为自由保护与权益保护之间的关系,一方面,过错责任有利于协调对受害人的救济与科技创新者的行为自由。只要受害人能够证明模型制造者对人工智能造成的损害具有过错,后者就可能要承担责任。关键的问题就是如何证明模型制造者是否违反注意义务、是否符合合规义务。生成式人工智能侵权过错判断较为复杂。不仅要考虑侵权的风险,还要考虑风险是否可以预防以及防范的成本,面对风险,并不能一概都要模型制造者承担责任,还要依据具体场景确定过错。另一方面,在服务提供者和用户都有过错的情形下,可以依据过错程度确立其各自不同的责任。换言之,不宜让服务提供者独自承担全部风险防范成本,严格责任无法激励受害者采取可行的、适当的措施避免风险。
第三,采用过错责任原则既有利于鼓励人工智能的发展,给模型的开发、设计、制造者提供创新空间,同时也可以兼顾对受害人保护,是较为妥当的选择。虽然从比较法上看,欧盟2024年10月通过的《产品责任指令》第4条第1款中将软件明确界定在产品的范围之内,并在序言第13条中明确规定应用程序、操作系统和人工智能系统都适用严格责任。对于侵犯生命权、财产权、身体权的案件,不仅利用硬件系统侵权要承担严格责任,而且利用软件和人工智能系统侵权也要承担严格责任。生成式人工智能本质上属于提供信息内容的大语言模型服务,并非提供产品,此类服务所存在的瑕疵一般不会像产品瑕疵那般给受害人人身或财产造成现实的重大损害。没有必要将严苛的产品责任归责原则适用到生成式人工智能侵权之中,否则可能导致服务提供者的责任过重,进而不当抑制行业本身的发展与创新。总体而言,生成式人工智能本身并不存在特殊的危险,要求其服务提供者承担严格责任,不符合严格责任的理论基础。严格责任的理论基础涉及危险的开启、控制、报偿、损害预防和保护弱势受害人等。严格责任的主要政策目的在于通过分配正义合理地分配“不幸损害”,避免因为被侵权人难以证明侵权人过错而无法求偿,从而使侵权行为人承担赔偿责任、而使被侵权人易于获得损害赔偿。但在因生成式人工智能造成的损害的情形下,不存在此种需求。而过错责任原则是民法典关于侵权认定的基本原则,通过适用《民法典》第1165条第1款的规定,基本可以解决实践中发生的法律纠纷。因此,没有必要专门针对生成式人工智能服务提供者设置严格责任。
需要指出的是,对生成式人工智能侵权也不宜采用过错推定责任。有观点主张,生成式人工智能应用虽然不具有高度危险性,但考虑到受害人的举证困难以及现有制度基础等因素,应当对其适用过错推定责任。此种观点不无道理,但值得商榷。对生成式人工智能侵权而言,采用过错推定责任对服务提供者也过于严苛。由于生成式人工智能具有难以克服的“臆想”缺陷,从而不可避免地会产生某些虚假信息,一旦产生此种信息便认定服务提供者具有过错,并要求其承担责任,这会导致服务提供者负担过重的举证义务,会过分加重其责任负担,进而影响人工智能产业的发展。例如,因为用户输入虚假信息导致模型输出的内容虚假,完全由模型制造者承担过错的举证负担,确实对其要求过于苛刻,最终将不利于人工智能的发展。
三、服务提供者过错的具体认定
过错责任原则适用的核心问题是行为人过错的判断问题,在对生成式人工智能侵权适用过错责任的情形下,也需要明确服务提供者存在过错的认定标准。例如,在广州奥特曼案中,法院认为:“服务提供者在提供生成式人工智能服务时应尽合理的注意义务。但在本案中,被告作为服务提供者未尽到合理的注意义务。”笔者认为,服务提供者过错认定应当采纳违反注意义务这一标准,在具体运用此种标准判断服务提供者是否存在过错时,应当考虑适用如下规则:
第一,以是否违反法定义务作为过错认定的基准。我国《民法典》《个人信息保护法》以及相关的部门规章、司法解释等,已经对服务提供者的注意义务、合规义务等作出细化规定,通过这些规则可以有效判断服务提供者是否具有过错,没有必要就服务提供者过错的认定单独制定注意义务规则。如果模型开发和生成式人工智能服务提供者违反了法律、行政法规以及相关行业规范所规定的合规义务,就表明其在模型的开发、设计、制造等过程中具有过错,应当依法承担相应的责任。例如,模型的设计者必须将有关教唆从事违法行为的相关信息过滤掉,否则其生成相关的信息就可能构成侵权。国外已有案例表明,生成式人工智能在与用户的互动中曾经出现过诱导用户自杀等极端案例,此类情形应当避免。相反,如果生成式人工智能服务提供者能够证明其已经尽到相应的法定义务,其可以在发生侵权时主张免责。简言之,通过明确注意义务的内容和标准,不仅能够为过错认定提供更具操作性的依据,而且还能确保责任认定的公平合理。
第二,遵循场景化原则。美国学者海伦•尼森鲍姆提出“场景理论”,其认为对隐私、个人信息的保护应当考虑不同的场景,信息处理者针对相应信息的后续处理行为必须与该场景相一致。生成式人工智能引发侵权的场景具有多样性,不同场景下的风险程度和可防范空间差异较大。如果不加区分地“一刀切”,将会造成技术被滥用,或者放任侵权行为的发生。因此,应结合具体场景来确定风险防控的义务。例如,利用人工智能技术收集他人公开散布在网络上的碎片化信息,并不一定构成对他人隐私或个人信息权益的侵害;又如,通过对公开信息进行分析处理,从而为用户提供个性化的推荐服务,这种“精准画像”的行为旨在为用户提供便利,并未指向特定个人,并不构成侵权。但数据画像如果专门针对特定主体,持续收集其行踪信息或生活隐私,并将这些信息进行打包出售,则可能会侵犯该特定个人的信息权益或隐私权。需要指出的是,在生成式人工智能应用中,利用敏感个人信息进行用户画像应当受到严格限制。一方面,隐私侵害风险极大。因为在生成式人工智能的使用中,用户与系统的对话信息可能包含大量丰富的个人信息,若将其用于用户画像,极易导致个人信息主体面临更严重的隐私泄露与安全风险。另一方面,技术风险不可控性更大。传统推荐系统主要局限于特定领域的信息、产品或服务的推荐,而生成式人工智能的内容生成过程明显更难预测与控制。可见,人工智能侵权应当进行场景化的具体判断,以实现技术应用与权益保护之间的动态平衡。
第三,以现有技术水平进行评价。人工智能发展到今天,仍存在一些现有技术无法克服的困难和障碍,如生成式人工智能可能会产生幻觉或臆想,尚无法彻底避免技术局限所导致的虚假输出。因此,如果模型制造者、设计者和生成式人工智能服务提供者已经尽到最大努力,但受限于现有的技术水平,仍导致生成虚假信息,就不应轻易认定其存在过错。在产品责任中,生产者可主张“发展风险抗辩”;在医疗侵权中,也有现有医疗技术无法诊治的抗辩规则,同理,在生成式人工智能侵权中,也应引入现有技术条件的抗辩。随着人工智能技术的发展,注意义务标准亦应当进行相应调整,以“现有技术水平”进行评价、确定过错,这不仅能够保障受害人的权益,还能避免对技术发展阶段的过度苛责。
第四,综合考虑风险程度和防范成本。美国法律经济学派认为,在判断过失时,要通过对成本和收益的分析,来确定行为人是否具有过失,并将其作为判断过失的标准。著名的“汉德(Hand)公式”就集中体现这一观点。在人工智能技术应用的场景下也应当如此。面临开发、设计的风险,如果要完全消除或防范可能需要付出巨大的成本代价,此时一概要求模型的制造者和设计者付出极高的成本去消除这种风险,在经济上和技术上未必合理,风险预防成本应在模型制造者有能力且愿意承担的范围之内进行效益判断,不能因为防范一定的风险而付出不合理的极高防范成本。此时,即便因为该风险导致损害,也不应当认定模型的制造者和设计者具有过错,否则将会限制模型的研发和技术创新。例如,生成式人工智能生成出来某条虚假信息后,相关当事人要求生成式人工智能服务提供者必须优化模型或者将训练数据中的某条虚假信息予以删除,这可能对服务提供者来说负担太重,因为在海量数据中识别并删除某条特定信息在技术上是极为困难的,而且设置较为宽泛的、严格的信息过滤规则还会显著增加生成式人工智能模型的开发成本,甚至削弱模型的使用价值。换言之,如果苛求生成式人工智能服务提供者承担完全消除细微风险的义务,势必会造成成本与收益的失衡。就目前技术发展来看,生成式人工智能服务提供者只能对部分关键词进行过滤。因此,在过错的认定中,应当遵循比例原则,权衡风险的大小与防范成本的高低,避免对生成式人工智能服务提供者苛求过高标准。一般而言,对于可能导致权益重大受损的风险,应当不惜成本予以防范,但对于难以避免或者技术上无法实现的小概率风险,则应适当降低标准,避免妨碍人工智能技术的创新发展和正常的技术应用。
第五,区分服务提供者的过错和用户的过错。生成式人工智能的运行具有交互性的特点,其生成的结果不仅依赖于训练语料和算法模型,同时也与用户输入的指令内容和相关信息密切相关。例如,用户通过设计一系列的诱导性提问,利用生成式人工智能对隐私权和个人信息的保护缺乏必要防范措施的漏洞,导致特定主体的个人信息泄露,在此情形下,用户与服务提供者对损害的发生均有过错,应当根据案件具体情况适用《民法典》第1168—1172条的规定,产生连带责任或按份责任。如果用户故意提供虚假信息引诱大模型做出虚假判断,则因损害后果是由用户的过错导致,此时服务提供者虽然提供了工具,但其并非过错方,不应对损害后果承担责任。如果生成式人工智能服务提供者和用户都有过错(如生成式人工智能生成的信息侵害他人著作权,而用户照搬该信息写成文章),则两者均应承担责任。因此,在认定生成式人工智能服务提供者的侵权责任时,需要对人工智能服务提供者的过错和用户的过错进行必要区分。
第六,考虑接入者的过错。例如,一些医疗机构开发了诊疗模型,并将其接入通用的、开源的大模型(如Deepseek),借此进行疾病诊断活动。在此情形下,如果因为医疗机构的模型出现诊断错误,则应当由医疗机构承担侵权责任,而不应当由通用的、开源的大模型服务提供者承担侵权责任,因为在此种情形下,通用的、开源的大模型与患者之间并不存在医疗服务合同关系,之所以出现诊断错误,乃因医疗机构的行为导致,故不宜由通用的、开源的大模型的服务提供者承担侵权责任。
综上所述,生成式人工智能侵权的归责原则应当以过错责任为基本原则,以客观注意义务标准来认定过错,并结合具体场景、技术发展情况以及成本效益等因素作出灵活判断,同时还要注意区分生成式人工智能服务提供者和用户的过错。随着人工智能技术的发展,这一过错认定标准亦需要进行相应的动态调整,进而在个体权益保障与产业技术发展之间求得最佳平衡。
四、生成式人工智能侵权认定的几个具体问题
(一)服务提供者过错认定应类推适用避风港规则
《民法典》第1195条规定的“通知-删除”规则,又称避风港规则,其是为网络服务提供者设定的一个保护规则。依据该条规定,在网络用户利用网络服务实施侵权的情形下,网络服务提供者在收到权利人的通知后,除应当及时将该通知转送相关网络用户外,还应当根据构成侵权的初步证据和服务类型采取必要措施。那么,在生成式人工智能侵权的情形下,能否援用避风港规则?笔者认为,虽然生成式人工智能侵权与传统网络侵权存在差异,但是在侵权行为的场景、本质特征等方面具有高度相似性,具备类推适用“通知-删除”规则的正当性。而且,与传统网络服务相比,生成式人工智能的运行需要依托海量的信息,并需要向成千上万的用户提供服务,难以要求生成式人工智能服务提供者进行严格的事前审查,并且及时发现其所提供的服务涉嫌侵权。因此,在认定生成式人工智能服务提供者的过错时,应当类推适用“通知-删除”规则,只有在用户提出侵权主张并正式通知生成式人工智能服务提供者而后者在收到通知后的合理期限内没有采取合理方式改进(如过滤关键词、优化模型、屏蔽特定输出等)的情况下,其才需要承担相应的责任。从鼓励人工智能技术发展和技术应用创新的角度来看,类推适用“通知-删除”规则不仅能够促进人工智能的发展,而且有利于保护生成式人工智能服务提供者的利益。
在“通知-删除”规则的具体适用上,应当结合生成式人工智能服务的特殊性对“通知”的形式和“必要措施”进行适当解释。首先,通知的主体并不一定要求是权利人本人,只要是发现侵权内容的相关主体均可发出通知请求生成式人工智能服务提供者采取相应措施。其次,通知的内容应当提供能够准确识别和定位侵权内容的相关信息,例如对话记录截图、输出内容原文等,进而帮助生成式人工智能服务提供者更好地采取相应措施。最后,与传统网络侵权所采取的“必要措施”不同,生成式人工智能服务提供者在收到通知后,主要应采取与生成式人工智能相符的优化模型、增设过滤词、限制用户服务请求等多种方式,进而预防侵权内容的再次生成;此外,由于生成式人工智能输出内容的不可预测性,“必要措施”的具体类型应当根据人工智能技术的发展、服务类型等因素综合判断,以避免同类侵权行为的再次发生。
问题在于,在生成式人工智能侵权的情形下,能否类推适用《民法典》第1197条所规定的知道规则?笔者认为,生成式人工智能侵权责任的认定不应当类推适用知道规则,主要理由在于:一方面,生成式人工智能大模型的运行需要使用海量信息,其在技术层面很难识别相关信息是否为虚假信息,在因虚假信息造成他人损害的情形下,如果一概认定服务提供者对此已经知道或者应当知道,则会不当加重其负担。另一方面,生成式人工智能与传统的网络服务存在一定区别,大模型本身具有“臆想”的特点,目前在技术层面很难克服其臆想的缺陷。同时,在网络侵权的情形下,可以根据社会一般人的标准认定服务提供者是否知道或者应当知道,而在人工智能侵权的情形下,服务提供者对信息的识别是机器识别,无法用社会一般人的标准判断其是否知道或者应当知道。在发生相关损害后,如果认定服务提供者对此明知或者应当知道,则可能极大地增加其承担侵权责任的概率。此外,我国《民法典》第1197条所规定的知道规则同时包括知道与应当知道,其内涵较为宽泛,如果类推适用该规则,可能导致生成式人工智能侵权责任的过错责任原则异化为严格责任。
(二)利用已公开个人信息不得侵害他人重大利益
生成式人工智能对于已公开个人信息的利用和处理是当前备受关注且存在一定争议的话题。不同的法域对此存在不同的态度,欧盟将已公开的个人信息视同一般信息,对它们给予同等保护,而美国则基本上不保护已公开的个人信息,认为其不具有私密性,不受隐私权的保护。我国《民法典》与《个人信息保护法》都对已公开个人信息的保护规则作出了规定。从这两部法律的规定来看,已公开个人信息仍然在保护范围之内,但其与一般的个人信息也有所区分。依据《民法典》第1036条和《个人信息保护法》第13条、第27条的规定,对于已经公开的个人信息的收集和处理,并不需要取得信息主体的同意,只要在合法正当、合理的范围内进行,则不应当构成侵权。例如,处理互联网上已经公开的个人照片,就并不构成对个人信息权益的损害。因为当自然人自行公开或通过其他途径合法公开信息后,此类个人信息即处于公共领域。当然,法律也对该类行为设置了一定的边界:依据《民法典》第1036条的规定,对于已公开个人信息的收集和使用,若信息主体明确拒绝或者处理行为侵害信息主体重大利益的,个人信息处理者不得对这些合法公开的信息进行处理。“重大利益侵害”成为规范已公开个人信息收集处理的重要标准。例如,生成式人工智能开发者大量收集处理网上已公开的各类信息,其中就有可能涉及个人隐私信息,若将该部分隐私信息一同打包出售,则可能对相关个人权益造成重大侵害,应认定构成侵权。在生成式人工智能收集处理已公开个人信息的场景下,还需要对《民法典》《个人信息保护法》有关已公开个人信息的处理规则进行限缩解释,以保障生成式人工智能的数据供给,并降低服务提供者承担侵权责任的风险,进而在生成式人工智能发展和个人信息权益保护之间取得平衡。
也有观点认为,目前的个人信息保护规则在生成式人工智能背景下适应性不足,需要以风险防控为核心转变个人信息保护范式,加强对生成式人工智能研发者、提供者处理个人信息行为的约束。但笔者认为,目前正是生成式人工智能发展的关键时期,如果对已公开个人信息收集处理的管控过严,则可能会显著削减生成式人工智能模型语料来源,不利于人工智能技术的发展和应用创新。故对于“已公开个人信息”的收集处理规则应当作出审慎平衡,对于已经公开的一般性个人信息,应当允许生成式人工智能在合理范围内进行训练使用,一般不构成对个人信息权益的侵害;但若超出必要限度,造成信息主体重大利益受损,则需要承担侵权责任。
(三)处理敏感个人信息应当合规
在生成式人工智能的应用中,生物识别信息、宗教信仰信息、健康医疗信息等敏感个人信息的处理需要谨慎对待。《个人信息保护法》等现行法律虽然规定对处理敏感个人信息要采用“单独同意”规则,但笔者认为,面对生成式人工智能需要广泛语料来源的现实,不能简单照搬和适用“单独同意”规则,而要结合具体场景作出解释。首先要看相关的敏感个人信息是否已经公开。若是相关敏感个人信息已经通过合法渠道公开,代表信息主体对公开信息被收集处理存在一定预期,不必对生成式人工智能处理该类信息过度苛责。但即便是已经公开的敏感个人信息,生成式人工智能在收集处理中仍要注意避免造成信息主体的重大利益损害。其次,要区分生成式人工智能对敏感信息的使用阶段。在数据训练阶段处理敏感个人信息和在商业应用处理敏感个人信息存在不同的风险程度和使用目的。在训练阶段,使用敏感个人信息是为了让生成式人工智能的模型获取一般性能力,并不针对特定的个人,而在应用阶段,则通常涉及针对个人用户的数据处理,更易造成对个人信息权益和隐私权的侵害。因此,对于训练阶段敏感个人信息的使用,可以考虑采用去标识化、数据隔离等方式获取放宽限制;对于应用阶段则应当适用“单独同意”规则,获得用户明示且单独同意。最后,要看处理敏感个人信息是否针对特定的个人,具体确定是否会对特定个人的敏感个人信息造成侵害。
值得注意的是,即便在人工智能训练阶段,开发者处理敏感个人信息的动机也存在差异。例如,开发者将大量涉及个人生物识别特征、健康医疗信息等敏感个人信息用于训练模型,目的在于提升模型的普遍性能,使模型获得通用的、泛化的能力,而非为了识别或者影响特定个人,那么在此情形下,处理敏感个人信息对特定个人信息主体造成损害风险的可能性相对较低,要求取得每个信息主体的单独同意显然既不现实也不必要,更合理的做法是适度放宽对处理敏感个人信息的限制,即可以在保证信息严密安全的前提下适当豁免单独同意要求。相反,如果处理敏感个人信息并非为了优化模型而是针对个人的决策,如使用个人基因数据进行医疗方案的个性化定制,则应当严格遵循“单独同意”规则。
(四)对已公开作品数据的处理应当区分不同阶段
关于生成式人工智能收集处理已公开作品的数据是否必须要取得著作权人同意的问题,也一直存在较大争议。笔者认为,从鼓励人工智能技术发展的角度来看,应当区分训练输入阶段与内容输出阶段来加以讨论。
在训练输入阶段,对于开发者获取已经公开的作品数据并用于大模型训练的行为,应当秉持开放的态度,不宜要求该行为必须取得著作权人的同意,否则将极大地影响人工智能训练的语料来源,谈判交易成本也会成为技术发展的负担。因此,在此种情形下应当对著作权作出合理的限制,可以考虑将生成式人工智能对作品数据的使用解释为《著作权法》第22条所规定的合理使用。这种使用不仅对著作权人的利益影响有限,还有利于科技创新。在域外,也有不少国家认为机器学习时使用的作品不受版权保护,我国作为人工智能技术发展大国,亦应当顺应这一趋势,通过合理使用制度为生成式人工智能的模型训练提供语料支持。
在内容输出阶段,应当对生成式人工智能对作品数据的利用进行严格把关。因为生成式人工智能经过训练后,有可能会输出与训练作品相同或相似的内容,这与生成式人工智能具有“记忆”机制有关,因此可能发生侵害著作权的风险。例如,在备受关注的“奥特曼”商标侵权案中,涉案平台通过定向训练相关模型可以直接生成“奥特曼”形象的图片,该图片与权利人所享有的著作权高度雷同,法院认定这种直接输出生成并提供图片的行为侵犯了权利人对作品所享有的著作权,判令涉案平台承担相应民事责任。可见,如果不对生成式人工智能输出内容进行把控,允许模型输出与他人作品存在实质性相似的内容,就可能导致侵权。为避免侵权风险,在输出端应当要求模型尽量通过升级优化与关键词过滤,避免输出的内容与他人的作品内容完全重复、雷同,避免生成的图片与他人的作品完全一样,以保护他人的著作权。例如,用户提问说,“请帮我设计一个图案”,那么生成式人工智能不能径直将他人享有著作权的图片完全照搬过来作为答案,否则可能构成侵权。质言之,生成式人工智能生成的作品应当尽量多样化和模糊化,不得与他人已有作品存在完全相同或者实质性雷同。在具体措施上,应丰富生成式人工智能对内容的多样化表达,避免语句重复;还应当设置关键词过滤和相似度监测,一旦检测到输出内容与已有作品存在高度相似性,应立即调整输出内容或拒绝提供结果。在某些情形下,生成式人工智能可以委婉拒绝回答用户的相关提问。在现有技术条件下,生成式人工智能完全可以避免出现此种侵权现象,只需在模型设计时增加相应约束即可。
(五)不得利用深度伪造技术侵害他人合法权益
深度伪造,是指通过一定的信息技术手段,将某人的肖像、声音换成他人的肖像或声音,并在此基础上形成高度逼真且难以甄别的图像、声音、视频。深度伪造技术大致可分为人脸合成、人脸处理和面部操作。深度伪造本身是一项中性技术,但是如果利用该技术侵害他人权益,则为法律所禁止。生成式人工智能的发展在提升人类福祉的同时,也带来了通过深度伪造“以假乱真、栽赃陷害、无中生有”等新问题。通过深度伪造技术,侵权人可以将某个人的照片、声音等人身特征与“黄色”视频、人工智能生成视频等虚假影像进行合成或互换,从而制造逼真的不实内容,混淆视听。一旦这类深度伪造的虚假产物在网络上大面积传播,不但会对当事人的名誉、隐私等人格权益造成极大影响和损害,还会影响社会稳定。对此,必须迅捷地采取法律措施,及时、有效地遏制相关行为的发生。《民法典》第1019条明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权,这为规制深度伪造技术滥用提供了直接的法律依据。
此外,为了防止服务提供者借助深度伪造技术侵害他人合法权益,应当要求相关大模型的设计者与服务提供者负有遵守国家关于深度合成技术适用的规定、落实用户实名制、健全输出内容核实审查机制等合规义务。同时,监管机关应当加强对深度伪造技术应用的监督,并为受害人提供便捷的救济渠道。
(六)不得利用数字复活技术侵害死者人格利益
随着人工智能与信息技术的发展,实践中出现了诸如“数字重生”“数字复活”等新兴技术。数字复活促进了“数字身后事产业”的发展。但如果该技术运用不当,将会严重侵害死者人格权益。因此,在法律上,运用该技术使某位死者在数字环境中“复活”,原则上应当取得死者近亲属的同意。死者近亲属享有基于《民法典》第994条和《个人信息保护法》第49条的相关权益,可以请求行为人删除死者个人信息、并且停止侵害。死者生前可以根据其意愿对其死后个人信息的有关事务做出安排,如允许特定的近亲属行使、授权遗产管理人行使等。
利用数字技术“复活”死者应当遵守《个人信息保护法》《民法典》《著作权法》以及相关的监管法律规定,并尊重死者生前的有效安排,其目的也应当限于近亲属的追思纪念以及对死者人格利益的合理使用,对死者数字人形象的利用也不得损害死者的尊严,如果死者生前没有同意对其数字人形象进行商业化利用(如直播带货等),则不得将死者的数字人形象用于商业目的。此外,哪些主体可以利用数字技术复活死者?笔者认为,如果死者生前对此作出了安排,则应当尊重死者的生前安排;如果死者生前没有作出安排,则原则上应当将其限定为死者的近亲属,其他主体应当无权通过数字技术“复活”死者。这样才符合《民法典》第994条的规定。
结语
人工智能技术的发展伴随着风险与挑战,但其不应成为严格限制人工智能技术应用和创新的理由。应当看到,生成式人工智能在发展过程中确实带来了一定的风险,如侵害隐私权,泄露个人信息等,这也给相关人格权益的保护带来一定挑战。如何有效应对这些风险、推动人工智能向善、加强人工智能治理,已成为保障其健康发展的迫切问题。在法律层面如何规制人工智能技术、应对其风险,将直接影响人工智能未来的发展走向,对这些风险处理得当,可以为人工智能的发展起到保驾护航的作用;反之,相关的制度和规则设计不当,则会阻碍人工智能的发展。笔者认为,对人工智能这类新领域、新业态,总体上应坚持“在发展中规范、在规范中发展”的原则,秉持审慎包容的态度,在认定生成式人工智能侵权时,应当妥当平衡人工智能发展与民事权益保护之间的关系,保障人工智能在安全、可靠、可控前提下健康、可持续发展。