姚佳:生成式人工智能服务提供者的注意义务

选择字号:   本文共阅读 53 次 更新时间:2026-05-11 23:27

进入专题: 生成式人工智能   注意义务  

姚佳  

 

摘要:生成式人工智能服务提供者注意义务的界定,是认定侵权责任的核心前提。服务提供者因部署具有固有风险(如“幻觉”现象)的人工智能系统而持续开启风险,且具备事实上的风险控制能力而应尽相应注意义务,履行该义务应符合行为效益与风险防范负担之权衡原则。现行法相关规定及平台用户协议已设定了覆盖内容标识、内容安全管控、算法透明、数据质量保障、个人信息保护等多维度义务,侵权法中的交往安全义务在此难觅独立的适用空间。过失认定仍应坚持以“理性人”标准为基石,但需将注意义务的适用范围从单纯的人类行为合理性拓展至“人机交互系统的整体安全性”,以契合技术特性与风险结构。据此,服务提供者的注意义务可类型化为技术特性维度的注意义务、提供服务过程中非技术维度的注意义务以及程序性的注意义务。这一分析框架在侵权法体系内为过失认定提供了类型化的判断基准,有助于合理界定服务提供者的民事责任边界,实现权益保障与行为自由的协调。

关键词:生成式人工智能;服务提供者;注意义务;“理性人”标准;交往安全义务

 

一、问题的提出

生成式人工智能是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术,旨在通过学习大量数据的分布,捕捉数据的内在特征和模式,在保持数据分布一致性的基础上进行新内容的生成。近年来,这一技术从实验室研究跃升为备受学术界与产业界高度关注的战略性前沿议题,以 ChatGPT为代表的大语言模型实现了现象级突破,并在软件开发、科学研究、金融和医疗等多个领域得到广泛应用。生成式人工智能的技术架构主要包括提供算力支撑的计算硬件层、云计算平台层、涵盖基础与精调模型的模型层以及面向终端用户的应用层。基于该技术架构,相关主体涵盖提供算力基础设施的芯片制造商与智算中心运营商、提供分布式计算与存储服务的云服务商、从事基础模型研发与领域精调的模型开发方,以及面向终端用户提供服务的服务提供者(基于商用闭源或开源路径开展产品创新的应用开发者与平台运营方),并延伸至最终用户、数据采集与标注服务商、模型分发平台运营方等多元主体。这些主体在基础设施支持、数据治理、模型优化、平台分发及内容应用环节面临差异化的技术风险与法律责任分配。就技术风险而言,如美国《人工智能风险管理框架》Artificial Intelligence Risk Management Framework (AI RMF 1.0)中指出的,与传统软件相比,人工智能特有的新发或增加的风险包括以下内容:在数据层面,存在质量缺陷(不真实、有偏见)、强依赖性、时效性脱节等情形;在系统层面,存在超大规模复杂性(数十亿决策点)、透明度与可重复性不足等问题;在模型层面,存在训练过程敏感扰动、预训练模型统计不确定性及突发属性等问题;在工程层面,存在测试标准缺失、难以规范记录与验证等情形;在运维层面,存在数据、模型、概念漂移导致频繁维护困难;以及存在其他包括隐私泄露、环境影响和副作用不可预测等衍生风险。就法律责任而言,依“产品—服务”二分法,以及各主体在技术架构中的功能定位、风险控制能力、注意义务程度及风险收益配比上的差异,基于责任与风险匹配原则,理论上以及法律适用上能够形成从严格责任到过错责任的梯度化归责体系。

近年来域内外有关生成式人工智能案例,均聚焦于服务提供者的注意义务。国内典型案例如“奥特曼”案、AI 合成声音侵权案、AI“幻觉”侵权案;域外典型案例如美国纽约时报诉微软公司案(The New York Times Co. v. Microsoft Corp.)、“首例 AI 诽谤案”沃尔特斯诉 OpenAI 公司案(Walters v. OpenAI LLC)、斯塔巴克诉 Google 案(Starbuck v. Google LLC)等等。这些案件都聚焦于服务提供者对于生成内容究竟是应尽结果性义务还是方式性义务,或者从源头上对数据、算法和模型等应尽何种义务,这些问题不仅涉及服务提供者的民事责任,同时也涉及不同主体之间的风险与责任分配。

目前,国内有关生成式人工智能服务提供者的注意义务亦形成不同观点。有论者认为,服务提供者的注意义务,应以平台技术中立原则为基础,以行业通行的技术水平和技术标准为参照,合理设定与其信息交互服务相关以及信息管理能力相适应的注意义务,主要包括数据来源的合规义务、内容服务的专业义务和风险管理义务等。有论者认为,服务提供者的注意义务应按照时序维度下生成式人工智能的运行阶段进行设置,包括事前防范规则,即语料提供者提供语料的安全性审查和模型训练者训练模型的安全性审查;事中干预规则,即对高危用户的行为的监控义务和对生成内容的风险提示义务;事后处置规则,即对人工智能生成内容的强制标识和建立对违法不良内容的投诉举报反馈机制。有论者认为,在“采用行业通行技术措施”和“服务功能与合同目的相一致”认定标准基础上,结合注意义务的功能目的,生成式人工智能服务提供者负有服务功能可靠性的基本保障义务、服务功能的显著提示说明义务和生成内容信息来源提示义务等注意义务。在国内首例生成式人工智能“幻觉”引发的侵权诉讼案件中,法院采用动态系统论,认为服务提供者应尽三层注意义务:一是对法律禁止的“有毒”、有害、违法信息,负有严格审查义务;二是应尽服务功能的显著提示说明义务;三是应尽功能可靠性的注意义务。还有论者认为,服务提供者对著作权侵权的注意义务,应当遵循客观标准与动态标准,结合既有技术水平、侵权危害程度、内容管理能力等因素,包括数据来源合法义务、算法优化训练义务和监督用户合规使用义务。亦有论者提出,服务提供者的注意义务在风险预防层、风险控制层和风险处置层分别具有不同的义务;以及主要应构建和落实以生成内容的标识义务、使用服务的提示义务以及侵权投诉为主的注意义务体系等。以上这些理论与实务观点,均针对生成式人工智能的技术特点、行业通用水平、风险特征和服务特性设定服务提供者的合理注意义务,较为全面系统,为制度建构和司法实践提供了重要参考,也有助于在鼓励技术创新与防范潜在风险之间实现平衡。

本文拟在现有理论与司法实践的基础上,进一步探讨生成式人工智能服务提供者的注意义务。从理论框架而言,服务提供者的注意义务应置于传统过失法理论和生成式人工智能服务特性的双重视角下探讨。注意义务(duty of care)是英美侵权法中过失侵权(negligence)的核心构成要件和基石概念。英国上议院阿特金勋爵(Lord Atkin)在 Donoghue v. Stevenson 案(1932)中的经典论述,确立了现代过失侵权法中的“邻人原则”(Neighbour Principle),即“你不得损害你的邻人”。在该原则中,确立了注意义务(duty of care)产生的可预见性标准。那么,谁又是生成式人工智能服务提供者的“邻人”呢?从法益角度而言,任何因使用生成式人工智能服务可能对其权益造成损害的主体均属于“邻人”范畴。具言之,“邻人”是指可以合理预见到其权益将因服务提供者的行为而受到不利影响的主体,包括但不限于用户、相关著作权人、相关数据主体或其他可能受到不利影响的主体等。但是,与传统的基于物理意义上的邻人原则(如火车站台上爆炸物所及范围、交通安全、职业或营业活动以及合同性的保护义务等等)相比,生成式人工智能服务欠缺了一般意义上的物理范畴或者一个法定的在先关系,而是自互联网技术出现以来,各类互联网服务提供者(包括互联网平台、搜索引擎、人工智能服务提供者等)所提供的服务,均依托于特定发展阶段下具有同质性或相似性的通用技术。在同一技术发展阶段(即“现有技术水平”)的前提下,相关主体可能基于法律规定、监管要求、平台用户协议约定,或结合个案与实际场景,被课以相应的注意义务。故此,这一逻辑链条就与传统的注意义务有所不同,传统的注意义务呈现为“个案化”特色,在不同个案中会形成不同的注意义务,确定被告是否负有相应注意义务以及注意义务的范围和边界。然而,生成式人工智能服务提供者的注意义务却因技术发展的阶段性表现为相对“标准化”的注意义务,例如事先可预见并设定的标识义务、提示义务、保障基本与适当技术功能的义务以及举报反馈机制等等,虽然这些义务可能是事后认定,但是其往往是法律规定、监管要求或者行业通识性做法,而严格意义上的基于交往而形成的注意义务较难寻找或者抽象提炼。在此基础上,本文拟进一步细化讨论哪些问题可能会影响服务提供者的注意义务的设定,并影响相应民事责任的承担。

二、注意义务的产生基础

之所以产生生成式人工智能服务提供者的注意义务,一方面是因为生成式人工智能技术本身的固有风险,如系统、模型、工程等方面,本身就具有受“现有技术水平”限制所不可克服的风险;另一方面则是因为服务提供者在服务提供过程中可能存在的数据、著作权合规、生成内容等风险。服务提供者向公众提供该项服务,实质上是制造并开启了一个可能自主生成虚假信息、有害内容的特定风险源,作为该风险源的开启者和维持者,服务提供者也具有相较其他主体而言最强的风险控制能力,故此应承担相应风险防范等注意义务。囿于技术发展水平的阶段性局限,以及行业创新发展所需,应在服务提供者的行为效益与防范负担之间进行权衡,以实现各方主体利益的合理平衡与风险的有效分配。

(一)风险开启

生成式人工智能作为一种技术,其本身具有数据偏见、人工智能系统的“黑箱性”、不可解释和不可控等风险。欧盟《人工智能法》(AI Act)采用风险分级、分类监管框架,将人工智能系统按照对人类健康、安全与基本权利的潜在损害程度,划分为不可接受风险(禁止)、高风险(严格合规)、有限风险(透明度义务)和最小风险(无额外义务)四级,风险越高,监管越严格。尽管各界对于法案以风险为依据进行分类是否科学存在一定批评,但至少“风险进路”是一个重要的理解维度。例如,美国《人工智能风险管理框架》中指出,人工智能系统的最终用户是指为特定目的使用该系统的个人或群体。这些个人或群体在特定情境下与人工智能系统进行交互。终端用户的技术能力水平参差不齐,从人工智能专家到初次接触技术的普通用户均有涵盖。面对如此众多的用户,无论是技术的风险还是服务可能产生的风险,均可能对用户和其他相关主体产生不利影响,风险开启由此而来。

如克雷斯蒂安·冯·巴尔(Christion von Bar)所言,一个被广泛接受,甚至已被成文法所规定的法治观念是:不当行为责任,要么是作为责任要么是不作为责任。这一“两分体系”的主要目的是避免归责中的一些问题。概括而言,作为就是指侵权行为人在受害人的法益上制造了危险;不作为则是指未排除威胁到受害人的危险。再精准一点讲就是:在作为行为中被主张权利者自己启动了具有法律意义的因果链;而在不作为中则是未中断这一因果链。但是,将一个行为归类到作为或不作为绝非仅是简单的一对一关系,因为这一归类直接关系到赔偿责任认定中原则与例外的适用。一个人对于没有他的作用力而发生在别人身上的事件就无须承担责任,除非他和受害者之间有特别的紧密关系,或者他对导致损害发生的危险源负有特别责任。

“风险开启说”的理论原型可溯至德国法上的“交往安全义务(Verkehrsspflicht)”中的“危险开启或支配”理论。交往安全义务的功能在于扩大不作为的侵权行为,即于法定、契约、先行为义务所发生的作为义务之外,更使其他开启或持续危险之人负有作为义务,使违反安全义务的不作为等同作为而构成侵权行为。德国法上也在尝试塑造“除以保护他人为目的之法律、法典中(分量较少)的侵权行为法部分、损害赔偿法及根源于法官造法的普通法之‘有名侵权’以外,各国都有进一步为侵权行为法所特有的‘规范发生器’:一般注意义务”。当然,亦有论者指出,“一般交往安全义务说”非德国法学界的通说。大部分学者不承认交往安全义务可充当一般注意义务,主张唯其类型化后方能确定义务内容。后经法院通过“枯树案”等裁判将其类型化为物件型(基于危险源支配)与债因型(基于合同关系扩张)两种基本义务形态。二者的区别也较为明显:物件型交往安全义务是危险先导,由危险决定交往范围;而债因型的交往安全义务是交往先导,由交往决定危险范围。由此可见,交往安全义务更强调物理意义上的“危险”,并且只能在个案中判断。但是直至近年来的互联网平台、人工智能领域,物理意义上的危险式微,逐渐以“风险”代之。但是,二者在理论原理上相似,即对于开启或持续风险之主体,使其承担保护他人之义务。此处需强调的是,本文所讨论的注意义务实际上是概括地包括法定、契约、先行为义务和交往安全义务在内的服务提供者应负之义务,并非仅仅等同于德国法上的交往安全义务。

基于传统理论上对风险(危险)开启的界定以及生成式人工智能的风险特征,服务提供者开启的风险主要包括以下两方面:其一,技术自身固有缺陷或局限带来的风险。作为以生成和输出内容为主要功能的技术,其算法生成技术面对一定“技术黑箱”,故生成过程较难回溯,只能依据输出内容来判断。由于生成的内容具有概率性和创造性,同一提示词可能产生截然不同的结果。实践中,用户或开发者难以理解模型是如何得出某个生成结果的,这不仅增加了使用的难度,也带来了安全风险。特别是在生成医疗、法律或金融等敏感领域的内容时,生成式人工智能的不可解释性可能导致决策失误。这也就是在前述国内和域外的“AI 幻觉”案例中,服务提供者不承担责任的技术上的根本原因。总之,服务提供者首先开启并持续的是由技术自身局限所引致的风险。其二,基于“提供服务”而开启和持续的风险。服务提供者除提供模型之外,对于模型语料的使用等可能面临数据治理瑕疵与授权链条缺陷等“软风险”。此类风险并非技术固有缺陷,而是服务提供者在数据采集、处理及内容生成过程中违反法定或约定义务,导致侵害他人合法权益。在数据质量维度,训练数据的真实性、准确性及完整性缺陷可能导致输出内容不真实,引发虚假信息传播风险。在著作权维度,未经授权使用受版权保护的作品进行模型训练,构成对权利人复制权、改编权等财产权益的侵害。在个人信息保护维度,未获有效同意处理个人信息,或违反目的限制原则、最小必要原则,侵害个人信息权益。在人格权维度,生成内容可能未经许可使用他人肖像、声音,或生成虚假信息贬损他人名誉,侵害肖像权、声音权、名誉权等人格权益。总之,此类风险的特殊性在于,其发生不依赖于技术故障,而取决于服务提供者是否遵守法律、约定及内部治理规范,诸如是否建立全生命周期的数据治理体系和权利审查机制等。但从风险维度而言,这是基于“提供服务”而开启和持续的风险本质上仍属行为风险而非技术风险,即因服务提供者的不当行为或自身疏忽所致,而非算法或模型的固有缺陷引发。

(二)风险控制能力

在服务提供者开启风险的基础上,如何识别风险并增强对风险的控制能力,在逻辑上是融贯的。但是对于“风险”这个前置性概念,仍有必要进一步辨析。在侵权法上,“风险”是指行为人行为所造成的可预见风险的总体水平。风险的概念必然包含一种可识别的危险,该危险基于对现有事实的某种认知,以及某种伤害可能随之发生的合理信念。为此目的,风险可被定义为对处于行为人位置的人而言是明显的或应当是明显的危险。行为人的行为必须根据其在当时明显可见的可能性来评判,而非通过“事后聪明”而向前审视。该标准是一种行为标准,而非结果标准。如果风险在行为发生时并不明显,那么仅仅因为事后所有人都能看出风险很大是不够的。鉴于该可识别的风险,该行为若要构成过失,必须是不合理的。“可预见的风险是确定过失有无的一个因素。要判断是否已行使恰当关注,事实裁定者必须对被告实施‘过失’时的可预见风险进行评估。可预见风险的范围要看案件的具体事实情形,且无法对一整类案件进行有效评估;事实情形稍加变化,可预见的风险就可能发生巨大变化。因此,……法院应当将该问题留给陪审团裁定,除非理智之人对此绝无分歧。”可预见性判断的是风险类型而非具体损害。例如,在美国著名的 Palsgraf v. Long Island Railroad Company 案中,铁路公司雇员协助乘客时包裹掉落爆炸致原告受伤,初审及上诉庭均判被告赔偿,但纽约上诉法院最终以4∶3推翻原判,认定被告对不可预见的损害不承担责任。该案中,上诉法院多数法官认为,“应当预防的合理风险界定了应当遵守的义务,而风险意味着关联;它是指对他人或在可预见范围内对其他人的风险。”在该案中,多数法官认为,被告并不负有对原告安全尽到最高程度的注意义务。就上述内容,可总结出“风险”的几个关键要素:风险是可识别、可预见、客观的、关联的,应事前预见而非事后审视,否则其并非法律意义上的风险。

风险控制能力所要讨论的问题是有能力控制以及如何控制的问题。一个自然的逻辑推演——注意义务的边界应当与服务提供者对风险的控制能力相匹配,控制能力越强,注意义务越重;控制能力越弱,注意义务越轻。但果真如此吗?服务提供者的控制能力是一般性、概括性的还是在“个案”中也依然能对特定侵权内容产生预见而精准控制?显然,这个问题仍有必要进一步讨论。

从技术角度而言,生成式人工智能体现出较强的“涌现能力”。但凡存在复杂系统,涌现现象就可能发生,其意义在于出现了一个超乎人们想象的现象或结果。这也意味着,在结果上,大模型可能产生训练时未曾预期的输出,这个结果可能是好的,也可能是被负面评价的“幻觉”。从上述技术自身固有缺陷或局限带来的风险而言,服务提供者对风险的控制只能是尽可能地提高技术水平,但是这个技术水平也受到现有科技发展阶段的客观限制。亦如有论者指出,对于因虚假信息构成侵权的服务提供者,应判断其是否尽到了现有技术条件下最大的注意义务。可见,控制能力与注意义务之间的关系首先受“现有技术条件”限制。

就基于“提供服务”而开启和持续的风险的控制而言,其涉及技术设计、技术运行和技术后果等不同维度风险的控制能力,这些控制能力与上述科技发展阶段的技术水平不同。对于技术设计风险的控制能力,通常指向服务提供者在模型架构、训练数据、安全对齐机制等方面的控制能力;技术运行风险的控制能力,则指向服务提供者在内容生成过程中的干预能力,包括相应敏感词等输入过滤或者隐私、敏感信息或事件方面的输出审核等;技术后果风险的控制能力,则指向服务提供者在侵权发生后的控制能力,也就是通常的“通知—删除”规则,如删除、屏蔽、断开链接等。

以上分析可见,服务提供者有能力控制风险,但是这些风险一方面包括较为概括的由技术发展水平限制的风险,另一方面则包括对于“软风险”在内的不同维度的风险控制。但是这种风险控制与传统上注意义务案例中的一系列风险的可预见性不同,其对于特定侵权内容仅具有统计意义上的“一般性预见”,而并非如交通安全、职业活动中的相对特定性内容的预见。当然,控制能力本身具有动态性,其随着技术进步,原本不可控的风险可能会变得可控,注意义务的内容也应作相应调整。

(三)行为效益与风险防范负担之权衡

服务提供者虽然开启风险并具有控制风险的能力,但是其负有注意义务并防范风险并非无限度、无条件的,而应在合理范围内与其技术能力、行业水平及成本收益相适应。美国《侵权法重述(第三版)》(Restatement of Torts, Third Edition)对“过失”概念进行解析时指出,概念中暗示了一种过失的“风险—利益测试”,“风险”是指行为人行为所造成的可预见风险的总体水平,而“利益”是行为人或其他人因行为人不去采取预防措施而得到的益处。风险与利益的平衡是过失之“权衡进路”,这一进路基于并表达了一种简单的理念——如果行为的坏处大于其益处,那么该行为存在过失;反之则否。这里的坏处是指行为所导致的风险程度。行为的“益处”则与风险防范的负担相关,当行为人拒绝采纳某种防范措施时即避免了该负担。在很多案件中,它是一种经济负担,最初由行为人承受,随后又被实质性地转移到其顾客身上。这种权衡更多是在个案中适用,但是其原理和思路同样可适用于生成式人工智能领域。

生成式人工智能服务提供者从其行为中获益。具体而言,服务提供者通过模型训练与数据价值挖掘,实现内容生成效率跃升,降低信息生产边际成本,并依托技术输出、服务订阅、API 接口调用等商业模式获取直接经济收益;同时,其通过拓展应用场景、提升用户规模与市场占有率,强化数据优势与算法能力,获得竞争优势并获取经济效益。

与获益相对应,服务提供者需承担风险防范义务。具体而言,服务提供者对模型具有控制能力,通过调整模型参数、训练数据集以及对生成内容进行监控、筛选等方式有效管控风险,因此有义务采取预防措施防止损害发生。其风险防范成本包括建立安全审核、数据治理及风险预警机制,通过设计相关制度和防范措施,规制算法偏见、数据泄露、内容侵权等潜在风险;同时,其需履行数据溯源、获得合法授权及生成内容标识等义务,防范因数据瑕疵或授权缺陷导致的权益侵害,以平衡技术创新与法益保护的关系。但同时也应注意的是,其防范成本并非无限制。由于生成式人工智能面向海量用户提供实时交互服务,要求提供者对所有输出进行人工审核在经济上不可行,若采用传统出版者的高强度注意标准,也不符合技术发展和实际情况,就好比要求其穷尽所有措施而完全不产生“幻觉”并不切实际。

基于行为的社会价值的考量。如普洛瑟(William L. Prosser)曾指出,在每一案件中,都必须将该风险的概率与严重性,与所涉行为类型的效用进行权衡。问题在于“这是否值得”。虽然许多风险是由简单的粗心大意造成的,但许多其他风险是在社会完全认可的情况下可以被合理地承受的。必须考虑的因素中,最重要的是行为人所追求的利益的社会价值。大模型也能够产生社会效益。例如,大模型能够提升信息生产效率与知识获取的便利性,推动各行业智能化转型与产业升级,并且通过技术广泛应用解决社会复杂问题,如医疗诊断、科学研究和公共治理等,这些最终都能实现社会整体福利的增进。故此,对于服务提供者,应在其行为效益与风险防范负担之间进行权衡,并考量技术进步所带来的整体社会增益,从而使其风险防范负担限定于合理范围,既与其技术能力及发展阶段相适应,又符合成本收益比例原则,而非课以超越现有技术水平或必要成本的不当负担。

三、注意义务的来源

注意义务的来源是确定注意义务范围的直接依据与逻辑前提,不同的义务来源决定了义务内容、强度及边界的认定。注意义务的产生基于诚实信用原则,但是其范围已经超越了该原则的范围,因为其还具有保护他人的义务。而且这一义务的产生也是社会正常秩序的一般要求,是法的正义价值、秩序价值的具体体现。注意义务的产生依据在于社会规则,包括法律规则和非法律规则。具体包括制定法、技术性规范(也包括特定职业、行业的操作惯例)、习惯和常理、合同或者委托和先行行为等。根据生成式人工智能特性和行业惯例,以下主要讨论服务提供者在现行法体系下、用户协议约定和交往安全义务等三个主要方面。

(一)现行法

现行法规范体系下,生成式人工智能服务提供者的注意义务源于法律、行政法规及部门规章等多重来源,构成其义务边界与责任认定的规范基础。

在法律层面,《民法典》第1165条确立一般侵权责任,为服务提供者设定不得侵害他人民事权益的基本注意义务;第1018条、第1024条要求防范生成内容对他人肖像权、名誉权的侵害;第1034条至第1039条规定要求训练数据和用户输出端防止对个人信息权益的侵害;第1194条至第1197条关于网络侵权责任的规定,也存在类推适用的空间。《个人信息保护法》第5条至第9条确立合法、正当、必要等处理原则,第13条要求确保个人信息处理具有合法性基础,其他各条也系统性地规定了服务提供者作为信息处理者应当遵守相应的义务,也是注意义务的基础。《著作权法》第3条、第10条、第52条、第条、第54条等要求服务提供者审查作品来源合法性,保护他人的著作权。《网络安全法》第21条、第22条、第40条至第42条分别明确网络安全等级保护义务、网络产品与服务的安全保障义务以及要求网络运营者依法处理并严格保护用户个人信息。《数据安全法》第27条、第29条、第30条分别要求数据处理者建立健全全流程数据安全管理制度、加强风险监测与安全事件应急处置,重要数据处理者应定期开展风险评估。

《生成式人工智能服务管理暂行办法》系统构建了服务提供者的注意义务体系,贯穿风险预防与过程管控的治理理念与要求。该办法第4条确立基本原则,要求服务提供者在技术研发、数据训练、模型优化、服务提供等全过程中,采取有效措施防范歧视、虚假有害信息,保障知识产权与个人信息权益。第7条明确训练数据合法来源的注意义务,要求使用具有合法来源的数据和基础模型,涉及知识产权的不得侵害他人权利,涉及个人信息的应当取得个人同意或符合法定情形。第8条规定数据标注义务,要求规范标注规则、开展质量评估并加强人员培训。第9条课以服务提供者作为网络信息内容生产者与个人信息处理者的双重责任。第10条要求采取措施防范未成年人过度依赖或沉迷生成内容。第11条明确使用者信息保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的相关信息。第12条确立生成内容标识义务。第14条规定内容审核与应急处置注意义务,要求发现违法内容时及时采取停止生成、消除等处置措施,并履行报告义务。第15条要求建立投诉、举报机制。上述规定共同构成服务提供者注意义务的具体内容,涵盖数据来源合法性、内容安全、用户权益保护、应急处置等多个维度。

上述规范形成了具有层次性的注意义务体系。法律确立一般性、基础性的注意义务,行政法规及部门规章针对生成式人工智能的特殊风险设定具体、可操作的义务。故此,在司法实践中,认定服务提供者是否尽到注意义务,需综合考量规范来源,结合技术发展水平、行业惯例及个案情形,判断其是否达到服务提供者应有的注意程度。

(二)用户协议

服务提供者与用户之间的关系,与以往各类平台与用户之间的关系具有一定相似性,均通过用户协议(用户服务协议)根据平台功能设定彼此之间的权利义务关系。但因生成式人工智能具有技术特性,其用户协议在内容上与以往平台存在差异,除约定服务使用规则、费用标准、知识产权归属等一般条款外,还会明确服务提供者的注意义务内容,包括数据安全保护义务、个人信息处理规则、生成内容审核机制、风险提示与告知义务等。用户协议作为电子合同,在性质上最接近于服务合同,属于格式条款,服务提供者应遵循公平原则确定双方权利义务,并采取合理方式提示用户注意与其有重大利害关系的条款,确保用户充分知悉服务风险及自身权益边界。

作为服务提供者单方面提供的用户协议,其法律性质素来存在一定争议,主要集中在其是否实质上取得用户同意并且体现用户的意思自治,从而使其可能会被认定为合同或者不属于传统的合同。联合国国际贸易法委员会认为,平台与用户之间是一种合同关系,至于合同性质,取决于平台与用户之间的具体关系。数字平台是“基于合同的模型”,其核心在于平台与每个用户之间的合同。根据该合同,平台运营商向用户提供平台服务,从而使用户获得对数字平台的访问权限(“平台—用户合同”)。这种访问控制导致数字平台被描述为“封闭”环境。这一合同是典型的附和合同,至于其具体的合同类型,可能属于或超出现有法律下已确立的合同类型,这在不同司法管辖区可能有所不同。合同的定性,与平台与用户之间关系的定性相关联,并可能对双方的权利和义务产生影响,包括对当事人自治的限制。然而,莱姆利(Mark A. Lemley)早在2006年就指出,由于用户协议实质上缺少“同意”要素,因而其并非传统意义上的合同。莱姆利认为,“使用条款”(terms of use,中文也通常翻译为“用户协议”)这个总称具有误导性,其具体可包括拆封许可、点击许可和浏览许可等多种形式。虽然“使用条款”声称是合同格式,而且只要在线用户点击“我同意”,法院就认为这一“点击许可”使该合同具有可执行性,但是该“使用条款”可能缺乏合同意义上的(能够代表用户意思的)“同意”。在现实情况下,司法机构却表现出削弱甚至完全摒弃“同意”这一概念的倾向,这与人们所认为的合同越来越不吻合。亦有论者将在线格式合同定性为“混乱的合同”,认为此类合同存在平台以低成本、便捷方式拟订冗长合同,并且不利于消费者阅读和同意,从而影响消费者的知情权和自身权利行使。尽管学界与实务中对用户协议的法律性质尚存争议,但各类观点的共识在于:用户协议是以合同形式确立平台与用户之间权利义务关系的法律文件,且在平台实践中已被广泛采用并普遍认可。这意味着,除存在法律规定的格式条款无效等法定情形外,合法有效的用户协议对平台与用户均具有法律约束力。

在用户协议基本法理的基础上,本文尝试对目前国内、域外主要大模型用户服务协议中有关生成式人工智能服务提供者的注意义务的约定条款等进行梳理和总结。本文选取了国内四个较为主流的大模型的用户协议和域外较为主流的两个大模型的用户协议,此处不列举具体名称。通过此项梳理,期待从用户协议的视角揭示服务提供者注意义务的具体内容、履行方式及其与法定注意义务的衔接关系,为司法实践中注意义务的认定与责任边界的划定提供参考。

国内主要大模型用户协议主要涵盖五方面义务,具体如下:

一是服务提供者负有风险告知义务。服务提供者在用户协议中均以显著方式提示服务的局限性及潜在风险。各协议均明确要求:提示生成内容可能存在错误、遗漏或不准确之处,不得作为专业建议(医疗、法律、金融等领域)或决策依据;提示“联网搜索”功能下第三方内容的不可控性;提示未成年人需在监护人陪同下使用,防范沉迷与过度依赖。此类义务旨在保障用户知情权,使其能够较为理性地认识技术特性与风险边界。

二是内容标识与透明度义务。根据相关规定,服务提供者负有显式与隐式双重标识义务。显式标识包括在产品界面添加“AI 生成”提示、在生成图片边角位置添加标识、在视频起始画面添加提示等;隐式标识则要求在文件元数据中添加生成内容属性信息、服务提供者名称或编码等制作要素信息。同时,服务提供者需发布模型原理、算法备案或训练机制相关说明,对算法机制予以披露,保障用户与公众对技术原理的知情权。

三是审查处置与安全管理义务。服务提供者须建立内容审查与风险防控机制,包括采取技术手段或人工手段对输入和输出进行审查,建立风险过滤机制与违法内容特征库;对违规内容采取警示、限制功能、暂停使用、关闭账号、删除内容等处置措施;发现违法内容时及时采取停止生成、停止传输、消除等处置措施,并履行报告义务;对涉诈等异常账号重新核验,发现违法犯罪线索依法移送相关部门。

四是信息保护与数据安全义务。服务提供者对用户输入信息及使用记录负有保护义务,包括不得收集非必要个人信息,不得非法收集、泄露能够识别用户身份的信息;采取加密技术、匿名化处理等措施保障个人信息安全;将境内收集的个人信息存储于境内,向境外提供需取得单独同意或符合法定情形;为用户提供查阅、复制、更正、删除个人信息及撤回授权的权利;建立账号安全保护机制,对密码找回、账号申诉等情形进行身份核验。

五是反馈改进与投诉处理义务。服务提供者须建立用户反馈与投诉处理机制,包括提供便捷的反馈入口(如“联系我们”、联系邮箱等);建立侵权投诉指引,明确投诉路径、所需材料及处理流程;对用户的投诉、申诉在合理期限内予以反馈;根据用户反馈持续优化模型与服务。

域外主要大模型用户协议主要涵盖四方面义务,具体如下:

一是提示义务的层级化。平台普遍采用“基础提示+强化提示”双层结构,基础提示涵盖服务更新、费用变更等常规事项,通常设置14日至30日合理预告期;强化提示针对测试版本、重大功能变更等特殊情形,以显著形式突出服务可靠性不足、安全审计缺失等核心风险。在人工智能特性风险方面,要求明确披露相关关键内容,如输出可能存在重大不准确、行动可能偏离用户意图、不应未经核实即依赖输出、信息可能非最新以及非最完整、输出不代表服务提供者观点。这种披露义务源于大语言模型概率生成机制的技术本质。

二是标识义务的体系化。该义务围绕三类对象展开:服务形态标识,以特定标签区分测试版本与正式服务;权属边界标识,明确服务本身、用户输入、模型输出三者的知识产权归属;第三方内容标识,标明非平台直接提供内容的责任主体。

三是处置义务的梯度化。处置权配置呈现“阶梯式”特征:第一层级为请求处置,针对终端用户违规,平台先要求客户方自行处理,未及时响应时方得介入;第二层级为直接限制,针对安全紧急情况、法律强制要求等情形,平台可径行采取限制或暂停措施,但须受到严格限制,事由消除后及时恢复;第三层级为终止处置,对根本违约情形,平台可终止协议,同时负有清理数据、结算费用的后合同义务。

四是报告反馈义务。平台负有审计报告提供、安全措施变更通知等义务,承诺按年度提供独立第三方审计报告。支持用户对输出进行评分与问题上报,建立专门支持中心处理申诉,为内容审核与账号处置提供申诉渠道等,使用户从被动接受者转化为服务改进的参与主体。

以上关于域内外大模型服务提供者注意义务的比较分析,可见二者存在以下异同:

第一,协议内容总体架构和出发点不同。国内用户协议将风险告知、内容标识、审查处置、信息保护、反馈改进等设置为主干内容,将治理规则融入协议较充分;域外用户协议对于信息保护等多通过援引隐私政策实现,未特别强调治理,反映传统合同法理。

第二,义务内容场景化和技术机理强调重点不同。风险告知方面,国内呈场景化特征,强制区分专业领域并单设未成年人条款;域外呈技术机理化特征,紧扣概率生成机制构建标准化披露机制。内容标识方面,国内属监管合规型,强制双重标识及算法备案;域外则属市场自律型,侧重服务形态与权属边界标识。

第三,协议规则趋同与融合。尽管规范路径存在一定差异,但双方在技术认知与治理工具层面基本趋同,均承认大模型概率生成机制固有的不确定性风险,重视用户反馈数据对模型迭代的优化价值,建立针对账号处置的申诉救济渠道等等。

(三)交往安全义务

传统上,交往安全义务属于除法定、契约、先行为义务所产生的作为义务之外的义务,其内容主要指应采取防范危险的措施,须斟酌危险的性质、严重性、对义务人期待可能性、行为效益、防范费用、被害人的信赖及自我保护可能性,以及法令规章等因素,就个案加以认定,如创设并维持公共通行环境(系采广义,包括多种情形)、从事职业活动(医院、建筑师、旅游营业人等)等多种情形。交往安全义务在实践中较为常见。然而,从以上分析可知,对于生成式人工智能服务提供者而言,在法定、用户协议约定中,似乎已将几乎所有与技术特性相关的风险源和风险防范的措施均列举并规定,交往安全义务几无适用空间,那么是否还有必要讨论这个问题,仍有待讨论。

对于网络领域的安全保障义务,本就存在较多争议之处。有学者指出,司法实践中安全保障义务主体呈现泛化趋势,其公共性标准已从实体场所扩张至网络虚拟空间。在有的条件中,法院认定视频平台因用户浏览、评论、点赞等行为具有互动性、公共性及群众性而具有公共场所属性,故对用户生命安全负有安全保障义务。我国司法实践普遍认为场所公共性是产生安全保障义务的真正原因,该观点亦被学者广泛接受,在特殊侵权领域逐渐以安全保障义务概念替代注意义务。但是,网络服务提供者对网络用户的注意义务不能一概认定为安全保障义务,须区分直接侵权与间接侵权:直接侵权中,其基于物权特征或合同关系负有保护义务,原则上限于审查、告知、删除等技术手段;间接侵权中,其依《民法典》第1195条负有通知后采取措施义务。值得关注的是,实践中也有时被课以事先审查义务,但是该义务须以承认安全保障义务为前提,且以明知或应知特定危险为条件。两类义务均限于网络服务提供者可期待范围内的危险排除措施。换言之,网络领域的安全保障义务不宜被泛化或任意扩大,仍应限于确实对风险具有支配或控制能力才可以。但是,在当下人工智能领域之中,技术应用极其广泛,几乎处于风险敞口状态,再讨论其风险支配的范围或者力度,似乎具有较大难度。

人工智能技术广泛适用背景下的交往安全义务在实践中仍有讨论空间。例如,2026年3月,央视总台“3·15晚会”曝光了一条产业链:一些机构通过批量发布软文、编造虚假测评报告、虚构专家身份等方式,向大模型的数据源“投喂”定制内容,让商业推广以“AI 标准答案”的面目呈现在用户面前,影响大模型的抓取、引用和推荐结果,这种情形被称为对 AI 的“投毒”。对于这一事件,在现行法律框架下,服务提供者并不对生成内容的真实性负有绝对担保义务,用户亦应认识到 AI 回答的固有局限性,自行审慎判断并承担相应信赖风险。但是一定程度上,在交往安全义务的层面,仍存在进一步讨论与解释的空间,尤其是在第三方系统性伪造内容、定向污染训练数据和检索数据源的场景下,服务提供者是否负有相应的注意与防控义务,在学理与司法适用上仍有探讨余地。

四、注意义务的标准:“理性人”标准抑或新的“合理的人工智能”标准?

(一)“理性人”标准

所谓“过失”,是指被告未尽到一个通常谨慎之人在此情形下应尽的注意义务,也就是说,被告本应预见到其行为会给原告的利益造成损害。整个过失理论预设了某种统一的行为标准。然而,可能出现的无限多样的情形,使得不可能预先为所有可想象的人类行为制定确定的规则。法院通过创造一个虚构的人物来处理这一非常困难的问题,这个人物从未在陆地或海洋上存在过,即“具有通常审慎态度的合理人”。有时他被描述为一个合理的人,或一个具有通常审慎态度的人,或一个具有合理审慎态度的人,或其他某种理性与谨慎的混合体。这一合理的人的行为标准可以通过适用法律、司法判例、立法(直接立法或者参照其他适当行为的要求)等方式确定。

理性人标准是一个客观标准。即便是可预见性,实际上也是一个客观标准。可预见性关注“理想化的理性人”能否预见损害,确立注意义务的最低前提(无预见则无义务)。例如,被告可以预见其助推乘客的行为可能导致包裹掉落站台,但无法预见包裹内藏有烟花爆竹并会爆炸伤及远处的他人;被告可以预见船舶泄漏燃油会造成港口污染损害,但无法预见油膜会在水面上被意外点燃并烧毁整个码头;被告作为指导教师可以预见生成式人工智能撰写的学术论文可能存在参考文献造假或数据错误,但无法预见学生会直接提交该论文作为毕业论文,导致被认定严重学术不端并不予通过;被告可以预见生成式人工智能生成的新闻报道可能存在事实性或时间线错误,但无法预见权威媒体未经核实直接转载,引发公众恐慌并影响上市公司股价下跌。一般而言,在确认本应采取的预防措施时,主张过失的一方无须证明该措施可以完全消除损害风险。相反,该方只需证明,若实施该预防措施则风险可以降低。例如,店主对顾客丢弃垃圾的潜在伤害风险负有注意义务,采取每半小时检查一次的防范措施即满足过失标准(无需不间断检查),但未能维持该频率则可能构成过失;原告除证明过失外,还须证明因果关系,即按时检查本应发现并移除致其受伤的特定垃圾。对于生成式人工智能服务提供者而言,其定期的敏感词、有毒有害信息过滤、屏蔽等,就属于降低风险的预防措施。

以上可见,理性人标准并非僵化的抽象教条,而是一个结合具体情形确定被告有无过失而进行客观解释的标准。这一标准具有一定开放性和适应性,能够随着社会发展、技术演进而不断吸纳新的考量维度。在生成式人工智能领域,通过确立“理性人”的基本标准,经由该标准进行解释,正是其从抽象标准走向具体适用、实现风险合理分配的具体体现。

(二)合理的人工智能:一个新的过失标准?

面对快速发展的人工智能,诸多新情形的出现,使得传统的“理性人”标准受到一定挑战与批评。有论者提出,理性人标准根植于人类行为逻辑与可预见性,而 AI 决策机制、错误类型均与人类存在本质差异,既可能超越人类水平,也会犯下理性人绝不会犯的错误,套用该标准会导致认定失衡、违背可操作性与进步性要求。人工智能改变了侵权法,因为人类不再是唯一的行为主体,传统以人类行为为基准的理性人标准无法直接适用于算法,因为人工智能既超越人类表现,又可能犯下任何合理人都不会犯的“愚蠢错误”。故此,应设立一个新的过失标准——合理的人工智能。以“可管理性、创新性、安全性、进步性”四项标准衡量,目前三类主流责任方案都存在缺陷:一是严格责任或推定过失,可能过度压制技术创新和阻碍安全人工智能的发展;二是设计流程框架(如欧盟高风险 AI 的程序要求),以事前程序合规替代风险结果判断,可能脱离 AI 实际安全表现,其僵化且无法适应技术发展;三是相对安全框架(仅以人类表现为基准),仅将AI 与人类对比,标准僵化且无法适配技术迭代,可能早期阻碍安全 AI、后期纵容危险 AI。作者以自动驾驶汽车为例展开实证论证,通过事故率数据对比证明该标准可操作性强,同时满足可管理性、创新性、安全性与进步性四项准则。该方案既保留过失法平衡风险与创新的核心功能,又动态适配 AI 技术演进,实现对受害者的救济与对企业合理激励的统一,为 AI 侵权责任提供了兼具法理与实践价值的新路径。

构建新的“混合基准的人工智能过失标准”。有论者认为,判断 AI 是否存在过失,不再以理性人或其他 AI 为单一参照,而是以人类与 AI 共同从事同类行为的加权平均损害率为客观基准。若 AI 的单位损害率低于该整体平均值,则认定为合理、无过失;反之则构成过失。这一过失标准虽与理性人标准形式不同,但符合侵权法为特殊被告群体定制门槛的传统(如专业过失)。人工智能过失标准与我们所熟知的理性人标准之间,相似性远大于差异性。过失法所保护的基本道德利益,是当他人决定应当尽到何种程度的注意时,我们有权获得充分的审慎对待。就企业人工智能而言,“充分考量”意味着仅部署那些能够提升我们安全性的自动化系统。若某企业的人工智能使我们面临更高危险,则未能履行该义务。一旦损害发生,正义即要求提供救济,既为弥补我们的损失,也为重申我们的价值。

这一标准的提出,从形式上看,对于确立百余年的“理性人”标准有所冲击。然而,究其实质,其到底是设立了一个新的标准还是对理性人标准进行新解释,仍有讨论的余地。此前的理性人标准仅以“人”为参照物,而“混合基准的人工智能过失标准”引入了人工智能参与,使得注意义务的判断从人的行为合理性拓展至人机交互系统的整体安全性。笔者认为,这种转变并非颠覆传统标准,而是将其适用场域从“纯粹人类行为”延伸至“人类设计、部署 AI 系统”的行为,核心仍在于判断被告(企业或开发者)是否尽到了合理的技术管控与风险防范义务。换言之,人工智能过失标准并未创造出超越理性人标准的新型道德基准,而是在人工智能这一特殊领域和特殊情形下,对“保护他人免受不合理风险”的具体化与情境化重述。若将人工智能视为人类能力的延伸而非独立主体,则所谓的“人工智能的过失”本质上仍是人类过失,其归责逻辑最终仍需回溯至理性开发者、服务提供者等诸多主体在特定技术条件下应尽的注意义务,将人工智能风险纳入既有侵权法的解释框架之内。故此,与其说这一标准的提出是在侵权法框架内创设了一个新的注意义务标准,不如说这一标准是对理性人标准在人工智能时代的新解释,二者殊途同归。

(三)“理性人”标准的分层化适用

“理性人”标准的适用不能停留于抽象概念,而需结合技术特性进行层次化建构。具体而言,可从技术水平、行业基准与成本效益以及特殊场景等三个维度展开,形成对可预见性、关联性以及公平、公正、合理(政策考量)进行整体判断的体系。

第一,技术水平维度。理性人标准首先关注的是服务提供者在现有技术条件下,对服务潜在风险的认知与管控能力。具体而言,需考察服务提供者是否明知或应知所部署模型在特定应用场景下存在“幻觉”、偏见或有毒有害内容生成倾向,是否具备足够的技术手段进行输入过滤和输出审核。例如,对于可通过提示词工程、内容审核或拦截避免的高概率风险,尤其是法律、行政法规规定的禁止输出的内容,服务提供者若未采取合理措施,则可能构成过失。尽管大型平台与小型或初创企业的技术能力会存在差异,但他们均应达到同类型服务提供者的普遍技术水平。技术水平维度确立的是服务提供者在技术部署层面的主观上的可预见性与客观上的风险防范义务。

第二,行业基准与成本效益的平衡。这一层次是服务提供者在提供服务过程中的注意义务标准。例如,服务提供者通常采取何种风险管理措施,如是否建立了用户举报机制、内容审核周期、风险提示规范及紧急处置流程。若行业已形成针对特定风险(如医疗建议、恶意代码生成)的通行防范标准,未采纳者则可能构成过失。同时,应进行成本效益权衡,对于可通过较低运营成本,如增加审核频次、完善用户协议、设置显著风险提示等方式可避免的损害,服务提供者应采取相应措施;反之,若预防成本过高而损害发生概率极低,则可适当降低注意义务。此层次的“理性人”应遵循行业惯例等通行标准、符合经济利益和基本道德。但行业惯例等仅具有参考意义,不能成为注意义务的最低标准,否则可能导致“逐底竞争”。

第三,特殊场景下的特别提示义务。在过失法中,一般专业人士以及从事任何需要特殊技能工作的人,不仅被要求在其工作中尽合理注意,而且还被要求具备最低限度的专业知识和能力。服务提供者虽然无法也不应就人工智能生成的所有内容承担绝对担保责任,但在专业应用场景下,不得仅以一般性免责声明替代针对该领域特有风险的显著提示义务。亦有论者认为,在人们向大模型咨询医疗问题的情形下,服务提供者应当有更高的注意义务,采取一定的干预措施避免幻觉答案的出现,或者以明显的方式提醒用户,其提供的答案并不能代替医生的专业意见。在此种场景下,服务提供者不能仅限于一般性的“AI 可能不准确”的笼统提示,而应当针对特定专业领域的固有风险,提供明确、具体且显著的警示或提示。例如,在医疗咨询场景中,服务提供者应以显著方式提示 AI 生成内容不构成医疗建议、不能替代专业诊断,并明确告知用户应咨询执业医师;在金融投资建议场景中,则应以显著方式提示 AI 分析可能基于过时数据或算法偏差,不构成投资建议等。

五、注意义务的类型化

服务提供者的注意义务仍以“理性人”标准为基础,在此基础上,结合生成式人工智能的技术特征,可进一步类型化。在1990年 Caparo Industries Plc. v Dickman 案中,上议院提出了可预见性、关联性和政策考量的三个要素作为识别注意义务的适当决策标准。其中,邻近性(关联性)要素则聚焦原告与被告之间的“法律关联性”(非物理距离),需通过具体结构性特征(如控制关系、请求行为、相对技能、实际知晓等)证明,是判定注意义务的核心。生成式人工智能的技术特性决定了服务提供者注意义务的类型与边界,并主要包括技术特性维度的注意义务、服务提供过程中非技术特性维度的注意义务以及程序性的注意义务等内容。

(一)技术特性维度的注意义务

一是内容准确性提示义务。生成式人工智能存在固有的“幻觉”风险,这也是生成式人工智能技术所具有的典型风险。无论是用户的一般认知还是服务协议约定,服务提供者均会向用户事先声明生成信息的不准确性等内容,服务提供者负有向用户提示该风险的义务。在前述国内 AI 幻觉案中,法院也认为,服务提供者并不负有结果性义务,而仅为方式性义务。此外,针对医疗健康、金融等涉及生命安全、心理健康、资金安全等特定领域,服务提供者还应尽到更高标准的提示义务,明确告知用户生成内容的专业局限性,建议用户寻求专业人士的帮助。

二是内容标识义务。为区分 AI 生成内容与真实信息,防止公众混淆误认,服务提供者负有对生成内容进行显著标识的义务。根据《互联网信息服务深度合成管理规定》第16条及《生成式人工智能服务管理暂行办法》第12条,服务提供者应当对图片、视频等视觉类生成内容进行显著标识。这一义务的技术实现方式包括添加数字水印、元数据标记等,确保标识具有持久性和可追溯性。

三是内容安全管控义务。服务提供者应建立有效的内容过滤机制,尤其是对于法律、行政法规所禁止的违法、有毒有害信息。义务具体包括:在输入端建立关键词过滤机制,对用户输入的违法、不良指令进行识别和拦截;在输出端对生成内容进行合规性审查,防止输出虚假信息、歧视性内容、暴力恐怖信息、侵害个人隐私以及违反公序良俗的内容。当发现违法内容时,服务提供者应当及时采取停止生成、停止传输、消除等处置措施,并通过模型优化训练等方式进行整改,同时向有关主管部门报告。

四是算法透明度义务。服务提供者应当以适当方式向用户说明算法的基本原理、目的意图和主要运行机制,保障用户的知情权。根据《生成式人工智能服务管理暂行办法》相关规定,服务提供者应当提供影响用户信任与选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量,人工标注规则及算法机制机理等内容。该义务以保障用户知情权、理解决策逻辑为目的,不要求披露核心商业秘密。《互联网信息服务算法推荐管理规定》第16条规范了算法推荐服务的告知与选择权。服务提供者应当显著告知用户算法推荐服务情况,提供关闭算法推荐或非个性化推荐的便捷选项,以及用户特征标签的选择、删除功能,并在用户关闭后立即停止相关服务。

(二)提供服务过程中非技术维度的注意义务

与前述技术带来的风险以及“提供服务”开启风险的二分思路一脉相承,服务提供者除内容生成技术本身外,其在数据训练、模型运营过程中还负有数据合规与权益保护的注意义务,这些义务不直接源于生成技术,而是源于服务提供过程中的合规与保护他人的基本要求。

一是训练数据质量保障义务。训练数据的质量直接决定生成内容的准确性与安全性。服务提供者应当依法开展预训练、优化训练等训练数据处理活动,根据相关规定,负有以下义务:使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。在采集和获取数据过程中,对于应获得授权的,应取得权利人的授权;基于市场交易取得的,应要求出售方提供数据合法合规安全承诺和来源合法证明。

二是数据标注合规义务。生成式人工智能技术研发过程中进行数据标注的,服务提供者应当制定清晰、具体、可操作的标注规则,开展数据标注质量评估,抽样核验标注内容的准确性。标注规则的制定应当符合法律法规要求,标注内容的准确性直接影响模型输出的质量,服务提供者对此负有质量把控义务。

三是个人信息保护义务。服务提供者应当依法承担个人信息处理者责任,履行个人信息保护义务。这是服务提供者负有的重要义务之一。具体包括:对用户的输入信息和使用记录履行保护义务,不得收集非必要个人信息,不得非法留存能够识别用户身份的输入信息和使用记录,不得非法向他人提供用户的输入信息和使用记录;依法及时受理和处理个人关于查阅、复制、更正、补充、删除其个人信息等请求。在模型训练、服务提供、用户交互的全过程中,服务提供者均应遵循最小必要原则,采取加密、访问控制等技术措施保障数据安全。

四是著作权合规义务。服务提供者在训练数据准备、模型生成内容输出两个环节均可能涉及著作权问题。在输入端,应确保训练数据来源合法,不侵害他人依法享有的知识产权,建立相应机制防止使用侵权作品进行训练;在输出端,应建立著作权投诉处理机制,根据权利人的合格通知采取必要措施,防止侵权生成物的持续产生。

(三)程序性注意义务

程序性的注意义务是确保前述实体义务实现的保障性义务,具体包括:

一是安全评估与算法备案义务。根据《生成式人工智能服务管理暂行办法》第17条,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。安全评估应当依据国家有关规定及《生成式人工智能服务安全基本要求》,对语料安全、生成内容安全、模型安全、安全措施等进行全面评估,形成安全评估报告。算法备案则要求服务提供者向监管部门报送算法的基本信息、主要功能、服务对象、使用范围等,接受监管部门的监督管理。

二是用户协议与告知义务。服务提供者应当与注册其服务的生成式人工智能服务使用者(用户)订立用户(服务)协议,明确双方权利义务。服务协议应当包含服务内容、使用限制、风险提示、知识产权归属、隐私政策、违约责任等条款,确保用户在充分知情的基础上作出选择。

三是投诉举报和反馈机制建立义务。服务提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。服务提供者应当确保投诉举报渠道畅通、有效、便捷,及时处理权利人的侵权通知和用户的权益诉求。

四是应急处置与报告义务。服务提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止提供服务等处置措施,保存有关记录,并向有关主管部门报告。该义务要求服务提供者建立应急响应机制,对突发安全事件能够快速反应、有效处置。

五是未成年人保护义务。服务提供者对未成年人负有保护义务,应采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。根据相关规定,具体措施包括:建立用户身份识别机制,对未成年人用户采取特殊保护措施;设置使用时长限制、内容过滤等功能;建立家长监护机制,允许家长对未成年人的使用行为进行监督和管理。这一义务体现了对未成年人群体的特殊保护,要求服务提供者在产品设计和服务提供中充分考虑未成年人的身心特点。

在适用关系上,上述三类义务相互补充、相互强化。例如,内容标识义务(技术特性)的有效履行,有助于权利人及时发现侵权内容并发出通知,从而触发投诉举报处理义务(程序性)的履行;训练数据质量保障义务(非技术特性)的履行,能够从根本上减少生成内容的违法风险,减轻内容安全管控义务(技术特性)的压力。故此,三者的区分既符合生成式人工智能的技术特性,同时又符合传统上对于注意义务设定的原理,更具有客观性和科学性。

结语

在侵权法理论中,过失仅仅是一种行为方式。但是,一项基于过失成立的、能够从中产生责任的诉因,所要求的不仅仅是行为。构成此类诉因所必需的要素的传统公式可简要表述如下:一是法律所认可的一项义务或责任,要求该人符合特定的行为标准,以保护他人免受不合理的风险。二是该人未能符合所要求的标准,即对义务的违反。这两个要素共同构成了法院通常所称的过失。生成式人工智能服务提供者的侵权责任认定,仍需回归这一基础框架,但在技术语境下呈现出了一些新特征与新问题:其一,生成式人工智能技术的固有风险十分显著,使得治理和行业自律层面已比较充分地预见到这些风险,法定义务与约定义务几乎覆盖了从提示、标识到内容管控等多方面义务,传统侵权法中的交往安全义务似难觅踪影,这反映出技术风险规制与民事责任体系之间互嵌但尚存间隙;其二,“理性人”标准仍应作为过失判断的基石。尽管目前对于注意义务的标准提出个别新理论,诸如“混合基准的人工智能过失标准”,但是这些新理论并未脱离理性人标准的本质内核,而是对该标准在技术语境下的具体化与情境化适用。这些新标准仍然是通过扩张“理性人”标准的内涵,通过纳入人工智能参与、人机交互系统的整体安全性等考量因素,使其更符合人工智能时代的归责需求,保持了法律原则的解释力和适应性;其三,注意义务的类型化建构并未脱离传统分析范式,而是从技术维度的注意义务(可预见的技术风险)、提供服务过程中非技术维度的注意义务(可预见的非技术风险的“软风险”)以及程序性的注意义务三个层面展开,形成类型化、层次分明的义务体系。

 

姚佳,中国社会科学院法学研究所编审、中国社会科学院大学教授、博士生导师。

来源:《法学论坛》2026年第3期。

    进入专题: 生成式人工智能   注意义务  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/175814.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统