摘要:生成式人工智能服务运营者是连接基础模型与终端用户、对服务过程具备实质控制能力的运营 主体,具体分为自主研发型和技术集成型两类。 服务运营者刑事责任的正当性依据是保证人地位说和风险 刑法理论,其刑事责任在拒不履行信息网络安全管理义务罪框架内展开,义务承担应区别于基础模型提供者 的技术开发责任。 信息网络安全管理义务经行政义务向刑事义务的转化筛选,具体化为内容生成安全义务、用户数据安全义务和犯罪防控义务三项核心内容。 为平衡技术创新与风险防控,需要构建义务范围的规范 化限缩路径。 技术能力差异决定责任配置的个别化,其中,自主研发型承担严格责任,技术集成型承担相应限缩责任。
关键词:生成式人工智能;服务运营者;信息网络安全管理义务;保证人地位;义务限缩
作者:郑泽星,中南大学法学院副教授,中南大学数字法治研究院研究员,主要研究方向:刑法学;曾琴文,中南大学法学院硕士研究生,主要研究方向: 刑法学。
一、问题的提出:基于一个案例的展开
案例:某重大自然灾害期间,用户通过“智绘 AI”平台(化名)咨询灾情信息,该平台调用第三方大语言模型 API,生成了夸大伤亡数据的虚假文本内容,声称“权威部门确认死亡人数超过千人”。 该虚假信息被用户截图转发至社交媒体后广泛传播,引发社会恐慌。 经查,“智绘 AI”由甲公司运营,主要负责用户界面设计、服务包装和用户管理,底层大语言模型由乙公司开发提供。 案发后,网信部门要求甲公司立即下线相关功能并完善内容审核机制。 甲公司以“虚假信息由第三方模型生成,我方仅提供技术接口服务”为由,拒绝执行整改要求,继续提供相关服务。 其间该平台再次生成涉及公共卫生事件的不实信息,在网信部门二次责令整改后,甲公司仍以“技术实现由乙公司负责”为由拒不配合。
就拒不履行信息网络安全管理义务罪的构成要件而言,上述案例中存在两组需要讨论的争议:
其一,甲公司虽依赖第三方模型,但通过参数配置、场景定制等技术行为对内容生成具备实质影响力,其法律地位是否等同于传统网络服务提供者? 其二,产业分工背景下生成式人工智能服务运营者与基础模型提供者的责任边界如何划定,技术依赖抗辩在何种条件下成立?
第一组争议的考察涉及生成式人工智能刑事主体的认定问题,第二组争议的考察则关涉产业链条中不同主体的责任分配机制。 对于上述争议,传统网络犯罪刑法理论能否提供有效回应? 仅提供接口服务的甲公司是否构成拒不履行信息网络安全管理义务罪的规制对象? 生成式人工智能服务运营者与基础模型提供者能否以产业分工为由规避各自刑事责任? 如何在技术创新与风险防控之间构建合理的刑法治理框架? 在生成式人工智能产业勃兴的当下,本文将尝试回答上述问题。
二、生成式人工智能服务运营者的主体界分
前述争议本质上源于生成式人工智能刑事主体认定标准模糊,无论是刑法规制中的义务承担,还是行政监管中的责任分配,都需要以准确界定主体资格为前提。
(一)生成式人工智能服务运营者的概念界定与法律属性
《生成式人工智能服务管理暂行办法》 (以下简称《暂行办法》)虽然设定了“生成式人工智能服务提供者”概念,但其涵盖范围过于宽泛,致使刑法规制对象边界不够清晰。 该概念混合技术开发、服务运营和内容生产等异质主体,无法为刑事责任归属提供清晰的教义学指引。 基于产业分工体系中的功能定位与技术禀赋,本文将“通过技术整合将基础人工智能模型转化为用户服务,直接提供生成式人工智能服务,并对服务运营具备管理控制职能”的主体,界定为法律意义上的生成式人工智能服务运营者(以下简称“服务运营者”)。
服务运营者的构成要素主要包括以下几点:第一,服务提供关系要素。 服务运营者与终端用户建立直接的生成式人工智能服务关系,并在所有接触界面保持持续互动。这种技术中介功能使其区别于单纯的内容提供者和基础模型提供者。 第二,技术整合功能要素。 服务运营者不仅是技术通道,更是服务整合者,通过界面优化、功能封装和场景定制,将复杂的模型能力转化为易用的服务体验。 这种整合过程体现了从底层技术到用户应用的关键转换功能,使服务运营者具备自主运营与市场定位的商业 特性。 第三,运营管理职能要素。 相较于基础模型提供者,服务运营者对生成过程与结果具有更直接的 控制能力,能够通过参数设置、内容过滤与安全审查等机制对生成内容实施干预。
此外,准确界分服务运营者的法律属性,还需要通过类型比较厘清主体边界。 首先需要厘清基础模 型提供者与服务运营者的主体边界。 就基础模型提供者而言,其负责底层技术研发,主要通过API等方 式输出技术能力,对具体应用场景缺乏实时管控手段;服务运营者则直接面向用户提供服务,在技术调 用与用户需求间发挥枢纽作用。 通过再次比较传统网络服务提供者与服务运营者,不难发现,二者的本 质差异在于对内容生成的参与深度:传统网络服务提供者主要传播用户既有内容,承担存储、展示或传 输功能,居于相对被动的中介地位;服务运营者则深度介入内容生产环节,主动参与内容形成过程,具备“内容共创者”性质,其角色超越了传统网络中介服务的被动性。 而鉴于生成内容行为兼具技术服 务与内容供给的双重属性,本文认为其应属于不同于传统搜索链接服务提供者和网络内容服务提供者 的新型网络服务提供者。
从法律规制的角度看,准确识别并规范服务运营者具有重要实践意义。 就概念意义层面而言,通过 上述类型比较分析,服务运营者作为新型网络服务提供者的主体地位得以确立,为刑法在生成式人工智 能领域的精准适用提供了明确的规制靶标;就法律属性层面视之,基于其在产业链条中的枢纽地位和技 术控制优势,服务运营者成为生成式人工智能生态中最具刑法规制价值的主体。
(二) 生成式人工智能服务运营者的类型化 服务运营者概念的统一界定,并不意味着该群体内部技术特征与法律地位的同质化。 产业分工精 细化与技术路径多样化,使得服务运营者在控制能力、管理职能等方面均呈现显著差异,基于刑法个别 化原则的内在要求,类型化认定成为服务运营者准确适用法律规范的必然选择。分层治理理论可以为类型化认定服务运营者提供教义学基础。 当前,生成式人工智能技术架构呈 现“基础模型———专业模型———服务应用”的分层特征,不同层级在功能定位与技术特征方面存在 本质差异。 就刑法规制角度来看,只有在服务应用层才具备区分“服务提供者———内容生产者”的规范 意义,基础模型和专业模型层与网络内容管理的规制目的关联度相对较低。 本文聚焦服务应用层的服 务运营者,即直接面向终端用户、具备服务控制能力的运营主体。基于技术架构、资源配置和服务模式的差异,服务运营者可划分为两种基本类型:其一是自主研发 型服务运营者。 此类服务运营者拥有完整的技术控制链条,以Chat GPT、DeepSeek等为典型代表,此类 主体具备从大型模型训练到生成式人工智能应用的全过程技术支撑能力,其技术特征表现为:拥有 自有基础模型和独立的技术研发体系;建立覆盖技术开发到服务提供的完整业务链条;基于对核心算法 的掌控,具备技术参数的自主调节能力。 此类主体对生成内容具备最直接、最全面的控制能力。其二是 技术集成型服务运营者。 此类服务运营者基于专业化分工,主要采用技术整合模式。以集成生成式人 工智能功能的微信、钉钉等应用平台为代表,这类主体通过整合第三方技术资源来提供专门化的服务。钉钉接入通义千问后,能够实现聊天摘要生成、待办事项创建、文档写作辅助等功能。技术集成型服 务运营者的特征在于:依托第三方模型获得底层技术支撑、主要专注于应用层面的服务设计与用户体验、通过服务封装和场景定制实现差异化竞争。 现代集成式生成式人工智能应用采用分层架构设计,包 括通信层、逻辑层和服务层等模块化组件。
上述类型化认定反映了生成式人工智能产业中技术能力与服务模式的多样化发展趋势。其中,自主研发型服务运营者代表了技术自主路径,技术集成型服务运营者则体现了专业化分工的产业模式。
(三) 生成式人工智能服务运营者的控制能力层次 虽然确立了服务运营者的主体地位,但是刑事义务的具体承担仍需以实际控制能力为事实前提。这种控制能力并非抽象的理论建构,而是植根于具体技术架构与运营实践的客观存在,呈现出层次化的 分布格局与差异化的实现路径。服务运营者在用户服务层面的控制能力,实质上体现为一种基于技术优势与数据垄断的支配权力。服务运营者通过用户协议确立法律关系,享有用户准入审查、行为规范制定、违规处置决定等单方权限。更为深层的控制体现在服务提供的全流程管理上,从服务功能的初始设计理念,到具体交互规则的制定 实施,服务运营者享有几乎不受外部约束的自主决策权。 这种权力表现到极致,便是对服务连续性的绝 对控制———无论是技术维护的短暂中断,还是政策调整的功能限制,乃至基于安全考量的服务终止,均 取决于服务运营者的单方意志。 服务运营者通过数据处理规则和单方管理权限,对用户在该服务内的 数字活动形成了实质性的支配性控制力。技术服务层的控制能力集中则体现为对底层技术资源的配置权限与安全防护的架构设计。 服务运 营者虽不直接掌握基础模型算法,但通过接口权限管理、调用频次限制、参数边界设定等技术手段,能够 对模型输出实施有效干预。 然而,技术服务层的控制能力也存在内在局限。其面对日益复杂的对抗 性攻击技术,特别是提示词注入与越狱攻击等新兴威胁,服务运营者的防护能力至多体现为“合理努 力”而非“绝对控制”。内容管理层的控制能力最为复杂,也是服务运营者承担义务的核心事实依据。 服务运营者通过内 容分类规则、生成边界设定、审核拦截机制等技术手段,对违法信息的产生具备源头干预能力。传播展 示环节的控制能力则更为直观和有效。 通过展示方式的设计选择、警示信息的添加策略、分享权限的层 级管理,服务运营者能够在内容生成与用户接收之间构建起多重过滤机制。 当问题内容被识别时,从即 时下架到传播链条阻断的快速响应能力,体现了其在内容治理中的核心地位。 这种控制能力超越了传 统网络服务提供者的被动传播角色,体现为对内容形成过程的主动参与和实质影响。总而言之,这三个层面的控制能力相互关联、层次递进,共同构成服务运营者承担信息网络安全管 理义务的能力基础。控制能力的客观存在及其技术边界,也为后续义务内容的具体化与责任标准的差 异化提供事实判断的基本框架。
三、生成式人工智能服务运营者刑事责任承担的正当性证成
经过梳理并分析生成式人工智能产业链条后发现,服务运营者事实于风险控制的枢纽地位,但仍需确证由其承担刑事责任是否正当。 下文将系统论述服务运营者承担刑事责任的正当性,并对基础模型提供者缘何不应为《刑法》第 286 条之一所规制作出回应。
(一) 理论支撑:服务运营者具备保证人地位
保证人地位理论发轫于德国,循沿其发展脉络,保证人地位的判断曾经长期为形式理论所桎梏。 当前形式保证人理论已接近式微,原因之一便是难以解释现代社会复杂多元的义务关系,而功能说的兴起,则可对这一理论困境作出深刻回应。 功能说的理论要义在于,保证人地位不再依赖外在形式要件,而是基于行为人实际承担的法益保护功能或危险源管控功能。 德国的罗克辛(Roxin)教授提出的功能性区分为此提供精确框架:保护性保证人基于对特定法益的保护地位承担义务,监督性保证人基于对危险源的管控地位承担义务。保证人地位“转变为强调风险的判断”,这种功能导向为复杂技术场 景下的义务认定提供灵活而精确的分析工具。
1. 服务运营者具备保护性保证人地位
保护性保证人义务的理论基础在于特定信赖关系的法律化构建,此种信赖超越一般社会期待,体现为制度化的规范依赖。传统民事信赖以合同约定为边界,刑法上的信赖关系则具备法益保护的公法属 性,其违反直接威胁刑法所保护的法益秩序。从前文控制能力分析来看,信赖关系在生成式人工智能服务中呈现结构性深化态势,网络服务的提供本身即向用户传递安全保障的制度信号,用户基于法律 制度的保障信赖选择服务并提供个人数据,服务运营者由此承担相应保护义务。 这种信赖关系的深化程度远超传统网络服务:用户不仅提供静态数据,更将个人隐私、思维模式等深层信息嵌入算法训练过 程,形成不可逆的依赖状态。
制度化信赖的法律意涵在于将技术依赖关系转化为保证人义务关系,《中华人民共和国网络安全法》(以下简称《网络安全法》)第42条等前置法规范将抽象的信赖期待具体化为法定保护义务,信赖关 系获得制度确认而具备强制力。《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第5条确立的“合法、正当、必要”原则进一步强化了这种义务转化,服务运营者对用户信息的处理权限与 保护义务形成对价关系。信赖的破坏不仅损害具体用户权益,更冲击整体制度秩序,其危害性超越个案而具备了侵害公共法益的性质。 制度信赖的公共属性决定了违反行为的刑法可罚性:单个用户信 赖的破坏可能微不足道,但制度信赖的整体坍塌将导致数字经济秩序的根本动摇。
2. 服务运营者具备监督性保证人地位 监督性保证人义务源于对特定危险源的支配地位,支配关系的核心要义在于行为人能够通过技术手段控制危险向损害的转化过程。生成式人工智能技术构成新型技术危险源,其生成内容的不确定性、偏见传播的隐蔽性、恶意利用的便利性均可能引发法益侵害。此种危险源的支配者正是服务运营者,其 对算法危险源的支配关系体现为生成过程中的技术主导权。 算法调用接口的独占性、参数配置的决定 权、安全策略的设计权,使其成为生成结果的实质影响者。这种技术支配区别于传统网络服务的被动中介角色,体现为对危险实现过程的主动控制能力。支配的排他性决定了监督责任的专属性———危险源 的有效管控只能通过服务运营者的技术手段实现。 技术支配转向法律义务需要规范机制的转化,法规范与支配结果发生原因构成的双重标准为此提供理论框架:技术支配提供事实层面的控制基础,法 律规范提供义务层面的要求依据。 前置法的安全管理规定将技术能力转化为法定义务,完成从事实支 配到规范义务的转换。 双重保证人地位的确立完成了从控制能力到刑事义务的理论桥接,然而义务承 担的最终正当性仍需风险社会理论的深层支撑。 (二)治理需求:风险刑法理论为生成式人工智能规制提供依据 风险刑法理论为规范认定服务运营者的刑事责任提供了另一重要证成路径。 此理论聚焦于风险防控的前置化与系统性预防,在技术风险日趋复杂的现代社会治理中具有特殊规范意义。 风险社会理论由德国社会学家乌尔里希·贝克提出,其核心命题是现代社会主要风险已从自然灾害转变为人为技术风险。在此语境下,刑法范式正经历三个方面的根本性转变:首先,从实害结果犯到危险预犯的刑法重心位移。 传统刑法侧重惩罚已造成实际损害的行为,而风 险刑法则将法益保护前置至危险状态,通过设置抽象危险犯、具体危险犯等犯罪类型,实现对现代科技 风险的前置性规制。对生成式人工智能而言,这一转变尤为必要,因其风险往往在实际损害发生前即已形成。 其次,从个体责任主义到系统性责任的结构性转向。 风险刑法将法律责任分配给最具风险控制能力与地位的主体,形成组织型责任归责模式。 在生成式人工智能领域,这种转向能有效应对“有组织的不负责任”特征,避免从基础模型开发到平台应用再到用户使用的责任链条中出现真空地带。最后,从强调报应到注重风险管控的刑法功能重塑。 刑法不再仅是对犯罪的道义谴责工具,更演化为系统性风险治理的规范手段。 对服务运营者的规制,不仅关注对已发生违法行为的惩罚,更注重通过规范其行为来塑造风险防控机制,实现系统性风险治理。
在此基础上,生成式人工智能风险呈现出三个核心特征:风险的社会建构性,技术风险与社会感知之间存在互构关系;风险的层级传导性则涵盖技术层风险(算法偏见、不确定输出)、内容层风险(虚假信息、违法内容)和社会层风险(隐私侵害、社会分化)等多重维度;风险的普遍扩散性则是指生成式人工智能的低门槛特性导致风险社会化蔓延,风险防控紧迫性更高。 在风险类型的具体化层面,生成式人工智能呈现出阶段性风险分布特征。 数据安全风险集中体现在准备阶段,涉及训练数据的违规收集与处理;算法偏见风险主要发生在运算阶段,“机器学习 + 人工标注”的技术架构使人类偏见在算法中倍增传播;知识产权风险则突出表现在生成阶段,涉及生成内容的权属争议与侵权认定。这种阶段性风险分布将对刑法规制提出更高要求,因此,刑法规制必须前移至风险产生阶段,通过预防性义务配置实现有效治理。 刑法规制的前置化自此获得正当性基础。
但是值得注意的是,生成式人工智能领域的风险刑法适用需要明确危险犯的成立界限。 法益侵害的紧迫性判断要求危险状态与损害结果之间存在高度盖然的因果进程,抽象可能性不足以构成危险犯的危险状态。 在生成式人工智能服务中,算法输出的偏差性属于技术特征而非法律上的危险,唯有当偏差指向具体法益侵害时方可构成刑法意义上的危险,刑法方可因此介入。
(三)基础模型提供者不承担信息网络安全管理义务
前文确认了服务运营者承担刑事责任的正当性,但基础模型提供者是否应承担同样责任,仍需进一步厘清。 基础模型提供者与服务运营者在产业分工中地位迥异,功能有别,不能一概施以刑法规制。拒不履行信息网络安全管理义务罪的条文表述蕴含立法者的深刻用意,“信息网络安全管理义务”强调“管理”而非“技术”,这种表述实际旨在通过不作为犯的犯罪形态划分网络治理中的权限分工。管理义务与技术义务存在本质差异,管理义务指向服务运营过程中的安全保障责任,而技术义务指向产品开发阶段的安全设计责任,前者关涉动态服务管理过程,后者则聚焦静态产品质量保证。
立法目的印证了这种区分的合理性。 拒不履行信息网络安全管理义务罪旨在维护网络运行秩序,通过强化服务运营者的管理义务实现网络空间有序治理。 如果将技术开发纳入拒不履行信息网络安全管理义务罪规制范围,就会混淆产品责任与服务管理责任的边界。 保护法益的差异进一步强化了义务区分的必要性。 拒不履行信息网络安全管理义务罪保护的法益是网络信息安全秩序,这种秩序维护有赖于服务运营环节的有效管理。 技术开发环节保护的法益是技术创新安全与产品质量安全,二者在法益内容和保护方式上均有着显著不同。 即使同为网络服务提供者,二者因监管能力与信息关联程度不同,也应承担轻重有序的义务。基于义务性质的本质区分,基础模型提供者与服务运营者的责任边界得以厘清。 基础模型提供者主要承担产品安全义务,确保所开发的技术工具符合安全标准,服务运营者主要承担服务管理义务,负责在服务提供过程中维护网络安全秩序。
进而言之,合理划定责任边界乃罪刑相适应原则应有之义。 基础模型提供者对服务运营环节的风险控制能力有限,缺乏对具体应用场景的实时管理能力。 将超出其控制能力范围的管理义务强加于基础模型提供者,既不符合刑法基本原理,也有违公平正义。 拒不履行信息网络安全管理义务罪作为管理类犯罪,其适用边界应严格限定在具备管理能力的主体范围内。 而技术中立原则是为基础模型提供者提供刑法保护的价值基础。 技术本身的中立性虽不能在个案中阻却犯罪构成要件符合性,但可以在违法性层面作为基于利益衡量原理审查实质违法性的事由。当中立的网络技术既能促进合法利益实现又可能促进犯罪行为实施时,理应进行利益权衡,若技术创新的合法利益远大于可能的法益侵害,该技术行为具有社会相当性,应受到刑法保护。 事实上,基础技术工具本身并不具有违法性,关键在于使用方式选择。 基础模型提供者提供的是中性技术工具,其违法性评价应基于具体使用情形而非技术本身。 将技术工具等同于违法行为,无异于否定技术进步的正当性。 刑法应为技术创新保留必要空间,避免过度规制阻碍科技进步。 责任原则制约预防功能的无限扩张,刑法适用不得超越行为人的责任范围。
需要明确的是,基础模型提供者责任豁免的确立,并非意味着其刑事责任被完全免除。 基础模型提供者仍应承担产品安全义务,确保技术产品符合相关安全标准。 责任豁免仅限于拒不履行信息网络安全管理义务罪等管理类犯罪的适用,基础模型提供者在产品责任法等其他法律框架下的责任并不因此免除。
四、信息网络安全管理义务的具体化与限缩
在研究生成式人工智能语境下的拒不履行信息网络安全管理义务罪适用问题,需先辨析拒不履行信息网络安全管理义务罪的义务性质认定。 对此,目前学界主要存在配合义务说和安全管理义务说两种观点。 配合义务说认为该罪义务的本质是配合国家监管,而非独立承担完全监管责任,刑事义务核心在于对行政责令改正的配合义务。这种观点强调真正不作为犯的义务源于法律明确规定,具有从属性特征,网络服务提供者仅需配合政府监管。安全管理义务说则持截然不同的立场认为网络服务提供者负有协助治理网络环境、维护网络安全的实质刑法义务,强调义务内容而非单纯的行政配合。这种理解方式将义务重心置于网络信息安全保护的实质内涵,而非行政管理的形式要求。 本文坚持安全管理义务说的理论立场,理由如下:第一,基于刑事违法性的相对独立判断,刑法规范明确性要求义务核心内涵应为网络信息安全保护,刑事作为义务应独立于行政管理义务,刑法若完全依附于行政认定,将丧失自身的价值判断功能;第二,这一立场选择也基于义务犯的实质内涵要求,义务犯的核心在于违反特定法律义务,这种义务具有实质性内容,而非仅限于程序性配合;第三,刑法谦抑性的维护需求形成最终考量,防止行政权力通过刑法无限扩张,维护刑法作为最后手段的基本定位,刑法不应沦为行政执法的简单工具,而应保持相对独立的规制逻辑。
(一) 信息网络安全管理义务系行政义务的刑法转化
拒不履行信息网络安全管理义务罪的构成要件并非对行政义务的简单复制,行政义务以管理效率为导向,刑事义务以法益保护为核心,两者在规范目的、适用条件、违反后果等方面存在本质差异。 《暂行办法》确立的行政义务体系,需要经由特定转化机制方能进入刑法规制范畴。
转化机制的理论基础根植于刑法保障法地位的内在要求。 刑法对前置法义务进行重新评价,而非机械移植。 同时,刑法谦抑性的时代内涵要求处罚范围从“限定”转向“妥当”。 而“妥当”的界定标准在于法益保护的实际需要,而非抽象的管理要求。 功利主义的违法性判断进一步明确了转化标准。行为违反规则但保护了更优越法益时,构成正当化事由。在生成式人工智能领域中,技术创新的合 法利益与潜在风险防控之间需要精确衡量。 这种衡量过程决定了义务转化的具体边界。
具体转化标准如下:第一,首要标准是法益重要性。网络安全、数据安全及个人信息保护等重大法 益方可考虑被保护,管理秩序类义务因缺乏直接的法益关联性,不宜进入刑事规制范畴。第二,技术可 行性标准防止义务设定超越现实能力边界,生成式人工智能的技术局限性决定了“记忆”现象仅在特定 条件下发生。服务运营者应承担尽“合理努力”义务,而非绝对防范责任。第三,成本比例性要求义务履行的经济投入与风险防控收益相匹配,功能化归责考量体现了现代刑法的社会治理功能。过度的合规成本将扼杀技术创新,违背刑法促进社会发展的基本使命。第四,明确性标准确保义务内容的可操作性。 模糊的义务边界违反罪刑法定原则,无法为服务运营者提供有效的行为指引,义务的具体化是实 现有效规制的前提条件。筛选过程将以《暂行办法》为主体框架,以《网络安全法》 《个人信息保护法》等既有法律规范为补 充依据。 筛选标准要求义务违反与拒不履行信息网络安全管理义务罪的危害后果具有直接关联性,避 免义务范围的无限扩张。
(二)服务运营者三项核心义务的限缩与构建 基于上述转化机制,服务运营者的三项核心义务得以确立,即内容生成安全义务对应“违法信息大 量传播”,用户数据安全义务对应“用户信息泄露”,犯罪防控义务对应“致使刑事案件证据灭失” + “其 他严重情节”。 1. 内容生成安全义务 内容生成安全义务指服务运营者应当建立恶意提示词识别机制、内容生成安全边界和参数限制、生 成内容安全检测和标识机制,对生成式人工智能内容生成全流程承担预防性安全控制责任,防范违法信 息的生成与传播,对应拒不履行信息网络安全管理义务罪中“违法信息大量传播”的危害结果。 这 种义务的刑法内核在于服务运营者对违法信息生成过程的预防性控制责任,超越了传统内容管理义务 的事后纠错模式,体现为对违法信息产生机制的源头管控。 义务的“安全”属性并非泛化的管理要求,而是针对特定危害后果的精准防范。传统内容管理义务遵循“避风港”原则,网络服务提供者仅在接到通知后承担删除责任。这种被动响应机制适应了传统网络服务的技术特点,即服务提供者对用户上传内容缺乏生成控制能力。生成式人工智能服务的技术架构根本性地改变了这一前提,服务运营者不再是内容的被动传播者,而是内 容的主动生成参与者。内容生成安全义务的积极性特征源于对违法信息防控的时效性要求,违法信息 一旦生成并进入传播环节,其扩散速度与影响范围往往超出事后救济的控制能力。 服务运营者基于对 生成过程的技术掌控,能够在违法信息形成之前实施有效干预,技术能力决定法律责任。内容生成安全义务要求服务运营者建立涵盖输入识别、过程监控、输出审核的全流程防控机制,实现对违法信息生成 链条的系统性阻断。然而,义务边界的合理确定需要兼顾技术发展的阶段性特征,服务运营者承担的是基于现有技术条 件的合理预防义务,而非无条件的结果保证责任。提示词越狱攻击等新型威胁的技术复杂性,决定了义 务履行的客观限度,义务的“安全”内涵应理解为在技术可行范围内最大程度地实现风险防控。
2. 用户数据安全义务 用户数据安全义务指服务运营者应当建立健全用户信息保护制度、全流程数据安全管理制度,对用户数据的收集、处理、存储承担安全保护责任,防范数据泄漏风险,对应拒不履行信息网络安全管理 义务罪中“用户信息泄露”的危害结果。义务的刑法根基在于服务运营者对用户数据的支配性控制地位,这种支配关系通过数据处理和单方管理权得以确立。积极义务的证成逻辑源于数据处理模式的根本变迁。 传统网络服务提供者对用户信息的处理相对静态,主要承担存储传输过程中的安全保障责任。 服务运营者则将用户数据深度嵌入模型训练与推理 计算,用户数据在“服务运行”与“模型训练”两种用途间分化,要求服务运营者建立差异化的授权管理 机制,这种精细化管理要求超越了传统服务的被动响应模式。技术架构的特殊性决定了义务内容的层 次化结构,生成式人工智能中的“记忆” 现象往往发生在文本描述与特定图像具有稳定联系的情况下,训练数据存在意外泄露的内在风险。数据流转过程中,每个节点均可能成为泄露源点,这种系统 性风险要求服务运营者建立涵盖加密脱敏、权限控制、日志记录的全流程防护机制。 最后,数据泄露一旦发生,其传播速度与影响范围往往超出事后救济的控制能力。 服务运营者基于对数据处理过程的技 术掌控,能够在泄露风险转化为现实损害之前实施有效干预。 风险评估预警机制与应急处置措施的建立,体现了从被动响应向主动防范的义务转变。基于此,义务标准应当在用户权益保护与产业发展间寻 求动态平衡,数据安全义务的违反需要达到“用户信息泄露”的危害程度,方能触发刑事责任的认定。 3. 犯罪防控义务 犯罪防控义务是指服务运营者应当主动识别、预防和阻断利用生成式人工智能服务实施犯罪的行为,防范服务被滥用于违法犯罪活动,对应本罪“致使刑事案件证据灭失”与“其他严重情节”的危害 结果。义务依据的规范建构需要回溯至拒不履行信息网络安全管理义务罪构成要件的具体条文。《刑 法》第286条之一第3项明确规定:“致使刑事案件证据灭失”为危害结果之一,第4项“其他严重情节”则为犯罪防控义务提供了解释空间。《关于办理非法利用信息网络、帮助信息网络犯罪活动等刑事案 件适用法律若干问题的解释》第6条第3项将“致使信息网络服务被主要用于违法犯罪”纳入其他严重情节。这一司法解释的实质在于,网络服务一旦沦为犯罪工具,服务运营者即承担阻断义务。《网络安全法》第10条确立的“防范网络违法犯罪活动”义务为此提供前置法依据。传统网络服务的犯罪防控义务奉行被动配合原则。传统网络服务提供者对用户既有内容承担“通 知—删除”责任,本质属于事后纠错机制,生成式人工智能服务的技术架构颠覆了这一机制基础。 算法 生成过程中,服务运营者通过参数配置直接影响内容产出,其技术参与具备了犯罪预防的现实可能。 批 量虚假信息制作、个性化诈骗内容生成、身份伪造工具提供等犯罪模式的技术门槛显著降低,使服务运营者从被动见证者转化为主动供给者。证据保存义务的特殊性植根于生成式人工智能的技术不可逆性,算法生成具备“一次性”特征,各 环节的数据一旦丢失即无法重现。这种技术特性使证据灭失的危害后果具备了不可挽回性,要求服务 运营者建立全流程日志记录机制。义务内容不限于静态数据存储,更包括动态生成过程的实时记录。主动防控义务的核心在于风险源管控责任的承担,服务运营者应当建立异常行为识别机制,对批量生成请求、重复内容输出、明显违法指向等高危模式实施主动监测。识别犯罪风险后,应当及时采取访问限制、服务中断等技术手段,阻断犯罪链条的持续发展。义务边界以技术可行性为限,服务运营者承 担合理注意义务而非绝对担保责任。证据保存义务属于保护性保证人责任,旨在维护刑事诉讼秩序;主动防控义务属于监督性保证人责任,旨在管控技术风险源。
(三)履行标准应依据技术能力差异实行分层配置
责任个别化原则要求刑事责任与行为人控制能力相匹配,超出控制范围的义务设定违背罪责自负原理。服务运营者的技术分工决定了控制能力的层次差异,因此若统一责任标准则缺乏合理性基础。
1. 基于主体类型的责任分层
首先,自主研发型服务运营者对算法设计、模型训练、参数调节等核心环节享有完全支配权,技术自主性使其具备了全链条风险控制能力。 从监督性保证人理论观察,完全控制地位要求承担相应的注意义务,技术优势转化为义务加重的合理依据。 而且举证责任的严格化符合证据距离理论,掌握技术细节的主体理应承担更高的证明标准。 敏捷治理理念进一步强化了这种责任配置,技术领先者在动态治理中承担更高责任具备正当性。其次,技术集成型服务运营者的技术依赖性构成了责任限缩的客观基础,其控制能力主要体现在服务管理层面,对底层技术的支配力相对有限。 然而,技术依赖并非完全免责事由,合理依赖的边界需要严格审查,若第三方模型存在已知缺陷而未设置过滤机制,仍构成注意义务违反。监督选择义务的确立防止了依赖抗辩的滥用,从而确保其在可控范围内承担相应责任。责任分层的效率依据源于风险控制成本的优化配置,自主研发型服务运营者具备更强的技术干预能力,将主要责任配置于此类主体符合最优风险控制者理论。 与此同时,技术集成型服务运营者在服务运营环节仍具备管控优势,分层配置避免了责任泛化与规制空白的双重风险。
2. 基于应用场景的责任梯度
不同应用场景对法益的威胁程度存在质的差异,注意义务标准应当与风险等级相匹配,法益侵害可能性、危害后果严重性与损害可逆性构成风险评估的核心要素。就高风险应用场景而言,严格责任源于重大法益的直接威胁。 如医疗误诊、金融欺诈、新闻失实等风险具备即时性与不可逆性特征,法益侵害的严重程度要求更高的预防义务,比例原则在此发挥约束功能,严格责任需与高风险等级相匹配。基于此,应当引入专业审核机制,因为算法审核在当下难以完全替代专业判断。 就中等风险应用场景而言,应体现包容审慎的监管理念,商业服务、创意设计等应用的风险后果多属于财产性损失,救济手段相对充分,这种渐进式改进机制可以为技术迭代预留合理空间。因此标准安全义务以技术可行性和成本合理性为边界,符合注意义务的合理期待即可。 就低风险应用场景而言,宽松责任应以非公开性为关键前提,学术研究、技术测试等应用的风险认定取决于传播范围限制,公开传播将改变风险等级判断。 创新友好机制可为前沿技术研究保留试错空间,但应确保基础合规义务,以避免完全义务豁免。
欧盟《人工智能法案》第2章第Ⅲ条(3)明确区分了系统提供者(Provider)与部署者(Deployer)的义务分配,第25条规定部署者应确保高风险人工智能系统的适当使用,第26条要求其建立风险管理和质量管理体系。该法案基于四级风险分类(禁止、高风险、有限风险、最小风险)的差异化安排体现了“开发者相对宽松,部署者承担更严格义务”的责任模式,印证了差异化责任认定的合理性。 简而言之,差异化标准的理论价值在于实现了刑法适用的精准化,技术能力差异与风险等级评估的双重考量避免了“一刀切”的粗放处理,同时防止了责任认定的恣意性。
(四)典型案例验证差异化责任认定的有效性
理论框架的实用价值需要通过具体案例的适用检验方能确证。 文首“智绘AI ”案例恰好为差异化责任认定标准提供了典型适用样本,甲公司的刑法评价关键在于对其违反义务的具体认定。对甲公司的刑法评价应从其实质影响力角度展开:首先,甲公司虽依赖第三方模型,但通过灾害信息查询界面的专门设计、“权威确认”等提示语的使用,以及对模型输出内容的直接展示而未添加不确定性标识,实质上增强了虚假信息的可信度和传播风险。 其次,甲公司在监管部门责令建立内容审核机制时,以技术依赖为由拒绝执行,明显违反了内容生成安全义务。 特别是在灾害信息这一高风险应用场景中,义务标准应当更加严格,甲公司应建立专门的事实核验机制和不确定性提示,其未履行此项义务且持续提供服务,符合拒不履行信息网络安全管理义务罪的构成要件。
相较之下,假设某自主研发型服务运营者拒绝为DeepFake技术建立限制机制,此时则呈现截然不同的责任构造。《互联网信息服务深度合成管理规定》明确要求建立人脸识别限制,自主研发型服务运营者基于对核心算法的完全掌控,应承担内容生成安全义务的全部责任。 两种情形的责任差异验证了框架有效性———技术能力决定义务范围,控制程度影响责任轻重。
进而言之,这种差异化认定通过与传统网络服务运营者的对比获得再一步确证。 斗鱼直播案与新浪微博案中的传统网络服务运营者虽因平台上的违规内容受到处罚,但均停留在行政层面。传统服务运营者承担的义务以“通知—删除”为核心,本质属于事后纠错机制,其技术角色局限于内容存储传输,对违法信息生成过程缺乏控制能力。 而服务运营者则通过算法调用直接参与内容形成,角色从被动传播者转化为主动参与者。 “智绘 AI ”案例中甲公司的行为恰好体现了这种技术变迁的应然意涵:即使依赖第三方模型,其主动选择与控制行为仍需承担刑事责任,内容共创特征使传统被动责任标准失去适用基础,差异化框架的必要性得以确证,这种转变并非刑法扩张的恣意结果,而是技术发展的客观要求。
现行监管体系与本文理论框架相互契合,为制度适用提供了保障。 以“灵象智问 AI ”等网站被查处为例,行政监管部门已形成明确的义务认定标准,刑法则坚持最后手段原则:只有在经责令改正而拒不改正、造成严重后果的情况下才启动刑罚。 这种“行政优先+刑法威慑”的衔接机制不仅符合拒不履行信息网络安全管理义务罪的构成要件,也充分体现了刑法谦抑性的基本要求。
五、结语
生成式人工智能服务的刑事规制,表面困境在于主体认定的模糊不清,深层问题实则源于技术变迁对传统刑事责任配置逻辑的根本冲击。服务运营者从“内容传递者”向“内容共创者”的角色嬗变,并非单纯的技术进步,而是数字时代风险分配机制的结构性调整。算法介入内容生成过程,使传统的“避风港”归责原则失去适用基础,刑法必须回应这种技术架构的本质变化。 本文构建的差异化责任认定框架,实质反映了现代刑法从形式归责向功能归责的理论转向。功能说保证人理论的适用,根植于服务运营者对风险源的实际支配能力,而非传统义务关系的形式判断。 这种转向的深层逻辑在于,复杂技术场景下的责任认定需要摆脱条文束缚,转向实质控制能力的判断标准。更为根本的是,生成式人工智能的刑事规制体现了风险社会中公私协同治理的制度需求,传统国家监管模式在面对技术复杂性时力有不逮,必须借助具备技术优势的私主体实现风险的有效管控。 基础模型提供者责任豁免的确立,实质是对技术分工合理性的法律确认,防止刑法规制抑制技术创新的源头动力。因此,差异化责任认定的价值不仅在于解决具体适用难题,更在于为数字时代的刑法治理模式提供一种理论预设。
*本文原文为,载《时代法学》2025年第4期第52页-62页。转载时烦请注明“转自《时代法学》公众号”字样。