原文刊发于《求是学刊》2025年第5期第123-132页。
摘要:面对深度合成服务带来的法律风险,我国在生成式人工智能领域颁布了一系列部门规章,试图在规范产业发展的同时为相关主体设置明确的义务内容,并为其承担相应法律责任提供依据。相较深度合成服务的使用者、内容的传播者以及传播服务的提供者,立法并未就深度合成服务提供者的行为是否要、以及在何种程度上为深度合成可能造成的损害承担责任作出明确规定。随着技术的迭代发展,价值及主体多元性和法律确定性之间的张力被进一步放大,这给依据上位法归责时不同责任主体和责任类型的区隔带来困难。特别是刑事责任的承担,受损法益的确定及其与深度合成服务提供行为之间的关联都是归责过程中需要解决的难题。人工智能技术的复杂机理和飞速发展加剧了立法与司法对于鼓励创新和规制风险的平衡难度。鉴于此,需要对深度合成服务提供行为的规范及不同层级立法之间的逻辑关联进行梳理,通过类型化的归责思路,并在责任划分上考虑比例原则,以实现深度合成服务提供行为责任的确定性,由此实现技术向上向善的深度合成生态塑造。
关键词:深度合成服务;生成式人工智能;归责;责任边界
深度合成服务(deep synthesis)是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。作为人工智能的具体领域,深度合成以人工智能深度学习为方法,以合成逼真内容为目标,广泛应用于影视娱乐、文化教育、通信社交、医疗诊断等行业,体现出巨大的商业和社会价值。与之相伴,深度合成服务被滥用并造成他人及社会公共利益受损的情况同样不容忽视。通过换脸、声音合成等深度伪造(deep fake)技术进行违法甚至犯罪活动的现象已经引起各国重视,并促动专门立法予以规制。从技术中立性上,不论是深度合成抑或带有负面意涵的深度伪造,其本身并非立法动因。其所引发的安全、伦理及社会风险才是立法必要性的体现。这也是促使深度合成服务由技术概念演化为法律概念的原因。针对这种风险,我国近年来出台了一系列部门规章及相应的强制性国家标准,试图通过立法和政策制定明确深度合成服务各相关利害关系方的义务内容。此举对于规范包括深度合成在内的人工智能产业发展,实现技术向上向善起到防患于未然的积极作用。但是,对于深度合成服务被滥用的风险及其造成的损害,相关主体的责任追究则更为复杂。特别是对于深度合成服务提供者,其归责问题不仅关系到个案,而且涉及鼓励创新与风险防控的平衡实现,需要结合现行立法作深入分析。
一、明确深度合成服务提供者义务的立法检视
凡有法律之处,人类的行为在某个意义上就不是随意的,或者说是‘具义务性的’。”义务对于法律,特别是具有强制性的法律责任的确定具有重要的前提性价值。从《互联网信息服务算法推荐管理规定》(简称《算法规定》),到《互联网信息服务深度合成管理规定》(简称《深度合成规定》),再到《生成式人工智能服务管理办法》(简称《生成式人工智能办法》)及《人工智能生成合成内容标识办法》(简称《标识办法》),我国近几年在深度合成领域的立法从产业规范角度都试图明确深度合成服务提供者法定义务的内容。法定义务的明晰既是法院判断服务提供行为合法性的标准,也是对具有违法性的服务提供行为进行归责的前提。由是,现行立法试图通过个人信息保护、生成内容标识以及深度合成内容管理三个方面明确深度合成服务提供者的义务内容,从而为法律责任的承担创设依据。
(一)个人信息保护义务趋于严格
作为深度合成服务的核心功能,AI换脸、声音合成的运用随着技术的日趋成熟而愈加广泛,其背后涉及的个人信息保护问题已然成为立法者密切关注的焦点。生成式人工智能技术的跃进使个人信息保护面临严峻挑战,包括:告知同意规则和最小必要原则因无法在人工智能服务的应用实践中得到有效贯彻而存在被架空、被虚置的问题,个人信息泄露问题空前严重等。由于自然人的人脸、人声信息等生物识别信息属于敏感个人信息,我国人工智能立法对深度合成服务提供者课以严格的个人信息保护义务。在《个人信息保护法》《网络安全法》《数据安全法》等法律规定基础上,《深度合成规定》与《生成式人工智能办法》对深度合成服务提供者的个人信息保护义务作出更加细致的规定。
与此同时,服务提供者还应依法及时受理和处理个人关于查阅、复制、更正、补充、删除其个人信息等的请求。为履行个人信息保护义务,提供人脸、人声等生物识别信息编辑功能的深度合成服务提供者至少应履行两方面义务。第一,深度合成服务提供者应根据《深度合成规定》提示服务使用者依法告知被编辑的个人,并取得被编辑个人的单独同意。全国网络安全标准化技术委员会出台的《数据安全技术敏感个人信息处理安全要求》(GB/T 45574-2025)也以国家标准的形式进一步对个人信息处理者课以相应要求。第二,为加强技术管理,深度合成服务提供者应根据《深度合成规定》依法自行或委托专业机构对具有生成或编辑人脸、人声等生物识别信息功能的模型、模板等工具开展安全评估。前述义务与《个人信息保护法》敏感个人信息处理规则的相关规定高度吻合,是我国人工智能立法精细化的重要体现。
(二)生成内容标识义务渐次细化
为消解深度合成引发的安全和伦理风险,避免导致公众对深度合成作品产生混淆或误认,立法要求深度合成服务提供者履行生成内容标识义务,向公众提示深度合成情况。根据《生成式人工智能办法》,深度合成服务提供者应按照《深度合成规定》对图片、视频等生成内容作出标识。具体而言,深度合成作品的标识可分为两类。第一类是“普通标识”。在一般情形下,深度合成服务提供者应采取技术措施对使用其服务生成的所有作品添加标识,此种标识的添加以不影响用户使用为限。第二类是“显著标识”。此种标识适用于深度合成服务生成的作品可能导致公众混淆或误认的情形。《深度合成规定》进一步以列举方式对服务提供者应当就生成内容进行显著标识的情形作出规定。其共性在于对自然人行为的模拟以及对个人身份特征的显著改变。实践中常见的深度伪造换脸作品即属此类。《深度合成规定》进一步明确,深度合成标识不得被删除、篡改、隐匿。在此基础上,国家网信办等部门联合制定的《标识办法》及配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》对深度合成服务提供者的标识义务作出兼具确定性和实操性的要求。由此,深度合成服务提供者标识义务的内容进一步具体化,为企业合规、行政执法乃至法院裁判提供重要指引。
当然,也有学者认为,在深度伪造等领域,标识义务对减轻违法行为的危害性作用有限。我国尽管已经制定了相关规定和标准,但对于违反标识要求的处罚措施还需要进一步明确,应制定并完善未按要求进行标识行为的界定办法、分类细则以及相应的处罚标准。
(三)深度合成内容管理义务更为严苛
鉴于深度合成服务提供者对生成内容具有较强控制力,安全港规则下的“通知—删除”模式是否能满足人工智能时代保护个人权益和网络空间秩序的现实需求仍有待观察。在此背景下,我国人工智能立法认可深度合成服务提供者应履行内容审查与管理的积极义务。《深度合成规定》和《生成式人工智能办法》均要求服务提供者加强深度合成内容管理,主动履行生成内容审核义务。
需要指出的是,上述部门规章规定的深度合成内容管理义务的合理性与必要性仍存争议。生成式人工智能服务提供者虽然能够对生成内容产生决定性影响,但用户的不当诱导也是违法内容生成的重要影响因素,这一点在学界已有共识。与此同时,生成式人工智能是一条价值产业链,面对生成内容应用的多领域、多主体,服务提供者往往难以实现对生成应用带来的风险的完全控制。据此,仅要求服务提供者而未要求服务使用者承担内容管理义务并不合理。现行法对服务提供者内容责任的规定事实上要求其承担无过错责任,这也被认为对服务提供者而言负担过重。有鉴于此,一些国家的立法更强调内容传播服务提供者的管理义务和责任。例如,英国在2023年出台的《在线安全法案》(Online Safety Act)为保护用户(特别是儿童)免受接触具有危害性内容受到的侵害,规定网络服务提供者需采取年龄验证或年龄估计等措施以确保儿童在正常情况下无法接触到网络色情内容等相关信息。美国于2025年首次以联邦立法形式通过《打击技术性深度伪造在网站与网络上传播以应对已知滥用工具法案》(Take it Down Act, 简称《删除法案》),对传播平台课以“通知-删除”义务并就恶意传播者的行为规定刑事责任,旨在应对非自愿发布的私密影像或利用人工智能制作的深度伪造内容在网站和社交媒体上的传播。
总体而言,基于更为严格的网络内容监管政策,我国人工智能立法对服务提供者的内容管理义务设置也更为严苛。《深度合成规定》和《生成式人工智能办法》等法律试图通过明晰服务提供者的义务内容对深度合成服务提供行为作出引导和规范。据此,深度合成服务提供者在实践中能够合理预期其服务提供行为所应达到的标准,而这也有助于深度合成服务提供产业在法治轨道上健康发展、有序推进。可以认为,现有人工智能立法进展不仅映射出国家对防范化解深度合成所造成风险的高度重视,也是实现技术向上向善目标的题中之义。当然,需要指出的是,对于违反个人信息保护义务而引发的法律责任,《个人信息保护法》《网络安全法》《数据安全法》等上位法在实践中会遭遇作为规制对象的深度合成服务提供者主体身份难于认定等问题。上述立法从不同主体角度建构其责任条款,而深度合成服务提供者落入哪一个主体范畴是关键。从义务内容及责任结果来看,违反生成内容标识义务会引发何种责任也需进一步明确。相比前两种义务,深度合成内容管理义务与深度合成服务提供者联系更紧密,应当成为其归责的主要考量依据。但是,鉴于内容管理义务的严苛性争议仍然存在,违反内容管理义务至何种程度会导致相应责任的考虑因素愈加复杂。由此,从义务内容角度具象归责要件在当前法律体系内仍然存在不少困难。
二、深度合成服务提供行为的归责障碍
然而,在具体归责过程中,特别是对刑事责任的确定、价值及主体的多元性和法律确定性之间的张力被人工智能技术的复杂性进一步放大,由此也导致法律责任的确定与实现面对诸多障碍。
(一)责任边界问题
行政责任与刑事责任边界的划分不仅关乎深度合成服务提供者的经营权益与商业利益,其背后更是涉及鼓励科技创新与规制深度合成风险这对紧张关系的处理与调和。有观点指出,平衡安全与发展的关系是实现生成式人工智能法治化的重要理念,既要反对美国人工智能立法过度自由主义的倾向,也要警惕欧盟人工智能立法过度监管的问题。对此,也有观点认为我国人工智能立法应当以激励创新为先。为实现专利优化、促进科技创新,我国对人工智能技术的支持力度应大于规制力度,需要适度容忍人工智能技术应用带来的风险。以ChatGPT为例,其代表的生成式人工智能的主要功能在于提供信息内容服务。即便此类服务存在缺陷,通常也不会危及人的生命、健康等重大利益,产生的风险也不会直接作用于人并产生损害。法院认定服务提供者过错应以“现有技术水平”为标准,无论是用户输入数据环节还是人工智能输出环节,现有技术都难以实现对虚假信息的有效甄别。国外也有学者认为,人工智能生产者应否承担刑事责任很大程度上取决于事件的发生是否超出“容许风险”的边界。这一边界会随着技术的发展和成熟而不停移动。在某项技术尚属新兴科技的阶段,不宜轻易动用刑法。同时,也有观点强调该领域立法(特别是刑事立法)应以规制风险为本。人工智能是风险社会中的重要风险源,在对涉人工智能犯罪进行刑事责任分配的过程中,应当以防控风险为出发点,同时兼顾对科技创新的激励和保障,并在此基础上准确厘定人工智能产品设计和制造者的刑事责任以及人工智能产品使用者的刑事责任。上述观点体现了生成式人工智能领域激励技术创新与防范安全风险之间平衡的难度。前者期待立法、执法、司法对人工智能服务提供行为和服务使用行为秉持宽容态度,后者要求依法严惩涉生成式人工智能违法犯罪行为。对此,也有国外学者提出,对ChatGPT等人工智能服务提供者的责任追究应将其对人工智能技术发展的潜在影响纳入考虑范围。如果取消服务提供者的责任豁免,将会导致服务提供者守法成本过高,进而削弱其研发新技术、扩大经营规模的动力和积极性,不利于鼓励人工智能技术发展。因此,理想的法律责任设计不应使服务提供者完全免责,同时使其承担的责任与产品造成的社会危害程度相称。
相比于民事责任和行政责任,刑事责任的追究不仅更为严厉,而且意味着涉案行为具有最大程度的可谴责性。在国家政策鼓励人工智能技术创新的背景下,立法、司法层面对刑法谦抑性的呼唤无疑更加强烈。但另一方面,倘若刑法介入的标准过于严格将导致深度合成服务提供者和使用者的违法成本过低,不足以威慑服务提供者和使用者,从而不利于实现深度合成服务生态系统的健康发展和良性循环。由此,平衡“保护”与“发展”所涉考量因素的复杂性加大了划定刑法规制边界的难度。深度合成服务提供行为刑事归责的尺度更难拿捏。具体而言,民事责任与刑事责任的界分涉及自然人肖像权、名誉权以及个人信息权益等私权保护。有学者指出,在轻微的刑事犯罪与较严重违法行为之间存在模糊地带。在轻罪范围内,如果民事责任的承担足以达到维护社会秩序和规范行为的效果,法院可以排除刑法的适用,考虑优先适用民法。行政责任与刑事责任的边界厘定则涵盖消解个人信息安全风险、信息内容风险以及数据安全风险等多重关乎社会公共利益的考量。而行政治理的本质在于管理而非惩治,其优势在于效率优先,并通过权力运行的灵活性、积极性与主动性来实现。立法就深度合成服务提供者课以的标识义务试图从公法角度建构起对公民的隐私保护,但从与刑法规范的衔接来看,还存在理念上进一步沟通的必要。可见,在深度合成技术发展过程中,有关创新和安全优先性的价值观差异、对不同类型责任制度功能的评价差异、就受保护法益重要性的不同看法等都会影响不同责任边界的划定。
(二)刑事可归责性问题
深度合成服务提供者的刑事归责因服务提供行为和服务使用行为的牵连关系而更具复杂性。有观点认为,现行刑法对深度伪造的处置侧重于打击深度伪造产业链的上游和下游,将深度伪造的刑法评价依附于后续行为的刑法评价,忽略了深度伪造的独立危害性。我国人工智能立法对深度合成服务提供者、技术支持者以及使用者的职责划分并不明确。鉴于深度合成服务应用场景复杂多元,其可能被服务使用者用于实施各种各样的犯罪行为。以使用深度合成服务生成“换脸视频”为例,服务使用者可能构成的犯罪包括但不限于:编造、故意传播虚假信息类犯罪,诽谤罪,敲诈勒索罪,诈骗类犯罪或盗窃罪,寻衅滋事罪,传播淫秽物品罪,组织播放淫秽音像制品罪,宣扬恐怖主义、极端主义、煽动实施恐怖活动罪,制作、复制、出版、贩卖、传播淫秽物品牟利罪等。有学者以人工智能产品是否具有辨认能力和控制能力为依据,将人工智能产品划分为强人工智能产品和弱人工智能产品,并认为弱人工智能产品仅为行为人实施犯罪的工具。值得探讨的是,在用户滥用深度合成服务实施违法犯罪行为的情形下,服务提供者应承担何种责任?
《深度合成规定》和《生成式人工智能办法》明晰深度合成服务提供者义务的努力值得肯定,但当前的规则供给仍然无法满足未来审判实践对深度合成服务提供者进行刑事归责的司法需求。按照罪刑法定要求,刑事审判实践中法院对犯罪嫌疑人定罪量刑的前提是现行法对具有刑事可归责性的行为业已作出清晰界定。然而,相较深度合成服务使用行为,深度合成服务提供行为的可归责性更难认定。从主体来看,深度合成犯罪可能涉及深度合成服务提供者、深度合成服务技术支持者、网络信息内容传播服务提供者(如平台、应用程序)、深度合成服务使用者等多重主体。就违法行为的确定性而言,后两者行为的危害性更易观测。美国《删除法案》即主要针对此二者的行为。从主观方面来看,在深度合成服务的产业化背景下,深度合成服务提供者与下游滥用深度合成服务的使用人因缺乏犯罪意思联络很难被认定为具有共同犯罪故意。另外,尽管《深度合成规定》《生成式人工智能办法》《标识办法》等部门规章对深度合成服务提供者的义务作了细化,但其更多是从产业规范角度进行的管理性规定,而并未对被保护法益作明确界定。并且,这些规定本身也不能作为定罪量刑的依据。行政法规定的注意义务不必然等于刑法意义上的注意义务。即使在具体罪名的考量上,如拒不履行信息网络安全管理义务罪,法院对所涉义务内容的认定依据也仅限“法律和行政法规”,而不包括部门规章。从这个意义上来说,深度合成服务提供行为的刑事可归责性仍然存在不确定性。
三、深度合成服务提供行为归责的类型化
我国对深度合成服务提供行为的归责应当在区分受损法益的基础上采取类型化进路,在“行为-义务-法益-责任”的逻辑框架下实现责任划分的确定性和精细化,同时在责任严苛程度上考虑比例原则。
(一)民事责任
以ChatGPT为代表的深度合成服务的提供和使用涉及知识产权侵权问题,此类侵权行为多发生于数据训练阶段和文本生成阶段,其中对著作权的侵害体现得尤为明显。由于服务提供者在技术研发的过程中通常会将大量源自互联网的信息和内容作为训练数据“投喂”给ChatGPT,其中可能包含他人享有著作权的作品。此类未经授权的作品随即进入生成式人工智能的语料库,为人工智能应用所存储、学习和分析,进而被人工智能模型所“吸收”和“内化”。在内容输出端,前述涉及他人著作权的作品被“打碎”后经过重组,被ChatGPT整合成用户输入问题的答案而提供给用户。而在整个过程中,著作权人不仅无法获得相应的报酬和财产权益,而且面临其作品完整性被破坏的严重威胁。深度合成算法技术的底层逻辑致使其不可避免地需要利用原有作品,并衍生出新型的“深度合成物”,从而构成对著作权法的挑战,包括深度合成物难以纳入著作权法所规定的“作品”范畴,合理使用制度难以判定对原作品的深度合成行为,以及现行著作权法难以协调深度合成“作品”与原作品的保护边界等。
《生成式人工智能办法》明确要求服务提供者开展训练数据处理活动不得侵害他人依法享有的知识产权。在此基础上,全国信息安全标准化技术委员会发布的《生成式人工智能服务安全基本要求》在对“训练语料”这一术语作出界定的基础上,要求强化语料来源管理,充分过滤全部语料中的违法不良信息。具体而言,服务提供者兼具内容生产者与平台管理者的双重身份,负有审核等安保义务。其违反安保义务,原则上应当承担具有间接侵权责任属性的相应的补充责任,而在“知道或者应当知道”的情况下,服务提供者应当承担连带责任,乃至惩罚性赔偿责任。此外,深度合成服务提供行为的民事责任还主要体现在对他人人格权的侵害上。例如,深度合成服务提供者通过提供“换脸技术”生成破坏他人肖像完整性的视频,可能构成肖像权侵权。
(二)行政责任
除了民法层面的私权救济,如果深度合成服务提供行为同时构成对网络秩序甚至社会秩序的破坏,相关部门应当依法追究行政责任以维护社会公共利益。对于违反个人信息保护义务的深度合成服务提供行为,《个人信息保护法》第66条、《网络安全法》第64条均可适用。《个人信息保护法》旨在保护个人信息权益,使数据免受商业企业和政府组织的无端剥削。《网络安全法》则是出于网络安全保障的目的保护自然人个人身份的各种信息。但应指出,在深度合成服务提供行为的语境下,两种责任存在竞合的可能,而实践中如何处理此类责任竞合问题尚需观察。与此同时,《网络安全法》第68条、第69条以及《数据安全法》第45条可适用于违反网络信息管理义务、数据安全保护义务的服务提供行为的责任追究。虽然法律责任设计的针对性仍有进一步提升的空间,但不可否认,现有行政责任体系基本能够对危及网络安全秩序的深度合成服务提供行为作出有效应对,对防范大规模侵害个人信息的风险颇有助益。
此外,包括《深度合成规定》《生成式人工智能办法》《标识办法》在内的部门规章从行政法的角度对深度合成服务提供者的义务作了渐次细化的规定。服务提供者的义务也由此逐步体系化,具体体现为:以标识义务为核心,其作为直接且关键的治理抓手,能够有效确保生成内容的透明度与可追溯性;同时,辅以审核监督义务与协助义务,构建起从内容生成、传播到责任追溯的全流程监管机制,为生成式人工智能内容的规范化治理提供系统性保障。由此,立法意在通过明确的义务性规定为规制深度合成服务行为提供依据。然而,也有学者认为,鉴于深度合成服务提供者与相关主体的边界不清、义务违反的法律后果不清、罚则不清等问题,应当在高位阶立法中明确规定行政处罚规则。例如,对于未履行添加标识义务的技术服务提供者、未设置核验机制和标识功能的内容传播服务提供者,应当以法律、行政法规的形式明确具体主管部门给予警告、通报批评、责令限期改正等权限,并根据行业发展情况和具体违法情节,合理设置罚款、限制开展生产经营活动、责令停产停业等行政处罚的要件与限度。
(三)刑事责任
刑法的谦抑性在深度合成服务提供行为的归责上应同样适用。有观点认为,《深度合成规定》关于“构成犯罪的,依法追究刑事责任”的条文意在仅处罚造成严重后果或有其他严重情节的行为,如引起信息接收者死亡、重伤或重大财产损失等实害后果,或者对大量用户散布虚假的险情、疫情、灾情、警情、恐怖信息等,而关于严重后果或其他严重情节的评价标准,可以借鉴欧盟《人工智能法》的处罚规定,考虑包括违法“行为及其后果的性质、严重程度和持续时间”“人工智能系统的目的”“受影响者的人数及其所受损害的程度”“适用于案件情节的任何其他加重或减轻处罚的因素,如直接或间接从侵权行为中获得的经济利益或避免的损失”等因素,并将严重情节的评判标准规定到刑法或相关司法解释中。在数据犯罪领域,亦有观点认为,现行刑法未对公共利益数据、国家安全数据等关乎重大利益且非法处理行为容易产生重大风险的公法益数据给予更高程度的保护,实践中有必要针对此类数据增设新罪。不论是否通过设立新罪进行规制,从受侵害法益的特性考虑深度合成服务提供行为的责任类型及程度都有其必要性与合理性。
例如,从深度合成产业链的角度,专门提供深度伪造技术服务的人员,为他人提供虚假注册、刷脸支付等黑产服务,帮助他人实施诈骗等违法犯罪活动可能构成非法利用信息网络罪、帮助信息网络犯罪活动罪等独立罪名。再如,就著作权侵权而言,如果数据提供者、开发者在获取预训练数据、优化训练数据阶段实施了非法复制他人作品的行为,即使后续作品的传播在人工智能平台进行也无法阻断对开发者的归责,数据提供者、开发者应当构成侵犯著作权罪。需要注意的是,作为触发刑罚启动条件的“违法所得数额较大”这一要件无法对涉案行为的法益侵害作出准确衡量。前述复制品数量标准亦是如此。另外,在深度合成服务提供行为的刑事归责中,且不论在很多情况下具有违法性的“复制”行为的直接实施主体并非服务提供者;即便服务提供者未尽知识产权侵权识别义务,令其承担刑事责任仍可能过于严苛。有观点认为,生成式人工智能背景下著作权的刑法保护要适度,可以先从行政法和民法角度进行救济,寻求更加综合和灵活的解决方案。再者,从技术发展的角度来看,同质化风险可能给归责带来麻烦。如果人工智能的底层逻辑相同,那么随着时间的推移,不同公司的人工智能生成作品可能会趋近,最终引发版权争端。由此,著作权侵权责任的认定也将变得更加复杂。事实上,《民法典》和《著作权法》已经构筑起著作权侵权引发惩罚性赔偿的民事责任体系,并且后者还专门规定了针对该行为的行政责任。在这种情况下,对于有侵害知识产权之虞的深度合成提供行为,刑事责任的适用应当更为审慎。
结语
深度合成服务的广泛应用及其滥用所引发的法律后果使得人工智能技术迭代过程中的风险受到高度关注。对此,我国立法率先做出反应并通过细化深度合成服务提供者的义务确立了对风险严格管控的趋向,并为产业健康发展建立规范体系。深度合成服务提供者法定义务的明确有益于规范其行为并为法律责任的确定提供参考甚至依据。但是,综合《生成式人工智能办法》《深度合成规定》《标识办法》等相关立法及政策文件的义务性规定来看,囿于深度合成服务提供者主体身份在相关上位法中的模糊性以及深度合成服务提供行为与法律后果之间因果关系的不确定等因素,义务性规定尚不足以为深度合成服务提供行为的归责提供明确依据。而在行为的归责过程中,价值及主体的多元性和法律确定性之间的张力被人工智能技术的复杂性进一步放大,由此也导致法律责任的确定与实现面对诸多障碍,包括:不同类型责任之间的边界有待廓清;深度合成服务提供者与使用者、传播者及网络传播服务提供者等其他利害关系方的法律责任尚需厘定;深度合成服务提供行为的刑事可归责性难于认定。这些现实困境对立法规定的实施提出了挑战。而人工智能技术的复杂性进一步加剧了法律在鼓励创新和规制风险上的平衡难度。有鉴于此,我国对深度合成提供行为的归责应当在区分受损法益的基础上采取类型化进路,在“行为-义务-责任”的逻辑框架下实现责任划分的确定性和精细化,同时在责任严苛程度上考虑比例原则。在各国对人工智能立法探索方兴未艾的当下,我国的立法在实现技术向上向善理念上作出有益的尝试,为规范深度合成服务产业发展乃至推进全球人工智能治理都有积极贡献。