郑曦 朱溯蓉:生成式人工智能的法律风险与规制

选择字号:   本文共阅读 6895 次 更新时间:2023-12-04 22:52

进入专题: 生成式人工智能   ChatGPT   风险规制   立法模式  

郑曦   朱溯蓉  

 

【摘要】以ChatGPT为代表的生成式人工智能的出现引发了新一轮有关人工智能风险规制的讨论,包括我国在内的世界各国均采取积极的立法、执法措施应对其滋生的社会风险和法律问题。通过对生成式人工智能生成机制的分析,可以发现其中存在数据、隐私、技术垄断和知识产权纠纷等问题,欲防止上述风险的扩大和加剧,应秉持风险预防原则,防止过度干预技术发展,并遵守相关的伦理和道德准则。在此基础上,治理策略的选择应突破“垂直迭代”立法模式,强化治理机构之间的协调性和能动性,加强数据权益的监管和保障,积极应对生成式人工智能带来的诸多风险。

【关键字】生成式人工智能;风险规制;立法模式

 

一、问题的提出

2022年11月,美国OpenAI公司发布了名为“ChatGPT”的聊天机器人程序。较之以往的人工智能,ChatGPT能够理解和学习人类的语言进行对话,并根据上下文进行互动,真正做到像人类一样交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。以ChatGPT为代表的新一代人工智能,即生成式人工智能(GenerativeAI),不同于过去的以分类和回归为目标任务的人工智能,是一种可以创建各种数据,例如,图像、视频、音频、文本和3D模型的人工智能系统。

生成式人工智能在实现其潜在创造力的同时,也滋生出诸多风险和问题。例如,部分用户表示ChatGPT的生成内容存在虚假性,还有用户表示ChatGPT存在对个人数据进行非法编造与错误加工的情况。为了维护社会秩序,保障公民权利和安全,2023年7月,国家互联网信息办公室联合七部门发布了《生成式人工智能服务管理暂行办法》,旨在对生成式人工智能服务展开全方位的综合治理。与此同时,一些外国政府、组织也在积极寻找治理生成式人工智能的可行方案。例如,欧盟隐私监管机构创建ChatGPT工作组,准备迈出生成式人工智能政策制定的第一步。

此外,国内外关于生成式人工智能的相关学术研究也正如火如荼地开展。国内相关法律研究呈现出明显的分段性。第一阶段,2017年至2022年上半年,该阶段的研究较单一且集中,重点探讨人工智能生成物的知识产权问题:一方面,讨论人工智能生成的内容在著作权法中的定位,以及对著作权法的冲击;另一方面,探究生成式人工智能给专利制度带来的挑战,以及专利法应该如何修正以应对该种冲击。第二阶段为2022年下半年至今,相关研究呈现出“百花齐放”的态势,涵盖生成式人工智能风险规制、类案裁判、数据和内容安全、责任承担、伦理道德等方面。国外学理研究则围绕以ChatGPT为代表的“新一代”生成式人工智能,分析该类人工智能的风险类别、级别,探讨其对诉讼律师的影响,以及相关的版权问题、侵权责任追究等。

尽管关于生成式人工智能的法律规制研究逐渐增多,但仍存在研究深度和广度不均衡、实践指导不足、缺乏案例和数据支撑等问题,造成整体研究暴露出前瞻性过度、现实性关注不足的缺陷。因此,本文在充分考虑生成式人工智能风险现实化和紧迫性的基础上,深入剖析其中存在的数据、隐私、技术垄断和知识产权纠纷等问题,并提出相应的治理策略。通过对这些问题的细致探究,提供更全面、实用的指导和解决方案,以应对生成式人工智能带来的风险。

二、生成式人工智能带来的风险和挑战

新一代生成式人工智能的生成机制可以概括为以下三个阶段:预训练、微调,以及强化学习。以ChatGPT为例,预训练阶段的核心任务是“学会说话”,即利用自回归等无监督训练策略,对模型进行海量无标注数据的喂养,使其学习到数据本身蕴含的丰富的语言知识,实现文本续写功能。通过这样的训练,模型学会了人类语言文本的组织规律。微调阶段旨在实现“含义理解”,即利用人工标注的数据集进行有监督训练,引导人工智能向人类期望的方向作答。强化学习阶段进行“反馈优化”,首先,收集对比数据并训练奖励模型(奖励模型是一个符合人类评价标准的模型);其次,利用奖励模型不断迭代优化自身输出结果。通过对生成式人工智能底层逻辑的简单分析,其所带来的现实且紧迫的风险与挑战主要包括以下三类:

(一)数据偏差与数据滥用风险

第一,生成式人工智能在数据收集和标注过程中存在风险。一方面,训练数据来源不均衡,且标注数据可能存在偏差。这种情况下,生成式人工智能算法可能会学习到人类偏差,最终损害生成式人工智能模型在种族、性别、年龄、语言、职业、地理等方面的公平性。例如,ChatGPT的训练数据集96%来自英语文本,这可能导致在响应其他语种指令时存在潜在的意识形态偏差。此外,用户与有偏见的生成式人工智能进行交互可能会感到被冒犯或受到伤害。例如,如果用于训练文本生成模型的数据集主要针对男性,此时数据集缺乏多样性,其生成文本可能会表现出对女性的偏见和排斥。这样的输出可能会进一步加剧性别不平等、侵害女性权益。另一方面,生成式人工智能通常需要大量的训练数据,而这些数据集可能包含未经授权的数据,例如,通过爬虫等方式从互联网上获取的信息,而未经授权的网络爬取行为可能违反《中华人民共和国网络安全法》中关于网络安全运行和网络信息安全的相关规定。

第二,生成式人工智能在运行和使用过程中存在数据滥用和泄漏风险。根据生成式人工智能的运行机制,不难推知,其会利用交互信息进行迭代学习,以不断提升和优化性能。首先,对个人信息而言,根据《中华人民共和国个人信息保护法》(下文简称个人信息保护法)的规定,个人信息处理者在符合特定情形时方可处理个人信息,但期望生成式人工智能服务提供者在处理个人信息之前均取得个人同意几乎是不现实的,知情同意原则无法有效遏制个人数据被滥用的风险。其次,潜在的犯罪分子能够以相对较低的成本收集用户信息,再利用上述信息实施犯罪。再次,人们可能会在与生成式人工智能交互中不经意透漏商业信息,甚至是商业秘密。最后,生成式人工智能与搜索引擎的集成式开发模式将会加剧数据滥用风险。以NewBing为例,NewBing是ChatGPT与搜索引擎融合后的生成式人工智能,它引入了新的搜索范式,从单纯的搜索任务转变成搜索与生成式任务相结合的运行模式。在该种模式下,尽管搜索结果的准确性和相关性方面得到了突破式进展,但也增加了个人信息被滥用的风险,因为该种运行机制下使用者更容易获取他人的公开信息。

第三,生成内容的可信度存在偏差。尽管生成式人工智能的生成能力取得了显著的进步,但其在生成完全准确、真实和可靠信息方面的能力依旧存疑。除此之外,利用生成式人工智能编造虚假信息牟取个人利益的行为也频频发生。例如,在最近侦破的“洪某弟利用科技手段编造虚假谣言信息,并在互联网大肆散布”一案中,嫌疑人便是利用了ChatGPT编造虚假信息。

(二)隐私威胁和合规性问题

生成式人工智能在交互过程中存在隐私泄漏风险。生成式人工智能在交互过程中,可以收集用户的历史对话和多模态意图,这些信息不仅能供其自身学习和训练,还可能被用于预测用户的偏好,绘制个人资料等,由此可能侵害个人隐私。此外,在交互过程中,利用生成式人工智能的“弱点”来套取隐私信息的现象也十分严峻。开发者在部署生成式人工智能模型之前,通常会制定严格的规则,以防止有害内容的产生和抵御隐私泄漏的风险,但通过“角色扮演”“提示攻击”和“反面提问”等方式能够欺骗生成式人工智能泄漏敏感信息,甚至执行未经授权的命令。

生成式人工智能在数据收集过程中可能会损害个人隐私。生成式人工智能依赖大规模数据集的喂养,数据来源包括且不限于互联网、第三方机构和个人用户。与传统的人工智能模型相比,生成式人工智能模型在训练和部署阶段的隐私威胁更加严峻。一方面,生成式人工智能为了提供高质量的输出,通常需要用户提供多样态的输入数据,这些数据很可能是私密且敏感的。另一方面,互联网上留存的公开信息可能存在记录不准确,更新不及时,以及内容涉密等问题。

鉴于生成式人工智能的记忆属性,个人隐私威胁问题变得更加突出。最先进的语言模型(LanguageModel,LM),其参数可扩展到数万亿个,并且需要在大型文本语料库上进行预训练,预训练得到的模型胚子需要利用特定领域的数据集进行微调以适应下游任务。在训练过程中生成式人工智能便将上述数据留在“记忆深处”,给允许使用敏感数据用于模型训练的数据所有者带来了潜在的隐私威胁。例如,人们可以通过与原始数据相关联的数据反推获得生成式人工智能记忆中的隐私数据和敏感数据。此外,生成式人工智能模型具有保留或记忆训练数据信息的能力,导致敏感数据所有者无法有效行使数据删除权、被遗忘权等权利。

(三)技术垄断风险与知识产权纠纷

生成式人工智能可能引发技术垄断风险。美国《谢尔曼法》规定,某公司拥有相关市场的高份额,并且其在相当长的一段时间内为其他企业进入该市场设置壁垒,则推断该企业具有垄断能力。具有垄断能力的企业,不仅拥有显著的市场份额,而且处于高市场壁垒之内,该类企业通常具有较高的垄断风险。生成式人工智能的研发通常需要海量的训练样本和强大的计算能力,而这种投入不仅需要雄厚的经济实力,更需要坚实的市场支配力和较强的科技实力,因此生成式人工智能的研发领域极易出现技术垄断风险。技术垄断是指在一定空间时间范围内对某些技术完全占有并享有垄断收益的状态。技术垄断风险则指单个占主导地位的公司或组织利用其市场力量来控制和操纵技术生产和分配的可能性。以ChatGPT的开发为例,OpenAI公司自成立之初就以GPT语言模型为研发中心,但模型性能一直表现不佳。直到2019年,获得微软(Microsoft)的投资与合作后,其GPT语言模型如获新生,此后发布的GPT-2、3、3.5和GPT-4在准确性和交互性上取得了显著的优化。2023年,微软将ChatGPT分别融入搜索引擎必应和操作系统windows,开发了NewBing和Copilot等生成式人工智能应用。微软逐渐在生成式人工智能领域占据市场优势地位。一方面,微软自身具有充裕的资金和技术实力,相关市场份额占比极高;另一方面,微软拥有ChatGPT的所有接口,可能会为其他企业开发相关的生成式人工智能设置市场壁垒。此外,这种垄断还将滋生个人隐私风险和数据安全风险。因为,任何一家以研发生成式人工智能为目标的企业,一旦占据市场主导地位,也将获得对大量数据的集中控制权。

生成式人工智能在文本创作、图像设计、视听资料编辑等领域中表现突出,对现有的知识产权法律体系带来了挑战。在数据收集阶段,存在侵犯著作权、商标权等知识产权纠纷,如前文所述,不再赘述。此外,随着大型人工智能生成模型的研发,人工智能生成内容的知识产权归属面临新的法律挑战。生成内容通常由预先存在的数据和新的创意元素混合而成,但这两者的界限十分模糊,法律界对究竟应该由谁拥有人工智能生成内容的知识产权存在争议。美国版权局曾于20世纪末提出一项开创性的举措,就是出版由计算机“创作”的“作品”,并且将Racter登记为《ThePoliceman’sBeardisHalfconstructed》的作者。与此相反,北京互联网法院审理的“北京菲林律师事务所诉北京百度网讯科技有限公司侵害作品著作权”一案中,该案判决认为由计算机软件生成的内容不能构成作品,计算机软件研发者和软件使用者均不能以作者身份进行署名。

由此可见,尽管生成式人工智能构建了更高智能化的学习模型,但同时也引发了更多的社会风险和法律挑战。

三、对生成式人工智能的初步规范

生成式人工智能具备相当的创造力、显著的效率和生产力,但其也滋生出诸多社会风险和法律问题。为了维护社会秩序,保障公民权利和安全,国内外有关部门在监管层面都对其予以高度重视,并通过一系列的法案规制其可能滋生的风险。

(一)国外的相关规定

生成式人工智能在全球范围内急速升温的同时,包括OpenAI首席执行官萨姆·奥尔特曼(SamAltman)在内的多位人工智能科学家都对生成式人工智能可能存在巨大的社会风险和法律风险表示担忧,关于生成式人工智能监管的讨论在世界各地陆续开展。

欧盟一直十分关注人工智能领域的治理活动。面对生成式人工智能的问世,一方面,欧盟成员国积极采取执法措施应对已经暴露的现实风险;另一方面,欧盟也在积极推进相关立法工作,以期集思广益,制定切实有效的监管规定。例如,2023年6月,欧洲议会通过的《人工智能法案》(AIAct)指出,像GPT这样的生成基础模型必须遵守额外的透明度要求,以防止其生成非法内容。此外,法案还规定,在生成式人工智能服务的数据获取方面,必须遵守版权保护等相关法律要求的摘要。

美国联邦现行立法和行政文件,大多是关于人工智能治理的,而非针对生成式人工智能的规定,且以自愿性、建议性为基调。例如,美国商务部下设的国家远程通信和信息管理局(NTIA)在2023年4月发布了一项关于人工智能的征求意见稿(AIAccountabilityPolicyRequestforComment),征求意见通知中指出,“推动可信赖的人工智能”一直是联邦的一项重要目标,其期望在征求意见的基础上,起草并发布一份关于人工智能问责政策的报告,以构建一个人工智能保障的生态系统。

澳大利亚政府宣布建立负责任的人工智能网络,以应对包括ChatGPT和Bard在内的聊天机器人带来的危害。韩国国会科学、信息通信技术、广播和通信委员会2023年2月通过了一项拟议立法,旨在制定《人工智能产业促进法和建立可信赖人工智能的框架》,该法案为建立人工智能道德准则提供了法定基础。加拿大隐私专员办公室对生成式人工智能(GAI)对隐私权造成的影响展开调查,怀疑其未经同意收集、使用和披露个人信息。

(二)国内的相关规定

近年来,我国积极推进人工智能领域的相关立法工作,形成了多层级、多维度、软法和硬法相结合的综合治理体系。

当前我国对生成式人工智能的监管,宏观上有国家政策、人工智能白皮书、国标及团体标准等引领和指导生成式人工智能健康发展。如国务院2017年7月8日发布的《新一代人工智能发展规划》、国家新一代人工智能治理专业委员会2019年6月17日发布的《新一代人工智能治理原则——发展负责任的人工智能》等相关文件,为推进人工智能健康发展,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展提供了有力支撑。2022年6月30日由中国电子工业标准化协会正式发布的《人工智能深度合成图像系统技术规范》确立了深度合成图像(含视频)系统的框架、技术要求等内容,该标准可有效规范深度合成图像系统的功能和性能,有助于推动计算机视觉领域发展的可靠性、安全性和规范性。

微观上,从中央到地方,涵盖算法、数据、深度合成、生成式人工智能等多维度的法律法规,具有中国特色的生成式人工智能治理体系已经初具规模。国家层面,2019年,由国家互联网信息办公室联合其他部门发布的《网络音视频信息服务管理规定》中要求网络音视频服务提供者对使用者利用音视频生成技术制作、发布、传播谣言的,应及时采取相应的辟谣措施。同年,国家互联网信息办公室发布的《网络信息生态治理规定》规定网络信息内容生产者、网络信息内容服务平台不得利用网络和相关信息技术实施侮辱、诽谤、威胁、散布谣言以及侵犯他人隐私等违法行为,损害他人合法权益。2021年通过的《中华人民共和国个人信息保护法》《中华人民共和国数据安全保护法》用于规范和约束相关技术收集、分析、储存和使用个人信息与数据。同年,互联网信息办公室联合其他部门发布的《互联网信息服务算法推荐管理规定》(下文简称《管理规定》)中明确要求利用生成合成类等算法向用户提供信息应该遵守本法的相关规定。2022年国家互联网信息办公室等部门联合发布的《互联网信息服务深度合成管理规定》(下文简称《深度合成管理规定》),对生成服务的数据收集和技术管理方面提出明确要求。2023年7月,国家互联网信息办公室发布了《生成式人工智能服务管理暂行办法》(下文简称《办法》),针对生成式人工智能展开全面治理。地方层面,2022年9月,上海市人大常委会发布了《上海市促进人工智能产业发展条例》,2022年9月,深圳市发布了我国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》(2022年11月1日起施行),标志着各地区开始积极探索具有地域特色的人工智能治理方案。

(三)目前规制的不足

近年来,我国发布了一系列有关人工智能治理的规范,甚至在特定类型和应用的治理上领先于其他国家,但总体上看,目前的监管体系仍存在诸多漏洞与不足。

“垂直”倾向的治理策略,导致监管主体过多,难以形成治理生成式人工智能风险的合力。世界范围内治理人工智能的策略大致分为两类:水平治理和垂直治理。水平治理即横向方法,是由监管机构制定一项法规,涵盖人工智能可能产生的多种影响,通过该法案实现全面治理。典型的如欧盟制定的《人工智能法案》(AIAct)。垂直治理即纵向办法,是由政策制定者针对不同类型的人工智能应用和产品制定不同的法规。我国的规制体系总体上是“垂直”倾向的,特定领域特殊立法。虽然“垂直”立法能够确保人工智能立法的专业性,有效减轻不同人工智能技术和应用造成的特定危害,但“垂直”立法不仅成本过高,而且可能会削弱监管合力。一方面,过多主体参与治理,增加了立法、执法机构之间的协调难度。另一方面,不同主体基于不同的利益驱动,监管中可能存在竞争与互相推诿的情形。迭代式的立法模式下,纵横交错的法律规范之间可能存在一定程度的冲突与抵牾,导致生成式人工智能治理的有效性和适当性大打折扣。

迭代式的立法模式是指,当我们发现一项现行的法律规范不能有效应对新生的人工智能产品时,就通过发布新的法规来填补规则漏洞或扩大规制范畴,如通过《办法》对《深度合成管理规定》进行填补和扩展。但是,迭代式立法可能会导致适用主体和规制对象混乱。例如,《办法》和《深度合成管理规定》的规制对象在范围上存在交叉和重叠,均包含利用算法生成文本、图片和声音等内容的技术,可能导致被监管主体承担过重的义务。

在具体的治理规范上,现行立法存在治理规则粗疏、规范效力不足、实践性受限等问题,无法有效应对生成式人工智能治理中存在的数据偏差、隐私泄漏等风险。首先,相关治理规则粗疏,缺乏可行性。例如,根据《管理规定》的相关要求,相关主体应该通过备案系统履行备案手续。通过2022年2月网信办发布的《互联网信息服务算法备案系统使用手册》可知算法备案系统要求算法备案填报人员填写算法基础属性信息、算法详细属性信息,包括算法数据、算法模型、算法策略和算法风险与防范机制等信息。但上述填报信息过于宽泛和宏观,缺乏实践性。其次,相关规范效力位阶较低、杂乱无章,导致执法约束力受限。当前我国治理生成式人工智能发展的相关规范多由政府某一部门或多个部门联合颁布,效力层级较低,缺乏法律强制力保障。最后,治理规则与实践中的治理行为不匹配,相关规则的有效性减弱。例如,《办法》中要求用于生成式人工智能产品的预训练、优化训练数据,应满足真实性、准确性、客观性要求,但这对于从数百万网站抓取大量文本和图像进行训练的大语言模型来说,几乎是不可能达到的要求。又如,我国个人信息保护法和《办法》中均要求在使用个人数据时应征得相应主体的同意,但要求相关企业每次使用个人数据之前均履行“知情-同意”义务,一方面,会大大增加相关企业的开发成本;另一方面,由于以ChatGPT为代表的生成式人工智能通常是间接获取相关数据进行训练的,“知情-同意”原则最终只会沦为空中楼阁和纸上谈兵,不能得到有效的贯彻和实行。

四、生成式人工智能风险规制的完善与优化

欲防止应用生成式人工智能时滋生数据合规、隐私侵害和知识产权纠纷等风险,需对其予以必要的规制。尽管我国已有一些规制生成式人工智能的法律规范,但存在监管主体错乱、规范效力不足等问题,导致立法预期与实践效果存在较大差异,需增强相关规范的实践性,进一步协调生成式人工智能可持续发展与社会公共利益之间的关系。

(一)生成式人工智能风险规制的基本理念

在对生成式人工智能所引发的诸多风险确立具体的规制路径之前,有必要明晰基本的规制理念与原则,以指导具体归责方案的设计。

首先,秉持风险预防原则,利用风险规制手段应对生成式人工智能可能引发的法律和社会风险。现阶段生成式人工智能已经暴露出内容不真实、侵害个人隐私等问题,但生成式技术的发展日新月异,法律规制手段存在一定滞后性,为有效解决生成式人工智能可能带来的风险,在治理理念上应采纳“预防胜于治愈”的风险预防原则。风险预防原则要求政府对“科学上尚不确定”的问题保持特殊注意,即允许行政机关在面对不确定性风险的时候,不能把缺乏充分的科学肯定性作为推迟采取措施的理由。风险规制手段是典型的针对未知进行决策的管理手段,在风险规制的过程中也并非是静态的线性的应对,还要分析成本与收益之间的关系,以及规制实施过程中可能遇到的次生风险。生成式人工智能的出现一定程度上改变了人类的生活方式,但由于生成式模型的参数规模和层数“爆炸式”激增,其不可解释性愈发明显,生成式人工智能风险呈现出不确定性、多样性与复合性。因此,在应对生成式人工智能风险时,应该将“预防先行”的理念贯穿于生成式技术研发、应用和生产的各个环节,将风险预防原则作为基本原则,发挥其指导和统帅作用。此外,通过风险规制手段,即利用风险评估和风险管理方法,辅之以风险信息交流工具,达成对生成式人工智能风险的有效预防和遏制。风险评估旨在对生成式人工智能可能造成的负面影响进行评估和分析,了解该风险可能带来的后果。通过定性或定量分析生成式技术风险,明确该技术纳入规制日程的必要性和及时性,并为相关主体采取处置手段或措施、制定相关标准提供科学依据。风险管理是在对生成式技术进行科学评估的基础上选择恰当规制手段并予以执行的活动。前者是对生成式技术风险转化为实质危害的概率性、严重性的科学调查行为,后者是在考量经济、政治、社会等因素基础上通过民主参与程序,按照民主政治和基本权利保护原则来决定干预措施。风险信息交流工具则是为了保障管理活动兼具科学与民主,即通过有效的信息交流,一方面,使公众了解生成式人工智能存在一定的风险,应谨慎使用,但也不必过分恐惧;另一方面,通过该程序获得有效的公众意见,作为规制机构做出决策的考量因素,弥补专家知识和公众认知之间的信息鸿沟。

其次,防止过度干预,实现生成式技术发展与公共利益保护之间的动态平衡。经济学视野下,回避风险就意味着丧失了承担风险时所应获得的利润。限制生成式人工智能发展,能够保障个人权益和社会公益,但同时可能会牺牲部分个体的自由权,甚至打击开发人员的积极性,因此明确干预手段的边界显得尤为重要。为尽可能减少对基本权利的限制,管理措施的启动应该符合比例原则。比例原则下辖三性:妥当性、必要性和比例性。妥当性要求相关主体在对生成式人工智能采取约束措施时,应该充分解释治理目的具有正当性,并且说服相对人接受相关措施。必要性要求相关主体在选择约束措施时,优先选择对相对人权益损害较小的或较温和的监管措施。比例性要求相关主体在对生成式技术实施监管过程中所采取的手段和期望实现的目的符合比例。将比例原则作为干预的边界,不仅能够有效约束生成式技术带来的风险,而且有助于实现技术发展和权利保障之间的协调。

再次,应当要求生成式人工智能技术的开发和使用遵守一定的伦理和道德准则,实现技术向善。其一,应当要求生成式人工智能的开发遵守公平公正的伦理准则。生成式人工智能的开发依赖海量数据集,大批多样化的数据尽管可能是对现实世界的准确描述,但是数据驱动决策的过程中,数据集中的偏见可能会随着时间的推移而被强化,因此,要求生成式模型的开发者尽可能地评估数据偏见及其影响,减少偏见因子,确保技术中立就尤为重要。其二,应当要求生成式技术的无害性。2016年欧洲议会绿色数字工作组的《机器人和人工智能的位置》(PositiononRoboticsandArtificialIntelligence)中的第一原则即“无害”,其规定“机器人应该作为朋友、助手和伙伴来服从人类,不应该伤害人类”,因此应当要求生成式技术的开发也以人为本,服务于人类。此外,无害原则中还蕴含着对安全的呼吁,要求人工智能技术不得造成无意伤害,不得恶意攻击人类。其三,应当要求相关企业负责任地开发生成式人工智能。联合国教科文组织提倡,人工智能行为者和会员国应根据国家法律和国际法,以及会员国承担的人权保障义务,确保人工智能系统的整个生命周期都符合伦理准则。具体而言,会员国应该尊重、保护和促进人权和基本自由,促进对环境和生态系统的保护,同时,承担各自的伦理和法律责任。生成式人工智能技术作为人工智能技术的分支,其发展自然也应秉持负责任、合法、真实和可审计的态度。其四,应当要求生成式人工智能的发展有助于实现“团结”。联合国项目事务厅(UNOPS)、世界卫生组织(WHO)等政府间组织或微软等私营公司都在强调利用人工智能技术维护人类团结,其强调人工智能的发展绝不能威胁到现存的道德、情感和人际关系,而应该致力于促进和睦关系的发展,促进人机合作,减少脆弱性和孤立性。

(二)生成式人工智能风险规制的具体路径

尽管我国现行的法律法规在规制生成式人工智能风险过程中起到了一定的积极作用,但现有立法策略之下,具象化和现实化问题应对仍旧存在不足,下文就生成式人工智能风险的应对提供具体的规制路径。

第一,治理策略上突破“垂直迭代式”的立法模式。根据上文所述,我国倾向于垂直迭代立法,通过新立法应对新生人工智能。有学者已经对该种模式治理的必要性提出质疑,认为“新风险治理之必要”欠缺理论支撑,尽管生成式技术产生了新型的社会治理风险,但是这些新风险本质上并没有彻底改变既有的法律关系,同样也没有突破现有法律规范的调整范围,通过新立法回应新风险欠缺必要性和逻辑性。生成式人工智能归根究底隶属于人工智能范畴,其开发流程均包含数据处理、模型设计、训练优化、评估验证、测试调整和部署实施阶段,均存在数据、隐私、知识产权等风险,风险类型并没有实质性差异,只是风险等级发生了变化。《办法》将生成式人工智能作为独立的、新型的风险类别进行治理欠缺逻辑自洽性。对比欧盟地区采用的“且试且走”“先治理后规范”,稳步推动监管的水平治理为主的立法策略,我国所采取的重“垂直”、轻“水平”的立法模式不利于维护法律的稳定性和权威性。因此,在规制生成式人工智能等新型人工智能产品和服务带来的风险时,首先,可利用现有法律法规对已经暴露的风险采取及时、妥当的监管措施,防止危害进一步扩大。其次,科学评估新型人工智能产品和服务与原有的人工智能之间的风险类别差异、风险等级差异,分析是否存在立法的必要性。具体而言,只有当新风险彻底改变既有法律关系,突破原有规范调整范围时才具备立法的充分且必要条件。最后,基于现有的人工智能治理规范,酝酿一部综合性的人工智能法案。

第二,强化生成式人工智能治理机构之间的协调性和能动性,建立多元有序的规制体系。《管理规定》、《深度合成管理规定》和《办法》作为生成式人工智能治理的三个基本准则,共同为生成式技术的发展保驾护航,但是碎片化治理导致资源分散、部门之间互相推诿、沟通不畅等问题时有发生,协调联合行动难以展开,在尚未制定一部统一的人工智能法之前,可以通过科学划分权力,集中统筹管理,加强部门协作缓和治理困局。首先,明确网络信息办公室在生成式人工智能风险治理中的核心地位,确保其能够高效地开展指挥、调配和统筹工作。其次,加强对部门内工作人员的专业素养培训,确保其制定的规范、采取的措施具有实践性和有效性。最后,厘清网络信息办公室、公安部等参与治理的其他主体在生成式人工智能治理各个环节中的职能边界,加强部门协作,建立部门联动机制。

第三,加强对生成式服务提供者使用个人数据的监管,赋予数据主体必要的数据权利。《办法》中规定,生成式人工智能在处理数据时,涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;换言之,生成式人工智能收集和使用个人数据以取得个人单独同意为原则。根据上文所述,要求生成式服务提供者严格遵守“知情-同意”原则是不现实的,不妨通过强制记录义务,加强保密措施、泄密后的及时处置措施,加强对生成式服务提供者的监管。首先,生成式服务提供者在获取网站、应用程序等第三方平台上留存的个人数据时,应当将读取记录和与第三方签订的数据提供服务协议储存下来,并备案。其次,生成式服务提供者应该加强数据流转和处理过程中的数据保密措施,要求其以必要的手段防止数据泄漏。最后,生成式服务提供者一旦发现数据泄漏,应及时通知数据监管机构,告知数据当事人,并修复相关漏洞,尽可能减少损失。此外,可通过强调对个人数据权利的保障来防止生成式服务提供者滥用个人数据。首先,赋予生成式服务使用者数据访问权。我国个人信息保护法规定,个人有权向个人信息处理者查阅、复制其个人信息,因此,使用者应该享有数据访问权,以知悉其个人数据的使用情况。其次,生成式服务提供者间接获取的数据可能是陈旧的、不准确的,应该赋予使用者更正和补充个人信息的权利,防止数据被误用。最后,当发生数据泄漏等事件时,生成式服务使用者享有知情权,即使用者有权知晓数据被窃取,以及被何人窃取等讯息。

第四,在现有法律体系下,保护人工智能生成物,应对新型侵权纠纷。首先,肯定人工智能生成物应受相关法律保护。其次,现阶段,可以参照我国著作权法保护人工智能生成物。如,有学者主张参照著作权法上关于职务作品或雇佣作品的相关规定,将创作过程中真正实施人工干预、人为编排或创制该算法的人认定为作者。再如,英国1988年《版权、外观设计和专利法案》中规定,“如果是计算机生成的文学、戏剧、音乐或艺术作品,那么应将为创作作品做出安排的人视为作者”,该条所指计算机生成内容(Computer-GeneratedWorks)是指在没有人类作者的情况下由计算机完成的内容。最后,通过著作权许可使用的相关规定,限制生成式服务提供者使用他人享有著作权的作品进行深度学习。

 

郑曦,北京外国语大学法学院教授、博士生导师;朱溯蓉,北京外国语大学法学院博士研究生。

    进入专题: 生成式人工智能   ChatGPT   风险规制   立法模式  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/147789.html
文章来源:本文转自《长白学刊》2023年6期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统