熊光清:生成式人工智能治理的法治维度

选择字号:   本文共阅读 7493 次 更新时间:2023-08-17 15:49

进入专题: 生成式人工智能治理  

熊光清 (进入专栏)  

生成式人工智能是指利用机器学习技术让计算机自动生成不同模态数据和信息的技术手段与方法。生成式人工智能将极大提高社会生产力,从根本上改变人类的工作内容和生活方式,并对整个生产生活层面、甚至社会秩序进行全面塑造。生成式人工智能在给人们带来无限量级的丰富想象的同时,也引发了诸多担忧,人类是否能够很好地驯服人工智能?生成式人工智能进一步发展是否会产生凌驾于人类之上的“超级人类”?如何应对这种超级人工智能可能出现的作恶?2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),这是中国对生成式人工智能治理的重要探索。从法治角度看,应对生成式人工智能从价值规范、行为规制和过程监管等方面加强治理。

一、建立明确的价值规范促使其实现技术向善

技术本身并无价值向度,但人会赋予其价值向度,而使之形成价值倾向。生成式人工智能可能被滥用、误用或用于不道德的目的。由于生成式人工智能技术水平越来越高,人们也越来越担心它会被恶意使用,损害公民隐私权和社会安全,甚至有人担忧其可能导致“人类灭绝”。特拉斯CEO伊隆·马斯克就认为,人工智能可能演化为人类无法控制的“数字上帝”,其存在“破坏文明的潜力”。为了确保生成式人工智能技术的可持续和健康发展,保护公民权益和社会利益,秉持技术向善原则至关重要。国家应通过立法建立明确的技术研发与使用的价值观念,规定技术研发与使用行为要遵守公序良俗和社会公德,从而引领技术发展的正确方向,使之符合人类利益,有利于人类的发展。当然,通过立法所采取的强制性措施应当采取跟随策略,因为立法过于超前可能会阻碍技术的发展和创新。但是,立法在价值层面的规定可以具有稳定性,并对未来发生的问题具有价值层面的引领作用。

要通过立法将生成式人工智能发展的价值向度明确化、具体化和制度化,明确生成式人工智能的伦理准则和道德要求,不得破坏社会公共秩序和危害国家与社会安全,以规范和引导生成式人工智能技术的发展和应用。同时,要加紧建立生成式人工智能研发审查和许可制度,要求研发者在进行生成式人工智能技术研发之前,进行科学、伦理和法律的审查,并获得相应的许可或批准。国家网信办发布的《办法》中就规定了有关生成式人工智能内容要合法合规、禁止算法歧视、不得实施不公平竞争、不得生成虚假信息、不得侵犯他人合法权益等相关内容,这对于发展生成式人工智能技术在价值层面就具有重要的引导性作用。

二、通过立法有效规制其研发和使用行为

目前,像ChatGPT和DALL-E 等输出的内容与人类生成的内容已经难以区分,其质量和效率都要远高于一般人的水准,这会极大提高人类的工作效率与能力水平,丰富人类的工作和生活场景。但是,其所带来的负面影响和潜在威胁也具有很强的不可预测性和不确定性。一些国家已经开始抓紧关于生成式人工智能的立法,以规制其研发和使用行为。通过法治手段加强对生成式人工智能的行为规制是保障生成式人工智能应用的合理、负责和可持续发展的重要举措。要确立生成式人工智能的法律准则和规定,明确技术发展与使用的规范和限制,从而为生成式人工智能的研发与使用提供明确的法律依据。同时,由于生成式人工智能的研发与使用具有很强的全球性特征,因而要加强国际间的合作与交流,制定相关国际标准和行业规范,推动生成式人工智能治理的国际法治化。国家可以积极参与相关多边合作机制的活动,推动国际合作治理,制定共同的标准和规则,以促进并完善全球范围内生成式人工智能法律规制。

生成式人工智能通常需要大量数据进行训练,并且,随着生成式人工智能的广泛使用,个人数据的收集、存储和处理变得非常普遍,因此,加强数据管理和隐私保护至关重要。国家可以加强数据领域的立法,要求生成式人工智能产品的预训练数据及优化训练数据来源具有合法性,规定数据采集、存储、使用和共享的规则,确保数据的合法性与安全性,并有效保护个人隐私和维护社会安全。应当明确生成式人工智能应用提供者对用户权益的保护责任,包括用户隐私权、知情权、选择权等,可以规定用户能够随时撤销对生成式人工智能应用用户数据的授权,要求生成式人工智能应用提供者对用户数据进行及时删除。

三、建立专门机构进行合规合法性监管

生成式人工智能技术的研发与使用具有巨大的前景,但也伴随着许多潜在风险和严峻挑战。随着生成式人工智能越来越多地无缝融入生产生活中,加强监管变得十分重要,有必要建立有效的监管体系。其中特别需要设立专门的生成式人工智能监管机构或在现有相关机构下设立专门部门,负责生成式人工智能的监管,确保其研发与使用符合法律法规和道德规范,防止滥用和不当使用。法律法规应要求生成式人工智能技术提供者对其系统的运行方式和生成内容进行透明度披露,同时明确生成式人工智能开发者、供应商和使用者的社会责任与法律责任,确保在生成式人工智能系统出现错误、造成损害或出现侵权时能够进行合法追责。

监管机构应具备足够的权力和资源,能够对生成式人工智能的合规性进行监督和检查,并对违法行为进行执法处罚。这包括设立独立的监管机构、建立审查程序、制定合规性评估要求等。同时,要通过公众教育加强社会监督,提高公众对生成式人工智能技术的理解和认识,并鼓励公众参与生成式人工智能的规制和决策过程,保障公众的知情权。法律可以规定,要求生成式人工智能开发者和使用者建立信息交流与沟通机制,使公众能够了解生成式人工智能的潜在影响和应用范围。生成式人工智能的使用会带来一系列新问题,例如:伦理问题、产权问题、责任问题、隐私问题、安全问题等等,这些问题都需要在法治层面进行处理,这就要求在实践中不断探索有效的法治手段,发挥其有利于社会的作用,而规避其对社会的危害。

(本文发表于《北京日报》2023年7月10日理论版)

进入 熊光清 的专栏     进入专题: 生成式人工智能治理  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 法学时评
本文链接:https://www.aisixiang.com/data/145420.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统