张平:我国生成式人工智能实现突破创新需要良法善治

选择字号:   本文共阅读 6597 次 更新时间:2023-11-06 22:58

进入专题: 生成式人工智能   人工智能  

张平(北大)  

 

数据来源合法性是数据产品合规的必要条件,若数据来源不合法不合规,该数据产品将无法进入市场应用阶段。在目前我国已经实施《网络安全法》《数据安全法》《个人信息保护法》的背景下,生成式人工智能产品的应用一定要符合这些法律。但是,与之前的互联网技术相比较,生成式人工智能技术的研发和应用也将会带来各国更为激烈的科技竞争,从各种智能生成产品来看,美国的ChatGPT已经领先并将成为生成式人工智能产品的“基础设施”,许多领域的衍生产品已经诞生,中国要在这一领域有所突破创新,一定要有相对宽松的法律政策环境和技术生态建设,不能再像传统信息产业领域的软、硬件技术那样,始终无法做到自主可控。

正因如此,我国在生成式人工智能技术的研发和应用上应当奋起直追,在立法和政策上留有一定的发展空间,以事前的自律守正、事后的公正处罚为监管基础。特别是,生成式人工智能技术本身就是基于对全人类现有的各类知识的大数据汇合的学习,这如同自然人博览群书一样,学习的越多就越聪明,所以,包含对在先拥有知识产权的各类信息的学习在所无免,要做到事先一对一的知识产权授权几乎没有可能(这如同搜索引擎技术一样),只要不是恶意侵犯他人的知识产权,用“安全港责任”及事后的经济补偿解决知识产权问题,或者采取像开源社区(维基百科)那样的开放许可、像标准必要专利那样的公共许可以及著作权集体管理制度来处理海量权利授权问题。

对于个人信息中涉及到的隐私权和其他人身权可以按照前述三部法律来进行合规。美国其实早在十几年前就开始了生成式人工智能的大数据学习,当初也都是基于公开的文献数据,并没有受到知识产权和数据合规的严格要求。虽然世界上许多国家都在用数据合规和知识产权来限制ChatGPT的应用,但都不是与美国在智能科技上的竞争,而仅仅是市场准入的限制。我国应当有不同的思路,我国有大数据天然资源,有广阔的市场,应当让生成式人工智能技术有更多机会基于我国大数据资源的训练。过于严格的数据合规要求将会影响我国生成式人工智能技术的研发和产业应用。

党的十九大报告强调“以良法促进发展、保障善治”,习近平总书记在中央全面依法治国委员会第一次会议上明确提出“使社会主义法治成为良法善治”的要求。因此,对于人工智能这一全新的产业发展领域应当本着良法善治的立法理念,尊重调整对象本身发展的客观规律,尽量给产业以充分的竞争机会。同时,也准备好一套有效管控、及时纠错的相应监管机制。

基于上述考考虑,对《征求意见稿》有以下几点建议:

1. 人工智能的优越性即在于其能够通过海量的数据训练,基于算法、模型、规则生成相应内容。在人工智能的数据训练过程中,基础数据主要通过爬取得来,且体量庞大。第七条第二款(二)对数据不得含有知识产权内容显然过于苛刻,海量的训练数据不可避免包含受版权法保护的内容,可以考虑采用互联网诞生之初给网络服务商设置“安全港”责任的做法,待生成式人工智能产品实践一段时间再做严格监管调整。在对待智能产品深度学习中涉及到的知识产权问题,特别是具有著作权的各类作品的学习问题上,可以采取注释说明的方式,表明大数据的来源或者具有可追溯的透明机制即可。对于恶意侵害他人知识产权的行为,现有立法完全可以规制。

2. 第七条第二款(四)要求数据真实、准确、客观、多样这一要求不切实际。大数据每时每刻都在变化,智能式学习就是要求能够基于事物变化做出判断。生成式人工智能产品的预训练数据不可能做到完全准确,就如同自然人面对社会信息也无法保证事前做出真假虚实的判断,生成式人工智能技术和自然人面对的是同一个世界,学习的也是同一大数据内容,只是学习的速度和广度不同。面对复杂的大数据样本,生成式人工智能技术的研发者应当秉持守正创新,不主动侵犯他人知识产权和人身权,尽到基本的注意义务即可,不需要承担无过错的产品责任,也无法做到无瑕疵担保。

3. 第七条第一款责任主体为人工智能服务提供者,归责对象过于简单。从《征求意见稿》第二条可见,面向公众提供服务的,包括生成式人工智能产品的研发者和利用者,因此人工智能服务提供者并不一定是该人工智能技术的开发者,并不一定参与人工智能的数据训练、优化活动,因此合法性义务置于提供者身上的合理性有待讨论。并且,在国家提倡在大数据交易中心进行数据取得,数据作为市场要素进行流通的过程中,即使原始数据来源合法,也很难保证数据转用的合法性,生成式人工智能产品的预训练数据可能几易其手,中间涉及到多个数据处理者,在这样复杂的数据流转中,将责任归结到人工智能产品服务提供者过于简单。

近日,欧盟提出了针对ChatGPT等服务进行监管的提案,重点提出生成式人工智能的新的版权规则。该规则要求,根据生成式人工智能被认为的风险等级进行分类,要求生成式人工智能的公司必须披露用于开发其系统的任何受版权法保护的资料。即使欧盟的本意是对ChatGPT进行监管,但这一要求也仅仅属于透明度原则适用范围,还没有提到归责层面。这一提案得到一些共识,有望成为欧美在智能领域产品应用的另一场博弈。在欧盟议会《人工智能法案》的最近讨论中,知识产权以及隐私等数据合规问题也再次被强调,但欧洲立法的出发点是对抗性的,甚至是为了设置美国公司进入欧洲市场的贸易壁垒。我国对人工智能的监管目的是规范和促进性的,应当以扶持一批生成式人工智能的公司开展竞争性创新为出发点,在智能技术应用领域里,走出一条自主可控的创新路线和产业生态之路。

 

张平,北京大学法学院教授,北京大学人工智能研究院双聘教授。

    进入专题: 生成式人工智能   人工智能  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 法学时评
本文链接:https://www.aisixiang.com/data/147096.html
文章来源:本文转自人民政协报,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统