赵精武:ChatGPT背后的技术安全风险及其应对路径

选择字号:   本文共阅读 13217 次 更新时间:2024-02-05 22:49

进入专题: ChatGPT  

赵精武  

 

生成型预训练变换模型(Chat Gegerative Pre-trained Transformer,ChatGPT)因其强大的功能而爆火出圈,无论是短文撰写、新闻编辑,还是代码编写、时事点评,ChatGPT均能胜任。因此,国内外市场对于ChatGPT所代表的人工智能产业抱有较高的期待。部分专家甚至认为,ChatGPT能够通过取代人类完成部分重复性、模块化的工作任务,进而对社会人力资源分配和产业结构优化产生直接的推动效用。然而,技术创新从来都是与风险相伴的,ChatGPT也不例外?ChatGPT一旦被滥用,虚假信息泛滥、用户数据泄露、内嵌的算法歧视以及知识产权侵权等一系列风险也将随之而至。

以网络安全风险为例,ChatGPT的自动编写代码功能在提升代码编写效率的同时,也会被黑客用于辅助编写恶意代码,网络安全态势势必更加严峻。具体表现为:其一,ChatGPT的代码编写功能将拓展黑客攻击的技术工具,使得原有的网络攻击呈现更加庞大的规模化趋势。ChatGPT能够辅助黑客高效完成恶意软件的编写,如此一来,黑客针对关键信息基础设施进行有组织、有规模的网络安全攻击的频次将会增加。同时,过去以大型企业为主要目标的攻击模式可能转变为囊括大中小型企业的攻击模式。其二,ChatGPT的信息编写功能能够辅助网络诈骗分子生成规模化、低成本的网络钓鱼软件,并且生成的诈骗信息具有智能化特征,使得被诈骗者识别信息真伪的难度进一步增加。其三,ChatGPT的信息编写功能可能会导致网络虚假信息泛滥,并且网络用户更加难以甄别这些信息的真伪,由此将导致网络空间舆情治理压力增大。

面对ChatGPT滥用可能导致的种种风险,国内外学者纷纷提出了具有前瞻性的治理方案。有专家、学者提出,应对ChatGPT需“制定专门立法”“制定配套措施”。实际上,ChatGPT的市场成功不等于人工智能产业取得了突破性创新发展,相对应的风险治理思路更应当考虑现有的技术水平。结合ChatGPT所具有的如仅能完成重复性和模块化的工作内容、输出结果准确率无法保障、知识更新周期慢、算力资源需求庞大等技术特征,监管机构没有必要立即将尚处探索阶段的ChatGPT作为现阶段网络空间治理的核心立法任务。因为凭借不确定的技术应用场景和难以预测的安全风险径直推导出“法律需要对ChatGPT进行专门立法规制”,只会陷入“一项技术对应一条法律制度”的谬误之中。

法律与技术的关系并非简单的治理与被治理的关系,而是表现为被需要与需要的关系。技术在不同的发展阶段,往往存在差异化的制度需求,或是产业促进制度,或是禁止性规范,或是对既有立法体系的法律解释与概念重述。在目前ChatGPT技术尚未落地应用之前,过于超前地规划立法方案和制度建构路径,可能会压制技术的创新。区块链、元宇宙等领域同样存在类似问题,专门立法和配套措施等治理思路并不能真正解决这些问题,同时还可能会致使法律偏离原本的功能定位。

事实上,中国已先后颁布了《中华人民共和国网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等法律法规,针对人工智能技术和算法技术滥用问题规定了详细的法定义务和监管体系,足以应对短期内ChatGPT可能带来的各类技术安全适时风险。中国监管部门完全可以利用现有法律制度,规范ChatGPT的相关产业活动;未来在经验成熟时,可以考虑启动人工智能技术应用领域的立法,以应对各种潜在的安全风险。

首先,重点监管大型企业研发活动,落实人工智能技术标准。ChatGPT对于算法、数据乃至服务器的需求量惊人,具备开发能力的主体大多限于超大型互联网企业或技术公司。在相关产品投入市场之前,可以利用算法备案机制,对存在影响网络安全和国家安全可能性的产品或服务进行安全性审查。此外,相较于对用户使用行为进行监管,从源头上对研发企业进行监管的成效可能会更加显著,且研发企业也有技术水平和能力对恶意软件代码片段编写功能加以限制。

其次,明确研发机构、网络平台经营者对于人工智能产品应用的安全风险评估义务。ChatGPT及其类似产品本身不具有社会危害性,但以不当方式使用则可能会导致一定的损害后果。针对ChatGPT可能引发的网络钓鱼邮件等网络诈骗风险,应当明确作为“危险制造者”的研发机构、网络平台经营者在将此类产品投入市场之前必须进行安全风险评估,确保风险可控。

最后,需要重点关注以人工智能信息审核技术规制人工智能可能诱发的虚假信息泛滥风险。为了避免滥用ChatGPT等人工智能技术生成大量难以通过自动化批量审核的虚假信息内容,监管机构以及网络平台经营者可能需要进一步提升监管技术,以人工智能监管科技来规范人工智能生成的内容。根据ChatGPT这类产品的发展水平和生成信息内容特征,鼓励行业协会、大型企业或第三方专业机构积极推进人工智能违规信息审核产品的研发和推广。

赵精武,北京航空航天大学法学院副教授,研究方向:民法、数字法学。

【出处】《北京航空航天大学学报(社会科学版)》2023年第2期

    进入专题: ChatGPT  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 法学时评
本文链接:https://www.aisixiang.com/data/149115.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统