杨建军:可信人工智能发展与法律制度的构建

选择字号:   本文共阅读 489 次 更新时间:2024-11-03 22:51

进入专题: 人工智能   可信人工智能  

杨建军  

 

摘要:人工智能的技术发展虽然取得了显著的成就,但还存在技术安全风险、背离传统法律价值等导致其不可信的诸多因素。人工智能技术的发展,须以用户信任为前提。人工智能的信任须建立在技术安全、确定性的法律管控和社会伦理正确引领的基础上。可信人工智能法律制度建构的关键在于,遵循以人为本、人类主导、技术中立等外在准则和透明、安全、可问责等内在准则,捍卫现代法治的传统和宪法确认的公民的基本权利,维护人类福祉。可通过建立和完善测试制度、监督制度和法律责任制度,保障人工智能的可信发展。

 

以可信为基础构建人工智能治理法律制度的必要性

人工智能技术发展突飞猛进,在诸多领域取得了令人瞩目的成就。但是,人工智能的发展,却因为技术的复杂性、风险的不完全确定性、技术滥用、法律规制的缺位等因素,还未完全赢得社会的信任。

(一)人工智能发展中还存在侵蚀其可信性的诸多因素

其一,人工智能技术发展还存在诸多可知或不可知的风险。当前,人工智能存在着失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险五个方面的伦理安全风险。其二,人工智能技术还不完全可信。(1)人工智能技术还未真正达到人们想象的发达程度,总体上还处于专用人工智能而不是通用人工智能发展阶段。(2)深伪技术加剧了人们对真实性瓦解的担忧。(3)技术安全等问题未完全解决。(4)与人工智能技术关联的问题是,人工智能的良好运行高度依赖个人信息和数据,而个人信息和数据管控本身还存在诸多问题,如App违反合法、正当、必要的原则收集与所提供服务无关的个人信息,“强制授权、过度索权、超范围收集个人信息”大量存在。其三,人工智能应用不当导致了侵权,致使人工智能不完全可信。其四,人工智能治理的技术使用还存在与其宣示的价值取向不一致的情形,损害了人工智能发展的价值基础。其五,规制人工智能的法律还不可信。

(二)人工智能法为什么要强调信任

信任,是人际关系得以长久维系的桥梁,是社会关系得以拓展的基础,是社会发展的内在条件,更是建立高效社会组织的基本前提。信任是社会合作得以进行的基础。信任成功与否取决于信任拓展范围的大小。人工智能技术的发展程度,不仅是由技术决定的,而且是由规制人工智能的伦理、法律等规范决定的。那些真正发展得良好的技术,必定也是法律保障有力、遵循了良好伦理规范的技术。

人工智能获得社会信任的法律基础

(一)人工智能的信任需要法律来保障

其一,传统社会基于血缘等关系构建了人际信任,人与人之间的信任多建立在熟人关系基础上。其二,到近现代社会,法律力图建构的是一种打破血缘关系、促进陌生人合作的普遍信任机制。现代社会共同体合作,主要建立在平等交换、契约自由基础上。其三,人工智能时代的信任须建立在人工智能技术安全、确定性的法律管控和社会伦理引领的基础上。

(二)捍卫现代法治的传统和公民的基本权利系确保人工智能可信的关键

人们对人工智能技术的信赖,建立在人工智能技术的安全性、保障和规制人工智能的法律制度的正当性、规制人工智能发展的制度的价值正义性、人工智能技术的实践运作对人类基本价值追求和人的基本权利维护的有效性的基础上。在支撑人工智能信任的技术维度、法律维度、伦理维度和实践维度中,最为关键的是为人工智能发展设定法律监管标准。

可信人工智能法律构建的伦理基础与可信特征

包括我国在内的许多国家均将“可信”作为人工智能的核心伦理原则,而“正当性”则是保障人工智能可信法律构建的基础。

(一)正当性是保障人工智能可信法律构建的伦理基础

全球关于人工智能治理可信问题的关注最初是在伦理文件中表达的。虽然存在一些争议,但是国际社会在“可信赖的人工智能”“负责任的人工智能”等核心理念上可能会达成一致。可信被很多国家人工智能伦理确认为了一项基本伦理原则,这一原则的提出,是为了解决人工智能的价值对齐问题,即确保人工智能的目标与人类的目标一致,使其“行为和决定符合人类的价值、目标、道德考量”。但是,单纯从伦理准则角度构建人工智能的可信存在诸多问题:(1)全球关于人工智能治理存在诸多争议,不同准则之间的冲突日益凸显,如“普惠发展与隐私保护”“安全可靠与非歧视要求的冲突”等;既有准则规范可能由私人部门提出,实际上是抵制政府监管的借口等。(2)作为伦理准则的可信标准,主要是一种倡导性、自律性准则,缺乏有效的监督执行机制,强制性程度不足;准则的表达多采概括性概念,可操作性不强。因而,国家立法所要做的工作就是,将伦理准则转化为法律准则,并通过更加具体的技术规则和法律规则设计,保障可信准则在人工智能产品或服务的研究、开发、设计、部署、使用、监管等具体环节得到落实。

(二)现行可信人工智能的评估标准

何积丰院士提出,人工智能的可信特征包括四个方面:(1)鲁棒性,即对未知情况具备一定的应对能力;(2)自我反省,即对自身性能或错误能够有所感知;(3)自适应,即能够成为通用的系统,能被应用到新的环境;(4)公平性,如应防止被不当力量训练为种族歧视的智能。有学者提出了可信人工智能系统的质量框架,包括:(1)尊重人类自治原则,含人权代理与监督。这是最为重要的原则,人工智能应当赋予人类新的权利而不是取代人类,且处于人类控制之下,不对人类基本权利或健康造成损害。(2)伤害预防原则,包括鲁棒性、稳定性、安全性(包括保密性、完整性、可用性)、可靠性、可问责性、隐私性、可重复性、准确性等。(3)可解释性原则,包括透明性、可解释性。(4)公平性原则,即确保群体或者个体不受偏见或歧视。(5)一般软件质量属性,如兼容性、可维护性、功能适用性、可移植性、性能效率、易用性等。

可信人工智能发展对法律构建提出的要求

(一)保障可信人工智能发展的多元路径与法律路径

保障可信人工智能发展的路径是多元的,大致包括四个方面。(1)侧重行业技术保障的路径。如中国信息通信研究院和京东探索研究院通过对全球范围内已经发布的84份政策文件按照词频进行梳理发现,当前人工智能治理原则已经收敛在“透明性、安全性、公平性、可责、隐私保护等五个方面”,支撑可信的技术包括“稳定性技术、可解释性技术、隐私保护技术、公平性技术、可视化技术”等。(2)技术认证的客观标准与伦理价值评价的主观标准结合的路径。(3)人工智能的风险防控路径。(4)法律、伦理、技术结合的路径。2019年,欧盟人工智能高级别专家组发布了《可信人工智能的伦理指南》,提出人工智能在整个生命周期中需要满足三个条件:合法性,即可信人工智能应当依法合规;道德性,即人工智能发展要符合道德原则、价值观;稳健性,即人工智能发展应避免造成无意的损害或负面影响。这实际上提出了保障人工智能可信发展的综合路径。

为人工智能设定法律标准,实际上是为人工智能的研究者、开发者、部署者等设定最为基本的标准,并通过法律的强制执行性推动各项标准的落实,以防人工智能的发展偏离人类追求的价值目标,实现对人工智能产业发展的规制、引领作用。

(二)可信人工智能对法律提出的期待

可信是一种文化,一种基于技术发展而形成的人对人工智能的认知和信任状态。为了保障人工智能的可信发展,法律制度的创设或者调整应当遵循一系列外在准则和内在准则。

1. 可信人工智能法律构建应遵循的外在准则

外在准则构成了人工智能发展的国家社会目标,意在维护国家社会的福祉和法律的基本价值,是人工智能长远发展的基本准则。外在准则主要是一种理念,它无法通过人工智能技术而直接得到落实,但它可以成为评判人工智能技术发展是否正当的元准则,是人工智能发展的总的引领性准则。

其一,以人为本,捍卫人的基本权利。人工智能立法坚持以人为本,就应当保护个人信息和数据等数据权利,保护人格权、人的自主决策(自治权)和人类的主体性,还应当重视对社会弱势群体的权益保护。发展以人为本的人工智能,既应从技术发展的角度来设定制度,还应从人的基本权利的角度规制人工智能技术。以人为本还应当认真考量新产业发展对传统产业带来的冲击,如人工智能发展对传统产业领域的就业替代,就是一个需要高度关注的问题。以人为本的理念与宪法确定的人的基本权利之间具有密切的联系。

其二,人类主导原则。人类主导原则是从人与机器关系的最终意义上说的。因为人工智能在很多方面代替人进行道德选择和决策,但智能系统要为人类做决定,不能脱离人类伦理指导。当人工智能的决定不符合人类需要的时候,人类可以取代人工智能做出决定。人类主导原则还要求,人工智能的设定,还应当尊重国别文化的多元性、尊重个体差异,并采取措施防止“人类对机器人的过度依赖”。

其三,技术中立原则。技术中立原则是设计人工智能法律制度时应遵循的一项前置性原则。例如,如果在交通事故中对普通驾驶人按照过错责任进行归责,而对人工智能汽车采取严格责任原则予以归责并要求车主承担交通事故责任,那么就背离了技术中立原则,而适用过错原则可能是妥当的。

2. 可信人工智能法律制度构建的内在准则

内在准则主要是法律技术性准则,这些准则大多可通过人工智能的技术设计、改进而得以落实。内在准则构成了人工智能法律的操作性准则。

其一,透明原则。人工智能的透明,首先是为了保障公民的知情权,让人们了解人工智能是如何运作的。透明原则是为了防止人工智能被运用于不法目的或不正当目的,有助于增强人的自主性,不透明的人工智能难以获得人的信任。

其二,安全原则。首先应确保网络安全、数据安全与算法安全。(1)可信意味着必须降低人工智能风险,采用“强制性标准”对风险进行管控,且风险管控措施应符合比例原则,不能向人工智能开发者提出过高的要求(欧盟人工智能法第64部分)。(2)对风险宜进行分类管控或是分级管控。如2024年欧盟发布的人工智能法案将人工智能的风险分为四级,采取不同的限制措施。中国的人工智能法(学者建议稿)则将人工智能分为关键领域与一般领域进行管控,对关键领域进行重点管控。

其三,公平原则。核心是,在人工智能的模型训练中,排除那些明显存在或者隐性存在文化偏见、性别歧视或种族歧视的数据集。

其四,隐私保护原则。隐私被侵犯,自然人的感知最为直接,显然,一个无法保护隐私利益的人工智能,是无法被人们接受的。

其五,可问责原则。确保人工智能的部署、使用产生的法律责任是可问责的。问责是对侵权者的追责,也是对受害者的救济。

保障人工智能可信发展的具体法律制度

(一)设计、评估与测试制度

其一,设计阶段的价值对齐制度。(1)法律应当将价值对齐作为一项基本义务赋予人工智能设计者。(2)人工智能在开发阶段就应注意防止偏见和歧视。首先,识别人工智能必须遵守的伦理价值和规范,其次,将这些规范通过程序编码写入人工智能系统,最后,为了验证人工智能是否与特定价值和规范兼容,应当对人工智能的规范和价值的有效性进行评估。

其二,评估制度。人工智能开发者、提供者在开发、提供人工智能产品和服务前,可自行或委托第三方机构对数据质量、潜在偏见歧视、科技伦理审查情况、公共利益影响、保护措施等内容进行安全风险评估。

其三,人工智能的安全测试制度。(1)为了保证安全,应建立密码技术管理制度,实现可信计算和可信验证。(2)设立沙盒监管制度,强化安全测试和安全风险监管。(3)人工智能提供者对人工智能生成内容的标示制度。

(二)建立针对人工智能领域的监督制度

(1)采用“宪法性AI”的思路,用人工智能监督人工智能,用“一个从属的AI模型评估主模型的输出是否遵循了特定的‘宪法性’原则(即原则或规则清单),评估结果被用于优化主模型”。目的在于推进价值对齐,将对可信人工智能影响最大的法律原则,落实在人工智能发展技术中。虽然人工智能监督人工智能是高效的,但考虑到人工智能法律监督仅处在初期,故设置针对人工智能法律监督的人类标注员依然是必要的、重要的。(2)分级监督制度。针对人工智能决策,针对性地建立一级监督制度或二级监督制度。一级监督制度针对部分自动化决策,即把人工智能决策作为专业人员决策的支持理由,决策最终由人类来选择;此等情形下,人工智能决策是人类决策的组成部分。二级监督针对的是完全自动化决策,即在人工智能作出决定后,人类对智能化作出的决策进行监督和纠正。总之,“一级监督在决策过程中具有构成性作用,而二级监督对一级监督进行检查和控制”。(3)隐私保护监督制度。(4)权力制约监督制度。

(三)完善人工智能的责任制度

其一,人工智能的使用者为了安全、放心,当然期望人工智能的开发或销售企业能够承担起全部责任。其二,在法律责任设定上,“应辅以问责框架,包括免责声明以及审查和补救机制等,以确保在开发、部署和使用之前和之后对人工智能系统及其结果负责和问责”。其三,刑法应增设相关责任条款,将对非法访问AI或从事黑客攻击的严重行为、让人工智能运行实行犯罪的使用恶意软件的行为纳入刑法调整范围。

结语

可信人工智能治理进程中的法律制度的构建,应以技术路径为基础,融合伦理准则,沟通人工智能发展的外在准则和内在准则,捍卫现代法治传统,保障宪法确认的公民的基本权利;同时,应当处理好人工智能发展中国际性与地方性、市场逻辑和治理逻辑、监管的包容与审慎、权力制约与权利保护、道义与理性等关系。

 

杨建军,西北政法大学法治学院、数字法学研究院教授

摘自:《东方法学》2024年第4期

本文载《社会科学文摘》2024年第9期

    进入专题: 人工智能   可信人工智能  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/156233.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统