龙卫球:科技法迭代视角下的人工智能立法

选择字号:   本文共阅读 202 次 更新时间:2020-01-16 08:46:58

进入专题: 科技法   人工智能立法  

龙卫球 (进入专栏)  
(一)科技市场法语境下的人工智能规范问题

   科技市场法,特别是专利权等知识产权制度以及技术合同、技术中介等技术市场交易制度等,对于人工智能具有基础适用性,应该成为驱动人工智能技术进步和应用的基本制度。人工智能作为一种发展中的科技,是决定第四次工业革命的关键因素之一,具有为行业和社会创造巨大效益的潜能,因此有必要积极推动其发展,对此最有效的方式就是运用科技市场法的赋权、交易和转化激励机制。目前人工智能需要不断完善,处于亟待着力开发和提升的时期,预计全球对于人工智能机器人的投入在2019年超过1 350亿元。基于人工智能将对经济、社会带来巨大价值的认识,包括微软、亚马逊、脸谱、谷歌、阿里、腾讯、百度等在内的巨型互联网企业,都在开发和研究相关的人工智能,研发投资不断增加。其背后的动力,取决于法律对于这种投入及回报提供的支持和保障。

   然而,具有特殊性和发展性的人工智能与现行科技市场法的有关规定难以完全契合。人工智能的研发和应用产生许多新的规范问题,需要及时研究和跟进立法。首先,关于人工智能的技术改进往往体现为学习方法、进化算法等方面,这些方面在现在的专利体系下很难获得专利授权。其次,现行的技术交易主要是通过合同交易来完成,而人工智能价值实现的方式更多依赖于合作、协同应用,通过动态的系统嵌入运行来实现其价值功能。再次,人工智能技术专业性极强,需要促进相关专业技术市场的发展来重点引导不同类型的创新型技术市场的发展,如美国国家技术转移中心、英国技术集团、德国弗朗霍夫学会、日本技术研究所等实体技术市场以及欧洲的创新驿站等网上技术市场。最后,也是最重要的,人工智能的开发和应用依赖于数据资源。例如,欧共体委员会发布的《关于欧洲合作智能交通系统战略协作、连接和自动移动性的决议》就提出:“个人数据和隐私保护是自动驾驶汽车成功部署的决定性因素,必须使用户确信他们的个人数据并非商品,用户能够有效控制数据的使用方式和目的”。目前,很多具有创新力的机器学习研发工作主要由著名大学研究机构或大企业承担,它们的优势在于能够获得数据资源,其中很大一部分是可公开数据资源,当然这也是目前许多人工智能可验证和可确保透明度的前提。但是,这显然是不够的。那么,如何确保人工智能创新中的合理、充沛的数据资源来源呢?此外,人工智能应用也要求用户使其数据处于有序状态,确保人工智能应用中的相关专有数据得到适当的整理和保护,那么如何做好这些数据的管理工作呢,其法律依据何在?实践表明,目前应用者主要依靠开发特定的人工智能系统来协助检索、挖掘并整理公司系统和服务器的数据,从而达成机器学习的先决条件。现在的科技产权制度并没有解决这些问题,亟待从人工智能研发和应用的合理需要的具体角度做出相应完善。

   (二)科技风险管控法语境下的人工智能规范问题

   现有管控工业风险、劳动保护、事故责任、环境保护和特殊科技风险的科技风险法律制度,对于人工智能同样具有可适用性。人工智能作为科技,无论其开发还是应用,同样存在安全、灾害和特殊技术风险问题。同时,人工智能还具有独特的科技安全和风险问题,因此需要特殊应对。第四次工业革命及其科技挑战,至少面临以下几个问题:(1)如何确保合理分配第四次工业革命的效益;(2)如何管理第四次工业革命的外部性效应特别是控制风险和伤害,包括针对弱势群体、自然环境和未来世代的保护措施,以防范意外后果、变革成本、次生影响或蓄意滥用新技术等问题;(3)如何确保第四次工业革命及其科技开发和应用由人主导、以人为本。这些是前三次工业革命时代科技立法考虑不多的。笔者认为,就人工智能科技的特殊研发和应用而言,目前至少面临5项特殊安全或风险问题。

   第一,人工智能不确定的技术风险。目前人工智能的方法在结构上还不够完善,今后也不可能百分之百完善,可见技术风险不能避免。因此,在人工智能运用中,要特别注意防范这种不确定的技术风险。应当在设计和应用人工智能时,同时配套安全保障;在重要领域部署人工智能时,要做到确保其具有支持业务稳定、持续运行的性能,并保证安全技术措施同步规划、同步建设、同步使用。鉴于人工智能技术的特殊技术风险,尤其要避免技术误用,因为一旦出现错误的匹配、错误的输入,可能产生难以预计的后果。例如,在一次德国的人机互动中,协同工人因误用而导致被工业机器人打死,这既有误用的因素,恐怕也有技术安全设计的问题。

   第二,人工智能偏离设计应用的风险。人工智能的行动、决策是否保证其与设计者的目标一致,或者保证始终与控制者合作,都需要依靠技术本身,但现在的技术并不能保证万无一失,尤其目前机器学习技术并不能确保人机协同的绝对可预定性,更不能保证人机价值观的一致。如果不加以风险管控,一旦偏离目标,后果不堪设想。例如,如果警务机器人的设计者发生偏离,可能错误击毙可疑人员。越是让人工智能执行复杂系统的工作,如管理交通、监控安全,就越要注意这样的风险。目前的一种策略是,在设计时强化安全伦理,即所谓的机器人原则,但问题是这仍然只是一种设计而已,其在正常情况下固然可以更好地指导机器人行动,但并不能真正解决运行中的偏移。因此,正确的方法还应该包括增加对运行中的人工智能训练,通过训练和及时调整使技术设计的可行性转化为行动的一致性。此外,还应该引入可检验、可修正、可控制的人工智能应用模式。

   第三,人工智能被非法使用的风险。例如,企业通过人工智能运用进行歧视、不公平交易、窃取他人数据或者暗箱操作。欧盟数据保护委员会2015年11月发布《应对大数据挑战:呼吁通过设计和可责性实现透明性、用户控制及数据保护》,提出要重视大数据对穷人或者弱势群体的歧视,并提出是否可以让机器代替人类来做道德、法律等判断的问题;美国联邦贸易委员会2017年1月发布《大数据:包容性工具抑或排斥性工具?》,要求关注大数据中对于消费者的歧视和偏见问题,确保关于消费者公平机会的法律得到有效执行,同时防止大数据分析中采取歧视等不公平行为。又如,犯罪分子或恐怖主义使用人工智能或者欺骗、入侵、操纵、修改别人的人工智能。人工智能的非法使用,也可能体现在国际层面,如国家或个人开发不可信任或不加区别的人工智能武器。人工智能安全漏洞的严峻性也在不断升级,一部分是因为人工智能使用者自身违规设计或应用导致的,也有相当一部分来自外部的不法行为。

   第四,人工智能的社会风险。在经济、管理和社会服务的许多领域,人工智能淘汰了一些工作岗位,给劳动力市场带来影响和挑战。例如,富士康在近年来有约6万工人被机器人取代。这种风险还在扩大。人工智能的社会风险,广义上还包括技术迭代导致的各种社会不适应。我们是简单奉行物竞生存论,还是应当也重视社会和谐价值?每一次工业革命都会导致剧烈的社会变化,有些人能够适应变化,但也有很多人并不容易适应变化。而且,“我们并不能保证所有适应性行为都对世界或宇宙有益,有时这些行为也可能有害于我们的生活”。人工智能的社会风险,也包括新科技应用可能导致的社会分配公平问题。新的财富和福祉分配很可能并不公平,特别是财富和机会向少数人集中,导致新一轮赢者通吃效应。这种现象不仅存在于国内社会,也存在于国际社会。从国际社会而言,人工智能可能加大国家之间的极差。发达国家在享受人工智能发展福利的同时,应负有在维持和构建良好国际秩序的基础上做好人工智能国际利益协调的责任。

   第五,人工智能的伦理风险。人工智能是一种具有认知能力的技术,与人具有相通性。目前,人工智能技术虽然离通用智能特别是全智能还有差距,但在一些场景互动方面(包括游戏、客服查询、医疗诊断、自动驾驶汽车导航)的表现已经接近人类甚至超过人类。认知能力原本是人类独有,现在可以为人工智能所有,这种情况势必导致出现与其他科技不一样的伦理风险。人类伦理的一个根本追求是种的保全或者说的人自身的保全。如果下一波开发出仿真人或者超级智能,这个特殊的伦理问题就会更加严峻。这是人工智能特殊的技术风险之一。那么,我们可以在多大程度开发和应用这种具有认知能力的机器或软件?假设目前还可以实施允许开发和应用的通用政策,我们是否需要就伦理风险达到某种级别的人工智能开发、应用和运行区别不同层次进行严格管控?是否可以赋予具有接近或超越人类认知能力的人工智能以完全自主决策的权力,因而也具有与人同等的刑法、行政法、民法主体地位?是否应当确保人类对于人工智能的可信任与合理期待?是否需要对人工智能植入某些必要原则、伦理标准并确保有效的运行监管?是否可以开发和部署负有特殊职能的警务机器人以及如何管控?是否可以开发和部署致命自动化武器或战争机器人以及如何管控?如何应对和救济人工智能对伦理安全的威胁或损害?是否可以惩罚甚至“杀死”所谓“不法”或者“犯罪”的人工智能以及如何执行?现实中的人应该如何对待智能机器人?等等。这些伦理风险问题归结起来,就是如何处理人类与人工智能的关系,应当建立何种人类与人工智能相处的基本规则,特别是与其中的机器人相处的基础规则。这些问题越来越受到关注,不断促成阶段性的人工智能伦理政策或规则的形成。当前一种人本的、普惠的新科技思想正在兴起,认为包括人工智能在内的第四次工业革命的技术应该具有价值取向,技术应当“赋能而非支配”,未来应当“由人类设计,造福于人类”,技术应当“使价值成为特点而非漏洞”,主张人工智能技术应该包含一整套假设、价值观和原则,应当优先考虑社会价值观,兼及利益相关者,服务于人民和社会制度。

   美国科幻作家艾萨克·阿西莫夫早在1950年就提出用“机器人三定律”来防止机器人失控:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。可见,最早的关于机器人的伦理考虑只是希望机器人不给人类带来伤害或威胁而已。后来,还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。今天,随着人工智能的新一轮发展,关于人工智能的伦理问题,有了更进一步的认识。但是总体上,国际社会尚未形成适用于人工智能开发和应用的全球伦理规范。

   2016年,美国电气和电子工程师协会发布人工智能伦理报告——《利用人工智能和自主系统最大化人类福祉的愿景》,将人工智能定性为“社会-技术系统”,倡导深化价值观。该报告提出发展人工智能的4项原则,即人类利益原则、责任原则、透明原则、教育和意识原则。2019年2月,美国总统特朗普发布第13859号《关于启动“美国人工智能行动倡议”的行政令》,随即美国国家标准与技术研究院在2019年8月发布《美国如何领导人工智能:联邦参与制定技术标准及相关工作的计划》,提出要确保使用人工智能技术的系统可靠、稳健、值得信赖。其中也明显包含一些最低伦理标准,但主要还是集中在可安全信任的技术伦理问题,对于相关人文伦理关切尚欠明确。

   为提升人们对人工智能产业的信任,在人工智能高级别专家组起草的支持下,2019年4月8日欧盟委员会发布《可信人工智能伦理指南》,明确可信赖的人工智能伦理准则,同时宣布启动试行阶段,并邀请多方面对该准则进行测试。根据欧盟委员会的解释,人工智能的伦理问题有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。“可信赖的人工智能”包括7个关键条件:人类的自主性和监督,技术的健全性和安全性,隐私和数据管理,透明度,多样性、非歧视和公平性,社会福祉,问责机制。

2017年我国国务院发布《新一代人工智能发展规划》(以下简称《规划》),国家开始认识到人工智能发展可能引发方方面面的问题,其中包括伦理问题,提出要重视人工智能法律伦理的基础性研究。2019年6月17日,我国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《新一代人工智能治理原则》),提出人工智能治理的框架和行动指南,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开发协作、敏捷治理8个原则,(点击此处阅读下一页)

进入 龙卫球 的专栏     进入专题: 科技法   人工智能立法  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 宪法学与行政法学
本文链接:http://www.aisixiang.com/data/119847.html
文章来源:《法商研究》2020年第1期

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2021 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统