龙卫球:科技法迭代视角下的人工智能立法

选择字号:   本文共阅读 771 次 更新时间:2020-01-16 08:46

进入专题: 科技法   人工智能立法  

龙卫球 (进入专栏)  

目次

一、正确认识作为当代科技发展新表征的人工智能二、科技法在工业革命背景下的兴起与演化

三、人工智能的科技法规范路径

四、科技法视野下的人工智能规范问题

五、结语:加快制定人工智能科技特别法

摘要  人工智能以机器学习方法为支持取得突破,成为引燃第四次工业革命的表征科技,促生巨大的社会生产生活迭代发展态势,也带来巨大的法律挑战。人工智能的立法基础和路径,应当深入到科技法及其迭代发展的语境之中加以认识,并且自觉体现“历史-发展”“社会-技术”的连接性。一方面,人工智能具有科技事物的本质,属于科技法的规范对象,同时它作为一种具有巨大驱动力且尚具有上升空间的新兴科技,给科技市场、生产安全、科技风险、科技政策等领域均带来大量的新的具体问题;另一方面,人工智能因具有认知能力而与人类智慧相通,导致复杂的伦理问题。这些问题都亟待深入研究,并形成相关法律规范。

关键词  人工智能  科技法  规范  立法路径

人工智能科技及其应用近年来呈勃兴之势,引发当今信息科技革命大背景下的又一波新浪潮。2018年欧盟委员会的一份人工智能战略报告指出,采取认知系统与人工智能技术,将使全球商业收入从2016年的64亿欧元增长到2020年的378亿欧元,预计到2030年,人工智能将为全球经济贡献12.8万亿欧元,相当于今天全球国内生产总值(GDP)增长了14%。目前中国和美国相关产业布局走在世界前列。据统计,2018年全球人工智能企业共计15 916家,其中中国3 341家,合计融资规模达165.54亿美元,占全球人工智能企业融资数额的46.94%;美国4 567家,合计融资规模为135.93亿美元,占全球人工智能企业融资数额的38%。与此同时,相应的规范问题接踵而至,关于人工智能规范的讨论成为热点:有从法理学法哲学角度来讨论的,如思考人工智能时代的法律代际问题、人工智能的法伦理发展、现行法在人工智能应用下的治理危机等;有对某些特定问题展开讨论的,如机器人或人工智能的法律地位、自动驾驶的刑民事责任、人工智能生成物的权属、智能合约或某种程度商业自主化决策的法律后果等;也有从人工智能的技术架构探究特殊规范方法或者机理的,如智能算法的规范研究;等等。但笔者认为还有重要角度需要关注。人工智能是燃爆新一轮工业革命的表征科技之一,具备科技事物的本质属性,既有科技法对人工智能的规范因循不可忽视。因此,笔者拟立足科技法及其迭代发展的语境,结合人工智能在当下的重要特质,对人工智能立法的基础、路径及相关具体规范问题进行思考和分析。


一、正确认识作为当代科技发展新表征的人工智能

第四次工业革命正在发生是已经被广泛认可的事实。第四次工业革命因信息科技和生物科技的迭代发展而勃发。世界经济论坛创始人德国学者克劳斯·施瓦布指出:“从人工智能到生物技术,从先进材料到量子计算,一系列强大的新兴技术带来了大量的机会与挑战,并且将根本上改变我们的生活方式。我们将这一过程称为第四次工业革命。”施瓦布特别强调,对于第四次工业革命,要关注其与第三次工业革命的紧密联系,因为“推动第四次工业革命的新兴技术建基于以往工业革命的知识和系统,特别是第三次工业革命的数字技术”。其中,信息科技革命就是跨越两次工业革命的科技革命,并经历了三个阶段:(1)第三次工业革命末期即20世纪90年代开始形成第一波信息科技革新浪潮,即世界互联网化。最初,由互联网推广应用作为牵引,逐渐进行浏览器、电子邮件、信息门户网站等开发,然后到21世纪初前后形成全球互联网体系,并且从社区交流发展到广泛的经济、社会和政治的信息交互应用。其特点是世界信息互通,使人们之间的信息交往瞬间扁平化。有识之士称,此时我们进入“世界是平的”时代。(2)大约在2010年前后,信息科技革命出现第二波浪潮,移动互联网、云计算等的出现直接导致大数据及其应用的强势蔓延,迎来“大数据时代”。这次大数据化的信息科技突变昭示着第四次工业革命的到来。(3)人工智能科技在机器学习技术创新下以一种强势的新表征方式出现,成为信息科技的新宠儿,直接引发信息科技革命的第三波浪潮,并使第四次工业革命的开启更加明显。人工智能最早可以追溯到图灵测试。20世纪60年代,机器人移动技术曾经成为一次里程碑事件,但意义有限。但是现在,通过大数据和深度学习等新技术的结合,人工智能脱胎换骨,与既往的技术版本具有质的不同。在大数据的促动下,人们通过发现和改进一种机器的深度学习方法,特别是开发语音识别、图像识别等新技术和新方法,使得人工智能发展到具有极高认知能力的新阶段,同时不断嵌入各种应用领域,成为引领新一轮信息科技产业化的表征科技。2012年,谷歌(Google)发布人脑模拟软件,这是一种划时代的具备自我学习功能的软件,可以模拟脑细胞的相互交流,可以通过看优兔(Youtube)视频学习识别猫、人和其他事物,从而引发人工智能新兴技术新想象。2016年,谷歌旗下的深度思考(Deep Mind)出品的阿尔法围棋(AlphaGo)大战韩国职业围棋手李世石并连胜三局等事件,再次引起人们对人工智能的关注。此后,谷歌、脸谱(Facebook)、微软(Microsoft)等互联网巨型公司纷纷表示未来将更加重视人工智能,除开源机器学习框架,还投入巨资收购研发人工智能的公司和人才,使得2016年成为人工智能元年,麦肯锡报告称“人工智能进入突破阶段”。人工智能应用的后果是,“彻底改造数字经济,很快也将重塑实体经济。人工智能在21世纪早期的目标包括让自动化机械引领物理世界的发展,以及实现人类与计算机之间的互联”。换言之,我们的生产和生活模式正快速通过机器学习系统植入或者应用智能化且不断升级。这种智能化,从商业智能模式到工业智能系统,从企业智能到政务智能乃至军事智能,无所不在。机器学习方法本身还在不断发展,在不久的将来,许多领域会由智能辅助变为智能混合乃至智能接管。以机器学习为支持的人工智能技术,在当下直接促成一个所谓“弱人工智能”时代的到来,并且继续前行。

就人工智能今后到底会经过哪些技术突破和应用阶段,目前存在不少的预测研究。有人认为,人工智能软件架构可能突然出现重大革新,从而使得人工智能很快达到人类智慧水平。例如,美国未来学家雷·库兹韦尔就认为,在2045年前后人工智能将发展到一个“奇点”,跨过这个点人工智能就将超越人类智慧。但是,也有人工智能研发专家认为,人工智能大概需要几个世纪才能完成。长期从事人工智能研发项目的美国著名未来学家罗宾·汉森就认为大概需要200~400年才会出现真正的人工智能,基于机器学习(图像识别、语音识别)的人工智能技术在硬件和软件上不久都会遇到瓶颈,下一个阶段应该是以仿真人(大脑仿真)为基础的人工智能的发展,这个过程大概需要一个世纪,然后进入仿真人时代,提出仿真人规范需求,之后才进入不以仿真为基础的人类智慧水平的人工智能开发期。

不管怎样,今天出现的人工智能科技及其应用是科技史上一次石破天惊的事件,应当作为当代科技发展的新表征加以认识和对待。作为人类历史上爆发性科技革命背景下的一种塑形技术,人工智能与第四次工业革命的开启息息相关,是导致第四次工业革命发生的关键科技之一。第四次工业革命的表征科技,目前公认包括工业物联网、云计算、工业大数据、工业机器人、3D打印、知识工作自动化、工业网络安全、虚拟现实和人工智能9种。其中,工业互联网、云计算和工业大数据是三大底层基础设施,工业机器人和3D打印是两大硬件技术,知识工作自动化和工业网络安全是两大软件支持,虚拟现实和人工智能是面向未来的两大终极技术。人工智能,一方面作为面向未来的爆发性终极科技之一,在科技成为第一生产力的当下,对于人类生产生活的影响必定是重大的甚至是颠覆性的。人工智能带来的积极影响,主要体现为新兴科技带来全新的创造、福利和便利;但也可能有消极的影响,主要体现为新兴科技导致新风险和“适应不良症”。另一方面,人工智能本身依旧是一种科技,具有自身生产、发展的条件性和过程性,目前还处于以特定识别技术为支持的机器学习的阶段,尽管可以预期其会不断提升直至达到或者超越人类智能水平,但是主流观点认为还有足够长的时间跨度,由此存在阶段区分的必要。这是当前人工智能技术的时代背景和现实表达,也是其规范问题产生的时代条件和现实基础。


二、科技法在工业革命背景下的兴起与演化

(一)三次工业革命背景下科技法的迭代演化

回顾人类法律的发展,可以发现,自进入工业革命以来,除普通法或通用法的发展之外,法律体系中出现了专门的科技法,并呈现不断扩张发展的态势,占据越来越重要的位置。第一次工业革命之前,并无科技法这样一个专门领域,但是自第一次工业革命开始,科技法作为一个专门领域诞生了,并且以某种特定的方式影响和联系着普通法律。此后,科技法随着科技发展和工业革命迭代,呈现不断扩张、不断升级的趋势,其与三次工业革命发展同轨,大致也经历了三个发展阶段。

1.第一次工业革命时期:鼓励科技发明之科技法

在工业革命的背景下,近代法律体系诞生并基于经济、政治和社会思想的根本变化以个人理性和自由为基础出现根本转型,且与科学主义结合,在一般法律范畴的意义上产生了近代意义的宪法、民法、刑法、诉讼法等法律部门。与此同时,基于工业革命背景下科技发明具有的不同寻常意义,首次把科技问题纳入立法,产生了全新的科技法部门。最早出现的科技法,主要是以具体立法形式呈现的科技市场法:包括具有赋权意义的专利法和其他知识产权法,具有鼓励交易价值的技术合同法和技术中介法等;也包括最早的科技风险法,主要体现为科技应用于工业生产的语境下为应对生产安全需要的工厂法,以及工业事故灾害的管理和责任立法。

首先,这一时期科技市场法得到创制。在第一次工业革命时期,不仅发明了蒸汽机等新科技,更重要的是通过法律创设了专利权等新型财产权,赋予科技发明人以专利权的刺激方式,鼓励科技发明和创造,从而在制度上为工业革命提供激励和保障。专利法的出现,产生将科技、法律、经济协调起来巨大功效,这在历史上是前所未有的。过去科技创造完全出自个人兴趣,发明出来的成果自动纳入公共领域。专利法出现之后,这种局面得以改变,具有财产意义的专利权变成一种全新的利益驱动机制,科技发明成为更多个人和工厂企业积极的法律利益追求。这一时期专利法发展最重要的表现是1623年英国议会通过垄断法,明确规定专利制度的基本理念和具体形式,被认为是“发明人权利的大宪章”。此后,美国于1790年颁布实施联邦专利法,德国于1877年颁布实施专利法。这一时期,得到发展的还有专利交易制度和技术合同制度,并成为科技市场法不可或缺的一部分,专利权或科技发明只有置于自由交易之中,才能获得更加充分的价值实现和转化的机会。

其次,这一时期也开始关注工业革命带来的生产安全问题,这是早期科技应用导致风险的基本表现形态。科技发明在工厂条件下得到应用后,在带来规模效益的同时,也容易带来规模安全和灾害问题即工厂安全和灾害问题,其中特别是对工人的生产安全威胁和事故损害。在社会压力下,最早开展工业革命的国家逐渐关注工厂安全和事故,发展出最初的工厂安全法则和劳动安全法则。1802年,英国政府制定《保护学徒的身心健康法》,建立最初的工厂劳动保护规则,旨在保护工厂劳动者的健康,确立学徒的劳动时间、矿工的劳动保护以及工厂的室温、照明、通风换气等工业卫生标准。1833年,英国颁布世界上第一部系统的《工厂法》,对工厂条件下的工人的安全、卫生、福利作出规定。

2.第二次工业革命时期:鼓励科技发明和防治工业灾害并举之科技法

这一时期,专利法和反垄断法的存在,从正反两面鼓励了科技发明的自觉,工业研究实验室不断涌现并且走向成熟,在大量新兴科技发明和发明方法的支持下,除传统纺织、工矿等领域外,电讯、电气、有机化工等领域也得到发展,促进了产业化的极大发展。科技法也因此需要在进一步提升鼓励科技发明和应用的同时,直面产业化带来的生产安全和事故频发的威胁。

首先,从科技市场法来说,这一时期是专利法等知识产权法不断扩展的时期,国际专利关系出现前所未有的发展,国际社会缔结《保护工业产权巴黎公约》。这一时期,技术交易更加频繁和多样化,技术合同也得到丰富和广泛应用,因此技术合同制度更加发达,相关规范除单行规定之外,也散见于民法、商法、反垄断法(反不正当竞争法)等法律之中。

其次,工业产业的急剧扩张,使得新老领域均面临更加严峻的工业生产安全和灾害问题。工人安全和健康陷入困境,工厂事故不断,产品事故、交通事故等损害频发,环境污染日趋严重。这些不仅引发严重的社会矛盾,而且加剧阶层对立和社会动荡。有关国家在几次社会矛盾大爆发之后,开始强化管控工业安全和灾害、减缓社会矛盾,制定一系列应对工业安全和灾害的法律。随着高尖端科技应用和产业化扩展,原先零星分布的职业安全法规已经无法适应需要,各国纷纷完善工厂法并制定统一的劳动安全法。此外,产品责任法、交通事故责任法、灾害保险法等也得到发展。这些立法许多是事后规则,但通过严格责任、惩罚性赔偿等使得其具有预防功能;但也有许多是事先和事中规则,如产品质量管理制度、交通安全管理制度、灾害保险制度等。这些立法极大地促成工业灾害和事故治理体系的确立及完善。

3.第三次工业革命时期:突出科技政策作用之科技法

这一时期,科技立法鼓励科技发明的立场并没有变化。工业化国家继续完善专利法等知识产权法,并且在20世纪晚期明显出现“强专利(知识产权)”趋势;工业化国家特别是美国在全球推行知识产权保护,国际社会缔结《与贸易有关的知识产权协定》,专利的国际申请不断增加,专利战略成为国家之间、跨国企业之间的核心竞争战略之一。这一时期的科技立法还继续提升工业安全和灾害治理。工业安全和灾害治理法律得到进一步强化,新兴的生态环境问题得到关注,环境法得到极大发展。此外,这一时期的科技立法开始关注特殊科技安全和风险,不断制定相关特殊管控规范。针对生化科技、核科技、生物科技、信息科技等新科技的发展和应用,人们发现这些特殊新科技在带来巨大福利可能的同时,也带来前所未有的特殊风险,食品药品安全、生化安全、核安全、生物安全、网络信息安全等不断凸显出规范急迫性,激发管控特殊科技风险的强烈要求,导致相关技术安全和风险管控法律的出台。“9·11事件”之后,恐怖主义带来的不确定性因素增加,特殊科技风险管控的问题也显得更加迫切。

这一时期,科技立法最突出的扩展是强化科技政策作用,更加注重政策导向和机制作用,从而发展出一套旨在促进科技进步、转化和创新的特殊法律制度,可以简称为科技政策法。20世纪40年代,各国动员科技资源备战,导致科技进步与国家组织紧密结合。例如,美国便成立国防研究委员会组织科技资源增强国防能力,1941年建立科学研究和发展局,1945年又以“科学:没有止境的前沿”为理由建立国家研究基金会。此后各国竞相以提升国家竞争力和促进产业升级为目标,引入科技政策机制,干预科技发展,促进科技进步、转化和创新。20世纪50年代,各国科技政策致力于战后恢复和重建,大力投资基础研究和高等教育,为重建和发展打造知识资源和人力资源的基础,并在经济扩张领域,促进电子、石化、原子能科技创新,力推新兴科技的经济转化,逐渐形成“技术-经济”范式。20世纪60年代,随着经济复苏,市场需求成为科技政策的关注点,各国政府由简单的大力支持基础研究转为更加注重“成本—效率”比以及项目效益评估,科技立法也进行了许多调整。20世纪80年代开始,各国更加强调科技资源供应和市场需求的结合,在微电子、生物技术和新材料等新领域实施“技术-经济”范式,后来调整为“技术-经济-环境-安全”范式,在“技术-经济”发展的价值追求中,同时引入生态环境保护和特殊技术风险防范。

与此同时,各国启动创新政策,推进科技发展与产业化提升的紧密融合。所谓创新政策,按照英国著名学者罗斯韦尔的界定,是科技政策与产业政策协调的结合。20世纪初,面对新一轮科技大发展的机遇,各国注重快速提升和确保国家竞争力,大力推进科技创新政策,甚至上升到科技创新战略的高度。20世纪末、21世纪初欧盟相继公布《创新绿皮书》(1995年)、《欧洲创新行动计划》(1996年)、《欧洲创新趋势图》(2000年)、《研究与创新战略》(2005年)、《2020战略创新计划》(2011年)。奥巴马执政时期,美国发布了两份《美国创新战略》(2009年,2011年), 明确提出美国加速创新的战略规划和措施。特朗普执政后,美国对内重视自下而上的科技创新, 发布2018年财年预算蓝图, 对原有科技投入结构作出重要调整, 废除《清洁能源计划》《全球气候变化计划》等, 支持油气和煤炭行业发展,对外则强推美国优先, 用力打压其他国家特别是中国的科技创新, 以确保自己的优势。

(二)中国科技法的兴起和跨越式发展

中国科技法的发展没有体现出上述三个阶段的过程性。中国在前两次工业革命中处于边缘,某种程度上可以说是旁观者。第三次工业革命兴起之时,中国开始紧追,三步变成一步走。20世纪50-70年代,中国按照苏联模式建立科技体制,实行计划管理,集中力量动员有限科技资源,解决一些战略优先目标,成功发展核武器、空间技术和某些基础科学领域。20世纪70年代末开始,中国启动经济体制改革,基于“科技是第一生产力”的认识,确立新时期“面向依靠”发展科学技术的新方针,即“经济建设必须依靠科学技术、科学技术工作必须面向经济建设”,并以此启动科技体制改革,全面助力经济体制改革。之后,科技政策又经历了1995年实施“科教兴国”战略、加强国家创新体系建设和2006年“自主创新战略”、增强自主创新能力的两次提升。

中国科技法从改革开放开始得到重视和发展。20世纪80年代,中国开始积极制定《中华人民共和国专利法》(1982年)等知识产权法律,出台《中华人民共和国技术合同法》(1987年)等技术交易法,建立旨在鼓励、刺激科技发明和进步的科技财产权制度、交易制度,这些法律制度随着改革开放的深入不断修改和提升。自20世纪90年代 ,中国基于现代科技应用的工业化背景,制定和完善工业安全、劳动安全、事故管理、产品责任等法律制度,先后出台《中华人民共和国矿山安全法》(1992年)、《中华人民共和国劳动法》(1994年制定,其中一章专门规定劳动安全卫生)、《中华人民共和国安全生产法》(2002年制定,2009年和2014年修订)等。同时,中国也注意到与科技工业应用相关的环境保护、特殊技术安全等问题,出台一系列的环境保护法和特种技术安全法。除交通安全、产品质量安全、食品药品安全方面的法律之外,还包括《民用核设施安全监督管理条例》(1986年)、《中华人民共和国特种设备安全法》(2013年)、《中华人民共和国网络安全法》(2016年)、《中华人民共和国核安全法》(2017年)和正在起草的《中华人民共和国生物安全法》等。中国科技法从20世纪80年代确立“面向依靠”发展科学技术方针以来,特别强调国家政策对科技进步、转化、创新的作用,先后制定《中华人民共和国科学技术进步法》(以下简称《科学技术进步法》)(1993年制定,2007年修改)、《中华人民共和国促进科技成果转化法》(以下简称《促进科技成果转化法》)(1996年制定,2015年修改)等科技政策法,以国家政策支持、激励引导的方式,促进科技研发、转化、创新。面对新一轮科技革命,为提高科技创新的力度和强度,中国将提升科技创新能力定为基本国策,出台系列政策文件或战略纲要。


三、人工智能的科技法规范路径

人工智能在本质上属于科技事物,应当将其作为科技事物加以审视。一方面,人工智能通过机器学习技术具有认知能力。现在机器学习依托的方法,包括线形回归模型、决策树、贝叶斯网络、人工神经网络以及进化算法,加上传感器与材料科学的不断突破,人工智能的感知、移动和认知能力发展迅速。这种认知能力与人类独有的综合学习和高级推理能力具有相通性,并且有超越人类的趋势。例如,2014年聊天机器人通过简单的图灵测试,2016年阿尔法围棋击败世界围棋冠军。另外一方面,这种机器学习技术能够形成的能力目前还只是“弱人工智能”,距离通用人工智能或者超级人工智能仍有相当一段距离。基于机器学习的人工智能缺乏人类具有的大背景和常识,尚达不到通用人工智能的高度,只适宜用于完成具体明确任务,如谷歌的搜索算法、苹果的语音会话、智能手机的文字输入预测、选择性呈现网络广告、强化网络安全、控制工业机器人、自动驾驶汽车、归纳文本信息以及诊断某些疾病等。

对于人工智能的规范思考,从回溯事物本源的意义上说,需要盯紧其作为第四次工业革命新兴科技具有的科技本质属性以及当前依靠机器学习发展认知能力的特殊性。首先,对于人工智能的规范,应当自觉遵循人类既有的科技规范路径,充分利用现有的科技法加以规范评价。换言之,现在的科技法体系应该成为规范当前人工智能的规范体系。这是法治主义应该秉持的基本立场,“法治”从字面意思看就是法律的统治,即人们应当遵守法律。美国法学家哈耶克认为,坚持法治意义在于“规则的相当确定性使我们又可能预见权威在特定情况下将如何行使其强制性权力,从而根据这种常识安排个人事务”。现在的科技法体系,包含鼓励科技发明和应用的科技市场法,如专利法和其他知识产权法、技术合同法、技术中介法等,包含管控工业和科技风险的法律,范围涉及工业生产安全、劳动保护、事故责任、环境保护和特殊技术风险等,以及科技政策法即旨在促进科技进步、转化和创新的法律政策。其次,对于人工智能的规范,又要注意科技事物的发展性和特殊性,由此对现有规范进行更新调整和特殊变化,以达到合乎时宜和具体合理。一方面,要体现人工智能的发展性,认识人工智能是当下的新科技,具有作为正在引领第四次工业革命的一种表征科技的定位,在与过去加以充分比较、对未来加以合理预测的基础上,对其带来的新发展、新问题加以规范。正如英国法理学家哈特所说:“人类的法律创制者们,不能够预见到所有未来可能发生的相关情形。这意味着,所有的法律规则与概念都是‘开放的’,并且当一种未曾预见到的情形发生时,我们必须进行一个全新的选择,并且以此改进我们的法律概念,使它们更符合社会所预期的目的。”另一方面,要体现人工智能的特殊性,在将既有科技法制度加以一般适用的同时,要善于认识人工智能的具体性规范要求,就此进行具体立法或者适用。这种具体性还体现在人工智能开发和应用功能的多样性上,因此还应当做好基于功能区分的规范细分。人工智能新功能问世的速度日益加快,其不仅被用来分析和识别信息、物体,获取数据,辅助决策,而且被应用于服务领域,如新闻、医疗、护理、会计、教学、法律、交通领域,或者被应用于工业领域,如独立装配汽车的工业机器人,甚至可能应用于警务和自动武器领域。这些基于应用领域和功能的不同,导致了合理规范需求的差异性。


四、科技法视野下的人工智能规范问题

(一)科技市场法语境下的人工智能规范问题

科技市场法,特别是专利权等知识产权制度以及技术合同、技术中介等技术市场交易制度等,对于人工智能具有基础适用性,应该成为驱动人工智能技术进步和应用的基本制度。人工智能作为一种发展中的科技,是决定第四次工业革命的关键因素之一,具有为行业和社会创造巨大效益的潜能,因此有必要积极推动其发展,对此最有效的方式就是运用科技市场法的赋权、交易和转化激励机制。目前人工智能需要不断完善,处于亟待着力开发和提升的时期,预计全球对于人工智能机器人的投入在2019年超过1 350亿元。基于人工智能将对经济、社会带来巨大价值的认识,包括微软、亚马逊、脸谱、谷歌、阿里、腾讯、百度等在内的巨型互联网企业,都在开发和研究相关的人工智能,研发投资不断增加。其背后的动力,取决于法律对于这种投入及回报提供的支持和保障。

然而,具有特殊性和发展性的人工智能与现行科技市场法的有关规定难以完全契合。人工智能的研发和应用产生许多新的规范问题,需要及时研究和跟进立法。首先,关于人工智能的技术改进往往体现为学习方法、进化算法等方面,这些方面在现在的专利体系下很难获得专利授权。其次,现行的技术交易主要是通过合同交易来完成,而人工智能价值实现的方式更多依赖于合作、协同应用,通过动态的系统嵌入运行来实现其价值功能。再次,人工智能技术专业性极强,需要促进相关专业技术市场的发展来重点引导不同类型的创新型技术市场的发展,如美国国家技术转移中心、英国技术集团、德国弗朗霍夫学会、日本技术研究所等实体技术市场以及欧洲的创新驿站等网上技术市场。最后,也是最重要的,人工智能的开发和应用依赖于数据资源。例如,欧共体委员会发布的《关于欧洲合作智能交通系统战略协作、连接和自动移动性的决议》就提出:“个人数据和隐私保护是自动驾驶汽车成功部署的决定性因素,必须使用户确信他们的个人数据并非商品,用户能够有效控制数据的使用方式和目的”。目前,很多具有创新力的机器学习研发工作主要由著名大学研究机构或大企业承担,它们的优势在于能够获得数据资源,其中很大一部分是可公开数据资源,当然这也是目前许多人工智能可验证和可确保透明度的前提。但是,这显然是不够的。那么,如何确保人工智能创新中的合理、充沛的数据资源来源呢?此外,人工智能应用也要求用户使其数据处于有序状态,确保人工智能应用中的相关专有数据得到适当的整理和保护,那么如何做好这些数据的管理工作呢,其法律依据何在?实践表明,目前应用者主要依靠开发特定的人工智能系统来协助检索、挖掘并整理公司系统和服务器的数据,从而达成机器学习的先决条件。现在的科技产权制度并没有解决这些问题,亟待从人工智能研发和应用的合理需要的具体角度做出相应完善。

(二)科技风险管控法语境下的人工智能规范问题

现有管控工业风险、劳动保护、事故责任、环境保护和特殊科技风险的科技风险法律制度,对于人工智能同样具有可适用性。人工智能作为科技,无论其开发还是应用,同样存在安全、灾害和特殊技术风险问题。同时,人工智能还具有独特的科技安全和风险问题,因此需要特殊应对。第四次工业革命及其科技挑战,至少面临以下几个问题:(1)如何确保合理分配第四次工业革命的效益;(2)如何管理第四次工业革命的外部性效应特别是控制风险和伤害,包括针对弱势群体、自然环境和未来世代的保护措施,以防范意外后果、变革成本、次生影响或蓄意滥用新技术等问题;(3)如何确保第四次工业革命及其科技开发和应用由人主导、以人为本。这些是前三次工业革命时代科技立法考虑不多的。笔者认为,就人工智能科技的特殊研发和应用而言,目前至少面临5项特殊安全或风险问题。

第一,人工智能不确定的技术风险。目前人工智能的方法在结构上还不够完善,今后也不可能百分之百完善,可见技术风险不能避免。因此,在人工智能运用中,要特别注意防范这种不确定的技术风险。应当在设计和应用人工智能时,同时配套安全保障;在重要领域部署人工智能时,要做到确保其具有支持业务稳定、持续运行的性能,并保证安全技术措施同步规划、同步建设、同步使用。鉴于人工智能技术的特殊技术风险,尤其要避免技术误用,因为一旦出现错误的匹配、错误的输入,可能产生难以预计的后果。例如,在一次德国的人机互动中,协同工人因误用而导致被工业机器人打死,这既有误用的因素,恐怕也有技术安全设计的问题。

第二,人工智能偏离设计应用的风险。人工智能的行动、决策是否保证其与设计者的目标一致,或者保证始终与控制者合作,都需要依靠技术本身,但现在的技术并不能保证万无一失,尤其目前机器学习技术并不能确保人机协同的绝对可预定性,更不能保证人机价值观的一致。如果不加以风险管控,一旦偏离目标,后果不堪设想。例如,如果警务机器人的设计者发生偏离,可能错误击毙可疑人员。越是让人工智能执行复杂系统的工作,如管理交通、监控安全,就越要注意这样的风险。目前的一种策略是,在设计时强化安全伦理,即所谓的机器人原则,但问题是这仍然只是一种设计而已,其在正常情况下固然可以更好地指导机器人行动,但并不能真正解决运行中的偏移。因此,正确的方法还应该包括增加对运行中的人工智能训练,通过训练和及时调整使技术设计的可行性转化为行动的一致性。此外,还应该引入可检验、可修正、可控制的人工智能应用模式。

第三,人工智能被非法使用的风险。例如,企业通过人工智能运用进行歧视、不公平交易、窃取他人数据或者暗箱操作。欧盟数据保护委员会2015年11月发布《应对大数据挑战:呼吁通过设计和可责性实现透明性、用户控制及数据保护》,提出要重视大数据对穷人或者弱势群体的歧视,并提出是否可以让机器代替人类来做道德、法律等判断的问题;美国联邦贸易委员会2017年1月发布《大数据:包容性工具抑或排斥性工具?》,要求关注大数据中对于消费者的歧视和偏见问题,确保关于消费者公平机会的法律得到有效执行,同时防止大数据分析中采取歧视等不公平行为。又如,犯罪分子或恐怖主义使用人工智能或者欺骗、入侵、操纵、修改别人的人工智能。人工智能的非法使用,也可能体现在国际层面,如国家或个人开发不可信任或不加区别的人工智能武器。人工智能安全漏洞的严峻性也在不断升级,一部分是因为人工智能使用者自身违规设计或应用导致的,也有相当一部分来自外部的不法行为。

第四,人工智能的社会风险。在经济、管理和社会服务的许多领域,人工智能淘汰了一些工作岗位,给劳动力市场带来影响和挑战。例如,富士康在近年来有约6万工人被机器人取代。这种风险还在扩大。人工智能的社会风险,广义上还包括技术迭代导致的各种社会不适应。我们是简单奉行物竞生存论,还是应当也重视社会和谐价值?每一次工业革命都会导致剧烈的社会变化,有些人能够适应变化,但也有很多人并不容易适应变化。而且,“我们并不能保证所有适应性行为都对世界或宇宙有益,有时这些行为也可能有害于我们的生活”。人工智能的社会风险,也包括新科技应用可能导致的社会分配公平问题。新的财富和福祉分配很可能并不公平,特别是财富和机会向少数人集中,导致新一轮赢者通吃效应。这种现象不仅存在于国内社会,也存在于国际社会。从国际社会而言,人工智能可能加大国家之间的极差。发达国家在享受人工智能发展福利的同时,应负有在维持和构建良好国际秩序的基础上做好人工智能国际利益协调的责任。

第五,人工智能的伦理风险。人工智能是一种具有认知能力的技术,与人具有相通性。目前,人工智能技术虽然离通用智能特别是全智能还有差距,但在一些场景互动方面(包括游戏、客服查询、医疗诊断、自动驾驶汽车导航)的表现已经接近人类甚至超过人类。认知能力原本是人类独有,现在可以为人工智能所有,这种情况势必导致出现与其他科技不一样的伦理风险。人类伦理的一个根本追求是种的保全或者说的人自身的保全。如果下一波开发出仿真人或者超级智能,这个特殊的伦理问题就会更加严峻。这是人工智能特殊的技术风险之一。那么,我们可以在多大程度开发和应用这种具有认知能力的机器或软件?假设目前还可以实施允许开发和应用的通用政策,我们是否需要就伦理风险达到某种级别的人工智能开发、应用和运行区别不同层次进行严格管控?是否可以赋予具有接近或超越人类认知能力的人工智能以完全自主决策的权力,因而也具有与人同等的刑法、行政法、民法主体地位?是否应当确保人类对于人工智能的可信任与合理期待?是否需要对人工智能植入某些必要原则、伦理标准并确保有效的运行监管?是否可以开发和部署负有特殊职能的警务机器人以及如何管控?是否可以开发和部署致命自动化武器或战争机器人以及如何管控?如何应对和救济人工智能对伦理安全的威胁或损害?是否可以惩罚甚至“杀死”所谓“不法”或者“犯罪”的人工智能以及如何执行?现实中的人应该如何对待智能机器人?等等。这些伦理风险问题归结起来,就是如何处理人类与人工智能的关系,应当建立何种人类与人工智能相处的基本规则,特别是与其中的机器人相处的基础规则。这些问题越来越受到关注,不断促成阶段性的人工智能伦理政策或规则的形成。当前一种人本的、普惠的新科技思想正在兴起,认为包括人工智能在内的第四次工业革命的技术应该具有价值取向,技术应当“赋能而非支配”,未来应当“由人类设计,造福于人类”,技术应当“使价值成为特点而非漏洞”,主张人工智能技术应该包含一整套假设、价值观和原则,应当优先考虑社会价值观,兼及利益相关者,服务于人民和社会制度。

美国科幻作家艾萨克·阿西莫夫早在1950年就提出用“机器人三定律”来防止机器人失控:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。可见,最早的关于机器人的伦理考虑只是希望机器人不给人类带来伤害或威胁而已。后来,还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。今天,随着人工智能的新一轮发展,关于人工智能的伦理问题,有了更进一步的认识。但是总体上,国际社会尚未形成适用于人工智能开发和应用的全球伦理规范。

2016年,美国电气和电子工程师协会发布人工智能伦理报告——《利用人工智能和自主系统最大化人类福祉的愿景》,将人工智能定性为“社会-技术系统”,倡导深化价值观。该报告提出发展人工智能的4项原则,即人类利益原则、责任原则、透明原则、教育和意识原则。2019年2月,美国总统特朗普发布第13859号《关于启动“美国人工智能行动倡议”的行政令》,随即美国国家标准与技术研究院在2019年8月发布《美国如何领导人工智能:联邦参与制定技术标准及相关工作的计划》,提出要确保使用人工智能技术的系统可靠、稳健、值得信赖。其中也明显包含一些最低伦理标准,但主要还是集中在可安全信任的技术伦理问题,对于相关人文伦理关切尚欠明确。

为提升人们对人工智能产业的信任,在人工智能高级别专家组起草的支持下,2019年4月8日欧盟委员会发布《可信人工智能伦理指南》,明确可信赖的人工智能伦理准则,同时宣布启动试行阶段,并邀请多方面对该准则进行测试。根据欧盟委员会的解释,人工智能的伦理问题有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。“可信赖的人工智能”包括7个关键条件:人类的自主性和监督,技术的健全性和安全性,隐私和数据管理,透明度,多样性、非歧视和公平性,社会福祉,问责机制。

2017年我国国务院发布《新一代人工智能发展规划》(以下简称《规划》),国家开始认识到人工智能发展可能引发方方面面的问题,其中包括伦理问题,提出要重视人工智能法律伦理的基础性研究。2019年6月17日,我国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《新一代人工智能治理原则》),提出人工智能治理的框架和行动指南,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开发协作、敏捷治理8个原则,其中涉及伦理治理要求,重点在负责任。我国不少机构和企业做出响应,自动提出其倡导的人工智能伦理要求。但这些还远远不够,距离真正伦理规范的明确性和合理性还有很大距离。

(三)科技政策法语境下的人工智能规范问题

科技政策法对于当前人工智能的开发和应用更加具有可适用性,这不仅仅是因为人工智能科技的发展与科技进步、科技转化政策契合,更是因为其发展代表当前科技创新的重要领域和方向。在我国,《科学技术进步法》和《促进科技成果转化法》提供的诸多进步机制、转化机制固然对人工智能科技的开发和转化具有支持意义,但由于尚存在许多体制障碍,特别是国有企业、事业单位科技成果的严格国有体制和国有资产管理体制,加上市场培育不够,导致科技主体、动力、程序、保障等多方面的局限,严重影响科技进步和转化,目前相关法律面临修改、调整和完善。

人工智能科技政策所面临的更重要的挑战还是特殊化问题。人工智能作为一种全新的具有巨大应用价值同时又具有与人相通的认知能力的科技,应该采取何种科技政策加以促进和管控是一个复杂的问题;加上其本身还在不断的动态发展之中,可以说充满变数。鉴于人工智能独特的发展态势,可以考虑阶段式立法和不成熟时授权政策试点的方式:一个阶段之内已经达成共识的做法,可以通过修法加以确定;一个阶段之内还难以明确但又急需明确的做法,可以通过授权专门部门采取出台政策的方式进行探索。例如,美国学者雷恩·卡罗等认为,人工智能政策的核心问题应该包括:(1)正义和公平。包括应用中的不平等,如搜索引擎将工程师自动关联为男性,将护士自动关联为女性。(2)武力的运用。例如,如何决策人工智能武力的使用,谁为机器的决定负责等。(3)安全和资质。包括设置和确定安全门槛、上岗资质要求、网络安全标准。(4)隐私和权力。人工智能基于模式识别能力、高度精细信息的部署方式等导致更复杂的隐私问题,企业和用户不对称关系导致数据不对称或不平等隐患。(5)税收和劳动力替代。(6)其他问题,如机构建设和专业知识、投资和采购、消除责任的障碍、人工智能的心理模型等。2016年美国发布的《为人工智能未来做准备》提出23项政策建议,包括鼓励私立和公共机构研究是否以及如何以有利于社会的方式负责任地利用人工智能和机器学习,联邦机构应优先考虑人工智能中的开放式训练数据和开放数据标准,联邦政府应探索提高关键机构将人工智能应用于其任务的能力和方法,美国国家科学技术委员会机器学习和人工智能小组委员会应为政府内的人工智能从业者建立一个实践社区,在为使用人工智能的产品制定监管政策时各机构应利用适当的高级别技术专家、各机构应使用全方位的人事分配和交换模式(如雇用机构)来培养联邦劳动力并使其对当前的技术状况有更多不同的看法等。

人工智能对全球当下和未来的影响巨大,特别是形成较大的技术和社会风险,因此相关政策的考量更加复杂,也有必要提升层次。目前,发达国家无一例外都将人工智能的研究和发展提到发展战略的高度,进行系统化的政策引导。一方面,人工智能被确立为科技创新的重点,并赋予其优先发展的战略地位;另一方面,针对人工智能引发的技术、社会、国家安全和人类伦理等问题,引入风险规制政策,积极防范其负效应,趋利避害。随着人工智能研发浪潮在全球兴起,美国、英国、德国和日本纷纷将人工智能的研究和发展上升为国家战略,相继出台相关战略规划,旨在争夺人工智能产业技术制高点。2016年以后,各国人工智能研究和发展的战略化推进更加明显。

美国早在奥巴马执政时期就开始研究人工智能的研究和发展战略。2016年10月,美国发布《国家人工智能研究和发展战略计划》(号称新的“阿波罗登月计划”),旨在运用联邦基金资助不断深化对人工智能的认识和研究,从而使得该技术对社会发挥更加积极的影响,减少其消极影响,同时还发布《为人工智能的未来做准备》;2016年12月,又发布《人工智能、自动化与经济》,提出应对人工智能驱动的自动化经济是后续政府面临的重大政策挑战,下一届政府应该制定政策,推动人工智能发展并释放企业和工人的创造潜力,确保美国在人工智能的创造和使用中的领导地位。2019年2月11日,美国总统特朗普签署《维护美国在人工智能时代的领导地位的行政令》,启动“美国人工智能倡议”,旨在从国家战略层面调动更多联邦资金和资源用于人工智能研发,应对来自战略竞争者和外国对手的挑战。2019年2月12日,美国国防部发布《2018国防部人工智能战略概要:利用人工智能促进安全与繁荣》。2019年6月,美国白宫更新《国家人工智能研究和发展战略计划》,将政府人工智能研发战略重点扩展至8个。

2018年3月27日,欧盟委员会下属欧洲政治战略中心发布《人工智能时代:确立以人为本的欧洲战略》,介绍欧洲人工智能发展,提出欧洲应采取的对策;2018年4月25日,欧盟委员会向欧洲议会、欧盟理事会等提交《欧盟人工智能报告》,描述欧盟人工智能在国际竞争中的地位,制定2018-2020年以及未来10年欧盟人工智能行动计划,提出三大目标,即“加强公共部门和私营部门人工智能投资,增强欧盟的技术与产业能力,推进人工智能应用”“为迎接社会经济变革做好准备”“确立合适的伦理和法律框架”。英国在2016年先后发布《人工智能对未来决策的机会和影响》和《机器人技术和人工智能》。2017年11月,英国发布《产业战略》,提到“人工智能与数据经济”的挑战;2018年4月26日,美国发布《产业战略:人工智能领域行动》,并就生产力基础领域制定具体行动措施。2018年11月15日,德国发布人工智能战略,提出“人工智能德国制造”,全面思考人工智能对社会各领域的影响,定量分析人工智能给制造业带来的经济效益,重视人工智能在中小企业中的应用,并计划2025年前在联邦层面投入30亿欧元用于发展人工智能。

我国自2015年以来就开始出台政策支持人工智能发展。例如,《规划》旨在抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国。《规划》提出面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,提出“三步走”战略目标:即2020年实现“人工智能总体技术和应用与世界先进水平同步”,初步建成人工智能技术标准、服务体系和产业生态链,人工智能核心产业规模超过1 500亿元,带动相关产业规模超过1万亿元;2025年,人工智能产业进入全球价值链高端,人工智能核心产业规模超过4 000亿元,带动相关产业规模超过5万亿元;2030年,人工智能产业竞争力达到国际领先水平,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。《规划》要求应对挑战,确保人工智能安全、可靠、可控发展,提出要重视人工智能法律伦理的基础性研究。《新一代人工智能治理原则》则提出人工智能治理的框架和行动指南,积极推动人工智能全球治理。


五、结语:加快制定人工智能科技特别法

人类社会总是在向前发展,特别是基于科技革命而进入工业文明之后形成迭代发展态势,到今天则呈现加速迭代发展之势。在这种情况下,法律本身也出现不断发展、迭代发展和加速迭代发展的特点。但是,值得注意的是,法律的每个阶段发展,或者是每个方面的发展,始终以一种维护法律稳定性的方式进行并遵循自身的体系轨迹,不到万不得已,通常不会也不该完全打破既有体系进行重构。旧法与新法的关系,就好比维特根斯坦所提出的“绳索论”,每一截新的绳索与前一截可能并不相同,但却相互联系着,构成一种“家族相似”性。

当前的人工智能立法也是如此,我们应该以一种历史与当下联系的发展思维加以对待。人工智能今天已发展到机器学习阶段,正在发挥着作为第四次工业革命表征科技的巨大作用,同时因其具有与人类相通的认知能力的特点,产生了与人类命运的特殊伦理关联。在这种意义上,人工智能发展势必引发如何跟进合理规范的问题。人类自工业革命开始,就在普通法律之外注意到科技作为特殊规范事项的独特意义,并发展出专门的科技法,这体现为从科技市场法到工业生产安全法、事故责任法、特殊科技风险法再到科技政策法的不断叠加,多次迭代发展形成具有稳定价值和内容的规范体系。基于人工智能作为科技事物的本质,应当将其纳入科技法范畴加以评价,在因循现行科技法的基础上,以正确的发展思维合理探索具体的发展路径。

人工智能作为新兴重大科技,正在以其非同寻常的发展潜力和特点,重新塑造社会生产和生活方式,改变财富分配和社会组织方式,挑战人与人造物的既有关系。这种改变和挑战,随着人工智能技术和人工智能认识能力的不断提升也在不断升级,进而导致规范发展和应对的迫切性。人工智能需要规范的新问题可谓巨量,而且还在不断增加。笔者建议尽早制定专门的人工智能法,以人工智能科技作为特殊规范对象,并将其作为科技法的特别法而定位,从人工智能的科技市场、科技风险和科技政策等具体问题入手,通过对既有科技法价值的继承和发展,对既有科技法规则进行优化和调整,形成一套专门适用于人工智能研发和应用的具体规范体系,以备现实人工智能法律实践所需。其中,人工智能立法的伦理性具有前所未有的复杂性,具体表现为如何确保人类自身不受危害和威胁的需要。我国目前已经将人工智能立法项目纳入立法规划,值得拭目以待。



进入 龙卫球 的专栏     进入专题: 科技法   人工智能立法  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/119847.html
文章来源:本文转自《法商研究》2020年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统