陈景辉:人工智能的法律挑战:应该从哪里开始?

选择字号:   本文共阅读 356 次 更新时间:2018-11-04 21:50:04

进入专题: 人工智能   人性尊严  

陈景辉  

  

导言


   如果以宽松的标准看,人工智能早就在我们的生活中,扮演着辅助性的工具角色。一直以来,它们都在从事着单调无聊、肮脏和危险的工作:在自动化工厂里,它们千百遍的重复着同一个动作,既准确又不辞辛劳;在肮脏的下水道中,探测者管线的断裂和泄漏;在战场上,无人战斗机在奋不顾身的消灭着敌人。随着人工智能的进步,它们都开始承担更多更复杂的任务:它们可以帮助研究和教育工作的展开,它们可以丰富我们的娱乐,它们可以在医疗方面发挥重要的作用,甚至它们还可以照顾老人、看护孩子。然而,这种原本乐观的景象,在一夜之间被颠覆了。一个震撼性的事件,是AlphaGo成为第一个击败人类职业围棋选手、第一个战胜世界围棋冠军的智能机器人,这严重激发了人类在智力领域前所未有的挫败感。一旦这些与电影、小说早已展示的科技负面形象结合起来,一场反省人工智能的讨论就将持续而普遍的上演。

   在这场讨论中,法律必然是其中的主角之一,因为法律的功能就是“在广泛的领域中,指引、计划和控制我们的生活”,包括人工智能在内的科技发展当然包含其中。但讨论不能是杂乱无章的,必须对症下药,一切的起点都是这篇文章的标题:什么是人工智能对于法律的挑战?在这篇文章中,我将首先区分出这种法律挑战的基本类型,并指出其中的错误和薄弱之处(第一和第二节);然后,再回头讨论人工智能与其他科技发展之间存在的某些关键性区别(第三节);接下来,我将集中讨论人工智能所引发的两个真正严峻的挑战,以及可能回应的初步方向;最后,是个简要的结论。


一、“挑战”的基本类型与一个错误的方向


   这篇文章不可能讨论所有人工智能所引发的问题,所以就像题目所限定的一样,我的讨论主要在法律的领域内展开。这种讨论定位的确定,将会使得“你(讨论者)不像科学家一样了解人工智能”之类的批评,至少变得意义有限,因为此处主要涉及的,并不是科学的话题,而是法律的话题,此时法学家明显比科学家更有发言权。当然,讨论的顺利展开,必然开始于对这种“法律挑战”之性质的判断。这就需要讨论者将注意力从具体的关心中暂时离开,转而关心战略性的问题,看看人工智能之法律挑战的基本结构,从中找到最有讨论意义的那个或那些,再转回头面对自己认为最有重要性的话题。经过这样的反省态度,讨论者才可能以更好地方式面对人工智能对法律的挑战。本节就用来完成这个任务,并且紧接着指出哪个方向是错误的。

   (一)什么是人工智能的“法律挑战”?

   显然,随着人工智能应用的领域越来越广泛,它的影响力也在政治、经济、伦理甚至生活的所有方面,以越来越明显的方式呈现出来。但是,这些影响力并不一定能够被叫做“挑战”,如果它是以纯粹工具的方式改善了我们的生活,那么这种工具性的效果就不能为视为某种挑战。就像利用大数据为被拐骗的儿童找到亲生父母的做法一样,这是我们欢迎的改变,但这并不是挑战。要想将由它所引发的某种改变视为挑战,那么必然是因为,这种改变导致既有的做法或者看法被迫要做出某些相应的修正,或者必须创造出全新的做法或者看法。看法与做法的不同,背后依赖的是观念(belief)与行动(action)的区分。如果将关于观念的称为“理论的”(theoretical),将关于行动的称为“实践的”(practical),那么人工智能所带来的挑战,就可以分为理论上的挑战与实践上的挑战。如果再将这对区别带回到法律领域,那么人工智能的法律挑战,就可以区分为人工智能对于法律的理论挑战与人工智能对于法律的实践挑战。

   简单说,作为被挑战者的法律,人工智能在理论上的挑战意味着,传统关于法律的某些观念或者看法,已经无法与人工智能匹配,因此要做出相应的修正。就目前的讨论状况而言,这种理论上的挑战,主要涉及的是关于法律的概念或性质的看法,其中的关键问题是,人工智能所依赖的“算法”是否对法律的性质提出了挑战?其中,一个较为极端的看法人为:在人工智能的时代,算法就是法律,于是传统上统治这个话题的“自然法”与“法实证主义”的主张都是错误的。显然,人工智能对法律的这种理论挑战,跟人工智能的实践效果没有直接关系,当然更不用说它所引发的各种科技风险了,它们最多是富余性的结果而已。

   相应的,人工智能对法律的实践挑战,涉及到两个类别话题:第一,人工智能的运用,是否改变了司法裁判的性质,以至于法官必须以人工智能作为裁判的基本工具?尤其是,司法裁判能否借助大数据来克服传统法律推理模式存在的某些缺陷——主要是裁判者因为自由裁量所导致的恣意裁判问题,以及能否通过实现司法裁判在结果上的一致性而获得判决的公信力。第二,如果将法律做功能性的限定,那么法律就是一套风险防范与救济机制,于是这个挑战的基本预设是:法律的传统风险防范和救济机制,由于已经无法匹配人工智能所引发的科技风险,因此必须做重新的设计和规划。例如,像自动驾驶的例子,突破了传统交通事故责任主要由驾驶者承担的传统做法,而必须将硬件的制造商和软件的设计者包括进来,这至少看起来不同于传统的交通事故的制度设计。或者,由于人工智能的发展,对商业秘密的窃取变得越来越容易且不易被发现,这就给了传统保护商业秘密的法律制造全新的难题,等等。当然,如果将利益的分配中的不利者也计算在内,那么某种利益分配方式也将被纳入到实践挑战当中,例如谁应当享有人工智能创造出来的作品的只是产权问题,严重地挑战了保护知识产权的既有制度设计。

   显然,已经被初步区分出来的这三个讨论方向——人工智能对法律性质的理论挑战、人工智能对司法裁判的实践挑战以及人工智能对风险防范与救济机制的实践挑战,基本上囊括了目前所有具体的话题。然而,虽然这些讨论正在分别被展开,但它们都因为某些原因难以为继。其中,在我看来,人工智能对法律性质的理论挑战,基本上是错误的,因为它过分忽视了关于法律性质的一般看法,本节余下部分就处理这问题。而另外的两个讨论方向非常脆弱,要么是因为它建立在存疑的前提之上(司法裁判问题),要么是没有注意到人工智能的风险与传统科技风险之间的关键差别(实践挑战问题),这是下一节的任务。

   (二)算法就是法律?

   在一本极为畅销,出版一年就再次印刷的著作封套上,有这样一段话“一个算法时代的确切含义是什么呢?算法是如何工作的?我们的生活如何被它控制?以及,我们如何抵抗它?算法无处不在,它组织着我们世界中存在的几乎无限的数据。从我们每一次的搜索、喜好、点击和购买中,算法决定了我们得到的消息,决定了我们看到的广告,决定了我们能得到的信息,甚至决定着谁是我们的朋友。这些复杂的配置不仅在数字和物理世界中形成知识和社会关系,而且也决定了我们是谁,我们可以是谁,无论是在线还是离线。算法创造和再造我们,利用我们的数据来分配和重新分配我们的性别、种族、性取向和公民身份。他们可以识别出我们是名人,或者把我们标榜为恐怖分子。在这个无处不在的监视时代,当代的数据收集,不仅仅是收集关于我们的信息。像谷歌、脸谱网和国家安全局这样的实体,也决定了信息意味着什么,它们构建我们的世界和我们在这个过程中的身份。我们几乎无法控制我们在算法上是谁,我们的身份对我们没用,但对其他人有用。”

   从这段语带悲情的表述中,可以发现一个越来越明显的事实:作为人工智能技术基础的算法,正在以全面和整体的方式重新塑造我们的生活,于是算法对我们生活的影响是普遍而重要的:由于不存在领域上的限制,所以它是普遍的;由于它能够决定并改变我们的身份和生活样态,所以又是重要的。显然,同样能够以普遍而重要的方式决定我们生活的,除了正在到来的人工智能时代的算法,还有传统社会中的法律和道德,于是算法就必然会同法律和道德相会在一起;或者说,领域的重叠性,导致它们之间必然存在着竞争关系。因此,你不可能将算法和法律视为两个各自独立的领域,于是最终的看法只有两个:要么法律受制于算法,要么算法受制于法律。除此二者外,别无其他选择。于是,一种激进的看法出现了:算法就是人工智能时代的法律,甚至,传统的法律已经因为某种原因而“死亡”。

   然而,在我看来,这种“算法即法律”的说法是彻底错误的,即使算法的确全面而重要地塑造了人工智能的时代,但是它依然要受制于法律的统治,而不是翻转过来,反而成为那个时代的法律。篇幅所限,此处我只出示一个关于法律性质的理由:一个规范体系如果是法体系,那么它必然是全面(comprehensive)且至高无上(supreme)的,这是法律在概念上的要求。所谓全面,指的是法体系必然主张自己具有调整任何类型之行动的权威,所以它不同于其他的制度化体系。那些体系都只是为了实现特定的有限目标,因此在这个相应的领域中拥有权威,例如体育规则体系只在体育领域拥有权威;但法体系不承认有任何的限制,所以法体系既可以接受体育规则体系所包含的做法,也可以干脆越俎代庖制定全新的标准。所谓至高无上,指的是法体系必然主张自己在所在的社群中,并不存在另外一套法体系能够对同样的社群做出至上性的主张;因此,即使算法体系再重要,它也无法获得如同法律的地位。

   这一点,并不是特定法哲学主张者的个别言论,这是事实上必须被接受的关于法律性质的最基本判断,而且如果否认了这些内容,那么法律的重要性也就荡然无存,法律就变成了一个不重要的话题。同理,特定算法无论是或者不是法律的内容,这件事情都跟算法本身的地位和重要性关系不大,而是法体系事实上接受或者不接受的结果。因此,即使在人工智能的时代,算法也不可能是法律,它反而是法体系所要调整的对象;所以,在那个时代,法律不但没有死亡,它也不可能匍匐在算法之下,反而是算法的主宰者和拘束者。

   当然,这会引发另外貌似有力的反驳意见:法律专家有能力掌握算法吗?如果没有能力,还谈什么主宰和拘束呢?回应的意见其实非常简单:即使是尚未人工智能的时代,法律专家也无法像医生一样,熟练掌握医疗知识和做手术的技术,他们在面对医疗问题和医疗纠纷时,必须尊重和听取医生的专家意见。但是,最终做出决定的,依然是作为法律专家的法官,而不是作为医疗专家的医生。其实,在任何具有一定专业性的领域,都会存在类似的疑问和回答:无论是人工智能、医疗、知识产权、环境污染、气候变化这些更加专业的领域,还是较为传统的产品制造、体育比赛这些具有一定专业门槛的领域,甚至是种植这种专业门槛极低的领域。法律专家不可能是面面俱到的每个领域的专家,这根本就是不可能的,也是做不到的;但他必须得是真正的法律专家才行,才能在法律的基础上甄别其他专家的同行意见,然后做出法律上的妥当决定。


二、两个脆弱的讨论


      既然人工智能对法律的理论挑战是不成立的,(点击此处阅读下一页)

    进入专题: 人工智能   人性尊严  

本文责编:limei
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 法学专栏
本文链接:http://www.aisixiang.com/data/113223.html
文章来源:《比较法研究》2018年第5期

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2019 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
易康网