李晟:通过算法的治理——人工智能语境下的法律转型

选择字号:   本文共阅读 1427 次 更新时间:2018-04-27 23:33

进入专题: 人工智能   法律价值   法律规则   法律认知  

李晟  

[摘要] 人工智能的发展,不仅在社会生活多方面提出了需要法律回应的新问题,也形成了法律本身变革的推动力。从效率导向出发,人工智能在法律活动中具有广阔的运用前景。而人工智能的广泛运用,将会重构公众认知法律的模式,重构法律规则本身的形态,进而重构法律的价值导向。以上几方面的重构,构成了人工智能语境下的法律转型。

关键词:  人工智能  法律价值  法律规则  法律认知


一、引言


不经意间,人类正在经历着逐渐加速的发展曲线而不断接触未来,人工智能的科学研究,从何为意识、何为智能这样的基础性问题推进到计算机视觉、机器学习、机器对自然语言的理解与交流等更具有操作性的应用性问题,从而使“人工智能”从一个神秘的科幻式的概念开始“飞入寻常百姓家”,成为大众媒体与街谈巷议中的高频词汇。为了在这场科技变革的新浪潮中占得先机,无论是政府机构还是商业化组织,也都积极推进这一领域的研究与应用。[1]而与科技的飞速发展同步,随着人工智能的普遍推广应用,与方方面面的社会生活形成接触与互动,法学研究也突然发现前方别有洞天,面对了一个全新的领域。人工智能与法律的相关研究,作为一个新的学术增长点,在短时间内可谓形成了爆发式的增长。[2]

在人工智能的法律问题研究广泛展开之后,通过对现有文献的梳理,可以发现,目前的研究总体上更多的趋向于以法律作为一个外部框架来探讨法律如何应对人工智能发展形成的各种新型法律问题、如何对于人工智能的发展进行规制。在这一方面的研究中,既包括针对目前的弱人工智能(ANI)的实际应用进行法律规制的相关研究,也包括对于未来的强人工智能(AGI)可能向人类社会提出的挑战,进行预测性的研究,甚至还包含了对于“奇点“之后的超人工智能(ASI)会造成什么样的颠覆性后果、是否可能进行法律约束的思考。三个层次的研究比较而言,由于弱人工智能事实上已经在生活中的方方面面出现应用,具体的法律问题已经形成,而且对弱人工智能在具体层面的应用所作出的法律回应也比较容易整合进入现有的法律框架当中,因此成为人工智能与法律相关研究当中最主要的主题,并主要梳理出几个较为集中的主题。[3]其中最具有代表性的研究,主要集中于人工智能创造物的知识产权研究[4],以及关于智能汽车无人驾驶的相关法律问题的研究[5]。对于这一系列问题,虽然技术上有许多前所未有的创新,但从法律框架上还是基本上可以尝试纳入到传统的知识产权法、侵权法、行政法等框架当中进行处理。而在强人工智能方面,人们关心当强人工智能在社会中出现时应当如何处理其法律人格、权利义务的相关问题。[6]进一步来说,就是可能成为机器人形态的人工智能如何与人类在社会中有序共存。[7]在这些研究中,法律也是一个给定的外部框架。

可以说,目前大部分研究关注的视角是法律在人工智能之外,作为一个外在框架来加以回应和调整。关心的是法律须规定人工智能可以被应用的形式,以及在特定情境下使用(某种)人工智能可能要承担的责任。[8]当然,与之相对应的也有另一方面的视角,即将人工智能的运用吸收到法律运作当中,探讨人工智能如何具体改进法律运作,并由此对于法律职业形成机遇与挑战。[9]这方面既有对更具有效率和规律性的司法的乐观预期,也有对”机器人法官“、”机器人律师“对人类形成替代的忧虑。较之于此前所述的以法律作为人工智能外部框架的研究,这类研究更注重从人工智能对法律的影响而非法律对人工智能的影响的视角切入。尽管如此,在此类研究中,法律仍然基本上作为一个常量进行分析,作为变量的更多是法律职业或是司法程序。

在弱人工智能阶段,由于人工智能处理的问题较为单一,仍然属于“工具”的范畴,与传统的“产品”别无两样。虽然无人驾驶汽车、无人机等新产品的出现,给传统法律体系带来许多新问题,引发许多新思考,但仍然属于传统法律体系能够解决的问题。因此,可以理解几乎所有人工智能与法律的相关研究都还将法律作为一个常量处理。但是,如果要更为全面的认识人工智能与法律之间的关联,则有必要将法律也作为一个变量,思考人工智能可能会对于法律本身产生什么样的影响,也就是说,本文将要讨论的是人工智能语境下的”法律“转型,而非仅仅是”法律职业“抑或”法律运作“转型。只有理解了人工智能这一技术变迁可能会使得法律本身有什么样的转型,才能更好去思考转型后的法律如何去应对人工智能所产生的具体法律问题。

同时,还需要界定的是,作为一项初步的研究,本文所立足的人工智能语境,并不是非常超前的未来,而是基于当下,并不试图将强人工智能乃至超人工智能纳入讨论,而仅限于适用于法律活动的专业性弱人工智能可能造成的影响与变迁,这种影响与变迁的出现并不会太遥远。而对于这种弱人工智能的界定,去除了简单的拟人式想象,只将其看作一种基于算法设计通过数据自主学习以优化数据处理的计算机制,本质在于算法和数据。[10]


二、效率导向推动下人工智能在法律活动中的应用


从将人工智能作为优化数据处理的计算机制出发,对于人工智能与法律的关联,很容易将其作为一种法律活动的辅助工具加以理解。事实上,最早对于人工智能与法律相关问题的研究,首先就注意到人工智能可能运用于司法裁判发挥作用。[11]就专注于具体专业领域发挥作用的弱人工智能而言,对于大量信息处理的效率,显然超过人类的法官与律师,通过其强大的计算能力,能够更快地通过现有的数据完成对于案件的前期分析,也能够更便捷的生成严格的形式理性化程序运作所需的各类材料,因而其在司法领域当中可能发挥的作用是显而易见的。尤其是在当下受案多人少问题困扰的法院检察院,更加有迫切的需求,希望通过人工智能的高效来缓解办案压力。

当然,在效率导向之外,对于人工智能在法律中的应用,公平导向也是一种重要的推动力。从对人工智能的最早的想象开始,就有许多学者在思考如何通过人工智能的运算,既能够模仿人类法官的推理路径,又能够避免人类认知中的各类偏差与谬误,使法律能够更加的理性而克服非理性。[12]这一类型的研究更加侧重于通过对人工智能的推理模式进行设计,重点不是缓解案多人少的问题,而是使法律规则在个案中的适用更为准确,使理想的司法审判更接近于得到实现,从而更凸显法律的公平与理性。

尽管就法律价值而言,效率导向与公平导向都得到了高度的重视,但在人工智能的司法应用中,效率的逻辑显然更为强大。造成这种现象,显然并不是因为法律人在价值观上存在着高下之分,而是因为对于人工智能而言,去把握如何提高司法的效率,要比去把握如何实现司法的公平更容易。即使不涉及更复杂的理论分歧,仅以同案同判作为一个简单的实现司法公平的标准,什么是同案同判,首先也是一个众说纷纭的问题,关于同类的标准,在不同的法学理论中有不同的认识。 而从不同标准出发,不同的法学理论也有不同的推理模式。因此人工智能在进行具体的法律推理时,如何达到一个最优的选择,首先还需要经历法学理论的诸神之争,目前不可能形成一种统一的得到普遍认同的算法。而且,同法律推理的多元范式相似,机器学习中对于终极算法的探索也还存在着符号学派、联结学派、进化学派、贝叶斯学派、类推学派五大流派,每个学派对于学习的认识有着本质性的差异。[13]因此,如果要将人工智能想象成为一种拟人的存在,真正成为可替代人类的“机器人法官“或”机器人律师“,或者说能够在很大程度上主导司法裁判,当前的研究普遍得出了一种较为否定性的结论。[14]

但与如何达成公平这一复杂标准相对,如何提高效率则是一个更容易被量化的简单标准。人工智能完全可以不去涉足更深层次的法学理论诸神之争,而是仅从已有的司法数据与司法流程模板出发,得出较为表层的概括,为参与司法活动的人类提供辅助。例如,智能化、自动化的法律检索将深刻影响法律人进行法律研究 (检索) 的方式,基于NLP、TAR (技术辅助审阅)、机器学习、预测性编程 (predictive coding) 等技术实现法律文件审阅自动化可以显著提高这一工作的效率, 大大节约审阅文书的时间,进一步可以通过数据的积累与学习,实现法律文件生成自动化。[15]从这样的要求出发,算法的设计就可以相对简化,无需深入到终极算法的层面,只需要对现有数据进行一般性的归纳和类比,技术上也没有太高难度。因此,这一层次的人工智能在司法中的应用,具有较为明显的可行性,也就有了较强的推动力。

在实践中,以功能较为单一的弱人工智能提升司法效率的尝试,已经在不同层级的司法机关得到实践,并且得到了高层领导的大力支持。上海高院院长崔亚东表示,上海法院第二个三年规划核心是“一个战略、两个行动”,即大数据战略,互联网+行动、人工智能行动。[16]最高人民法院周强院长指出要“综合应用各种人工智能技术,实现智能审判、智能诉讼等司法辅助功能”。[17]而在国务院印发的《新一代人工智能发展规划》中,则更高层次的提出“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。”[18]可见,从政治决策层面到司法领导层面,再到司法实施层面,对于人工智能作为一种辅助功能的运用都表现出较为积极的态度。

当然,人工智能的运用不会局限于司法机关,更重要的是在各类法律活动中的全面推广。当事人以及潜在的诉讼参与人同样有强烈的推动力借助于人工智能来提升法律活动的效率。在购买法律服务时,消费者会倾向于更为标准化并且可以被计算机处理的法律产品,因为这将意味着费用的降低。[19]互联网的发展历史也表明,网络空间的的生成和扩散可以看成是一个由商业力量推动主导的生产性过程。[20]从商业逻辑出发的这种推动力,甚至会比起政府或司法部门的推动力更加有力。无论以何种形式,人工智能在司法中的应用都离不开大量数据的吸收与处理。如果个人的数据被严格的加以保护,算法就失去了学习的基础。而正是效率这一推动力,使得个人在参与时有可能承受放弃对个人数据严密保护这一成本,更有力的刺激人工智能在法律活动中的运用。


三、人工智能语境下对法律认知的重构


从政府部门的推动,以及法律服务市场的商业逻辑出发,都可以预见到专业化的弱人工智能在法律活动中的运用将会逐渐扩展开来。简单来看,这种运用同人工智能时代之前的法律活动并没有根本性的差异。参与或准备参与到法律活动中的当事人如果有需求,向提供市场服务的机构购买服务,并不需要在意这种服务产品的具体生产者究竟是人类还是人工智能。而且就弱人工智能的技术条件而言,并不会在形态上出现机器人律师这种科幻式的场景,当事人能直观感受到的区别可谓微乎其微。

但是,表面上看似并无区别的法律服务,实质上却具有新的意义。在传统模式下,法律活动的参与者如果要购买专业机构的法律服务,时间与经济成本都需要进行更充分的考量。我们很容易设想这种模式下的典型场景:当事人向律所支付费用购买关于个案的法律服务,律所的知名度越高,则费用越高。而且,即使是要处理的是非常简单的法律活动,从不同律所中进行搜索、联系有意向的律所、并进一步对所需要购买的服务内容进行沟通都需要花费相当的时间,从而成为成本考量的一部分。而当人工智能开始介入到这种服务市场的情况下,更为便捷因而也更为廉价的法律服务则成为可能。例如,杭州互联网法院就在其立案平台向当事人直接通过关键词推送类似案件的相关数据,使当事人得以便捷的形成对所面对案件的处理结果的初步判断。而类似的技术也完全有可能进一步进行商业推广,不局限于单一平台。如果法律活动的参与者可以在不同平台廉价而快捷的获取相关服务,就可能在进行每一步法律活动时直接接收到推送的法律意见,以此作为制定下一步对策的依据。如果更多的参与者都不是基于自己或是购买服务的单个律师的服务形成对案件的预测,那么大量行动者对决策的调整会很大程度上改变当事人之间的博弈状态。因此,基于人工智能和大数据的案件预测将深刻影响当事人的诉讼行为和法律纠纷的解决。[21]

简单来看,这似乎也并没有什么根本性的变革。在传统模式下,如果法律活动的参与者有意愿和能力购买全面的法律服务,也完全可以一步步获取非常细致的法律意见进行决策。当然,很容易看到由于经济成本的考量,人工智能时代才有可能更大范围普及这种服务。以更低的价格获得更强大的计算能力,这一加速度过程正是信息技术革命从量变到质变的基础。正如我们在蒸汽火车时代无法想象高铁网络对地理空间的重塑,在手摇电话时代无法想象4G通信对信息传递的重塑,当这种预测的形成速度超过一定临界点时,变革就会变得明显起来。

重点其实还不在于普及的广度,而在于思维的速度与深度。传统的法律服务模式下,有财力的法律服务购买者从服务提供者那里所获取的意见,也可能表现为大数据基础上的归纳与分析,但局限于信息成本,基本上还是立足于个案进行相似案件的有限类比,而不可能在短时间内集合全局性的数据。而对于人工智能而言,则不存在这一障碍,能够更为迅速完成整合全局数据的过程。而且,既然要从效率出发,人们当然希望获得的服务能够转换为自然语言的表达,而非纯粹的数据。这样一来,普通公众对法律的认知已经悄然发生了巨大变化,如果说过去的认知一般是基于法条和个案事实进行的演绎式认知的话,在新的技术条件支持下就更多变为对总体状况的归纳式认知。在前一种情形下,他们所认识的法律首先还是规范条文,而后一种情形下则更直接呈现为运作结果。我们可以设想,当这样一种认知途径得到普遍运用之后,普通公众对于法律的认知并不立足于个案中涉及的规范而是立足于个案就会形成的结果。当公众对法律的认识不再是“法律规定了什么”而是“法律会导致什么样的结果”,这就成为了对于法律认知模式的一种重构。据此我们很容易联想到霍姆斯著名的预测理论[22],技术的进步正是为更快速也更准确的作出预测提供了可能。在法律预测更容易被提供的情况下,哈特所谓的“无知之人“(puzzled man)也会与霍姆斯所谓的”坏人“(bad man)变得更加接近,从而可以统一起来。[23]

在技术变迁带来的公众对于法律的认知模式转变的同时,从另一端来看,向公众输出的法律认知也由于技术的变迁而产生了变化。人工智能建立于大数据基础之上,但不是简单停留于对大数据的处理,而是试图向“小数据,大任务“的认知构架发展。[24]人工智能的运用,相对于此前的数据挖掘与处理技术,一个更为突出的特征就在于机器自身的深度学习。机器的学习不同于日常生活语言中所谓的学习定义,而是一个更为广义的概念,意味着计算机程序对于某类任务T和性能度量P,在T上以P衡量的性能随着经验E而自我完善。[25]具有学习能力的人工智能可以无需局限于最初编写的代码,而是通过对于数据的学习形成更为深入的理解,从而完善其分析。因此,在人工智能研究领域中一个毫无疑问的共识就是“数据喂养着人工智能”。每一个当事人数据的输入,都不是孤立的数据,而是会成为机器学习的内容,发展出处理未来数据的方法。因此,在法律活动的参与者与提供法律服务的人工智能之间,形成了密切的互动。当事人获得人工智能依据数据输出的反馈,作出自己的决策,决策本身也就形成了新的数据供人工智能进一步学习。而商业竞争会进一步推动学习的改进,得到数据越多的平台越能进行有效的学习,也更能够形成更具效率的算法,从而又形成更强吸引力来吸收更多数据。同其他互联网领域的商业竞争类似,也会逐渐表现出赢家通吃的状况。

站在正统的法律视角来看,由于法律本身的复杂性,人工智能的预测能力可能在较长的一段时间内并不能达到令人满意的程度,这种向公众输出的法律预测事实上很可能扭曲了真实的法律。但是,如果人工智能的发达意味着数据量达到了巨大的规模、获取这种服务的公众达到了很高的比例,那么,究竟什么是“真实“、什么又是”扭曲“就变得不重要了。法律难以像自然科学一样加以检验,如果说我们设计了一艘强大的战舰但一下水就沉入水底的话,自然可以判断这是一种错误的设计,但是法律的真实与否则不能单纯从案件结果来加以衡量。即使人工智能的预测真是扭曲了真实的法律,但对错误的法律预测达到一定程度时,这种错误的预测本身就塑造了人们的预期,就像真实的法律一样产生作用。霍姆斯曾经在给拉斯基的信中这样表述:“即便我的同胞们要下地狱,我也只能帮助他们,因为这就是我的工作。”[26]如果错误的预期足够强大,法律职业逆潮流而动就变得没有意义,而只能顺势而为。何况,在人工智能时代之前,人类提供的法律服务本身也可能是一种扭曲的想象,只是通过服务提供商形成的垄断卡特尔,以封闭的运作确认这种想象在意识形态意义上的真实性。[27]

在法律服务的消费者与通过人工智能提供法律服务的供应商之间展开互动的过程中,人们对于法律的认知实际上逐步被重构为不同的当事人与不同人工智能之间复杂博弈之后形成的状态,而不是对于一个单一的立法权威所制定规则的认识。特别是由于社会发展的加速导致立法需要填充的领域越来越多,而传统的立法程序难以达到同步的速度跟进,当立法者立法的速度难以紧跟技术发展的脚步、立法产品的供给不能跟上需求时,仍然需要规则、需要预期的社会将会需求另一种形态的规则加以治理。传统的立法权威将会进一步衰落,从分散的平台上,经由不同的算法,形成了当事人所依赖的规则。 “只有有理由预期规范性的预期能够通过规范的方式来形成预期,法律才算是法律。”。[28]霍姆斯的预测理论意味着法律是预测在什么情况下公共权力通过法院起作用,[29]而当公众不仅仅预测通过法院起作用的权力,同时也在预测其它可能具有公共意义的权力如何发挥作用时,公众通过算法获得预期,算法也就成为了法律。对法律认知的重构,其实也会成为对法律主权的重构,通过算法,更多的权力将会渗透进来,这些渗入的权力不仅可能跨越政府-市场的边界,还可能跨越国家主权的边界。


四、人工智能语境下法律规则形态的重构


人工智能的运用,不仅仅导致公众对于法律认知的模式形成了重构,还会进一步对法律规则本身产生实质性的重构。上文的分析已经指出,对于规则的认识会成为一个动态的过程,数据的输入与反馈会不断引导人工智能进行学习,以自身的算法输出动态调整的规则。这样一个过程,似乎在传统模式下也存在着与之相似的情形,虽然过程的周期要长得多,当事人对于规则适用于个案所做出的预测以及反应,也会导致现实中的法律与纸面上的法律的分离,这种分离达到一定程度时也会重新塑造纸面上的法律。而针对这一互动过程,也就有了法律现实主义与法律实证主义从各自关注的视角切入所展开的旷日持久的论战。但深入考察则会发现,传统模式下对于法律的认知虽然也针对当事人所关注的个案,也可能表现为一种特殊性的认识,但是个案只是以特殊性的事实同一般性的规则相联系,而非完全的特殊性认识。在法律实证主义看来,规则与事实相结合形成的判决确定性是一种应对尽可能接近的理想状态;而法律现实主义虽然质疑这种确定性,但其指出的不确定性来源在于人的有限理性无法认识确定的事实,或是无法理解确定的规则,是一种局部不确定性,其前提还是存在着一般性的规则,因而对于许多简单案件是确定性的。而在人工智能语境下,这种一般性的规则,本身已经遭遇了挑战。

人工智能的运用,同互联网、大数据紧密结合在一起。互联网上的海量数据,一旦可以被储存和认知,也就成为了有意义的信息。在具备强大的计算能力的人工智能出现之前,这些数据虽然仍然会出现在互联网上,但由于处理数据的成本过高,那么数据就只是数据,而不成为信息。香农所开创的信息论,提出的一个基础论断就是可以用信息熵来定量衡量信息的大小,小概率事件发生时所携带的信息量比大概率事件要多。[30]因此,信息的意义在于人们能够对于事件的特定性进行更为准确的定位,我们所获得的信息越多,就越能确定一个事件相对于其他事件的特定性。在此前的人类社会中,由于信息成本的约束,人们进行交流时传递的信息量较小,因而只能处理概率性较大的事件。这样,对概率性较大的事件进行规制一般性规则的重要性就得以凸显出来,人们通过一般性规则的约束进行社会中的交往,可以无需搜集全面的信息,因而能够避免高昂的信息成本。法律规则的意义就是使得信息更加经济,从而有利于更确定的预期。[31]但在技术有了飞跃之后,此前构成约束的信息成本问题在很大程度上被消解了。在人工智能得以充分运用的互联网社会中,每个人活动所生成的数据更容易被发现,同时也能够以更低成本得以储存,在有强大的计算能力对其进行分析之后,原始状态下的数据就转换成为更有意义的信息。因此,信息的丰富揭开了诸多“无知之幕”的遮蔽,作为一般性规则约束对象的抽象的“人”被逐步还原为特定的“个人”,而个人的每一个行为也都能够更进一步确定其特定性。放在更大的历史尺度上来看,技术的发展带来的这种趋势正是对此前人类历史中简化信息、降低信息成本以促进社会合作的规则发展的一种反向运动。人们一度相信,“从身份到契约”的运动是历史前进的方向,人会逐渐成为一个抽象的自主性的个体而不是依附于某个群体获得不同的待遇,但现实却是信息的丰富使得群体的区分更加细致,人不是仅仅“我思故我在”,而是复杂的权力关系所构建而成的存在。[32]这样一种从“人“还原为”个人“的状态,使得在具体的行动中有可能形成针对个人的特定性规则。

为什么会形成特定性规则?信息成本的大幅度降低意味着规则所调整的行为可能进入一个长期动态的重复博弈,而非规则文本所预设的一次性博弈的静态。当信息费用无穷大的时候,信息熵为0,接收方无法从接收信号中获得任何信息。信息论意义上的这种极端情况,放在政治哲学的语境中,就是罗尔斯所设想的“无知之幕”。当只能认识到已经确定的唯一事件时,人们只能形成针对单一行为的一次性博弈对策。而在信息成本的大幅度下降揭开了“无知之幕”之后,人们可以确定参与博弈的对方的相关信息,因而进入到重复博弈中,每一项行为的评价与回应都不会是孤立的,而是和此前的行为结合在一起,因而引发相应的对策。在个人仅有死亡这种方式才可能完全退出社会的情况下(如果是信息时代的一个虚拟主体,比如“账户”,甚至连这种方式都可能不存在),博弈就成为了一种无限重复博弈。在无限重复博弈中,行为主体通过此前传递的信息释放出展示其博弈策略的声誉。[33]对于重复博弈行为的规制,会更加注重与此前的行为联系起来,以更有效率的行为合作预期。事实上,在传统法律体系中,也从来不试图排除掉所有信息而创造出纯粹的无知之幕后的规则。一个很常见的例子就是,刑法中关于“累犯“的规定早已有之,这就意味着关于犯罪人的这一方面的早前行为的信息得到法律的重视,在法官作出判决时,这一信息是值得花费成本加以搜集的,这方面信息的差异会影响到规则对于同类事实的不同适用。当然,这种规则的特殊性仍然是较弱的,针对的还是群体的人而非个体的人。但这类规则的存在,意味着投入信息成本事实上是有所取舍,而并非尽可能越低越好的。而当技术的进步能够根本性降低信息成本时,规则也就有可能发生改变。能够以很低成本获取关于个人的信息,就能够进一步将个人同其他人区分开来,更为有效的预测他/她会对于规则的反应,也就能更有针对性的运用规则调整其行为。

在信息高度不完全,不对称的陌生人世界里,人们通过承担足以显示自己属于注重未来收益的“好人”类型的信号成本来寻求合作,法律以及其他各种类型的社会规范,都起到了信号传递功能。[34]而在双方传递信息表达自己的策略的过程中,信息中可能出现“噪音”,即一方错误的理解了另一方的信息所要表达的真实策略。[35]此时,代表着凌驾于博弈双方之上的国家主权的法律的介入,有助于避免“噪音”的干扰,更好的简化信息熵,从而提供稳定的预期。在人工智能语境下,每一个个人此前的行为经由数据被积累下来,这些信息进入人工智能的处理范围成本很低,从而使外界对这些个人的观察能够同此前所展现出来的信息结合起来,加以更立体的认识。而且,人工智能的计算逻辑,也很自然的会将这些信息进行细致的分解,明确分解后每一个步骤的价值函数进行回应。[36]例如,在网络平台上活跃着的账户,会因为此前积累的“信用分“、”活跃度“、”贡献值“等各类积分系统的计算而引发对其行为的不同回应,这是网络社会中人们所习惯的一种常态,而这种积分制的规则模式甚至当前已经有了从商业平台向公共管理推广的趋势。[37]在这种情形,个人构成了一种更具有时间性的存在。经由时间积累下来的所有数据都可能被记忆而获得其意义。即使提出“被遗忘权”这一权利,但由于人工智能的学习特性,在经过学习之后,数据本身被擦除并不影响其作用的发挥。这就从一个层面体现了海德格尔的论断:时间是领会存在的视野,没有离开时间的存在。 [38]同样,也没有能离开时间的法律。法律运作的空间尺度是四维的,需要有时间的维度,而无法抽掉时间的绵延而在一个压缩到极致的静止时间点上讨论。

或许存在着一种质疑:法律规则不同于对个人的命令,规则的一般性是法律规则的根本特性,即使我们能够以极低的信息成本去认识每个个体,也不允许制定针对个体的法律规则。但为什么这一定是不可动摇的根本特性呢?仅仅是我们总结以往的法律规则都是一般性的,并不能构成有效的论证。如果我们假定人的法律行为是自由意志指导之下的产物,则也应当认为其此前的行为具有逻辑上的一致性,是其自由意志的反映,那么也需要给予回应。如果我们假定这种自由意志并不存在,而是一种随机的思维过程引发法律行为,随机变量的概率与此前状态的概率无关,那么为什么传统的法律规则仍然要考虑到某些先前的行为,而不是仅从一个瞬间的抽象的点进行考虑。可以说,我们之所以愿意去获取关于累犯之类的早前信息,而不去获取关于当事人的其他信息,并没有价值上的绝对差异,而主要是信息成本的考量。而从规则的可预期性这一价值出发,一般性规则的重要意义就在于其大大降低了信息成本,因而保证了整个社会能够形成对于规则的有效预期。但当信息成本的考量面临根本性转变时,坚持一种意识形态立场,无助于我们对法律的全面理解。

退一步说,即使我们固守法律应当是一般性规则而非个体性规则的经典原则。但事实上,在人工智能时代,即使立法者名义上制定的仍然是同过去一样的一般性规则,实际上人们所能认识到的规则也还是个体化了。法律活动的参与者之间形成契约时,算法已经将双方的具体信息纳入到分析评估的范围中,对于契约履行的预期,同他们对于法律规则的预期紧密联系在一起。更重要的是,当人们从平台获取法律运作结果的预测,由于此前的认知与反馈都可能成为积累下来的数据,其获取的结果正是人工智能学习这些数据之后形成的结果,这种结果不是一般性的,而是与具体的个人数据联系在一起。对于不同个人而言,即使他们知道法律规则是一般性的,也会发现对于自己有实际影响的规则是个体性的。

法律规则的个体性,意味着关于何为法律规则的经典理念遭遇挑战。在经典的法理学观念中,法律规则的重要特征就在于,以“全有或全无的方式“(all-or-nothing manner)应用,只要是有效且可适用于特定案件,就能够完全确定结果。[39]但向个体性转型的法律规则,虽然形式上可能没有变化,实际上则处于一种不那么确定的概率状态,只有放在输入具体信息的观察下,才会从概率转化为实体。这样一种变化,或许可以结合物理学中的一个模型来加以想象——电子的运动不是围绕此前人们理解的那种清晰稳定的轨道,而是概率分布的“电子云”,量子态的运动只有经过外界的观察才获得确定。在物理学中,经典的牛顿力学到量子力学的范式转型,就是从非此即彼的确定状态到概率统计状态下的分布。而人工智能近年来的快速发展,也得益于互联网和大数据的运用促进了其数理基础的转型,从逻辑推理转换到概率统计。或许,法律规则也将经历同样的转型。


五、人工智能语境下的法律价值重构


在讨论人工智能应用于法律时,人们持有的一个重要信念就是,人工智能无论多么强大,都只表现于对规则理性的推理方面,而无法像人类一样去运用超越规则之上的价值判断。但是,人工智能对于法律认知与法律规则的重构,进一步的影响将会传导到法律价值层面。由于对法律的认知更多来源于算法,算法形成的规则也更为个体化,这两个方面的影响也将改变传统法律所体现的某些价值。

从法律认知这一角度来看,当对于规则的认知可以更便捷高效的从多元化的平台获取时,对于法律的规范性预期更为加强。当人们会更直观的获得来自于人工智能的处理结果时,出于节约思维成本的考虑,会本能的快速接受这一结果,而不太愿意消耗自己的精力去分析推导过程。正如普通人在操作电脑时,不会再愿意自己运用程序语言编写程序来完成某一功能,而是选择适用某一软件进行一键式的操作。当这样的思维变得更为普及、流行之后,法律推理将变得更为形式理性化。人类虽然还有更强的能力去进行感性的移情式理解,但却很难对抗高度理性化的算法。虽然人工智能被明确定位为辅助工具,但辅助工具在高度理性化的社会中却完全有可能喧宾夺主,成为一种异化的主宰。可以简单想象的一个场景是,当法官面临着案多人少的负担时,很难有动力降低效率去对于人工智能生成的结果进行反思,进行说理更为复杂更有难度的价值判断。而即使有法官这样做了,在科层制的体制中必然将承受更大的压力。不仅仅是自己的工作时间增加了,还需要考虑上级法官、上级法院是否能够认可他对人工智能生成结果的反思,需要承担更高的责任与风险。高度理性化法律的进一步强化,将会使社会向何处去,对此存在着两种极端的判断,帕森斯认为最为理性的现代社会也是最为自由的社会,而马尔库塞则认为高度工业化社会中强大的操纵力量威胁到本来便不多的自由。[40]即使我们还无法在两者的判断之间作出选择,但至少可以明确,理性化的发展中蕴含着深刻的内在矛盾,将会对法律所表现出的价值观形成显著的影响。

更为理性化的法律缺少了感性的移情式理解,并不是说无差别的面向所有个体。恰好相反,只是某些在人类思维中会得到重视的信息被省略了,而另一些信息则进入算法处理的范围之中,表现为上一节所分析的那种个体性规则。个体性规则的概率特征,使之更容易被看作不透明的“黑箱”所形成的产品。不用说普通公众,即使是对于专业法律人而言,如果只精于法律规则但对于算法的设计不了解,也很难认识黑箱的运作。由于这种黑箱的特性,不同个体在面对法律规则时的强弱差距就更为明显的表现出来。由于算法形成的概率性规则基于此前积累的信息,那么那些对信息成本的承受能力较弱的法律活动参与者,就处于了相对不利的地位。弱者只能了解到自己面对的规则会以什么样的概率表现出来,但不清楚黑箱是基于自己的哪些信息形成了这种概率。信息不对称会进一步成为法律主体之间强弱分化的鸿沟。

而且,当法律表现出更明显的时间维度时,过去积累的更多信息都对后来的规则形成了影响,不同主体之间的强弱差距也更为明显,传统意义上的公平、正义等价值观都会面临重构。如果说蒙上双眼的正义女神曾经是法律中的公平正义最典型的象征符号的话,那么,借助于人工智能的法律运作可能不仅摘下了蒙眼布,而且还带上了柏拉图在《理想国》开篇所讨论的“古各斯的戒指(the ring of Gyges)”,可以没有任何障碍的窥视一切人,以0成本获取信息。在传统模式下,法律面前人人平等意味着排除在法律行为之前存在的其他身份因素的干扰,仅从单一的法律行为来适用规则进行处理。但当上文所分析的那种概率性的个体化规则成为现实时,随着数据的积累与算法的学习,一个行为导致的影响不会因为单次的法律处理而终结,而是会持续产生影响,就无法真正排除法律行为之前的那些因素。例如,社会中经济或文化资产较弱的个人,其此前的数据会积累下来,成为表明其弱势地位的一种信息,而这种信息又会导致更为不利的个体化规则,而此后和其他人之间的互动,也会受到这种个体化规则的影响。在这样的情况下,强者愈强而弱者愈弱就成为了一种难以阻止的趋势,法律面前人人平等将被解构。

在传统的法律体系中,在司法裁判中追求同案同判,也是法律面前人人平等的一种体现。法律人曾经寄希望于人工智能能够以比人类更强的计算能力来更好实现同案同判。但是,个体化规则难以比较何为同案,何为同判。既然规则都是由于此前积累的信息形成的一种针对不同个体的概率,那么由于这些长期积累的信息必然存在着诸多细节的差异,就难以比较这种规则的适用是否运用于同等情形。而且,在人工智能进行机器学习时,过拟合(overfitting)是一种更为常见也更难克服的问题,由于学习能力过于强大,将训练样本中的某些细节特点当做了一般规律进行学习。[41]面对适用个体化规则的不同案件,由于信息的细节差异很容易被认知,如果要求人工智能提炼出一般规律,则更容易遭遇过拟合的困境,将某些个案中的信息放大而当成了一般特征。因此,不仅立法中何谓法律面前人人平等面临重构,司法中也是如此。


结语


人工智能在法律领域的运用,当前还只能说是刚刚起步。但从效率这一出发点来看,无论是国家还是市场都有较强的推动力进一步推广人工智能的运用,在这个过程中,技术的进步也将以更高的速度表现出来。而只要人工智能在法律领域的运用普及到一定程度,并不需要太强的人工智能水平,量变的积累就会走到质变的临界点。这种质变并不是科幻式的场景,让我们立即进入人工智能所主宰的世界,也不会是人类与人工智能形成激烈冲突的“西部世界”。在整个人类社会可能被重塑之前,法律本身会在很大程度上面临重构。公众借助于人工智能作为更为便捷因而也更为廉价的工具来认知法律,更快捷也更为普遍的形成对于法律的预测。这种对于法律认知模式的重构,会在很大程度上使人们对法律的预测由人工智能的算法确定,使算法实际上成为了法律。同时,算法成为法律,将会形成更为个体化的规则。传统的一般性法律规则对于应对信息成本过高的社会有着重要意义,但人工智能的运用将极大程度降低信息成本,从而更为明确单一行为在重复博弈中的整体意义,运用个体化的规则进行更为精确的调整。这种个体化规则的出现,将重构法律规则的形态,从非此即彼的确定状态向一种概率式的存在转型。而随着法律认知模式的重构与法律规则形态的重构,法律的价值观也将随之重构,一方面体现为更加高度理性化,另一方面则体现为法律面前人人平等被淡化与解构。

总而言之,本文试图预测人工智能在法律领域的广泛运用将会如何重构我们传统认知中的法律,人工智能是一个外在的变量,分析的重点仍然是法律本身。法学家自负的宣称,法律将会决定人工智能的未来。[42]但从法律保守、克制的特性出发,我们首先应当谨慎的思考人工智能将会如何决定法律的未来。而且,鉴于我们认知法律已有上千年的历史,对人工智能的认知则只是最近短短数十年间才开始的,我们也有必要更多思考法律本身,而不是过于大胆的去试图思考人工智能。当然,作为一种面向未来的研究,本文所做出的预测很可能是完全错误的。“人类一思考,上帝就发笑”,在未来也许会表现为人工智能在发笑,但我们却不能因此就放弃思考。

[1] 2017年7月20日,国务院印发《关于新一代人工智能发展规划的通知》,明确提出把人工智能发

展放在国家战略层面系统布局,牢牢把握战略主动。而在中国互联网领域中处于主导优势地位的巨头“BAT”(百度、阿里巴巴、腾讯)也都高度重视人工智能的研究,投入了大量资金与人力。

[2] 中国知网的数据库统计显示,在法学学科的期刊文献分类范围内,关于人工智能这一主题的研究从2001年开始出现,从2001年到2013年,文献数目都徘徊于个位数,其中2003、2004两年完全空白,2014年首次达到10篇,2016年增长到26篇,2017年目前已达到98篇。仅从论文数量的增长曲线就可以显示出相关研究的迅速扩展。

[3] 比较系统的梳理,可以参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期。文中梳理了六大主要问题,包括:机器人法律资格的民事主体问题,人工智能生成作品的著作权问题,智能系统致人损害的侵权法问题,人类隐私保护的人格权问题,智能驾驶系统的交通法问题,机器工人群体的劳动法问题。

[4] 参见王迁:《论人工智能生成的内容在著作权法中的定性》;梁志文:《论人工智能创造物的法律保护》,载《法律科学》,2017年第5期。

[5] 参见司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,载《法律科学》,2017年第5期。

[6] 参见郑戈:《人工智能与法律的未来》,载《探索与争鸣》2017年第10期。

[7] See, Yueh-Hsuan Weng, Chien-Hsun Chen, and Chuen-Tsai Sun: Toward the Human–Robot Co-Existence Society:On Safety Intelligence for Next Generation Robots, International Journal of Social Robotics, 2009 (1): 267–282.

[8][德]霍斯特·艾丹米勒:《机器人的崛起与人类的法律》,李飞、敦小匣译,载《法治现代化研究》2017年第4期。

[9] 参见曹建峰:《“人工智能+法律”十大趋势》,载《机器人产业》2017年第5期。

[10] 参见胡凌:《人工智能的法律想象》,载《文化纵横》2017年第4期。

[11] 在人工智能进入商业与大众视野之前,第一篇讨论其法律问题的文章就探讨了这个问题,参见张保生:《人工智能法律系统的法理学思考》,载《法学评论》2001年第5期。

[12] 参见前注11,张保生文;参见张妮、杨遂全、蒲亦非:《国外人工智能与法律研究进展述评》,载《法律方法》第16卷第2辑。

[13] 参见[美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,中信出版社2016年版。

[14] 参见吴习彧:《司法裁判人工智能化的可能性及问题》,载《浙江社会科学》2017年第4期;潘庸鲁:《人工智能介入司法领域的价值与定位》,载《探索与争鸣》2017年第10期。

[15] 前注9,曹建峰文。

[16] 《上海高院院长崔亚东对话法学专家:人工智能代替不了法官》,http://www.thepaper.cn/newsDetail_forward_1700734

[17] 《充分运用司法大数据加快“智慧法院”建设》,载《法制日报》2016年11月11日第1版。

[18] 《国务院关于印发新一代人工智能发展规划的通知》,国发〔2017〕35号,http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm

[19] Richard Susskind, The End of Lawyers? Rethinking of the Nature of Legal Service, Oxford University Press, 2008, p.27.

[20] 前注10,胡凌文。

[21] 前注9,曹建峰文。

[22] 参见[美]霍姆斯:《法律的道路》,载《霍姆斯读本:论文与公共演讲集》,刘思达译,张芝梅校,上海三联书店2009年版,第11-43页。

[23] 哈特意义上的“无知之人“,是指对法律没有提前预测,只要被告知怎么做就会怎么做的人。See, H. L. A. Hart, The Concept of Law, 2nd ed, Clarendon Press, 1994, p40.

[24] 朱松纯:《浅谈人工智能:现状、任务、构架与统一》,2017年11月02日刊登于《视觉求索》微信公众号,https://mp.weixin.qq.com/s?__biz=MzI3MTM5ODA0Nw==&mid=2247484058&idx=1&sn=0dfe92a0991294afba2514b137217a66

[25] [美]Tom. M. Mitchell:《机器学习》,曾华军、张银奎等译,机械工业出版社2008年版,第3页。。

[26] 转引自田雷:《奥林匹斯山下的扬基——霍姆斯法官的宪政悖论》,载《中华读书报》2009年6月17日第20版

[27] 关于法律职业的垄断性质如何发挥作用,以及法理学如何服务于这个卡特尔,参见[美]波斯纳:《超越法律》,苏力译,中国政法大学出版社2001年版,第54-93页。

[28] Niklas Luhmann, Law as a Social System, translated by Klaus A. Ziegert, Oxford University Press, 2004, p.158.

[29] 同前注22,霍姆斯文。

[30] [加]Simon Haykin:《神经网络与机器学习》,申富饶等译,机械工业出版社2011年版,299-301页。

[31] 参见[美]波斯纳:《法理学问题》,苏力译,中国政法大学出版社2002年版,第57页。

[32] 参见[法]福柯:《词与物——人文科学考古学》,莫伟民译,上海三联书店2001年版,第395-447页。

[33] 参见[美]道格拉斯·G·拜尔、罗伯特·H·格特纳、兰德尔·C·皮克:《法律的博弈分析》,严旭阳译,法律出版社1999年版,第203-205页。

[34] 参见[美]埃里克·波斯纳:《法律与社会规范》,沈明译,中国政法大学出版社2004年版。

[35] [美]罗伯特·阿克塞尔罗德:《合作的复杂性:基于参与者竞争和合作的模型》,梁捷等译,上海人民出版社2008年版,第30-31页。

[36] 再复杂的算法,在逻辑上都是一步步将情况分解简化后的回归,从而可以以0/1的二进制表现出来,参见前注13,佩德罗·多明戈斯书。

[37] 据新闻报道,雄安新区相关负责人详细解释要实行的“积分制”将在遵纪守法、道德品质、社会贡献、公益活动、绿色生活等5个方面建立个人城市诚信账户,不同积分所享受的待遇也将不同。《雄安新区相关负责人详解积分制:5方面建立个人城市诚信账户》,http://finance.ifeng.com/a/20171025/15744081_0.shtml。

[38] [德]海德格尔:《存在与时间》,陈嘉映等译,三联书店2006年版,第21页。

[39] Supra note 21, p260.

[40] [德]施路赫特:《理性化与官僚化:对韦伯之研究与诠释》,顾忠华译,广西师范大学出版社2004年版,1-4页。

[41] 周志华:《机器学习》,清华大学出版社2016年版,第23-24页。

[42] 同前注8,霍斯特·艾丹米勒文。



    进入专题: 人工智能   法律价值   法律规则   法律认知  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/109703.html
文章来源:本文转自《法学评论》2018年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统