于海防:人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间

选择字号:   本文共阅读 782 次 更新时间:2019-07-05 00:39

进入专题: 人工智能   法律规制  

于海防  

【内容摘要】 在机器智能领域,人工智能与智能增强两大技术阵营在应替代人类还是增强人类上存有理念对立,并映射于法律。相对于计算机、网络等智能增强技术以人为中心、以增强人类为目标,人工智能技术以机器为中心、以替代人类为目标,在技术上具有去人类化的属性,此系人工智能诸多伦理困境与法律难题的产生根源。人工智能法律规制应当坚持以人为本,对人工智能前置性地施加局部替代人类、整体增强人类的价值负载,在人工智能不具有主体资格的前提下,围绕人工智能以机器为中心的特性进行制度设计,弱化复杂的伦理困境与责任认定疑难,并保持与既定体系的接洽、交融。人工智能法律研究不应局限于法律范畴之内,在技术分析之外,还需要结合哲学、伦理学等学科的研究。

【关键词】 人工智能 智能增强 人机关系 价值取向 主体资格 法律规制


目前,人工智能法律研究的核心在于如何科学、合理地规制人工智能。学界现阶段的研究多针对具体问题,但研究难以协同,观点纷纭,动辄否定传统法。而且,人工智能依托于计算机,但现有的人工智能法律研究却与之前有关计算机、网络、电子商务的法律研究差别极大。在相当程度上,人工智能研究的纷乱现状源于其法律规制的基点未得到确立,而这又可归因于人工智能基础法律问题研究的不足。从技术背景来看,人工智能领域内部仍存巨大分歧,至今尚未形成统一的理论与技术范式,甚至连人工智能概念的内涵与外延都是不确定的,致使新兴的人工智能法律研究缺乏共认的研究前提,这不利于顺利开展对人工智能基础法律问题的研究。笔者不揣浅陋,在人工智能技术、认知科学、哲学、伦理学、法学等多学科结合的视角下,梳理机器智能两大技术阵营的理念纷争及对法律所生影响,并以此为基础分析人工智能法律问题的根源、症结与解决思路,进而尝试确立人工智能法律规制的两个核心基点,以解决人工智能因去人类化属性而与法律产生的根本性冲突,将人工智能法律规制融入既定法律体系。


一、机器智能技术的理念纷争及对法律的影响


计算机、网络、电子商务与人工智能法律问题的产生均源于数字化计算机器的应用。计算机、网络、电子商务法律问题的产生已有三十余年,相关法律规制基本定型且已融入传统法律体系,人工智能发展六十余年,却于近年才产生法律问题。此外,虽然在技术、领域与应用上存在耦合与重叠,但人工智能法律研究与计算机、网络、电子商务等法律研究却相割裂,国内外均是如此。在笔者看来,这种割裂映射了人工智能与智能增强两大技术阵营在机器智能领域的长久对立。然而,人工智能与智能增强其实具有一定程度上的辩证统一关系,二者在法律问题上也具有这一特点。回溯梳理这两种机器智能技术的发展、分歧及对法律的影响,有助于人工智能法律问题的分析与解决,对于厘清人工智能立法与既定法的关系以避免体系龃龉也具有重要意义。

(一)机器智能框架下人工智能与智能增强的理念对立与统一

虽然哲学家、科学家与大众对人工智能的理解存在系统性差异,但可以肯定的是,人工智能是一种机器智能,依存于以计算机为代表的数字化计算机器,而计算机从产生时起便是具有区别于以往任何机器的、可发展的机器智能的。计算机从第一代发展到第四代,推动机器智能水平持续提升,计算机、网络、虚拟现实、大数据、云计算、物联网、区块链、人工智能等数字计算技术可以在机器智能的宏观维度上得到统一。各式数字化计算机器、技术的发展史就是机器智能的发展史,反之亦然。拥有机器智能的计算机器的出现改变了自工业革命以来的人机关系,并使人类与计算机器之间的关系成为人机关系的核心。人机关系因计算技术的进步、机器智能的提升而不断发展、变化,并向人际关系、社会关系传递,迫使法律不断作出调整,在此过程中产生的法律问题可以统称为机器智能法律问题。机器智能法律问题的实质是数字化时代的人机关系在法律上的投射,发轫于计算机,兴盛于网络。近年来,机器智能因人工智能技术的发展而进一步提升,对人机关系、人际关系、社会关系以及法律的影响更加激烈,所形成的人工智能法律问题系机器智能法律问题的进一步发展。需要注意的是,在机器智能与人机关系上,在整体上始终存在人工智能的“替代人类”与智能增强的“增强人类”的理念对立,这种对立投射于技术、社会与法律,对计算机、网络、电子商务等法律问题与人工智能法律问题的形成与解决具有直接影响,但当前的研究对此少有关注。

1950年,图灵在《计算机器与智能》中分析了基于计算机创造出具有智能的机器(学习机)的可能性,期待“机器能够在所有纯智能领域同人类竞争”。1956年,麦卡锡等科学家在达特茅斯会议上提出了“人工智能”(Artificial Intelligence,以下简称AI)的概念与设想,这是一种后来被称为GOFAI(Good Old Fashioned AI)的采取符号主义范式的“老派AI”,通过使用计算机模拟人类智能创造类人机器智能,目的是通过提升机器智能使机器能够代替人类从事相关活动,而这同样也是后来被称为NFAI(New Fangled AI)的采取联接主义范式与行为主义范式的“新派AI”的目标。AI的发展过程便是机器替代人类的过程,其间牵涉了诸如主客二分还是主客一体、身心二元还是身心一体、非身认知还是具身认知、唯理论还是经验论、科学主义还是人文主义等复杂问题,长期受到哲学与伦理学的关注。AI从GOFAI发展到NFAI,现今在替代人类上更进一步,甚至开始替代律师、医生等复杂脑力劳动岗位,这导致人机关系发生了重大变化,催生出一系列的伦理与法律难题。

1962年,恩格尔巴特(Douglas C. Engelbart)提出了“智能增强”(Intelligence Augmentation,以下简称IA)的概念与设想。IA不认同AI通过计算机模拟人类智能、替代人类的理念,认为计算机应用于改善和增强人类的智慧、能力,强调以人为本,主张人机交互、人机共存,这种理念可以追溯到皮尔士(Peirce)的符号学与实用主义哲学。由于IA遵循主客二分,以人类为中心,因此受到的哲学、伦理学关注远较AI为少。在几十年间,IA连续推动了计算机、操作系统、应用软件、用户界面的进步,提升了人机交互水平,开发了超文本系统(至今仍是网络的根基),推进了阿帕网(因特网的前身)的形成,虚拟现实、智能网络搜索及电子商务的发展也与IA有着密切关系,“从恩格尔巴特的观念到现今的技术有着明确的因果链条”。

AI与IA在替代人类与增强人类上的理念对立导致二者具有不同的技术思想与设计进路:AI以机器为中心,更关心机器本身,会淡化甚至排除人的参与;IA以人为中心,更关心人与机器的互动,会保证人的参与和控制。现今的无人驾驶与辅助自动驾驶的设计差异便呈现出这种差别。AI追求的是可以达到甚至超越人类智能的类人机器智能,可以令机器广泛替代人类。IA追求的是可增强人类甚至与人类协作的机器智能,这不是类人智能,而是人类智能在机器领域的延展。自20世纪60年代起,AI阵营与IA阵营在理念与研发上便是对立的。然而辩证地看,机器智能技术发展至今,AI与IA既有对立性,也有统一性。在技术上,AI与IA具有一定的共通性,相互促进,“计算机技术的发展正在消解 AI 和 IA 的边界”, 各种技术交融集成,有时甚至难以判断某项技术究竟是AI还是IA。在理念上,AI虽秉持替代人类,但其在替代人类的同时也在增强人类;IA虽秉持增强人类,但其在增强人类的同时也在替代人类。AI与IA在理念与技术上的迥异及辩证统一关系对法律问题的形成与发展产生了重要影响。

(二)人工智能法律问题与智能增强法律问题的分离与交融

IA融入了计算机技术的发展,IA法律问题随着计算机、网络、电子商务的发展而逐步显现。大约在20世纪80年代,个人计算机技术的成熟催生出计算机法律问题,网络与电子商务在20世纪90年代的兴起催生出网络与电子商务法律问题,大数据、云计算与区块链等技术在21世纪初的发展也促生出诸多法律问题。这些领域的机器智能均为极弱智能,均奉行增强人类的理念,法律问题的产生逻辑相似,也正是在此意义上这些法律问题可以统归为IA法律问题(即智能增强法律问题),包括意思表示、电子合同、数据、广告、侵权、虚拟财产、金融、知识产品、不正当竞争、医疗、消费者保护、大数据、云计算、区块链、物联网、电子证据、网络管辖与犯罪等各部门法问题。

AI虽然也与计算机技术协同发展,但它的目标、方法、进路与计算机技术不同,并高度融合了哲学、神经科学、心理学、工程学等学科,独立性较强。AI经历了从符号主义范式到联接主义范式、行为主义范式的不断自我否定的发展历程,数次陷入寒冬期。21世纪之前的AI智能水平较低,应用范围较为狭窄,对一般意义上的人际关系、社会关系影响极弱,基本未对法律产生影响。在进入21世纪后,随着网络、大数据、云计算等技术的成熟,AI获得了新的驱动力,各技术范式得以集成、混合,进一步推升机器智能。尤其是在2012年之后,AI类人智能水平提升迅速,甚至在人类传统智能优势领域多次击败了人类智能,并向各领域渗透,AI开始替代人类岗位,AI法律问题由此而生。目前AI法律问题涉及主体资格、意思表示、电子合同、数据、广告、侵权、金融、知识产品、不正当竞争、医疗、消费者保护、大数据、云计算、区块链、无人驾驶、机器人、物联网、机器决策、犯罪、行政管理、法律服务、司法审判等,与IA法律问题存在大量重合。

AI与IA的对立性具化于计算机技术,显现于人机关系,传递于人际关系与社会关系,以至于AI法律问题有别于IA法律问题。AI法律问题既与IA法律问题存在重合,也包括大量新问题。在重合问题上,由于两种法律问题系不同理念与技术的具现,除部分问题外,AI法律问题通常无法套用IA法律规制。例如,以AI为主导的全自动无人驾驶与以人为主导的辅助自动驾驶在责任分配上会存在明显差异,自主机器人侵权问题的解决也明显不同于通常的计算机、网络侵权问题。不过,AI与IA的统一性也使得AI法律问题与IA法律问题相互交融。首先,AI法律问题与IA法律问题均因数字化机器智能的进步而引发。其次,意思表示、电子合同、数据、消费者保护、广告与不正当竞争等重合问题的形成逻辑通常不与所使用的技术是增强人类还是替代人类相关,在AI之上大致可以使用既定的IA规制模式。最后,AI与IA混用于各种场景,AI法律问题与IA法律问题在诸多领域具有桥接关系或混同关系,例如大数据、云计算、自动驾驶、证券算法交易等法律问题具有AI与IA的双重属性。AI法律问题在承继部分IA法律问题的基础上进一步发展,二者既有区别,又有联系,这意味着二者的法律规制应当具有一定意义上的协同性。当然,协同并非意味着一致。


二、人工智能法律问题的根源、归纳与解决思路


鉴于AI法律问题具有特殊性、复杂性,并与IA法律问题存在分离与交融,研究AI的法律规制应首先分析AI法律问题的根源与症结,进而对AI法律问题进行归纳,在此基础上分析其解决思路。

(一)人工智能法律问题的根源与症结

虽然AI尚无公认的统一概念、理论与范式,应用繁乱,但从根本上说,AI为替代人类劳动而生,以替代人类从事活动为目标。法律为人类而设计,以人与人之间的关系为调整对象,而替代人类的AI是(智能)机器,其在决策逻辑、行为模式以及社会性、可预见性等方面与人类有差异,会超出人类经验或期望的限制,这导致面向人类的法律难以简单适用于AI。笔者认为,AI法律问题的产生根源便在于AI对人的替代,无人驾驶、智能投顾、作品定性、责任分担等系列问题的产生均是因AI替代人类实施本来由人类实施的行为,导致原本适用于人类的法律应对困难。

IA法律问题也有诸多疑难,但大多可以通过对传统理论、既定规则的解释与适度修正得以解决。之所以如此是因为IA奉行增强人类的价值取向,机器的设计是为了改善、提高人类能力,在IA式人机关系中,人处于中心地位,人为主体,机器为客体,这契合法律以人为中心的理念与主客二分的观念,将IA融入法律便不会存在体系性障碍。然而,在AI替代人类的理念之下,机器会采取独立于人类的设计,人的因素会被淡化甚至被消除,在AI式人机关系中,机器处于(技术)中心地位,人类甚至要服从于机器作出的决策,这在根本上与法律以人为中心的理念与主客二分的观念相悖,将AI融入法律便会存在巨大障碍。因此,AI替代人类的理念、以机器为中心的去人类化观念与法律以人为中心的理念、主客二分的观念之间的冲突便是AI法律疑难的症结所在,在未就如何解决这一根本性冲突达成共识、无法确立AI法律规制的基点时,针对具体问题的研究便会显得纷乱。

(二)人工智能框架性法律问题的归纳

从与IA相区别的角度而言,各式AI的共性在于贯彻替代人类的理念,在技术上以机器为中心,在应用上以(全部或部分地)替代人类劳动为目标,而这也正是AI法律问题产生的根源。在此基础上,可以从与IA法律问题相区别的角度归纳AI的框架性法律问题,以便于探讨其整体法律规制。

首先,AI法律规制应当遵循何种价值取向,此系其法律规制的价值基础。鉴于替代人类的AI与以人为中心的法律在价值理念上存在巨大冲突,AI法律规制必然伴随价值取向问题,即AI法律规制在替代人类与增强人类之间应如何权衡、取舍,是顺应AI替代人类的理念与技术,还是予以矫正。

其次,AI可以替代人类,那么应否赋予AI主体资格,此系AI法律规制的逻辑前提。AI应否拥有主体资格直接决定其法律地位与规制路径,也直接影响对AI系列问题的分析逻辑。诸多学者基于强人工智能已经或将要产生,甚至超级人工智能将来也会出现的趋势,动辄提出法律死亡论,否定传统法,在主张AI拥有主体资格的前提下进行制度设计。但事实上,当前的AI技术条件以及哲学、认知科学上的研究却根本不足以支撑强人工智能必会出现的假设,遑论超级人工智能。

再次,使用AI替代人类从事各种活动是否正当、适法,应遵循何种规则,此系AI法律规制的具体手段。AI的适法性问题表现为其安全性、伦理正当性、敏感领域应用准入与使用规则等问题。例如,AI在武器领域的运用是否应受限制?无人驾驶中的伤害选择应如何确定?在何种领域可使用AI进行机器决策以及应遵循何种程序?AI使得马克思•韦伯提出的自动售货机式的现代法官的设想成为可能,是否允许实现这种可能?对AI适法性问题的回答决定了各领域AI使用规则的制定。

最后,AI替代人类实施行为而产生的责任如何认定,此系AI法律规制的最终落实。AI责任问题的难点主要体现在责任主体、归责与因果关系的认定疑难上。第一,应当如何确定责任主体以及如何划定多主体间的责任分担比例?第二,在归责上,对不同类型的AI、不同应用场景应采取何种归责原则?若需考虑过错,如何确定相关主体的注意义务?在判定过错的有无与大小时,机器能否成为判断的对象,应在多大程度上考量AI开发流程、算法、应用方式与外部环境等因素的影响?第三,AI使得原本极为复杂的因果关系问题变得更为复杂,是该套用还是突破传统因果关系理论?如何合理切断过长的因果关系链条?在个案中应当如何进行因果关系认定,可否使用AI代替专家辅助人对标的AI进行逻辑回溯?在法律上如何破解AI固有的不可预见性所造成的难题?在行政法、刑法等领域讨论AI法律责任时也会遇到类似疑难。

(三)人工智能法律问题的解决思路

基于对AI法律问题根源与症结的分析,AI法律规制的关键在于解决AI与法律的根本性冲突并通过法律规范AI对人类的替代。从法律体系与立法成本的角度来看,基于前文对AI与IA的辩证统一关系、AI法律问题与IA法律问题承继关系的分析,对AI法律规制的探讨宜在IA法律规制的基础上,围绕AI替代人类的特性进一步展开。前文所提炼的AI四项框架性法律问题正是从AI法律问题的产生根源出发,从与IA法律问题相区别的角度围绕AI替代人类而归纳得出。AI法律规制的基本思路应当是分析与解决此四项框架性法律问题,并向各领域延伸。

AI四项框架性法律问题涵盖了一般问题与具体问题,较为庞杂。其中,AI法律规制的价值取向与AI是否具有主体资格属于极为关键的一般性基础问题,关涉AI与法律之间根本性冲突的解决,指向AI法律规制核心基点的确立。前者回答了应当如何解决AI替代人类的理念与法律以人为中心的理念之间冲突的问题,确定了AI法律规制的价值基础。后者回答了应当如何解决AI以机器为中心的去人类化观念与法律上主客二分的观念之间冲突的问题,确定了AI法律规制的逻辑前提。诸多AI法律问题的研究便以这两项一般性基础问题为基础,在对这两项问题未达成基本共识、规制基点无法确立的背景下,对包括AI的适法性问题、责任问题以及AI作品、金融、交通与医疗等问题在内的具体问题的研究便难以深入。受限于问题性质及篇幅,下文仅探讨AI法律规制的价值取向问题与AI的主体资格问题。需要注意的是,AI本身便是多学科交融的产物,除自然科学外,AI与哲学、伦理学等人文科学也存在先天的紧密联系,在研究方法上,AI法律研究应当结合其他学科的研究,在许多问题上甚至需要以其他学科研究为基础,AI的这两项一般性法律问题便属此类。


三、人工智能法律规制应贯彻局部替代人类、整体增强人类的价值取向


AI与法律的理念冲突决定了从法律上规制AI首先需要对AI替代人类的理念进行评价,从整体上确定AI法律规制的价值取向,而不是如IA法律规制一样,仅需跟随技术的发展而作出调整。科学、技术具有双重价值性(正价值与负价值),“AI将造福人类”的乐观论与“AI将毁灭人类”的悲观论分别指出了AI因替代人类而产生的双重价值。在替代人类与增强人类之间,法律不得不进行权衡、选择。有学者指出,要从人机协作和人机共生而不是人机对立的角度探寻发展“基于负责任的态度的可接受的AI”的可能性,应当意识到发展AI旨在增强人类而非替代人类。笔者赞同这种观点。

AI的正价值在于机器智能的再次提升能够让人类的工作与生活更加便利,进一步改造产业模式、提升效率、推动经济发展、扩展对未知世界的探索。随之而来的问题却是AI可能会造成社会结构的巨大变革,冲击劳动力市场,引发严重的伦理困境。AI的本性便是去人类化的,以无人参与的闭环自动化为技术指向,甚至“将自动化本身予以自动化”,在其技术架构中可以没有人类的存在。AI势必继续发展并发挥更大作用,若其以机器为中心、以替代人类为目标的特性不受约束,那么以人类为中心的社会将走向何方?目前已经出现了将人类事务交由AI进行机器决策的情形,若AI智能水平进一步提升,机器决策大规模扩张,将可能产生何种后果?人类连现今的非“智能”网络技术都无法保证安全,何以可能保证具有去人类属性的、强大的“智能”机器是安全的?哲学上的研究多是从认识论的角度研究AI能否以及如何创造出“智能”等问题,价值论的研究相对较少,但已有的价值论研究基本上都是遵循人文主义。人文主义强调个人尊严、价值,坚持以人为本。人工智能伦理学研究也遵循了人文主义,认为应保证AI设计者的伦理性,将符合人类价值的伦理规范嵌入AI,将AI用于增强人类,避免制造出不符合人类价值和利益需求的AI。其中,机器伦理学主要研究如何使AI、机器人在行为上具有伦理性,机器人伦理学主要研究如何对人类设计者进行约束。2017年,电气和电子工程师协会(IEEE)发布的《以伦理为基准的设计:利用人工智能和自主系统最大化人类福祉的愿景》指出以人类价值观为导向的方法论是AI设计的核心。同年,由全球数千名科学家联名签署的“阿西洛马人工智能 23 条伦理原则”第1条原则便指出“人工智能的研究目标应当是创造有益(于人类)而不是不受(人类)控制的智能”。2018年,欧洲政治战略研究中心发布的《人工智能时代:实施以人为中心的人工智能战略》明确提出应将AI用于增强而不是替代人类。可以看出,价值哲学与伦理学并不是简单地跟随与顺应AI技术的发展,而是坚持以人为本,认为应对AI施加必要限制。在面对人类整体族群利益时,AI法律规制的价值理念并非一个特别复杂的问题,在以机器为中心与以人为中心的冲突之间应当选择后者。在法律上,如果只是基于AI的正价值而顺应与促进AI的发展,对AI的负价值却不予限制,无疑是违背人类整体利益与人文主义精神的。

需要注意的是,“替代人类”“增强人类”在技术语境中多为微观意义上的,在价值哲学与伦理学语境中则多为宏观意义上的。从法律上看,坚持AI在宏观上、整体上用于增强人类,并不是要否定AI在微观上、局部上对人的技术性替代,AI对人类的贡献也正在于此。法律应当肯定AI局部性替代人类的积极意义,并预防和避免人类整体性利益被损害。因此,从法律上规制AI,应当采取局部替代人类、整体增强人类的价值取向,适度矫正AI替代人类的理念与技术,对AI前置性地施加以人为本的整体价值负载,提前研判与化解AI对社会结构的冲击。鉴于AI在技术上具有去人类化的属性,其应用具有一定程度上的不可预见性、难以理解性,而且没有任何机构能够保证AI可以被人完全控制,法律在保障AI整体上不偏离增强人类的方向之外,还需要根据AI以机器为中心的技术特性制定相应的规则,从源头上保证人对AI的控制及其可归责性,以弱化复杂的伦理困境与责任认定疑难,尽量消解因AI替代人类而产生的不利影响。笔者认为,局部替代人类、整体增强人类的价值取向应当贯彻于AI其他三项框架性法律问题的解决。第一,AI不具有主体资格(容后详述)。第二,在AI的适法性方面,首先,法律应当确立AI研发规则,要求研发者将伦理代码写入AI,尽量预防伦理风险;其次,在AI使用方面,法律尤其需要确立立法、行政管理、司法审判等敏感领域中的AI准入规则与使用规则,以保障人类安全、服务人类与防范系统性风险,保证人类的最高决策权;最后,AI法律规制应采取主动的事前、事中监管措施,保障技术安全、可控。第三,在AI责任方面,首先,法律应当要求研发者尽可能保障AI的技术可回溯性,在代码层面对AI添加限制,以降低将来认定责任的难度;其次,法律应当强化研发者责任,迫使研发者适度矫正AI,在算法上保证AI行为可归责于相应的人,使AI不偏离整体增强人类的方向;最后,AI责任规则需要在以机器为中心的技术与以人为中心的责任之间建立合理连接,确定归责基础。AI法律规制在立法技术上面临的一般性挑战是,法律规则需要将以AI为基础的法律事实与人关联起来,将以机器为中心的AI置于以人为中心的法律关系之内。

需要指出的是,机器智能技术是会聚技术(NBIC)中的重要技术,可与纳米、生物等技术结合用于改善、增强人类的基因、身体,由此所产生的超(后)人类主义问题超出了本文讨论范围。本文所阐述的增强人类,并不包括将机器智能技术直接融入人类身体而增强人类。从对会聚技术的讨论中可以看出,应当通过制度防范高新技术的滥用,在AI与IA上亦是如此,即便用于增强人类,也存在限度。法律对此必须加强监管,防范技术风险,在必要时应如禁止克隆人一样设置技术禁区。在以人为本、增强人类的理念之下,虽然法律需要在短期内作出调整以适应AI的发展趋势,但长远来看,不应当是法律如何迎合AI、而是AI如何迎合法律的问题。


四、人工智能不具有主体资格应作为法律规制的逻辑前提


目前法学界有种代表性观点提出以智能机器人为代表的AI应被赋予主体资格。笔者认为,在现有的科技、哲学、伦理学、社会学与法学背景下,这种观点只是一种过度超前的想象,AI法律规制应在AI不具有主体资格的前提下进行设计。

(一)人工智能难以产生类人的自主性与意识

认为应赋予AI以主体资格的观点大多认同在技术层面AI已经产生或必会产生自主性与意识等类人属性。例如,认为AI、机器人已经逐步具有一定程度的自我意识和自我表达能力;认为智能机器人具有精神,应当享有权利;认为AI具有自主性,非为纯受支配的客体;认为AI会发展到超越工具型的强人工智能阶段;认为智能机器人能够辨认自己行为的性质、意义与后果,人类创造机器人的技术达到了无与伦比的程度,智能机器人可能产生自主的意识和意志。在笔者看来,这些观点往往是基于无依据的断言与假定,对AI技术的理解出现了严重偏差。AI主流技术包括符号主义范式、联接主义范式、行为主义范式及贝叶斯网络、类脑计算等,可以肯定的是,这些技术路径均未令AI产生类人的自主性、意识或者说“智能”,并且在相当长的将来可能也无法实现这一点。基于AI具有意识、自主性等类人属性而主张赋予AI主体资格的法律研究在出发点上可能就是错误的。

符号主义范式立基于长久以来的理性主义、形式逻辑传统以及身心二元论,深受笛卡尔、莱布尼茨、霍布斯等哲学家、数学家思想的影响,将智能理解为物理符号系统,并通过创造符号系统自上而下地模仿人类思维,专长是专家系统、定理证明、棋类博弈等,至今仍是重要的AI技术范式。自20世纪70年代起,符号主义范式受到现象学学者的严厉批判。德雷弗斯认为,这是一种为海德格尔和梅洛-庞蒂所批判的理性主义,不可能取得成功,因为人类智能包含有不可形式化的成分,人的躯体在智能行为中的作用更是无法形式化的,AI无法形成人类主体性意义上的智能。不过德雷弗斯并未否定AI的整体前景,其提出了AI的具身(embodiment)进路。塞尔提出的中文屋思想实验对符号主义范式以及图灵测试进行了批判,认为形式化的符号系统不可能产生“智能”。 AI科学家麦克德莫特批评符号主义范式的支持者“对哲学家们昔日的失败一无所知”。符号主义范式在创造“智能”上遭遇了无法解决的困难,其无法将人类知识全部表征,难以具备背景知识与常识,无法处理非线性、非结构的复杂问题。

符号主义范式的假设被联接主义范式与行为主义范式所否定。联接主义范式受益于认知神经科学的进步,立基于身心二元论,将智能理解为众多并行分布的神经元相互作用的结果,通过数学方法模拟人脑神经网络及其联结机制,采取神经网络算法。行为主义范式受生物进化与遗传的启示,立基于身心一体论,认为智能取决于感知和行为,存在于人与世界的交互,因此采取进化算法,使用包含传感器与执行器的“机器身体”令AI直接与真实世界交互,产生“感知—行为”的反馈,以模拟生物进化的方式产生智能。联结主义范式与行为主义范式突破了传统的冯•诺伊曼计算结构,在21世纪初开始与数据驱动的机器学习相结合,近年来在提升机器智能方面取得了令人瞩目的成就。例如,使用深度神经网络算法的AlphaGo等AI技术获得了巨大成功,BigDog、Atlas、iCub、ASIMO等机器人在智能方面也取得了重大进展。不过,AI的成就仅限于形式化领域,在意向性领域依然一无所获。联接主义范式与符号主义范式一样,无法跨越知识表征的障碍,计算机仍然难以将人类所拥有的背景知识、形象思维等以符号方式予以形式化表征。被誉为“神经网络之父”的科学家杰弗里•欣顿(Geoffrey Everest Hinton)近两年否定了当下大行其道的深度神经网络算法对于类人智能的意义。行为主义范式所模拟的其实并非人类智能,而是低等生物智能。采取行为主义范式的机器人在欠缺主体意向驱动或外界命令驱动的情况下,无法实施有意义的行为,这使得行为主义范式局限于对工业应用领域低层次智能的模拟。基于概率进行非确定性推理的贝叶斯网络算法高度依赖符号表征,虽可在非确定性推理、模糊计算方面取得一定成功,但高度依赖设计者对问题框架的提前设定,距自主性、意向性的实现十分遥远。“贝叶斯网络之父”朱迪亚•珀尔(Judea Pearl)在2018年否定了贝叶斯网络算法对实现类人智能的意义,认为“因果推理”才是通往类人智能的路线。一些科学家认为类脑计算(神经形态计算)将是从弱人工智能到强人工智能的主要进路,类脑智能将是人工智能的终极目标。类脑计算技术从硬件上突破冯•诺伊曼计算结构,借鉴人脑神经元信息处理机制发展类脑神经芯片与计算平台,试图实现低能耗、容错性与无须编程的三大人脑特性。类脑计算已发展二十余年,其不是如联接主义范式一样对人脑进行局部模拟,而是对人脑的整体运行机制进行研究、模拟,极可能大幅推动AI的进步,但人类至今仍不清楚人脑的整体运行机制,也不清楚“意识”在智能活动中的作用,更无法确定这种机制可以通过机器实现。对于能否创造出真正的“智能”,哲学家即便不予彻底否定,也多持悲观态度,AI科学家、未来学家却多持乐观态度,但也有AI科学家指出,“主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会自动地使强人工智能成为可能”。

在法律的向度上,AI是否拥有自主性、意向性与意识,是应否赋予AI自然人格的基础。AI始终依托计算机,图灵机是所有计算机的理论模型,但“丘奇—图灵”论题本身便承认图灵机并非对所有对象均可计算,存在算法不可解。计算机与AI的出发点一直建立在“认知可计算”的计算主义基础上,计算主义建基于一个假定:无法直接观察人脑中智能的运作,而只能借助于对人智能行为的间接观察。只有观察出真正的人脑运作原理并成功模拟,才有可能创造出类人智能,但这两项条件的满足困难重重。从最初的符号主义范式到联结主义范式、行为主义范式的转换,已经显现了计算主义的局限性,计算机器在知识获取、表达与处理上具有先天局限,人类心智的复杂性机制给机器模拟带来了极大困难,在通过机器模拟人类自适应、自学习以及与环境作用时,人类意识的意向性、自指性等重要特征是超越逻辑与算法的,非形式的、不可表征的智能活动是AI无法达到的极限。AI虽快速发展,但在难以进行形式化计算的认知活动中始终未获任何成功便印证了这一点。AI发展至今只有技术意义上的有限自主性,没有类人自主性、意向性与意识,将来可能也很难产生这些类人特性,欠缺类比自然人从而被赋予人格的根本基础。

(二)法律不应赋予人工智能主体资格

塞尔按照AI的智能程度提出的弱人工智能、强人工智能的分类得到普遍赞同,但塞尔当初提出的心智性区分标准却被替换成对人的局部模仿、全部模仿的技术性区分标准,这对于判断AI是否是“智能”的、应否拥有主体资格产生了极强的混淆性。事实上,目前的AI仍是“无心”的弱人工智能,并无“智能”, 不具备赋予主体资格的基础。如前所述,在相当长的将来,AI可能也只是在不“智能”的弱人工智能的框架内提升机器能力。AI法律研究若过度受到激进观念与无依据断言的影响,会出现危言耸听的情形。例如,认为AI技术已经发展到可以作出独立意思表示的阶段;认为只有承认AI的主体地位,才能进而分析其所缔结法律关系的效力问题、举证问题、责任问题;认为AI对民法更深层次的挑战在于对拥有与自然人同等甚至更高智力水平的机器人法律地位的认定;认为智能技术的便捷性和适用性会使传统法律变得没有用武之地,一系列算法机制会不断催生出各种类型“私人订制”的法律,民主机制也会伴随现实法律空间的瓦解失去用武之地;认为应当参照动物保护、法人拟制以及欧盟议会法律事务委员会《关于机器人的民法规则》提出的“电子人”,将AI确立为法律主体;甚至还有观点考虑从机器人的角度来看,若不赋予其公民权,将来可能会出现弥赛亚式的人物对机器人进行救赎。

笔者认为,第一,非人工智能的技术与机器早就可以在无人工介入的情况下作出所谓的独立意思表示、缔结电子合同、形成证据,电子商务法已经解决了意思表示的归属、效力、责任与证据等问题,但未赋予机器主体资格。第二,认为AI已达到或超越人类智能的观点是错误的,因为目前的AI仍然局限于“大数据、小任务”,即便可以局部超越人类智能,但在整体上仍然无法达到人类的智能水平,无法与人类“小数据、大任务”的能力相比拟。第三,参照对克隆人的禁止,人类社会根本就不应允许具有危险性的AI技术不受限制地向替代人类的方向发展,民主机制不仅不应瓦解,而且应当成为限制AI的掣肘。法律的代码化、算法化也是有限度的,因为自然语义的符号化已经是算法难以跨越的障碍,更何况法律不仅是逻辑的,还是经验的。第四,动物保护、法人拟制无法与AI主体资格问题相类比,因为所处环境、背景、价值理念、出发点以及在人类社会所引发的后果与连锁反应是完全不同的。欧盟议会法律事务委员会《关于机器人的民法规则》第59(f)条声称,赋予机器人电子人的地位是为了解决所谓的最先进机器人造成的损害问题及外部互动问题。但是,不赋予机器人电子人地位也可以解决这些问题,赋予电子人地位只会使问题变得无谓的复杂。欧盟议会法律事务委员会的这种提议只是一种不成熟的、不成体系的设想,并无坚实的哲学、伦理与法律支撑。在赋予AI主体资格的观点中,机器人索菲亚被沙特宣布为具有公民身份的事例被广泛援引,人们普遍对索菲亚的“我将毁灭人类”等言论感到担忧与恐惧。但明显的是,目前的技术水平根本不可能使索菲亚作出此种自主性的回答,此事件完全是由商业利益推动的。索菲亚的公民身份根本不能成为支撑AI应具有主体资格的论据。AI远超常人吟诗能力的例子也常被援引,但与其说其在创作,不如说其在制造。可以肯定的是,AI无法理解其所吟之诗。主张赋予AI主体资格的观点基本上完全跟随了AI替代人类的理念,很少顾及AI技术的负价值。

应当承认的是,AI在一定程度上突破了主客二分、人物二分的传统观念,较其他人工物更符合“行动者网络理论”中的非人行动者的特点。拉图尔提出的“行动者网络理论”在社会学、人类学、伦理学、科学技术学等学科有着广泛影响,按照该种理论,主体、客体不是严格二分的,环境、人工物等非人因素与人均为具有能动性的、平权的行动者(actant),组成了相互交织的行动者网络。在社会学中,拉图尔“行动者网络理论”因认为非人行动者拥有与人类行动者完全对等的能动性而被批评为一厢情愿,因为其只能在文本中而不是在实践中实现非人行动者的能动性。AI与人类行动者具有更加密切的交织关系,但其不具备意识与意向性能动,在行动者网络中不可能与人类行动者对等、平权。从伦理学角度来看,“行动者网络理论”突破了人工物与道德不相干的传统伦理学观念,由此产生了人工物是否为道德行动者的问题。伦理学上大致包括认为人工物是道德行动者、认为人工物不是道德行动者以及折中的三种观点。折中论是主流观点,其承认人工物的道德能动性,但认为这种道德能动性只是调节性的,而人的道德能动性是原发性的,因此,在行动者网络中不能将人工物看作像人一样的道德行动者,而应将其看作对社会信息、关系具有能动调节作用的“道德调节者”。这种观点能够较好地解释人类与AI之间的伦理关系以及AI的伦理性,即AI与人并不对等,但具有道德调节的能动性,AI不具有主体资格并不意味着其不承担道德负载。认为AI为道德主体(或者说道德行动者)的观点与认为动物、大自然为道德主体的动物中心主义、生态保护主义相似,表达的其实是对动物、自然与人工物的尊重,其共同点在于重塑伦理关护对象的道德地位,仍然是立基于以人类为中心的思想。“无论审视动物的权利,还是审视人工智能和机器人的人格,仍然是一种人类中心的视角,一种基于对人自身的反射式关怀。”若法律赋予AI主体资格,无疑会偏离以人类为中心的思想。

在笔者看来,讨论AI主体资格问题的前提是出现了或极可能出现强人工智能,但哲学上多对强人工智能的出现持悲观态度,在无法确定人脑运行原理能否被准确认识的背景下,即便是乐观的AI科学家也不能确定通往强人工智能的突破口究竟在哪里。当然,我们也不能断言AI绝对不会产生意识、强人工智能一定不会出现,但从计算机结构、AI技术范式以及心智哲学的研究来看,机器从当前的“识别”走向“理解”,从逻辑走向思维甚至产生意识,即便人类上下求索,也是长路漫漫,就连看起来最容易突破的、不以“智能”为目标的无人驾驶也需要经过很长时间的完善。此外,即便技术具备内在的发展逻辑,也不能自主地展开,而是要受到社会的制约和规范的,尤其是具有危险性的技术,AI便属此列。若法律研究不加思辨地在人类社会允许出现拥有自主意识的AI、广泛的强人工智能的立场上讨论赋予AI主体资格,无疑是过度偏离了人文主义,追随了技术决定论,毫不顾及制约技术的必要性。试想克隆人是可能的,却为何被普遍禁止?AI冲击人类法律,研究AI法律规制是十分必要的,但提出将AI从客体提升为主体,在AI具有主体资格的前提下进行法律制度设计,脱离技术现状,过于激进,并无现实意义。况且,AI主体资格问题在更大程度上是哲学、人类学、政治学、伦理学与社会学层面的问题,牵涉极为广泛,并不是一个单纯的法律问题,即便将来出现了强人工智能,也不能简单地在法律范畴内讨论其主体资格问题。笔者认为,对AI系列法律问题应当在AI不具有主体资格的前提下进行研究、解决,这意味着在局部替代人类、整体增强人类的价值取向下,主客二分的传统法律体系完全可以容纳AI。


五、结语


人工智能的崛起、机器的类人化催生出一系列法律难题,技术的进一步发展、会聚将对法律产生更深的影响。人工智能的正价值、负价值及法律问题的产生均源于人工智能替代人类的特质,人工智能法律规制应坚持以人为本,发挥技术的正价值,规避技术的负价值,在促进人工智能发展的同时,又予以矫正、限制。这主要体现为法律应秉持人工智能局部替代人类、整体增强人类的价值理念,保障人工智能符合人类伦理,在人工智能不拥有主体资格的前提下进行制度设计,则可消除人工智能与法律的根本性冲突,将人工智能法律规制融入既定法律体系。人工智能正处于快速发展之中,其对人机关系的技术性改造、变革会传递至社会关系并引发连锁反应,大量法律问题的涌现是可以预见的,但一旦人工智能法律规制的两大基点得以确定,立基于其上的具体法律问题研究便不至于纷乱无章。

来源:《法学》2019年第6期



    进入专题: 人工智能   法律规制  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/117020.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统