于海防:人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间

选择字号:   本文共阅读 294 次 更新时间:2019-07-05 00:39:58

进入专题: 人工智能   法律规制  

于海防  
虽然法律需要在短期内作出调整以适应AI的发展趋势,但长远来看,不应当是法律如何迎合AI、而是AI如何迎合法律的问题。

  

   四、人工智能不具有主体资格应作为法律规制的逻辑前提

  

   目前法学界有种代表性观点提出以智能机器人为代表的AI应被赋予主体资格。笔者认为,在现有的科技、哲学、伦理学、社会学与法学背景下,这种观点只是一种过度超前的想象,AI法律规制应在AI不具有主体资格的前提下进行设计。

   (一)人工智能难以产生类人的自主性与意识

   认为应赋予AI以主体资格的观点大多认同在技术层面AI已经产生或必会产生自主性与意识等类人属性。例如,认为AI、机器人已经逐步具有一定程度的自我意识和自我表达能力;认为智能机器人具有精神,应当享有权利;认为AI具有自主性,非为纯受支配的客体;认为AI会发展到超越工具型的强人工智能阶段;认为智能机器人能够辨认自己行为的性质、意义与后果,人类创造机器人的技术达到了无与伦比的程度,智能机器人可能产生自主的意识和意志。在笔者看来,这些观点往往是基于无依据的断言与假定,对AI技术的理解出现了严重偏差。AI主流技术包括符号主义范式、联接主义范式、行为主义范式及贝叶斯网络、类脑计算等,可以肯定的是,这些技术路径均未令AI产生类人的自主性、意识或者说“智能”,并且在相当长的将来可能也无法实现这一点。基于AI具有意识、自主性等类人属性而主张赋予AI主体资格的法律研究在出发点上可能就是错误的。

   符号主义范式立基于长久以来的理性主义、形式逻辑传统以及身心二元论,深受笛卡尔、莱布尼茨、霍布斯等哲学家、数学家思想的影响,将智能理解为物理符号系统,并通过创造符号系统自上而下地模仿人类思维,专长是专家系统、定理证明、棋类博弈等,至今仍是重要的AI技术范式。自20世纪70年代起,符号主义范式受到现象学学者的严厉批判。德雷弗斯认为,这是一种为海德格尔和梅洛-庞蒂所批判的理性主义,不可能取得成功,因为人类智能包含有不可形式化的成分,人的躯体在智能行为中的作用更是无法形式化的,AI无法形成人类主体性意义上的智能。不过德雷弗斯并未否定AI的整体前景,其提出了AI的具身(embodiment)进路。塞尔提出的中文屋思想实验对符号主义范式以及图灵测试进行了批判,认为形式化的符号系统不可能产生“智能”。 AI科学家麦克德莫特批评符号主义范式的支持者“对哲学家们昔日的失败一无所知”。符号主义范式在创造“智能”上遭遇了无法解决的困难,其无法将人类知识全部表征,难以具备背景知识与常识,无法处理非线性、非结构的复杂问题。

   符号主义范式的假设被联接主义范式与行为主义范式所否定。联接主义范式受益于认知神经科学的进步,立基于身心二元论,将智能理解为众多并行分布的神经元相互作用的结果,通过数学方法模拟人脑神经网络及其联结机制,采取神经网络算法。行为主义范式受生物进化与遗传的启示,立基于身心一体论,认为智能取决于感知和行为,存在于人与世界的交互,因此采取进化算法,使用包含传感器与执行器的“机器身体”令AI直接与真实世界交互,产生“感知—行为”的反馈,以模拟生物进化的方式产生智能。联结主义范式与行为主义范式突破了传统的冯•诺伊曼计算结构,在21世纪初开始与数据驱动的机器学习相结合,近年来在提升机器智能方面取得了令人瞩目的成就。例如,使用深度神经网络算法的AlphaGo等AI技术获得了巨大成功,BigDog、Atlas、iCub、ASIMO等机器人在智能方面也取得了重大进展。不过,AI的成就仅限于形式化领域,在意向性领域依然一无所获。联接主义范式与符号主义范式一样,无法跨越知识表征的障碍,计算机仍然难以将人类所拥有的背景知识、形象思维等以符号方式予以形式化表征。被誉为“神经网络之父”的科学家杰弗里•欣顿(Geoffrey Everest Hinton)近两年否定了当下大行其道的深度神经网络算法对于类人智能的意义。行为主义范式所模拟的其实并非人类智能,而是低等生物智能。采取行为主义范式的机器人在欠缺主体意向驱动或外界命令驱动的情况下,无法实施有意义的行为,这使得行为主义范式局限于对工业应用领域低层次智能的模拟。基于概率进行非确定性推理的贝叶斯网络算法高度依赖符号表征,虽可在非确定性推理、模糊计算方面取得一定成功,但高度依赖设计者对问题框架的提前设定,距自主性、意向性的实现十分遥远。“贝叶斯网络之父”朱迪亚•珀尔(Judea Pearl)在2018年否定了贝叶斯网络算法对实现类人智能的意义,认为“因果推理”才是通往类人智能的路线。一些科学家认为类脑计算(神经形态计算)将是从弱人工智能到强人工智能的主要进路,类脑智能将是人工智能的终极目标。类脑计算技术从硬件上突破冯•诺伊曼计算结构,借鉴人脑神经元信息处理机制发展类脑神经芯片与计算平台,试图实现低能耗、容错性与无须编程的三大人脑特性。类脑计算已发展二十余年,其不是如联接主义范式一样对人脑进行局部模拟,而是对人脑的整体运行机制进行研究、模拟,极可能大幅推动AI的进步,但人类至今仍不清楚人脑的整体运行机制,也不清楚“意识”在智能活动中的作用,更无法确定这种机制可以通过机器实现。对于能否创造出真正的“智能”,哲学家即便不予彻底否定,也多持悲观态度,AI科学家、未来学家却多持乐观态度,但也有AI科学家指出,“主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会自动地使强人工智能成为可能”。

   在法律的向度上,AI是否拥有自主性、意向性与意识,是应否赋予AI自然人格的基础。AI始终依托计算机,图灵机是所有计算机的理论模型,但“丘奇—图灵”论题本身便承认图灵机并非对所有对象均可计算,存在算法不可解。计算机与AI的出发点一直建立在“认知可计算”的计算主义基础上,计算主义建基于一个假定:无法直接观察人脑中智能的运作,而只能借助于对人智能行为的间接观察。只有观察出真正的人脑运作原理并成功模拟,才有可能创造出类人智能,但这两项条件的满足困难重重。从最初的符号主义范式到联结主义范式、行为主义范式的转换,已经显现了计算主义的局限性,计算机器在知识获取、表达与处理上具有先天局限,人类心智的复杂性机制给机器模拟带来了极大困难,在通过机器模拟人类自适应、自学习以及与环境作用时,人类意识的意向性、自指性等重要特征是超越逻辑与算法的,非形式的、不可表征的智能活动是AI无法达到的极限。AI虽快速发展,但在难以进行形式化计算的认知活动中始终未获任何成功便印证了这一点。AI发展至今只有技术意义上的有限自主性,没有类人自主性、意向性与意识,将来可能也很难产生这些类人特性,欠缺类比自然人从而被赋予人格的根本基础。

   (二)法律不应赋予人工智能主体资格

   塞尔按照AI的智能程度提出的弱人工智能、强人工智能的分类得到普遍赞同,但塞尔当初提出的心智性区分标准却被替换成对人的局部模仿、全部模仿的技术性区分标准,这对于判断AI是否是“智能”的、应否拥有主体资格产生了极强的混淆性。事实上,目前的AI仍是“无心”的弱人工智能,并无“智能”, 不具备赋予主体资格的基础。如前所述,在相当长的将来,AI可能也只是在不“智能”的弱人工智能的框架内提升机器能力。AI法律研究若过度受到激进观念与无依据断言的影响,会出现危言耸听的情形。例如,认为AI技术已经发展到可以作出独立意思表示的阶段;认为只有承认AI的主体地位,才能进而分析其所缔结法律关系的效力问题、举证问题、责任问题;认为AI对民法更深层次的挑战在于对拥有与自然人同等甚至更高智力水平的机器人法律地位的认定;认为智能技术的便捷性和适用性会使传统法律变得没有用武之地,一系列算法机制会不断催生出各种类型“私人订制”的法律,民主机制也会伴随现实法律空间的瓦解失去用武之地;认为应当参照动物保护、法人拟制以及欧盟议会法律事务委员会《关于机器人的民法规则》提出的“电子人”,将AI确立为法律主体;甚至还有观点考虑从机器人的角度来看,若不赋予其公民权,将来可能会出现弥赛亚式的人物对机器人进行救赎。

   笔者认为,第一,非人工智能的技术与机器早就可以在无人工介入的情况下作出所谓的独立意思表示、缔结电子合同、形成证据,电子商务法已经解决了意思表示的归属、效力、责任与证据等问题,但未赋予机器主体资格。第二,认为AI已达到或超越人类智能的观点是错误的,因为目前的AI仍然局限于“大数据、小任务”,即便可以局部超越人类智能,但在整体上仍然无法达到人类的智能水平,无法与人类“小数据、大任务”的能力相比拟。第三,参照对克隆人的禁止,人类社会根本就不应允许具有危险性的AI技术不受限制地向替代人类的方向发展,民主机制不仅不应瓦解,而且应当成为限制AI的掣肘。法律的代码化、算法化也是有限度的,因为自然语义的符号化已经是算法难以跨越的障碍,更何况法律不仅是逻辑的,还是经验的。第四,动物保护、法人拟制无法与AI主体资格问题相类比,因为所处环境、背景、价值理念、出发点以及在人类社会所引发的后果与连锁反应是完全不同的。欧盟议会法律事务委员会《关于机器人的民法规则》第59(f)条声称,赋予机器人电子人的地位是为了解决所谓的最先进机器人造成的损害问题及外部互动问题。但是,不赋予机器人电子人地位也可以解决这些问题,赋予电子人地位只会使问题变得无谓的复杂。欧盟议会法律事务委员会的这种提议只是一种不成熟的、不成体系的设想,并无坚实的哲学、伦理与法律支撑。在赋予AI主体资格的观点中,机器人索菲亚被沙特宣布为具有公民身份的事例被广泛援引,人们普遍对索菲亚的“我将毁灭人类”等言论感到担忧与恐惧。但明显的是,目前的技术水平根本不可能使索菲亚作出此种自主性的回答,此事件完全是由商业利益推动的。索菲亚的公民身份根本不能成为支撑AI应具有主体资格的论据。AI远超常人吟诗能力的例子也常被援引,但与其说其在创作,不如说其在制造。可以肯定的是,AI无法理解其所吟之诗。主张赋予AI主体资格的观点基本上完全跟随了AI替代人类的理念,很少顾及AI技术的负价值。

应当承认的是,AI在一定程度上突破了主客二分、人物二分的传统观念,较其他人工物更符合“行动者网络理论”中的非人行动者的特点。拉图尔提出的“行动者网络理论”在社会学、人类学、伦理学、科学技术学等学科有着广泛影响,按照该种理论,主体、客体不是严格二分的,环境、人工物等非人因素与人均为具有能动性的、平权的行动者(actant),组成了相互交织的行动者网络。在社会学中,拉图尔“行动者网络理论”因认为非人行动者拥有与人类行动者完全对等的能动性而被批评为一厢情愿,因为其只能在文本中而不是在实践中实现非人行动者的能动性。AI与人类行动者具有更加密切的交织关系,但其不具备意识与意向性能动,在行动者网络中不可能与人类行动者对等、平权。从伦理学角度来看,“行动者网络理论”突破了人工物与道德不相干的传统伦理学观念,由此产生了人工物是否为道德行动者的问题。伦理学上大致包括认为人工物是道德行动者、认为人工物不是道德行动者以及折中的三种观点。折中论是主流观点,其承认人工物的道德能动性,但认为这种道德能动性只是调节性的,而人的道德能动性是原发性的,因此,在行动者网络中不能将人工物看作像人一样的道德行动者,而应将其看作对社会信息、关系具有能动调节作用的“道德调节者”。这种观点能够较好地解释人类与AI之间的伦理关系以及AI的伦理性,即AI与人并不对等,但具有道德调节的能动性,AI不具有主体资格并不意味着其不承担道德负载。认为AI为道德主体(或者说道德行动者)的观点与认为动物、大自然为道德主体的动物中心主义、生态保护主义相似,表达的其实是对动物、自然与人工物的尊重,(点击此处阅读下一页)

    进入专题: 人工智能   法律规制  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/117020.html

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2021 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统