刘练军:人工智能法律主体论的法理反思

选择字号:   本文共阅读 100 次 更新时间:2021-11-04 13:16:28

进入专题: 人工智能   法律主体  

刘练军  
更不会有所谓的违法之嫌。为什么呢?因为对于我们人类来说,人工智就像鳄鱼一样只不过是一种工具性的存在物,其本身并非一种目的性的存在物。人工智能尽管自身可以储存海量数据,并能够以闪电般的速度对这些数据进行搜索和加工,其深度学习能力令人叹为观止,但是此种能力终究只是一种高度程序化和技术化的逻辑运算能力而已。如果说这种建立在暴力计算基础上的学习能力可以产生自主性的话,那这种自主性也是一种纯粹技术化的自主性,而决不是我们通常所理解的、建立在包括情感和审美等多种主观认知能力基础上的自主性。

  

   关于人工智能自主性的纯技术本质,欧盟法律界已然达成了共识。2017年2月16日,欧洲议会投票表决通过《就机器人民事法律规则向欧盟委员会的立法建议(2015/2103 INL)》,该建议指出:机器人的自主性可以被界定为,在外部世界作出独立于外在控制或影响的决定并实施这些决定的能力;这一自主性具有纯技术本质,且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度。有关该建议的详细讨论,请参见冯珏:《自动驾驶汽车致损的民事侵权责任》,载《中国法学》2018年第6期,第109-113页。事实就是,包括机器人在内的各种人工智能体仅仅具备纯技术化的自主性,此种自主性固然属于自身作为一种目的性存在物的一项构成要件,但单纯具备此等构成要件并不足以使人工智能成为一种目的性存在物。而把该项构成要件视为目的性本身更是謬之大矣。

  

   何谓目的性存在,这的确是个不易回答的哲学难题。简言之,所谓目的性存在就是对自身的存在有意识,对存在的价值意义有或明或暗、或多或少的认识,尤其是可以自主地决定存在的样态。

  

   此外,不管是意识或认识最终都需要借助语言来表达,语言乃是“通向思维的唯一途径”[美]爱德华·萨丕尔:《语言论——言语研究导论》,陆卓元译,商务印书馆1985年版,第14页。,因而,成为目的性存在物的一个基本条件是掌握一门语言。如以此标准来检视人工智能,则不难发现当今最先进的人工智能恐怕都不知自身的存在,至于所谓其存在的价值意义问题更是天方夜谭。人工智能翻译机器的翻译精准度在某些方面甚至超过人类,尤其是翻译速度足以秒杀人类。然而,这和人工智能会一种表达自我的语言完全是两个概念。语言“纯然是一个集体的历史遗产,是长期相沿的社会习惯的产物”,是“千千万万个人的直觉的总结”[美]爱德华·萨丕尔:《语言论——言语研究导论》,陆卓元译,商务印书馆1985年版,第4、206页。。这种表达自我的语言只能从生活经验中习得,而绝不是设定的语言翻译程序可以替代的。

  

   人工智能没有自己的童年和青年,没有所谓的集体生活经验,因而,人工智能不可能真正创造出属于自己的语言。尽管语言翻译能力超强,但人工智能实际上并不理解和掌握语言。目的性存在比如人的存在,乃是一种“表现为有所言谈的存在者。这并不意味着唯人具有发音的可能性,而是意味着这种存在者以揭示着世界和揭示着此在本身的方式存在着”[德]马丁·海德格尔:《存在与时间》(修订译本),陈嘉映、王庆节译,生活·读书·新知三联书店2006年版,第192-193页。。通过语言来揭示世界及其自身的存在,对于任何人工智能来说都是“非不为也,是不能也”。不管它的智力有多高,人工智能都只是人类制造的工具。尽管人工智能具有深度学习能力,但它的出生与死亡都取决于人类,它自身对此没有任何发言权,任何时候它都不是一种目的性存在物。

  

   (三)人工智能自身不具有自律性

  

   既然人工智能没有心理认知意义上的自由意志,自身不是一种目的性存在,那它不具有自律性就理所当然了。因为自律本身也是一种意志,而且是那种经过理性反思后的、旨在抑制本能冲动和意气用事的纠偏性意志。与此同时,自律也是为目的服务的,它意在避免偏离目的路线或更好地达成目的。既然人工智能本身并非一种目的性存在,那它何来自律,要自律干什么?皮之不存,毛将焉附?

  

   人工智能本质上还是一种人造的机器,尽管它具有强大的计算能力,在某些方面的智力甚至超过人类,但它绝非一种伦理性与道德性的生物体,跟人不具有可比性。尽人皆知的是,人工智能所拥有的知识和能力都是由人加工编程而来的,它“无法像人类大脑那样与常变常新的客观世界经常保持一致。……纵然运算极快,计算机指令也无法对有机世界的永恒变化作出定性的反应”[美]刘易斯·芒福德:《机器神话:权力五边形》(下卷),宋俊岭译,上海三联书店2017年版,第272页。。由此可见,即使人工智能对自律有主观认知,且愿意在实践过程中真正做到自律——这事实上都不可能,但现有的人工智能研发技术亦将使之陷入“心有余而力不足”的窘境。

  

   尤为关键的是,自律的形成及其实践程度受社会风俗习惯、文化传统及个体的道德观念、宗教信仰等多种社会文化因素的影响。没有这些因素,就是人也决不可能具有自律性。是故,自律本质上是一种社会文化的产物,社会性是其本质特性。“机器人既没有道德水平的高低,也没有宗教信仰的不同,只有功能的强弱。因此,机器人不可能有道德感,只有基于程序的反复和预先设计而总结出的规律,从而也就没有民事主体所必备的基于内心感知(良知)所做出的善恶评判和行为选择”赵万一:《机器人的法律主体地位辨析——兼谈对机器人进行法律规制的基本要求》,载《贵州民族大学学报(哲学社会科学版)》2018年第3期,第158页。。机器人乃是人工智能的杰出代表,机器人尚且毫无道德宗教意识和善恶观念,其他的人工智能就更是等而下之了。

  

   (四)人工智能无法承载法

  

   如上所述,法律主体乃是承载法的人格人,只有能作为法律上的权利义务承担者,才能成为法律主体。否则,即便人为地赋予人工智能法律主体地位,那它也只能是语义层面上的法律主体,而绝非规范意义上的法律主体——法律规范对其自身具有重要价值的主体。人工智能自身无法承载法,不足以成为法律主体,这可以从两个方面展开分析。

  

   1.人工智能的所有动作都不是法律意义上的行为,它们都是基于大数据和算法程序而得出的结果。关于此等结果对自身及社会有何意义,其会造成何等法律后果,人工智能其实一无所知。法律意义上的行为乃是最为重要的法律事实,可将它定义为:“‘由意志控制(可归责于行为人),因果形成(在最广义意义下)之负责的、具有意义的实际事实。这个行为概念,不仅包括合法与违法、故意与过失、既遂与未遂、正犯与共犯的行止,并且除积极的作为之外,也包括不作为,亦即不为法律秩序为避免与法律相关的结果而有所期待的作为。”[德]考夫曼:《法律哲学》,刘幸义等译,法律出版社2004年版,第156-157页。而如上所述,人工智能没有心理认知意义上的自由意志,它的每一个动作确实富含暴力计算能力,具有智力的外表,但它决不是所谓人工智能意志控制下的结果。不管它的动作会给他人和社会带来何种后果,人工智能都难以理解其中的因果关系。

  

   “机器智能不能认识到自己在做什么,也不知道自己行为的社会意义,缺乏自我意识,不能做价值判断,故而对其行为进行刑法评价就没有根基”叶良芳:《人工智能是适格的刑事责任主体吗?》,载《环球法律评论》2019年第4期,第77-78页。。不只是不能进行刑法评价,从民法等所有其他法律部门维度都难以予以评判。人工智能每一个动作的背后都离不开人的影子,没有其制造者和使用者等人类智能的介入,不可能会有人工智能的连续性动作的发生。是故,人工智能的动作不过是其背后的人工智能制造者和使用者行为的延长而已,由此所产生的后果应当由其背后的人来承担,其背后的人才是人工智能所有动作的发起者和承受者。领会人工智能动作之社会价值与法律后果,并对之负责的,是其背后的人而不是人工智能自身。

  

   2.什么是法律,法律对它有何用,人工智能对此一头雾水,它不可能有所谓攸关其切身利益之法律诉求,也完全不会用语言就法律问题与外界进行交流。如上所述,法律主体乃法律上的权利义务承担者。任何存在物一旦缺乏基本的法律认知能力,且无力用语言表达其认知结果,都只能是法律上的客体,而不可能获得法律上的主体地位。即便一厢情愿地授予它法律主体地位,对一切由人工智能动作所引起的权利义务之形成、变更或消灭而言,都不会产生丝毫的现实意义。由此引发的法律争议依然只能追究到人工智能背后的“人工”。

  

   总而言之,“智能机器无法理解和响应法律的行止要求、无法接受法律的调整、无法理解财产之于自身的意义,旨在通过赋予其法律人格以达到的责任限定效果不符合正义的基本要求,并且与法人的类比论证忽略了自然人之于法人的重要意义,因而赋予智能机器以法律人格,从理论上看是无法成立的”。冯珏:《自动驾驶汽车致损的民事侵权责任》,载《中国法学》2018年第6期,第116页。法律乃是一种具有相当抽象性的意识与观念,它不是人工智能所能理解和掌握的,人工智能绝不是合格的权利义务承载者。断定人工智能可以承载法,就跟认为鹦鹉享有人格权一样,属于一种不切实际的臆断。

  

   (五)后果主义考量:后果主义(Consequentialism)乃是一种道德哲学观点,它认为行为和品格的道德属性由行为和品格特征的后果所决定,它主要基于这样一个事实:很多人在决定如何行为前会考虑各种备选做法的后果。功利主义乃是后果主义最为人耳熟能详的一个版本。参见[美]茱莉亚·德莱夫:《后果主义》,余露译,华夏出版社2016年版,第1-2页。假如人工智能真的成为法律主体

  

   关于人工智能是否拥有法律主体地位问题,有一个简单的事实广被忽略但又至为关键,那就是迄今还没有哪个人工智能体站出来,要求人类承认它是法律主体,主张自己像人类一样享有种种权利,为之呼吁的倒是人类中的极少数人,尤其是某些法律人。“当我们对智能和自动化有更深刻的理解时,便会经历一番哲学性的争论,即对于人类而言,它们究竟意味着什么。”Mark Chinen,“Law and Autonomous Machines:The Co-evolution of Legal Responsibility and Technology”,Edward Elgar Publishing, 2019,p.4然而,人工智能被賦予法律主体地位之后,会给我们人类社会带来何种后果,为人工智能鼓与呼的人则似乎未曾认真省思过。而如果从后果主义维度审视此等问题,那就会让人看到另外一幅旷古未闻的奇异与恐怖景象,进而自觉反思并否定自己的固有立场。

  

1.一旦人工智能真的被赋予法律主体地位,那它就同样是一种法律上的人格人,它不再属于人类可以恣意役使的工具,而是一种目的性存在,与我们人类在人格上是平等的。质言之,具有法律主体地位的人工智能,可以且一定会对人类说“不”,就像孩子成年后对父母说“不”一样。那么,问题来了,人类为何要竭尽心智并耗费大量人力物力,去制造一种注定会对自己说“不”的人工智能呢?不宁唯是,由于人工智能无论是信息的记忆与储存功能,还是运算能力都可以秒杀人类,(点击此处阅读下一页)

    进入专题: 人工智能   法律主体  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/129448.html
文章来源:现代法学 2021年4期

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2022 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统