刘宪权:人工智能时代机器人行为道德伦理与刑法规制

选择字号:   本文共阅读 224 次 更新时间:2018-09-12 08:29:12

进入专题: 人工智能  

刘宪权  

   【摘要】 机器人伦理是设定机器人法律制度的前提与基础,本质上服务于人类利益。机器人伦理主要针对具有“独立意志”的智能机器人,具体包括机器人道德、机器人社会关系等。具体设计机器人法律制度时,应体现机器人伦理的基本内容,秉持承认与限制的基本原则:一是承认机器人的限制性主体地位;二是承认机器人权利,此种承认具有功利主义色彩,本质上是为了更好地实现人类利益。智能机器人的行为应受刑法规制,智能机器人的权益也应受到刑法保护。刑法视野下的智能机器人具有犯罪主体地位,能够实施绝大部分犯罪并承担相应刑事责任;与此同时,智能机器人应享有财产权等权利,侵害机器人权利的行为可能构成相应犯罪。

   【中文关键词】 人工智能;智能机器人;机器人道德伦理;刑法规制;刑法保护

  

   人工智能时代已悄然来临,人工智能的迅速发展正深刻地改变人类社会生活、改变世界,并影响着国家的发展战略。2017年7月8日,国务院《新一代人工智能发展规划》将发展人工智能作为我国抢抓战略机遇、构筑先发优势、加快建设创新型国家和世界科技强国的重要国家战略。规划指出,人工智能成为国际竞争的新焦点,人工智能是引领未来的战略性技术,世界主要发达国家把发展人工智能作为提升国家竞争力、维护国家安全的重大战略;人工智能成为经济发展的新引擎,其将重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式,引发经济结构重大变革。在此重大社会变革之下,作为上层建筑而存在的伦理、法律、政策也应当实现必要的调整与升级,按照规划所提出的目标,实行“三步走”战略:第一步,到2020年,“部分领域的人工智能伦理规范和政策法规初步建立”;第二步,到2025年,“初步建立人工智能法律法规、伦理规范和政策体系”;第三步,到2030年,“建成更加完善的人工智能法律法规、伦理规范和政策体系”。然而,我国目前尚无与人工智能紧密相关的伦理规范与政策法规,与人工智能应用相关的民事与刑事责任确认等法律问题依然主要在传统法律框架内解决,并且迄今为止围绕该问题所展开的研究还极为匮乏。如果说在民事领域有限承认智能机器人的民事权利能力已经成为现阶段部分民法学者的呼声,那么在刑事领域有限承认智能机器人刑事责任能力的主张或讨论则显得极为罕见。而事实上,人工智能时代注定无法回避后一问题。

   时下,因人工智能与信息科技的进一步发展与提升,智能机器人愈加接近于”人”。除在医疗、交通、灾害应急处理等社会领域已经出现“人机合作”外,在某些特定领域(如知识产权领域),智能机器人甚至能独立创作出“作品”,其主体性、人格性、创造性特征已初露端倪,并将会随着人工智能技术的进一步提升而愈发凸显。既然智能机器人愈加接近于人,并能够逐步与人合作或完全替代人从事工作,那么以下这些问题便应当得到理论上的回答:智能机器人与人的区别是什么?智能机器人与人的法律地位之间是否有着不可逾越的鸿沟?是否应当赋予智能机器人法律人格?当智能机器人像人一样实施了危害社会的行为时,仅仅以“人”为主体而构筑的现行法律体系是否“过时”,是否仍然能够应对人工智能时代涌现的新情况、新问题?

   以上并不是单纯的法律问题,同时也是深层次的伦理问题。康德将法与伦理相区别,法律与伦理之间的关系是哲学领域经久不衰的话题。目前已达成共识的是,伦理与法律作为两种社会规范分别独立存在,法律是外在的、强制性的秩序,伦理是内在的、求诸于个人内心的力量,二者刚柔并济、相辅相成地调整着社会秩序。正是基于法律与伦理之间合作共生的关系,《新一代人工智能发展规划》将法律法规、伦理规范、政策体系并列,共同作为人工智能时代社会治理的战略目标。法律与伦理同为社会规范,都以社会为其发生的基础,“法和伦理适应于社会,发生于社会……在没有社会共同生活的地方,法和伦理虽然在观念上可能,但是不具有现实性。法与伦理在它们同来之于社会这一点上,两者并不矛盾”。[1]伦理与法律均为规范,规范是社会的产物,同时也反过来助推社会的发展,一方面,人工智能时代与社会是人工智能伦理规范与法律法规的发生基础与现实来源,另一方面,人工智能伦理规范与法律法规的快速建立与完善,也是人工智能加速发展的必然要求与规范保障。

   值得指出的是,《新一代人工智能发展规划》在“三步走”战略目标中对人工智能时代的伦理规范、法律法规、政策体系分别作了不同顺序的排位。第一步,到2020年“部分领域的人工智能伦理规范和政策法规初步建立”,其将“伦理规范”置于“政策法规”之前,且并未使用“政策体系”、“法律法规”的表述;第二步与第三步,分别为到2025年“初步建立人工智能法律法规、伦理规范和政策体系”、到2030年“建成更加完善的人工智能法律法规、伦理规范和政策体系”,不难发现,此时其将“伦理规范”的位置略微后移,置于“法律法规”之后、“政策体系”之前。排位上的前后差别恐怕并非偶然无意之举,而自有其深意。在人工智能时代初期,与人工智能紧密相关的法律法规一片荒芜,初创法律法规须以伦理为土壤,只有解决了新时代的道德、伦理等基本问题,才有可能制定出符合时代要求与顺应人们内心准则的法律。因此,初创人工智能法律法规应当遵循从伦理走向规范的路径。而当人工智能时代深化发展到一定的程度,人工智能法律法规已渐成体系之时,伦理势必要谢幕于历史的主场,退居于次要地位,更多表现为对法律的辅助。伦理与法律在不同历史阶段的角色与彼此之间的互动规律,反映着人类社会规范的产生过程,我们在构建人工智能法律体系时显然不能无视这一过程。在机器人广泛介入人类生活的人工智能时代,道德、伦理问题必须首先得到充分的讨论。故本文主要通过分析智能机器人的道德、伦理,探究机器人的法律地位和法律权利,并在此基础上解析智能机器人在刑法体系中的地位以及对应的犯罪范围与受保护范围。

  

一、机器人道德、伦理

  

   虽然人工智能的概念首次提出于1956年的达特茅斯会议上,但从一项技术、产品演进为一个时代并切实影响着人们的生活却是近年来才发生的事情。人们将人工智能称为一个“时代”不仅仅是因为人工智能技术的提升与应用改变了人们社会生活的方方面面,更在于人工智能呈现出了以往从未有过的特征,即主体性、人格性、创造性等。智能机器人在代替人类从事工作的过程中,已慢慢呈现出摆脱工具地位,渐获主体地位的趋势;在深度学习、神经网络原理与大数据技术的支持下,智能机器人已可独立创作“作品”,符合独创性的特征;在某些发达国家,智能机器人甚至已经被赋予“工人”地位或给予“户籍”。上述种种现象似乎已经与既有的人类伦理产生冲突,使得我们必须重新审视机器人本身以及人类与机器人之间的关系。纯粹的机器人工具主义是否会遭到时代与世界的抛弃,最终在历史舞台上离场,取而代之的是经过时代更新的伦理?机器人的伦理与规范问题必将成为人工智能时代社会科学研究的重要课题。人工智能的法律制度安排离不开伦理基础与价值取向,机器人伦理是研究机器人规范、机器人刑法的重要前提。对机器人伦理的思考应具有一定的前瞻性与超越性,并着重于控制、预防机器人发展、应用过程中的风险,使机器人在发挥有益于人类社会的价值的同时不至于侵害人类的基本利益。笔者认为,机器人伦理涉及文化、意识的碰撞,主要表现为机器人道德、机器人与自然人的关系等问题。

   (一)机器人道德应当被赋予和认可

   机器人道德是具有自主意识的智能机器人判断某种行为正当与否的基本标准与准则。机器人道德是智能机器人的必备内容,是人类社会对智能机器人融入社会生活最低限度的要求。道德是后天养成的,而非先天即有,这也意味着道德并非专属于自然人,智能机器人也可通过后天养成道德。机器人需要道德并非一个伪命题,尽管目前的机器人尚未有道德,但这并不意味着未来的智能机器人不需要道德。机器人需不需要道德与如何形成机器人道德是两个不同层面的问题。我们不能因为将道德“加载”于机器人存在技术困境,便简单地认为机器人无需道德。事实上,智能机器人大面积应用于社会各领域,必然会涉及机器人道德问题。例如,杀伤性军用机器人如何区分平民、伤患、投降者和恐怖分子,在同时存在大量恐怖分子和些许人质的情况下是否选择攻击等。又如,家庭服务型机器人如何在照顾家庭成员的过程中,区分伤害与救助。再如,医疗型机器人在手术过程中对病人造成的“伤害”或者“治疗”,何时、何种程度才能被认为是不道德的,甚至在传统的“电车难题”、“洞穴奇案”伦理困境中,机器人又会如何作出选择?以无人驾驶机器人道德实验的“隧道问题”为例,当你乘坐的汽车高速行驶至隧道口,一个儿童冒了出来,走到了路中间,正好挡住了隧道的入口,此时通过刹车来避免事故发生已为时晚矣。无人驾驶机器人只有两个选择:一是直接冲过去,但这会导致儿童死亡;二是快速转向撞向隧道的任意一边,但这会让你丧生。很显然,这一道德困境即便人类也没有“正确答案”,但无人驾驶机器人却必须面对并作出选择。上述所言都是机器人在快速、广泛、深入社会生活中所可能面对的道德、伦理问题。机器人的自由程度越高,就越需要道德标准。机器人感知力的提升、自由化程度的提高所带来的不仅仅是工作效率的提升、社会成本的降低,更多的是系统性风险。机器人“加载”道德的目的并不是为了使机器人成为独立的物种,真正平等地参与社会生活,而是为了控制人工智能技术发展所致的系统性风险。这里的系统性风险主要是指机器人在发展、应用过程中,由于技术、外力、故障等各种原因所可能导致的对人类、社会、国家的危害。

机器人道德的主体是机器人,而非设计者或使用者。曾经有人提出机器人的道德选择应该由设计者、使用者设定或者由法律规定。“机器道德决定的作出是基于一种程序或软件,从深层理解,却是来源于机器的使用者,因此在软件设计上体现一种道德的力量,可能是关键和必要的。”[2]哲学、伦理学和计算机科学等领域的学者已经提出了“人工道德”的概念,随着机器人智能水平的提高、独立自主性的提升,对于自主性越来越强的智能机器人来说,它们完全可能成为人工道德的主体。因此,机器人的设计者、使用者或法律规定的道德选择并不在本文所讨论的机器人道德问题的范畴内。事实上,机器人可以具有道德并非天方夜谭,更非无稽之谈。国外已有人进行类似的实证研究,美国机器人研究专家阿金(Ronald Arkin)为了使军用机器人比人类更具有人性,在机器人系统中设计了“人工良心”,并公开征求机器人应遵循的道德规范。[3]赋予机器人道德能力需要让机器人在一个道德判断情境中模仿人类的决策过程。首先,机器人应能意识到一个道德判断情境,并依循所布建的推理策略,包括道德原则、基准与价值等,才能在多样化的情境之下判断并处理道德信息,并作出相应敏感判断;特别是在道德两难的情境下,在不同道德原则相互冲突时,作出“合情、合理的决定”。机器人道德不可能也不应该脱离人类道德,这就意味着对机器人的设计者提出了较高的要求。在机器人的设计之初,便应将人类的基本道德原则以算法形式加入其中,并在其后的深度学习养成过程中进行不断的修正,以免出现机器人自以为“道德”但实际已严重背离人类道德观念的情形。这一重要的机器人设计要求应当体现在日后的机器人法律制度之中,以法律之形式明确设计要求才可有效控制机器人“无道德”或“非道德”所带来的风险。相应地,如果机器人的“道德算法”出现问题时,机器人的设计者、使用者应根据主观过错程度与客观危害结果承担相应责任。例如,如果机器人的设计者在机器人的智能程序中取消了不能伤害人类的“机器人三法则”,[4]那么在机器人失控并造成危害结果的情况下,设计者就应承担相应责任。又如,如果机器人的使用者故意将关于违法犯罪内容的大数据灌输给机器人致使其严重背离人类道德并实施违法、犯罪行为的,(点击此处阅读下一页)

    进入专题: 人工智能  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/112274.html

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2018 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
易康网