李婕:智能风险与人工智能刑事责任之构建

选择字号:   本文共阅读 1137 次 更新时间:2019-06-13 22:15

进入专题: 人工智能   刑事责任  

李婕  

【摘要】 人工智能机器人具有机械性和自主性特点,其刑事归责冲击犯罪主体概念、罪过理论、因果关系认定和行为理论。目前人工智能的法律责任缺失和监管真空将导致严重的伦理危机和社会危害。美国学者类比法人刑事责任原理,提出机器人刑事责任的三种模式,即代理人责任模式、自然—可能—结果责任模式和直接责任模式,对于构建人工智能刑事责任具有借鉴意义。智能机器人刑事责任构建应以同一视原则为基础,以自主性为核心:当智能机器人仅扮演工具角色时,适用代理人责任;当智能机器人行为的结果在编程者/使用者“自然—可能—结果”的范围内,适用自然—可能—结果责任模式;当智能机器人的行为完全超出设计者/使用者的预见范围时,独立承担刑事责任。刑法应拟制智能机器人的法律人格,确认其罪过,避免人工智能技术风险上升为刑法风险。

【中文关键词】 人工智能;自主性;同一视原则;刑事责任


人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。[1]人工智能技术建立在大数据分析和深度学习基础上,广泛应用于交通、通讯、医疗、家居等行业。根据国务院《新一代人工智能发展规划》,我国在2020年人工智能总体技术和应用达到世界同步水平;2025年人工智能的部分技术与应用达到世界领先水平。人工智能带来技术进步的同时也曾出现致人伤亡的事故,例如,自动驾驶汽车的环境扫描传感器未将孩子识别为人类,将其碾压;[2]扫地机器人将女主人褐色的头发识别为灰尘吸入吸尘器[3]……目前学术界关于人工智能刑事责任的探讨主要集中于刑事责任成立与否、人工智能刑事主体资格的法哲学分析等。对于技术异化、机器人杀人等危害后果,究竟应归责于其开发、使用者,还是应归责于机器人本身,目前尚无深入研究。面对即将到来的人工智能浪潮,刑法是否准备好迎接挑战,担负起“保障人工智能健康发展”的任务与使命,亟需理论探讨。


一、人工智能技术对刑法的挑战


传统刑事责任建立在罪责理论的基础上,需要意志自由的行为人认识到自己行为的危害后果,如果行为人在能够选择善的行为时选择了恶的行为,就具备刑事可责性。人工智能机器人通常按照预先的编程实施行为,其是否具备法律意义上的认识能力和判断能力,如何对其进行道德可责性认定,是刑事归责面临的重大挑战。除了罪责理论外,人工智能技术对其他刑法理论也带来了不少冲击。

(一)理论冲击

1.刑法上“主体”概念的更新

犯罪主体是具备刑事责任能力,实施危害行为的自然人或单位。智能机器人如无人驾驶汽车或管家机器人,具有识别、分析能力,能够模拟人类进行判断,但其在法律性质上并不属于自然人或单位。欧洲曾出现机器人在工作场所杀人事件,美国也曾出现无人驾驶汽车撞伤行人的事故。如果机器人的设计者、使用者均无过错,能否让实施危害行为的机器人承担刑事责任?

刑事责任主体的根本问题是刑法上的“人”意味着什么,这是哲学家们一直争论的问题。例如,约翰·洛克认为刑法上的人具有“自我反省能力为基础的人格”,一个“智能的代理人”必须“有法律能力,觉察到幸福和痛苦,且有他自己的意识:只有通过意识,它才会为自己的行为负责。”伊曼努尔·康德同样强调自我意识的重要性:“只有人意识到自己,他才能理解自己的自由,遵循自己的意志是他每一行为的原因。”[4]因此,一个人知道他可以克制自己的行为却实施了恶的行为时,他才对自己的行为负责。显然,智能机器人不符合理想人格的要求:机器人虽然可以学习和决策,但仍然没有自由的意识,无法理解自己行为的社会意义,无法反思自己行为的好坏,更无法理解权利和义务的概念。因此,人工智能机器人虽然能够根据指令实施行为,但其仅是“自由意志”的代理人,难以认定为自然人或单位。如果让人工智能机器人为危害结果负责,势必要扩充犯罪主体的范围。

2.罪过理论的动摇

罪过是指行为人实施危害行为时的主观心理状态,主要包括故意和过失。主观擅断曾是封建刑法的重要标志,现代刑法根植于意志自由理论,如果行为人能够选择实施合法行为时,却选择实施对社会具有严重危害性的违法行为,则这种恶的心理态度应当被惩罚。人工智能机器人按照编程来实施行为,法律难以对其自主判断能力进行测量和掌控,难以认定其具有意志自由。例如,生产机器人将因病昏倒的工人视为妨碍生产效率的“障碍”予以清除时,并未意识到自己行为的社会危害性,难以认定其具有犯罪故意。对于无罪过的行为主体施加刑事责任不但过于苛刻,而且难以达到预防犯罪的效果。规范责任论要求行为人具备道德自决能力,智能机器人显然不符合这一要求。如果将智能机器人执行编程的分析、判断认定为刑法上的罪过,心理责任论或规范责任论将不得不吸纳机械责任论的成分,罪过理论似乎又倒退到封建刑法时代。

3.因果关系判断困难

因果关系是指实行行为和危害结果之间引起和被引起的关系。例如,当自动驾驶汽车突然转弯撞伤行人,是否该汽车的设计者、使用者与被害人受伤之间具有因果关系?在对人工智能的危害结果溯因过程中,很多因素阻碍因果关系的认定。例如,智能系统的自主学习性很强,它的开发者可能无法预测将来会出现什么危害后果,则设计、研发行为难以认定为危害后果的原因;智能系统的深度学习是典型的“黑箱”算法,无法判断算法如何决策,技术上也难以发现系统中决策偏差的根源,故编程行为与危害结果之间的因果关系也难以认定。很多情况下,人工智能的编程失误、使用者的操作错误,程序与使用者互动过程中的某个代码出现错误共同导致危害结果发生,更加剧了因果关系判断的困难。例如,达芬奇手术系统扩大了手术的切割面积,护士对病人疏于照顾,最终导致病人死亡时,应适用什么标准来认定因果关系?社会相当性说、近因说、高度可能性说等观点都难以对因果关系进行充分阐释,其结果不但影响罪名既遂与否,而且影响量刑轻重,故因果关系判断困难是认定人工智能刑事责任不容忽视的问题。

4.行为概念的反思

刑法上的行为概念经历了因果行为论、社会行为论、目的行为论、人格行为论等发展历程,而智能机器人的行为难以完全符合上述观点。从物理角度看,智能机器人行为致人伤害具备因果行为论的特征;从机器人按照编程目标实施行为的角度看,符合目的行为论的特点;但机器人无法认识自己行为的社会意义,很难将其行为认定为“自由意志支配下的行为”,即刑法上的行为。客观来看,智能机器人具备自主性、学习性、互动性等特征,一定程度上能够主宰自己的行为。但机器人缺乏完全的自由意志,无法摆脱其与生俱来的“工具性”特点。在智能机器人致人伤亡的情况下,实行行为究竟应认定为机器人的行为,还是其背后使用者的间接正犯行为,颇有疑义。如果强行将机器人的行为认定为实行行为,刑法又回到了对动物审判的远古时代,这是现代刑法理论所无法认同的。

(二)后果防患

1.责任缺失

人工智能具有提高生产力的优点,也可能带来个人生命、财产的重大损失,亟需刑法进行规制。当前国务院《新一代人工智能发展规划》仅大致勾勒了人工智能发展的政策框架,具体的制度设计、责任建构等问题仍未考虑。所以,人工智能肇事问题面临无法可依的困境,不但不利于人工智能技术的健康发展,而且漠视公共利益。目前美国只有少数几个州对无人驾驶车辆和无人驾驶飞机进行立法,几乎没有任何法律规定谁对危害结果应负法律责任的问题。[5]从犯罪构成的角度看,智能机器人的法律属性、行为性质尚无明确的法律定位,其在自主学习的过程中实施超出预测之外的行为是否充足罪过要求等问题,仍然悬而未决。目前也没有任何规范为人工智能的软件开发人员、供应商或使用者提供指导。如果漠视人工智能发展过程中的责任问题、任由人工智能技术恣意发展,将不可避免地带来伦理危机和社会灾难,机器人控制人类的科幻情节可能变成现实。

2.伦理危机

机器人缺乏承担刑事责任的先决条件,如自我意识、自由意志和道德自律,法律置之不理的结果,不但有违公平正义,而且将引发伦理危机。例如,管家机器人为了完成做菜的任务可能杀死宠物狗,它不认为自己的行为是在“故意毁坏财物”甚至“杀死家庭成员”;医疗看护机器人在“减轻病人痛苦”的目标下,可能终结癌症晚期病人的痛苦以帮助其“永远地告别痛苦”。伦理危机主要由于深度学习的局限性所致,因为深度学习算法如何决策并不为人所知,其中可能潜藏着歧视、偏见、不公平等问题。谷歌公司的数码相册软件曾将深色皮肤的人标记为大猩猩,表明技术错误很容易导致社会不安与仇恨。当前人工智能决策在贷款、金融、犯罪调查、人脸识别等诸多领域中的歧视和不公平问题越来越突出,使得人工智能的伦理问题尤其值得关注。如果没有机构或规则指导人工智能伦理规范的建构和应用,智能机器人很容易偏离其最初设定的目标方向,引发道德崩塌和伦理危机。

3.监管真空

在人工智能技术发展中,风险是固有的,也是必须的。人工智能系统及应用作为一种产品,政府不可避免地要考虑其准入、质量和检验标准。由于人工智能的学习能力、适应能力不断提高,现有的规则无法统一适用于不断进化发展的人工智能系统,未来需要进一步对人工智能的准入和监管方案进行制度化,以确保人工智能健康发展。智能机器人建立在后天学习基础上的行为,已经超出了最初设计师、编程者的预测范围,故在科技蓬勃发展和事前预测不足的情况下,难以对人工智能技术进行事前监管;而事故发生之后再制定监管措施则难以挽回损失,所以人工智能监管需要全局考虑,统筹兼顾。美国《国家人工智能研究和发展战略规划》提出构建良性研发的环境基础,要求开发用于人工智能训练、测试的公共数据集和环境,制定用于测量、评估人工智能的标准和基准,了解学界、政府和行业中人工智能从业人员的要求,从而制定教育和培训计划。[6]目前我国人工智能技术基本上是在监管真空中发展,即便政府出台监管规则,在实际执行中也面临事前监管不足和事后监管失效的问题。故如何在技术发展与公共利益、法律规制之间探索出一条适度监管的道路,是当务之急。


二、智能风险与刑法归责困境分析


人工智能机器人的应用建立在大数据挖掘和深度学习基础上,设计者难以预测机器人后天的行为,更无法对其进行充分控制。目前的刑法体系难以将智能机器人致人伤亡的行为认定为犯罪,但放任法益侵害,刑法保护社会的功能将大大受挫。人工智能研发、使用过程中,潜藏着巨大风险,法律如果不及时规制,将引发严重的社会问题。

(一)智能风险的特征

人工智能风险的特征兼具物理性和功能性两方面。物理性风险集中体现在技术方面的离散性和不透明性,功能性风险体现为自主性特征。人工智能系统的开发过程中,各个分系统的工作是独立的,关键技术呈现离散性分布。由于各个分系统的设计者之间缺乏沟通与协作,研发单位难以制定出统一的注意义务,故研究过程极易出现结构性过失。如果某个程序出现失误,技术人员也很难从浩如烟海的程序中找到问题的原因。不透明性主要指算法上的“黑箱”技术难以从结果反推原因,在过失竞合的情况下,如何查找事故原因并进行归责,是刑事责任的难点所在。人工智能具有自主学习、自主决策、自主行动的功能,这已超越早期机器人仅作为“工具”的角色,是当代人工智能技术的进步标志。自主性功能使智能机器人具备超越自我、甚至超越人类智能的可能性,但也会带来负面效应。例如,某机器人感觉需要充电而附近没有电源时,便作出“抢劫便利店的电池”的决定进而实施行动。由于智能机器人的自主特征在刑法上无法定位,故难以追究其刑事责任。由此可见,物理性特征使智能风险与社会风险相连接,加剧了风险的客观性和不确定性。自主性特征使智能风险烙上了人类思维的烙印,一定程度上使人工智能具备了承担刑事责任的条件。人工智能的物理性特征与功能性特征相互交织,共同诠释刑事归责困难的原因所在。

(二)智能风险的刑法归责困境原因

传统机器人仅作为提高生产力的工具,所以其法律责任认定并不困难。当人工智能机器人具备自主学习和判断能力后,如何对其规制以及认定刑事责任,必须重新审视。归根结底,人工智能的自主性特点和离散性特点在刑法体系中如何定位,是其刑法归责困难的症结。

1.自主学习引发预见困难

人工智能最明显的特点是它与早期的技术分离,具备自主行动能力。在没有积极的人力控制甚至监管的情况下,人工智能系统可以完成复杂的任务,导致对智能机器人行为的预见变得困难,如计算机象棋程序可以根据国际象棋的基本原理自主进行棋类活动。此外,人工智能决策过程及结果往往也超出人类的预测之外。人类受大脑的认知局限,在有限时间内难以快速分析所掌握的信息,且作出决策时往往受主观经验的影响。人工智能系统建立在大数据挖掘基础上,能够瞬间检索信息,提供最客观的方案。由于人工智能系统天生不受先入为主观念的限制,而是根据收集到的数据信息和预先设定的程序进行信息检索,分析计算出最优方案,其结果可能远远偏离人类预先判断的方向。法律如何认定智能机器人对危害后果的预见可能性,进而认定主观罪过,仍需探讨。

2.深度学习引发失控风险

人工智能系统具有深度学习的特征,人类难以对其进行全面控制,使得人工智能成为潜在的公共风险源。深度学习算法并不是一步一步地对计算机进行编程,而是允许计算机从数据(往往是大量数据)中自我学习,不需要编程者作出新的分步指令。所以,智能机器人在学习中,又会不断创制新的规则,复杂的人工智能系统甚至会改进其自身编程,使其获得的认知能力远远超出设计者预想的范围。如果智能机器人被编程达到某个目标,它会采取各种手段朝着目标努力,即使最终的结果并不是最初的编程者们能预见的。例如,编程者对医疗看护机器人输入“减少人类痛苦的目标”,机器人通过观察发现,人活在世上总是无法摆脱痛苦,消除痛苦的办法是终结人类——没有人类就没有痛苦。那么智能机器人基于自己独立判断而实施的行为究竟应认定为其本身的实行行为,还是其设计者、使用者的实行行为?该行为对于毫不知情且不可能预见的设计者而言,是不是刑法上的意外事件?故智能机器人虽然由人类启动,但正在脱离人类的直接控制,必须警惕这种失控风险。

3.离散性、不透明性导致溯因困难

人工智能系统根据算法作出决策,但深度学习是典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要想根据事故结果反推问题根源是非常困难的。算法在本质上是“以数学方式或计算机代码表达的意见”,人工智能自主决策系统输出数据的理由是什么,往往无从知晓,故如何破解算法就成了一大难题。人类如果对人工智能输出的结果存在怀疑,是否可以对算法进行司法审查?如何判断算法是否遵守既有的法律政策?如果算法、模型可以被审查,那么审查的标准是什么?从成本——效益分析的角度来看,解密算法使之透明化需要付出非常巨大的代价,可能远远超出获得的利益。在具体的刑事案件中,如果要认定智能机器人行为与危害结果之间的因果关系,不透明性是必须克服的障碍。


三、国外人工智能的刑事责任理论考察


刑法是否应将机器人纳入到刑事责任主体范围,存在肯定论和否定论两种观点。国外学者已经关注无人驾驶汽车造成交通事故、机器人杀人事件等问题,并提出了人工智能刑事责任的三种模式:代理人责任模式、自然—可能—结果模式和直接责任模式。[7]为迎接人工智能全面发展的浪潮,我国刑法宜放眼世界,积极借鉴国外的先进经验进行自我完善。

(一)机器人刑事责任主体资格之争议

1.肯定说

美国学者类比法人刑事责任能力理论,积极建议赋予智能机器人刑事责任主体资格。早在Meridian Global Funds Management Asia Ltd.v. Securities Commission中,[8]霍夫曼法官将公司比作人的身体,“公司有一个大脑和神经中枢控制着它的工作,它手握工具,按照中心的方向行动。”智能机器人完全符合这些特点,应承担其行为的刑事责任。“如果某实体的行为和由此造成的伤害能够紧密地联系在一起,其行为的自主性与危害结果之间就具有刑法上的因果关系。[9]

2.否定说

德国刑法理论植根于19世纪的理想主义哲学,认为机器人是按照程序完成任务的机器,不具备道德自决的能力。机器人没有道德意识,所以不能对法律规范提出质疑。因此,将罪责归结于智能机器人没有社会意义,也无法实现刑罚预防犯罪的功能。德国学者一直反对将刑事责任扩大到非人类代理人(包括公司和其他法人),这种反对意见同样适用于机器人:首先,人工智能实体不能“行动”,他们不能自主地为自己设定目标,并采取行动实现这些目标;其次,他们没有能力意识到自己行为的错误,因此不能为自己的行为负责。[10]

3.评析

目前尚没有国家制定机器人行为归责的刑事法律,每个国家的法律系统都需要根据自己的国情和法治实践制定解决方案。美国通过类比法人的“行为”将机器人刑事责任融入法律实践,是其一贯以解决问题为导向的司法能动性的反应。当前世界各国尚处于弱人工智能的应用阶段,自然没有必要赋予其刑事责任主体资格。德国刑法坚持谦抑性立场,以最大限度保障人权为宗旨,但日益面临着“智能机器人致人伤亡”导致的刑事责任空白问题。在无人驾驶即将广泛应用的信息社会,刑法不能无视机器人致人伤亡的后果。因此,刑法必须随着社会发展与时俱进,如果说法人作为犯罪主体是刑法适应市场经济理论的自我完善,那么在即将到来的人工智能时代,刑法设立人工智能的刑事责任则是应对智能风险、完善法益保护的未雨绸缪之举。故刑法应紧跟人工智能发展的时代潮流,建立起智能机器人的刑事责任体系。

(二)人工智能刑事责任模式

关于人工智能刑事责任的构建,美国学者哈利瑞(Gabriel Hallery)提出了人工智能三种刑事责任模式,对我国刑法理论具有借鉴价值。

1.代理人刑事责任模式

弱人工智能机器人以提高生产力为目标,其仅仅是人类的工具。当智能机器人致人伤亡时,可根据代理人理论追究机器人被代表意愿者的刑事责任。这种情况下的机器人实施犯罪行为时,仅扮演工具的角色,其背后的操控者才是刑事责任的承担者。刑法在对危害结果进行归责时,需要思考谁是肇事者?第一种可能是人工智能软件的编程者,第二种可能是人工智能的使用者。如果编程者设计以实施犯罪为目标的人工智能程序时,其当然要为机器人的犯罪行为负责。例如,编程者将机器人的软件编程为“晚上没有人的时候点燃工厂”,当机器人被放在工厂而导致火灾时,编程者要承担放火罪的刑事责任。第二种情况下,使用者购买服务机器人并对其下达“攻击任何侵入住宅者”的命令,如果机器人对靠近住宅的人进行攻击,其主人应承担相应的刑事责任。

2.自然—可能—结果责任模式

人工智能机器人在执行任务过程中,意外地实施了犯罪行为,这时刑事责任归属,可适用自然—可能—结果责任模式。例如,某飞行员机器人被编程“保护飞机飞行中的任务完成”,在飞行过程中人类飞行员觉察到风暴的前兆并决定返航,此时智能机器人将人类飞行员的行为视为“妨碍飞行任务的威胁”并将其杀死。这种情况下,编程者或使用者并不知道机器人会实施犯罪,他们既未作出这样的编程、也未打算让机器人实施犯罪、更未参与到犯罪实行中来,此时的刑事责任归属应认真分析。

根据“自然—可能—结果责任模式”,当犯罪是某人行为自然的、可能的结果时,该人要对此犯罪承担刑事责任。自然—可能—结果责任模式是普通法的创制,最初适用于共犯的责任扩张。“当某犯罪行为是犯罪计划的自然、可能的结果,所有参与犯罪计划者都应当承担刑事责任。”[11]“自然—可能—结果模式的共犯责任已经被广泛接受在成文法和法典中。”[12]自然—可能—结果责任模式,要求人工智能的编程者或使用者至少处于疏忽的主观状态——他们并不现实地知晓自己行为可能引发犯罪,但是犯罪的发生是他们行为的自然的、可能的结果,即应当预见而没有预见危害结果发生。

当理性人应当知道某具体的犯罪是某个人行为的自然的、可能的结果时,其不得以“不知晓危害结果”为由进行抗辩。[13]自然—可能—结果责任模式的主观心理主要有两种情况:一是当编程者或使用者在编程或使用人工智能时心不在焉,其并不想导致危害结果;二是当编程者或使用者使用智能机器人蓄意实施犯罪,但智能机器人偏离了原计划实施了其他犯罪。第一种情况是纯粹的疏忽,编程者、使用者疏忽或未采取行动,应追究其过失犯罪的责任。在上文的例子中,机器人飞行员的编程者因疏忽而未在编程中输入“不得致人死亡”的程序时,其就要对机器人的杀人行为负责。第二类情况中,编程者计划让智能机器人在银行实施暴力抢劫,并未计划让智能机器人杀死任何人,但智能机器人在实施抢劫的过程中杀死了一名抵抗者。此时编程者的主观罪过已经超越过失,因为智能机器人偏离计划并实施另一犯罪的危害结果在其概括故意的范围内。

3.直接责任模式

直接责任模式关注的是智能机器人本身的行为,此时智能机器人与其背后的编程者或使用者没有任何依赖性。“当事实证明某实施犯罪行为者对所犯罪行具备认识或意识能力时,此人对该罪行负有刑事责任。”[14]事实上,自主性智能机器人在承担刑事责任上并没有大的困难。[15]智能机器人具备自主行动能力——当智能机器人启动它的电动液压臂并击中附近的人时,其行为当然具有社会危害性。但是认定智能机器人的主观罪过相对困难。刑事责任的罪过要素包括明知、故意、过失等心理要素。人工智能的明知表现为对事实数据的感官接收和对数据的分析,大多数智能机器人都具备这样的接收能力。视觉、声音、身体接触、触摸等感官感受器在大多数智能机器人中都很常见,这些受体将接收到的事实数据传送到分析数据的中央处理单元进行分析和判断,这与人类大脑的分析数据功能非常相似。先进的人工智能算法能够模仿人类的认知过程,基于信息收集、分析作出决定,物理上符合刑法上主观罪过的要求,故此时智能机器人应为自己的行为承担责任。


四、智能机器人刑事责任基础之建构


在弱人工智能时代,机器人刑事责任模式主要是代理人责任模式,随着强人工智能时代的到来,机器人独立的刑事责任将是无法回避的问题。鉴于机器人具有瞬间分析判断能力和巨大的破坏力,刑法必须以预防为导向,尽力防范智能风险带来的危害后果。故立足中国现实,借鉴国外经验,构建智能机器人的刑事责任,是中国刑法研究的当务之急。

(一)机器人刑事责任之拟制

智能机器人的自主性特点使其具备实行行为的特征,其深度学习与自主决策功能契合主观罪过的要求,故机器人刑事责任建构的最大障碍是确认其刑事责任主体资格。在刑法发展的历程中,犯罪主体是适应社会发展不断扩充的概念,在即将到来的人工智能时代,机器人被拟制为犯罪主体并不遥远,其理论基础与“将代表公司意志者的行为归责于公司”异曲同工。英国于2007年颁布《公司过失杀人和企业杀人法案(Corporate Manslaughter and Corporate Homicide Act 2007)》,参考这一立法理由,赋予智能机器人刑事责任主体资格并不困难。

1.刑事责任拟制的基础:同一视原则

智能机器人行动的基础来源于编程设计及其自主分析和决策能力,故其刑事责任与设计者、使用者密切相关。智能机器人兼具机械性和自主性的双重特征,这在其刑事责任模式的选择上起着重要作用。在区分智能机器人独立责任与其设计者、使用者共同犯罪责任的标准上,同一视原则值得借鉴。

在法人刑事责任的形成过程中,同一视原则(Identification Doctrine)将公司的责任与仅机械执行命令的员工的刑事责任相分离。英国上议院在Lennard's Carrying Co. Ltd.v. Asiatic Petrole-um Co. Ltd中认为,[16]某些员工的行为可以看作是公司的行为本身,因此,公司可以直接(而不是代理)为这些行为负责。法律在将员工的行为认定为公司的行为时,需要考虑两个要件:一是确定实施犯罪行为的人,二是确定行为人能够体现公司的思想和意志。随后英国DDPv. Kent and Sussex Contractors[17]判例使同一视理论成为英国法人犯罪的主流理论。同一视原则将公司指挥者或代表公司意愿人的行为描述为“公司的另一个自我(The Concept of corporate alterego)”,[18]只有代表公司“领导层意志”者的罪行才能视为公司的罪行,故英国2007年《公司过失杀人和企业杀人法案》中以此为基础,创设了公司过失致人死亡的刑事责任。

2.刑事责任拟制的核心:行为意愿的主导者

智能机器人刑事责任的认定,需要区分机械执行命令的机器人的刑事责任与体现其编程者或使用者意志的刑事责任,这与同一视原则将公司责任与仅机械执行命令的员工的个人责任相分离的作法异曲同工。智能机器人的机械性特征是其与设计者法律责任无法切断的纽带,根据同一视原则,智能机器人的行为仅作为设计者、使用者的工具而实施犯罪行为时,应由设计者、使用者承担刑事责任——此时适用代理人刑事责任模式。这种情形可根据间接正犯理论进行解释,即机器人不过是执行人类命令的工具,应该由其背后的操作者承担刑事责任。例如,人工智能机器人仅被作为工具使用;或者使用者使用智能机器人过时的系统版本,导致智能机器人缺少刑事责任的可责性。由于这两种情况下机器人的行为并不涉及其自主能动性特征,故人工智能机器人仅扮演执行命令的工具角色,自然应由其背后的编程者或使用者承担刑事责任。但是,当机器人根据自己的经验积累作出的决定而实施行为时,代理人责任模式则不适用。此时智能机器人自主实施犯罪行为,并非遵循设计者、使用者的意愿,其本身应为犯罪承担独立的刑事责任。

(二)智能机器人刑事责任建构难点之克服

1.智能机器人危害行为之归属

智能机器人仅作为工具实施犯罪时,应根据代理人责任模式对其设计者、使用者追究刑事责任;当智能机器人自主决定并实施犯罪行为时,应独立承担刑事责任,这种情况主要有两种类型:一是如果设计者、使用者能够预见机器人根据后天的学习经验自然实施某犯罪行为,其应与机器人共同构成相关罪名的共同犯罪。例如,自动驾驶汽车使用者知道智能汽车能够对存储和传入的信息独立分析,自主决定采取行动,但也应考虑到国外自动驾驶汽车发生过肇事的事件,故使用者应尽力避免危害结果发生,否则将和智能机器人共同承担“自然—可能—结果”模式的刑事责任。二是超人工智能机器人自主编程出专门实施犯罪的智能机器人时,该超人工智能机器人应对自己的犯罪行为直接承担刑事责任。在具体案件中,代理人责任模式、自然—可能—结果责任模式、直接责任模式可能共同适用,交织出特定环境下智能机器人刑事责任的复杂图像。司法实践应区别不同情况下机器人的角色,准确地进行刑法归责。在智能机器人导致危害结果的刑法规制中,刑事责任主体资格和主观罪过拟制也是智能机器人刑事责任建构的难点。

2.智能机器人法律人格之拟制

智能机器人具备深度学习与自主决策能力,这是对其刑事责任能力认定无法忽视的因素。事实上,智能机器人能独立自主地作出相应的意思表示,一定程度上具备独立的权利能力和行为能力,可以对自己的行为承担相应的法律责任,应赋予其拟制的法律人格。首先,机器人具有识别能力,可通过自身装置感知环境并对刺激做出反应,能够与外界互动;第二,机器人能够自主对行为施加控制,例如,自动驾驶汽车能够从收集的数据中分析信息、建构模型,并利用这些模型做出预测和决定,故自动驾驶汽车不仅是工程师的产品,更是自学成才的主体。深度学习使智能机器人从“经验”中学习,尝试新的策略,并从这些试验的结果中再学习,从而得出自己的结论,这与具备自主意识的法律主体何其相似!欧盟委员会已经赋予智能机器人“电子人”的法律人格,2010年日本的海豹宠物机器人帕罗获得了户籍,那为什么具备自主思考、决策能力的智能机器人不能获得法律人格呢?为保障人工智能产业的健康发展,刑法应赋予机器人法律人格,明确其权利义务。

3.智能机器人主观罪过之证成

人工智能系统的分析过程与人类大脑的分析过程相似:人类大脑从眼睛、耳朵等器官收集信息并进行分析,先进的人工智能同样能够通过自身的装置收集数据并进行分析,二者在物理上并无区别。当智能机器人被编程实现某犯罪目标时,其具有犯罪意图,故对智能机器人进行罪过认定的最大障碍是道德科责。随着人工智能技术的进步,现代技术能够通过系统设置教导机器人对“道德困境”作出反应——如果目标只能通过造成重大伤害来实现,那就选择放弃此目标。在程序设计上,智能机器人可能会被分别设定“优点”和“缺点”的系统作出决定,继而解决智能机器人的道德可责性问题。[19]事实上,智能机器人能够认识到自己的某个行为是不受欢迎的,被评价为“负面”进而被“指责”,故人类可在智能机器人程序设定上增加“道德感知力”,将来在技术足够成熟的条件下,智能机器人将享有“权利和义务”,甚至“拥有一个道德敏感性”基因,具备更丰富的主观罪过心理。

4.避免人工智能技术风险上升为刑法风险

在技术先行的浪潮中,人工智能几乎在监管真空中前进,大量的弊端因产品尚未被投入市场而没有呈现出来。 P2P金融风险的治理要服务金融市场和金融安全,[20]同样,法律也必须采取措施避免人工智能为追求经济利益而放任伦理风险、避免技术风险上升为法律风险乃至犯罪风险。2016年美国白宫推动成立了机器学习与人工智能分委员会(MLAI),专门负责跨部门协调人工智能的研究与发展工作,并就人工智能相关问题提出技术和政策建议,同时监督各行业、研究机构以及政府的人工智能技术研发。[21]我国应尽快成立人工智能监管机构,从安全性、决策透明性等方面制定出清晰明确的行业标准规范,便于法律对人工智能导致的危害结果进行审查评价,确定研发者、生产者、使用者、智能机器人自身的责任归属,及时采取措施避免人工智能的技术风险上升为刑法风险。人工智能系统和产品只有是安全的,才能更好地被公众和社会使用,法律应从强调智能机器人应用的安全测试、加强机器决策的公平透明性、最小化算法歧视后果等方面进行努力。


结 论


工业革命促进了现代刑法的变革,罪责原则、适用刑法人人平等原则逐渐写入现代刑法典。风险社会引发法益理论的革新和安全刑法的转变,抽象危险犯、累积犯等新兴犯罪蓬勃发展。在当前如火如荼的人工智能发展的浪潮中,刑法应担当起法益保护的使命,构建明确清晰的刑事责任体系,积极应对智能风险对刑法的挑战。行文至此,智能机器人的刑事责任建构需重视以下两点:一是自主性的刑法评价。人工智能具备深度学习和自主意识的特点,能够对收集的信息进行识别、分析和判断,这种自然意义上的认识、判断能力对刑法规范中的犯罪主体、主观罪过、行为概念、因果关系的认定产生无法忽视的影响。二是智能机器人刑事责任模式之选择。德国刑法典拒绝承认法人等实体的刑事责任主体资格,美国联邦及各州则积极采取措施完善人工智能法律责任体系,学者提出了代理人刑事责任模式、自然—可能—结果刑事责任模式和直接责任模式,对人工智能刑事责任的构建极具启发意义。鉴于技术异化可能导致的社会危害与伦理危机,刑法应积极审视人工智能的刑事责任,根据同一视原则区分智能机器人与其设计者、使用者的刑事责任。当机器人的危害行为仅代表其设计者、使用者的意志时,应采纳代理人刑事责任模式;当智能机器人根据自己的判断实施危害行为时,应独立承担刑事责任,此时,如果设计者、使用者能够预见到危害结果是人工智能行为的自然—可能—结果时,构成相应罪名的共同犯罪。如果设计者、使用者对危害后果根本无法预见,则仅由机器人独立承担刑事责任。在全面推进依法治国的征程中,刑法应积极拥抱人工智能的到来,赋予智能机器人刑事责任主体资格,明确智能机器人主观罪过的证立,走向建设网络强国的新时代!



【注释】 *安徽大学法学院副教授,法学博士。本文系国家社会科学基金青年项目“治安违法行为犯罪化问题研究”(16CFX029)的阶段性成果之一。

[1]腾讯研究院、中国信通院互联网法律研究中心:《人工智能》,中国人民大学出版社2017年版,第23页。

[2]Adeel Lari & Frank Douma,“Saf-Driving Vehicles and Policy Implications: Current Status of Autonomous Vehicle Development and Minnesota Policy Implications”,16 MINN. J. L. Sci.& TECH.735,745(2015) .

[3]Justin McCurry,“South Korean Woman’s Hair ‘ Eaten’ by Robot Vacuum Cleaner as She Slept”, THE GUARDIAN, Feb.9,2015.

[4]See A. Michael Froomkin & P. Zak Colangelo,“Self-Defense against Robots and Drones”,48 Conn. L. Rev. 1 (2015).

[5]Sabine Gless&Emily Silverman,” If Robots Cause Harm, Who Is to Blame? Self-Driving Cars and Criminal Liability”,19 New Criminal Law Review 415(2016) .

[6]Matthew U. Scherer,” Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies”,29 Har-vard Journal of Law & Technology 378(2016).

[7]Gabriel Hallevy,” The Criminal Liability of Artificial Intelligence Entities- From Science Fiction to Legal Social Control”,4 Ak-ron Intellectual Property Journal 177-186(2010).

[8](1995)2 AC 500(PC)509(Eng.).

[9]Sabine Gless & Emily Silverman, supra note [5], p.431.

[10]Maruerite E. Gerstner,“Liability Issues with Artificial Intelligence Software”,33 Santa Clara L. Rev. 239(1993).

[11]United States v. Powell,929 F.2d 724(D. C. Cir. 1991).

[12]State v. Kaiser,918 P. 2d 629(Kan.1996); United States v. Andrews,75 F.3d 552(9th Cir.1996).

[13]Robert P. Fine & Gary M. Cohen,“Is Criminal Negligence a Defensible Basis for Criminal Liability?”,16 BUFF. L. Rev. 749(1966).

[14]S. M. Solaiman,“Corporate Manslaughter by Industrial Robots at Work: Who Should Go on Trial under the Principle of Common Law in Australia”,35 J. L.& Com. 21(2016).

[15]Joshua Dressler, Cases and Materials on Criminal Law, Westlaw Press,2007, p.116.

[16]Lennard's Carrying Co. Ltd. v. Asiatic Petroleum Co. Ltd [1915] AC 705(HL).

[17]Director of Public Prosecutions v. Kent & Sussex Contractors Ltd,[1944] KB 146.

[18]G R Sullivan,“The Attribution of Culpability to Limited Companies”,55 Cambridge Law Journal 515(1996).

[19]John A. Barnden & Donald M. Peterson,“Artificial Intelligence, Mindreading, and Reasoning “22 Cardozo L. Rev. 1381(2001).

[20]王勇:《互联网时代的金融犯罪变迁与刑法规制转向》,《当代法学》2018年第3期,第29页。

[21]前引[1],腾讯研究院、中国信通院互联网法律研究中心书,第196页。

【期刊名称】《当代法学》【期刊年份】 2019年 【期号】3



    进入专题: 人工智能   刑事责任  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 刑法学
本文链接:https://www.aisixiang.com/data/116706.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统