姚万勤:对通过新增罪名应对人工智能风险的质疑

选择字号:   本文共阅读 94 次 更新时间:2019-06-13 07:35:55

进入专题: 人工智能  

姚万勤  

   【摘要】 在人工智能技术取得突破性发展的同时,诸多法律风险也伴随而生。因此,如何应对这些风险逐渐成为近期刑法学界关注的重点。虽然在学界有学者主张通过新增罪名进行规制的观点越来越有力,然而,一方面,对人工智能的风险以及风险类型尚未进行深入分析就贸然增设罪名,不仅违背了刑法的谦抑性原则,而且也背离了超前立法理念,其正当性饱受诟病;另一方面,从人的属性视角分析,人工智能并不符合人的本质特征,就此肯定其具有犯罪主体资格也不妥当。因人工智能的风险不同大致可以区分为“使用人工智能造成事故的风险”和“利用智能机器人进行犯罪的风险”两种场域,且在现行民法以及刑法体系之下均能得到有效解决,因而没有必要通过增设刑法罪名来予以应对。

   【中文关键词】 人工智能;谦抑性;超前立法;侵权责任;间接正犯

  

   一、问题的提出

  

   随着人工智能技术突飞猛进的发展,目前各大科技公司积极推进人工智能应用已经成为既定的战略目标。如百度公司积极拓展无人驾驶技术的发展和应用无疑向世人表明,未来是人工智能逐步取代人类的时代。然而,在人工智能不断为人类生活提供便捷的同时,也逐渐引起世人的忧虑——未来的人工智能在高度智能化后是否会杀害或者伤害人类?人类对此担忧并非“无病呻吟”“空穴来风”,从人工智能概念诞生直至今日近七十年的发展过程中,因其伤人或者致人死亡的事件并不鲜见。如1978年受到电磁波干扰的切割机器人转身切割工人;1989年机器人向战胜自己的围棋冠军古德科夫释放强电流并致其死亡。[1]

   上述人工智能僭越法律规范的伤人或者杀人举动,逐渐引发了我国刑法学界新一轮的关注和思考,即我国目前刑法对人工智能犯罪这一新的挑战是否能从容应对?如果不能,又该如何予以规制?对此,目前学界主流观点认为,刑法立法的滞后性明显未能给处罚人工智能犯罪提供足够的立法支撑。因此,有学者认为,由于智能刑事风险的不确信和结果发展的漫长过程,对人工智能犯罪立法化将变得必要且有意义。[2]更有学者主张通过增设刑法罪名来规制或应对人工智能的刑事风险。[3]在具体的罪名设置上,有学者认为,暂时可以考虑设立“滥用人工智能罪”和“人工智能事故罪”。[4]在人工智能大力发展而相关理论研究未能提供妥当的应对策略的当下,上述观点较易引起学界的共鸣。但是在我国目前的刑法体系之下,特别是人工智能的法律主体性地位尚未得到承认,就此主张通过增设刑法罪名予以应对的方案是否具有妥当性,值得商榷。因此,笔者拟对我国目前法律体系进行层层解析,以期在我国目前法律体系之下就如何应对人工智能的风险提供合理的解决方案。

  

   二、立法入罪的正当性质疑:基于二元视角的阐释

  

   在未来人工智能时代,不排除会大范围出现滥用人工智能进行犯罪的情形,但就刑法而言,并非针对新出现的问题或风险均需通过增设罪名来予以应对。因为增设罪名的做法不仅可能违反了刑法的谦抑性原则,而且也可能不符合超前立法理念。本文将从上述两个方面具体检讨其立法正当性问题。

   (一)有违刑法谦抑性原则

   是否应当设立新的罪名进行规制首当其冲涉及的是刑法的谦抑性问题。所谓刑法的谦抑性是指,“立法者应当力求以最小的支出——少用甚至不用刑罚(而用其他刑罚替代措施),获取最大的社会效益——有效地预防和控制犯罪。”[5]正如日本学者所言,“刑法不应以一切违法行为、一切有责行为为当然对象,只限于在必要的不得已的范围内才应该适用刑罚。”[6]一般而言,刑法谦抑性原则具体包含了刑法的补充性、不完整性和宽容性三个方面的内容。该原则“不仅仅是约束刑法解释者的一个原理,而且对于刑事立法者也同样具有约束的作用。”[7]具体就人工智能来说,增设罪名的做法并未遵守刑法谦抑性原则。

   首先,增设新的罪名进行规制违反了刑法的补充性。刑法的补充性强调的是,刑法作为惩罚措施严厉的部门法,只能“在其他手段如习惯的、道德的制裁即地域社会的非正式的控制或民事的规制不充分或者其他统治手段(如私刑)过于强烈有代之以刑罚必要时才开始发挥作用。”[8]也就是说,在是否增设新的罪名方面,也应当考虑其他的手段(如道德、民法以及行政法等措施)是否能发挥作用,如果不能才需要考虑增设新罪名。虽然目前人工智能在某些方面确实超过了人类的能力和水平,但是目前人工智能的应用范围有限,因此其侵犯人类的利益主要限于侵犯他人民事权利领域,且该种侵权通过民法也能得到有效救济。退一步而论,就算在未来,人工智能侵犯他人的生命、身体健康以及财产成为了普遍现象,但是通过我国刑法罪名体系同样可以进行有效规制。[9]所以增设罪名的做法首先有违刑法补充性原则。

   其次,增设新的罪名进行规制违背了刑法的不完整性。即便刑法对危害社会的行为有所规定,也不意味着刑法对任何问题均需要实现无遗漏的规定。因此,“作为补充性的结果,作为刑法处罚的对象的行为是不完全的。换句话说,刑法并不是将所有的违法、有责行为都予以处罚,只限于将可罚的并且被规定了的行为作为处罚的对象。”[10]目前,司法实践中并未大范围地发生人工智能刑事犯罪的迹象,未来其是否能产生自主意识并进行大规模犯罪也不明确。而且即便存在人工智能犯罪问题,是否通过增设罪名的做法就能解决所有问题,也存在较大疑问。所以不得不说,在相关前提性条件尚不明朗之时,就此主张通过立法规制的做法有违刑法的不完整性。最后,增设新的罪名进行规制违背了刑法的宽容性。“由于刑罚手段具有残忍性、毁灭性、违背人性的一面,如动用剥夺人身自由、剥夺财产、甚至剥夺生命的手段,这种手段本身是十分残忍的并且是毁灭性的。”[11]因此,对于发生了危害社会的行为或者说具有社会危害性的行为在动用刑罚的问题上也应保持必要的克制。即使存在损害的结果,也不意味着对行为人判处刑罚就能取得良好的效果。例如,“2016年特斯拉汽车公司生产的‘型号S’的电动汽车在自动驾驶模式下行驶时,与其他汽车相撞,造成驾驶座位上的一名男子死亡。”[12]如果对该事件首先就主张动用刑法来解决,不仅会遏制科学技术的进步和发展,而且也存在打击面过宽的弊端。因此在本文看来,对于类似事件应先通过民事赔偿程序解决较为妥当,如果能取得良好的效果,就不应动用刑法介入。

   (二)违背超前立法理念

   就主张对人工智能风险增设罪名规制的学者来说,超前立法是另一个重要的理论根基。例如有学者指出,“将滥用人工智能行为纳入刑法规制的范围属于适当的前瞻性立法,是在充分考虑人工智能时代所带来的种种变化后做出的恰当选择。”[13]

   然而,目前学界关于立法应采取何种模式还存在“滞后性立法”“超前立法”以及“同步性立法”的争议。“滞后性立法”主张立法只能成熟一条制定一条,其基本理由为:“对于急剧变革的社会,只有先经过社会实践的探索,取得了经验,才能将这种成熟的、肯定的经验用法律的形式固定下来。”[14]主张“超前立法”的学者认为,“刑事立法不但要强调实践性,而且要有超前性,”[15]其基本理由有二:“其一,法律是施行于制定后的未来社会,所以法律应该依未来社会条件为依据;其二,社会发展是有规律的,而且这种规律是可知的。”[16]“同步性立法”主张立法既不能超前、又不能滞后,必须与变化的社会现实同步,其基本理由为:“滞后立法不能发挥法律应有的作用,不利于法制建设,超前立法不符合客观实际,法律难以贯彻执行。”[17]

   可以说,上述三种立法模式均存在于我国刑事立法之中,特别是“滞后性立法”和“同步性立法”是最为常用的两种立法模式。由于超前立法是以对未来社会的前瞻性预测作为立法依据,存在误判的可能,所以对待超前立法,一方面,不应期望过高。因为在社会基础不成熟或者尚未形成之前就增设相关罪名,不仅存在压缩个人自由权利的弊端,而且因误判通过的立法可能会沦落为阻碍社会发展的“恶法”。例如我国在1997年修改刑法时,因对金融市场规律和现状超前预测而增设了诸多罪名,现在反而成为了压制金融发展的“罪魁祸首”。[18]另一方面,也不应完全否定。“超前立法并不是脱离社会现实,而是立足于社会现实对社会发展的前瞻。”[19]因而在某些特定领域针对特定事项有时确实存在超前立法之必要。只要对社会发展趋势把握精准,那么这种超前立法就是科学的,也应得到承认和认可。

   虽然伴随着人工智能发展而产生的诸多风险在一定程度上令人担忧,但是是否有必要通过超前立法予以应对还需要从以下两个方面进行检讨:“一方面,法律意欲推行的行为模式是否符合现实社会发展所提出的要求或符合其发展方向;另一方面,这种行为模式是否符合大多数人的价值观。”[20]具体就人工智能来说,显然无进行超前立法之必要,基本理由有二:首先,大力发展人工智能技术符合社会发展的趋势。目前无论是中国还是世界其他发达国家,都在大力发展人工智能,人工智能不仅在聚合信息方面表现出了人类无法比拟的优势,而且在未来造福人类的应用前景同样令人期待。例如,将人工智能广泛运用到医疗领域,不仅可以在短时间内寻找到人类难以跟踪的海量的最新治疗方案,而且还能通过高超的分析能力精确判断病症以及相关治疗方案的合理性,能为人类提供最佳的治疗方案。虽然人工智能存在“导致他人伤亡”的风险,但是这种风险在刑法领域一直被视为“可允许的危险”。也就是说,如果综合考量该技术对人类有利,那么为了社会进步就该容忍这项技术所带来的风险。例如,自动驾驶虽有发生交通事故的危险,但其不仅减轻了人们的驾驶负担,且与人类驾驶相比也大大降低了事故发生率。因此,通过利益权衡判断,显然人工智能这种技术对社会的发展更为可期、有利,那么我们就有必要忍受因发展该技术所带来的合理风险。其次,法益侵害原则是判断是否有必要进行刑事立法的实质根据,只有对法益造成了严重危害或威胁才考虑增设相关罪名,这符合大多数人的刑事立法观。人工智能在目前尚未普及到社会的各个层面和领域,未来能否全面普及也不明确。况且从目前来看,人工智能不仅产生风险的范围较小,而且产生这种风险的源头主要是人类对人工智能程序的不当设置所致,因此该风险仍然是一种可控的风险。通过增设罪名予以应对的方案,不仅与增设罪名的实质根据相背离,而且也违背了社会公众的刑事立法价值观。

   总而言之,虽然超前立法在某种情况下能够反映我国未来社会的发展趋势和特点,迎合人工智能这一时髦话题,但是未来能在多大程度上实现智能化并不明确。此外,超前立法还存在误判的可能,所以草率地增设相关罪名予以应对的方案不仅对问题的解决毫无裨益,反而可能会造成刑法立法的虚置。

  

   三、人的属性之分解:人工智能不具备犯罪主体资格

  

纵观世界各国承认人工智能主体性地位的做法,存在两种:一是通过立法予以确定。如沙特通过立法授予了Sophia (索菲亚)沙特国籍。二是虽然本国立法对其主体性地位缺乏规定,但是通过政策大力支持发展人工智能并赋予其相应的主体地位。我国目前并未通过上述任何一种方式承认人工智能的主体性地位,所以我国的犯罪主体原则上仍然是达到刑事责任年龄并具有刑事责任能力的自然人。[21]亦即行为人只有具备了刑法意义上辨认和控制能力,才有可能构成犯罪并最终承担刑事责任。此外,对行为人判处刑罚也意味着相应主体尚需具备受刑能力。如果通过增设罪名来应对人工智能的风险,就必然需要在目前理论体系下深入论证“人工智能能否成为犯罪主体”以及“是否具备受刑能力”这两个命题。(点击此处阅读下一页)

    进入专题: 人工智能  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 刑法学
本文链接:http://www.aisixiang.com/data/116698.html

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2019 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
易康网