夏勇 尉立坤:美国学者对人工智能法律问题的研究

选择字号:   本文共阅读 126 次 更新时间:2022-07-26 08:43:51

进入专题: 美国学者   人工智能   法律   权利   责任  

夏勇 (进入专栏)   尉立坤  

   摘要:美国学者对人工智能法律问题的研究,以人工智能工具体和意识体的区分为视角,主要讨论了人工智能的言论自由、人工智能对权力与权利关系的影响、无人机对隐私权的影响以及人工智能可否拥有公民权利等宪法问题;人工智能的民事主体定位,能否拥有民事法律权利、承担民事法律责任,拥有和继承财产等民事法问题;控制人工智能风险的责任分工、制定无人机等人工智能体法律法规等行政法问题;人工智能的刑事责任能力、自动驾驶汽车等机器人造成危害结果后如何承担刑事责任等刑事法问题;人工智能可否决定国家使用武力、如何使用武力以及相应责任等军事法问题。这些研究成果视野开阔、范围广泛、内容具体,展现了较强的理论逻辑和学术想象力,值得借鉴。由于人工智能处于大规模使用的初期,现实法律问题的个案有限,相对于解决问题,美国学者的研究更多的还是提出问题。

  

   关键词:美国学者;人工智能;法律;权利;责任

  

   美国皮尤研究中心网站于2018年12月发表了来自埃隆大学等研究机构的几位学者撰写的论文《人工智能和人类的未来》。该文是在向979名技术、商业、政策等领域的领军人物提出问题并得到回答的基础上形成的。提出的问题是“随着新兴算法驱动的人工智能不断普及,人们的生活状况是否会比今天更好”。每人做出数百字的书面回答,再由作者对回答内容进行统计、分析和总结。回答者普遍对人工智能带来的问题表示担忧,汇集起来主要包括以下方面。(1)由人工智能对事情做出选择,人们却不知道其运作原理,会使人类丧失对生活甚至生命的掌控,牺牲独立人格具有的隐私权和选择权。(2)人工智能一旦滥用数据,就会侵犯公民个人信息。(3)人工智能的自动化会替代大量机械性工作甚至智力工作,从而导致失业。(4)对人工智能机器网络的过度依赖会使人类思考能力下降。(5)人工智能武器和网络攻击行为会给社会带来混乱。(6)人工智能会给个人隐私、集会等基本权利的实现带来挑战。(7)人工智能会导致财富垄断和权力集中的不公平现象。面对这些挑战,受访者呼吁全球合作,促使人工智能符合“人性”和公共利益,使技术能够满足社会需求和道德要求,更好地为人类服务。作者认为,对这些问题都需要展开广泛讨论,政府、学者、企业家、个人应当围绕“我们选择什么”而非“会发生什么”进行深入思考。

  

   他山之石,可以攻玉。对于上述问题,在科技水平全球领先的美国,近年已有各界人士从不同方面进行反思,这无疑具有借鉴价值。本文旨在梳理美国学者对人工智能法律问题的关切,以期从中获得一定启示。

  

   一、美国学者研究人工智能法律问题的两重视角

  

   “人工智能就是让计算机完成人类心智能做的各种事情……人工智能有两大主要目标:一个是技术层面的,利用计算机完成有益的事情(有时候不用心智所使用的方法);另一个是科学层面的,利用人工智能概念和模型,帮助回答有关人类和其他生物体的问题。” 据此,这门新的技术科学的成果就是对人类智能的模拟、延伸和扩展。换言之,通过人工智能技术科学研究和开发出类似人类意识过程且效率远超人类的物质载体,这种人工智能体本质上只是人类发挥自身智能的工具。然而,上述定义也指出:人工智能的理论和技术日益成熟,应用领域不断扩大,未来人工智能可以像人那样思考,也可能超过人的智能。在这个意义上,人工智能体不仅仅具有工具性质,而且可以成为独立的意识体。事实上,美国学者对人工智能法律问题的讨论正是在工具体和意识体两种意义上展开的。用阿什利·迪克斯等人的话来说,作为工具体的人工智能是利用算法“告知”(inform)决策,而作为意识体的人工智能是利用算法“做”(make)决策。

  

   01工具体意义上的人工智能法律问题

  

   科罗拉多大学法学院和斯坦福大学法律信息学中心的哈里·苏尔登副教授认为,目前的人工智能体仅是通过提前编程来处理和使用数据的机器人,还不是严格意义上的“智能”,因为它无法代替人类思考。在涉及概念、抽象、主观、开放、政策或价值导向、常识或直觉、说服或交谈、社会规范、社会结构、社会制度等事项时,它的表现尚不能令人满意。总之,人工智能是将通常需要人类智慧的任务加以自动化的技术。或者说,人工智能是提高人类效率的工具。在此,人工智能和法律的关系体现在:人工智能会使法律的应用更为简便。正如美国知名科技博客“小发明”(Gizmodo)的高级评论员乔治·德沃尔斯基所言,“当下的人工智能尚处于婴儿期”,它们“仍是我们可以看到其成果的无形算法,而不是生活在我们世界中的有形机器人,人工智能仍依赖于编程者,最终,它们仍是提供协助而非取代”。

  

   苏尔登指出,法律界应用人工智能的尝试早已有之,在20世纪70—90年代,主要是运用“知识表示”技术,通过计算机对立法和司法过程进行模拟。自2000年开始,人工智能和法律的结合开始向基于“机器学习”的技术转变。当下,人工智能主要着眼于法律实施中三类主体的不同需求。其一,对司法和执法人员而言,法官可利用人工智能来评估犯罪人再犯的风险,政府机构在判断申请人条件时使用人工智能,而警方会将人工智能用于警务预测和人脸识别。其二,对律师等法律从业人员而言,人工智能的帮助较小,停留于机械或重复性工作的替代,难以运用抽象思维和人类情商为客户提出咨询建议和解决问题,也不大可能进行政策分析和战略规划。其三,对个人或企业而言,可用人工智能自助系统提供日常行为合法性咨询和订立电子合同。

  

   苏尔登认为,目前这种人工智能与法律的结合主要存在以下问题:第一,一旦人工智能采用不当数据会导致法律实施的不同对象受到歧视;第二,操作者难以介入人工智能的速算过程,会导致执行法律时的决策过程不够透明;第三,以纯粹理性对人们的行为进行法律判断,难免忽视个体经验、潜意识、第六感等重要的感性作用。

  

   02意识体意义上的人工智能法律问题

  

   法律作为行为规范,具有指引功能和评价功能。法律规范的指引功能其实有赖于其评价功能,而评价功能的着眼点是对违法的处置——法律责任——这正是法律强制性的表现。追究违法者法律责任的基本前提则是行为人必须具有被法律评价的责任能力——主体资格。然而,在人工智能作为工具体的意义上,法律责任的主体无疑是人类的个体及其组合体——法人等,人工智能体至多对这种主体的法律责任产生认定上的影响,而不存在人工智能本身的法律责任问题。正如乔治敦大学法律中心的大卫·维戴克(David C. Viadeck)教授所总结,目前机器做出的决定,都可追溯到设计者、编程者和其他人,它的进程由人类加以定义、引导并最终控制,无论其多么复杂,也只是由人类使用的工具。然而,未来可能会进入市场的“完全自主”(full autonomy)的人工智能或“全自动机器”(fully autonomous machines)则不同——社会将需要考虑现有的责任规则能否确定它们因过错行为而应承担的法律责任。他引述牛津大学未来主义者尼克·波斯特洛姆教授对全自动机器的说明,即“能够拥有独立的主动权,能够制定它们自己的计划……或许把它们视为人而非机器更为合适”。

  

   维戴克教授进一步解释,也许自动驾驶汽车和无人机会作为第一代全自动机器拥有完全自主行为的能力,它们将不再是被人类使用的工具,尽管是由人类开发,但不再需要人类直接的行动指令、介入或干预,而是自行取得和分析信息,常常可在非预期的情况下独立于它的创造者做出符合情理的决定。既然全自动机器能够像人类一样自主“思考”和行动,那么一旦违法该如何适用法律?由于机器的行为没有体现人的意志,追究人类主体的责任不合逻辑。除非法律给机器赋予人格,否则无法让其承担法律责任。他还说,能够按照自己意愿来实施行为的全自动机器,与“主人”的意志背道而驰,不再是任何法律中的代理。也就是说,既然不是代理或越权代理,那么全自动机器应当独立承担法律责任。

  

   可见,从工具体和意识体两个视角研究人工智能法律问题,其实是分别对当前发展阶段的人工智能所涉及的法律问题和未来的人工智能所涉及的法律问题进行观察。针对这两个研究视角,有美国学者指出,至少在可见的未来,人工智能并不对人类构成威胁。如果过多讨论人工智能可能带来的“人类末日”,会导致对现实问题的忽视,应注重人工智能带来的直接挑战和对现实社会的影响。但从美国学者实际讨论的话题来看,两种视角的研究并驾齐驱,不分伯仲,且往往相互结合,一体展开。这反映出美国学界对未来研究的包容和重视。美国虽然是奉行实用主义的国家,却从不将研究的触角局限于当前,这正是其现代科技始终保持领跑位置的重要秘诀之一。这样的研究传统和意识也深深地渗入包括法律科学在内的人文社科领域。我国对人工智能法律问题的讨论,尽管同样是在工具体和意识体两种意义上展开的,但特别突出了二者的时间定位:“弱人工智能时代”和“强人工智能时代”。显然,前者是当下,后者是将来。在这样的语境中,习惯于“密切结合当前实践”和“与时俱进”注解法律的我国法学界,自然更加重视工具体意义上的人工智能法律问题,而对意识体意义上的法律问题则不那么在意甚至不屑一顾。然而,回顾人工智能从无到有和迅猛发展的历程,毫无疑问,人工智能由弱到强是难以逆转的趋势,作为科技成果的人工智能正在极大地改变作为法律调整对象的社会生产关系和上层建筑结构,这就需要作为社会关系调整器的法律未雨绸缪,早作准备。

  

   二、美国学者对人工智能宪法问题的研究

  

   亚利桑那大学宪法学教授托尼·马萨罗等指出,带有交流功能的人工智能会推动规定言论自由的美国宪法第一修正案的改革。具体而言,第一修正案能否适用于人工智能?他认为,尽管所谓“强人工智能”(strong AI)的时代何时到来并不确定,但人工智能“演讲者”(speaker)的言论自由能否受到第一修正案的保护问题,已然不可回避。美国学者较为一致的认识是,如果人工智能的表达是对社会民主活动及进程的参与,对人类听众具有价值性,则应当或可以得到保护。第一修正案保护的是言论(speech),而非“演讲者”。不过,关于人工智能是否“表达”言论,存在不同认识。有学者认为,人工智能产生的不是言论,而是不属于第一修正案保护范围的行为(conduct)。但更多学者认为,至少一些或部分机器的输出可被视为言论,因为它们会产生知识。甚至,大多数算法可被视为言论,因为它们包括“可发送和可接收的信息”。

  

在马萨罗等学者看来,承认人工智能受到第一修正案保护,需要克服一个弊端——与人类的言论相比,人工智能的言论(算法)难以得到有效监管,同时,第一修正案并不意味着不对有害言论加以取缔和追责,这往往要求证明存在某种意图,人工智能的意图恰恰难以证明。然而,这些困难不能否定保护人工智能言论的必要性,否则会导致政府剥夺听众接受有价值表达的权利。也就是说,保护言论的重心在于表达权对人类听众(而非包括机器在内的演讲者)的价值,这才是人工智能言论保护的真谛。因此,人工智能言论保护在适用于保护人类主体的第一修正案方面应当不成问题,未来强人工智能拥有宪法赋予的言论自由权是合理的。 (点击此处阅读下一页)

进入 夏勇 的专栏     进入专题: 美国学者   人工智能   法律   权利   责任  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/135532.html
文章来源:《国外社会科学》2022年第2期

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2022 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统