徐琳:人工智能推算技术中的平等权问题之探讨

选择字号:   本文共阅读 112 次 更新时间:2019-06-18 07:44:36

进入专题: 平等权   人工智能  

徐琳  

   【摘要】 人工智能技术的不断发展与普及使之已经或必将全面应用到人类社会的各个层面,但囿于信息的非公开、技术的不确定、法律法规尚不健全以及监管措施的缺位,在实际应用和推广中,普遍存在着诸如“算法黑箱、算法歧视、算法绑架”等现实问题,应当通过立法规范、行政监管和行业自治等诸多手段或举措进行有效监管。尤其是人工智能的内部推算系统技术,从而在新技术时代保障公民的平等权,避免技术性歧视行为。

   【中文关键词】 平等权;人工智能;算法黑箱;算法歧视;算法绑架

  

   一、问题的提出

  

   人工智能技术浪潮席卷全球,它让人们的生活和生产方式得到提升,部分发达国家和地区已制定相应的发展规划,如2016年《美国国家人工智能研究和发展战略计划》,欧盟推出《欧盟机器人研发计划》,英国也发布《机器人技术和人工智能》和《人工智能:未来决策制定的机遇与影响》报告,[1] 2017年7月,我国也发布《新一代人工智能发展规划》,提出面向2030年中国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施。[2]从宏观层面看,人工智能能为城市规划治理、公共安全风险评估、智能犯罪预防、定向扶贫、自然灾害预测及应急等提供决策支持,未来我国将实现智能制造、智能农业、智能金融、智能商务、智能家居等全方面智能化社会。[3]从微观层面看,它已成为个人日常生活的一部分,在自动驾驶、疾病诊断、人脸识别、智能翻译、投资决策、法律服务等方面都发挥了巨大的作用。对此,人们普遍认为人工智能的应用能够帮助人类更安全和条理化地开展工作,[4]帮助人类对各事项决策进行理性准确的决断,促进社会治理体系和手段更为高效、便捷与智能。人工智能技术因能提供“无所不能”的便利,亦可视为是一个完美无瑕的“作品”。但就人类的自身发展而言,有时科学技术会是一把“双刃剑”。比如“核裂变”技术的应用,有时可从一个极端走到另一个极端。当然,大众舆论目前对于人工智能技术的应用前景,无不充满喜悦与亢奋。但人类应在新技术产生之初,就应保持足够的理性和客观,这会有利于科学系统地分析和判断。任何新技术在被广泛应用和采纳之前,都会存在一个过渡期,在这个过渡期内,要持续不断地自我检测和自我完善,以便更好地接近或吻合人类社会的基本规则,更好地服务于人类社会的可持续性发展。但是,现阶段人类把大量的所谓抉择权(包含司法权和行政权)交付给人工智能技术平台,企图利用大数据来遴选或甄别,用以判断或决策公共政策、法律法规和规章制度的可行性和适用性。这极有可能带来具有倾向性、片面性和非透明性的结果,并有可能被所谓的“科学、系统、全面和客观”的数据或图形加以粉饰或掩盖。其实该流程包含着不合理、不合规的运算体系,如“算法绑架”、“算法黑箱”和“算法歧视”等现象,最终以貌似科学、合理、合法的方式,在广大公众不易察觉的状况下,实施或执行具有针对性的和片面性的抉择或推定。

  

   二、信息非公开所形成的“算法绑架”行为

  

   现阶段人工智能领域中出现的诸多平等权僭越问题,首当其冲的是在人工智能运算过程之中出现的、被应用的大量数据信息的非公开性所导致“算法黑箱”和“算法绑架”的行为。其实,关于政务信息或者公共信息公开,我国《政府信息公开条例》第一款规定:为了保障公民、法人和其他组织依法获取政府信息,提高政府工作的透明度,促进依法行政,充分发挥政府信息对人民群众生产、生活和经济社会活动的服务作用。该法令的宗旨就是对公众知情权的保护,提高公众参与国家、社会事务管理的积极性,有效减少贪污腐败等现象。该法令的构建是法治信息社会的必然选择。[5]此外,公众“知情权”的出现背景是美国联邦政府机构内部消极对待政务信息公开化,任意扩大保密权限的官僚主义。保障公民知情权源于社会契约论或人民主权论,获得应该获得的信息是公民的一项权利,而信息公开就是政府的一种义务。[6]如果人民没有知情权,就无法参与和管理国家社会事务,无法监督权力的运行,也就意味着无法保障自身应有的权利,社会的民主和谐稳定便可能遭到极大地破坏。在数据膨胀的信息化时代,“大数据分析”和“机器算法决策”等人工智能技术的应用与社会公共利益紧密相关的信息也完全应该公开。然而,目前当人工智能应用的数据涉及到公共政策和公共利益时,其所应用的数据资料却处于非透明化状态,或是基本处于完全不公开的状态,公众对此完全没有任何的知情权。

   (一)人工智能数据应用的非透明性的类型和范围

   在人工智能应用领域中的信息非透明性问题,大致包括两方面:首先是算法系统运行决策过程的非透明化。美国加州大学信息学院的乔娜·布雷尔(Jenna Burrell)在其论文《机器如何“思考”:理解机器学习算法中的非透明性》中细分三种形式的内容:“第一种是因国家秘密或商业秘密而产生的非透明性,第二种是因技术掌握程度不同而产生的非透明性,第三种是算法本身的复杂所带来的非透明性”。[7]所以,不仅是社会公众,就连设计者本人也不能完全掌控算法系统在进行运算决策时每一个逻辑数据的来源。出现此问题之根源就是,我们会在解释或证明算法结论的因果关系中,始终存在着较大的技术层面障碍。大众只能看到输入的数据以及得出的相应结论,而对中间的运算过程则一概不知,由此就会导致“算法黑箱”或“算法独裁”行为。[8]其次则是数据使用情况的不透明性。当前我国法律仍未对企业采集和利用数据信息的权限边界做出明确的规定,不能完全保障广大用户对自身数据资料在被使用或应用过程中应享有的知情权和同意权。广大用户根本不知道自己的哪些信息被使用以及如何被使用!此外,互联网企业与普通用户之间在个人信息数据权利上的不对等现象,导致数据容易被滥用。由于这些信息的不公开,公众没有获得应有的知情权,带来的问题便是数据分析的算法能够轻易“绑架”人类的思维,“操纵”人类的意志。

   (二)人工智能应用数据信息非透明化的实证分析

   “电车难题”一直以来是法学界中道德判断的难题,它是指有五个无辜的人被绑在电车轨道上,一辆失控电车朝他们驶来,片刻后就要碾压到他们。这个时候您可以选择拉一个拉杆,让电车开到另一条轨道上,但是另一个电车轨道上也绑了其他一个人。在这种情况下到底如何处理?边沁的功利主义观点认为,当必须作出选择时,牺牲了一个人拯救多数人的性命是符合社会功利原则的,即满足社会绝大多数人的幸福。而从康德的目的原则出发得出的结论则相反。康德认为人是目的不是工具,五个人的生命和一个人的性命没有轻重之分,不能以牺牲一个人的性命来拯救多个人的生命。假设,现实生活中的人面临如此选择,且其中五人中也可能包涵自己,或者是与自己相关的亲人或熟人,或者是鉴于其中性别、年龄、外貌等的差异,考虑到人性的复杂一面,最后,都可能会做出不同的选择,从而产生不同的结果。这样的伦理困境在人类决策中是永远没有标准答案的。不过在正常状况下,我们还是能够预测他人在作选择时的价值判断,通过这些缘由来对每个决策进行我们自己内心的道德和法律评价。如果同样的状况出现在人工智能决策的背景下,例如将自动驾驶替代人工驾驶,通过算法来决定最后哪些人会被牺牲时,由于人类不知道算法运行的内部规则,也不确定是基于哪些信息所做出的决策。所以,大部分人会完全信任机器算法,觉得机器算法具备能做出最佳效益和最合情理的判断力。因为,这是通过自然科学模式推算出来的,所以人们不会有质疑。因此,当伦理困境不再处于矛盾状态时,这个决策就因为机器算法而具有唯一性,其结果一旦被法律所采纳,对于被牺牲的一方来说会在法律的框架下被“合法”地歧视。因此,一旦人类把社会事务的最终决定权完全交付给人工智能机器算法,就意味着人类特别是我们普通大众从某种程度上可被理解为全部受制于算法决策。这并非只是推论,类似的事项已真实地发生。2018年3月17日,Facebook公司具有两家关联机构性质的Strategic Communication Laboratories(SCL)和剑桥分析公司(Cambridge Analytica)窃取了Facebook公司大约27万用户的个人信息,之后构建了一个可解析美国选民的数据模型,用以提供针对性服务,比如推送千人千面的个性化政治广告。特朗普的数据运营团队将其运用到2016年的大选之中,该项成果被视为特朗普成功当选的一大助力。[9]英国卫报指出,算法和数据库结合在一起可形成强大的竞选工具,这个工具能够在大选中尽可能找出中间选民,并制造更多的“共鸣信息”成功地煽动和说服他们。[10]权力资源的掌控者利用数据和算法分析人类的主观偏好,再推送附带此偏好的信息去影响他们对事务的判断与决策。然而,广大选民根本无法察觉,他们在进行判断衡量之时已被人工智能技术所左右,最终之决策并非基于自身真实意愿,而是思想被操纵后之产物。人工智能时代人类的生活逐步趋向数字化,控住数据就可自由摆布或左右大众之思想。现在,人类必须意识到在享用人工智能算法决策的好处之时,也须警惕自身对其模式和结果的过度依赖,以防止算法决策“绑架”人类的意志思维。如今,社会资源的掌控者将人工智能技术作为管理社会的工具,如对其未来的发展不加以规范,人工智能技术难免会沦为资本逐利、政治逐权之手段,导致歧视和不平等行为在社会中被无形地被放大,社会贫富急剧分化甚至出现极权暴政。

  

   三、“算法绑架”所导致的“算法歧视”行为

  

   如何界定歧视现象?国际条约对“歧视”做出的定义是:联合国人权事务委员会《关于非歧视的第十八号一般性意见》“不得歧视”第七项指出:本公约中所使用“歧视”一词的含义指基于任何种族、肤色、性别、语言、宗教、政治或其他见解、国籍或社会出身、财产、出身或其他身份的任何区别、排斥、限制或优惠,其目的或效果为否认或妨碍任何人在平等的基础上认识、享有或行使一切权利或自由。[11]欧盟对于歧视的定义是:“如果某个人或团体因为具有性别、种族和民族、遗传特征、宗教、残疾、年龄、性取向等七种特征之一,而受到相对不利的对待,或者一项貌似中立的条款很可能对该人或该团体产生不利影响,则视为歧视。”[12]国际人权法认为凡是某些原因具有取消或损害机会均等或平等享有权利的区别、排斥或优惠措施,都构成法律上的歧视。[13]在现实生活中,人们在自然生理或社会经济方面存在明显的差异,以上差异不仅难以通过个人的努力加以克服,并且从根本上决定着社会竞争的成败。如果法律无视这些差异,进而将所有人视为抽象的和无差别的人格主体,并赋予相同的权利义务,最终将加剧社会阶层与民族群体之间的不公平。[14]

   (一)传统意义上的歧视行为的界定与解析

   可以看出,歧视的核心应该具有三个特点:第一是客观上具有存在非合理的区别待遇;第二是这种区别待遇是法律所禁止的;第三是会造成客观上的不公正、不平等的不良后果。[15]

国外学者对“歧视”的理解包括:“第一、歧视是基于偏见所产生的行为,由于个人的偏见而对某团体实施的差别对待。[16]第二、判断是合理的区分还是歧视的标准即”一种区别对待不同的人或群体的做法是可以被允许的还是带有歧视性这一问题,取决于受到区别对待的各方是否处于相似的情况,不平等的对待是否基于合理的和客观的标准,以及这种区别对待是否与特定的情况相称。[17]我国学者对“歧视"”看法主要有:第一、歧视是指被法律禁止的、针对特定群体或个人实施的、其效果或目的在于对承认、享有和行使基本权利进行区别、排斥、限制或优待的任何不合理的措施,(点击此处阅读下一页)

    进入专题: 平等权   人工智能  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 宪法学与行政法学
本文链接:http://www.aisixiang.com/data/116752.html

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2019 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
易康网