洪丹娜:算法歧视的宪法价值调适:基于人的尊严

选择字号:   本文共阅读 617 次 更新时间:2020-11-28 22:59:55

进入专题: 算法歧视   宪法价值  

洪丹娜  

   摘要:  算法歧视性后果的发生得以让人们重新定位算法并找寻新技术背景下人的尊严与价值。保障人的尊严从道德哲学的要求转变为法律体系的基础规范,蕴含着立宪者对人作为终极目的的肯认与推崇。人的尊严可以为抵制算法对人性的蚕食提供最高价值指引,并应进入到算法应用的正当性论证之中。过度依赖算法决策系统和将人数据化违背了人是目的这一道德哲学伦理要求,削弱了人的主体性,算法歧视缺乏对人的多样性的包容,背离了人的尊严的价值内核、价值目的和价值意蕴。治理算法歧视、规范算法的运用,应强调人的尊严的价值归依,要求把维护人的尊严作为科技发展的最高价值,强化国家对人的尊严的保障义务,制衡算法权力对人的尊严的侵蚀,在特定重大领域审慎使用算法决策系统。

   关键词:  算法歧视;人的尊严;宪法价值;算法权力;平等权

   智能算法的兴起、深度应用加速了人工智能时代的前进步伐。当阿尔法狗打败了世界围棋冠军时,人们在为技术喝彩的同时也在内心深处产生了隐忧。当智能算法广泛运用于各领域的自动化决策以后,人的主体性还如何得以保障?算法歧视就是在运用智能算法进行决策或辅助决策时产生了歧视的后果。当自动化决策造成了歧视性后果,如何理性地加以评价并提出可能的解决路径呢?这一系列的疑问并不是杞人忧天的疑虑,因为智能算法已经注入生活,有学者就将当前的社会称为算法社会(Algorithmic Society)。[1]例如,算法预测模型广泛地应用于个性化定价和推荐、信用评分、工作应聘的简历筛选、警察搜集潜在嫌疑人等诸多领域。随着大数据和算法的深入运用,算法正在定义人们的信用资质、能力资质、生活品质层次等诸多方面,并进而决定了人们能否获得贷款、能否找到心仪的工作以及接受服务和购买商品的价格范围,等等,甚至可能还运用在刑事司法系统中,用以评估犯罪嫌疑人再犯的可能性,进而决定其能否获得假释或影响量刑。[2]

   当算法在定义人的品行、资质时,或当算法在勾勒人的形象之时,算法已经和宪法发生勾连。在算法系统中,每个个体都被转化为可计算的数据,相对于大数据而言,个体的数据是微不足道的,而在宪法面前,每个个体的权利保护又都是不可忽略的。正因为如此,当算法技术深度嵌入人类生活之时,算法歧视性后果的发生提醒人们有必要认真审视算法技术应用对宪法价值的冲击,重塑人的尊严的宪法价值内涵,检讨算法歧视对人的尊严的价值背离,并在算法歧视治理路径中强调人的尊严的价值,提防技术对人的统治。

   一、算法歧视对人的价值的冲击

   不可否认,智能算法的运用有着无可比拟的优势,立足于大数据之上,算法通过对海量数据样本的全盘分析可能得以窥探事物的全貌,避免人类因有限的观察体验而产生的局限性,可以更为准确地反映客观世界,并尽力排除人的主观因素的影响,由此作出更为科学的判断。然而,事实却告诉人们寄希望于新兴技术去克服人性的弱点并去解决人类社会存在已久的问题的想法未免过于天真。有学者便一针见血地指出,“算法社会并不是理想的社会”,算法社会只能使人的智性过度发展,从而使人丧失人性中更为宝贵和自然的组成部分,如心性和灵性。科技乌托邦并不是人类的未来。[3]还有学者认为,算法不具备内在观点与自主意识,人类社会的运作过分依赖算法,可能会产生现在尚无法清楚预估的高复杂度系统风险。[4]算法歧视性后果的发生便是值得警惕的社会风险。算法歧视冲击着宪法中奠定的人的价值。首先,算法歧视挑战了平等原则,阻碍了人人平等的社会理想的实现。其次,面向过去的算法决策逻辑的局限性有固化社会不公之虞。最后,从根源上看,算法歧视的普遍发生,背后乃是算法权力的兴起与异化,放任算法技术的应用将会减损人的价值。

   (一)算法歧视挑战平等原则

   2016年5月,美国白宫发布了《大数据报告:算法系统、机会和公民权利》,这是美国继2014年、2015年奥巴马政府两次大数据白皮书之后的第三次报告。报告考察了大数据在信贷、就业、高等教育、刑事司法等四个领域运用所存在的问题、机遇与挑战。报告指出,仅因为算法是数据驱动的就认为算法是客观的,实乃美丽的误会。该报告将算法的歧视性因素分为两大类,即输入算法的数据资质和算法自身的工作机制。[5]2018年4月16日,英国议会下属的人工智能特别委员会发布长达180页的报告《英国人工智能发展的计划、能力与志向》,其中包括22份口头证据和223份书面证据。其指出,已有证据表明,训练数据、数据处理、算法设计者的因素都可能导致算法歧视。[6]国内外不少相关研究报告指出,算法在诸多领域的运用中产生了歧视性后果,常见的表现形式有价格歧视、就业歧视、信用歧视。[7]也有学者根据算法歧视的表现形态,将算法歧视分为偏见代理的算法歧视、特征选择的算法歧视和大数据杀熟等三种基本形态。[8]就某种程度上而言,算法歧视的发生是普遍的,挑战着宪法规定的平等原则。第一,在算法运作过程中,歧视性因素便可能通过多种途径嵌入算法,算法决策所依据的数据输入本身可能并不客观甚至已包含着歧视。此外,算法设计者的偏见也是导致算法歧视的重要原因。算法系统设计师凭借经验来决定哪些数据对于决策是重要的、哪些是不重要的,这种草率选择的数据或许会产生结果偏差。[9]当算法被描绘成合理、客观的决策工具却隐含着歧视时,受算法决策影响的对象群体将更难以获得权利救济。第二,算法设计的目标往往是利益驱动的,因此算法设计本身就暗含着效率最大化的原则,从而抛弃了诸如公平之类的重要价值,这对于弱势群体可能十分不利。第三,由于统计固化效应以及信息相互印证,算法模型在应用阶段会扩大歧视性效应。第四,算法黑箱使得算法歧视变得隐秘而难以觉察,产生了歧视识别危机,[10]这就对平等权的实现设置了难以逾越的技术鸿沟。

   (二)算法决策逻辑的局限性有固化社会不公之虞

   值得注意的是,算法决策逻辑的局限性本身便隐含着歧视的危险。即便算法的运作过程没有被注入歧视性因素,算法模型的应用仍有可能产生歧视性后果。英国议会下属委员会的报告《英国人工智能发展的计划、能力与志向》指出,如果数据库准确地反映了社会中不公平的一面,同样可能产生歧视。[11]这是因为人类社会本身就存在歧视,如果算法中的数据准确映射了社会客观现实,仍然会产生歧视。数据偏差或者算法设计师的因素是导致算法歧视的表面原因,深层原因在于算法“预测”的性质,通过对过去来预测未来才是导致问题的根源,在一个种族分层的社会中,算法模型预测的结果势必是种族不平等。[12]算法系统的运作机制是从大量行为主体的历史实然行为向应然规范转变,这也会引发疑问(为何过去应当决定未来)。[13]归根结底,算法决策运用的是归纳的逻辑方法,是对历史经验的提炼并总结出一定的规律。然而,归纳的逻辑本身就可能存在偏差,它试图将事实上升为规范,挑战了传统的“规范—事实”的二分法则。这其中蕴藏着社会系统风险,因为算法模型是对既存社会现实的肯认,并排斥规范对现实的改造作用。算法预测模型表面上是面向未来的,实质上是面向过去的。人类社会的发展不应拘泥于人类社会过往的状态,否则,那将使得人永远沉浸在过去的漩涡中而难以自拔。企图利用过去来定义未来的算法决策逻辑背离了超验的伦理价值,缺乏对社会实在的批判性精神,最终可能会构成对人的灵性的消磨以及对人类社会发展的束缚。

   (三)算法权力的异化有减损人的价值之虞

   算法歧视的发生并不是偶发的个案,背后是算法决策应用的系统性风险,从根源上而言,是作为新兴技术力量的算法要求改写既有的权力配置格局所引发的。算法基于海量数据运算配置社会资源,直接作为行为规范影响人的行为,辅助甚至取代公权力决策,从而发展为一支新兴的技术权力。所谓的算法权力,并不纯粹是技术权力,其背后潜藏着控制算法设计和研发过程的资本的权力,[14]技术权力只是其表征。资本驱动下的算法权力倘若缺少必要的规制,势必倾向于将利益置于人的价值的之上。更值得注意的是,算法决策在公权力领域的运用表明算法权力嵌入了传统公权力的运行,这可能使技术和权力产生合谋而存在权力滥用的风险。并且,算法权力可能会使既有的权力制约机制在一定程度上失灵。在公共权力的长期运作过程中,算法的“技术合理性”又使其蒙上了可以巧妙避开民主监督的面纱。[15]算法对公权力领域的介入挑战了传统的权力专属原则和正当程序原则,难以对其实施有效的权力控制,而失范的权力最终必将导致个体权利的减损。算法歧视便是算法权力的崛起和异化所表现出来的对个体的基本权利和人的价值的漠视。在技术权力裹挟公权力的新兴权力格局中,人们将愈发失去抵制能力,大部分的“技术文盲”只能沦为技术与权力双重压制的“鱼肉”。

   算法权力的兴起和异化显然已经折射出技术存在的风险与非理性,而目前规制算法的具体法律规则付之阙如,放任算法技术的发展很可能将人类社会导向令人惴惴不安的境地。虽然智能算法有着人类无法想象的计算能力和速度,但这并不意味着算法超出人类的理解范畴,更不意味着人类对此没有充分的规制能力。作为人类文明发展到一定阶段的产物,宪法在法律体系中被认为是高级法,融入了超验的伦理价值,具有最高的法律效力,承担着对其他制定法的评价、对民主主义的适当纠偏的功能。从本质上而言,宪法凝聚了社会共同体的价值共识,这些价值构成了对社会实在的批判规范,避免人们迷失在复杂人性的泥沼中,从而保障人类生活在自由、幸福、有尊严的环境中,让人类的生活更加安定,不再恐惧,不再焦虑。[16]正是因为宪法具有不可替代的作用,具有对人类生活的价值导引作用,面对算法权力的异军突起,宪法或许可以提供必要的价值调适通道。算法歧视性后果的发生得以让人们重新定位算法并找寻新技术背景下人的尊严与价值。人之尊严作为公共信念的核心内容进入法律,为整个宪法秩序提供形而上学的基础。[17]保障人的尊严从道德哲学的要求转变为法律体系的基础规范,蕴含着立宪者对人作为终极目的的肯认与推崇。

   二、作为宪法价值的人的尊严

   拉德布鲁赫在题为《法律中的人》的演讲中指出:“对于一个法律时代的风格而言,重要的莫过于对人的看法,它决定着法律的方向。”[18]当今社会正逐步进入人工智能时代,当智能算法在定义人并进而作出决策的时候,如果对人的形象没有清醒的认知,人的价值将会被弱化。因此,有必要重塑人的尊严的价值内涵,规范算法应用的价值取向。

   (一)“人的尊严”争议背后的价值共识

   有学者对联合国193个会员国宪法文本作了分析,发现“人的尊严”入宪的有143个国家。[19]然而,“人的尊严”入宪并没有使尊严的概念得到厘清,相反地,关于“人的尊严”的相关争议不断便表明对其内涵没有形成共识。“人之尊严”是一个极具争议的概念,任何人或组织打算使用“人之尊严”,都必然要担负起为其划定一个适当边界的任务。[20]在我国学界,尊严是指人的尊严还是人格尊严抑或是人性尊严,三者能否等同,尊严究竟来自人还是人格抑或是人性等问题引发了广泛的探讨。[21]有学者认为,无论在日常语言表达还是书面语言表达抑或专业领域表达中,人格尊严、人性尊严与人的尊严是通用的。[22]尊严概念的冗余性、空洞性、内涵难以确定性造成了尊严叙事的尴尬境地。[23]尊严的价值论证的模糊性也是引起实践争议的原因。例如,德国航空安全法案规定,当飞机用来威胁人之生命,军队可以动用武器来防范特别严重的不幸事件的发生,这就在保存飞机上无辜乘客的生命与拯救其他人的生命之间作出了选择。于是,有人向宪法法院提起宪法诉愿,认为该规定侵犯了《德国基本法》规定的人的尊严和生命权,要求审查该法案的合宪性。[24]人的尊严的价值论证究竟如何在不同人之间作出权衡呢?可以肯定的是,一旦作出权衡,很可能就背离了“尊严”的规定性。

(点击此处阅读下一页)

    进入专题: 算法歧视   宪法价值  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 宪法学与行政法学
本文链接:http://www.aisixiang.com/data/123704.html

34 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2021 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统