汝绪华:算法政治:风险、发生逻辑与治理

选择字号:   本文共阅读 5962 次 更新时间:2019-08-27 00:37

进入专题: 算法政治   发生逻辑   算法偏见  

汝绪华  

内容提要:作为一种新事物,人工智能算法不仅是一项新技术,更是新的权力形态。算法即权力。与其他领域相比,算法早已渗透政治领域的各个层面,人工智能算法的强大威力在证明自己的同时,也带给政治管理与政治传播模式以革命性变革。算法与政治的日益结合正在发展为一种潮流,算法政治已经成为一个不容忽视的议题。然而,算法的内在缺陷及其不当使用也给算法政治带来了诸多风险,备受批评,已经影响到其健康发展。算法政治不仅是一项技术问题,更是一个政治与道德问题。因此,明晰算法政治的风险及其发生逻辑,并善加治理,方可让其成为政治管理的好帮手,而不是“麻烦制造者”,这对于算法政治的健康发展具有十分重要的意义。

关 键 词:算法政治  发生逻辑  算法偏见  后真相  algorithmic politics  occurrence logic  algorithmic bias  post-truth


一、引言


作为一种能够引发诸多领域产生颠覆性变革的前沿技术,人工智能的发展超乎想象,迅速席卷全球。人工智能(Artificial Intelligence)的浪潮也让机器学习(Machine Learning)、深度学习(Deep Learning)等生涩的专业词汇变得炙手可热。但很多人却不知晓三者之间的逻辑关系,实际上,机器学习是一种实现人工智能的普遍方法,其最基本的做法就是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测;深度学习则是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层(深度神经网络)对数据进行高层抽象的算法。因此,从本质上讲,它们都是一种算法。人工智能革命最终还是算法革命,谁能推出最优的算法,谁就能在未来AI市场上抢占先机。所谓算法(Algorithm)指的是解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。近年来,得益于大数据量的上涨与运算力的提升,语音技术、图像技术、视频技术、人机交互等不断创新,人工智能开始大爆发,基于算法的自主决策系统日益被广泛应用于数据挖掘、搜索引擎、自然语言处理、生物特征识别、医学诊断、新闻、教育、就业、保险、投资、广告、治安和机器人等领域。算法对于我们的生活来说越来越重要,它深刻地改变着人们的生活方式,改变着整个世界。

现代人生活在算法时代,随着大型数据集和复杂模型越来越普及,算法替代人类做决策越来越多,算法正改变着全球政治经济与社会的运行和发展模式。与此相应,算法经济、[1]算法经济学、算法新闻、算法权力、算法权威、[2]算法伦理、算法战争等新名词、新概念、新理论框架甚至新学科不断脱颖而出。作为一种新事物,人工智能算法不仅是一项新技术,更是新的权力形态。算法即权力。[3]与其他领域相比,算法早已渗透政治领域的各个层面,算法与政治的日益结合正在发展为一种潮流,算法政治已经成为一个不容忽视的议题。所谓算法政治指的是AI算法在政治领域中的应用与影响。它主要涵盖两大主要领域:一是,基于算法自主决策系统的辅助政治决策领域,普遍应用于失业、救济、财政预算、税收风险管理、社会治安、公共安全等重要事项;二是,基于算法的政治传播领域,包括基于算法的信息传播对政治价值观、政治态度、政治心理、政治决策、政党竞争、政治人物以及国际政治等政治生态的作用与影响,其中,尤以智能推荐算法催生的假新闻泛滥对政治生态的影响最为显著。算法不仅把以前需要专家支持或因为复杂性无法完成的任务变为可能,节省了决策成本,极大提高了政治效率与决策的客观性、科学性;而且把个性化推荐与信息传播结合起来,大幅提升了政治传播的精准性。因此,基于算法的人工智能系统在政治领域被普遍应用,算法政治时代来临。

由数学模型而非人来决定,利用算法重塑一个更加客观的现实世界,但事与愿违,改善问题的系统,却反过来使问题更严重,算法“黑箱”、难以审查等内在缺陷引发的偏见与歧视备受指责,社交媒体中的算法操纵、算法武器化催化的假新闻泛滥让民众忧虑不已,数据科学家凯茜·奥尼尔称之为“数学破坏的武器”。随着算法在政治领域的广泛应用,算法在给以政治系统便利与福利的同时,算法偏见、算法操纵对政治公平正义的侵蚀,极易触发意外未知风险。大量实例已经表明,算法偏见加剧现有不公平现象的问题已不容忽视——尤其当它们用在本就存在歧视的政治社会系统中时,模型支撑着幸运和惩罚,为民主创造了一杯“有毒鸡尾酒”。[4]这又进一步引发了公众对算法政治风险的担忧与焦虑。2017年10月,皮尤研究中心发布的一份报告显示:美国人对自动化忧虑多于乐观,其中,85%的美国人赞成出台政策,把机器的工作范围更多限制在对人类构成危险或有损健康的特定环境。[5]


二、算法政治的风险


从本质属性上讲,政治系统致力于“为一个社会权威性地分配价值”,[6]民主性、公平性、合法性、公开透明等是其重要特性,虽然行为主义政治学一再强调价值“祛除”,但实践证明,政治无法做到真正的“价值中立”。在解决政治问题的定量与定性两种方法的较量中,政治的定性方法始终未过时,很多时候,定量政治的最终目的还是为了服务于定性政治。人工智能算法虽然涉及计算机科学、心理学、哲学和语言学等多学科,横跨自然科学与人文科学,也无法实现绝对的价值中立,因而,那种认为完全定量化的算法政治可以为人类社会中的各种政治事务和政治决策工作带来完全客观性的认识是不现实的,必须高度重视其潜在的风险及衍生的次生灾害。理由在于:一是,由于数据采集的准确度与样本大小、算法技术发展限制、算法设计人员的偏见、区域特色与差异等因素的制约,定量化的算法容易带来算法偏见(Algorithmic Bias)和错误风险,而政治问题往往事关全局,不像产品生产容许一定的残次率,一旦算法出现问题,道德风险与政治代价是高昂的;二是,定量化的算法难以解决政治的非中立性和价值多元性,其不透明、难以审查等特征必然招致质疑与合法性危机;三是,当可以影响政治生态的算法完全且不受监管地由网络科技公司掌控,当追求最大利益的冲动超越政治利益与企业社会责任,必将对公民权利、政治生态造成极大伤害。2016年美国大选以来,由基于不当算法的社交媒体推送的假新闻祸乱全球就是明证,不仅撕裂社会,更成为政治极化的发酵剂。可见,算法政治的风险,既包括算法在政治领域应用时,由算法的内在缺陷触发的道德风险、决策风险、合法性危机以及算法失灵等引发的意外未知风险,也包括算法在政治传播领域的不当使用(尤以智能推荐算法催生的假新闻泛滥为甚)引发的安全风险。“技术上最伟大的胜利与最大的灾难几乎并列”,[7]科技是一把双刃剑。在算法政治时代,其风险已经成为一个需要高度正视的议题。

1.算法偏见损害政治正义,潜藏的伦理后果与道德风险不容忽视。算法政治不仅是一项技术问题,更是一个政治与道德问题。政治正义是每一个公正合理的国家所必须建立的政治基础,其中,“权利的优先性理念是一个根本要素,而在公平正义中,该理念作为公平正义观点的一种形式具有其核心作用。”[8]AI算法依赖于大数据,而大数据并非客观中立的。“人类倾向于将固有价值注入规则。”[9]它们从现实社会中抽取,不可避免地带有社会固有的不平等、偏见与歧视的痕迹。2014年,美国白宫发布的大数据研究报告就关注了算法偏见问题,认为算法偏见有可能是无意的,也有可能是对弱势群体的蓄意剥削。2016年,美国白宫发布的《大数据报告:算法系统、机会和公民权利》,则重点考察了在信贷、就业、教育和刑事司法领域存在的算法偏见问题。普林斯顿大学的研究人员发现,被在线的普通人类语言训练的通用机器学习程序可以获得文字模式中嵌入的文化偏见。[10]所谓“算法偏见”指的是在看似客观中立、没有恶意的程序设计中,却带着开发者的偏见,或者因所采用的数据存在倾向性,或者因设计技术局限,在实际应用中导致了种族歧视、性别歧视、年龄歧视、阶层歧视、区域歧视、仇外思想等严重的政治后果。在机器学习和AI发展的关键时刻,算法偏见正在成为一个主要的政治与社会问题。如果算法内部存在偏见,这些偏差会使得更重要的决策变得无法识别和无法检查,那么它可能会产生严重的负面后果,特别是对于贫困社区和少数群体而言。[11]基于算法和统计学的歧视,可能导致弱势群体在住房、信贷、保险、就业招聘、甚至在执法上遭遇歧视,被数据探勘技术标记为“高风险群体”,在日常生活的每一个领域都持续遭遇各种歧视待遇,陷入“数据自我实现的怪圈”,换言之,那些运气较差的人可能会一直处于运气不好的际遇,并非出于纯粹是巧合的偶然性所致。

2.算法的高科技面貌、责任主体模糊,往往使得算法决策陷入审查难、问责难的窘境,非但如此,算法“科学化”“客观化”“专业化”的幻觉也加重了官僚制中本已令人诟病的工具理性弊端,潜在的决策风险及其后遗症亟待正视。一是,算法虽然是辅助决策系统,但在扶贫、福利发放、政府补贴等需要大数据协助决策的领域起着重要作用,一旦出现失误,影响广泛。即使因算法缺陷导致决策失误,或者公众对算法决策的结果不满意,行政人员往往倾向于把责任诿过算法或算法开发公司,而对算法或算法开发公司又难以司法审查,责任主体模糊往往使得算法决策陷入审查难、问责难的窘境。例如,在英国女性乳腺癌筛查漏检丑闻中,关于“算法错误”究竟是怎么产生的,国家卫生医疗系统(NHS)、公共卫生局(PHE)以及负责维护软件维护的日立咨询公司三方互相踢皮球,然而最终结果很有可能是根本无法定论。二是,随着算法辅助决策系统在政治领域的广泛应用,形式合理化的算法的“科学化”“客观化”的幻觉把官僚制的工具理性弊端推向新高度。刻板、无弹性、按部就班办事的官员患上了“工具依赖症”,程式化地把选择、决策、信任、责任交给算法,把思考交给机器,官僚与算法的“辅助角色”换位。恰如韦伯所言:“官僚体制统治的顶峰不可避免地有一种至少是不纯粹官僚体制的因素。”[12]官僚制在功能主义与技术主义的工具理性追求中遗失了价值理性,形式合理性设计的严格纪律、僵化规则以及处事程序把人淹没在冷冰冰的技术主义之中,在实践过程中它促使官僚主义得以滋长和蔓延。他们已经习惯不质疑,刻板做事,算法的科学、客观、专业让他们觉得其更权威、“更安全”。尤其是在时间紧迫和资源有限的情况下,官员们可能更倾向于依赖所谓“专家系统”的决策而不是自己的思考。其后遗症更令人忧心,过分依赖算法不仅会加重官僚制的僵化,与公共服务人性化潮流背道而弛,也会妨碍行政人员的自主性、积极性以及制度创新。

3.算法黑箱①与正当性原则背道而驰,容易导致合法性危机。决策的公开透明是现代民主政治的重要标志,在正当程序中占有越来越重要的地位。合法性必须以正当性为基础,“这样,合法性信念就退缩成为一种正当性信念,满足于诉诸做出一种决定的正当程序。”[13]但算法政治中算法程序不透明、算法决策过程不公开、算法决策理由自我解释性差,看似把政治决策交由客观数据会提升决策的科学程度,实则不然,越是大数据时代,算法、数据及其分析方法的垄断性越高,因为高效能算法通常为强大的高科技公司所掌控,他们往往以算法是私人财产、商业机密为由拒绝公开,以致算法决策黑箱难以被打破。由私人掌控的算法黑箱来辅助政治决策,不仅可能出现被操纵或诱导,更违背正当性原则与政治民主理念。亚马逊公司已经开始在警用系统中应用图像识别软件Rekognition,但面部识别系统一直面临着女性和有色人种错误率的问题——错误率可以直接转化为更多边缘化群体受到阻碍和逮捕。虽然一些公司已经做出了公开的偏见测试,但亚马逊在这个问题上并没有分享任何数据,只是强调该服务是一个简单的对象识别工具,仅用于法律目的。[14]Northpointe公司开发的犯罪风险评估算法(COMPAS)对犯人的再犯风险进行评估,据此给出一个再犯风险分数,法官可以据此决定犯罪人所应遭受的刑罚。然而,非营利组织ProPublica研究发现,白人更多被错误地评估为低犯罪风险,而黑人则被错误地评估为高犯罪风险,且其概率是白人的两倍。[15]该算法系统就像一个“黑箱”,它是如何得出结论,没有解释,无人知晓,它给出的只是一个冰冷的数字,这对于以正当程序著称的司法公正来说是莫大嘲讽。威斯康辛州和德克萨斯州的法院已经开始限制算法,强制要求对犯罪预测的准确性标明“警告标签”。如果不能正视算法黑箱的弊病,算法辅助决策系统引发的司法不公等问题以及随之而来的公众对其正当性的质疑,政治系统难免遭遇合法性危机。

4.算法误差与失灵会误导政治判断或涉政判断,引发意外未知风险。一是,算法中的数据假阳性和假阴性两类误差②的难以避免性,有可能误导政治性判断或涉政判断。假阴性与假阳性来源于数据统计学中的基本错误率,“在一般的数据统计中,数据的假阴性与假阳性可能无足轻重,但是在司法程序中,即使是再轻微的数据偏差,都有可能造成事实认定错误及司法不公,尤其是‘假阳性’错误可能将无罪之人认定为有罪。”[16]美国的“禁飞系统”曾将无辜者误判断为恐怖分子,从2003年到2006年至少发生过5000次识别错误。二是,算法中的大数据傲慢(Big Data Hubris)现象也会误导官方决策。2008年谷歌推出了“谷歌流感趋势”(GFT),这个工具根据汇总的谷歌搜索数据,近乎实时地对全球当前的流感疫情进行估测。2009年在H1N1爆发几周前,它成功预测了H1N1在全美范围的传播。然而,2009年,GFT没能预测到非季节性流感A-H1N1;从2011年8月到2013年8月的108周里,GFT有100周高估了CDC报告的流感发病率。大数据在帮助公共卫生事业方面具有巨大的潜力,但如果没有足够的背景信息,仅仅靠数字可能会误导官方做出错误决策。[17]三是,算法失灵可能导致意外的政治风险。2009年,由于英国国家卫生系统的乳腺癌筛查调度软件“算法错误”,45万名68岁至72岁的英国女性错过最后一次乳腺癌筛查,可能导致多达270人因此提前离世,引发公众愤怒。虽然目前披露出的此类事件较少,但在其他领域,算法失灵导致的意外风险并不鲜见。2018年2月,美股曾出现“闪崩”,蒸发了上万亿美元的市值,机器算法被认为是罪魁祸首。随着算法在政治领域中的广泛应有,算法失灵的风险概率陡增。

5.在政治传播领域,算法武器化引发的安全风险正成为各界关注的焦点,它不仅威胁一国政治稳定,更危及世界和平。虽然算法尚处于“弱人工智能阶段”,但已经展示出强大的威力,这也促使越来越多的个体、组织与国家频繁运用算法来实现其目的,算法的武器化已经成为世界和平的现实威胁。一是,通过社交媒体算法散播的假新闻正祸乱全球,如果假新闻是中伤对手、攻击敌国的子弹,那么,社交媒体存在漏洞的算法就是被利用来发射子弹的枪械。假新闻泛滥会导致社会分裂、经济动荡、政治冲突,而且成本低廉。趋势科技(Trend Micro)采集的数据显示,能影响大选结果的假新闻全程服务费用在40万美元左右,能煽动民众上街游行的假新闻服务费用在20万美元左右。在假新闻肆虐的美国,“近年来,围绕着移民、医保、税收等一系列攸关美国民生的政策议题,共和、民主两党纷争不断,治理僵局屡屡显现。”[18]二是,一些政治性数据分析公司利用非法获取的大数据对受众心理的精准测量与恶意利用。他们分析的是人的心理特征,而不是人口统计学特征,在固化受众认知图式的同时,也把他们变为可以利用的工具,为其散布的假新闻助纣为虐。美国大选期间,特朗普曾聘用政治AI公司——剑桥分析,它非法将大约5000多万Facebook用户的信息用于大数据分析,从而精准刻画这些用户的心理特征,并向他们推送定制广告与假新闻。“剑桥分析将美国的人口分为32类性格特征,并集中关注17个州。基于一个App应用,每一位特朗普竞选团队的游说者都可以精准了解到每栋房子中的住户的性格、喜好,总之,他们对你会不会投票了如指掌。”[19]三是,假新闻制造国际危机,威胁世界和平。2016年美国大选中的“通俄门”尚未落幕,假新闻引发的国际危机就不断接踵而至。巴基斯坦国防部长阿西夫也被网上一则假新闻欺骗,误认为以色列要对巴基斯坦发动核攻击,因此对以色列发出核威胁。更严重的是,越来越多的国家领导人开通社交媒体账号,一旦类似特朗普“推特治国”风格的政治领导人的用户名被黑客窃取,很有可能产生可怕的风险。四是,2017年12月,美国废除了“网络中立”原则,不仅可以影响社交媒体改变算法迎合当权的政治党派,也赋予美国改变网络政治信息传播游戏规则的权力。实际上,“谷歌已经改变了算法,以确保搜索引擎排名的重要左翼网站正在下降。现在越来越难以找到其他新闻来源,因为它们正在被隐藏起来。”[20]同时,由于美国是IPV4网络的控制国家,主要根服务器都在美国境内,世界上所有国家的网络地址都是由美国分配的。之前由于“网络中立”原则的限制,美国不能随意对其他国家的互联网进行阻拦,但“网络中立”原则被废除后,这使得美国在政治信息战等领域处于绝对优势地位,它可以限制对美国不利信息的传播,而大肆传播对敌国的假新闻,甚至是直接掐断所有网络,加剧国际局势紧张。


三、算法政治风险的发生逻辑


为了避免偏见,发明了算法,让大数据帮我们做出判断,但算法偏见的频频涌现却难免让人们对人工智能侵犯公众权利、引发政治风险产生忧虑与担忧。因此,明晰算法政治风险的发生逻辑,对于其治理及发展前景无疑具有十分重要的意义。算法政治的风险主要存在于两个领域,一个是基于算法自主决策系统的辅助政治决策领域,一个是基于算法的政治传播领域。然而,它们的发生逻辑却是迥异的,前者主要由算法的内在缺陷引起,后者则是算法应用的副产品,是政治传播的产物。洞悉算法政治风险的发生逻辑非常关键,这既是理解算法政治风险何以发生的内在机理,又是预防与治理算法政治风险的前提。

1.算法辅助决策系统风险的发生逻辑

算法辅助决策系统风险的发生首先源自算法设计的主观层面,一般来说,主要有三方面的原因:一是,算法研发者的偏见是引发算法偏见的首要因素。算法及其决策程序是由它们的研发者塑造的,这意味着研发者的价值观、偏见都会反映在写入的代码上,这些被输入了偏见、披着科学外衣的算法会大量生产分配,造成政策不公等严重政治后果。英国达勒姆警察局开发的“危害风险评估工具”(HART)就曾把邮政编码作为建立再犯模型的依据,“涉嫌”歧视穷人。“真正令人担忧的不是模型本身,而是用来构建模型的预测因子。”[21]二是,机器学习算法通过选择与各种行为相关联的数据中的显著特征(变量)来工作,如果算法研发者在设计算法时思虑不周,未考虑种族差异、文化差异、区域差异、国别差异,都可能会导致偏见、歧视等不公平行为发生。谷歌公司的图片软件就曾错将黑人的照片标记为“大猩猩”,Flickr的自动标记系统亦曾错将黑人的照片标记为“猿猴”或者“动物”。三是,算法研发者的技术思维,缺乏对某种算法相应知识背景与价值规范的深入理解,不一定能够把此领域的规则与语言用数据算法表达出来,从事程序设计的工程师,即便本身没有种族、性别、年龄歧视等倾向,也有可能造成偏见。

算法辅助决策系统风险的发生还源自算法设计的客观层面,主要是:一是训练样本大小、平衡与否都会高度影响算法的准确性。机器学习算法是统计估算方法,通常与训练数据样本大小成反比。因此,训练样本首先不能太少,太少的数据不能代表数据的整体分布情况,利用模型学习到的结果就有可能是错误的,因为样本不足的情况下,规则会有很多。样本不平衡③也会使机器学习算法的表现变得比较差。此外,训练数据质量与数量欠佳,对算法的应力测试不足,应力测试方法选取不合理,都会影响算法的精准度。2018年,谷歌Arts & Culture被指责种族偏见,很多有色人种发现,与他们匹配的作品带有固定的偏见,如有色人种常常是奴隶、仆人等,而女性则是色情小说中的角色。很重要的一个原因在于:Art & Culture涵盖的艺术博物馆分布偏差,欧美国家数据占据主导。二是,混杂的协变量。④算法设计者通常选择从其处理过的数据中删除敏感变量,试图使系统结果无偏差。然而,机器学习却可以通过概率推断隐藏变量,例如,使用邮政编码来推断(作为概率替代)收入,这种能力对数据隐私和匿名有强烈的影响。这使得传统的数据隐私和匿名方法不再可行,现代机器学习算法能够轻松且强大地重新识别数据。[22]三是,被欺骗的奖励功能。机器学习中的奖励功能来自行为主义心理学,这些功能是目前人造学习系统学习正确行为的主要手段,奖励函数量化奖励或惩罚好或不好的行为与决定的程度。机器学习算法通过奖励或惩罚来学习怎样选择能产生最大积累奖励的行动,这种行为主义学习方法容易被玩弄。比如,微软开发了Tay聊天机器人,它旨在学习如何通过复制网民的语音来模仿他人。可仅仅在试用24小时后,它就被引入歧途,成为支持种族灭绝的反女权主义纳粹分子。四是,机器学习的局限性:不问因果只关问相关性,只做归纳不做演绎。现在人工智能领域陷入了概率关联的困境,各种新的成果本质上不过是重复简单的“曲线拟合”工作,人们应该更关注人工智能中的因果推断,[23]算法引起的公共决策领域的不公平多源自其简单的关联性。

2.社交媒体时代算法传播假新闻风险的发生逻辑

第一,认知缺陷是假新闻泛滥的前提。人类的大脑存在着许多与生俱来的缺陷,这些缺陷使其极易被“精心包装”的假新闻诱惑,反过来也促进了假新闻的滋生与传播。默西尔与斯佩贝尔指出:“人类不会随便相信他人。如果将他人的观点摆在我们面前,我们很容易发现他人观点的缺陷。然而,几乎可以肯定的是,我们却盲目相信自己的观点。”[24]很多时候,假新闻杜撰的故事只要符合我们的一般想象,便会很容易上当。“如果你已经开始相信一个东西了,所以你就会主动寻找能够增强这种相信的信息,乃至不顾现实。一旦我们有了某种偏见,我们就无法改变主意了。”[25]这个毛病就证实偏见(confirmation bias)。麻省理工学院数据科学家的一项联合研究表明,人类要对假新闻的病毒式传播负责,而非机器。该研究显示,含有虚假内容的推文在Twitter上传播给1500人的速度比内容真实的推文要快六倍。[26]这项研究不仅展示假新闻的强大传播力与巨大危害性,也揭示了人类喜欢传播这类不实消息的倾向。

第二,社交媒体沦为政治性假新闻的孽生地与“内容农场”劣质新闻的集散场。社交媒体广告“按点击次数付费”模式让发布高点击率的内容成为一门有利可图的生意,催生了大批职业造假群体,他们恶意利用社交媒体有漏洞的算法牟利,并建立了完整的产业链。马其顿小城韦莱斯当地人创建了100多个美国时政网站,这些内容农场为牟利大肆造假,他们捏造的假新闻在Facebook等社交媒体上被大量转发,使得社交媒体迅速沦为假新闻的孽生地与“内容农场”劣质新闻的集散场。假新闻若要感染一个人容易,若想感染空间差异分布的一大群人则难上加难。但智能推荐算法很好地解决了这个问题:一方面,它驯化了海量资讯浪潮,选优集粹,迎合了受众的新闻消费需求;另一方面,它能挖掘用户的历史信息,获知用户的兴趣,对用户进行“数据画像”,搜索结果反馈的是用户最感兴趣的东西。在信息爆炸时代,智能推荐算法的诞生本身不是坏事,问题在于:基于算法推荐的商业媒体平台不加辨别地推荐一切网络信息,信息“把关人”缺席。更令人忧心的是,由算法大肆推荐的“内容农场”劣质新闻不仅悄悄控制了政治性议题的“议程设置”,也在潜移默化地影响着人们的政治信息消费习惯与政治心理。对于健康的民主政治机体来说,这是非常危险的。

第三,个性化推荐算法不仅扼杀了政治思考,其催生的互动仪式链也造成了群体性政治极化与政治分裂。智能算法推荐的“个性化阅读”是假新闻感染个体的主要途径,它通过用户的新闻消费偏好为其推荐内容,一些观点相近的资讯不断重复,并以夸张或其他扭曲形式重复,虽然互联网是开放的,但这种高度同质化的信息流构成的“信息茧房”[27]却是一个相对封闭的传播环境,把不同的观点以及自己不喜欢的人有效地排斥在外,艾里·帕雷瑟将这种现象称为“过滤气泡”。[28]无论多么正确的意见,“若不时常经受充分的和无所畏惧的讨论,那么它虽然得到主张也只是作为死的教条而不是作为活真理”。[29]如果受众的资讯消费长期处于这种算法的计算之下,处在信息茧房中的受众就会不断地自我认同强化。“重复虚假陈述增加了它的可信度,赋予它一种斯蒂芬·科尔伯特所说的‘真实效应的幻觉’。”[30]个性化推荐算法扼杀了公众的政治思考。但假新闻又是如何由个体感染到群体交叉感染,进而泛滥成灾的呢?算法根据受众需求的差异性,精准向特定受众群体推送某种特定需求、信息与服务。在分众化的社交媒体平台上,在证实偏见与回音室效应的作用下,用户只能看到、评论、转发认同自己偏见的新闻和观点,相同或近似偏好的“好友”相互强化,当高度的相互关注与高度的情感连带结合在一起,情感感染力渲染出一条充满情感能量的“互动仪式链”,一种被扭曲了的群体认同悄然形成,群体认同不仅塑造了内群体身份,也形成了强大的信息隔离与排他的拟态环境,“结果,情感状态变得越来越强烈,也更有支配性;而相反的感受被主要的群体感受驱散了”。[31]相较于自然灾害、涉恐、科学与财经等领域的假新闻,虚假政治新闻传播速度之快、范围之广更为明显。[32]隐藏有某种政治目的的假新闻无不试图操纵公共舆论,影响政治议题,干扰政策制定。政治性假新闻塑造的内群体犹如一个个彼此敌视的“政治部落”,[33]不仅制造政治分歧,公共舆论“巴尔干化”,更危害政治团结与政治认同。以美国为例,“自20世纪90年代以来……民主党人和共和党人在政府角色、种族、移民等问题上的分歧和对立也达到了历史的最高点。”[34]政治极化现象愈益严重,各种极端群体和极端言行急剧上升,右翼本土主义、民粹主义猖獗,两党分歧愈难弥合,政治生态恶化。

第四,后真相时代,在“理性的非理性”心理作用下,假新闻塑造的政治偏好遮蔽了真相。公布真相是否可以“立竿见影”地遏制假新闻呢?研究结果表明,公布真相对于认知能力高的人来说是有效的,但“即使在最佳情况下,不正确信息的初始影响也不能简单地通过指出这些信息是不正确的来纠正,特别是在认知能力相对较低的人群中”。[35]原因就在于:社交媒体等符号系统对人的认知结构的“改造”。符号是现代社会最重要的传播和交往载体,符号化倾向也是现代社会的重要特点。社交媒体等新媒体的迅速崛起在很大程度上恰恰加速了人的符号化倾向,这深深地影响着人类社会交往领域,社交媒体时代的人们都是在“符号的掩护下并在否定真相的情况下生活着”。[36]符号化传播的双面性也体现得淋漓尽致:一方面,符号活动日益消解人的真实存在,人与人之间的关系逐渐被符号关系所取代,人逐渐被符号化并被其所支配;另一方面,符号化倾向也加速人的异质化,异质化的人热衷于以“所属群体的象征符号”通过贴标签方式把符号化思维与行为推向极致。卡普兰认为,人们在精神上存在着偏好,即对某种信仰或观念上的偏好。在社交媒体时代,政治性假新闻塑造着公众的政治偏好,在正常市场条件下,选民“愿意并且能够在没有非理性的情况下生存。而在正常的政治条件下,他就脱去了理性的面纱”。[37]李普曼也认为公众主观上具有“刻板印象”的思维方式,“多数情况下我们并不是先理解后定义,而是先定义后理解”。[38]如果推荐算法被操纵或者被恶意利用,在政治选举等特殊时期传播大量混淆是非的假新闻,势必将给民主政治带来风险,2016年美国大选、英国脱欧公投与欧洲难民危机都很好地诠释了这一点。


四、算法政治风险的治理策略


一项新技术的健康发展与应用不仅取决于自身的不断创新与完善,更取决于人类的有效规制与引导。人工智能算法的强大威力在证明自己的同时,也带给政治管理与政治传播模式以革命性变革。但作为新生事物,它难以尽善尽美。算法政治的风险源于算法的内在缺陷及其不当使用,因此,预防与治理算法政治的风险,必须从治理算法的内在缺陷入手,推动算法技术进步,加强对算法设计与应用的立法规制与监管,方可让其成为政治管理的好帮手,而不是“麻烦制造者”。否则,最终的强烈抗议可能会阻碍一项令人难以置信的有用技术的健康发展。幸运的是,随着算法部分缺陷的暴露以及随之而来的广泛批评,人们已经越来越认识到算法治理的重要性。在各方强烈抨击之下,国际组织、主权国家、行业协会、网络科技公司乃至非营利组织都纷纷加入到算法治理的队伍中来,这对于算法政治风险的预防与治理不可或缺。亡羊补牢为时未晚,见微知著,方不失明智。

1.建立从业人员以及行业的伦理与规范。算法及其决策程序是由它们的研发者塑造的,在细节上渗透着研发者的主观特质。正如麻省理工媒体实验室专家拉胡尔·巴尔加瓦所言:“算法没有偏见,我们有。”[39]如果在算法设计开发中暗藏某种偏见或歧视,那么它可能要比潜藏于数据中的歧视更不利于政治公正。同时,即使算法“价值中立”,如果数据采集人员采集的数据不准确、数据样本存在分布偏差或在采集数据时隐入偏见,也会导致算法偏见或错误结论。因此,建立和规范算法研发与数据采集从业人员的伦理培训,强化他们的道德自律,无疑是预防算法风险的第一步。康德指出:“意志自律是一切道德法则和与之相符合的义务的唯一原则。”[40]与此同时,加强人工智能行业的伦理与规范也有助于防范算法风险。2017年,电气电子工程师协会(IEEE)旗下的自主与智能系统伦理全球倡议项目正式发布了《人工智能设计的伦理准则(第2版)》,它将人工智能伦理事项从第1版的9个方面扩充到13个方面,全球倡议项目的使命在于:确保每位技术专家得到教育、培训和赋权,并在自主和智能系统的设计和开发中优先考虑伦理问题;旨在为全球的人工智能领域的专家学者乃至决策者提供指南,以保证人工智能的发展有利于人类的福祉。[41]2017年1月,未来生命研究院(FLI)召开主题为“有益的人工智能”的阿西洛马会议。法律、伦理、哲学、经济、机器人、人工智能等众多学科和领域的专家,共同达成了23条人工智能原则,呼吁全世界在发展人工智能的时候严格遵守这些原则,共同保障人类未来的利益和安全。美国计算机协会下属的美国公共政策委员会发布了关于算法透明和可责性的七条原则:意识、获取和救济、责任制、解释、数据来源、可审查性、验证和测试,致力于解决算法歧视。[42]在加强行业合作与自律打击假新闻方面,为了弱化不同媒体和平台之间在事实核查技术和评价体系上产生的差异,建立一套通用的、透明的、可量化的新闻可信度评价体系势在必行。圣克拉拉大学马库拉应用伦理中心在新闻领导委员会的委托下,联合各媒体、平台和机构代表,设计了一套面向社交平台和搜索引擎的可信度评级体系。Facebook和Google已经与该项目签署合作协议,将应用这一评级体系,这预示着,新闻行业内部将加速专业力量整合,各方将共同努力以遏制假新闻的泛滥。

2.算法设计的优化、技术进步与可能的权利救济措施。推进算法设计的优化与技术进步是预防算法偏见与错误风险的核心步骤。可以从以下五方面入手解决:一是,加快推进人工智能算法中的因果推断研究。目前,算法引起的公共决策领域的不公平大多源自其简单的关联性,“因果推理在创建公平的决策算法上是必要的”,[43]因此,在因果推断机器学习上取得突破无疑是优化算法的重要措施。二是,构建算法研发者、数据科学家与应用领域专业技术人员之间的合作,以公共行政辅助决策算法开发为例,不妨引入学有专长的公共行政专家、一线公务人员,他们的专业知识与实践经验有助于提高对潜在的各类问题的敏感性,帮助算法工程师选择更为科学合理的设计方案。三是,采用可行的技术性纠偏方法。在使用主观数据比较集中的算法模型中,使用修正度量或相似度计算,将算法输出与期望的公平行为进行比较,执行严格的公平性约束,可以有效地减少算法不公平现象的肇生。四是,面对令人诟病的算法黑箱问题,要鼓励针对性专门技术的研发。加利福尼亚大学伯克利分校和马克斯普朗克信息学研究所的研究提出了一种能够自我解释的算法,有助于让人类理解机器学习的决策过程。这种被称为“指向和对齐”的系统可以指向用于做出决策的数据,证明为什么使用这种方法。[44]五是,“数据分布本身就带有一定的偏见性……即使男性和女性的样本在训练数据中等量分布,也可能出现偏见的结果。如果训练数据中所有男性的职业都是CEO,而所有女性的职业都是秘书,AI也可能得出女性天生不适合做CEO的结论。”[45]因此,改善数据分布与结构,增强数据正义势在必行。在现有技术局限下,使用算法辅助决策系统的公共行政部门也可以通过人工介入等机制予以补救,如果个人对自动化决定不满,则有权主张人工介入,以表达自己的观点并提出质疑,并获得权利救济。虽然算法极其复杂深奥,但忽略人工代理人的内部运作,通过算法审计的方式审查、监管决策结果的公平性,应该是前进的方向。[46]算法审计对决策者最有意义,并为人造代理人建立了一个后果主义的道德标准。

3.通过法律手段强化算法治理。算法的自动决策对公民个人权利具有重大影响,通过法律手段强化算法治理无疑是规范算法及其行业的最有效手段。在公民网络隐私信息保护方面,2008年美国伊利诺伊州通过了《生物信息隐私法案(BIPA)》,要求私人信息采集前需要明确提醒用户并征得同意。2015年,美国加利福尼亚州通过了《加州电子通信隐私法案》,这是数字隐私法律的一个里程碑,它要求加州警方在获取公民的身份、所处位置、亲属关系和工作等电子信息之前,需要先向法官申请搜查令。2012年新加坡制定了《个人资料保护法》、2015年日本制定了《个人信息保护法》,越来越多的国家加入到公民网络隐私信息的立法保护中来。在算法立法上,欧盟无疑走在前列,而且是最严格的。2017年2月,欧盟议会通过一项决议,就制定《机器人民事法律规则》提出具体建议,并要求欧盟委员会提交关于机器人和人工智能民事责任的法律提案。2018年5月25日生效的欧盟《统一数据保护条例》(GDRR)在1995年《数据保护指令》的基础上,进一步强化了对自然人数据的保护。它将个人敏感数据排除在人工智能的自动化决定之外,要求增加数据使用者在个人数据收集时的透明度。当自动化决定将对个人产生法律上的后果或类似效果时,除非当事人明确同意,或者对于当事人之间合同的达成和履行来说必不可少,否则,个人均有权不受相关决定的限制。如果个人对自动化决定不满,则有权主张人工介入。2017年12月,美国纽约市议会通过了《政府部门自动决策系统法案》,这是美国针对人工智能算法进行立法监管的首个法案。根据该法案,纽约市将成立一个由自动化决策系统专家和受自动化决策系统影响的公民组织代表组成的工作组,专门监督市政机构使用的自动决策算法的公平性、问责性和透明度。此外,爱沙尼亚政府公布了人工智能法案,赋予人工智能法律地位,使其成为人类的代理人,并确定其在事故中的责任问题。韩国国会议员也提出了《机器人基本法案》,旨在确定机器人相关伦理和责任的原则,应对机器人技术的发展带来的社会变化。立法规制人工智能算法正得到越来越多国家的呼应。在立法打击假新闻与规制社交媒体公司方面,2017年6月,德国通过了《网络执行法》,规定Facebook等社交媒体未能在24小时内删除“显而易见的非法内容”,将被处罚巨款。英国、法国等国家也在加紧推进相关立法工作。

4.以提升公众的算法素养对抗算法偏见,以提升民众媒体素养打击假新闻。虽然要求公众了解所有算法的内部工作原理是不可行的,但给其教导一种健康的“知情怀疑论”则是必要的,“在算法时代必须养成提问的好习惯”。[47]让受过良好相应教育的公众理解算法可能会导致不公平的结果将是有益的。同时,更多披露由人工代理人辅助的决策和行动,把算法素养与算法决策清单的透明度相结合,可能会非常有效。[48]面对假新闻的泛滥,“媒体素养已成为打击‘假新闻’的重要重心,从教育者到立法者,慈善家到技术人员等各种各样的利益相关者已经将大量资源推向媒体素养。”[49]在美国很多州,从小学到大学,一些教师已开始教导学生如何辨别假新闻。美国的华盛顿、康涅狄格、罗德岛、新墨西哥等州已经推行或通过公共学校系统法案,教导学生了解被喻为民主关键的媒体素养技能,以遏制假新闻的泛滥。在以色列,海法大学设立了媒介素养新课程,以期使年轻人提高辨别信息的能力。此外,英国、芬兰、加拿大、新加坡、拉脱维亚、印度尼西亚等国家也都在进行媒介素养教育,以提高民众的媒介素养,遏制假新闻的传播和影响,这对于算法在传媒行业的健康应用无疑是非常有益的。


五、结语


“虽然许多不确定因素仍然存在,但很明显,人工智能将在未来的安全形势中占据显著位置……人工智能、数字安全、物理安全和政治安全是深深联系的,并且可能会变得更加如此。”[50]以色列历史学家尤瓦尔·赫拉利在《未来简史》中曾不无忧虑地认为,人类的进程其实是由算法来决定的,在未来,人类的生化算法将被外部算法超越。[51]算法政治时代到来是人类之福还是人类之祸?“一千个读者心中有一千个哈姆雷特。”但有一点是明确的:科学技术是一把双刃剑,算法给政治管理与政治决策模式以革命性变革,在公共行政领域,人类之前无法有效完成的复杂任务“迎刃而解”,但伴随而至的歧视、偏见也给人们带来了无数的烦恼与无尽的担心与忧虑。历史一再表明,技术进步恐惧症是人类的老毛病,从水力纺纱机到打印机无不如此,但它们的出现无不深入地改变了人们的生活。技术恐惧要不得,但技术拜物教同样要不得,对于伴随科技发展而来的弊病,必须要有明智的认知,并采取有效措施来解决、控制它。因此,对于算法政治来说,重要的不是拒斥它,最好的做法是:面对它,接受它,处理它。换言之,既要摒弃官僚制,又要清醒地认识到“算法拜物教”的危害,防止为算法所控制,更要扬长避短,在算法的协助下不断探索公共服务新方式与制度创新,要做“有使命感”的政治人,“服务于公民,而不是服务于顾客……重视人,而不只是重视生产率”。[52]同时,算法既给政治决策带来确定性,也容易因为系统“BUG”或被黑客攻击产生不确定的意外风险,应用范围越广,风险越高,尤其是在关键的政治部门或事关全局的高价值领域,因此,必须提前准备好应对预案。如此,方是算法政治风险的善治之道。

注释:

①一般来说,算法黑箱包括三种形式的不透明性:因公司商业秘密或者国家秘密而产生的不透明性,因技术文盲而产生的不透明性,以及从机器学习算法的特征和要求将它们有效适用的测量中产生的不透明性。参见Jenna Burrell,"How the Machine 'Thinks':Understanding Opacity in Machine Learning Algorithms",Sep.15,2015,https://ssrn.com/abstract=2660674.

②假阳性误差指的是把不具备你所指特征的对象当作是具备这种特征的对象;假阴性误差指的是把那些本来具备你想要确定特征的对象,当作是不具备这些特征的对象而放过了。

③样本不平衡,就是指在分类问题中,每一类对应的样本的个数不同,而且差别较大。

④在实验的设计中,协变量是一个独立变量(解释变量),不为实验者所操纵,但仍能影响实验结果。



    进入专题: 算法政治   发生逻辑   算法偏见  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 政治学 > 政治思想与思潮
本文链接:https://www.aisixiang.com/data/117906.html
文章来源:本文转自《厦门大学学报:哲学社会科学版》2018年 第6期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统