刘永谋 谭泰成:算法伦理研究的方法论反思

选择字号:   本文共阅读 12500 次 更新时间:2023-05-27 11:10

进入专题: 算法伦理   方法论   结构化   形式化   批判化  

刘永谋 (进入专栏)   谭泰成  

 

〔摘要〕算法在推动社会治理智能化的同时须加以伦理引导。目前的算法伦理研究提供了三种主要方法:结构化方法有助于揭示算法伦理规范的作用方式,其实质是明确算法伦理的规范性框架;形式化方法从外在规制转向内在价值设计,其实质是实现道德算法设计;批判化方法旨在揭示算法伦理规范中的知识与权力运行,其实质是对算法权力展开多维度的伦理批判。从方法论层面看,算法伦理研究应该注意既有方法的优势互补,促进深度的案例研究,强调中国情境,尤其要平衡算法伦理与治理,辩证看待赋权与祛权等问题。

〔关键词〕算法伦理 方法论 结构化 形式化 批判化

 

“算法”指计算机通过给定指令完成相应任务的有限操作步骤及应用程序。随着智能革命的兴起,算法的广泛运用引发越来越多的伦理问题。所谓算法伦理是将伦理道德融入算法系统生命周期,为算法研发提供的基本规范及原则。算法伦理研究旨在探讨相关规范及原则的适用性及实现路径。目前算法伦理研究在各个方向上都有所涉及,例如,通过技术路径提升算法透明度和可解释性,通过价值或法律路径避免算法歧视、实现算法公平、增强算法信任或算法问责力度,以及通过形成制度性框架确保伦理规范的执行力等。但也存在一些问题。其一,跨学科整合不力。尽管计算机科学家、社会科学家、技术哲学家和伦理学家们都对算法伦理问题抱有兴趣,但技术、历史、政治学、传播学、管理学等各种方法的应用,没有很好地整合起来,这些方法相互割裂,有时甚至有矛盾。其二,与实际脱节严重。尤其在国内,很多研究者对新科技的进展了解不够,对互联网企业的目标、用户的诉求和政府的调控政策不清楚,他们把算法伦理简单地视为传统伦理分析方法在算法领域的直接应用。其三,算法伦理与治理被割裂。显然,算法伦理研究既是为了发展伦理学,更是为了应用于现实以调控新科技的发展。所以,必须把两者紧密结合起来。最近,国家提出科技伦理治理,正是要努力改变这种情况。

因此,我们需要对研究现状进行总体的方法论反思。既有的算法伦理研究方法大致可归为三类:以明确相对稳定的算法伦理框架为目标的结构化方法,以实现智能体的道德推理或道德算法设计为目标的形式化方法和以揭示算法权力异化为目标的批判化方法。三种方法各有所长,需要仔细加以厘清。这将有助于以深化算法伦理研究,从而更好地引导和赋能算法治理活动。

一、结构化方法

算法伦理旨在促进算法安全、透明、公平、信任,避免算法歧视,但这些伦理规范如何得到实现?这就需要形成相对稳定的伦理框架,以确保算法治理有价值规范可循。为满足不同需求,研发者在社交媒体、电子商务和新闻平台之间不断调整代码,从而使算法生态系统愈加个性化。结构化方法旨在揭示算法伦理规范之间的层次和稳定性。

(一)聚焦不同伦理规范之间的作用方式

从结构化的视角来看,算法伦理规范包括支持价值(准确性、所有权)、中间价值(问责、透明、公平和隐私)和终极价值(自主)。其中,准确性能够支持问责、透明、公平和自主的实现,提升算法精确性意味着要求更加完整的数据样本以及更加公开透明的源代码,但透明度与知识产权之间存在紧张关系。企业为保护算法研发的知识产权和竞争优势不会主动选择公开源代码,因而不利于问责和提升算法透明度。结构化方法为认识和理解这些伦理规范的作用方式提供了认识论—规范性的分析工具。除此之外,还有描述性—规范性—反身性的分析工具。

以上两种分析主要关心数据质量与算法推论合理性之间的关系,规范性和反身性部分侧重于由算法自动化决策直接产生的影响,这两种结构化方法在内容和目标上有关联,可以最终整合为“描述性—规范性”结构。规范性分析或“中介价值”(问责、透明、隐私和公平)可转化为提升数据质量和透明度的描述性分析或“支持价值”。要确定某种算法治理在运用中是否存在偏见歧视,关键在于检查数据样本的输入和描述模型输出的结果。为确保算法的隐私保护和公平,伦理结构化最终会将规范性问题转化为隐私计算和公平计算这类技术性或描述性问题。

从提升数据质量、算法透明度和可解释性的技术层面上看,描述性分析优先于规范性分析。从审视算法歧视和确立问责机制的价值层面看,规范性分析优先于描述性分析。然而,透明度是否转化为问责工具取决于制度背景、权力结构和问责的需求等因素。尽管数据样本的可靠性和透明度有助于描述、界分以及规制不同类型、不同作用方式以及不同场景中的算法歧视,但歧视本身以及对歧视的描述,通常已经被嵌入既有文化、社会和政治背景中的价值预设,这就使得个体在感知透明度或可解释性方面存在差异。如何从对于数据质量、透明度和可解释性的描述性分析过渡到对歧视、自主、道德责任和公平的规范性分析,仍需要更具体的经验支持。

(二)伦理规范的结构化框架

算法可靠性是伦理结构化的底层逻辑。可靠性意味着输入相同数据后,算法可以在不同情况下做出正确预测,其计算结果应能够被独立评估、确认和重复。一些算法之所以会将黑人错误地识别为大猩猩,是由数据样本质量低、不完整和权重设置有偏差所致。如果原始数据集中白人的图像占多数,将导致对非白人的较低的识别准确率。深度学习算法往往因过于复杂而难以重复计算结果,为保证算法可靠性,当捕获的数据不能直接使用时,工程师通过使用其他相关数据来替代未被捕获的特征,例如国外社交媒体通过“点赞”来识别用户的种族、性取向或政治立场,银行、保险公司和零售网点则根据社会关系数据来定位潜在客户。

如果算法不可靠,就会产生偏见,算法偏见由社会偏见、数据偏见和模型偏见的相互作用共同构成。例如用于预测警务算法训练的数据及其参数权重,挪用了犯罪率与性别、族群、生活状态的统计关联假设,警察在执法时区别对待某些个体或群体,数据偏见和模型偏见又放大了既定的种族偏见。又如,贷款算法基于统计学关联来评估新的申请。如果大多数含有特定邮编的申请在之前没有得到贷款,算法就会学习这些不成功的且含有相同邮编的申请,并将其作为新的数据输入,从而导致数据偏见与社会偏见的循环。

如果可以基于已知数据及其特征确定算法决策的内容,在变量取值与预测结果之间建立因果联系,那么算法就是可解释的,从而是可靠的。但实际上,很多治理活动必须“在增强系统的可解释性(这可能降低其准确性)和增加其准确性(以可解释性为代价)之间进行权衡”。因此,透明度设计需要结构化方法来评估算法系统的目标、实现方法、使用范围等,例如研发及管理者是否向公众表明治理目标(价值透明度),这个目标如何转化为编程语言(翻译透明度),算法如何实现该目标以及如何评估该目标(性能透明度)。可解释性与算法技术特性相关,透明度则是这种特性的实现程度。

增强算法问责力度与信任是伦理结构化的制度实现方式。算法可作为问责的技术手段,例如,预测警务算法可以通过收集警察执法行为的数据来及时预测和干预不当执法行为。当用户信任算法系统时,他们愿意与系统分享更多的个人数据。而更多的数据可以改善预测分析步骤,提供更准确的搜索结果。此外,保护隐私及数据安全是增强问责和信任的重要内容,但不能通过定义一般性的隐私规范来管理所有类型的数据。例如,临床算法决策导致医疗人员和患者不能充分评估和预测健康数据在医疗系统中的全部用途。这表明传统的知情—同意机制不能保护同意者的所有权益,算法推荐的服务条款不起实质作用,甚至侵害权益和瓦解信任。

(三)算法伦理结构化的主要问题

结构化方法的问题在于忽视了知识—权力关系对算法伦理规范本身的影响。开发者和管理者需要向利益相关者提供一般性的公平观念以及计算方式,因而既要调查公众对于公平和隐私的理解,又要将这些公平或隐私价值还原为技术设计和隐私计算问题。米歇尔等学者指出,这增加了利益相关者参与算法系统设计的认知及行动成本。并且,对公平的测量及其算法设计并不仅仅是技术任务,更是价值选择问题。因此,算法公平须在治理维度上得到解决。例如对于临床算法运用的争论,通常局限于描述算法如何替医生和患者做出决策的透明度和可解释性问题,而忽视了医生和患者之间的知识—权力关系。这种关系恰恰塑造了临床治疗的技术选择、医生专业自主性与患者权利诉求之间的制度安排。

二、形式化方法

伦理结构化属于外在规制,这种方法忽视了算法的内在价值设计及道德调节维度,从而使道德评价以外在于技术的方式进行。为了在技术上将伦理道德嵌入系统,算法伦理形式化研究旨在让算法“向善”以及能够进行合乎道德的推理及决策,从而使算法决策符合社会道德价值。因此,所谓伦理形式化就是在算法建模、编码和数据训练中选取相关道德原则或模型,进而设计出一种道德算法,其实质是教会算法在具体环境中进行道德推断及决策。

(一)形式化方法转向内在价值设计

形式化方法试图将外在的道德评价内化为道德算法设计,通过机器学习大量读取、训练和学习行动者的价值观和道德偏好数据,进而生成机器的道德推理模式。在现实中,形式化方法被运用于自动驾驶设计,通过数学逻辑运算将道德原则编码,验证算法系统的技术有效性,让算法按照既定的道德理论进行推理及决策。在此意义上,算法系统成为形式化的智能体(moral agent)。受行动者网络理论影响,技术伦理研究将技术的载体视为具有道德的行动者,从“属人”转向“属物”的对称性伦理。例如,“价值敏感设计”理论为实现道德算法设计提供了一种将价值形式化的具体方法。该方法在让利益相关者参与早期的算法设计阶段,将他们的经验技能和隐性知识纳入算法系统的计算和形式化分析过程,从而优化算法设计,重新调整利益相关者的目标并将其形式化。

伦理形式化方法凸显了算法系统与人、道德环境产生交互学习的重要性。以“分布式道德”的形式化框架为范例,研究人员开发出“社会化AI的强化学习框架”。伦理形式化过程需要融合感知、情感和推理,基于符号主义推理的道德专家系统在一定程度上具有可解释性,但深度学习网络的道德试错模型面临着可解释性和透明度问题。从功能等同性来看,即使算法能够取代人类的决策任务,能够模仿道德行动的算法对一组指令做出反应,但指令只能作为道德行动的功能性解释,而不能成为道德代理本身。因此,这可能并不足以帮助我们更好地理解算法或者构建更好的问责制度。

(二)道德算法的形式化设计

功利论算法模型基于自上而下的符号主义进行推理,效益最大化是其核心道德原则,它要求计算出智能体在进行道德推理时需要的所有实时的和必要的信息。例如,对于一个搜救机器人来说,如果它发现时间或资源不充足,只能拯救部分人,而它又必须做出道德决定,那么它就会依据最小值最大化、平均值最大化或总值最大化来计算出每个人的生存概率,从而获得某种最大化的功利计算结果。在义务论或契约论算法模型中,其核心原则是平等地尊重每个人,而非舍小求大。例如,基于罗尔斯道德理论的优化自动驾驶碰撞算法通过计算乘客在每次车祸中的生存概率来预测每位乘客在初始公平谈判状态下会同意哪种行动。

谷歌、优步、特斯拉等大公司在进行自动驾驶研发时,会综合考虑如何将这些道德模型嵌入设计中,以应对不同的道德推理场景。这些公司将汽车系统联结起来以实现信息共享,测试当不同的自动驾驶汽车产生碰撞时,系统会如何做出道德推理及决策。例如在一组联网的自动驾驶汽车的碰撞场景中,两辆车能够同时做出决定。如果车辆A将与行人或车辆B相撞,两辆车可以同时决定是否调整自己的位置,以优化由此造成的碰撞伤害。这种混合决策考虑了车辆可获得的收益,但不会改变用于优化碰撞的基本算法。它会使用最小值最大化、后果论或义务论等原则来决定哪个决策是最好的。但是,它需要耗费时间成本来计算出相应道德算法模型的生存概率。

与自上而下方法不同,基于机器学习数据样本标注的道德强化模型通过“试错”让算法系统学习和生成道德经验或直觉,进而生成一个协同人—机决策的人工道德环境。算法系统在这个环境中接受函数奖励及强化学习,输出合乎道德的决策。科林·艾伦认为,这类形式化设计需要“创造一个环境能让智能体探索自己的行为方式、去学习,并且在做出道德上值得赞扬的行为时得到奖励”。具体来看,强化学习包括道德知识嵌入和函数奖励。首先,由机器学习获得的道德数据被编码为奖励函数,奖励函数被纳入算法系统的学习环境中。如果两个流程都被正确执行,那么算法系统行为就符合道德规范。其次,算法系统的推理行为与最大化累积奖励相关,算法以获得奖励函数为目标,致力于道德效用函数的最大化。这里,算法智能体的强化学习行为必须被转化为在现实环境及可能状态中都能执行的可操作策略。

形式化的道德算法设计有多种应用方式,例如通过设计共识算法、加密算法或公平算法来解决信任、隐私和平等问题。于博文等学者以网络百科为例探讨了将价值敏感设计运用于道德算法设计的可能。第一,确定利益相关者,将百科编辑的参与者、项目组织者和网络社区的价值观转译为基于规则、类别、契约和共同编辑的匹配算法。第二,创建算法模型,充分考虑利益相关者的社会和组织背景,通过定义与社区合作的方法来部署算法,例如招募编辑参与者,并收集反馈,增进其在网络社区上的讨论。第三,在交互式的计算迭代过程中收集利益相关方的反馈,优化算法设计。第四,评估算法的接受度和准确性,考虑项目组织者和新成员是否接受所设计的算法,算法是否准确地解决了社区问题以及对新成员产生的积极或消极影响。

(三)算法伦理形式化的主要问题

伦理形式化需要承担庞大的任务计算成本,它试图以技术主义思路来避免歧视和不公平。但由于机器学习受不完全定理约束,一种算法在数学上不能同时满足一组关于公平或隐私的形式化的统一定义。因此,对于这类规范性价值的形式化会忽视个体、文化及社会语境的差异。美国纽约州司法部门运用算法系统对犯罪嫌疑人进行风险预测评估,而针对该系统是否存在歧视和违反社会正义的问题,研发公司和社会组织无法达成一致理解。虽然价值敏感算法设计可以通过前期调查将相关者的利益或地方性知识嵌入算法,但从收集信息到评估他们在不同设计阶段的参与程度,均存在时间和其他方面的成本。

三、批判化方法

结构化和形式化方法通过明确算法治理规范和实现道德算法设计,为算法的技术合理性提供外在与内在的辩护。但这种辩护相对忽视了知识—权力结构。针对此,批判化方法引入权力分析,有效弥补了前述方法的缺陷。

(一)批判化方法揭示知识—权力结构

批判化方法将算法视为某种通过社会计算规则进行资源分配的知识与权力形态,这种形式具体呈现为算法管理者和研发者在设计、运行及部署过程中所获得的相对于用户的控制力和影响力。算法管理者为算法的创建提供项目机会;研发者负责设计算法模型和训练数据;机构用户主要是采购算法服务的政府、银行和企业等部门,它们负责向终端用户提供并解释系统做出的决策;终端用户(消费者)依靠这些部门给出的算法基础设施来满足其需求。在这些行动者的纠缠和博弈中,管理者和研发者的价值观从根本上决定了算法的训练数据、模型选择和部署方式,这造成了开发者和终端用户之间的不对称权力关系,削弱了用户进行自主决策的权力。

在批判化方法视角中,专家使用准确性、透明度、所有权和知情—同意等规范来描述算法系统或确定伦理责任,从而导致了一种算法理性的“魅惑决定论”。尤其在新自由主义秩序下,科技巨头使算法在性别、种族和能力方面合乎道德要求,但却忽视了资本主义更深层次的矛盾。针对此,传播政治经济学和社会批判理论提供了相对激进的对算法的批判。例如,斯尼塞克把由平台—算法权力所塑造的技术—经济—政治形态称之为“平台资本主义”:平台资本以共享之名对社会及个人数据进行全面收集和控制,掩盖新型的剥削关系和控制方式。概言之,批判化方法揭示了技术话语、技术能力和制度框架中所嵌构的知识—权力关系。

(二)以算法权力为中心的批判

批判化方法在算法伦理领域的应用,主要集中在如下4个方面。

1.算法权力的经济—市场伦理批判。科技巨头利用算法操纵市场价格,算法权力是算法与资本共谋的结果。比如,为了能在竞争中战胜亚马逊的算法软件,Boomerang公司为零售商客户提供“价格动态优化软件”,决定近百万种商品的实时定价,与竞争对手比拼降价等。由于同行业竞争对手均采用同一个定价算法,市场价格虽然得以稳定,但市场秩序却因此遭到破坏。再如,微信公众号为提升品牌价值效应和实现更精准广告投放,从“社交分发”的技术形式转向“算法推荐”,在这种平台运营策略背后,算法权力控制着平台的生产—劳动及其价值交换的形式。

2.算法权力的劳动伦理批判。算法平台与劳动者(如外卖骑手)的不对等地位加剧了对劳动者的受剥削程度。例如,“美团超脑”系统的价值体系以“效率、成本和体验”为核心,以技术价值中立为名掩盖平台的剩余价值剥削。骑手向“超脑”系统提供的位置名称、类别、坐标、分类数据对于系统的学习和精准运行至关重要,但是外卖员不会因此而得到对等的回报。骑手的劳动价值、用户的数据生产、广告商的算法推荐都被纳入平台剥削机制中。

3.算法权力的政治伦理批判。算法滥用可能引发政治风险。比如,剑桥分析公司曾被指控非法收集和滥用用户在社交平台上的数据,通过算法来预测用户的政治立场及价值观念,进而影响甚至干预政治议题设置和政治选举。在公共治理领域,算法决策取代人的决策,不仅弱化社会运行和个体决策的政治能动性,而且违背机构问责、社会参与和公众监督等议事原则。算法权力与公权力结合虽然提升了政府监管及行政运转的效率,但如果过度治理将导致公权力的滥用。政府将日常管理和决策委托给算法,可能导致“算法影子官僚”。以科学之名行“伪技术治理”之实,必将导致公众对公共治理的不信任和反感。

4.算法权力的文化伦理批判。在算法权力的规训下,人的认知和行为成为可收集、计算、预测和控制的“数据画像”。“机器真理”成为算法时代的理性形式,反对这种被视为客观的和科学的算法治理,将被权力主体视作“不合理”的行动。算法权力可能成为削弱人的主体性、瓦解社会信任和共识、催生“数据寡头统治”的异化工具,生活交往世界因此坍缩为以效率和计算为行动规则的“系统世界”。

(三)算法伦理批判化的主要问题

批判化方法缺乏建构性或建设性的维度。算法权力并不仅仅是一种单向的和静态的控制或支配模式,而是随着技术、制度框架和治理能力的改变而动态调整的。因此,算法和算法权利都是社会建构的产物。比如,算法可以用于增强民主问责,区块链分布式记账可用于重构信任关系,通过生成智能合约来优化社会治理的议程设置、投票、审查或授权机制。此外,批判化方法的算法民主化主张彻底变革平台资本主义的社会生产体系,将劳动—生产关系从平台—数据—算法的控制下解放出来,但这种激进方法提供的方案并不务实。在布鲁诺·拉图尔看来,政治是“由集体行使并构成共同世界的能力”,权力则可理解为行动者以技术为中介进行授权与转译、控制与反抗的网络“节点”。算法系统作为非人行动者将决策权委托给开发者、管理者和消费者等人类行动者,这种网络呈现为混合的、对称性的、非对象化、非二元论和去中心化的政治秩序。这种关于算法权力的对称性建构的方法反对建构一种将人与非人、伦理与技术进行二元对立处理的框架,它可以在实践层面为算法权力的伦理批判补充建构性维度。

四、若干建议

要激发算法伦理研究的现实活力,必须善于吸收和整合不同学科的研究方法。从方法论层面看,可以从如下方面着力。

(一)既有方法论优势互补

前文所述的三种方法以不同方式打通了算法伦理研究的脉络。整合三种研究方法,有助于发挥算法治理效能和规制算法权力,避免算法伦理规范在很多时候过于严苛从而阻碍创新。以网约车平台为例,伦理结构化中的透明度和可解释性能够为规范网约车平台治理提供问责手段。伦理形式化通过价值敏感算法设计方法,可以先行揭示平台利益相关者之间的价值观及利益诉求。伦理批判化则可以调节算法平台权力的作用机制,将算法优势转化为对称的权力技术。例如,订单算法为司机配单和规划最优路线,如果司机偏离路线系统就会提示,这反映了平台权力的微观作用方式。这种权力技术不是单向的,它帮助司机实现订单转换的最大效益化。如果司机为了多挣点路费故意绕远路,平台将根据系统操作、乘客投诉和平台规范来约束和调节司机行为。因此,治理权力经由算法系统委托给了平台与消费者。各个行动者共同构造了平台秩序的决策网络,促进权力在网络中健康有序的流动。

(二)促进深度的案例研究

作为一个薄弱环节,算法伦理具有滞后性,其理论往往成立于某些伦理问题出现和引起公众讨论之后。比如,普林斯顿大学人工智能与伦理研究中心进行了大量的案例研究,影响巨大。在自动化医疗保健应用研究中,人们关注合法性基础、家长制和不平等问题。在优化学校研究中,关注隐私、自主、功利主义问题。在法律聊天机器人研究中,关注自动化和主权问题。在机器招聘研究中,关注公平性、不可调和性、多样性、能力和语境完整性问题。在公共部门数据分析研究中,关注民主、保密和可靠性问题。国内算法伦理的案例研究亦有很大的进展空间,比如游戏平台对于不同年龄阶段玩家的情绪与道德生成、外卖平台对于外卖员的系统派单模式、公众的算法素养等问题,都值得伦理学家和工程师进行合作式的案例研究。这种案例研究可以拓展算法伦理研究的情境化。

(三)强调研究的中国情境

对于不同国家来说,与之适用的伦理规范和治理重点不尽相同。因此,国内的算法伦理研究应突出本土性,努力结合中国国情和中国语境,为中国新科技健康发展服务。比如,女性如何参与AI技术设计和知识生产问题,智能化排斥甚至拒绝老年人的问题,互联网企业反垄断的制度设计及治理问题,“AI失业”与共同富裕关系的问题等,想解决这些问题均须结合中国情境进行制度设计。再如,关于如何促进各方参与算法设计与调控,中国也有自己的方案。2022年,中国政府颁布《互联网信息服务算法推荐管理规定》,为确保平台、政府、社会和个人在算法治理中的多元共治提供了制度基础。随着智能治理的深入推进,针对人与人之间的信任度、社区邻里的紧密关系逐渐降低等问题,参与式算法设计可以把公众带入智能城市决策和设计中,例如在摄像头、传感器的安装和布局等,纳入公众或弱势人群的价值和利益诉求,促进公众参与社区及智慧城市治理。

(四)平衡算法伦理与治理

伦理与治理问题有区别,前者主要是社会行为准则和规范,后者是针对社会发展问题找到技术与制度上的解决办法。伦理与治理虽有不同侧重,但仅强调原则性的算法研发、使用及管理等伦理规范,或仅强调算法理性而忽视价值约束的治理,是无法回应伦理失范或治理失衡问题的。在中国,政府、智库、行业和学术界提出“科技伦理治理”框架及体系,旨在将伦理规范作为制度性的治理要素,进而解决算法伦理与算法治理这两种模式在实践中的脱节,充分发挥技术赋能与伦理赋能的共同作用。也就是说,算法伦理研究并非完全否定性的,而是要起到通过伦理调控引导新科技发展的建设性作用。段伟文指出:“科技伦理治理与其说是将科技纳入伦理框架,毋宁说是将科技伦理纳入科技的框架。”基于此,算法伦理研究应克服对算法的狭隘的道德及政治批判,转而将算法作为伦理治理的积极辅助手段,审慎对待“道德决定算法”“算法决定道德”等狭隘的技术工具论、独断的决定论观念。而算法治理对于效率和科学运行目标的重视,需要辅助以结构化的算法伦理规范或形式化的道德算法设计。面对智能拜物教等可能威胁个体自主与社会安全的潜在风险,算法伦理研究既要紧跟智能科技的发展,促进人工智能的技术创新和研究,也应以谦逊主义态度来理解技术的有用性和有限性,重视法律与伦理、个体赋权和社会参与等程序性规制,在实质层面将技术与治理、技术与人、伦理与制度结合起来。

(五)辩证看待赋权与祛权

所谓“代码即法律”是指研发者和管理者因其技术优势拥有在规则的制定和解释上的影响力和控制力,这相当于用代码构建某种社会规则。算法对他们而言是“赋权”。简言之,算法权力运行具有排斥性特征,这种排斥体现为技术“祛权”,即规定“哪些人或物可成为算法的一部分”,赋权一部分人而排除另一部分人。对于用户或者消费者而言,他们要获取服务则必须接受条款,因而处于弱势地位。基于“知情—同意”的服务条款看似“赋权”,但实际上是对用户在认知与决策行动上的权力裹挟,关于这种不对等的权力关系,虽然个人数据保护在法律制度执行中逐渐“落地”,但个体仍缺乏与算法权力抗衡和对话的有效的行动策略。这是当前算法伦理研究尤其要关注的最重要问题之一。但是,算法技术“赋权”与“祛权”所产生的不对等关系并非固定不变,而是会随着技术条件、制度框架和治理能力的调节而变化。这也是对算法权力进行伦理或法律规制得以可能的条件,例如在人脸识别技术所引发的民事诉讼案件中,个体通过相应方式促使算法权力进行动态调整。总之,要辩证看待算法技术“赋权”与“祛权”问题,既不能合理化“祛权”,也不能忽视技术“赋权”的潜力。

 

刘永谋,中国人民大学哲学院教授(北京 100872);谭泰成,中国人民大学哲学院博士生(北京 100872)。

进入 刘永谋 的专栏     进入专题: 算法伦理   方法论   结构化   形式化   批判化  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/143194.html
文章来源:本文转自《道德与文明》2023年第3期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统