郑玉双:论算法元规制

选择字号:   本文共阅读 51 次 更新时间:2026-03-16 23:39

进入专题: 人工智能   算法元规制   算法权力   算法正义  

郑玉双  

 

内容提要在生成式人工智能时代,由于算法的应用范围丰富多元,所产生的法律挑战呈现为不同维度,因此算法规制的内涵也难以确定。分析算法引发的权力异化与自动化决策、算法歧视和算法不透明等公共行政和社会伦理难题,可以看出,算法所引发的最大法律挑战在于算法规制的元层次出现困境,需要重建一种算法正义理念。通过剖析算法的技术、社会和价值维度,可以重构算法规制的结构和内涵,构建一种新兴的算法元规制理论。算法规制在法律上的可能性需要在算法与法律互动的算法正义语境之下才能实现。从保障个体权利、价值输入和算法问责等三个层面充实算法规制的概念内涵,能够建构出一种立体可行的算法规制方案。

关键词人工智能  算法元规制  算法权力  算法正义

算法社会已经从雏形走向相对成熟,算法对社会生活的影响愈发深入,引发的挑战变得更为复杂。算法应用范围越来越多元,从内容推荐、信用评估、就业招聘到司法辅助、城市管理,算法已成为关键的生产力与组织力。生成式人工智能展现出了大模型深刻影响社会认知和行为模式的能力,算法不仅是一种决策程式,更成为新型的知识革命范式,加剧了算法社会的转型。算法在改变决策和增加知识的同时,形成了隐性权力,带来算法的公共性危机。这种“算法权力”在提升效率、提供个性化服务的同时,引发了广泛的担忧:歧视加剧、隐私侵蚀、信息茧房、归责困境以及对社会公平价值观的潜在侵蚀。因此,对算法进行有效规制,引导其向善发展,已成为数字时代社会治理的必然要求。然而,算法规制进程步履维艰,面临着一系列深层次挑战。

目前学界针对算法规制的性质和结构已经做了大量探讨。一方面,算法不仅是规制的对象,同时也是规制的工具,算法既成为权力实践的构成部分,也具备了权力属性,但如何界定算法权力,在理论上存在争议。另一方面,算法规制不同于一般意义上的规制,缺乏传统规制所具有的对话和商谈空间,增加了更重的技术理性色彩。规制包含着价值和制度面向,算法规制则更突出技术和计算面向。这两种面向之间关系紧张,使得算法规制在概念内涵上游移不定。本文尝试从元规制视角对算法规制的内涵进行界定,结合算法正义这一理念,化解算法规制的价值面向和技术面向之间的紧张关系。

一、算法与算法权力扩张

算法本身是一种数学运算方式。算法如果不应用于生活场景,则具有充分的客观性和程式性。然而,一旦我们将算法应用于社会场景之中,算法就会产生社会意义。尽管算法的应用场景多元,涵盖社会生活的方方面面,而且大模型的出现使得算法(例如Transformer架构)可以承担数亿级参数的数据处理任务,但算法的运算逻辑具有一致性,即它是以某种运算程式得出结论的推导过程。尽管现代人工智能所依赖的算法类型很多,但算法在技术意义上具有相通性,可以以一种统摄性方式融入社会建构之中。算法不仅是一种技术力量,更是一种社会力量。

亨曼将算法参与社会建构的方式称为“算法治理术”:“计算机代码构成了一种算法治理术,一种思考世俗的过程和知识结构的方式——作为0和1的基本操作和复杂组合的功能结果。它将世界理解为基本上定量的、离散的、遵循逻辑的、功能主义的和确定性的。”以计算机代码为形态的算法改变了我们对世界的理解。世界运行的因果性被算法参与后的相关性所替代,展现出现代社会的独特逻辑。托塔罗与尼诺以新康德主义哲学家恩斯特·卡西尔的“从实体到函数的转变”为核心认识论框架,提出算法传递了现代理性的核心特征。卡西尔认为,现代科学思想的特征在于从实体性思维(关注事物本质与属性)转向函数性思维(关注关系与过程)。他们将这一理论延伸至社会实践领域,提出算法是函数概念在实践领域的具体形态,其逻辑基础是递归函数。递归函数(由零函数、投影函数与后继函数构成)是算法的逻辑核心。算法不仅处理数字,也处理非数字对象(如单词排序、生产流程),从而从认知领域延伸至实践与行动领域。算法是现代理性的核心体现,即通过函数性的推理关系来理解世界各个要素之间的关联。

这些独特的哲学视角并未揭示算法影响社会的全部方式,但都鲜明地呈现出算法所承载的权力色彩。算法无论是应用在私人空间之中,还是作为辅助工具运用于公共决策,都不同于一般的社会组织方式。算法在决策上具有显著优势,因此在数字平台和公共治理中发挥着越来越重要的作用,同时伴随着各种乱象。算法权力也逐渐成为引发实践担忧和学理关注的焦点。

(一)算法权力的内涵

由于政府权力实施存在偏见或滥用裁量的问题,以客观程式存在的算法在公共权力行使中体现出巨大优势,算法权力或自动化决策方式开始在公共决策领域被采纳。由于算法权力并非完全客观,很多学者担忧算法权力会出现异化问题,因此对算法权力的制约成为当务之急。然而,算法权力究竟为何会异化,以及如何应对这种异化,在理论上存在诸多疑点,也是算法规制需要回应的难题。

随着算法实践嵌入社会和政治实践的层次越来越深,算法权力的成型和深化引发越来越多的担忧,特别是算法权力异化问题成为算法研究的一个焦点。然而,克服算法权力异化所产生的各种问题,需要清楚界定算法权力的规范内涵和算法权力异化的具体体现。算法权力存在异化风险,即算法运行过程中因为算法技术的偏差而偏离了权力实践的要旨,引发不公正的结果。如果我们暂时把算法权力视为权力实践的一种形态,权力本身会异化吗?

权力是改变权力实践相对人的规范性能力,传统权力实践具有权威性、专断性和证成性三个维度。权威性指的是权力主体具备改变受众之行动理由的排他性能力,比如,政府对某一区域实施临时交通管控,意味着车辆无法在该领域行驶。专断性指的是权力实践通常是权力意志的彰显,切断了权力主体与受众之间的商谈空间。正是因为权力的专断可能会产生各种弊端,所以权力也具有证成性维度,即权力行使应当在正当性基础上受到不同程度的检验和问责。权力的三个维度在实践中会有不同程度的体现,如果权力主体充分发挥权威性,限制专断性带来的弊端,通过了权力正当性的检验,那么权力实践就是可辩护的。

算法权力的出现得益于互联网基础设施的完善、算力的大幅提升和大数据技术的飞速发展,如今算法在公私领域都得到广泛应用,“算法权力的作用直接表现为算法所产生的影响力与控制力,其深层次的影响在于对个体与社会之间关系的重塑”。正是由于算法已经渗透到社会生活的诸多方面,包括娱乐、社会、购物和部分工作领域,因此算法形成了一种隐性权力,在一定程度上塑造了人们的观念形式并支配了人们的行为选择。然而,算法权力是否拥有传统权力的结构及三个维度?

从算法介入决策与影响人们行为的方式来看,算法权力确实不具备传统权力的结构。通过算法决策展现的算法权力虽然具有专断性,但由于算法一般不会为决策创造任何自主范围,也不会追求任何超出编程或偏离编程的意图,因此算法权力通常缺乏证成性维度,算法决策的正当性很难被数据主体识别和辩论。算法决策遵循相关性并且与典型标准相关联,而非传统的因果决定论,这导致通过算法决策呈现的算法权力的权威性受损,也影响了算法决策的正当性。因此,算法权力的异化并非传统意义上的异化,而是算法权力的扩张。政治权力存在显性的实践结构和沟通意图,比如立法权力可以通过制定或修改法律文本来体现,但算法权力的实践是隐性的,算法权力的扩张也难以捕捉,这给算法规制带来了难题。

(二)算法权力的扩张

算法权力的扩张在公共实践中较为明显,引发法治问题。算法行政与法治实践的基本要求存在张力。行政实践中权力扩张有两种体现:一种是本不属于行政机关的权力,但行政机关却越权行使,比如限制商家的正常销售活动;另一种是行政机关在自由裁量中过度裁量或者裁量明显不合理。对比之下,算法行政并不同于传统行政方式,算法权力的扩张也并不体现为越权或者不当裁量。当算法嵌入行政决策过程中或者自动化决策方式开始应用时,行政权力的行使产生了两个方面的实质转变。 

第一,权力行使的价值语境发生改变。当行政机关基于特定目标的追求而行使权力时,公正和效率等价值对行政机关的目标判断和手段选择构成约束,以动态的方式维持着权力行使的商谈空间,通过行政机关的答责和救济实现行政正义。行政机关选择算法作为决策手段,本质上是通过计算的方式将行政过程的商谈空间转化为由技术理性主导的算法决策过程,其价值语境也发生相应改变。行政实践所追求的行政正义在算法的语境中并非不能实现,但价值的呈现形态和实践结构都面临着实质性改变,甚至会对依法行政、行政公开和正当程序等基本原则造成冲击。传统权力实践中的公允性和论辩性被复杂的计算和数据分析处理技术所彰显的技术理性所覆盖。决策的计算化虽然不等于法律实践的价值追求被悬置,但会导致价值论辩结构的变化,“政府在治理的进程中难免需要面对价值选择问题,而人工智能算法对于治理进程中的价值选择难题往往无能为力”。

第二,权力自动化的逻辑发生改变。自动化行政包含着两个层面,一是行政活动的电子化,二是行政决策的自动化。借助于数字化技术的提升,行政活动越来越多地采取电子化形式,比如行政审批可以线上进行,既以数据形式保留审批过程,也可以提升行政决策的效率。行政决策的自动化则强调的是由具有数据处理和分析能力的算法进行计算并给出相应结果。由于完全智能化的机器人短期内难以出现,因此随着人工智能的迅速发展,人机协作将成为人工智能应用的主流形式。在自动化行政中,人机协作主要体现为由智能系统使用算法部分地替代政府进行决策。

首先必须承认的是,自动化行政决策的确有很大优势:通过对各项指标以客观的数据形态加以呈现,借助于特定的算法输入和输出过程而得出独立于人的主观倾向和意志的决策结果,在一定程度上避免了人的专断性缺陷。但是,自动化决策的伦理区别于传统行政伦理,具有更厚重的伦理色彩,产生的伦理约束也更多,包括决策自主性、程序正当性与价值公共性三个核心维度。机器决策具有输入输出过程的客观性和结果的不可更改性等特征,一旦某个计算环节出现问题或漏洞,那么整个计算过程就会存在瑕疵,影响结果的公允性。由于算法决策适用于大量案件,歧视性的算法决策通常会产生比单个行政人员的决策更广泛的影响。而且,这种算法歧视通常会通过与敏感数据(性别、种族等)相关的行为数据来呈现。

根据以上分析可以看出,算法权力异化或者自动化决策的真正困境不在于算法技术容易异化,而是在公共决策的语境中,算法权力产生了一种新的权力实践和答责方式,无法在既有的权力格局中加以定位。

二、社会公共生活中的算法伦理困境

算法决策所引发的歧视、不透明以及权利失衡问题,反映在公共决策中,实质上呈现出算法权力异化、算法权力的答责方式和权力实践难题,在社会公共生活中还会引发伦理困境。算法不只是具有巨大的计算优势,同时也会对社会公共生活的伦理秩序构成冲击。

(一)算法的中立性

算法技术是中立的吗?就算法的运行结构来说,技术当然是中立的。但如果我们能够区分技术的功能意义和价值意义,那么算法并不具有强意义上的中立性,这意味着算法必然与现实世界中的价值世界相互纠缠。当某些社会主体运用算法来实现特定目标的时候,算法的技术内涵与社会行动的价值空间发生互嵌。这个过程既是技术意义上的,也是价值意义上的。正是因为价值判断所呈现的非中立性特征,比如对效率的追求,使得算法本身也难以中立。也就是说,算法是以附带价值的技术形态改变社会实践结构的技术力量。

然而,这里可能存在的误解是,算法的非中立性意味着算法必然会产生偏见。一方面,算法的计算和运行工作并非完全由人所掌控,而是算法基于自身计算逻辑和运行框架所作出的自主学习过程。人为将带有偏见的数据交由算法处理,算法输出的结果也是带有偏见的。这种“偏见进、偏见出”的技术处理机制并不同于人们带着偏见产生某些歧视性结果的社会决策过程。简言之,算法歧视是夹杂着技术理性的偏见分配机制。

在实践中,算法运行会产生实际的歧视和不公正等问题。对算法歧视进行分析,存在着两种可能的思路。一种思路是对算法进行价值评估,即算法这种事物本身包含着产生歧视的倾向和潜力,一旦我们使用这种技术,就要面临算法所产生的价值危机。这种担忧具有一定的合理性,发明蒸汽机的时候,人们并不会有危机感,而当算法进入私人空间和公共生活后,算法的运行原理本身即让人感到不安。算法通过对亿万级的数据素材进行分析计算,得出一个可以决定公共生活方向的决策结果,这种革命性突破对政治和法律生活构成巨大冲击。

另一种思路认为,算法在技术原理上依然是中立的,只是算法的使用者利用算法追求不公正的结果。比如,算法作为一种程式化的计算机制,对输入的内容是保持中立的,因此计算结果中可能出现的歧视或失误是由使用者所提供的数据导致的,或者说数据本身就包含着歧视倾向。承认算法本身是无法消除偏见的,更为合理的选择是,“对其限制和约束并使之透明化,即公示算法的基本逻辑和操作缺陷,以使公众明确其可以做什么和不可以做什么,以及在何种程度上算法逻辑是可以置信的”。

关于技术中立性的争论同样也可以用于分析算法歧视究竟产生于算法自身,还是算法所计算的数据。歧视可能是因为开发人员在预测分析时隐藏了歧视的动机。但是这种可能性较低,因为雇主一般不会只是为了歧视而使用复杂、昂贵的机器学习程序。比较棘手的问题在于没有预料到的歧视问题,譬如隐藏的偏见、输入错误等等。歧视的内涵太过宽泛,算法歧视的类型不断翻新,以至于超出了反歧视法可能涵盖的范围。例如,算法体系可能发现使用浏览器的偏好和更强的支付意愿之间存在强关联,从而对使用该浏览器的用户做出更高定价。这种算法应用确实带有一定的歧视性,但很难被反歧视法所涵盖。而且算法歧视背后的动机也不同于传统歧视行为。例如银行基于用户的金融活动记录进行计算,从而针对不同用户得出不同的贷款额度,这种区别对待就不构成歧视。

因此,算法所带来的挑战不同于传统科技挑战,也不能用既定的技术中立框架加以评估。一个出售菜刀的商家无法控制购买者究竟如何使用菜刀,在这个意义上可以说菜刀是中立的。但算法技术的应用并不仅限于为用户提供技术意义上的工具,而是通过算法与生活实践的反馈机制不断提高算法的学习能力和应用前景。因此,我们对算法的理解不再像菜刀那样仅限于刀刃的锋利性,而是更关注算法在应用过程中究竟如何产生社会意义,或者如何在技术意义与社会意义的重叠中做出有效区分。

(二)算法规制中的价值冲突

算法规制的价值维度在学术讨论中得到了较多关注,但算法相关的价值问题并未得到充分探讨。算法价值问题通常与算法的公平使用或算法权利相关。算法的公平使用强调的是算法在实践过程中实现各种价值之间的平衡,算法规制需要回应算法所引发的价值问题,因此规制不只是设定某种目标并加以实现的手段,而是对算法应用所带来的新兴价值问题进行回应,并将这种回应方式加以制度化的综合方案。公正、权利等价值当然是值得社会追求的,但这些价值是否能够有效地通过规制的实施而实现,结果令人质疑。按照规制理论,规制过程需要综合考量各种目标和规制效率。法律价值或许会有用,但发挥的约束力量是有限的。

首先,算法的公平使用指的是,算法在实现社会益处的同时不会带来对其他价值的较大冲击,比如算法给人们的生活带来了很大便利,但同时也产生了算法歧视和信息茧房等弊端和风险。虽然算法的公平使用成为对算法进行规制的基本共识,但公平使用的内涵是不清晰的,如何通过规制实现公平使用在实践中也存在争议。

其次,并不是所有类型的权利主张或要求都应该在制度框架中加以落实。在这个意义上,规制理论很难对哪些权利主张应当得到支持做出回答,因为规制是以确定的权利主张作为前提的,并不包含对权利是否成立的理论内容。比如,正是由于算法运行和决策的过程对人们来说是不可知或不透明的,所以很多学者建议设立算法解释权。实践中的呼声也很高,欧盟的《通用数据保护条例》(以下简称GDPR)中的规定也被视为对算法解释权的认可。然而,算法解释权作为一种权利主张,可能不具有充分的证成基础。算法解释权的主张可能会带来很多弊端,尤其是在阻挡算法决策的合理运用方面。

更合宜的方式是,在用户拒绝算法结果的主张和算法运行者的对抗之间达成平衡,通过程序的方式加以保障。有学者认为GDPR中并不包含算法解释权这种权利类型。更深层次的问题是,当算法越来越多地应用在社会和政治生活中时,传统的权利观念和体系是否也会发生相应的改变?我们要么接受技术对权利体系的革新,面对以权利换取技术优势的结局;要么为算法的应用划定权利的边界,但是需要借助权利理论来论证某一种权利主张是否成立。法律规制理论并不包含权利证成的理论主张,因此算法所引发的权利分析和保障不能纳入算法规制理论之中。

从前面的分析可以看出,既有的学术研究都突出了算法规制在应对算法挑战上的重要意义,但关于算法规制的内涵,目前并未形成定论,也没有一致的方向。目前形成的最薄弱的共识是,算法引发了各种挑战,我们应该克服这些挑战,让算法可以更好地服务于人的福祉。然而,这一思路存在两个缺陷。

一方面,我们并未完整地理解算法挑战的内涵本身,甚至对于算法挑战究竟有多大,也并未形成统一认识。平等和公正当然是法律所追求的基本价值,但通过算法代替人的决策是否会损害公正,则需要首先阐明平等和公正在算法问题上的价值内涵。例如,消除歧视是必要的,但算法歧视所需要的制度应对确实不同于传统歧视。人工智能算法与统计相关,是以过去的角度来评估未来,而规范考量是由违法事实驱动的。

另一方面,算法实践中的价值冲突在制度上很难找到完美的解决方案。例如,对于大型互联网平台来说,收集和使用用户的信息是其得以存续的关键,而免费使用平台服务的用户在让渡信息的使用权的同时,也不得不受到平台的支配。如果这是不公正的,那么平台就应该受到更多的限制。然而,平台的存在已经超越了传统的公司或组织形态,成为社会结构中不可或缺的组成部分。对平台的限制或惩罚会“牵一发而动全身”,很难确定其社会效益是好还是坏。

三、算法正义框架的建构

我们可以在算法正义的框架下来理解算法规制的价值处境和法律面向。算法正义既可以作为理解算法与法律之关系的价值背景,同时也可以作为对算法进行规制的价值指引。算法规制的起点是算法设计及其应用符合算法正义的要求。算法正义不同于传统意义上技术所引发的正义判断问题,比如汽车或计算机的发明对社会结构所产生的影响。算法正义内涵的提炼需要展示出算法技术应用的特殊性,也需要展示算法应用过程中产生的独特正义空间。

在算法的正义问题上,我们已经具备了初步的基本共识,即算法的社会应用应当与正义的要求一致,算法与法律的关系应当在一个正义框架之中展开,算法规制也要符合正义的要求,哪怕是符合人们的正义感,比如人们对大数据杀熟所产生的正义受到阻碍的情感判断。然而,在算法正义问题上,存在着两种理解其正义层面的思路。第一种思路是,我们可以在既有的正义框架之下解决算法引发的各种价值冲击和冲突,比如基于一种公平正义观,算法正义应当追求算法实践的公平性,即公平地对待算法应用的利益相关者。另外一种思路是,提炼出一种针对算法之独特属性的正义观,即能够对算法的技术应用进行价值评判,并且展示算法引发的正义问题如何不同于又关联于传统的正义内涵。

本文主张,算法正义应该聚焦于第二种思路,即算法作为一种新兴技术应用,产生了一个独特的正义实践空间,算法带来不同的技术意义、社会意义和法律意义,改变了通过技术实现价值的方式,因此应当提炼一种新的正义观。通过对算法的几个层面的内涵的分析,可以支持第二种思路。

(一)算法的技术维度

算法是一种计算方式,通过确定的计算机程序的运行解决特定问题。算法需要数据作为素材,通过对数据进行分析和处理得出可靠的结论。算法类型多样,有古老的欧几里得算法,也有新近出现且被计算机程序设计广泛采纳的贝叶斯算法等。算法本身并不包含价值色彩,但随着算法的功能越来越强大,算法便担负着改造和重构社会的使命。因此,在技术意义上,算法是中立的,其功能在于处理数据并得出结论。但同时,算法又具有超出技术意义的社会意义,主要体现在社会的计算化与算法的社会化两个方面,即社会生活被嵌入算法而呈现出计算维度,以及算法成为社会发展进程中不可或缺的构成要素。

算法的技术本质在于其形式化的知识表征能力。任何算法都始于对一个具体问题的抽象理解,这一理解随后被转化为明确的输入输出规范、确定的处理步骤以及可度量的目标函数。这种转化并非简单的“翻译”,而是一次深刻的认知重构,其中包含几个关键步骤。首先,将问题进行数学建模。算法将模糊的现实问题 (如“推荐用户可能喜欢的视频”)转化为清晰的数学问题 (如“预测用户对未观看视频的评分”) 。这一过程必然涉及对现实世界的简化与选择,决定了算法能够“看见”和“忽视”哪些社会维度。

其次,实现计算逻辑的形式化。算法的核心是一组有限、确定、可机械执行的指令集。从经典的排序、搜索算法,到现代的机器学习模型,其底层都遵循着“在有限步骤内将输入转化为输出”的同一逻辑。这种形式化确保了算法的可重复性与可验证性,为大规模应用奠定了基础。

最后,实现决策的效率与优化。算法理论的核心关切之一是在有限的资源(时间、空间)内寻找最优或近似最优解。时间复杂度与空间复杂度的概念,不仅衡量算法性能,更在根本上定义了何种规模的问题是可计算的,从而划定了算法介入社会生活的潜在边界。

传统确定性算法遵循“特定输入必然产生特定输出”的逻辑,如快速排序算法。其社会应用往往限于结构化程度高、规则明确的领域。而现代机器学习算法的核心逻辑转变为“从数据中归纳模式,并对新输入做出概率性预测”。这种转变的关键在于从传统算法的编程规则到机器学习算法的学习规则。算法设计者不再直接将“知识”编码,而是设计能够自动从数据中发现模式的结构(如神经网络架构)和学习机制(如梯度下降)。这一演进极大地拓展了算法应用的疆域,使其能够处理自然语言理解、图像识别、复杂决策等传统编程难以涉足的领域,并深度介入社会组织建构中的决策过程,因此也引发各种社会冲击和担忧。

(二)算法的社会维度

算法应用对社会交往和生产生活产生革命性冲击,改变了人的存在形态。算法广泛应用于购物、交通、社交、求职、婚恋等领域,在公共决策中的潜力也不断凸显。由于算法技术在社会中的深度嵌入,人的存在形态从自然人格转变为自然人格与数字人格并存的状态。自然人格是社会成员在交往中所形成的受尊重和保障的独立价值地位,比如人的隐私和名誉等,而数字人格则是个体参与到数字实践并受技术塑造的社会存在形态。自然人格与数字人格在技术进步初期是融合的,但在数字技术浸入社会生活的诸多领域之后,两种人格形态逐步分离,由此也引发新的社会和法律问题。个人的消费、工作和社会交往痕迹以数据的形态得以储存,社会关系也会因此而改变。

传统的商业交易是互惠意义上的,以价值交换价值,从而促进物的流通和生产力的发展。数字社会的交易则是垄断意义上的,即尽可能通过技术垄断人们的注意力并追求效益的极致化,算法成为追求这一目标的绝佳工具。人们对算法所催生的智能社会持有两种态度。一种是悲观论立场,主张算法对社会生活的冲击让人担忧,对个人独立和自主构成威胁,或者算法必然会产生歧视。另一种是乐观论立场,即认为算法应用带来改进社会实践方式的契机,只要将算法纳入有效的监管框架之下,算法就可以服务于社会福祉。

尽管很多算法规制理论并未明确提出基于哪一种态度来设计规范方案,但悲观论者和乐观论者各有支持的声音。如果面对算法的立场是悲观的,那么对算法实践应该采取极为严格的预防性态度。但这种悲观论立场容易陷入卢德主义困境,即对新技术过分担忧。乐观论者认为技术失范的主要原因在于监管体制不完善,或者相关主体没有充分发挥算法的技术优势,如果通过法律明确算法运营主体的权利义务,明确法律责任,则可以积极乐观地拥抱新型技术。

无论是悲观论者,还是乐观论者,都忽视了算法实践对价值世界的冲击。算法的价值维度指的是算法在实际应用过程中对价值所带来的改变,这种改变是双重的。一方面,算法确实对既有价值造成冲击,比如,公共决策实践要求透明,或者至少说明理由,但自动化决策无法做到透明。另一方面,算法也改变了价值实践方式,比如,获取信息的自由随着信息技术的升级、个性化推荐算法的广泛应用而得以改变。因此,需要从价值角度分析算法的挑战。

(三)算法的价值维度

人们通过法律来规范行为,并参与到价值论辩之中。法律为人的行为提供了行动理由,算法的出现改变了人的行动理由的存在形式和指引性。法律实践背后存在着一个复杂的价值世界,我们可以通过一种论辩性的方式,借助法律这种机制来反思和实现价值,比如对个人权利保护实现平等。但算法介入法律决策之后,人们进行价值分析的方式也发生了改变。

举例来说,目前学术界都在讨论算法黑箱所引发的问题,认为算法黑箱会带来严重的消极后果,因此应该打破算法所造成的黑箱,实现透明化。然而,透明是公共决策的要求,不一定是技术决策的要求。算法的计算过程极为复杂,技术上无法做到完全展现其计算过程,而且这也是不必要的。透明性的另一层涵义是让算法决策相关者理解算法决策的原理和目的,正如《互联网信息服务算法推荐管理规定》第十六条所规定的,“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”。然而,这种要求的重点并非在于算法透明,而是算法的可解释性,即算法技术对社会所产生的影响是理论上可解释的,并且具有正当性。因此,算法透明的落脚点不在于让算法公开透明,而是算法运行与目的之间能够以一种符合价值原理的方式达成一致。

四、算法元规制:结构与内涵

根据前面的分析,可以达成的一个初步结论是,算法作为新兴事物,对政府规制提出了全新的挑战。规制本身是一项复杂的公共实践工程,规制主体的设定、机构和功能的划分、规制规范的完善等构成了规制理论的主体内容。但在算法规制问题上,传统理论存在局限,算法元规制理论呼之欲出。元规制是行政规制的新型理念,但其内涵具有不确定性。传统元规制强调规制主体的多元和规制模式的创新,即不局限于强制性的管制方式。用吉拉德的话来说,元规制是过程导向的规制。目前已有研究者将这种元规制理论运用于人工智能和算法治理之中,例如强调规制分级,将政府规制与自我规制相结合。然而,基于算法的技术、社会和价值维度,算法元规制并不强调对规制主体和模式的规制过程,而是创造出一个有效驱动规制、实现价值整合、促进人技共生的元环境,通过规则与价值的互动、个体权利的有效保障、算法问责机制的完善等举措,实现算法规制的体系融合。

(一)超越规制

规制本身是追求特定目标的权力实施方案,传统规制理论强调通过规制实现目标的有效性和可行性,以及实现“社会福利的最大化”。这一要求包含着三个维度,即规制是能够实现目标的、实践可操作的,以及可问责的。这三个维度的贯彻落实,使得政府规制可以被纳入有依据可遵循、结果可问责的框架之中。然而,算法规制无论在规制依据还是可问责性上都是不清楚的。比如,算法应用中产生的不透明和黑箱问题,并不同于传统意义上技术应用(比如药物技术或转基因技术)所产生的风险。算法的不透明是算法应用必然伴随的技术附属效果,也是无法消除的。算法规制显然不能以消除算法的不透明为前提。

在可问责问题上,算法规制也缺乏一个确定的问责基础。由于算法应用所产生的挑战通常是价值意义上的,比如对潜在群体构成歧视,或者限制算法对象的特定权利,因此很难以实际社会效果作为对规制实践进行问责的依据。有学者提议建立起以事先预防为基础的算法影响评估制度。然而,如果对个人信息算法的监管和规制最终需要落实在算法影响评估制度或算法审计规则的设计上,那么我们需要更进一步反思如下问题:算法影响评估制度旨在对算法技术应用所产生的计算效果进行评估;然而,算法影响究竟是一种什么影响?是对法律运行产生的影响,还是对社会结构产生的影响?算法评估制度的构建可能会再次陷入“鸡生蛋—蛋生鸡”的困境之中。

规制是治理过程的一个环节,特别强调政府在应对社会发展挑战中以合理和合法的方式实现目标的最佳化过程。但规制实践有其限度,主要体现在政府规制受规制目标的多元化和规制手段的效率因素所制约,因此学界提出元规制概念,对规制过程进行反思,即“外部规制者有意促使规制对象本身针对公共问题,作出内部式的、自我规制性质的回应”。算法规制同样也面临元规制问题,但算法规制的元层次不同于传统规制,因为算法应用改变了政府决策方式和社会交往逻辑,产生了一个变动的价值空间。

有学者建议在平台算法的设计过程中将价值嵌入,使得算法设计过程体现出负责任的态度,“价值嵌入的算法设计技术本质上是价值敏感设计在算法领域的应用,以前摄性地对算法设计进行影响,使其在早期阶段解决价值伦理问题,而不是仅仅在算法设计完成之后的事后反应”。也有学者建议确立一种统一的算法伦理道德标准,对算法设计构成实质性约束,防止算法滥用和违反伦理。这一类方案体现出对算法的规制并不仅仅是一种事后规制,而是贯穿算法开发、设计和应用全过程的监管。这种监管不同于传统的事先确立标准、事后追责的模式,比如,传统的食品生产监管模式是确立食品卫生标准,对食品生产者形成约束,并对违反标准者进行惩罚。由于算法应用于不断变动的实践场景,而且算法本身也随着数据叠加和任务升级而不断迭代,因此,将责任要求和价值理念嵌入算法设计和实施的过程中,意味着算法在实施过程中要不断地进行价值评估和实践调整,这大大增加了监管的难度,也需要更为立体的规制策略。

在对算法规制的元层面进行建构时,应当充分展现规制背后的价值变化,并根据算法对价值的冲击和改变而确立相应的规制路径。相比于传统规制,这个规制过程是立体和复合型的,包括综合性的价值论辩、技术与法律的区分与融合、多元化的规制方案设计等。

(二)算法规制的元方案

根据前面的探讨,本文主张,算法规制是不同于传统规制模式的新兴技术规制。算法规制具有厚薄两种理解方式。薄的理解方式将算法规制视为法律上应对算法挑战的积极姿态,即在法律框架内解决算法所产生的各种社会问题。但从上述分析可以看出,仅仅意识到法律需要应对算法挑战并不足够,因为薄的算法规制观只是揭示了算法挑战的形式,而无法完整展现法律应对这些挑战的独特机理。厚的算法规制观的落脚点不在于算法规制的具体形式,而是在于借助算法技术对法律实践产生的价值冲击,挖掘算法与法律之间的互动空间,针对算法的技术原理,以更为积极和立体的方式对法律做出调整。比如在平台的算法监管上,“算法评估制度不仅是传统的政策或技术影响评估(如环境保护评估与立法评估),而且是因算法嵌入的政府、公共部门以及数字平台所涉利益的广泛性,具有了比数据保护影响评估更广泛的影响、更深入的价值”。厚的算法规制观能更充分地应对算法的挑战和风险,也能为具体的算法规范的设计提供明确的价值引导。

算法规制在法律上的建构和实现,需要放置在算法与法律互动的语境之下开展。具体而言,可以从算法规制的元价值、技术理性约束、规范建构等三个层面充实算法规制的概念内涵。

首先,如前所述,算法规制要成为一个有效的概念,就应当展示算法对法律价值的冲击及法律进行回应的恰当方式。如果只是把法律当作解决算法歧视或算法不透明的灵丹妙药,则会错误理解算法的独特意义,也会削弱法律应对算法挑战的规范意义。无论是算法所带来的潜在不平等,还是算法行政中对正当程序原则的冲击,都需要放置在价值维度上进行评估。正如凯伦·杨所建议的,应当从正义、权利、过错和危害等视角来应对算法之挑战。所以,算法规制首先是一种价值评估机制,在法律的价值语境中分析算法所产生的挑战究竟如何影响价值,并建构回应这种价值挑战的法律方案。

举例来说,算法自动化决策过程中的程序实施的确与传统程序实施方式存在不同。美国学者建议用“技术性正当程序”来解决这一难题,即将决策的计算过程公开透明化,以实现正当性。这种选择在一定程度上可以制约算法权力的失衡,但依然无法全面防范算法权力实施过程中的异化。限制算法权力的出路还是在于从价值上明确公共决策如何对既有价值产生影响,以及挖掘法律在限制这种影响上的可能意义。

其次,算法规制包含着通过法律对算法的技术理性进行约束。算法以强有力的技术理性冲击了社会理性和法律理性,与社会规范和法律规范共同作用于人们的选择和行动。规制算法不仅包含消除算法的消极影响,也包含对算法的技术理性进行制约,以免形成技术理性宰制和责任逃避的困局。

最后,算法规制包含着针对算法的价值维度和技术理性进行的规范建构。法律规范的制定要回应算法所带来的价值冲击,以及制约算法技术理性。算法规制最终体现为规制体系的完善,但立体的算法规制观更强调规制体系背后的价值调适和技术维度,即以法律的形式将算法的技术应用限制在稳定的价值框架之中。一方面,让算法充分发挥价值意义,实现社会福祉;另一方面,通过权利义务的确定来保障算法应用不会带来价值冲突,并通过归责限制算法的消极影响。在这个意义上,通过算法进行公共决策与对私人主体使用算法的行为进行规范,在规制意义上是相通的,都是将算法纳入算法与法律的价值融合、算法技术理性受制约和具有可问责性的规范框架之中的治理方案。

(三)算法规制的规范建构

依靠单一的算法逻辑并且反复应用暗含不平等数据的算法模型,可能会进一步固化社会偏见,因此算法规制的规范建构需要多元化的算法系统和规范方案。多元化的具体方案源于算法正义内涵的复杂性。我国 “巡警机制、火警机制、片警机制”的规范方案,正是立足于平等、公正在算法问题上的价值内涵,通过呈现法律与算法的二元性,在挖掘出两者冲突与结合的互动机制基础上形成的。多元化的规范方案的最终目的在于实现算法正义框架下的实质正义,要求在程序上可以对算法系统展开价值论辩,在社会实践中可以对技术权威主义形成理性约束,通过这些举措能够实现算法规制的立体有效。

1.保障个体权利

算法规制的规范建构必然以保障数字个体的权利为基础。鉴于算法治理过程中对个人造成的隐私侵害、歧视、信息茧房等问题,学界提出了赋予个人广泛的数据权利达到规制算法的目的,譬如个人享有对算法系统的反对权、删除权、更正权以及解释权等等。然而,这一规制方案面临以下挑战。

首先,个人与平台之间貌似是信息互利互惠,但深层次上是平台对个人自主的控制,从宏观上看是平台改变每个个体接受的信息、点击的行为,并将个人行为数据作为分析的对象,这可能促使社会整体行为习惯的变化,进而导致社会主流价值观念受到算法技术精英逻辑的影响,从而潜移默化地改变法律正义内涵的道德基础。然而,个人自主性的改变在面对经济利益时显得无能为力。这种算法技术对个体法律正义观念的影响更加隐蔽,由算法设计师主导下产生的算法不正义对个体来说更难察觉,因此在算法规制方案建构中,个人赋权方案只能是兜底方案。

其次,算法决策可能固化已有的不平等偏见,可能创造新的群体不平等和社会阶层,特别是造成了算法设计师和网络社会的普通用户的对立,因而无法代入传统的正义理念。由于算法技术的发展和应用,造成社会价值观念和社会结构等大前提发生变化,因此需要提炼出一种针对算法之独特属性的正义观,而算法规制的具体方案也必须在新的算法正义观念引导下评判。算法规制的规范建构需要克服算法决策对个人引起的各种形式的掠夺性包容,克服算法分配造成的实质正义困境。

面对算法社会背景下的结构变化,赋予个人权利只能是作为算法规制的兜底方案。有学者甚至提出,事前规训将成为数智化社会的基础性法律构造技术,责任与义务规则将取代权利规则成为法律规则的主要样态。因此,算法规制方案的建构更多地依赖政府主导下专家代理机制,依赖对算法平台的监管和平台责任的落实。传统个体意识中的正义观念在面对算法技术时的无力,需要理论界明确算法正义的内涵和价值评价标准,进而反观算法社会中技术权威下的算法非正义,以此启发社会个体意识的自主性和增强技术权威主义的识别能力,维护个体面对算法非正义时的正当诉求。

2.算法规制的价值输入

当各种平台掌控公共辩论空间时,数据正在构建反映现实世界的镜子,当越来越多的职业和市场都依赖算法系统时,人们可能不再关注算法改造社会的过程,也越来越难于质疑算法系统的合理性。对数据的崇拜、人类思维能力的商品化以及对有利于算法程序的批判理性的摒弃,使得算法支配下的社会结构发生了巨大转变,然而,这一转变的过程却很难被关注。对这一隐而不彰的转变的担忧促使我们寻找算法技术之外的辩论空间。

算法社会立足于技术理性理念,缺乏法律规则形成的论证过程。算法规制不同于传统规制,根源在于算法技术本身是用过去的数据统计预测未来,数据统计结果直接预测未来事实。而传统规制虽然也是使用了过去的事实数据,将形成的规则适用于未来事实,但区别在于基于事实所形成的规则是经过反复论证的结果。而算法规制缺乏这一证成机制,甚至不知从何论证,造成了社会不信任的结果。因此,算法规制的规范建构必然要回应这一论证过程,克服技术权威主义,为批判理性预留空间。

在价值层面上,算法规制的具体方案选择必然受到价值选择的驱动。在信息控制论和信息共享这两种不同价值理念下所设计的算法规制方案迥然不同。有学者提出,现在社会已然从信息控制论转向信息互惠机制,从而提出以信息信义义务为基础的算法规制方案。然而,这一方案并非完全摒弃信息控制论,譬如,在隐私、个人私密信息等涉及个人人格尊严的保护领域,在维护人类的主体地位上完全抛弃信息控制论,而转向信息互惠,这在价值层面上是令人怀疑的。算法规制的具体方案必然需要结合实际情况界定价值位阶,必要时需要结合场景进行价值衡量。在个人尊严、个人隐私等维护人的主体地位的领域,需要赋予绝对保护地位;而在涉及交易自由、个人言论自由与公众知情权等民商事交易领域,则赋予相对保护地位。

此外,被强行算法治理的数据主体无法参与塑造算法治理条款,在程序上也不具有正当性,因此在设计算法规制的具体方案时,需要提前咨询数据主体对算法预期处理的观点,提供数据主体提前介入数据保护影响评估活动的渠道,必要时设计人工审查的算法规制方案。总之,对算法规制的具体方案建构必然需要挖掘算法应用的场景,并探究相对保护地位的衡量问题,并在教义学上形成绝对保护地位的价值位阶,在相对保护领域需要结合案情场景进行必要的价值衡量。另外,需要保障数据主体参与算法治理的程序性权利,在程序上为数据主体提供对算法系统进行价值辩论的空间。

3.促成人机理解的算法问责

算法问责作为算法规制的一项重要任务,一直存在着理念超前但现实难以落地的困难。一方面,即使是算法的开发者和场景应用者也无法充分地确定问责的范围有哪些。算法开发者的主要任务是调整参数、优化模型等。对他们来说,责任的主要内容是提供符合预期的算法或模型,并能够与其他算法协同执行任务。场景应用者则需要将这些算法应用于特定的场景之中以获利或满足其他目标。算法应用受制于各种复杂的环境,其产生的伦理挑战也是社会多元主体共同参与所导致的结果。场景应用者可以对算法的结果负责,但容易陷入形式化困境。责任主体或许容易确定,但究竟如何问责,充满着不确定性。例如,个性化推荐算法在短视频领域的应用容易导致沉迷或信息茧房,但从传播学角度来看,短视频的流行具有深厚的社会文化需求和社会心理动机,所以将责任归结到个性化推荐算法有失偏颇。

另一方面,传统问责制包含着对话和沟通机制,旨在促进权力主体和受众之间的相互理解,提升权力实践者的答责能力。但算法仍然无法具备这种答责能力,如果让算法设计者来承担这种答责角色,与公共实践的基本原理不符。因此,算法公共行政会陷入到问责困境之中。当然,目前学界对此提出的建议是将问责问题转化为算法透明问题,即算法越透明,则算法越能体现问责性。然而,透明是一项难以实现的任务。对于算法的影响,我们应当首先实现基本的理解,“真正的人机协作需要相互理解,即人类能够理解人工智能的推理,而人工智能系统的设计也能够以人性化的方式呈现”。但人与算法的关系不同于人际关系,理解既需要成本,也需要借助特定的理解方式。尽管社会中的绝大多数人已经离不开算法的辅助,但从文化上来讲,人对算法的理解是匮乏的,甚至可能会存在“厌恶”。因此,算法问责的核心首先不在于让算法实践符合我们所设定的预期目标或者让算法为人们所掌控,而是促成社会对算法的有效理解,并营造一种算法可被信任的社会文化。

结语

算法规制已然成为应对激增的算法挑战的共识性话语,但薄的算法规制观并不能全面展现算法挑战的技术意义、社会意义和价值意义,因此也就无法支撑起智能社会的建设任务。无论是公共领域的算法行政,还是社会领域的算法决策,本质上都是以一种前所未有的计算模式来重塑社会生活。对算法进行规制,也是将算法的计算意义纳入社会价值领域和规范体系的过程。算法规制在法律上的可能性和可行性,建立在澄清算法与法律的互动关系的基础之上。通过展示算法规制的立体结构,可以呈现出算法规制理论不同于传统规制理论的重要特征,进而为算法规制体系的制度设计提供有益支持。算法不只是一种纯粹的技术概念,而且还成为塑造社会结构的治理工具,其隐而不彰地改变着社会结构和法律运行的大前提。因此,对算法社会的规制需要提炼算法正义的独特内涵,并在这一正义框架内,实现对算法技术的规范建构。对算法规制的规范建构不是建立在单一的算法逻辑基础上,而是需要多元化的规范方案。规制方案的建构需要结合场景在价值维度上对算法系统进行评定,区分绝对和相对保护领域。在不违背人的主体尊严、社会主流价值观和伦理道德基础上,可以将数据主体权利限制于“经过良好校准”的机器决策上。算法规制方案要求算法系统在程序上可以被数据主体辩论并且保障数据主体程序参与权。算法规制方案并非完全摒弃算法技术,而是在社会实践中形成对算法系统的理性约束,发挥算法善治的功能。

原载于《法治社会》2026年第1期第72-85页。

    进入专题: 人工智能   算法元规制   算法权力   算法正义  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/173685.html
文章来源:本文转自《法治社会》2026年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统