陈景辉:算法的法律性质:言论、商业秘密还是正当程序?

选择字号:   本文共阅读 1057 次 更新时间:2020-11-26 22:56

进入专题: 算法黑箱   算法权力   算法操纵   言论自由  

陈景辉  

摘要:  一旦承认法律有理由介入算法,那么关键的问题就是:算法在法律上是什么?对这件事情的看法,决定了法律介入算法的标准和方式。就目前的讨论状况而言,理论家们要么将算法视为言论,要么将算法视为商业秘密。然而,如果意识到算法权力的重要性,那么算法就不再是言论或者商业秘密,而是一种正当程序;相应地,打破算犯法黑箱就不是最佳的介入方式,反而应当以正当程序的基本要求来介入算法。

关键词:  算法黑箱;算法权力;算法操纵;言论自由;正当程序

无论人们在算法的问题上存在什么样的争议,但“算法正在普遍而广泛地影响我们的生活”已经是个越来越明显的事实。所谓“普遍”,意思是说,几乎每个人的生活都正在受到算法的影响;所谓“广泛”,意思是说,几乎人类生活的所有领域都正在受到算法的影响。无论是获取各式各样的信息(例如我为了写这篇文章而寻找资料),还是获得各式各样的生活物品(购物),这些活动都是算法发挥作用的领地。如果不是受限于文章的篇幅和性质,我可以用无穷无尽的文字来详细说明算法在各个领域如何影响人类的生活。但目前这样简单的描述,已经足够。既然算法正在普遍而广泛地影响着我们的生活,另一种也一直在普遍而广泛地影响我们生活的事物——法律,必然跟算法遭遇在一起。于是,法律与算法的关系,当然会成为法律上非常重要的话题。

讨论法律与算法的关系,显然可以同时做双向的思考:(1)法律对算法的影响;(2)算法对法律的影响。本文主要关注的是“法律对算法的影响”这个话题,这通常也被叫作“法律对算法的介入或规制(regulation)”;相应地,所要处理的核心问题,就是“法律介入或规制算法的最佳方式是什么”。所以,我要面对两类论辩对手:其一,“法律根本没有理由介入算法”的主张;其二,“法律只能以某种方式对待算法,但这种对待方式实际上是反对法律的介入”的主张,这或者是将算法视为言论,或者是将算法视为商业秘密。本文的第一部分用来处理第一个对手,这将会涉及到“算法对法律的影响”这个话题;第二部分用来处理第二个对手,以便证明为什么有理由将算法视为言论或者商业秘密,以及这样的看法会在法律上带来怎样的影响;第三部分将围绕着“算法权力”这件事情展开,用来说明为什么法律对算法的规制,需要同时考虑算法黑箱、算法权力与算法操纵这三件事情;第四部分集中说明我自己的看法,其中的关键是为什么有理由将算法视为程序,由此应当以“程序正义”的具体要求;最后,是个简要的结论。


一、法律能够介入算法吗?


一旦谈到法律对于算法的介入或规制,立刻就会面对两种类型的挑战:其一,基于能力的挑战,即法律人无法拥有如同算法专家一样的算法知识,而这无法满足法律介入算法在知识上的要求;其二,基于法律性质的挑战,这又可以被进一步区分为两个不同的主张:(1)在算法的时代,算法就是法律,而原本的“法律”不再是真正的法律;(2)虽然原本的法律仍然是法律,但算法是更好或者更理想的法律,因此原本的法律应当模仿算法,所以法律应当算法化。[1]作为一篇致力于讨论法律如何介入算法的文章,以上这些想法就成为必须首先攻克的难关,否则后续的工作就无法合理地展开。

(一)法律人得是多大范围的专家?

我将首先考虑“基于能力的挑战”:法律人有能力如同了解法律一样的程度,如此了解算法吗?这个问题的提出,显然来自于一个非常有力的直觉:如果法律人想要运用法律来介入算法,那么他们必须要像了解法律的程度一样了解算法;否则,即使事实上法律人介入了算法的领域,这不但无法避免盲目无知、法律人的傲慢之类批评,而且也会导致那个介入是无头苍蝇似的乱来。事实上,由于专业分工与个人能力的双重限制,可能除了个别的例外,[2]法律人不可能像算法专家那样了解算法,所以算法的问题只能是由算法专家来垄断,即使是在关于算法的法律问题上,法律人也必须听从算法专家的专业判断。

对于这个一开始的怀疑,存在一个简单但却意义有限的回应:如果承认在算法的问题上,算法专家的确拥有多于法律专家的专业知识;但在法律问题上,他们一定只会拥有少于法律专家的专业知识。因此,如果说法律专家不具备在算法问题上的发言权,同理,算法专家也将不具备在法律问题上的知识能力。我之所以说这个回应意义有限,是因为这是一种类似于互泼脏水的论辩策略:你说我不行,我就说你也不行。然而,你说我不行,并不等于你行;我说你不行,也不等于我行。于是,论辩上的僵局就成为最终的结果:最后大家谁都不行。但这也是最坏的结果,因为这等于对“法律和算法的遭遇”这件事情持消极的态度:既然谁都没有能力面对,那么干脆都不面对,让那件事情自生自灭。因此,真正重要的是,如何寻找更为积极的做法,而不是进入这种互泼脏水的打烂仗游戏。

那么,积极的做法是什么?这依赖于如何界定“法律与算法的遭遇”这件事情:如果将它看作是算法问题,那么法律专家就要让位,例如将法律算法化;如果将它看作是法律问题,那么算法专家就要作壁上观,例如算法歧视之类涉及权利的问题。简单地说,如果关心的重点是“算法的法律问题”,那么法律人、而不是算法专家,才是最终的权威。[3]所以,算法专家并不是在所有跟算法有关的问题上都是知识权威,而必须要看那是一个关于算法的什么问题。你怎么可能想象,在算法的销售问题上,算法专家一定会比一个销售员要好?

当然,你可能会反驳说:由于算法是专业性极强的领域,因此法律专家还是必须掌握一定程度的算法知识才行,由于算法的门槛很高,即使是“一定程度”的初步要求也很难达到,所以法律人还是不具备发言资格。然而,即使如同卢曼的信徒一样,认为法律是个单独的系统,但是由于法律必然拥有影响其他所有社会领域的能力,[4]并且也在事实上影响到其他的社会领域,而其中都涉及有或高或低的专业知识,这看起来会导致法律除了自己的领域,别的都一概插不上手。真实情况并非如此。我相信算法专家也会认为植物学也是高度专业化的领域,但在“西红柿是水果还是蔬菜”的问题上,也不是一概听从植物学家的判断;如果对水果和蔬菜征收不同标准的税,那么拥有最终决定权的法官说“按照传统,将西红柿当作蔬菜、而不是水果”,这就是“征多少税”这个法律问题的最终答案,也是“在法律上,西红柿是水果还是蔬菜”这个问题的最终答案。

这并不要求法律人必须是植物学家,他只要满足两个基本条件就足够了:其一,不要犯所谓的“范畴错误”就足够了,例如你不能讨论“花岗岩是水果还是蔬菜”的问题;[5]其二,法律上的那些技术是否合理地将它纳入到某一个类型当中,无论运用的是法律概念的具体化、法律解释、类推还是某种价值判断的方法,等等。[6]其中,前一个条件的满足,基本上只限于日常生活的常识就足够了,否则没有谋财害命经历的法官怎么有资格面对杀人犯和抢劫犯?老话说得好:没吃过猪肉,还没见过猪跑?后一个条件是法律上的专业要求,所以法律人必须得是真正的法律专家才行,但这跟植物学和算法已经是不同的行当了。

(二)法律应该算法化吗?

虽然法律人能够跨过专业知识要求这个门槛,但是“法律介入算法”的话题还是会遇到另外一个拦路虎,这就是关于“算法对法律的影响”这个话题。不过要注意,并不是这个话题的所有内容,都会产生阻拦法律介入算法的结果。因为,该话题可以被进一步区分为工具性与非工具性两个不同的部分。其中,就工具性部分而言,它的意思是说:算法是以工具的方式帮助法律更好地实现法律所要实现的目标。例如,算法可以减轻很多的法庭工作,使得司法变得更有效率;或者,算法可以提供很多方面的法律咨询,因此律师可以将工作的中心集中于更富有争议的法律问题上,等等。显然,这些扮演法律之辅助功能的算法,并不会抵御或反对法律的介入,因为此时法律工作仍然是核心性的,算法也必须围绕着法律的功能而展开。

然而,如果在算法影响法律的问题上持一种非工具性的观念,那么这就会导致对法律介入算法的反对。如前所述,这种非工具性的看法,可以被进一步区分为两种具体类型:(1)在算法的时代,算法就是法律;[7](2)算法是更好或者更理想的法律,所以法律应当算法化。对于其中的第一种主张,我已经在其他讨论中给出了一种基于法律性质判断的反驳,即由于法律的全面性与至上性,即使是在算法的时代,算法也不可能是法律,而只能是法律所针对的对象。[8]此处,我将给出一个补强的论证,这仍然跟法律的性质有关系。用形象一点的语言来说,在一个被称为算法的社会中,算法就相当于该社会的自然规律(the laws of Nature),法律绝对无法等同于自然规律,其中最特殊的地方在于:一群人的特定行动——例如全国人大行使立法权的事实——可以改变法律,但却无法改变自然规律——例如全国人大肯定不可能“让(要求)太阳绕地球转”。这个简单的例子,其实说明了一个没有足够篇幅讨论的关于法律性质的重要共识:无论是法实证主义的支持者还是反对者,他们均认为法律是某种社会事实,即特定社群人们的态度、行动会决定着法律的存在和内容,[9]所以法律显然不是自然规律。

现在,就需要处理第二种主张了,它认为,由于法律应当算法化,所以法律就无法介入或规制算法,因为这意味着,此时法律应当以算法作为目标,这与“法律以算法作为拘束对象”的主张显然不相容。必须注意,法律的算法化与算法的(法律)工具化,这两个看法之间非常类似,以至于很多原本持有算法之工具性的主张者,很容易就迈过这个界限,进入到法律应当算法化的领域中。然而,即使承认算法有助于法律任务的实现(例如有助于准确量刑,甚至可以进一步主张算法能够承担某些法律的任务,比如为客户提供法律意见),但这都不等于说法律就应当算法化。除非以下两个条件同时成就:(1)法律和算法是同类事物;(2)就(1)而言,算法在比法律更好。[10]例如,如果将算法视为一套逻辑程式,并且将法律推理同样视为逻辑过程,那么法律推理就应当算法化;然而,如果将法律推理视为必须涉及价值判断的实质判断过程,那么算法就只能在逻辑的部分,而不是价值判断的部分,对法律推理扮演重要性有限的工具性角色。

因此,如果不能妥当地证明“法律和算法是同类事物,且算法在比法律更好”,那么就没有理由将法律算法化,或者法律的算法化只具备工具效果。其中,后半部分的判断,面临一个强度有限的挑战:从属于人工智能这个大概念的算法,仍然是对于人的模拟,即人在智力(intelligence)方面比人工智能(artificial intelligence)更好,这就是弱人工智能;相反,如果人工智能和人在这方面一样好,那么拥有人工智能的机器就成为更好的人,这就是强人工智能。显然,在目前弱人工智能的时代,算法还处于对人的模拟的阶段,而人类创造出法律的历史时间更长、实践的经验更多,那么看起来最合理的结果,并不是法律的算法化,而应当是算法的法律化,即算法应当以法律作为模拟对象,因为(目前的)法律是更好的算法。

要想避免刚才这个看法,除非如下理由成立:算法所拥有的某些优点,在到目前为止的法律中从未实现,且这是法律应当实现的。那么,是哪些可能的算法优点呢?只有一种可能,这就是算法的“可计算性”。它在法律上的表现就是对于效率的追求,在方法上就是成本-效益分析(cost-benefit analysis)。这就不难理解,为什么“成本-效益分析”的支持者,很容易成为人工智能或者算法的拥抱者。因为,这蕴含着法律本身应当采用成本-效益分析的方法,并且算法是成本-效益分析的最佳样态,所以法律应当算法化。这些主张者通常以如下理由来强化自己的看法:价值判断是靠不住的,所以法律中一旦涉及价值判断,就会因为价值分歧导致法律在实践上的困难。然而,这种看法本身是自我溃败的,由于篇幅所限,在此我只能给出一个简单但有力的反问:[11]“效率”本身难道不是一种价值吗?如果为了避免价值争议,从而采取貌似客观的成本-效益分析方法,那么这种方法不是仍然预先承诺了效率这个价值(的优先性)吗?为什么承诺效率这种价值就是合理的,而承诺其他类型的价值就是值得批评的?[12]不过,无论最终那个理由是什么,显然,都无法动用“价值判断本身的缺陷”这个理由,因为效率也是一个价值。进而,如果你说这是因为法律中虽然包括价值,但算法中不包括价值;但是,这不是又对第一个条件形成了反对吗?因为,这实际上意味着法律和算法是两类性质不同的事物。既然如此,也就不存在法律的算法化,当然也不存在算法的法律化,最后的结果只能是:算法以工具化的方式帮助法律更好地实现自己的任务。一旦做到这一步,法律介入算法的诸种障碍都将被排除,以什么方式介入就成为讨论的重点。


二、法律对算法的介入:方法论与基本主张


承认了法律可以介入某一领域,接下来的任务就是来说明,法律应当以何种方式来介入,并且这种做法是合理的。显然,要想保障这种介入方式的合理性,就必须依靠一套有效的方法论来实现。理想的情况是,这套方法论确保法律只能以单一的方式介入该领域,那么问题就将无争议地获得解决。然而,这通常不是真实的情形,事实上,在有效的方法论的指引下,法律仍然还有多种具体的介入方式。此时,就需要在这些介入方式之间进行论辩,来证明为何特定的介入方式明显优于其他的方式。是否更优或者是否更好,这不完全是个道德判断,即某种方式拥有更加明显的道德优点;它同时也会包含着一个认知性的判断(epistemic judgment),即这种介入方式是否更多地容纳了该领域中那些不可忽视的特性。因此,文章本部分的任务有两个,一方面是说明方法论的基本要求,另一方面是说明相互竞争的两种不同的看法,以便为文章在下一部分的批评与重新建构,提供理论上的充足准备。

(一)方法论的基本框架

在表面上,法律对某一领域的介入,相当于将该领域的争议性问题“转译成”(translate into)法律上的问题。科技的进步,经常意味着在事实上创造出一个全新的领域;但由于“转译为法律”这件事情的存在,它在法律上其实仍然可能只是老生常谈。[13]例如,在电气化的时代,“偷电算不算盗窃”在一开始就是一个争议性的问题,因为在这之前的财产基本上是有体物,而“电能”显然并非如此。对于这个争议性问题,所采取的、也是一直沿用至今的转移方式是,将“电(能)”转译为法律上的“物/财产”,从而使得“偷电”也成为一种盗窃的具体形态而已,尽管它是盗窃的新形态。显然,这项转译工作,一方面依赖于对“电(能)”是否具有财产属性的判断,也依赖于法律对于“(私有)财产”的保护。简单地说,转译工作是否成功,一方面依赖于被转译事项的属性判断,另一个方面依赖于对法律的性质判断。如果在这两个方面都是成功的,那么特定的转译就是成立的。

对于算法这件事情而言,要想把它转译为法律(上的事项),也需要同时完成以上两个方面的作业。在算法的时代,最主要的争议是什么?显然是以下两个相互冲突的事实:其一,算法黑箱(algorithmic black box);其二,算法操纵(algorithmic manipulation or control)。所谓算法黑箱,指的是对算法拥有者或设计者之外的人而言,算法是一个工作机制非常神秘的系统,人们只能观测到它的输入与输出,而无法知道它如何将输入的内容变成输出的结果。[14]所谓算法操纵,指的是由于算法越来越普遍而广泛地影响我们的生活,于是算法就操纵或控制了我们的生活。[15]必须注意,“算法操纵”这个语词,实际上是在陈述算法所带来的损害,这既包括“抽象的伤害”,即由于算法对人们生活的操纵,因为伤害了“自治”(autonomy)这个价值;这也包括具体的伤害,例如同物不同价的算法(大数据)杀熟、给予不利地位对待的算法歧视,等等。

虽然在汉语中,“黑箱”很容易引发操纵或者不公平的联想(例如老师选班长的过程被描述为黑箱),并且算法操纵的确跟算法黑箱有关系,但是算法黑箱这个语词还主要是一种事实性的中立描述,它在一开始只是陈述了一个算法拥有者或编写者之外的其他人,在面对算法时的事实状况。或者这样说,即使存在某种关于决策的黑箱,这也并不意味着紧接着就会引发操纵或者不公平之类的损害。例如,我决定跟谁结婚、跟谁做朋友,这个决定是“大脑黑箱”的结果,[16]但并不意味着对我的妻子和朋友而言,那是受到我操纵的不利结果,我又不是一个会催眠术的情感骗子。理解了这一点,就导致“打破黑箱”或者“主张算法的透明性”并不自动就是当然的结果,因为算法黑箱并不是在一开始就是一个需要负面评价的现象。而那些“打破黑箱”或“算法的透明性”的主张者,就需要其他的理由来支持自己的立场。

现在需要考虑算法黑箱和算法操纵的法律转译问题了。如前所述,这首先需要对法律这件事情作出某种判断。受制于篇幅,[17]让我假定法律是一种评价性或者价值性的事业(normative enterprise),这表明,特定的法律,要么本身就代表某种价值判断——例如民法对于私法自治的肯定,要么提供了某种价值冲突的解决方案——例如“对格式条款的理解发生争议的,应当按照通常理解予以解释”。[18]尤其是价值冲突问题,它在一开始就承认了存在着两个或者多个至少具备初步正当性的价值,并且这些价值之间无法同时获得,这时候就要去权衡,这或者表现为对某个价值的完全抛弃——例如生命财产冲突中的紧急避险,或者表现为多个价值之间的权衡关系——例如私有财产与公共利益之间的税收征收比例,[19]等等。

有了这些准备,现在就可以明白算法问题在法律上的转译结果了:由于算法黑箱并不当然承载负面价值,所以它是一个值得法律保护的事项,而“避免算法操纵”是另外一个值得法律保护的事项,于是算法黑箱与避免算法操纵之间就形成了价值上的冲突关系。面对这种算法上的价值冲突,紧接着进行的操作,就是决定是彻底抛弃其中的一个价值,还是提供某种价值之间的特定权衡关系。表面上看起来,提供某种权衡关系可能是更自然的选择,因为算法黑箱与避免算法操纵都具备初步的正当性。然而,就像接下来看到的一样,与这个判断正好相反,最常被采取的做法是彻底或完全抛弃其中的一方,而这一方经常是“避免算法操纵”这个跟人们的利益联系更为紧密的一方。

(二)言论与商业秘密

到目前为止,至少有两件事情是清楚的:其一,算法问题可以在法律上被转译为价值冲突的问题,算法黑箱是一方,而避免算法操纵是另外一方;其二,算法操纵会引发某种利益上的损害,[20]所以需要法律上的限制。于是,关键的问题是,算法黑箱在法律上可以被进一步转译为什么内容,并且这种特定的转译结果,将会影响到对于算法黑箱与避免算法操纵这个价值冲突的解决方案。显然,一个直觉的看法是:要在两者之间寻求一定的权衡关系,以合理安排算法黑箱与避免算法操纵各自的分量。就算法黑箱而言,这意味着要实现某种程度上的算法透明性(以及由此而来的算法的可解释性);如果支持者还进一步主张基于自治价值的要求,应当彻底避免算法黑箱,那么算法的彻底透明性就会成为最终的结果。于是,法律对算法的介入,就成为对某种程度的算法透明性(transparency)的要求,这变成了唯一的答案。[21]

然而,法律实践再次打脸法律理论(上的直觉),它反而采取了对算法黑箱的保护,而彻底放弃对因算法操纵所侵害的那些利益的保护。这是因为,法律实践者发现,算法黑箱在法律上所能被转译的内容,一点儿不支持算法透明性的要求。美国法官在面对一系列与算法有关的诉讼时,他们都认同了“将算法(黑箱)视为(转译为)言论”的做法,并且由于“言论自由”这个宪法上的绝对权利(absolute rights)所拥有的不可被剥夺的性质,[22]所以被放弃的就只能是算法操纵所侵害的那些利益。这是因为,无论以何种方式来理解言论自由这个宪法权利,它因为有助于某种“民主文化”的形成与保持,而民主文化本身是一种有利于所有人的“公共善”(public good),所以为它付出某种利益上的损害的代价是合理的,[23]即使这个代价是被算法所操纵。当然,会有这样的反驳,由于算法操纵对个人的自治造成了损害,而个人自治本身也是最重要的道德和政治理想,因此不应当直接因为言论自由而放弃个人自治。但是,由于个人自治同样也需要民主文化的养护,[24]所以这样的反驳至少在道德上的力度依然有限。[25]此外,刚才提到的言论自由之绝对权利的性质,导致在法律上对它提供彻底的保护,成为唯一合适的选择。

不过,将算法黑箱转译为言论,并不是实践上的唯一做法。在发生于2016年的威斯康星州的Loomis 案中,法官将关于量刑的特定算法看作商业秘密来对待。[26]在商业秘密的问题上(,美国)法官通常认为它应当受到严格的保护,否则相关的知识产权将会受到严重侵犯,而知识产权的被侵犯将会阻止科技进步,而这将会严重地侵害人民的福祉(well-being)。所以,基于如上考虑,商业秘密获得了如同言论(自由)一样的法律保护效果,它也将算法操纵视为可以合理付出的代价。于是,法官必然不会要求算法的拥有者公开算法代码,更不会要求拥有者以人们能听懂的方式,向公众说明该算法的工作原理,算法黑箱就因此被视为算法的正常情形。

无论是将算法视为言论(自由),还是视为商业秘密,这都会导致一个非常尴尬的处境:虽然花费巨大的功夫才证明法律介入算法的正当性,但是由于只能以这两种方式面对算法,这实际上等于对法律介入算法之可能性的否定。简单地说,这使得“法律介入或规制算法”变成了屠龙术,屠龙的技艺倒是掌握了,但龙却消失了。如果结果就是这个样子,那还不如在一开始,就干脆主张法律无法介入算法,省得废了半天的劲儿,最后只能接受在开始就应当接受的结果。我过去已经写下的一万字是无用功吗?还有讨论法律介入算法的新可能性吗?新的道路又在哪里?


三、言论自由与算法权力


虽然美国的法官作出了保护“算法黑箱”的决定,并且这当然获得了法律上的效果,但是这在理论上仍然需要检验。如果这种看法在理论上也是成立的,那么它不但具备法律上的效力,而且也拥有了理论上的正当性。本节将首先检验这两个主张在理论上会面对的难题,由于商业秘密的说法轻度更低,所以我将集中讨论言论自由所面对的难题;然后,我将重新引入一个经常被提及的“算法权力”这个概念,而且它的加入将会改变过去的论证结构;最后,我将重新说明这篇文章的任务,即理论家必须提出一个能够同时容纳算法黑箱、算法操纵与算法权力这三件事情的理论框架,这就是文章下一节的任务。

(一)算法与言论

现在稍作停留,来回顾一下文章的论证任务:在算法的问题上,同时存在着算法黑箱和算法操纵这两件事情;如果法律对算法的介入,是为了避免算法操纵所引发的那些损害,那么它必然将面临算法黑箱的挑战;换句话说,为了避免算法操纵,可依赖唯一的做法,就是攻破算法黑箱,使得算法透明化。然而,无论算法是言论(自由)还是商业秘密,它都会为算法黑箱提供强大的保护,于是算法操纵就成为一个无解的问题了。如果此时仍然有谈论“法律介入算法”这件事情的正当性,那么它的目标就不再是改变或扭转算法的操纵,而是对算法黑箱提供充分的保护。除非,反对者能够证明算法不是言论或者商业秘密,否则就只能接受算法操纵的结果。就像选择了民主的制度就得接受民选领袖可能很愚蠢的结果,选择了法治就得接受无效率或者可能放纵坏人的结果,这些都是必须付出的代价。

其中,将算法视为商业秘密的做法,在保护强度上明显弱于将它视为言论的做法,因为只要祭出公共利益(public interests)或者它的道德形式——共同善(public goods),就可以论证在特定情况之下,公共利益的分量存在超出商业秘密否认可能性。[27]所以,最有力的算法黑箱的捍卫武器,必定是言论自由,因此之后的讨论将只涉及到言论及言论自由的问题。正是因为存在着言论自由这个严峻的对手,所以反对者大概会采取两种方式,来避免在算法和言论之间画上等号:其一,认同目前主流的言论自由理论,但否认算法就是言论的做法,将它视为一个错误;[28]其二,承认目前的言论自由理论支持算法就是言论的做法,但是这个理论存在缺陷,一个更好的、新的言论自由理论[29]有可能会得出相反的结论。

前一种方式,经常会展现为很多具体问题的讨论,然而在这些问题上都存在着争议性的答案,很难取得彻底击溃将算法视为言论的论证效果。例如Tim Wu认为,在美国要动用宪法第一修正案保护言论自由,通常是因为以下四个条件的满足:存在一个拥有宪法权利的“人”,以“言论(意见)”的方式交流,存在一个错误的审查“动机”,并且这种审查“克减”(abridgment)了言论。[30]尤其是前两个条件,对算法视为言论而言是关键性的挑战。很显然,讨论者紧接着就会依次去讨论以下问题:算法是不是人,算法的结果是不是意见,为避免算法操纵来审查算法是不是个错误的动机,以避免算法操纵的理由来审查是不是一种言论自由的克减。

但是,我并不认为反对者在这些问题上都会取得压倒性的胜利,由于篇幅所限,本文仅以前两个问题的讨论为例。表面上看,很容易认为算法不是人,所以算法的结果不是作为意见的言论。然而,问题并没有这么简单。让我用报纸的言论自由为例。显然,报纸上的文章受到言论自由的保护,并且它呈现为这样的连环结构:文章撰写者—报纸(的编辑)—获得刊载的文章;相应地,算法本身也会呈现出类似的连环结构:算法的拥有者(编写者)—算法(的应用)—(算法的)结果。如果承认“报纸(的编辑)”受到言论自由的保护,那么就很难否认“算法(的应用)”跟言论自由没有关系。当然,这样的类比是否成立还会有进一步讨论的空间。不过,对这篇文章的目标而言,论述至此就已经足够了,因为本部分的任务并不是讨论言论自由的内涵,而是说将算法与言论自由解套的做法存在着巨大的争议,所以这并不是个好的选择。

(二)算法权力:关键的一环

当我说第一种关于算法是言论的讨论陷入泥淖当中时,并不意味着我要采取第二种讨论方式,即透过革新言论自由的理论,[31]来实现解脱算法黑箱与言论自由之间的联系。因为,这必将是一个旷日持久的论战,它同样也会陷入时间的泥淖中而不能自拔。不过,Jack Balkin的这类讨论,还是引入了一个我认为至关重要的东西,这就是算法权力。虽然过往的讨论者,在谈到算法黑箱的时候,一般也会连带着谈谈算法权力。但这种讨论主要是在经验的意义上展开的,也就是说,他们主要是说,算法(的设计者和拥有者)拥有一种事实上影响人们行为选择的能力;但是他们对于算法权力所拥有的的理论意义关注不多。然而,在我看来,一旦注意到算法权力所拥有的意义,原本困惑着理论家的算法与言论自由问题,将会显露出全新的曙光。

Balkin是将算法权力与它对言论自由的侵害联系起来,试图从言论自由的规范目的上,实现以言论自由来限制、而不是保护算法黑箱的任务。我的想法跟他部分类似:如果仔细分析算法权力的性质,那么就可以将算法与言论(当然也包括商业秘密)脱钩,从而为法律审查算法提供新的可能性。这是因为,由于算法已经广泛而普遍地影响人们的生活,并且由于算法本身决定了人们的选择空间与可能获得的结果,因此算法权力对人们的生活而言,已经是一种广泛而普遍的控制能力。而且,要注意,“算法正在普遍而广泛地影响我们的生活”并不是个纯粹事实性的描述,它本身同时还拥有某种规范上的吸引力:对于我们的生活而言,算法越来越具备构成性的地位,当你远离算法,实际上就是在远离目前的生活方式,而且算法构成的生活中所蕴含的那些便利和好处也将一道消失;反过来讲,你一定会被那些好处和便利所吸引,因为它们是某种福祉(well-being),对算法的远离在某种程度上就等同于对自己福祉的漠视。

认识到算法对生活的构成性地位、理解了算法跟福祉的关联,就理解了算法权力为什么是一种广泛而普遍的重要权力。并且,如此广泛而普遍的决定能力(权力),在算法时代之前,就只有国家才会拥有,所以至少有理由认为算法权力是一种“准国家权力”性质的公共力量(quasi-public power)。所以,Balkin才会说那些巨型私人公司“是如此有权力,因此只能将它们视为是特殊目的的主权者(regard them as special-purpose sovereigns)”。[32]如果这样的思考是成立的,那么Balkin那些关于言论自由的讨论就很容易理解:在算法时代之前,国家是言论自由的主要侵害者;而在算法的时代,言论自由的主要侵害者则是作为算法拥有者的巨型私人公司,相应地,国家的角色由过去言论自由的侵害者,摇身一变成为言论自由的保护者。[33]

如果将算法权力视为一种国家权力,那么算法就跟言论自由(的保护)没有关系了,它只能跟对言论自由的侵害发生关联。这是因为,在算法的时代,虽然国家从言论自由的侵犯者变成了言论自由的保护者,但是国家不会是言论自由所保护的对象:国家不能拥有言论自由,否则,国民还怎么有权利批评国家?相应地,如果说国家不受言论自由的保护,那么作为特殊主权者的私人公司当然也就不是言论自由的保护对象。同理,也将缺乏将拥有算法的私人公司视为纯粹的商业组织的合适理由,因而它不再完全成为商业秘密所保护的对象,这种看法也就随之失去了力量;并且,既然它们并不是纯粹的商业机构,那么以“商业垄断”为介入理由的做法,也就不完全成立了。[34]

(三)新的任务

不过,我跟Balkin的共识基本上就此结束了,我不再如同他一样,沿着以下这条道路前进:既然算法(的拥有者)对言论自由造成了侵害,反而“保护言论自由”成为法律介入算法的基本出发点,应当以此为理由来限制算法及其背后的巨型私人公司。这是因为,在“巨型私人公司‘应当被看作’主权者”与“巨型私人公司‘真的是’主权者”之间,还是存在着关键性的区别:例如,国家(政府)没有自己的合法利益,它的唯一的利益就是去追求受其统治的国民的利益,因此国家没有独立于其国民之利益的利益;[35]或者换一种说法,国家的一项主要职责是通过避免“囚徒困境”,来解决社会的合作问题。[36]然而,无论是“不存在独立的自己的利益”,还是致力于“解决合作问题”,那些私人公司都不具备这样的性质——它们当然有独立于客户利益的自己的利益,当然也不一定会承担关于合作问题的任务。

简单地说,在我看来,认识到算法权力的重要性,并不等于将它当作真正的国家权力;这个做法的一个目标,是为了揭示出过去的讨论只关注算法黑箱与算法操纵这两个要素的不足:由于算法权力的重要性,它必须被纳入到法律介入算法的框架中。如此一来,要想就法律介入算法给出一个有效的回答,那个理论框架就必须得同时容纳算法黑箱、算法操纵与算法权力这三个要素。正因为如此,才能够走出算法黑箱与算法操纵二元对立的传统框架,才可能寻找到一个更好的解决方案。并且,这个任务不会呈现为以下任何方式:要么因为言论自由或者商业秘密,所以算法操纵就成为必须付出的代价;要么因为要避免算法操纵,只能要求算法的透明化。让我再次强调以下一点:算法黑箱本身并不是应当遭受谴责的现象,一方面,如同过去所言,黑箱不等于不公平;另一方面,算法黑箱也是算法社会得以建立的基础,除非能找到理由说应当彻底否定算法社会存在的正当性,而这一点因为算法社会对福祉的明显促进而变得非常艰难。


四、作为正当程序的算法


到目前为止,清理战场的工作才告一段落,所获得的胜利果实有两个:其一,法律有理由、也有能力介入算法;其二,传统关于法律介入算法这件事情之所以走到死胡同,是因为只关注了算法黑箱和算法操纵这两件事情,而它们之间很容易形成论证上的僵局,尤其是一旦有理由将算法与言论联系起来的时候。现在的战场态势已经非常清楚:在法律介入算法这件事情中,涉及到算法黑箱、算法权力和算法操纵这三件事情,如果能将它们同时安排到一个框架中,那么这个问题的解决就会显露出曙光。

(一)算法与正当程序:它们在何种意义上相关?

辩驳型的写作方式,很容易让读者无法掌握作者自己的主张。所以,有必要以更加清楚的方式,来呈现这篇文章目前的主张:第一,算法操纵的确是算法这件事情所引发的负面结果,并且这值得法律予以保护;第二,传统看法认为,算法操纵是由算法黑箱引发的,所以,完全或者部分程度的算法透明性就成为避免算法操纵的唯一做法;第三,由于算法黑箱并不必然引发不公平且是算法社会得以存在的基础,所以将算法操纵视为算法黑箱的结果,这个做法缺乏充分的理由;第四,可能是基于前一点的考虑或者别的方面的原因,司法裁判上将算法视为言论,这导致算法操纵无法被救济;第五,算法黑箱本身虽然没什么好批评的,但是算法黑箱、尤其是其所导致的算法社会,会使得算法的拥有者掌握巨大的算法权力,并且这是一种准国家权力的权力;第六,在我看来,算法操纵的负面结果来自于算法权力,而不是算法黑箱,因此法律介入算法的具体举措,应当围绕着算法权力展开;第七,将算法视为言论的做法,一方面因为遗漏了算法权力而走错了道路,另一方面它也无法阻碍法律对算法权力的规制。

既然病源找到了,那么接下来就要去分析这个病源的性质,然后拟定出治疗的方案。由前面的分析可知,算法权力是导致算法操纵这个病症的根源,那么算法权力的性质是什么?本节的题目已经显示出来,我认为,算法权力跟正当程序问题有关;不过,这个主张的准确表达,并不是我认为“算法就是程序”,而是“算法是一个跟正当程序有关的事情”。所以,这个看法不来自于一个简单联想:“法律程序”与“计算机程序”共享了“程序”这个语词,它们在语言上其实并不是一回事,英语上的表达非常清楚:procedure与program。[37]

这个判断,主要是基于“(算法)权力”的性质作出的。这将是一段相当抽象的讨论:第一,任何一种社会制度——当然也包括算法社会,一定会涉及权力问题,即它们会赋予一些人控制和干涉其他人生活的能力。这,要么是通过直接赋予某些人以权威地位的方式来实现,使得他们能够命令别人,并以强力的方式使得他们的命令被服从,这就是国家(政府)这种权力拥有者(主权者)的经常样态;要么会以间接的方式赋予某一些人以权力,主要是使得这些人控制了特定的资源和机会,例如一个民间读书会的组织者也有“权力”选择成员的加入。第二,由于社会组织的存在是为了实现某些有价值的社会目标,或者为了实现这些有价值的社会目标必须建立相应的社会组织,因此相应的社会制度是不可避免的;并且,由于社会制度所赋予的权力跟这些目标的取得直接相关,并且它还是社会制度也已正常运转的关键因素,所以它同样是不可避免的。第三,虽然社会制度赋予的权力不可避免,但是它仍然存在很多的危险,其中最大的危险就是权力的滥用;也就是说,由于权力主要是针对社会制度的其他成员,它在事实上经常会不恰当地导致其他人受到损害(harm),所以,这种权力以及赋予它的社会制度本身都需要道德上的证成(moral justification);[38]最后,这些道德证成要求中必然包含着“正当程序”(due process)的要求,即它主要透过对权力拥有者决策方式的审查,来防止权力的滥用,来避免权力行使的任意性;如果这种审查只针对权力行使方式(程序)作出,那么这就是程序性的正当程序(procedural due process);如果它还需要结合社会制度那些有价值的目标来作出,那么这就是实质性的正当程序(substantial due process)。[39]

有了这样一段讨论,以下几件事情就清楚了:其一,算法社会必然赋予算法拥有者以算法权力;其二,算法权力经常会被滥用,算法操纵就是这个现象的集中体现;其三,这就需要以正当程序的标准来审查算法权力的滥用。现在,我终于在算法权力与正当程序间建立起关联,不过这并不是概念上的关联——算法就是程序,而是一种道德上的关联或者规范上的联系(normative relation),即算法权力的正当行使必须要满足正当程序的要求。所以,对算法社会而言,程序性价值之所以重要,就是因为算法的拥有者像统治者一样在行动,它们约束着使用者的空间,它们制定规则和政策,它们以“(在线/网络)社群”(online community)的名义落实(enforce)这些要求。[40]并且,这同时还意味着,一旦算法权力的拥有者能够证明自己的权力行使满足了正当程序的要求,那么这将因为获得了道德证成而免于批评;所以,即便是通常作为算法权力管制者的政府,其管制行为本身也要满足关于正当程序之宪法义务的要求。[41]

(二)正当程序对算法的规制:一个基本框架

虽然目前的论证,足以将正当程序这个规范性观念引入到算法领域,但是由于算法黑箱的存在,这导致了正当程序这个标准的运用呈现出非常明显的特殊性。一般而言,正当程序会要求权力拥有者公开其权力运作的程序或者过程,来证明权力行使的正当性,这通常体现为双重要求:第一,程序本身是公开的;第二,程序的设计本身是正当的,或者说,程序并未给权力的任意行使提供机会。在实践上,这两个要求通常可以合并为对程序公开性的要求。例如行政听证程序,它至少满足以下两个相关要求:一方面需要满足公开进行的要求,因为公开是行政听证程序得以顺利进行的先决条件,这防止了以任意的方式来行使权力,除非是涉及国家机密、商业秘密或者个人隐私;另一方面,听证程序设计上也要做到职能分离,例如听证要由行政机关指定的非本案调查人员主持,并且当事人也有权利因为利害关系的存在申请主持人回避。[42]

如果“公开”就是正当程序的核心要求之一,那么正当程序也会要求算法的公开,这就是另一种形式算法透明性的要求。然而,算法黑箱的存在,导致了以正当程序规制算法时,并不能以如上的方式进行;也就是说,算法黑箱导致正当程序并不要求算法的透明化。于是就会存在这样的疑问:如果不要求算法透明或公开,那么正当程序还能做什么?正当程序不就又变成了空话?

正当程序并不要求算法的透明性,并不意味着正当程序什么都做不了。还是拿行政听证为例,即使缺乏程序的公开性要求,我们仍然会知道行政听证是否满足了正当程序的要求。这涉及到对程序“输入端”和“输出端”的某些评价。具体来说,听证程序要求“行政机关作出责令停产停业等行政处罚决定之前,应当告知当事人有要求举行听证的权利”,如果行政机关未作告知或者只对特定主体作告知,那么这在“输入端”一定是违反正当程序的;如果听证程序所得出的结果,每一次或者多数情形之下,都是行政机关的行政处罚决定获得了支持,那么这在“输出端”就很有理由被认为是违反正当程序的。简单地说,输出端和输入端对正当程序的违反,是独立于那个过程本身是否公开、听证程序是否做到了职责分离等与程序公开相关联的要求的。

其中,输出端的评价更加重要:只要程序的输出结果是单一性的,那么就可以反过来推断,这样的做法违反了正当程序或者程序正义[43]的要求,尤其是罗尔斯所言的“纯粹的程序正义”。所谓纯粹的程序正义是说,不存在对正当结果的独立标准,而只是存在一种正确或公平的程序,只要这个程序被恰当地遵守,那么其结果也就是正确或公平的,而无论它可能是什么样的结果。最典型的例子,就是赌博这件事情,只要赌博游戏的设计本身是公平的,那么无论最终谁输,这个结果都应当被视为公平的。相对于非纯粹的程序正义而言,纯粹的程序正义会带来很大的好处:它会使得相关的争议减少,避免了很多不必要的争论。[44]例如在完全的程序正义中切蛋糕的例子,就很难匹配“孔融让梨”的故事;在不完全的程序正义中,司法裁判总是导致放纵坏人的结果,这也不容易被正当化。

然而,这并不意味着面对纯粹的程序正义情形时,如果没有办法证明这个程序设计本身有问题,人们就只能接受它得出的结果。道理很简单,还是拿赌博为例,如果一个赌博游戏是只有“我赢”这个单一的结果,即使人们不清楚那个赌博游戏本身是否公平,但是他们还是会认为这个赌博游戏就是不公平的。因为,纯粹的程序正义,理应对各种可能的结果基于大致相同的机会,于是它得出的那个具体的结果才被认为是正当的,或者是满足程序正义要求的。一旦明白这一点,在尊重算法黑箱的条件下,正当程序对算法的评价就变得可能:只要我用算法做某些事情的时候,每次得出的结果都具备同样的性质,那么这个结果就很可能是违反正当程序要求的。最典型的例子就是,如果我在特定购物网站买东西,网站给我的价格总是高于其他人,那么这将会违反正当程序的要求;或者跟Loomis案更接近的例子,如果因为某人的肤色、性别,导致特定量刑算法总是给他/她有别于他人的结果,那么无论这个结果是否对该人有利,这都表明那个关于量刑的算法违反了正当程序的要求。

显然,从输出端的单一性来评价算法的做法,非常简单明了:一方面,一旦特定算法出现了单一结果的情形,那么就可以以此来断定该算法违反了正当程序的要求,也就有了因此要求该算法作出改变的正当理由;另一方面,当特定算法作出相应改变之后,我们仍然可以按照如此标准来判断,那个改变是否足够、是否充分,而不必是提供关于如何改变的指令。换言之,虽然我不知道那个算法是如何运作的,但是我知道它是否违反了程序正当,并且这同时满足了算法黑箱的要求,也对算法操纵给予了救济。

除此之外,还可以运用正当程序来评价算法的输入端,这仍然非常简单:如果输入端只向特定群体开放,并且这个部分开放与算法本身的目标没有关系,那么它就被认为是违反正当程序的。最常见的例子,就是在搜索引擎上输入与性别和种族有关的信息时,算法将自动联想为某种带有歧视性的表达之类的特点。比如说,在对话框中输入“女性”,它自动联想为“女性应当待在家里”“女性应该呆在厨房”“女性不应该在教堂发言”等,[45]那么这应当被立刻推断为违反正当程序,而必须加以改正。

最后,算法黑箱的存在并没有否认实质性正当程序对算法的规制。限于篇幅,简单来说,相较于程序性正当程序,由于是否满足实质性正当程序要求的判断,还需要结合社会制度所欲追求的那些目标来作出,而这些目标本身存在着理解上的争议空间,所以它会导致对社会制度更广泛的批评。表面上看起来,算法黑箱的存在似乎禁止了对于算法所欲追求之目标的评价,但这是个误解:因为算法黑箱与算法所追求的目标,始终是两个不同类别的事物。而且,区别程序性与实质性程序正义的标准之一,就在于该社会制度“自愿属性”的多少和有无,如果那个社会制度是完全自愿的,那么就没有实质性程序正义的用武之地,反之则没有理由拒绝该标准。[46]显然,随着算法社会的逐渐到来,越来越难以避免算法化的生存,也就越来越没有理由抵抗实质性正当程序对算法的介入。


五、结论


法律如何面对一个全新的社会现象呢?尤其当这个社会现象正在极大地改变了我们生活的基本样态时。无论支持还是反对、无论欢迎还是警醒,都需要清楚地认识到它所存在的问题。在我看来,算法社会的到来就是这样一种亟需认真对待的现象,而这种认真对待应当围绕着算法黑箱、算法操纵和算法权力这三个概念展开,而不是只针对前两个,那将会导致讨论针对性的错失。本文的主要篇幅就用来做这项工作,而不是用来给出具体的举措。对我而言,确立正确的方向远比迅速提供具体措施来得更加重要,而这正是这篇文章的意义之所在。当然,最后所提到的输出端、输入端及实质性正当程序这些内容,它们应当分别被具体化为什么样的具体方式,就不是这篇文章所能解决的任务了,那依赖于实践者和立法者来斟酌决定。

注释:

[1]显然,在法律性质的挑战中,无论哪个具体的主张,都会得出法律无法介入算法的结论。

[2]严格说来,我根本不认为存在着“以同样好的程度掌握算法知识和法律知识”的“个别例外”。那些认为自己是双料专家的,总会被某一方面的专家认为他“并没有像他自己认为的那样,有资格称为本领域的专家”。

[3]陈景辉:《面对转基因问题的法律态度——法律人应当如何思考科学问题》,载《法学》2015年第9期,第118-122页。

[4] John Finnis, Natural Law and Natural Rights 148-149(Clarendon Press 1980).

[5]当然,“法律拟制”情形除外,但“拟制”的本来意思就是说:A原本在性质上不是B,但是基于某些理由,法律上将A视为B。在这种情况下,需要考虑的就是“那些理由”在法律上是否成立的问题,但这仍然是个法律的问题,而跟A原本的性质关联有限。

[6]陈景辉:《部门法的教义化及其限度》,载《中国法律评论》2018年第3期,第72-74页。

[7][美]劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社2009年版,第6页。

[8]陈景辉:《人工智能的法律挑战:应该从哪里开始?》,载《比较法研究》2018年第5期,第138-139页。

[9] Mark Grennberg, How Facts Make Law? in Exploring Law’s Empire: The Jurisprudence of Ronald Dworkin 225-229(Scott Hershovitz ed., Oxford University Press 2006).

[10]所以,那些一方面认为法律和算法既有共同点又有差异,并因此进一步认为法律应当算法化的主张者,在论证上就存在着严重的断裂(gap)。例如,蒋舸:《作为算法的法律》,载《清华法学》2019年第1期,第64-75页。

[11]更全面的批评,参见陈景辉:《捍卫预防原则:科技风险的法律姿态》,载《华东政法大学学报》2018年第1期,第65-68页。

[12] Ronald Dworkin, Why Efficiency? in Ronald Dworkin, A Matter of Principle 267-289(Harvard University Press 1985).

[13]所以,法律经常给人以“保守”的印象,但这并不等于说法律人在科技的问题上都是保守的,这是两个不同的问题。

[14] Frank Pasquale, The Black Box Society: The Secret Algorithms that Control Money and Information 3(Harvard University Press 2015).

[15]另一种更加哲学化的理解,参见John Cheney-Lippold, We Are Data: Algorithms and the Making of Our Digital Selves 100-107(New York University Press 2017)。

[16]所以,Chander说“人脑(human mind)才是终极黑箱”。Anupam Chander, The Racist Algorithm?115 Michigan Law Review 1030(2017).

[17]具体的论述参见,陈景辉:《法理论为什么是重要的——法学的知识框架及法理学在其中的位置》,载《法学》2014年第3期,第61-62页。

[18]我国《合同法》第41条的完整内容就是对价值冲突提供的复杂解决方案,它的具体规定如下:“对格式条款的理解发生争议的,应当按照通常理解予以解释。对格式条款有两种以上解释的,应当作出不利于提供格式条款一方的解释。格式条款与非格式条款不一致的,应当采用非格式条款。”

[19]必须注意,这种权衡关系并不必然等于对比例原则的满足。

[20]你当然也可以将这种利益上的损害称为对权利的侵犯,至于权利是否以利益为基础的问题,在这里并不重要。

[21] Frank Pasquale用了一本书的主要篇幅来讨论这件事情。See John Cheney-Lippold, supra note [15], at chs.5, 6.

[22]陈景辉:《比例原则的普遍化与基本权利的性质》,载《中国法学》2017年第5期,第295-296页。

[23] Joseph Raz, Rights and Individual Well-Being, in Joseph Raz, Ethics in the Public Domain 54(Oxford University Press 1994).

[24] Joseph Raz, The Morality of Freedom 310-312(Oxford University Press 1986).

[25]完整的理论讨论,参见Toni M. Massaro & Helen Norton, Siri-Ously? Free Speech Rights and Artificial Intelligence, 110 Northwest University Law Review 1175-1188(2016)?

[26] State v. Loomis, 881 N.W.2d 749(Wis.2016).

[27]所以,我也不再考虑那些将算法黑箱视为垄断的思考方式。

[28] E.g. Tim Wu, Machine Speech, 161 University of Pennsylvania Law Review 1495-1533(2013).

[29] E.g. Toni M. Massaro, Helen Norton & Margot E. Kaminski, Siri-Ously 2.0: What Artificial Intelligence Reveals about the First Amendment?101 Minnesota Law Review 2481-2525(2017).

[30] Tim Wu, supra note [28], at 1500.

[31] Jack M. Balkin, Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation, 51 U.C. Davis Law Review 1149-1210(2018).

[32] Id.at 1153.

[33] Id.at 1152-1153.

[34]这个方向的讨论,参见Ariel Ezrachi & Maurice Stucke, Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy (Harvard University Press 2016)?

[35] Joseph Raz, supra note [24], at 5.

[36] A. John Simmons, Justification and Legitimacy, in A. John Simmons, Justification and Legitimacy: Essays on Rights and Obligations 136-137(Cambridge University Press 2001).

[37]所以,我国台湾地区经常将“program”翻译为“(电脑)程式”。

[38] T.M. Scanlon, Due Process, in T.M. Scanlon, The Difficulty of Tolerance: Essays in Political Philosophy 43-45(Cambridge University Press 2003).

[39] Id.at 51-54.

[40] Jack M. Balkin, supra note [31], at 1197.

[41] Anupam Chander, supra note [16], at 1033.

[42]具体规定见《中华人民共和国行政处罚法》第42条。

[43]在本文中,我不加区分地使用正当程序和程序正义这两个概念,虽然正当程序主要是一个法律概念,程序正义是一个政治-道德概念。具体讨论,参见J. Roland Pennock, Introduction, in Due Process xv-xxx (J. Roland Pennock & John W. Chapman eds., New York University Press 1977)?

[44] John Rawls, A Theory of Justice 86-88(original edition, Harvard University Press 1971).

[45] Anupam Chander, supra note [16], at 1035.

[46] T.M. Scanlon, supra note [38], at 55-56.

作者简介:陈景辉,法学博士,中国人民大学法学院教授。

文章来源:《比较法研究》2020年第2期。



    进入专题: 算法黑箱   算法权力   算法操纵   言论自由  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/123675.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统