彭中礼:论数字司法中价值的数据化及其挑战应对

选择字号:   本文共阅读 946 次 更新时间:2025-09-07 23:14

进入专题: 数字司法   法律价值   价值数据化   价值对齐  

彭中礼  

摘要:在数字时代,建设数字司法已经成为迎接新一轮科技革命的时代选择。在人工智能深度参与司法决策中,算法发挥了核心作用。算法的核心能力是高速处理数据和执行逻辑运算。算法的设定受到算法工程师以及人类决策者们道德观念的影响,算法运行的结果也包含价值内容,因而不可避免地蕴含价值判断。算法嵌入司法程序,其进行价值判断的一般理路是植入特定价值观念、开启算法价值对齐以及防范算法价值风险等。在数字司法过程中进行价值判断,最重要的前提就是要实现司法价值的数据化。人工智能具有可计算性是价值数据化的前提,海量数据是人工智能算力水平不断提升的必然需要,且价值数据化可以通过经验方式形成海量的价值数字。推进价值数据化,需要对法律价值进行自然语言处理、提取法律价值的向量特征以及进行机器学习。价值数据化在数字司法中具有广阔的应用前景,但同时也面临一些挑战和风险。从根本上说,数字司法需要算法进行价值判断;而推进价值数据化是实现数字司法价值判断的关键。

关键词:数字司法;法律价值;价值数据化;价值对齐;数据清洗

 

2023年2月,中共中央、国务院印发的《数字中国建设整体布局规划》提出,“建设数字中国是数字时代推进中国式现代化的重要引擎,是构筑国家竞争新优势的有力支撑”。在数字时代,大数据、人工智能(AI)等数字技术在法律中使用被认为是不可避免的,因为他们被视为是网络社会和所谓的“第四次工业革命”转型的结果。[1]随着技术不断改变人类社会的工作和运作方式,有人预测人类活动的许多方面将被新技术改变甚至取代,人类的许多活动也会随着时间的推移而发生变化。在技术迅速变革的背景下,人类社会以前基本上未受干扰的一些活动领域也受到了更广泛的影响。譬如技术已经在深刻改变法律实践,其可以通过取代、支持或补充司法角色来重塑审判过程。[2]可见,现代数字技术的飞速发展,对司法产生了重要影响。“不同于传统的法院信息化建设、智慧法院建设,数字司法建设是法院工作从根本上实现高质量发展、迈入现代化的方法路径。”从时代发展来看,“建设数字司法,对内可以推动法院审判方式和管理方式的重塑性变革,对外则能提升诉讼服务和社会治理效能,实现人民法院整体性、系统化的数字变革”[3]。在数字时代,建设数字司法已经成为司法迎接新一轮科技革命的时代选择。事实上,国外已经出现了与数字司法相关的案例,例如,2016年威斯康星州诉卢米斯案(Wisconsin v. Loomis),作为美国司法史上首例数字司法领域的判例,正式承认了人工智能参与量刑裁判的合理性与正当性。[4]因此,对数字司法及其相关内容进行研究已经迫在眉睫。

目前,有关数字司法的研究,主要有三种路径:一是对数字司法的基础理论进行研究;二是对如何建设数字司法进行研究;三是对数字司法建设与社会治理的关系进行研究。从现有研究来看,对数字法院、数字检察等新型司法的宏观形态进行了深入分析,揭示了未来司法的发展趋势,但是对如何进行数字司法的建构,还缺乏精细研究。特别是其中涉及的诸多具体理论与实践问题,需要深入展开。比如,无论是智慧法院建设还是数字司法建设,都需要对人工智能和大数据的应用做深入具体分析,其中最关键也最核心的就是数字司法能否进行价值判断,以及如何进行价值判断。因此,要对数字司法的本质属性作重要分析,然后重点讨论价值数据化的可能性,最后对价值数据化的路径进行理性反思,从而为数字司法的建构奠定理论基础。

一、算法可以进行价值判断

价值是观念认知的结合体。任何决策的形成,既有机制作为保障,也需要有价值作为重要参与内容。这是因为,决策是人的意志的体现,无论其是否符合客观规律、是否科学,价值以及价值判断都隐性或者显性成为决策的构成内容。然而,在数字司法建设过程当中,算法能否蕴含价值是学术界争议的话题。比如有学者认为,算法能够通过处理简单案件,或者通过其固有的程序性、公式化计算来优化诉讼程序,但是却无法胜任复杂疑难案件的处理。所以,算法决策促进形式正义有余而实质正义不足。即使随着科学技术的不断发展或者迭代升级,算法决策的质量会更好。然而,其依然无法成为独立裁判的法官。[5]这是在隐性表达算法难以包含价值判断。国外也有学者明确表示,司法人工智能难以与价值兼容。如巴西学者Claudia Toledo和Daniel Pessoa在介绍巴西司法人工智能系统时,特别提出,人工智能系统(缺乏)透明度,无法做出价值判断。[6]因此,我们必须对此进行审慎地思考,在数字司法运行过程当中,其核心逻辑要素算法到底能否包含或者进行价值判断?

(一)价值判断是算法的重要构成

算法是解决问题的过程、步骤或者方案,通过算法人们就可以直接输入问题而得出一个结果。算法是解决问题或完成任务必须遵循的一组指令。算法是一组有限的规则,给出了解决特定类型问题的一系列操作。算法应用于许多不同的领域,包括科学、工程、计算、商业,当然也包括司法。[7]在数字技术中,算法的核心能力是高速处理数据和执行逻辑运算,即快速实现先做什么、再做什么、最后做什么的步骤而促使问题得以解决。无论是自然语言处理算法、知识图谱算法,还是机器学习算法,本质上都是通过对已有知识进行程序化设定的结果,进而模拟和表达人类的思考形式。“虽然人工智能并不执行所有任务,但可以执行计算和速度,而且还可以根据价值观、感觉、标准、重要观点或观点进行理解和反思。”[8]实际上,价值判断作为指导算法设计和应用的重要因素,一直是算法的重要组成部分,但是算法本身并不能进行独立自主价值判断。从自由意志的角度来看,算法尚难以成为自由意志的主体,因而其本身并不具有自主思考的能力,也不可能具有道德认知。因此,在进行数字司法建设时,运用算法进行司法决策,也难以说数字司法系统本身具有自主进行价值判断的能力。“司法决策不仅意味着数据知识,还意味着判断,即对构成现实的行为、事实、利益进行价值判断。评价某事物为好的(价值判断)或应有的/正确的(义务判断)必须是人类独有的活动。”[9]但是,这并不妨碍价值判断成为算法的重要构成要素。已经有较多学者越来越明确地主张人工智能可以处理价值问题,比如有学者说,人工智能和算法越来越能够在认知复杂的任务中取代人类工作者,包括与正义相关的任务。[10]当然,从技术本身来看,人工智能处于不断发展的状态,未来时段人工智能能否像人类一样“聪明”,属于不确定话题。但是,从当前的技术进路来看,人工智能也能够间接处理价值问题。

一方面,从形成过程来看,算法的设定受到算法工程师以及人类决策者们道德观念的影响,因而不可避免地蕴含价值判断。算法既是人类决策的结果,也表征了人类的决策选择。实际上,人类的决策涉及诸多相关因素的处理和选择。算法不能在损失其功能的情况下将其与诸多环境因素隔离,也不能将其简化为数字计算机所使用的二进制逻辑。算法以形式化的二进制模拟了人类的决策过程,从而使得人类关于某些问题的思维模式程序化、固定化。模拟人类决策是一种字母数字结构,其中不可能通过生物系统实现模拟形式的处理——生物系统包含数十亿甚至数万亿个参数,这些参数定义了大脑的当前状态,算法的形式和符号系统无法处理甚至是无法完全理解大脑的运算过程。因此,算法不具备评价数据好坏、公平或不公平的能力。它的代码只是通过将某些数据与(开发人员)理解为良好、积极、正确的特定结果模型相关联来重现开发人员所做的评估。换言之,算法或许不会产生道德感,但是设计算法的工程师以及人类决策者们是有道德感的,因此算法工程师或者人类决策者或明或暗地将自己的伦理道德观念蕴含在算法当中。“现代法律主体制度是建立在对人的哲学理解基础上的。它强调人除了具有认知、判断和选择等能力以外,还具备道德、良心、良知、伦理等要素。”[11]无论是何种道德观念,道德感是人的重要特性。通过人的道德观念传递到算法当中去,既是使算法具有内在规制的基础要求,也是算法能够复制人类道德感的程序显现。在算法代码中,它可以重现道德观念,但它不能自主地做出这些判断。算法被编程为识别数据及其特征,然后根据它们的数学代码对它们进行分类,标记这些数据,将它们“装箱”到前缀模型替代方案中作为可能的结果。当算法工程师将自己的道德选择和道德判断融入到算法程序当中去,算法的价值判断就开始了。总之,我们还没有处于计算机控制的反乌托邦中,我们的命运也没有由无可争议的计算预先决定。但数字技术提供了透明度和赋权的机会,被正确设计的系统可能有助于克服偏见和成见。人类仍然是决策循环的重要组成部分,仍然存在较多机会来影响和管理计算机技术的发展,以确保道德和法律成为软件开发人员和分析师课程的一部分,并进行必要的监管。[12]

另一方面,从运行结果来看,算法的运行结果也包含价值内容。人工智能能够写诗、写文章,能够作曲、绘画,就说明人工智能并不缺乏价值。试想一下,诗歌、文章、作曲、绘画当中难道没有包含价值吗?只不过,这种价值可能是算法缔造者们价值的体现,而不是机器本身的价值。甚至可以说,算法也许并不能自己创造价值,但是算法工程师赋予算法特定的道德价值的时候,算法也就蕴含了道德判断于其中。有学者认为,“人工智能算法使得机器能够通过可读的指令程序,根据网络痕迹、位置信息、消费记录等数据,对人的行为进行评价和预测。”[13]所以,应当说,当人工智能再现其开发者的价值判断时,所呈现的任何有偏差的结果都不是程序固有的,也不是由程序生成的,而是源于/取决于所输入的数据、数据的交叉组合以及参数权重的设定和它们之间的关系等因素。简而言之,在这个以系统的方式自动复制已经建立的东西的过程中,人工智能唯一进行的活动就是人类偏见的强化和潜在化,以及社会偏见的指数级扩张,因为人工智能具有显著的优越性。比如当使用带有算法偏见的人工智能系统时,人类偏见的增强和强化与这些偏见的制度化、歧视性待遇的官方化,简而言之,非法行为就会与合法化结合在一起。[14]还要看到,很多耦合因素也会导致算法价值因素的出现,其中最重要的就是算法异化现象。比如有学者就曾说:“随着人工神经网络技术的发展,人工智能在分析、预测和判断上的某些能力已经超过了人类。有时还会出现算法超出设计预期的运算方式和输出结果,令设计者难以理解的情况,即算法自主或者算法异化现象。”[15]在算法系统中,鉴于诸多因素耦合在算法程序当中,形成算法的多种叠加,也可能形成算法的价值因子。当然,这种现象过于偶然,不再赘述。还要再次强调的是,我们坚持算法可以进行价值判断,并不是说算法可以自主地进行价值判断,而是算法可以复制人类的价值,根据人类的思维进行相应的决策。

(二)算法进行价值判断的方式和路径

前文已证,算法蕴含价值判断已经是不争的事实。在数字司法中,价值判断也可以成为司法的重要构成要件,从而形成数字时代司法的重要理想图景。从程式上来看,司法裁判与机器学习算法具有相似性,即均为按照既定“算式”或者“公式”运行“计算”出特定结果,这个运行过程充分彰显了过程理性或程序理性。人工智能司法裁判以法律语言的可计算和法律推理的能计算为前提,即法律语言通过形式逻辑的符号来表达,从而实现法律语言与计算语言的互译,并基于此形成司法人工智能的计算推理程序。[16]从这个逻辑来说,无论是司法裁判,还是算法裁判,都需要运用法律语言,也需要有法律推理,二者的共通性使得数字司法具备了可能。换言之,司法具有可计算空间,这为数字司法的价值判断奠定了技术基础。从算法嵌入司法程序的一般理路来看,其进行价值判断的方式和路径主要有植入价值、进行价值对齐以及防范价值风险等。

第一,植入特定价值观念。在司法活动中,价值问题是司法永恒的问题。某种意义上说,法官基于价值判断的司法裁判,是许多司法案件成为经典案件的根本缘由。在具体案件中进行价值判断,充分展现了人类法官的思维理路和惊涛骇浪般的价值权衡过程。有国外学者调查了公众对算法法官的看法。结果表明,尽管法院用户承认算法的一些优势(即成本和速度),但他们更信任人类法官。相对于算法裁判,人们更信任人类法官做出的裁决。人们对算法法官和人类法官的信任程度取决于案件的性质:当法律案件涉及情感复杂性(相对于技术复杂或不复杂的案件)时,对算法法官的信任度特别低。[17]这是因为,人们觉得法官具有价值判断的能力,而算法裁判却是机器进行的裁判,缺乏价值判断能力,也没有道德情感活动。要让人们足够信任算法裁判,价值判断内容必不可少。因此,既然算法不能够自动产生价值,那么就必须给算法植入价值。价值植入是算法能够获得认同的前提和基础,也是数字司法具有生命力的源泉。在数字司法建设的系列算法当中,司法价值观念应当成为其核心内容。这是因为,人工智能与法律的逻辑之间不仅存在差异,而且存在对立,从而产生结构性的不相容。人工智能(基于数据)根据其参数对数据进行概括、分组,根据系统中编程的公式(标准化)将每个单独的数据构建为预定的组件模型。这些概念与法律在司法判决中适用法律规范时所遵循的个体化和单一性概念恰恰相反。在司法判决中,一般和抽象的法律规范被具体化为具体案件的个体,其特定条件赋予了案件审理情况和主体的独特性。因此,人工智能在司法判决中的使用恰恰忽略了具体案件独特的事实和法律条件。[18]然而,多个独特性概念的选择,以及每个法律规则的选择,本身就包含有何者优先适用的价值判断。因此,在算法中植入司法价值,可以使得人工智能算法在选择法律规则或者法律原则时,有特定的取舍,这种取舍就奠基于特定的价值观念之上。特别是在算法黑箱、算法歧视等问题大量存在的背景下,要树立人们对人工智能司法的信心,就必须将司法价值变成算法的支撑力量。具体而言,迎接人工智能算法引发的司法革命,促进数字司法的迅猛发展,就需要形塑司法算法的价值观,确保数字司法发展既沿着遵循司法规律的方向,又能够实现司法人工智能的未来前景。

第二,开启算法价值对齐。价值对齐的概念由哲学家们最早提出,意欲追问在人工智能急速发展的大背景下,我们如何构建具有“与人类一致的价值观”的自治系统。[19]这意味着,随着人类社会科学技术的迅猛发展,人类逐步意识到价值观的可贵,因而希望在技术发展的同时,人类价值观不会被抛弃,人依然保持独有的价值思考能力并传递到其他可能的新兴主体之上。学者们对此的一般回答是:“人工智能体价值对齐就是人工智能技术符合人类价值观,与人类价值观保持一致。人工智能体价值对齐源于人类的有限理性,人工智能体的自主性、不确定性和风险性。”[20]科技哲学家们在价值对齐的内容和目标上进行了更为充分的界定,认为价值对齐应该实现机器目标和人类需求之间的协同,确保机器与人类指令、偏好、利益、价值等维度保持一致。[21]所以,推进价值对齐是人类解决人工智能挑战困境的重要价值思路。算法工程师们在设计算法时,应当将人类的价值观念融入到人工智能系统当中去,并且在可能的情形下,要积极推进人工智能自主推演的价值观念与人类的价值观念相一致。无论哪种方式,都表明人类对自身价值观念的维护,甚至说是对于人类价值观念可能丧失的担忧。从广义来看,“价值对齐源自人类期冀自身价值观被技术理解并被实现,进而契合技术为人类带来福祉的诉求,是通向技术社会化与社会技术化双向奔赴的一种尝试”[22]。从司法的角度来看,司法裁判更需要有价值观念的参与,这是实质主义司法观的重要内容,也是司法实践的常态。因此算法裁判需要植入价值观念,使得司法算法价值与人类价值相一致,从而形成数字司法的价值对齐。在现有的技术实践中,人工智能通过数据库训练(学习),可以根据数据库中发现的模式为相似的输入提供不同的解决方案。这意味着数据相似,数据背后的价值可能有不同,特别是不同的数据组合(结构化数据)更有不同的价值理念。这就对价值对齐提出了较高要求。从技术层面来看,确定价值对齐的技术性手段主要包括监督精调(Supervised Fine-tuning)、人类反馈强化学习(RLHF)、合作逆强化学习(CIRL)、宪法AI(Constitutional AI)和红队测试(Red Teaming)等。[23]以RLHF为例,我们可以对价值对齐的路径进行更为细致的理解。RLHF的目的是强化人类偏好,以人类反馈和强化学习相结合,从而形成一个可以不断调整和加强的算法路径。在RLHF中,算法将人类的价值偏好(如公平、正义、平等等)设定为奖励,以信号(符号)的形式设定。在进行模型训练的时候,人类偏好的设置可以增强模型对人类意图的更好理解,也能够更好满足人类需要。这样使得模型和人类之间的交互不断实现自由优化,从而使得输出结果与人类的期望越来越相近。当然,其中如何来实现价值偏好的设计,是一个根本问题。可见,在数字司法过程中,价值对齐将会成为数字司法进行价值判断的核心要素之一。

第三,防范算法价值风险。既有的算法规制理论在研究算法风险时,往往强调算法存在算法黑箱、算法歧视以及算法权力等三大风险。因此,如何识别算法领域的风险,是算法治理的基础。学者们对此也提出了较多的风险防范技术,比如进行算法解释等。[24]其实,这三大风险本质上还是与价值判断有关。换言之,之所以存在算法黑箱、算法歧视乃至算法权力等风险源,从价值层面来看就是司法价值并没有在算法中得到有效贯彻和融入,因此需要以价值对齐为基本任务,防范算法的价值风险。比如,有新闻报道指出,随着人工智能的发展,算法具有智能性,开始主动对用户实施影响展开操纵行为。如Facebook的“情感蔓延”项目通过控制对50万名用户的新闻投放,用积极或消极的语言来表述新闻,来使用户受其影响而自己发出积极或者消极的消息。这可以说明两个问题:一是人工智能已经初步具备了价值判断的意识,能够有目的地进行操作(当然,还不能依此称之为自主进行价值判断);二是算法工程师可以通过算法程序进行价值取舍。或者说,目前人工智能算法对价值的控制和运用还是受到算法工程师的影响。从人工智能技术的发展来看,人工智能是一个不断发展的概念,随着时间的推移,技术进步意味着计算机程序和系统变得更有能力执行任务和功能,而机器变得更有能力,日常任务和功能曾经被认为是不可或缺的。越来越多地使用人工智能来执行复杂的功能可能包括在不久的将来可能出现的情感处理的发展。[25]所以,为防止司法算法出现与人类价值相悖的情形,就需要在算法中植入价值以及进行价值对齐,并通过算法程序进行风险防范。从具体实施方式来看,防范算法价值风险,最根本的是要对价值问题有数据化的理解。比如,要对价值进行一般化的理解,而不是进行具体化的理解。人们对价值内涵的理解存在较大差异,因而需要对具体价值的内容进行最一般化的概括和提炼,避免形成人言人殊的价值而导致价值之间存在悖论。此外,对于价值之间可能存在的冲突,也要预设好标准体系,避免价值冲突时的决策紧张。当然,无论是形成一般化的价值,还是通过价值标准处理好价值冲突,最根本的还是要让价值具有“可读性”,即能够被算法程式理解,这才是算法处理价值问题的关键。

二、价值数据化的可能性及其方式

推进数字司法建设,助推智慧司法系统进行价值判断,最重要的前提就是实现司法价值的数据化。换言之,既然数字司法建设依赖司法算法的价值化倾向,那么在数字司法建设的过程当中,不断实现司法算法能够进行价值判断的基本目标,就需要对价值进行数据化,从而形成司法价值的数据库,为数字司法建设奠定价值数据基础。

(一)价值数据化的可能性

在数字时代,一切数据,无论结构化数据还是非结构化数据,都能够为数字司法系统所运用。在人类技术史上,大数据是带有颠覆性质的技术。其以数据技术为核心,将未经加工的原始事实、数字、符号或观察结果,乃至人类所有行为,都整合进数据当中,进而从中呈现某些事物的特殊规律。 [26]因此,让司法所涉因素进入司法程序成为数据,就成为数字司法建设核心内容。

第一,可计算是人工智能的重要前提和基础。在人类的思考当中,价值判断是以思维权衡的方式进行。这个过程是价值的取舍与平衡,是各种因素综合作用的结果。从机理上说,人类大脑的特有“思维”功能形成了价值判断的可能性,从而保障各种场景下人类自身的权益。人类的思维属于生物反应,是对外在刺激的自然而然的本能动作。然而,在人工智能系统当中,计算机的“思考”属于物理反应,是人类对物理信号处理过程及其认识的体现,主要是通过进制语言进行。计算机对于事物的“理解”只能通过0和1这两种二进制机器语言来实现,并基于此来识别指令并执行指令。所以,现阶段的计算机尚不可能直接理解“块结构”的证据。计算机在理解司法案件的证据时,必须将“块结构”打散,形成可识别的结构化数据,进而让计算机识别和计算。[27]计算机的本质是计算,算力是计算机的核心能力。因此,人工智能的前提就是算力。人工智能基于大数据、算力、算法等科技因素而实现,需要计算机科学和人工智能技术发展到特定阶段才可能诞生。当然,无论是人工智能,还是计算机的算力水平,都是人类思考的结果。而法律价值,在信息化时代,不仅需要体现人类的情感和道德需要,也需要可计算,从而契合信息时代的发展趋势。当今我们栖身于信息时代,这个时代正在重塑法律结构的综合范式。如果信仰时代需要形式主义来统摄法律世界,那么信息时代则必须承认多元因素可能影响法律形态。对于法律秩序的建构而言,信息时代和信仰时代都有自己的图腾。如果说信仰时代的图腾是形式主义,信息时代的至高法则就嬗变为可计算实在论。可计算性标准的兴起与动态规则的演进,终将成为这个时代对法律表达范式的历史性贡献。[28]当然,今天的计算能力尚不足以达到创建新秩序的地步,但是计算能力正在以指数级的能力增长,因此将一切事物进行可计算分析,将成为人工智能具有强大算力的基础。可计算的承载形式是代码。“代码是网络空间的架构,代码片段是这种架构的基础材料。我们在网上看到的一切都是通过代码传输的,只有代码才能使社会规则在网络空间发挥规范作用。因此,代码已成为网络空间的规制工具。” [29]代码是网络世界的基本规则。法律可以调整人的行为,却无法直接干预网络世界的运行。法律规则要通过网络成为智能要素,必须转化成可计算的代码,使得计算机能够识别。所以,无论是法律规则,还是法律规则所蕴含的价值取向,要能够成为计算机所识别的数据,就必须以可计算的方式转化成代码符号。

第二,海量数据是人工智能算力水平强大的必然需要。现在,人工智能越来越多地用于实现与人类相关的某些功能。虽然法律比任何游戏都复杂,但已有的许多成功尝试表明人工智能法官能够通过“阅读”立法和判例法来学习如何应用法律,并且将这些法律原则应用于实际情况。鉴于非法律领域的发展和人工智能的快速扩张,未来十年内可能会开发出更复杂的法官人工智能。随着机器学习与更复杂的预测分析过程相结合,更复杂的人工智能法官成为一种更可行的选择。更复杂的人工智能法官的出现,其实需要更多的数据作为支撑。缺乏数据支撑的人工智能算力水平终究有限。当前,人们在设计法律人工智能时,其主要模式就是通过大数据实现深度学习,这种深度学习模式需要有庞大的法律数据库(包括法律文书库)。比如,将近一亿份裁判文书的“中国裁判文书网”就是深度学习的主要数据来源。有了海量的裁判文书作为数据支撑,深度学习就有了重要前提和基础。[30]以海量数据为基础,司法人工智能的系统构造就有了可能,与此相关的法律制度就有了数据基础,从而可以不断提升算力水平。在数字经济时代,算力是最先进的生产力,也是新质生产力在数字化时代的重要展现。在数字化时代,数据是新质生产力的新要素,算力是新型的生产力,算法则是新型科技。“数据、算力和算法的结合反映了新质生产力数字化发展的新水准。”[31]算力水平不断发展的过程,就是对数据运用能力不断提升的过程,也是数据不断增大规模的过程。虽然说,数据规模巨大与否并不直接呈现算力水平,但是同质数据越多,整合的可能性越大,算力水平就会越强。因此,我们在建设数字司法过程中,最重要的一环就是为数字司法提供充足的司法大数据。司法大数据越多,司法所呈现的形态越多,计算机的司法算力就会越强大。“算力的支撑导致大智能。超大规模模型参数的算法即超多层的神经网络,数据是超大规模的数据样本,算力是超大规模的计算范畴。”[32]数据规模越大,算力越能支撑人工智能的发展。

第三,价值数据化可以通过经验方式形成海量的价值数字。在司法人工智能的推进过程中,必然有一些反对声音。其可能的论点是经验知识难以运用数据化的方式来表达,比如个人成长过程中获得的独特感悟,这些感悟是未经历者难以体验的;此外,还有一些经验知识往往是默示的或者隐性的,这些知识也难以用某些特定的语言来表达,从而导致司法所需要的经验数据和事实当中存在的经验数据难以匹配。对于这种观点,笔者并不赞同。如果经验不能够被语言表达出来,则仅仅是个人的感悟和主观感受。一旦个人感悟和主观感受用语言表达出来,则数据化就成为可能。所以,能够被数字化的经验,首先一定是可以用语言表达出来的经验。甚至还可以说,人们体现在司法判决当中或者其他法律文书当中的价值观念和法律情感,等等,本质上也可以成为经验。已有学者通过司法人工智能的实际运作指出,情感技术的发展表明,开发能够识别人类情感并做出适当反应的技术是可行的,并且可能比人类更准确地做到这一点。 [33]比如Aletras及其同事开发了一个程序,对欧洲人权法院有关侵犯人权的判决进行文本分析,以发现判决蕴含的裁判文书写作模式。该程序学习了这些模式,并能够对其他裁判文书的相关内容进行预测,其平均准确度为79%。这是机器学习的一个例子,其中计算机系统能够“分析过去的数据以制定未来可推广的规则”。可见,机器学习允许计算机程序通过经验来模拟而不是学习复杂的任务来实现价值数据化。基于此,可以认为,在价值数据化的过程中,人们可以先对价值的形态及其表现进行标记实现特征提取,从而建立价值的数据库。

(二)价值数据化的方式与路径

要特别注意,“价值数据化”与通常所说的“数据价值化”在表述上有所不同,但两者在核心思想上存在共通之处。数据价值化强调的是将数据资源转化为经济价值或社会价值的过程,而价值数据化则更侧重于将原本难以量化的价值转化为数据形式。在数字司法领域,这一过程不仅涉及数据资源的开发和利用,还包括对司法价值的深入理解和量化评估。在数字司法建设或者智慧法院建设过程中,其处理司法运行系统的最底层依据就是数据,无论是结构化数据或者非结构化数据,在其中都能够起到特定的作用。在对价值进行数据化的过程中,我们可以借助于专家系统的某些有益经验。“专家系统通常由知识库、推理机和解释界面组成。知识库包含了专家系统的原材料;代表专业知识的规则和事实。推理引擎是一种计算机程序,它尝试通过使用知识库并与知识库交互来解决用户提出的查询。”[34]因此,如果数字司法建设需要运用到价值数据可以形成价值数据的知识库,那么价值数据化的可能性将大幅度提升。所以,推进价值数据化,可以通过对法律价值进行自然语言处理、提取向量特征、进行样例学习等方式进行数据化运作。

第一,对法律价值进行自然语言处理。“自然语言是‘活着的’语言,具有柔软性。因此,要让‘头脑僵硬’的计算机去理解自然语言,使用常规方法是无法办到的。” [35]计算机能够模仿人类大脑的运作,就需要能够“阅读”人类语言;计算机要能够“阅读”自然语言(人类语言),就需要进行转化处理。计算机的运作方式是以通讯进行的,即“通过产生感知和信号而形成的有目的的信息交换,这些信号取自由约定信号组成的共享系统”[36]。人类语言通过特定方式转化为机器语言——信息,就变成了人与机器信息传递的重要组成部分。“互联网上已有超过万亿数量的信息网页,而几乎所有这些页面都是用自然语言描述的。Agent想要获取知识,就需要理解(至少部分理解),人们所使用的具有歧义的、杂乱的语言。”[37]所以,人工智能机器要具有进行价值判断的能力,首先就需要有关于法律价值的知识,这就需要对法律价值进行自然语言处理,形成法律价值的知识数据库。目前,在自然语言处理方面,以n元字符模型为代表的自然语言处理算法已经解决了很多种语言与机器语言的衔接问题。因此,将语言转换成字符,就变成了最关键的一步。所有的法律价值都需要运用语言来表示,比如自由、正义、公正、秩序、平等或公平等词语都可以有对应的语言符号,将这些表示特定价值的语言符号开发出来,就为形成自然语言的识别提供了可能。在自然语言处理的方法当中,人类较早运用的方法是创建近义词集合数据库。“通过对所有单词创建近义词集合,用图表表示各个单词的关系,可以定义单词之间的关系。用这个单词网络,可以教会计算机单词之间的相关性。也就是说,可以将单词含义间接地教给计算机,然后利用这一知识,就能让计算机做一些对我们有用的事情。”[38]比如,可能在近义词数据库中,法律价值“公平”“公正”“正义”“公平正义”“社会公正”等词就会被当作同一类词汇处理;而“自由”可能以“在法律的范围内无拘无束/不受约束的活动”之类的描述替代。但是,随着社会不断发展,旧词逐渐被人遗忘,新的词语不断涌现,会导致词语数据库需要不断更新。为此,词语数据库将被语料库(用于自然语言处理和应用的海量的文本数据集合)所替代。在这种方法的协助下,法律价值就可能被语料库所收集并储存起来使用。

第二,提取法律价值的特征向量。“大数据不再是单纯的数字,而是能够描绘出对象特征的数字集合。”[39]因此我们要将对象特征用数字符号的形式表达出来,或者说是将事物的原始数据转化成有意义的表现形式的过程。具体而言,就是被定义的物体要能够以被计算机所识别或定义的特性来体现(本质上,就是通过对被定义的单词用其周边的单词进行描述)。在自然语言处理过程中,特征向量通常用于表示文本数据的数值特征,以便于机器学习算法进行后续的处理和分析。比如,我们要区分自由、正义、公正、秩序、平等等词语,就必须用某种特定的符号把这些词语表示出来。再如在用数字符号描述西瓜的时候,可以将西瓜的特征向量分解为外形、颜色、味道等符号,从而让人工智能通过这些符号元素来判断这个就是“西瓜”。同样的道理,我们也可以对“自由”法律价值进行特征向量的分解,形成关于“自由”特征向量知识数据库,使其容易被人工智能迅速识别。如我们可以将“自由”概念用诸如“身体——未被羁押”“依据——根据法律”“表达——未被强制要求”等特定向量来表征/表达(由于研究深度的关系,上述表达可能仍然只是对“自由”的特征向量的初步表现)。要在促进算法公平性方面取得有效进展,就需要清楚地了解如何定义、衡量和讨论算法公平,并了解衡量公平的各种选项有何不同、在其中进行选择时涉及的权衡,以及如何做出有关公平性的决策。[40]当然,比较明确的概念(如西瓜),确实可以用几个特征向量来表征,但是一些非常抽象的价值词汇,用特征向量来表达可能就比较困难,需要寻找更多的特征因素。一般来说,对某个特定的单词所使用的上下文单词(即与所要描述的事物有关联性的单词或者周边的单词)越多,即所关联到的向量特征越多,对事物的定性分析就会越准确。所以,在建设有关价值的数据知识库时,用什么特征向量来表示所有的法律价值,使各法律价值之间能够相互区别,又能够形成融贯性,已经成为学界应当讨论的有意思的话题。

第三,进行机器学习。学习是一个不断获取信息以及进行能力改善的过程。如果人工智能能够进行学习,那么人工智能的设计就能够不断改进以适合发展需要。“Agent任何部件的性能都可通过从数据中进行学习来改进。”[41]因此,随着智能水平的不断推进,机器学习能力就会不断提升。机器学习就是从样例(样本)中进行学习,体现了数据的驱动力。“机器学习的研究主要分为两类研究方向:第一类是传统机器学习的研究,该类研究主要是研究学习机制,注重探索模拟人的学习机制;第二类是大数据环境下机器学习的研究,该类研究主要是研究如何有效利用信息,注重从巨量数据中获取隐藏的、有效的、可理解的知识。”[42]任何系统,衡量其是否智能的标准之一就要看其是否具有学习能力。法律价值的数据库/语料库形成以后,既需要通过机器学习促使法律价值的表示方式不断完善,也需要通过机器学习对法律价值数据库中的知识进行有效挖掘,充分有效利用信息,以获得更多知识。机器学习算法主要是根据现有数据设计自己的预测模型,在数据中寻找可用于生成非常准确的预测的模式。[43]机器学习算法是根据程序员选择的数据集进行训练的。通过这些训练数据,他们可以识别并利用统计数据中的模式、关联和相关性。例如,可以通过输入数千张不同马和驴的图片来训练算法以区分马和驴。[44]在此基础上,对法律价值的数据库/语料库中进行不断的知识训练,不断进行机器学习,将法律价值数据充分运用以发挥其最大效用。

三、价值数据化的挑战及其应对策略

关于法律价值的问题,是司法中最关键也是最重要的问题。人类关于法律价值的讨论历来不绝如缕。这是因为人类既对法律价值充满信心,又对法律价值的明确性存怀疑态度。这种态度愈是矛盾,说明法律价值的作用愈是突出。所以,在数字司法建设过程中,如何对司法裁判中的价值判断问题进行技术化处理,是其中的关键。上文虽然回答了价值数据化的可能性,为数字司法建设处理价值问题奠定了基础,但是也应当对其限度及其优化对策进行必要反思。

(一)价值数据化的挑战

价值数据化在数字司法中具有广阔的应用前景和可能性,但同时也面临一些挑战和风险,建设数字司法就必须正视这些潜在的问题,及时预防,未雨绸缪,以加速推进数字司法建设。

第一,价值自身的独有特性带来的挑战。一是价值主观性的挑战。价值问题一方面带有客观性,比如满足人类基本需要的价值就应当客观;但是,另一方面,价值还具有主观性。不同的主体,其生活经历、所受教育、生活群体的道德观念影响等因素都会影响其价值观。此外,个体之间对价值的认识也有较大差别。个体之间基于主观偏好而形成的价值观差异,也是十分普遍的事情。即使是学者们在研究所谓的公平、正义、平等、自由等具体价值的时候,差异也会很大。比如,对于何谓公平,有人会认为结果平等就是公平,有人则认为机会平等才是公平。二是价值量化标准的挑战。在传统观念当中,价值一直被认为是抽象性很强的事物,难以用具体的语言描述。因此,对于价值的主观性,用数据来表达会有一定的难度。在进行价值数据化的时候,也必须考量价值量化的标准和设计具体指标这一难题。三是价值冲突的挑战。鉴于主体之间的价值观不同,实现路径也千差万别,因而在面对同一事物时,不同的主体基于不同的目的就会有不同的价值要求。比如,在国家经济发展过程当中,到底是要公平还是要效率,就是一个难题。这种冲突如果要确立量化指标,也存在确立标准困难的问题。从某种意义上说,人类确立了多元的价值标准,就会存在较多的价值冲突,从而形成价值冲突处理的难题。

第二,技术发展水平的限制。在价值数据化的过程中,最核心的要素是运用何种技术推进价值数据化。虽然说科学家们不断发展了自然语言处理方法、特征向量的提取方法和机器学习的方法,但是在运用到价值数据化的过程当中,还需要有更多更为直接的发现和发明。换言之,当前技术在数据收集、处理、分析等方面存在较多局限性。比如,在数据的收集方面,存在一个成本过高的问题。即对价值进行数据化,必然需要对价值的表现形式进行充分研究,保证数据化的价值能够获得人们的认可,不至于形成算法黑箱,更不至于存在算法歧视。从国外的相关案例来看,算法技术的错误导致算法歧视的案例比比皆是。比如在一些学者的研究中介绍了美国著名的COMPAS系统中存在偏见现象,美国威斯康星州最高法院在州诉Loomis案中要求向部署者以及部署者用户发出强制警告在刑事量刑中使用算法风险评估之前,由于许多私营公司参与了刑事调查报告(PIR)的编写,因此,这种风险评分实践中存在偏见或失败的公平性指标的风险非常严重。[45]当然,也要看到,尽管人工智能在司法部门的应用可能会产生高昂的初始成本,并且根据所使用的工具而有所不同,但随着时间的推移,这种实施不仅会在诉诸司法方面产生重要的积极影响,影响其发展和应对的效果,并且随着时间的推移,所做的投资将得到回报。[46]

第三,数据质量的限制。人工智能的前提和基础是数据,核心是数据质量。比如,司法数据的质量就影响人工智能大模型的发展。陈晓红院士团队通过研究认为,各级人民法院在录入司法数据时,带有一定的选择性。而且,各个地方对于裁判标准的理解存在较大差异,导致大量裁判文书存在重要信息或者关键信息的缺漏。这些现象的存在,就会影响司法人工智能模型的应用效能。[47]如果说云计算为海量分布的数据提供了存储、访问的平台,那么如何在这个平台上实时挖掘数据价值,使其为个人、组织和国家服务,将是云计算必然的发展方向,更是大数据技术的关键核心议题。然而要想充分发挥大数据带来的优势,实现大数据的价值增值,高质量的数据是大数据发挥效能的前提和基础,强大、高端的数据分析技术是大数据发挥效能的重要手段。在这样的背景下,对大数据进行有效分析的前提是必须保证数据的质量。[48]在价值数据化过程中,数据的质量和准确性就会直接影响到价值数据化的效果,而且如何保证被数据化的价值与人们的普遍观念相一致,避免算法歧视和算法偏见的形成,也是人工智能技术必须重点思考的问题。比如,对具体价值的特征向量的分析就应当全面且实事求是。人工智能能否进行价值判断之所以存在巨大争议,根本原因就在于价值本身是一个思想观念的问题,而在目前的人类观念中,人工智能是很难拥有自主意识,因而也就不可能自主进行价值判断。本文所称价值判断,是在将法律价值数据化之后,促使人工智能适当复制人类观念而进行的算法权衡。因此,要尽可能将人们所认识的法律价值以能够被接受的形式复制到人工智能系统当中。换言之,此时算法工程师们所设计的价值数据化标准或者特征向量应当符合人类的理性、普遍认知。用与人类需要相一致的特征向量来描述法律价值,才是高质量的数据;否则,只会引起更为巨大的争议。

第四,法律和伦理的可能限制。价值数据化问题本身就是一个法律问题,也是一个伦理问题。对价值进行数据化,既需要对价值本身的特征向量进行结构化分析,也需要基于海量数据来分析和论证特征向量的提取是否契合司法裁判的需要。当然,对特征向量的提取是一个技术问题,除了进行必要的验证之外,本身应当不需要有太多法律制约。但是,在运用海量司法数据来进行分析和论证时,可能就会产生法律问题和伦理问题。从法律层面来看,对司法中与个人相关的敏感信息的收集、整理和分析必须严格遵守数据隐私法规,即算法工程师在设计价值判断算法时,需要保持必要的透明度,也应当有必要的责任感,以此为基础进行算法构造。从伦理层面来看,如何合理收集和使用个人隐私信息(这在司法中大量存在),既不至于侵犯公民的隐私,也不至于对社会构成潜在的危害,也是需要慎重考虑的问题。

(二)应对价值数据化挑战的策略

司法裁判虽然处理的是事实问题和法律问题,但是不可能做到价值无涉。换言之,正是因为司法裁判中存在价值判断问题,所以司法才会充满人性化的魅力。价值数据化是数字司法领域的一个重要概念和实践方向,是未来数字司法应当深入思考的问题。通过深入研究和探索,我们可以更好地理解和利用数据来推动司法工作的改进和创新。从上述可能限度来看,要继续推进价值数据化,就应当不断改进人工智能技术,提高数据质量,从而合理规避法律和伦理问题。

一是应对价值自身特性挑战的制度路径。推进价值数据化时,在充分利用大数据技术收集海量与价值相关数据基础上,需要充分挖掘隐藏在数据背后的价值规律,特别是基于人类的活动体现出来的价值选择规律。在此基础上,建立价值的指标体系和评估制度就成为时代主题。一方面,要建立价值评估的指标体系。价值数据化,就要促进价值衡量指标的数据化确立。比如,针对特定领域的特定价值,可以基于特征向量建构评估标准。当然,在法律活动中,不同的法律价值应当由不同的特征向量来呈现,因而对法律价值进行评估,其所需要的指标体现也就会存在较大差异。另一方面,要建立价值分层分类评估制度,推进数据评估模型的建构。主体多元,价值多元,价值的评估也应当分层次分类型。要从法律层面提前规划价值评估模型,为法律价值分层次分类型制度的建构提供技术支撑。

二是新型人工智能技术发展的法律对策。推进价值数据化,最重要的技术之一是深度推进大模型技术的研发。当前,以AI大语言模型(简称AI大模型)为代表的生成式人工智能(AIGC)技术飞速发展,并产生了巨大影响。但是从理论上说,AI大模型技术尚处于初级阶段,远没有达到深入应用的水平。价值数据化是整个司法大数据应用最复杂的过程,也是司法人工智能能否实现的关键所在,可以预见,未来司法人工智能推进过程中,AI大模型必定是占主流的技术之一。因此,从法律层面来说,要运用立法手段促进AI大模型的深度发展和深度应用,保证技术应用的广泛空间。此外,为了避免因数据孤岛而限制了人工智能技术的应用,可以在立法确保数据安全与合法使用的基础上,允许有关部门对相关数据进行整合,从而避免数据质量过于低下。

三是通过技术和制度提升数据质量。数据质量是价值数据化的保证,也是司法裁判能够实现价值判断的前提。因此要在技术层面和制度层面发力,保证数据质量不断提升。从技术层面来看,大力发展数据采集技术和数据清洗技术,推进数据验证和数据标准化。从现有的数据清洗流程来看,主要包括三个环节,分别是检测并预处理数据源的数据格式、检测预处理数据的完整性以及进行数据格式还原。[49]但是这个过程是非常繁杂的,因此应当需要与时俱进的创新清洗技术,特别是结合行业发展的特点来创新清洗技术,才能提高数据清洗能力,提升数据质量。从制度层面来看,要建立法定的司法数据清洗制度。换言之,对司法数据的清洗必须在法律制度的框架范围内进行,对司法数据清洗的主体范围、主要内容和应然进路进行具体规定。当然,也要设立必要的防范措施,避免个别人运用数据清洗制度弄虚作假,从而进一步影响司法数据的质量。

四是对法律和伦理问题进行合法性处理。展望数字司法在价值数据化方面的未来发展前景,以及对司法体系可能带来的变革,要促进价值数据化的深入发展,对其中所涉及到的法律和伦理问题进行合法化处理就是重点议题。从法律层面来看,要将透明和负责任作为处理数据价值化问题的根本原则,建构数据化的指标体系。从伦理层面来看,要建构符合伦理规则的数据收集渠道,并在公开透明原则的指引下,合理合法运用司法数据,从而保护公民隐私。

四、结语

数字司法建设,本质上是算法的运行体制和机制建设。我们探讨数字司法的算法逻辑、价值数据化的风险挑战,以期为数字司法的实践和发展提供有益的参考和借鉴。推进价值数据化,可以提升司法效率,并对司法公正进行评估,加强司法公信力建设。从本质上说计算机就是一台符号的处理器,其通过0和1不断地进行符号处理,进而表达人类的思想。在这个过程当中,符号控制了运算的逻辑,而逻辑则实现了结果的输出。虽然这个过程看起来是机器操作的过程,但从根本上说,却体现了人类思考的精妙性。至少从目前来看,计算机机器还无法摆脱人类的控制。将计算机机器运用到司法裁判过程当中去,不仅产生刑事方面的技术问题,自然也会产生价值与情感问题。因此,数字司法应当注重价值判断,并对价值判断的技术进路进行有效设计。应当认识到,这种与价值有关的讨论越多,如何对价值进行评估的方法越多,各种方法之间的对话才能形成。从技术角度来看,衡量公平性的不同方法以及对“公平”含义的不同理解的存在,不可避免地意味着不存在完美的评估方法。然而,如果对可用于测量偏差的工具以及这些工具之间的关系有更多的认识,那么关于与公平有关的算法测算的对话将会更加有效,并且更有可能产生积极的结果。[50]基于此,我们需要有更多的学术讨论来积聚智慧。此外,还要注意到,价值判断所依赖的技术前提——价值数据化,本身是一个极具难度的课题,如何从多方向、多维度进行研究,也需要更深刻的思考。

参考文献

[1]See Toledo, Claudia, and Daniel Pessoa, The Use of Artificial Intelligence in Judicial Decision Making, Revista de Investigacoes Constitucionais, Vol.10, No.1, 2023, p.2.

[2]See Sourdin, Tania, Judge v. Robot: Artificial Intelligence and Judicial Decision-Making, University of New South Wales Law Journal, Vol.41, No.4, 2018, p.1114.

[3]贾宇:《论数字法院》,载《法学研究》2024年第4期,第3页。

[4]See State of Wisconsin v. Loomis, 2016 WI 68, 881 N.W.2d 749 (Wis.2016).

[5]参见马长山:《司法人工智能的重塑效应及其限度》,载《法学研究》2020年第4期,第40页。

[6]See Toledo, Claudia, and Daniel Pessoa, The Use of Artificial Intelligence in Judicial Decision Making, Revista de Investigacoes Constitucionais, Vol.10, No.1,2023, pp.2-3、p.19.

[7]See Ayuda, Fernando Galindo, Algorithms, Sociology of Law and Justice, Journal of Digital Technologies and Law, Vol.2, No.1, 2024, pp.34-45.

[8]Ayuda, Fernando Galindo, Algorithms, Sociology of Law and Justice, Journal of Digital Technologies and Law, Vol.2, No.1, 2024, pp.34-45.

[9]Toledo, Claudia, and Daniel Pessoa, The Use of Artificial Intelligence in Judicial Decision Making, Revista de Investigacoes Constitucionais, Vol.10, No.1,2023, p.18.

[10]See Yalcin, Gizem, et al, Perceptions of Justice by Algorithms, Artificial Intelligence and Law, Vol.31, No.2,2023, pp.269-292.

[11]郑智航:《人工智能算法的伦理危机与法律规制》,载《法律科学》(西北政法大学学报)2021年第1期,第17页。

[12]See Kennedy, Ronan, Algorithms and the Rule of Law, Legal Information Management, Vol.17, No.3, 2017, pp.170-172.

[13]郑智航:《人工智能算法的伦理危机与法律规制》,载《法律科学》(西北政法大学学报)2021年第1期,第14页。

[14]See Toledo, Claudia, and Daniel Pessoa, The Use of Artificial Intelligence in Judicial Decision Making, Revista de Investigacoes Constitucionais, Vol.10, No.1,2023, p.21.

[15]马长山:《司法人工智能的重塑效应及其限度》,载《法学研究》2020年第4期,第39页。

[16]参见雷磊:《数字司法的理论反思:意义、问题与监管》,载《交大法学》2024年第6期,第90页。

[17]See Yalcin, Gizem, et al, Perceptions of Justice by Algorithms, Artificial Intelligence and Law, Vol.31, No.2,2023, pp.269-292

[18].See Toledo, Claudia, and Daniel Pessoa, The Use of Artificial Intelligence in Judicial Decision Making, Revista de Investigacoes Constitucionais, Vol.10, No.1,2023, p.16.

[19]See M.Peterson, The value alignment problem:A geometric approach, Ethics and Information Technology, No.21,2018,pp.19-28.

[20]闫坤如:《人工智能体价值对齐的分布式路径探赜》,载《上海师范大学学报》(哲学社会科学版)2024年第4期,第132页。

[21]参见李思雯:《人工智能价值对齐的路径探析》,载《伦理学研究》2024年第5期,第100页。

[22]闫宏秀:《基于信任视角的价值对齐探究》,载《浙江社会科学》2024年第6期,第40页。

[23]参见李思雯:《人工智能价值对齐的路径探析》,载《伦理学研究》2024年第5期,第100页。

[24]参见周翔:《算法可解释性:一个技术概念的规范研究价值》,载《比较法研究》2023年第3期,第188-200页。

[25]See Sourdin, Tania, Judge v. Robot? Artificial Intelligence and Judicial Decision-Making, University of New South Wales Law Journal, Vol.41, No.4,2018, p.1116.

[26]参见魏健馨:《大数据的法律价值解析》,载《黑龙江社会科学》2023年第2期,第87页。

[27]参见栗峥:《人工智能与事实认定》,载《法学研究》2020年第1期,第120页。

[28]See John O. McGinnis,Steven Wasick, Law's Algorithm, Florida Law Review 66,No.3,2014,p.1049.

[29]徐冬根:《计算法学:法律如何实现可计算——以方法论和认识论为分析视角》,载《北京行政学院学报》2024年第3期,第100页。

[30]参见吴旭阳:《法律与人工智能的法哲学思考——以大数据深度学习为考察重点》,载《东方法学》2018年第3期,第20页。

[31]任保平、豆渊博:《数据、算力和算法结合反映新质生产力的数字化发展水准》,载《浙江工商大学学报》2024年第3期,第91-92页。

[32]蒋昌俊:《大智能:大数据+大模型+大算力》,载《高科技与产业化》2023年第5期,第17页。

[33]See Sourdin, Tania, Judge v Robot? Artificial Intelligence and Judicial Decision-Making, University of New South Wales Law Journal, Vol.41, No.4,2018, pp.1129-1130.

[34]David Ian Bainbridge, Expert Systems and the Law, Law Teacher 23, No.3,1989,pp.279-292.

[35] [日] 斋藤康毅:《深度学习进阶:自然语言处理》,陆宇杰 译,中国工信出版集团、人民邮电出版社2020年版,第58页。

[36]Stuart J.Russell、Peter Norving:《人工智能——一种现代的方法》(第3版),殷建平等 译,清华大学出版社2013年版,第740页。

[37]Stuart J.Russell、Peter Norving:《人工智能——一种现代的方法》(第3版),殷建平等 译,清华大学出版社2013年版,第715页。

[38] [日] 斋藤康毅:《深度学习进阶:自然语言处理》,陆宇杰 译,中国工信出版集团、人民邮电出版社2020年版,第60页。

[39]魏健馨:《大数据的法律价值解析》,载《黑龙江社会科学》2023年第2期,第87页。

[40]See Foggo, Virginia, et al, Algorithms and Fairness, Ohio State Technology Law Journal, Vol.17, No.1,2021, p.126.

[41]Stuart J.Russell、Peter Noring:《人工智能——一种现代的方法》,殷建平等 译,清华大学出版社2013年版,第579页。

[42]陈海虹等 主编:《机器学习原理及应用》,电子科技大学出版社2017年版,第4页。

[43]See Cary Coglianese,Alicia Lai, Algorithm vsAlgorithm, Duke Law Journal 71, No.6,2022,p.1306.

[44]See Bansal, Aastha, and Srishti Nair, Algorithm, Law and Democracy, Supremo Amicus,No.15, 2020, p.16.

[45]See Purvi Pokhariyal, Archana Patel and Shubham Pandey, AI and Emerging Technologies Automated Decision-Making, Digital Forensics, and Ethical Considerations, CRC Press, 2025, Chapter 8.

[46]See Erick Rincon Cardenas,Valeria Martinez Molano, A Study on the Possibility of Applying Artificial Intelligence in Judicial Decisions, DIREITO GV Law Review 17, No.1,2021,pp.1-29.

[47]参见陈晓红等:《面向环境司法智能审判场景的人工智能大模型应用探讨》,载《中国工程科学》2024年第1期,第194页。

[48]参见宗威、吴锋:《大数据时代下数据质量的挑战》,载《西安交通大学学报》(社会科学版)2013年第5期,第40页。

[49]参见杜亦航:《大数据中的数据清洗技术分析》,载《电子技术》2023年第12期,第45页。

[50]See Foggo, Virginia, et al, Algorithms and Fairness, Ohio State Technology Law Journal, Vol.17, No.1, 2021, pp.123-188.

    进入专题: 数字司法   法律价值   价值数据化   价值对齐  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/166994.html
文章来源:本文转自《行政法学研究》2025年第5期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统