王沛然:法律人工智能的推理模式及其缺陷克服

选择字号:   本文共阅读 305 次 更新时间:2026-04-13 23:08

进入专题: 法律人工智能   大模型   法释义学   人机协同  

王沛然  

 

【摘要】法律人工智能的推理模式需从技术与法学的双重视角予以解析。形式主义的符号推理模式将事实与规范要素作为机械逻辑单元进行精密推理,但无法解决机器语言与其映射内涵开放性之矛盾。现实主义的概率推理模式以大模型的神经网络模拟人脑认知决策复杂性,可以理解概念间的微妙关联并作出直觉性预测,但其表演式的推理、对价值判断的统计学复制、真诚性与责任性的缺失意味着背离法治精神的风险。“神经—符号”混合推理架构整合两者优势以实现更聪明的计算,但由于缺乏共同体生活经验和感性体验,其输出结果仍非合乎正义的决断。应以“有效人类监督”为核心构建人机协同框架,通过可解释、可干预、激发批判性思维的交互界面,在赋能法律人的同时维护人类的价值判断主导权,推动法律人工智能的可信应用。

【关键字】大模型;法释义学;法学方法论;检索增强生成;微调;人机协同

 

如何让人工智能“像法律人一样思考”?这是构建“法律人工智能”(Legal AI)绕不开的核心议题。真正的法律人工智能,其核心能力显然不止于一般意义上的自然语言处理,而必定是以法律规范为基准、以案件事实材料为对象的法律推理。在我国语境下,为法律推理提供规范化心智操作程序的,正是作为法学方法论的法释义学。[其意义在于,尽管法律判断在可靠性和精确性上很难达到数学证明或实验测量那样的程度,但法律人仍须遵循一套可被公共理性评价的解释与论证秩序。在法律人工智能的开发与应用中,理想目标应是让其推理模式符合法释义学在方法论上的要求,让其结论在法律职业共同体可接受的论证模式下得到证成。

当前,技术领域的研究多致力于机器性能指标的提升,如尝试嵌入“法律三段论”等基础逻辑结构,或通过指令微调、改进检索策略等工程来提升特定法律任务的自动化效率,却较少探讨如何使系统契合法律人的思维内核。与此同时,法学界则更多关注人工智能应用于司法实践的外部伦理与制度风险,却鲜有进入机器原理层面探讨与具体技术结构相匹配的治理方案。有的学者将法律人工智能运行模式归结为“根据历史裁判数据的预测”,有的学者则将讨论限定在“依托固定逻辑规则与符号化编码”的传统进路下,这事实上忽视了不同技术路线的融合空间。技术上的简化主义与法理上的悲观主义相互交织,造成一种悖论:也即,人工智能技术飞速迭代,但法律人工智能的应用却迟迟难以获得法律共同体的信任。

对此,需从技术与法学相结合的视角出发,将人工智能“为什么出错、错在何处、如何纠偏”从抽象担忧转化为具体工程问题进行解析。本文从类型化方法入手,将法律人工智能的推理模式划分为规则驱动的符号推理与数据驱动的概率推理两大理想类型,分别揭示其法理渊源及技术构造,并从法释义学角度逐一诊断其缺陷;基于此,剖析整合两者的“神经—符号”混合推理路径之优势与不足。笔者认为,在技术上可以对法律人工智能的聪明推理持乐观态度,但人类不应向机器让渡规范性事务的最终决策权。应以“有效人类监督”为核心构建人机协同应用框架,通过可解释、可干预、激发批判性思维的交互界面与人类介入节点的科学设定,合理配置机器的计算性分工与人类的价值性职责。由此,或可为法律人工智能的产品开发与应用治理提供一些参考思路。

一、规则驱动的符号推理模式及其固有局限

基于形式化规则的符号推理是法律人工智能的基础技术范式,其理念在于将法律元素构建为符号系统,并通过知识表示与逻辑演绎实现自动计算。对此展开解构分析,一方面要考察作为其理论内核的形式主义法学思想,以及作为其技术实现路径的符号主义人工智能方法,并揭示两者的内在匹配机制;另一方面需要审视该推理模式应用于真实法律场景时的固有局限,进而评价其适用边界。

(一)形式主义法学是符号推理模式的法理根据

打造“法律适用的逻辑自动机”是一个经久不衰的理想,其思想根源可追溯至19世纪的形式主义法学思潮。在大陆法系,随着法国、德国等国相继完成法典编纂,一个以立法权为核心的时代宣告来临,法典及法律理论则被寄予表达精确传递之规则的厚望。在判例法系,形式主义思维同样在彼时的司法实践中产生重要影响。出于对人类理性的乐观信念,形式主义法学追求构建语词精确、逻辑严谨、规则完备的法律规范,形成清晰和确定的秩序,并将法律适用界定为纯粹的逻辑演绎过程。博克尔曼对此有过中肯描述:“法官的制定法适用应该像自动机一样运转,它带有的惟一特点是,运转的装置不是机械式的,而是逻辑式的自动控制”。形式主义法学框架下的法律推理至少依赖于两大前提性支柱:其一,法律体系本身是逻辑上封闭自洽、无涉价值的符号系统;其二,复杂的法律关系可以分解为具有确定逻辑关联的基本单元加以分析。

对法律体系封闭性与自洽性的信念,当以德国传统的概念法学为典范。面对法典化运动带来的新秩序,以普赫塔为代表的概念法学家致力于构建如同几何学般严密的法律科学体系。其著名的“概念金字塔”理论宣称,所有法律规范都可以从少数几个最高阶的法律概念中逻辑地推演出来,形成无缝衔接、内部和谐的概念体系。依循这一视角,法秩序的基本概念是先验、预设且固定的,任何法律问题都可以在这个封闭的体系内通过逻辑涵摄找到正确不变的答案。法律适用者的角色因而被简化为“涵摄机器”:其任务仅仅是识别案件事实,将其作为“小前提”,套入作为“大前提”的法律规范中,从而机械地推导出结论。这种不考虑法律目的及意义脉络的处理方式,虽然因脱离社会现实而备受批判,但它所描绘的“法律规范=公理,案件事实=输入,司法决策=逻辑推论”的图景,为后来基于规则的法律专家系统提供了最直接、最原始的程序构想。

如果说概念法学为“逻辑自动机”搭建了宏观的体系框架,那么霍菲尔德的分析法学和凯尔森的纯粹法学则为其打造了微观的逻辑内核与精致的结构语法,使法律推理更具可计算性。霍菲尔德尝试为法律关系建立一套精确的符号体系,他通过对司法判决语言的精细解剖,提炼出“权利/义务”、“特权/无权利”、“权力/责任”、“豁免/无权力”这四对最基本的法律概念。这些概念通过“关联”(如“权利”必然对应他人的“义务”)和“对立”(如拥有“权利”则并非处于“无权利”状态)的逻辑关系,构成一个严密的、封闭的符号矩阵。其分析框架的革命性在于,纷繁复杂的社会关系与法律争议都有望转化为定义明确、相互关联的逻辑符号组合并进行演算。换言之,现实的案件可以在霍菲尔德的框架下“翻译”成基本法律符号之间逻辑关系的判定问题。正是基于对法律关系的形式化、原子化处理,霍菲尔德的概念矩阵为法律人工智能的推理建模提供了一条关键的理论路径:既然法律关系能够被分解为离散的、具有确定逻辑关系的符号单元,那么法律推理在本质上就可以被还原为符号计算。

凯尔森的纯粹法学理论同样以一种精致的方式延展了形式主义的思想路径。其标志性的“规范阶层构造”将法律规范体系刻画为自上而下的效力推导结构,其中每一个下位阶规范的效力都源自其上位阶规范的授权,最终可追溯至作为整个法律秩序逻辑起点的“基础规范”。由此,整个法律秩序成为逻辑环环相扣、效力上传下达的等级体系,而司法判决作为最低阶的个别规范,其正当性则取决于它是否处于其直接上位法所设定的可能框架内并通过合法的授权程序创造出来。凯尔森的理论虽然承认法官在一定框架内的解释和选择空间,因而比古典概念法学更具现实感,但其理论内核依然具有强烈的形式主义色彩。这是因为,凯尔森的纯粹法学“拒绝对实在法进行评价”,在此视域下法律效力的维持仅依赖于其在规范等级体系中的位置,因而将法律秩序形式化为一套由效力传导机制维系的逻辑句法系统。基于此,法律推理也就拥有了更为稳定的运作结构与验证机制。

从概念法学对封闭体系的追求,到霍菲尔德对法律关系的原子化分析,再到凯尔森对规范等级的逻辑建构,形式主义法学为规则驱动的符号推理型法律人工智能提供了从宏观体系、微观单元到结构语法的理论蓝图,在某种意义上塑造了人们对第一代法律人工智能的技术想象。

(二)演绎逻辑知识的专家系统是符号推理模式的技术支撑

将形式主义法学“逻辑自动机”的理想付诸实践的尝试,主要体现在以规则库编码为基础的法律专家系统中。其核心构想是将法律规范体系视为公理集合,通过知识表示将法律规范与案件事实拆解为机器可读的逻辑要素,进而实现自动化计算与决策。此种符号主义的技术路径始于经典逻辑的简单应用,并因法律实践的复杂特质而不断走向更为精细化和多元化的逻辑建模。

一阶谓词逻辑是法律规范形式化的基础工具。通过将法律语言分解为谓词(描述属性或关系)、个体词(指代对象)、量词(如“所有”、“存在”)和逻辑联结词(如“与”∧、“或”∨、“非”┐“蕴含”→),法律规范可转化为精确的符号语句,以实现逻辑涵摄过程的可计算化。例如,“所有年满18周岁的中华人民共和国公民,都享有选举权和被选举权”这样的规范语句,可以被形式化为:x (是中华人民共和国公民(x)∧年满18周岁(x)→享有选举权(x)∧享有被选举权(x))。规则的建模过程遵循着“拆分—审视—整合”的三步曲:首先将规则拆解为构成要件,然后独立审视每个要素的内涵,最后将其重新整合成有助于推理引擎调用的逻辑形式。由此可以将分散的法律概念和事实要素结构化为语义网络,为符号演算提供知识基础和推理约束。此时,推理引擎通过逻辑规则的约束(如“年龄≥18”),可以从静态的数据中自动推导出如关于特定对象的结论(如“享有选举权和被选举权”)。这种形式化方法的优势显而易见,即赋予了法律推理清晰性、精确性和可验证性。不过,这种经典逻辑很快就遭遇了法律实践的第一个重大挑战:规则的例外与冲突。

真实的法律体系远非逻辑上单调的公理系统,而是充满了例外条款、优先顺序和在特定条件下可被推翻的缺省假定。例如,“所有年满18周岁的中华人民共和国公民,都享有选举权和被选举权”是一般规则,而“依照法律被剥夺政治权利的人”则是推翻该规则的例外情形。经典逻辑的单调性难以处理这种“可废止”的特性,无法适应法律推理中随着新证据出现而不断修正结论的动态过程。申言之,法律推理的前提之“真”,并非绝对的客观真理,而是基于现有信息的“被证成”状态;一旦出现新的反向证据,原有的证成则可能失效。为解决此问题,非单调逻辑被引入法律适用的模型中,其承认新信息的引入会改变原有论述的证成结构,强调推理的动态性、暂时性、进化性和可错性。这意味着可以在一个推理系统中引入新的、可能与先前结论相矛盾的信息,并根据预设的优先级或偏好关系来动态修正结论。在技术实现上,结构化论辩框架等解决方案通过可废止推理规则来表示法律论证,系统构建论辩图谱来捕捉规则间的攻击与支持关系,并引入优先规则来规范冲突。当新的事实证据进入系统时,系统能触发状态更新,激活例外路径而阻断原有的一般规则推理,从而在计算层面模拟法律论证中结论被废止或修正的过程。非单调逻辑的引入,使得符号主义的推理模型从静态的演绎机器,向能够应对论辩和变化的动态系统迈出了关键一步。

解决了规则的结构复杂性后,又一挑战接踵而至:如何处理法律内容的规范性特质?法律不仅关注事实陈述,更关注“应当”“允许”“禁止”等规范指令。一阶谓词逻辑主要处理事实性命题的真假,却难以完美匹配这些规范性概念。对此,道义逻辑填补了这一空白:通过引入模态算子,为权利、义务等核心法律概念构建形式化语言。这恰恰与前文所述的霍菲尔德分析法学框架相契合,其精炼出的基本法律概念构成法律规范的微观逻辑内核,使得基于道义逻辑的推理具备了可计算性。例如,当系统识别到一份合同约定某主体“有权”做某事,而法律强制性规定其“不得”做此事时,一个集成了道义逻辑的推理引擎就能自动识别出此处的效力冲突,并提示人类用户进行审查——这就使机器不再仅仅是描述性推理的工具,更成为能分析权利义务结构的规范性判断系统。还有学者指出,基于可计算的道义逻辑,未来的人工智能体可以在不同情境中根据概括的法律规则自动推理出一系列派生具体法律义务,实现自主的法律决策。

然而,符号推理方法还面临更深层的技术挑战:法律世界中充斥着大量诸如“合理期限”“重大过失”“情节严重”等概念,其边界并非固定。传统非真即假的二值逻辑在此失效了。法律人处理此类问题时,采用的是一种近似的、基于程度判断的思维方式,恰如拉伦茨所言,“理解程序的开端通常是一种——有时还相当模糊的——意义期待,它经常是在初次的匆匆一瞥中产生。”为了在计算系统中刻画这种模糊思维,有学者将模糊逻辑作为处理法律中不确定概念的重要工具。模糊逻辑的诞生是对“精确性崇拜”的反思,它承认并试图科学地处理世界的模糊性:引入“隶属度”概念,即一个元素可以在0到1之间的程度上“部分地”属于一个集合。例如,《行政强制法》规定行政机关不得在“夜间”实施强制执行,但法律并未精确定义何为夜间,传统逻辑只能给出一个僵硬的时间切点,而模糊逻辑则可以认为晚上8点“有0.6的程度”属于夜间,而凌晨0点则“有1.0的程度”属于夜间。通过定义隶属函数,模糊逻辑将对模糊概念的判断,从定性的、主观的解释问题,转化为可以进行定量分析和计算的数学问题,这使得符号推理模式在一定程度上缓解了形式的固化性。

可见,规则驱动的符号推理路径通过不断引入更精密的逻辑工具,逐步构建起日益细致的、试图复刻法律人思维的形式化推理框架,其在维护法律推理确定性和统一性方面具有积极价值。

(三)符号推理模式无法解决机器语言与其映射内涵开放性之矛盾

从法学方法论的视角审视,符号推理的精致化并不能掩盖其在模拟真实法律思维时的根本缺陷。

1.法律规则的涵摄适用难题

形式主义法学的“逻辑自动机”图景以三段论逻辑为基础内核,但以符号来演算法律规则的涵摄适用过程面临现实困难。从法释义学出发,困难的根源在于,法律推理的真正痛点并非推导逻辑本身,而在于推导前提的建构。

一是小前提的建构,即将纷繁复杂的客观生活事实,转化为指向法律构成要件的法律事实。这一转化过程是充满解释与建构的创造性活动,而非简单的文本字段输入。法律人的目光必须在案件事实与法律规范之间“来回顾盼”,通过这种双向审视,案件事实中具有法律意义的方面才被“照亮”,法律规范的内涵也才在具体事实中得以澄清。例如,“张三穿一件红衣服,因为心情不好喝了二两白酒,在街上看到仇人李四,冲上去撸起袖子给了他一拳,李四鼻子流血了”需要经由法律思维的筛选和提炼,转化为“张三实施了殴打行为,致李四轻微伤,且具有主观故意”。符号推理系统缺乏在纷繁事实材料与规范要件之间进行辩证“流转”的灵活能力,只能处理被预先结构化、标签化的法律事实,却难以完成从原始、非结构化的生活世界到法律世界的关键一跃。

二是大前提的建构。涵摄过程面临法律概念自身“开放结构”的挑战。“法律经常利用的日常用语与数理逻辑及科学性语言不同,它并不是外延明确的概念,毋宁是多少具有弹性的表达方式,后者的可能意义在一定的波段宽度之间摇摆不定……即使是较为明确的概念,仍然经常包含一些本身欠缺明确界限的要素”。即便前文所述的模糊逻辑可以通过“隶属度”函数将模糊判断定量化,但这仅仅是将问题转移,而非实际内在解决:只要系统最终仍须作出“构成/不构成”的二元判断,就需要人为设定“去模糊化”的阈值——而这本身就是一个需要考量立法目的、社会环境与个案公正的价值决策过程,并非完全由机械逻辑所推导的结果。质言之,符号系统可以执行基于阈值的计算,却无法自主地、合乎情理地设定这个阈值。因此,在规则涵摄这一法律适用的基础层级,符号主义路线就因无法处理从事实到规范的转化以及概念本身的开放性而捉襟见肘。

2.法律原则的权衡适用难题

在法律推理的进阶层级——法律原则的适用场景,符号推理系统同样遭遇失灵。法律规则的适用方法是“涵摄”,而法律原则的适用方法是“权衡”。当不同的法律原则,如“契约自由”与“公序良俗”、“个人信息保护”与“公众知情权”在个案中发生冲突时,法律人不是像适用规则那样“全有或全无”地选择其一,而是必须根据个案具体情况,对各项原则代表的价值进行衡量,以确定何者应在多大程度上获得优先。这种权衡过程是一种实践智慧,要求法律适用者具备深厚的法学素养、丰富的生活经验和对社会整体价值秩序的把握。以代码形式预先为千变万化的情境设定硬性规则逻辑的符号推理模式无法企及。

尽管阿列克西等学者作出了以“权重公式”等方式将权衡过程形式化的努力,但这些公式仅凭本身并不能自动运行。公式中的每一个变量,如原则被违背的强度、原则的重要性以及对事实判断的可靠性,其赋值过程本身仍是复杂的价值判断和定性评估。符号系统可以作为计算机器,在人类专家为其赋予所有变量值之后机械地计算出结果;但它无法触类旁通地理解价值内涵,更无法在面对全新的案件时,自主地、创造性地完成赋值这一核心的权衡步骤。因此,在处理法律原则适用这一更高阶的推理任务时,纯粹的形式化、符号式“逻辑自动机”难有用武之地。

3.小结

从整体上看,符号推理模式的内在矛盾在于,其试图用封闭、确定的形式系统去捕捉开放、动态、充满价值冲突的法律世界。无论是规则的涵摄还是原则的权衡,法律推理往往离不开从无限开放的社会事实中提炼法律关系、在多元冲突的规范价值中作出选择的创造性劳动。这种劳动的内在机理,必然包含一种基于经验和直觉的心智过程。符号系统的失灵,恰恰在于它将法律人经过复杂心智活动后形成的、作为论证流程的逻辑结构,当作了法律思维的全部,而这在很多场景下其实是颠倒了因果关系。菲利普·黑克的批判性观点在此同样适用:法律规范展现着现实利益冲突,概念建构的可能性有限、作用有限,司法裁决需通过带有目的的利益衡量产生。同样,公正的法律推理也并非从僵硬的符号规则中机械产生,而必须源于个案事实与法律价值的交融互动。

总之,从法释义学的视角看,基于形式化逻辑规则和符号推理模式无法自主完成事实与规范的开放性映射、无法自主执行价值原则间的权衡。这并不是通过引入更精密的逻辑工具就能弥补的,而是根植于形式主义法学与符号主义人工智能范式本身的机械性。要让人工智能真正“像法律人一样思考”,还需要尝试其他不同的道路。

二、数据驱动的概率推理模式及其内生风险

在案件事实复杂、规范存在开放文本、决策受情境因素影响的条件下,法律推理结论往往难以固化为从规则逻辑出发的唯一必然解,而是常表现为带有置信度的经验判断。对此,数据驱动的概率推理模式代表了相应的技术范式,其核心思路是从海量历史数据中学习特征规律,并以此为基础进行概率性的分析与生成。法律现实主义思潮是概率推理模式的法理先导,以大模型为代表的连接主义神经网络则是其前沿的技术载体。

(一)现实主义法学是概率推理模式的法理根据

如果说规则驱动的符号推理模式可以从欧陆理性主义与形式主义法学寻得认识论资源,那么数据驱动的概率推理模式则可借助北美实用主义哲学及法律现实主义运动加以说明。两者的分野标志着法律思想的某种转向:从追求逻辑自足性转向关注社会经验实践,从“应当是什么”的先验思辨转向“实际上是什么”的经验预测。这为后来基于统计和概率的学习型人工智能进入法律领域奠定了理论基础。

霍姆斯的名言“法律的生命不是逻辑,而是经验”常被视作现实主义法学的先声。所谓“经验”,并不仅指个体直觉或主观感受,而更接近一种历史社会意义上的实践积累,包含特定时代的道德情感、公共政策考量、制度运行方式以及法律共同体在长期实践中逐步形成并被普遍接受的惯例与期待。正因如此,法律研究的对象不光是规范文本的逻辑结构,更涵盖法律在社会生活中被理解与执行的实际过程。霍姆斯在《法律之路》进一步提出“坏人预测论”:若从“坏人”的立场理解法律,法律知识在很大程度上表现为对国家强制力具体适用的预测——“法院在特定事实下将会做什么”的理性预期。在这一视角下,法律确定性不再主要来自形式逻辑的必然性,而更多是源于司法行为模式的可预测性。“预测”在方法论上对应一种概率化的表达,其正是对不同结果出现的可能性、相对稳定性作出估计。而一旦法律推理的核心任务被界定为预测,那么收集和分析数据——即过往的司法判决经验,并进行统计意义上的概率分析,就变得顺理成章。

罗斯科·庞德的理论进一步凸显了法律推理的效果维度。庞德将法律理解为社会控制与协调的制度工具,其目标并非机械套用僵化规则,而是在多元且冲突的社会利益之间进行分类、衡量与调和,以尽量减少社会摩擦并增进社会利益;在他看来,法律适用的任务是在具体情境中审慎评估不同裁判方案对社会关系与制度运行的影响,并尽可能选择更合乎社会目的的解决方案。这种利益衡量视角本质上要求法律推理具备处理模糊性、比较多重可能性的能力,即概率性的优化思维。不同法律处理方案的社会效果并非必然可知,只能在有限信息下评估其产生预期效果的概率大小,并追求期望效用最大化的选项。

经验不是一成不变的,由其涌现的直觉亦可能不断更新。在这方面,杜威的实用主义哲学为一种“以实践检验规范”的法律观提供了认识资源。杜威认为,规范并非永恒不变的真理,而是人类为了解决特定社会问题而设计的“工具”或“假设”;这些工具的有效性需要在具体情境中持续检验,并在经验反馈中不断修正。由此,法律推理在某种意义上是一种持续的“探究”过程,法官在个案中不仅适用既有规范,也在检验该规范是否仍能恰当地回应变化中的社会现实,并在解释与论证中对规范意义进行再建构。如果将法律规范视为“假设”,那么每一次裁判都是对该假设的验证实验;法律推理也因此成为在不断变化的经验流中,动态调整先验概率与后验概率的过程。“假设—检验—修正”的循环不仅在认识论上确立概率推理的合法性,更在方法论上直接与现代机器学习的迭代机制相呼应:模型在误差反馈中不断校正参数,法律在实践反馈中不断修正其规范含义,两者皆是在概率的指引下逼近真理与正义。

综上,在现实主义法学框架下,法律推理呈现为一种根植于社会经验、面向效果权衡、在反馈中演进的实践,在理论深处暗含概率计算、概率优化、概率修正的内核脉络。这为推出以概率推理为核心的法律人工智能提供了重要思想资源。此时,从海量经验中学习并实现法律推理的机器,便成为顺应趋势的产物。

(二)模拟复杂性的神经网络模型是概率推理模式的技术支撑

数据驱动的概率推理模式,其技术内核在于通过机器学习算法,从海量历史数据中学习特征并不断塑造和调整神经网络模型,据此获得分析、判断、预测、生成最大概率后果的能力,进而完成相应的法律推理任务。法律人工智能研究也在新的技术浪潮下发生非形式逻辑的转向。概率推理模式更接近法律人的真实思维——“贝叶斯法则+语言概率”:基于长期的法律训练和经验,对案件形成主观的“初始判断”(先验概率);根据不断出现的新证据和信息,持续地、迭代地修正初始判断,直至形成稳固的“内心确信”(后验概率)。

那么,如何将这种以贝叶斯法则为内核的“软计算”过程转化为可计算的模型?理论上,直接构建贝叶斯网络似乎是一条直观的路径:作为概率图模型,贝叶斯网络的节点代表变量,有向边代表变量间的条件依赖关系,其推理过程是基于概率论的逻辑演算,具有清晰、可解释的优点。但是,传统贝叶斯网络通常依赖专家预先定义变量节点及其依赖关系,其显式规则的机械性决定了其难以真正模拟人脑神经系统的复杂性。人类的思维,尤其是法律人在面对疑难案件时所依赖的“司法直觉”或“模模糊糊的感觉”,并非按部就班的串行逻辑演算过程,而更像是由数百亿神经元构成的大规模并行网络在瞬间完成的整体性、复杂性涌现过程。

正是在这个层面,以大模型为代表的神经网络技术路线,展现出其作为“复杂性模拟器”的独特优势,为实现法律人工智能的概率推理开辟了更广阔的前景。大模型的深度神经网络更接近对人脑神经认知系统的模拟,其知识并非存储于显性的规则文本中,而是弥散在由数千亿个权重参数构成的隐性网络,信息通过类似于神经突触强度的权重进行传递和转换。其庞大的参数网络编码的不仅仅是词语的字面含义,更是不同词语之间、概念之间无数种微妙的关联关系。这一能力的基础在于高维度的嵌入向量:在模型内部,每一个词语或概念都被映射为包含成千上万个维度的数学向量;每一个维度都可以被看作是捕捉该词语某一特定语义或语法特征的坐标轴。例如,“辩护”的某一维度可能代表“与法律相关”,另一维度代表“带有积极情感”,还有一个维度代表“属于动作而非实体”,等等。成千上万个此类特征的协同组合,共同为每个概念勾勒出了其在语义空间中独一无二的“坐标”。当这些高维向量在神经网络中经过多层非线性变换时,模型便得以在庞大的向量空间中学习和表达概念间极其复杂的关系,这些关系远非简单的逻辑蕴含或因果链条所能概括。由此,大模型能理解讽刺、比喻,能感知文字的情绪色彩、把握字里行间的潜台词,使它在模拟人类处理非结构化信息时的整体感和灵活性方面,远超传统的符号式人工智能。

正因如此,当大模型“模拟”法律推理时,可以在某种程度上复现人脑中那种“感觉上对路”的快速、直觉式判断过程,并识别出哪些信息建立了隐性而稳健的关联,从而在复杂系统涌现的意义上实现类似法律人的权衡过程。以《民法典》中“公序良俗”原则的适用为例:“公序良俗”本身是一个开放性的、随时代变迁而演进的概念,不存在精确形式化的规则。若要以传统方法处理该问题,必须预先穷尽所有可能影响“公序良俗”判断的因素并量化其关系,这几乎是不可能完成的任务。相比之下,一个在海量法律文书、新闻报道、社会评论等语料上训练过的大模型,其内部的权重网络中已经“内化”了关于社会主流价值观、伦理道德观念以及司法实践中对“公序良俗”认定的无数种复杂模式。因此,在面对新的纠纷案件时,大模型能够综合考虑合同性质、当事人关系、行为社会影响、当前政策导向等众多因素,生成一个基于概率的判断。该判断并非由机械的规则推导而来,而是其庞大神经网络对当前情境与历史经验进行复杂模式匹配后得出的最或然结果。尽管决策输出受制于训练数据质量,但其模拟的正是一位具有特定经验的法律人在权衡“契约自由”与“社会公共利益”后作出的整体性、直觉性判断。在此意义上,大模型可实现对法律思维中贝叶斯式“软计算”过程的高度模拟,从而展现出处理多样化情境的独特潜力。

(三)概率推理模式无法消解“表演式推理”与法治价值的脱节

由神经网络支撑的大模型在模拟人脑直觉方面的能力令人瞩目,但必须清醒地认识到,数据驱动的概率推理模式与法律人在法学方法论指引下进行的心智活动仍存在本质区别,必须予以充分揭示。这种区别根植于大模型作为“概率序列生成器”的技术本质,并由此引发了至少三个层面的内生风险。

1.推理幻觉与结论的不可靠性损害法的安定性

大模型的本质决定了其推理过程是一种“表演式推理”,而非“执行性推理”,这带来了推理“幻觉”与不可靠性的风险。当大语言模型生成一段看似逻辑严谨的推理论证时,它并非在进行逻辑演算,而是在预测“基于我读过的所有文本,在当前这个上下文之后,最应该出现的下一个词是什么”。这意味着,它可能会仅仅因为在训练数据中见过大量类似的文本模式,就生成一段看似合理、实则毫无根据的论证。在法律领域中,这种生成错误内容的“幻觉”是灾难性的。一个小数点、法律规范要件、核心事实要素的错误,就可能导致对司法公正的严重损害。更棘手的是,大模型的输出结果具有真假混合的特性,即可能仅仅在某些地方出现事实性错误或规范性错误,而其流畅的语言表达很容易掩盖这些错误,使其极具欺骗性。检查这样的输出结果是否正确,显然极其耗费心神。此外,神经网络的柔性也意味着大模型概率推理的不稳定性:同一个问题,用稍微不同的措辞提问,就可能得到截然不同的答案。可以说,这种内在的不可验证性与脆弱性,是追求确定性与安定性的法律推理所无法接受的。

2.对价值判断的统计学复制因缺乏共同体生活体验而流于表面

法律推理是渗透着价值判断的规范性实践,无论是解释模糊的法律概念,还是在相互冲突的法律原则之间进行权衡,法律人都需要深入探究法律规范背后的目的意义与价值秩序。然而,大模型仅是对历史文本进行考古作业,其本身并非合格的价值参与者。作为硅基神经网络,大模型无法从人类生活经验的层面真正“理解”正义或公平,它只知道在海量的语料库中,“正义”这个词通常和哪些词语搭配出现。当其生成一段关于“公序良俗”的论述时,并非在进行真正的价值权衡,而是在复现其在训练数据中见过的、与“公序良俗”高度相关的词语序列——其决策的依据是数据的相关性,而非规范的妥当性。这就带来一个致命的风险:大模型容易不加批判地复制并放大训练数据中存在的历史偏见。这使得法律推理从面向未来的、追求应然正义的规范性活动,退化为面向过去的、固化实然偏见的统计学过程。对此,有学者直言,基于历史数据的“试探性学习”与人类基于理论的“自觉性学习”存在根本差异。

有人可能会反驳:大模型同样可以写出符合逻辑、充满价值词汇的论证理由,这和人类法官、检察官有何不同?不同之处在于价值判断的来源和性质。人类是社会价值体系的真实参与者。经过多年的社会生活、法律教育、司法实践,法律人的大脑神经网络一直沉浸于活生生的、动态演化的社会价值共同体之中。当法律人进行价值判断时,实际上是在动用自己的人格,能动地将个案与社会共同体内在的、具有目的性的价值秩序进行连接。我们接受人类法官、检察官的价值判断,也是因为信任其是与我们共享基本价值、致力于在个案中实现这些价值的共同体成员。相比之下,大模型则是置身事外的“局外人”,只能模仿价值判断的表层形式,却因缺失共同体生活体验而始终无法触及实质。

3.真诚性的缺失无法满足法治实践的透明性与责任性要求

法学方法论中所谓“目光在事实与规范之间来回顾盼”,并不完全属于那种不可知的神秘直觉过程,而是指向一种反思阐释和理性重构的思维过程。法律人需要将其神经系统“黑箱”中的心智过程,“翻译”或“重构”成面向公共的、符合逻辑和法律论证规则的、可被他人理解和审查的论证链条。例如,法官需要论证,某种判决结果是因为事实A如何符合规范B的构成要件,或者在权衡原则C与原则D后,因为何种理由最终选择了原则C优先。法律教育和职业训练就是在培养这种理性重构的能力。

然而,大模型本身无法进行真诚的理性重构,其结论生成过程和解释生成过程是两个独立的、不甚可靠的黑箱运算。法治的精神要求法官必须忠实地披露裁判据以形成的理由,真诚地相信其判决理由的有效性。这种真诚性要求对于神经网络大模型而言很可能是难以企及的。在技术上,大模型所谓的“思考”和“思维链”主要是为丰富其上下文和激活有用的统计模式,影响下一个Token的生成。因此,我们无法完全确定大模型给出的看似合理的解释,是否就是它得出结论的真实路径;其结论和理由可能都是幻象。如果将法律推理矮化为仅仅是为让结论看起来合理而编造的说辞,就从根本上破坏了法律实践的公正与理性。

进一步而言,正是基于真诚的理性重构,法律实践是各参与方都需要负主体责任的过程,尤其是法官、检察官必须对其决策承担个人和制度上的责任。当法律人在某份文书上署名时,他是在用自己的职业生涯、社会声誉乃至作为法律共同体一员的整个“存在”,为这份文件背书——这是其获得社会信任的重要基石。然而,大模型没有“人格”,没有“存在”,没有“声誉”,更无法“担当”。当它出错时,责任可能在语料构建、技术开发、系统设计、应用过程等环节被无限地扩散,最终也就意味着责任的虚无。这无疑意味着对法治实践严肃性和权威性的侵蚀。从根本上而言,我们接受人类司法者的自由心证,是因为其附着在具体的人格之上,而该人格嵌入在社会责任网络之中。相比之下,大模型的“存在”是漂浮的、无根的,其本身无法对其输出的任何一句内容担负责任。

4.小结

综上,数据驱动的概率推理模式虽然在技术上模拟了法律思维的某些表层特征,但其内在的“表演式推理”、统计性价值判断、不可还原的“黑箱”以及责任主体的虚化,使其与法释义学所坚守的规范性、透明性和责任性等核心法治价值产生了深刻冲突。法律推理是一种“规范—目的论”的方法,必须追求在个案中实现法律的内在价值和目的。但是,作为依循“统计—概率论”的工具,单纯的神经网络大模型只关心文本内容的上下文合理性,并在预测与生成时输出基于训练数据的最大概率结果。虽然法律推理的思维模式在认知科学层面具有概率性特征,但法律推理并不完全等同于冷冰冰的概率,归根结底还是要深嵌在人类的价值世界、论证实践和社会责任网络之中。因此,试图用非理性的、不透明的、不负责任的机器神经网络概率,完全取代理性的、可证成的、负责任的人类司法心智过程,不仅在技术上是不可靠的,在法治理念上更是不可接受的。

三、整合与超越:人机协同的法律人工智能应用构造

符号推理模式因其形式僵化而无法处理法律的开放性和价值权衡,但体现着法律逻辑的理性;概率推理模式因其“幻觉”“表演式推理”等问题而与法治精神相悖,但其灵活的语言能力不容小觑。将符号式的逻辑框架与神经网络大模型的强大数据处理能力相结合,是构建下一代智能、高效且可信的法律人工智能系统之关键。在两者的优势整合之上,最终还需超越纯粹的技术方案,迈向以人类为中心的人机协同应用框架。

(一)以混合推理实现聪明计算,但仍须补足价值能动性

神经网络大模型与传统的符号机器相结合,在技术上指向“神经—符号”混合式推理架构。这种模式可以在知识来源的外部锚定与推理过程的内部规训两个层面提升法律人工智能系统的可靠性,使其既能言之有据,又能思之有理。

1.外部知识的锚定,以此保障法律推理之论据的真实性

法律推理所使用的论据必须真实可靠。为缓解神经网络大模型固有的“幻觉”问题,引入检索增强生成(Retrieval-Augmented Generation, RAG)这种兼具“神经—符号”特征的混合系统架构,成为开发法律人工智能的有效途径。其核心机制在于为生成过程引入外部知识:在模型输出法律判断或论述之前,强制其从可信的外部知识库中检索相关信息,并将这些显式的、确定的文本作为参考依据。由此,数据驱动的概率推理将符号化的信息作为基础,从源头上提升了系统输出内容的可靠性。例如,RAG能够有效增强系统对“法言法语”的理解能力,从权威词典、法律定义条款或司法解释文件中精准检索特定术语的含义,使大模型从专业领域视角理解特定法律概念,而非凭空臆测。

然而,必须指出的是,普通的基于向量库的RAG虽然引入了外部知识作为大模型推理的上下文,但其“阅读文档并生成答案”的过程本身仍是基于概率的Token预测,尚未完全实现逻辑层面的符号推理,因此还不能算是完整意义上的“神经—符号”人工智能。实践中,法律推理任务往往涉及复杂的关系梳理、全局性分析,并且需要极高的逻辑可解释性,而普通RAG的扁平化检索难以处理具有复杂拓扑关系的数据,往往只能给出语义相近片段的拼接式回答,这就可能导致系统在证据关联与规则适用上产生不可解释的推理跳跃。对此,更高阶的GraphRAG——基于图谱的检索增强生成技术,未来有望展现其应用价值。GraphRAG通过引入结构化的知识图谱,将非结构化的文本转化为具备明确逻辑关联的节点与边,赋予了模型“识图”与“显式推理”的能力,使其更接近理想的“神经—符号”混合形态。在事实梳理层面,GraphRAG可以从海量材料中识别出主体、资金等多重要素之间的隐秘连接,发现传统RAG难以察觉的环形结构或多跳关联,辅助还原案件事实全貌。在法律规范层面,不同的条文可以界定为图谱中的“实体”,而它们之间的“引用”“依据”“修订”等逻辑关联可定义为“关系”,类似的结构化设计使得系统能够沿着这些逻辑关系进行更精确的推理,而不仅仅是模糊地寻找语义相关的文本。总之,GraphRAG以图结构将事实要素与规范关系显式化、可追踪化,进而使法律人工智能系统在发挥大模型灵活理解能力的同时,保证其推理建立在坚实稳固的论据基础上。

2.内部逻辑的规训,以此塑造法律推理之过程的自律性

如何组织和运用法律推理的论据,考验的是法律思维,而法律思维是一种内化于脑海中的隐性知识。法律人的法律思维是经由数年的专业训练后习得的本领,这些本领早已化为大脑中特定的神经元连接强度与突触传递模式,使得法律人能够近乎本能地识别逻辑谬误与论证断裂。对于法律人工智能而言,要让大模型从内部神经参数的层面习得法律推理的思维模式,关键手段是以微调(Fine-tuning)技术对大模型进行深度的专业化改造。这不单纯是让大模型通过高强度阅读来熟练记忆法条,更是要通过数据训练调整大模型内部神经参数的权重,重塑其生成文本时的概率分布,从而使其“本能”地选择符合法律推理逻辑的输出路径。这种将思维逻辑规则转化为神经网络参数约束的思路,在神经网络训练原理上已有迹可循。例如,有学者将民间借贷案件的推理逻辑规则转化为神经网络训练过程中的可计算的差异损失函数,当模型的预测结果与这些逻辑规则相悖时,该损失函数便会通过反向传播机制对模型的内部权重施加影响,从而使模型学习并趋向遵守这些知识约束。这种方法相当于在模型庞大的概率空间中设定了逻辑边界,允许模型在边界内利用数据进行灵活的模式学习,同时避免其最终输出与基本的推理规则相抵触。

以此类推,对大模型进行的法律领域微调,事实上就是对其原本发散的生成概率分布进行定向收敛和“规训”,由此,神经网络内部的参数约束在模型生成文本的每一步概率计算中持续发挥作用,从源头上降低了产生推理谬误的可能性。申言之,理论上也可以运用微调技术将法释义学的思维方法内化为模型自身的推理习惯。例如,法律解释方法的运用顺序是相对固定的,即“文义—体系—主观语义—主观目的—历史沿革—客观目的”解释。利用高质量语料样本对大模型进行反复训练,可以提高模型在推理初期调用文义解释相关语词和逻辑的概率权重,同时抑制其在论证初期直接跳跃至目的解释的倾向;久而久之,这种概率分布的重塑会让机器形成一种类似法律人的职业自觉,自动遵循由字面含义向体系与目的逐层递进的思考惯性。

3.技术整合无法触及“情—理—法”的“情”维度

将不同技术策略相结合,理论上可以构建出较为完备的法律人工智能系统,融合符号推理的严谨性和概率推理的灵活性。但需要警惕的是,上述技术组合仍不能完全替代人类作出的法律推理。从法学方法论的视角审视,即便是找准了事实规范信息、遵循了法律思维逻辑的“神经—符号”混合模型,其所能达成的也至多只是“理—法”维度的“更聪明的计算”,却非合乎正义的最终决断。

质言之,尽管将符号推理和概率推理结合起来可以克服两者的部分缺陷,但人工智能系统从未切身参与过社会生活、无法拥有生物意义上的感性体验,无法真正实现“情—理—法”的融合并作出人类主观意义上的价值判断。“情”包含对当事人处境的共情、对社会正义的感知以及对价值冲突的切身体悟,而这些都无法通过机器模拟获得。“人类的观点、判断和理解是在历史和社会的环境中生成的,因为人就是历史性和社会性的存在。”但人工智能软件却并非如此,它悬浮于历史之外、抽离于社会之上,既不会因个体遭遇而调整道德直觉,也不会在面对伦理困境时经历内心挣扎,其所谓的“理解”并非源于亲身经历的意义建构,而只是数据的统计投影。

因此,“神经—符号”混合推理系统可以处理形式化规则,却无法真正理解规则背后的价值精神;可以报告历史案件中多数裁判者的倾向,却无法回答当下个案中何种选择才是“正当的”及“社会可接受的”。归根结底,由于具身性、体验性和主体性的缺失,法律人工智能终归是在由数据和规则所定义的虚拟世界中运行,缺乏与真实社会价值秩序进行能动性连接的能力。在此意义上,技术路线整合所达到的高峰,对于人类规范性判断而言可能仅仅是个起点。

(二)价值能动性依赖于以“有效人类监督”为核心的人机协同

由于在机器的计算边界存在不可逾越的价值鸿沟,因而将“人”重新请回决策回路、构建人机协同模式,成为不言自明的选择。

人机协同的前提在于根据任务属性科学划定人机分工边界。法律实践包含多个不同性质任务的集群:法律发现与信息检索、证据梳理与事实认定、逻辑推演与规范适用、论证说理与决策生成,这其中又夹杂着模糊概念解释、原则权衡与价值判断等内容。总体上,这些任务可以划分为两大类:一是偏向客观的、计算密集型的可形式化任务,如法律检索发现、证据总结提示、基本事实梳理、简单规则涵摄等;二是偏向主观的、价值密集型的裁量任务,如模糊概念解释、争议观点权衡、作出最终处理决定等。整合技术优势后的“神经—符号”混合推理系统,其角色仍应被限定为服务于计算密集型任务的有限认知外包工具:其符号模块可以辅助进行精确的要素检索和逻辑一致性检查,其神经模块则可以辅助处理海量的非结构化数据,并给出基于历史数据的概率性提示。但系统输出的形态不能是“决定”,而应是“图谱”“报告”“方案”“选项”“提示”等辅助内容。质言之,法律人工智能可以模仿人脑智力处理价值无涉的事务,但不应完全取代规范意义上的人类伦理心智。其应定位为增强法律人认知能力的“伙伴”或“助理”,目的是让法律人从繁琐的重复性劳动中解放出来,得以将更多精力投入到最核心的、不可被机器替代的价值判断与规范创造活动中。人类的决策权不能被剥夺,“因为法律是我们的作品,也必须继续是我们的作品。”

由此可以明确法律人在人机协同中的监督主导定位。从人机交互的类型学出发,人类可能承担纠正性、韧性、正当性、尊严性、问责性、象征性、摩擦性、占位性、接口性等不同的角色。在法律人工智能应用场景下,人类监督角色至少应包含三个层面:一是作为“纠正者”,运用对社会现实的理解和对法律精神的把握,修正系统输出的机械与偏颇;二是作为“证成者”,将机器提供的概率性建议转化为符合法律论证规则、能够接受公共理性检验的论证理由;三是作为“责任者”,以其职业身份和人格,为最终的决策承担法律与道德责任。这实质上是要求,在人机协同的决策终点,必须站着一个能够以法学方法论进行思考和言说的、参与社会共同体生活的、完整意义上的“人”。

需要注意的是,人机协同的交互过程同样隐含风险。实证研究表明,面对算法输出,人类监督者容易产生“自动化偏见”,即不假思索地采纳机器建议而放弃批判性的独立思考。这种监督的形式化与表面化,将人机协同导向“人机合谋”,使得人类监督者从本应发挥实质性审查作用的“把关人”,弱化为仅仅为机器决策提供合法性背书的“橡皮图章”。

可见,问题的关键不仅在于“将人置于回路中”,更在于如何确保这种置入是有效的。简单地在计算流程中插入人类“确认”按钮,并不能回应法治的要求。对此,需要从“人类的在场”进阶至“人类监督有效性”的规范性建构。理论上来说,可以将监督的有效性具体拆分为四个要件:因果力、认知通路、自我控制、恰当意图。

第一,因果力。人类监督者必须拥有实质性的干预、修改、否决系统决策的权力与技术手段。这意味着,人类不仅在制度上被授予最终决定权,在技术交互界面上也必须能够方便地、无障碍地执行这一权力。就此而言,一个只能提供“同意”或“关闭”两个选项的系统,其赋予的因果力是极其有限的。

第二,认知通路。必须为监督者提供充分、可理解的信息,使其能够了解系统的能力、局限、风险和决策依据。一个仅仅输出结论性处理意见的“黑箱”系统,显然无法满足这一条件。有效的认知通路要求系统能够以可视化图谱、自然语言解释等方式,清晰呈现其建议所依据的关键证据、相似判例或高权重特征。

第三,自我控制。系统为人类监督者设计的工作流程必须符合人类的认知规律,避免因疲劳、信息过载或界面不合理而导致监督失效。例如,如果系统在短时间内向法官、检察官推送海量信息,或要求其在单调乏味的任务中长时间保持高度警惕,那么即便人类用户拥有干预权力和充分信息,也可能因认知负荷超载而无法作出有效判断。

第四,恰当意图。组织文化和激励机制必须确保监督者有意愿去公正、审慎地履行其监督职责,而非仅仅追求效率或避免担责。如果用户所在机构的考核机制过度偏重于效率,那么用户可能会倾向于不假思索地采纳人工智能的建议以加快流程,从而使监督流于形式。因此,必须营造鼓励批判性思维、以司法公正为首要目标的应用环境。

(三)人机协同交互界面的设计原则与人类介入节点

合乎前述要求的法律人工智能系统,其应用界面设计应以激发有效人机交互、实现有效人类监督为核心,并至少遵循以下原则:

其一,交互界面必须具备高度的可解释性与透明性。这意味着使人类用户的监督建立在充分认知的基础之上,从而能够真正地审查机器意见的合理性,而非盲目接受。例如,系统界面应能明确展示其输出结论是锚定引用哪些具体的证据材料、法律条文或参考案例,以及在推理过程中激活了哪些内部的法律逻辑约束规则。对于从海量庞杂的材料中梳理提炼的信息,系统应能提供清晰、便捷的溯源验证机制,避免用户因操作繁琐而被迫接受系统的结论。

其二,交互界面必须提供充分的情境参数与可干预性。法律人能够获取和处理系统模型之外的、独特的情境化线索,这是人类独有的优势。因此,系统不应是封闭固定的,而应允许人类随时调整情境条件、改变要素权重、甚至引入新的考量因素,并能实时观察这些干预对系统输出产生的动态影响。例如,在法律事实的认定过程中,不同事实要素具有不同的争议阈值,证据之间相互印证、无争议的基本事实可以运用人工智能的认知能力予以梳理构建,但证据相互矛盾的存疑事实则进入了价值判断的领域,需要由系统提示人工介入,让用户得以追问“如果该证据被认定为非法证据,结论会如何变化?”又如,在规范适用环节,当存在多种不同的处理方案时,用户应能自主调节不同法律原则或政策考量在具体个案中的权重,甚至引入系统初始分析中未充分考虑的因素,能够主动探询“如果将某因素的权重提升,备选方案会如何排序?”总之,基于“假设—推演”的参与式交互设计,人类用户从被动的决策审批者转变为主动的决策共建者,能将其对个案的独特理解和价值判断注入计算过程,使机器计算围绕人类的规范性决断展开。

其三,交互界面的设计应主动激发批判性思维。仅提供单一最优解的系统,容易诱导用户产生依赖和顺从心理。对此,人机交互界面可以在某种程度上以“论辩场”的形式构建,同时呈现支持和反对某一结论的理由和案例,或者同时提出多种基于不同解释路径或价值权衡的备选方案并给出各自的利弊分析,帮助人类用户进行辩证思考。通过在机器提供的多元化信息和冲突性观点中进行选择和论证,人机交互过程本身成为一种强化法律思维、抵制认知惰性的训练,有助于促进人类行使最终裁量权的审慎和理性。

为使上述原则发挥作用,在制度上需科学界定人类介入的关键节点,形成精细化的人机协同操作指南。

一是在事实要素的解释与转化环节,机器可以辅助整理、呈现、分析证据并给出意见,但对客观事实要素的法律意义之解读以及法律事实之认定,仍须由人类确认完成。

二是在规范适用的冲突与权衡环节,系统可以作为梳理不同立场观点方案利弊、直观呈现推理线索的可视化辅助工具,但为这些变量赋值的权衡过程,本质上是人类的实践智慧,无法完全由人工智能替代。对于某些开放性概念的理解和适用,系统可以基于历史数据进行统计学描述,但由于其无法为当下的待决案件作出合乎目的性、引导未来走向的规范性决断,此时仍须由人类用户根据特定时代背景、社会主流价值观和个案具体情境进行填充。

三是在终局性决策的理由证成与责任承担环节,必须由具体的人格主体以其职业身份和个人信誉为该法律判断背书并承担相应责任。法律人工智能输出的文本可能在形式上符合法律文书的体例、在内容上接近人类用户的想法,但对于当事人等利益相关方而言,机器并不是能够倾听诉求、理解情境、回应质疑、承担责任的主体。正如有学者所言,“‘人的条件’正是机器与人的根本差异所在:可由人类制作备份的东西,不必操心自己的生存;但我们称为法律的东西,处理的却正是生存问题。”

结 论

法律人工智能的推理模式需要尽可能贴近法律职业共同体所接受的论证秩序。规则驱动的符号推理模式以形式主义法学为法理依据,以演绎逻辑知识的专家系统为技术支撑,致力于保障法律适用的确定性与形式理性,但其无法解决机器语言与其映射内涵开放性之矛盾。数据驱动的概率推理模式以现实主义法学为法理依据,以模拟复杂性的神经网络模型为技术支撑,能够基于海量经验灵活理解自然语言、涌现整体直觉,但其无法消解“表演式推理”与法治价值的脱节。“神经—符号”混合推理架构融合两者优势,可以实现言之有据、思之有理,但仍无法跨越价值能动性的鸿沟。人工智能可以聪明地计算,却无法像人类那样切身理解正义的分量。法律人工智能可信应用的落点应是以有效人类监督为核心的人机协同,通过高度可解释、充分可干预、主动激发批判性思维的交互界面设计,赋能法律人的认知与行动,并维护人类的价值判断主导权。

【作者简介】

王沛然(1997-),男,四川泸州人,法学博士,复旦大学计算与智能创新学院博士后,研究方向为智慧法治、金融法。

    进入专题: 法律人工智能   大模型   法释义学   人机协同  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/174812.html
文章来源:本文转自《政法论丛》2026年第2期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统