齐延平:行政法治的数智化法理

选择字号:   本文共阅读 849 次 更新时间:2025-03-26 23:04

进入专题: 行政法治   数智化  

齐延平  

摘要:行政法治的数智化再造,将实现对传统行政权力和行政相对人权利的一体技术宰制,但其依然应当坚守人本法理,没有亦不允许突破基于人本的行政法律关系主体理论,以及基于自由意志的行政法律责任认定与归结原则。由面对面行政到界面行政所体现的执法去人格化逻辑,契合主观性执法不断客观化的法治演进规律。通过执法规范代码指令化、中介要素技术化、执法场景去人化,行政法治实现数智化孪生,其正当性的维系,有赖于自动化系统的安全可信、行政裁量梯度量表的科学化以及对行政法规范算法化运行之社会共识的达成,而程序合法和实体正义是达致上述目标的法理基石。

关键词:行政法治;人本法理;界面化逻辑;数智化孪生;自动化行政

作者:齐延平(法学博士,北京理工大学法学院讲席教授)

来源:《法学家》2025年第2期“主题研讨二:数字法学研究的多维视角”栏目。

 

导 言

伴随数字化、网络化、智能化技术应用的创新发展,基于数智技术的自动化决策已经结构性地嵌入国家治理诸环节之中。相较于传统行政的人工化、现场化、科层化特征而言,自动化系统介入的行政具有智能化、非现场化、平台化等特征。行政执法数据集成加速、行政场景算法优化、行政数智平台架构迭代引发传统行政组织架构、行政行为结构、行政执法流程等方面的颠覆性变革,而这势必会导致传统行政治理模式和行政法治形态因为与技术突破性发展异步而陷入困境之中。从历史上看,任何突破性技术的应用,均会导致既有治理模式质效急速衰减,并在较长时间内带来剧烈的社会震荡。“技术创新和应用的迭代速度不断加快,约束技术创新和应用的规则迭代相对迟缓,形成了技术发展与治理发展之间的速度差异,进而导致了技术化社会治理因异步困境而失灵。”在理论界和实务界,行政法治数智化转型的正当性法理论争、机器篡夺裁量权引发的危机感、算法黑箱导致的人的主体性被剥夺的忧虑正日渐加剧。此种现象的出现,与其说是由自动化技术应用加速迭代所引发,不如说是由现有行政治理模式、行政法治形态及行政法学理论范式滞后于新技术突破性发展所致。

行政法治的数智化运行,简言之,就是行政法治过程基于数据、算法、平台而展开,行政法治目标在无自然人执法者在场的情形下,借助数智化执法终端界面而自动实现。学术界指称这一过程的概念,有数字化行政、算法行政、行政自动化决策、智能行政执法等等。为行文方便,本文统一使用“自动化行政”这一概念。在治理模式与技术发展的异步困境中,将一切问题归因于技术异化的做法是本末倒置的。所谓技术异化,在很多时候不过是怠于适应技术进步的人们的一种遁词,不过是约束人们利用技术之行为的伦理价值体系崩溃与法律规范形态失灵的隐晦表达。正如有学者指出的那样,新科技时代并没有“肇生”全新的法理学问题,只是提供了“激扰”法理学知识体系(也就是对既有理解进行反思)的新语境。在法理学视野中透视自动化行政,需要拨开“代码即法律”、“算法即法律”、“算法统治的时代”等语言迷雾,弥合“计算正义”与人本法理之间被人为夸大了的裂痕;需要把握由面对面行政到界面行政所体现的执法去人格化法治演进趋势。自动化行政的正当性,有赖于自动化系统的安全可信、行政裁量梯度量表的科学化以及对行政法规范算法化运行之社会共识的达成,而程序合法和实体正义是实现上述目标的法理基石。

一、行政法治数智化的人本法理坚守

人本法理是自动化行政永恒的价值旨归。自文艺复兴以来,“人为万物之尺度”成为哲学社会科学的起点,人之价值与尊严、人之有限性与利益成为人本主义法理的枢要。从自动化技术视角切入“自动化行政”问题,便会衍生出“代码即法律”“算法即法律”“算法统治的时代”等判断;而在法律视域中,可见的永远是“法律代码化”“法律算法化”“法律统治的时代”,而不会是前者。“行政执法实践中的法律代码化主要呈现为三种类型,即对照转译型、细化转译型以及创设转译型。”但不论是何种类型的呈现,“在理解法律与算法之关系及如何通过法律来回应算法的问题上,共同善是价值基础和规范背景,计算正义则是从共同善导出的制度美德和法律规制依据。”算法与法律都不过是人类为了实现共同善的工具,而且前者正义的社会基础和制度依据由后者所确定。计算唯有基于人本法理方为正义。经济与社会的数智化进程提供了激扰传统法理的新语境,并催生了更新法理知识的新视角,但人本主义的现代法理预设并没有被动摇,人的主体性预设依然是处理人与技术之关系的伦理与法理前提,因此它也是处理法律视域中自动化行政问题的伦理与法理前提。人的主体性落定于行政过程,成就了行政主体、行政相对人之概念,进而基于此匹配权力与职责、权利与义务,从而形成行政法律关系,此为现代行政法律关系的基本逻辑。自动化行政对人本法理预设的坚守,是维护现代法治信仰、稳定现代法治构造和确保现代法治运行顺畅的关键,也是现代法治有效回应技术挑战、抵御技术风险、促进技术向善之根本。

自动化行政问题中最具哲学意味的核心问题是人的主体性危机问题,具体而言,就是自动化行政行为的作出是否依然基于执法者的意志,以及行政相对人的自由、权利与尊严是否被技术侵蚀等问题。对自动化行政问题的研究,需要坚守行政法律关系主体理论与行政法上的法律责任认定与归结原则,此乃自动化行政之“计算正义”的基本前提。传统行政是架构在“行政机关—行政相对人”框架之上的,传统行政法律关系就是以“行政机关权力/职责—行政相对人权利/义务”为基石范畴建构起来的。而由数据、算法、平台构筑的自动化系统介入行政之后,行政模式就转型为“行政机关—自动化系统—行政相对人”。因此,自动化系统是否具有了行政主体属性,其介入行政权运行过程是否侵蚀了行政主体这一基本概念、是否实质性地改变了行政法律关系之构造,就成为解锁自动化行政是否已逸出并可能颠覆既有行政法理论问题的关键。

目前关于自动化行政之研究的关注重点,既包括电子沟通类、电子告知与送达类、电子申请与申报类等行政实务界已经习以为常的半自动化行政现象,也包括深圳“无人干预自动审批”、电子报税纳税行政程序、作为全自动行政事实行为的健康码自动生成等被部分学者划归全自动化行政的现象。后面这一类往往被认为实现了行政活动中的“无人”干预。有学者以“拟人行为”界定之,另有学者认为“人工智能在个别法律部门已经获得主体资格认可”,并认为其已构成对现有法律规范体系的挑战。而事实上,诸如此类已落地实施的所谓的全自动化行政,并未动摇既有行政法的规范逻辑。前文已经述及,现代性以及其中的法律,是以具有“自由意志”的主体性的人的预设为前提的,人屈从于自动化行政或者人与自动化行政主客体地位的颠倒,等同于“人主动放弃自由意志”,而“人主动放弃自由意志”这一断言本身就是一个悖论,因为现代法律的灵魂或者说法律宇宙膨胀爆炸起始处的“奇点”是人的“自由意志”,放弃了自由意志的人就不再需要法律;在不再需要法律的“人”面前,任何法学讨论就不再被需要、也不再可能。现代行政法律关系是围绕着具有自由意志的主体性的“人”这一法律主体——既包括自然人也包括法律拟制的机关法人、公司法人等——而展开的,在此基点上,才推演出了行政机关的权力与责任、行政相对人的权利与义务等基本范畴。

行政法律主体必须具备权利能力和行为能力。权利能力是“法律赋予”法律主体享有一定权利和承担一定义务的法律资格,行为能力是“法律设定”的法律主体能够通过自己的行为实际享有权利、承担义务的能力。对于行政主体而言,具备相应的权利能力与行为能力,是其合法实施行政行为的基础。在这里,之所以着重凸显“法律赋予”“法律设定”,意在强调现代法律之本质——人的自由意志——的根本性。因为“法律赋予”“法律设定”就其实质而言是具有自由意志的主体性的人(传统的个人主权者或现代民主化的主权者)凭借法律这一制度工具的“赋予”与“设定”。无论人工智能体能否通过图灵测试,也无论自动化系统是否已实现“无人化”运行,均不可能危及或动摇行政法学的基本范畴和法律关系的底层逻辑。将人工智能拟人化,并意图借助“拟人行为”这一概念实现人工智能体法律主体化,这种做法不仅无益于而且会破坏现有行政法乃至整个法理论体系。人工智能体“拟人行为”这一概念的致命之处,在于其背离了法律意义上的“行为”之要旨。行为是指受思想支配而表现出来的外在活动,法律行为就是以基于自由意志的意思表示作为要素的具有法律意义的“人”(包括机关法人等各类法人)的行为。据此可以将法律行为的效力落脚于“人”与“意思表示”这两个要素上,而这意味着即使在动物社会学上使用“动物行为”这一概念,此行为与法律上的行为亦风马牛不相及。仅仅因为其运行程序及运行效果与人的行为具有高度相似性,就称之为法律上的“拟人行为”,这种做法就在根本上摧毁了法律规范世界的桩基。所以,人工智能体“拟人行为”这一概念的使用,不仅仅是一种“技术性的曲笔”,更是对现代人本法理的故意冒犯与恣意践踏。

当然,更不存在人工智能已获得法律主体资格的问题。在蒸汽机、内燃机、电动机被发明后,法律没有将机器设备与车辆、飞机拟人化并将侵权责任归结于其上。关于赋予人工智能体权利、设定人工智能体法律责任的讨论,并非是严肃的现代法学议题,而更应归于科幻领域的诗化表达范畴。有学者从民法角度提出应赋予人工智能拟制电子法人地位,既认为其具有意思能力和责任能力,可自为意思表示、自负行为后果,但又认为其背后体现的是多方主体的意志,须按相应比例在多方主体之间分摊权责,这显然是自相矛盾的。凯尔森(Hans Kelsen)认为法上的自然人和法人是权利与义务规范的统一体,是由法学或法律创设的“用以展示具有法律关联性之构成要件的辅助概念”。雷磊认为作为法律主体的“人”其实只是权利、义务、责任的拟人化说法。雷磊的这一判断是正确的,但他据此引申指出,法律将责任归结于谁,谁就是责任主体,无需以责任主体具有自由意志为前提,这一说法就彻底割弃了由法学或法律创设之“人”与所服务的事实中的“人”之间的对应关系,因为他忘记了凯尔森所说的法上之人的概念的理论前提——“只有通过人类行为才能行使权利、履行或违反义务”。在法律规范体系中,我们的确可以只见规范体而不见人(这时就可以说作为法律主体的人其实只是权利、义务、责任的拟人化),在此意义上,我们还可以说法律规范直接要处理的不是自然人与法人的关系而是规范体之间的关系,但法律规范世界处理的结果,将量子纠缠式地投射进人类社会与自然界里面的人与人关系之中并对其予以干预(区分违法/合法、有责/无责)。没有自由意志,则无所谓责任主体;没有自由意志,就没有现代法律。所以,在自动化行政问题上,行政主体和行政相对人作为“行政法上的独立人格”这一判断仍然适用,行政法上的法律责任的构成要件及认定与归结原则不能动摇。

自动化系统承担法律责任是一个反现代性的伪命题。法律责任是法律规范区别于其他社会规范而独有强制约束力的最直接体现。能够承担法律责任的主体,必以基于自由意志的独立人格(包括拟制的法人人格)为基础。江溯认为应该承认具备足够决策能力的人工智能体的法律人格,并认为此种人工智能体可以实施刑法意义上的行为,而且对该种行为科处刑罚完全符合刑罚目的。雷磊指出:“要让人工智能体成为法律主体,唯一的可能就是放弃过错责任,将法律主体限于严格责任的承担者。”上述论断其实混淆了两个性质完全不同的问题,即是从主观心理状态出发还是从客观归责理论出发进行法律责任归结,但无论选取何种理论,并不改变法律责任一定要归结到基于自由意志的、拥有法律人格的“人”之上这一前提。如果认为在归责技术层面放弃了“自由意志”“主观心理状态”向度的考量就等同于放弃了法律人格的“人”性,并认为这就能为人工智能体承担法律责任开辟道路,那么这将导致法律与法学背离“人”为主体这一现代性预设的返祖现象的发生。

自动化系统介入行政,不构成对行政法律责任法理的挑战。法律视野中的自动化行政问题之实质并非是“行政行为”的自动化,而依然是行政主体“基于自动化技术辅助”而作出的行政行为。自动化行政之技术风险,并不是法律所关注的对象和指向的客体;法律所关注的对象和指向的客体,永远是行政主体对自动化行政技术应用之行为。自动化行政的类型繁多。举例来说,以是否存在人工介入为标准,可将自动化行政行为分为半自动化行政行为和全自动化行政行为;以是否存在裁量能力为标准,可将自动化行政行为分为无裁量能力的自动化行政行为和有裁量能力的自动化行政行为;以自动化程度为标准,可将自动化行政行为分为基于规则的专家系统行为与基于机器学习的算法系统行为,但无论其大数据量级有多庞大、算法多么高级灵敏、自动化水平如何之高,其均共享着人类历史上所有的减少、降低或者无需人工参与的、具有“自动化”特征的机器设备一样的本质。例如并非基于数字化、网络化、智能化的交警专用酒精测试仪、智能交通信号灯、超载超限超速报警装置等,这些设备与装置的智能化虽然与自动化行政系统不可同日而语,但二者依据行政权力意志及其设定的裁量模型,对行政相对人的行为进行先定量再定性分析并作出相应行政处罚的逻辑,则是相同的,所以,二者介入行政引发的法律问题并没有本质上的差异。只要法律视野中人与技术的主客体关系本质没有改变,法律责任理论就不允许动摇。就行政机关而言,无论是使用弱智能的交警专用酒精测试仪、智能交通信号灯、超载超限超速报警装置还是强智能抑或是未来的超智能的自动化行政系统执法,也无论是执法过程中出现“执法者的认知错误”还是出现“规则的瑕疵”“物的瑕疵”,只要对行政相对人构成侵权,行政主体而非自动化系统就应当承担法律责任,这是不移之行政法理。

自动化技术虽然是一种脱离了人的主观性的客观实在,但它终归是由人所造,“算法作为人造物,所得皆习自人类。它所展现的智能愿景,也皆为人类世界的镜像。”因此,其存续有赖于人类主体的价值核准与法律认证。法律本为驾驭人的欲望、规范权力意志、规控技术风险而生,在法律人的视野中,“技术凌驾法律”问题永远不会(不应该)发生。自动化行政系统永远不可能“反客为主”,不可能从现代人本法理中逃逸,其发展与应用并不存在无解的根本伦理与法理困境,也不存在抽象的正当性与合法性证明难题,存在的只是行政治理形态的实践性调适、行政法治规范的适配性调整以及行政法治理论的再现代化等问题。

二、行政法治的界面化逻辑

伴随着数智技术化社会的进深发展,国家机器会同步升级适配。“在基于数据分析、规则适格、标准衡量和结果计算的技术程序中,行政过程中的事实、规则、程序和处理转换成代码自动运行,有利于促进行政的客观性、科学性、精准性、快捷性。”不同时代的行政一定是在相应的场景中展开的,所以自动化行政与传统行政的差异首先体现在行政场景的变化上。不同的行政场景适应不同的技术和治理信息水平,采用不同的行政方式与策略,一线行政执法则体现不同的人格化形态。

前现代社会是一个简单技术社会,也是一个国家无法充分详实地掌握土地资源、人口构成、社会关系等治理信息的社会。正因为如此,“从历史上看,绝大多数前现代国家的治理都是一个街头行政场景”,国家行政与被治理者之间以“猫鼠游戏”方式形塑秩序,街头的人格化执法者与权力是一体化的。伴随机器技术的诞生,出现了“国家机器”这一概念,这可以说是与工业革命相伴生的行政治理技术化的最佳体现。“工业革命以来社会化大生产的组织方式经历了简单机器、机械化生产线、自动化机器体系等三个阶段。”机器技术的发展,造就了工厂组织的科层化,进而传导至社会构造与国家治理领域,形成了科层化的办公室行政。在类似于工厂管理的行政精细化控制下,基于治理信息的有限性与准确性,科层化办公室行政在“条块”内实现了相对精准的控制目标。在科层化办公室行政中,一线行政人员尽管依然拥有相当的裁量权力,但其要听命于其上级直至最高决策者,后者往往端坐于走廊最深处的最不易被人所发现和进入的办公室之中。人类生产在信息化初期进入了半自动的机械化流水线时代,机器技术阶段的高水平工程师、高技能工人被可编程自动化控制系统所取代,掌握简单操作流程的数控设备操控人员(不需要决策)与将决策数控化的高级工程师和高级技工相分离。在行政治理中,“服务窗口”概念出现,“一站式”“一门式”服务行政兴起,行政进入“科层制+规范化”流水线治理时代。提供流程化服务的前台窗口一线人员(基本无决策权)与窗口后的决策者彻底分离,决策者彻底后台化,前台窗口服务人员丧失了实质性的裁量权力,社会公众面对的是行政权力的“人工传声筒”而不再是人格化的执法者本人。而在方兴未艾的数智化时代,自动化技术成为经济与社会的运行中枢与基础逻辑,“科层制+规范化”经过代码处理实现了全面技术控制,推进了“前台”权力的进一步“后台化”,行政双方在窗口的互动升级为在终端界面上的互动,“人工传声筒”被“机器传声筒”所取代,行政治理进入界面行政时代。从街头行政的面对面到科层化办公室行政中一线行政人员与上级领导间出现权力人格分化,再到窗口行政一线人员与窗口后的真正决策权力人格的后台化,最终抵达界面行政基于“人—界面—人”关系的完全去人格化。(见表1)

表1 行政场景的不同类型及其特征

行政执法后台化与去人格化之趋势,与法律发展在法律执行技术层面上的去人格化演进趋势是高度一致的。从具体人格到一般人格、从一般人格到规范人格,反映着法律人造帝国的变迁。意志是法律上的人(包括自然人、拟制的行政公法人、商业私法人等)的创设前提,也是法律行为赖以成立的前提,更是法律责任归结的前提。在法律的早期形态和法学的早期理论中,法律上的人与现实中的人(或拟制的法人)是同一的。凯尔森指出,法学与法律上的“自然人”并不是现实生活世界中“自然”的实在人,法学或法律上人的问题,归根到底是法律规范复合的统一体问题,“故而所谓的自然人并不是生物人,而是对同一个生物人施加义务和授予权力之法律规范的人格化统一体。它不是一种自然的实在,而是一种法学的或者说由法律科学创设出的构造物,一个用以展示具有法律关联性之构成要件的辅助概念。在此意义上,所谓的自然人也是法人。”在法学世界和法律帝国中,法律规范中具有操作技术意义上的“人”是一个人造的概念,是一个在相应法部门中由相应规则构建起来的“规范体”,法律上的“人”不过是这一“规范体”的简易化、习惯性的指代名称(即雷磊所言作为法律主体人其实只是权利、义务、责任的拟人化说法)。法律世界是在一定价值观的指导下,通过对现实世界中人们习惯性行为的要素提取并予以理性加工形成的一个规范体系,该规范体系通过作用于“法上之人”——也就是人的规范体,进而实现对“现实之人”关系予以调控的目标(见图1)。法律直接处理以“规范体”呈现的“法上之人”之间的规范关系,而无法直接处理“现实之人”之间的事实关系。

图1 法律规范世界与现实世界

我们言“法治乃规则之治”,指的并不仅仅是主体行为的规则化,更是指法律关系主体在法律执行技术层面上的去人格化。自动化系统介入行政过程,其备受质疑的关键点之一,是自然人执法者(行政权力代理人)和行政相对人失去了“面对面”互动的机会。作为行政法律关系主体意志执行者的一线执法者与自然人相统一,有着历史久远的习惯基础和学理根基。在早期行政中,无论是在国王还是国王的大臣、街头的警察身上,我们看到的都是自然人与行政权力的合二为一,亦即事实与规范的统一,这就催生了根深蒂固的法学与法律中的人等同于自然人(法人乃拟制人)的观念。这一观念与私法制度及私法理论缘起于古罗马法的私人所有权观念密切相关。在早期行政史上,行政权力是作为私人享有的私有权利来对待的,是与“身份”密不可分的。传统行政转向现代行政,经历了一个从身份到规范、从人之治到法之治的演变。而在从“办公室行政”到“窗口行政”再到“界面行政”的演化过程中,我们看到了人格化行政权力形态的逐步退出,行政相对人直接面对的,不再是自然人执法者(行政权力代理人),而是“机关”“窗口”“界面”。在已经开展的自动化行政实践中,一线服务人员依然存在,但他们并不享有行政裁量权,而只不过是行政自动化处理的引导员和协助者。

在行政法治中,介入事实世界和法律规范世界之间的“街头执法者”“办公室官员”“窗口文员”,与“终端界面”的地位和属性在本质上是一样的,即均为行政之“前台”,均为行政权力之“代理”,均为行政意志的代理者与实现工具,差别仅在于是人工的还是非人工的,即“一线执法者”意志是否参与其中。在关于自动化行政的学术论争中,传统执法者的裁量权被挤压直至丧失以及由之引发的行政相对人权利受损问题,是人们最为忧虑的地方。有学者认为数字化裁量的格式化与个案正义性之间会不可避免地发生冲突;另有学者认为裁量行政带有较强主观性与价值判断特质,裁量空间的过度压缩会使之向羁束行政转向,因而会引发“行政裁量主观性的危机”。上文已经述及,人类法律发展在法律执行技术层面上是一个不断去人格化的过程,亦即一个权力“意志”外观不断退后的过程,也是主观性行政执法不断客观化的过程。西方国家以公务员与政治斗争的分离来谋求政府频繁更迭背景下国家的稳定性。英国行政法学者威廉·韦德(William Wade)和克里斯托弗·福赛(Christopher Forsyth)指出这一分离的后果之一是部长们承担政府问题的责任,“而相关的公务员一般来说应当保持匿名状态”,这本身就是非自动化行政时代的一线执法者去人格化的表现。自动化行政的力挺派否定“一线”执法者(行政权力代理人)意志的参与,但并不否定行政行为本身的意志性。

要回答自动化行政是否摧毁了自由意志和人的主体性问题,需要区分主观意志与客观意志两个概念。在波普尔(Karl Popper)的“三个世界”理论中,法律属于客观世界范畴,其执行实现非人格化是其本质的充分呈现,尽量排除主观意志而趋近客观意志是法律发展的规律与目标。法律在本质上是对个体人性与主观意志的技术屏蔽机制,是一种借助非人格化、意志不自由、行为格式化的方式(也就是规范方式),实现对人的自由意志的保护的造物。在事实层面上,生活世界是人与人之间互动的世界;而在规范意义上,法律世界是一个“无人”的世界,是一个“规范体”与“规范体”互动的世界。行政从私人到公共,从自然人代理走向机器人代理,进而实现行政的去人格化执法,是行政科学化的必然趋势。

三、行政法治的数智化孪生

现代“法律之治”并非在事实世界中“直接”调整人与人的关系,而是在规范世界中通过其特有的法律概念、关系构型、规则体系等抽象性工具来计算并输出代码化指令,代码化指令投射进事实世界,实现对人之行为的规范和人与人关系的调整。在行政法治中,作为行政权力代理人的执法者在执法过程中所能起到的作用,仅仅是沟通、连接规范与事实两个世界,确保事实世界中的行为在规范世界中的“合范”,执法者既不是规范世界中的立法者,也不是事实世界中的实质裁量者、决策者。法律规范与基准,而非执法者(行政权力代理人)的意志,才是决定一行为是否合法的尺度,舍此,就不算是法治行政。界面行政只不过是对法治行政的技术映射与孪生,亦即把法律规范代码指令化、将街头执法者、办公室官员、窗口文员等中介要素更换为终端界面、将面对面行政场景改造为无人场景罢了(见图2),其本质上是“政府职能、结构、行为在数字空间中的映射和孪生”,仅仅是行政法治形态朝向客观量化的技术调整,而非行政法律关系的本质性颠覆。

图2 传统行政与自动化行政的运行逻辑

从街头行政、办公室行政到窗口行政再到界面行政,执法主体与前台行政实现了彻底分离,自然人执法者(行政权力代理人)在行政相对人面前的消失,并没有改变行政法律关系的本质,行政相对人传统上直接面对面感受到的“自然人执法者(行政权力代理人)意志”的消失,也丝毫不改变行政法律关系构造,因为行政意志并不是真正消失了,而是代码指令化、技术后台化了。在这一转型过程中,行政相对人的意志其实也已经代码指令化、技术后台化了,因为在行政终端界面直接引发行政法律关系产生、发展与变更的是输入的“代码化指令”,至于究竟是本人输入、受托人输入抑或通过非人工的预置程序自动输入,只要合乎法律要求,在法律意义与法律后果上就是无差别的。

行政执法主体承担法律责任多由裁量行为所引发,传统上根植于主观性的行政裁量权之确立,根植于公共行政的广域性、复杂性、不确定性特质与治理信息有限性、信息处理能力极限性、科层制固有局限性之间不可调和的矛盾。同时,由于传统行政对人财物关系以及人类活动轨迹等治理信息的掌握是极其有限的,治理信息的处理能力更是非常低下的,而日趋复杂的科层制又制造了基于等级制的蜂窝状信息茧房和壁垒森严的权力网格,故而主观性的行政裁量权就成了传统行政的利剑。但数智化自动技术与量化法治思维相结合,将彻底解构传统行政立法授权“笼统性”与执法主观性之社会基础和法理根基。“量化法治是以指标技术和现代统计方法为分析工具,以数字化形式展现实践中法治运作的公共参考系统。”在行政学的发展过程中,受“科学主义”“实证主义”“行为主义”种种思潮影响,行政科学化和量化行政早已不再是什么新命题。赫伯特·西蒙(Herbert A. Simon)认为“要通过实证研究和实验来决定不同行政安排的相对可取性”。沃尔多(Dwight Waldo)则更进一步地用医学领域作类比,将公共行政定位为一门应用科学。行政学“科学化”直面的最大质疑,在于技术化社会中各个学科始终共同面对的技术理性与价值理性“极化”所引致的难以调和的矛盾性问题。作为公共行政这一“应用科学”之“规范科学”的行政法学,所秉持的学科目标是权力“规范化”与规范“技术化”。正如前文所述,法律处理纷繁复杂、生动多彩的事实世界中的问题,并不是通过“直接介入”方式实现的,而是首先将事实世界进行“概念化”、以法言法语进行“代码指令化”,将价值问题转化为法上的“函数表达式”,由此,事实世界与价值世界、现实世界与规范世界、非理性世界与理性世界的“互操作”方成为可能。可以说,法律制度的运行,是以事实世界中的自然人及其价值需求、行为轨迹、互动关系在法律世界中的概念化映射和孪生为基础的。法律是概念化、代码化、规范化的函数表达式,这就为数智化社会中自动化技术介入法治行政进而实现量化法治行政,奠定了理性基础与技术可行性。量化法治行政,不应再仅仅是“公共参考系统”,而应是“公共系统”本身。

法律对事实世界的“映射和孪生”,一直在朝向科学化的方向追求简洁与精确。马克思曾说:“一种科学只有在成功地运用数学时,才算达到了真正完善的地步。”在将数学论证引入社会科学方面,经济学走在了各个社会科学学科的前面,其已经以阿罗不可能性定理、哥德尔不完全性定理、纳什均衡理论等证明了社会科学数学化的可能性与必然性。经济学与法学均为研究人类行为选择的科学。何柏生认为数学论证应当成为法学研究的常态方法,法律科学应当像其他科学那样,进入科学原理和经验定律的定量表述、数学模型的表述研究和证实以及用数学模型来获得科学洞察力的层次。数学论证为量化法治奠定理论基础和实践可行性,“法律行为的量化表达引发法律关系的构成、性质及其范围的量化确定,法律关系的数据化积累反过来影响法律制度的设定与实施,进而最终明晰法律价值的权衡、设定与落实;反过来,法律价值与法律制度层面的量化权衡与设定有利于法治共识的扩大及其实践的科学化。”而人类的数字化生存与生活,则为法律对行政事实世界的“理念化映射和孪生”再向前一步,即迈入“数字化映射和孪生行政法治”,提供了现实需要和实践必然性。

数智化社会的运行,是以现实世界的数字化映射和孪生为基础的,这就为行政行为梯度量表反超自然人执法者(行政权力代理人)提供了技术支持,以至于在实践中的部分行政场景里使之越过图灵测试门槛已经变为现实。具备决策自优化和执行自动化的技术介入行政过程,借助大数据、云计算、物联网、人工智能、区块链、5G等技术,就可以实现行政全过程的法律关系主体画像、关系状态感知、行为数据搜集、自动算法决策、规范精准执行。在这里,现实世界的“数字化映射和孪生”,与其在法上的概念化映射和孪生实现了归一与同构。“由于数智化后设机制对数智人的全息统御性以及数智人与该机制的同构化,法律代码化和技术法律化——即法律与技术的一体化——就是必要和必然的。”传统行政立法授权具有笼统性的特点,行政治理技术有限、能力低下,因而不得不将行政裁量需要考量的行为原因、性质、情节、后果等因素的判定及各要素间影响的函数关系,交给并不可靠的自然人执法者(行政权力代理人),在此种场景中裁量行政执法的主观性就是必然的。但也正因为如此,行政裁量是最容易被滥用的一种权力,法治行政总是力图将其束缚在法律的规范框架和逻辑之中。行政法就是统制行政裁量的法,“包括立法统制、行政统制、司法统制和社会统制等”。从粗疏行政裁量到行政裁量“基准化”,再到完全的“行政裁量梯度量表化”(即客观量化),是数智化社会中裁量行政必然的最终形态。类似德国《联邦行政程序法》第35条禁止行政机关以完全自动化的形式作出涉及裁量和不确定法律概念的具体行政行为等规定,只不过是量化行政法治转型初期的应激性表现罢了。

自动化技术支撑的“界面行政”治理形态区别于传统行政的根本点,在于以下三个方面:一是量化法治行政与技术逻辑同步;二是行政行为梯度量表化;三是行政法律关系双方的互动均在无人世界中完成。当然,这是在比较理想或比较典型的自动化行政场景中才是有可能实现的,比如“无人干预自动审批”“交通违法自动抓拍/记录/处理”就完美展示了“界面行政”的上述特点。从人机关系的视野来看,自动化行政实现了对法治行政的技术映射与孪生,其最为突出的特征是人工智能体之嵌入以及人类角色(行政权力代理人)被替代,人类必须在场的传统公共行政范式面临重构,人类不必在场的情景越来越多,使得围绕人类所建构的“人际秩序”逐渐被围绕智能技术所建构的“机器秩序”取代。行政裁量梯度量表化与自动化,使得传统自然人执法者(行政权力代理人)让渡了裁量权,这势必引发对自动化行政正当性问题的追问。

四、行政法治数智化的正当性维系

自动化行政将传统行政的“人—人”关系形态转化为“人—界面—人”关系形态,自然人执法者(行政权力代理人)与行政相对人不再是物理性在场而是规范体在场,传统行政的“有限信息—相对精确”转型为“整全信息—高度精确”,传统行政的行为特定“断面”控制转型为行为“全程”控制。传统行政的各个风险点具有各自独立、相对静态、人工可控等特征,而自动化行政的风险具有连锁放大性、动态叠加性和全时外溢性等特征。因此,如前所述,自动化行政的正当性维系,有赖于自动化系统的安全可信、行政裁量梯度量表的科学化以及行政法规范算法化运行之社会共识的达成,而程序合法和实体正义是实现上述目标的法理基石。

程序合法性是自动化系统介入诸行政场景和行政过程必须首先解决的问题。德国是第一个针对全自动行政行为进行立法的国家,其于2017年第五次修改了《联邦行政程序法》,在该法第35a条确立了“全自动作出的具体行政行为”(der vollautomatisiert erlassene Verwaltungsakt)条款,同时在税法和社会法中进行了匹配调整。学术界认为,我国自动化行政程序上的问题,主要表现为自动化行政中的非现场处罚仅有实体法上对使用自动化设备的原则性规定,但缺乏行政程序法律依据。具体而言,这包括但不限于以下几点:凭单一电子数据证据自动作出行政处罚,违反行政处罚法关于“须有两名以上持有执法证件的执法人员”等规范要求;自动化行政中的非现场处罚不能满足行政处罚法“当场处罚”的规范要求;处罚告知义务履行不足,比如仅告知被采集的违法事实和处理决定,既未告知交警部门的地址和联系方式,也未告知接待核对违法记录视频、接受陈述申辩的具体机构。一言以蔽之,自动化行政“不再强调程序的步骤、方式等,而是将所有内容杂糅进既定的算法之中,自动得出结果”。针对自动化行政的上述程序性问题,2021年新修订的《中华人民共和国行政处罚法》作出了有针对性的回应,对收集、固定违法事实的电子技术设备的设置、取证完整准确性、要求以及告知义务履行、权利救济等做了细化,但此次修订并没有解决学界真正关注的自动化行政缺乏行政程序法律依据的问题。例如雷刚就认为,算法的封闭性、瞬时性、黑箱性、替代性和自主性,对申请、告知、信息公开、证据、说明理由以及陈述申辩等行政程序制度带来了挑战,但如果认为“权力模式的重塑让行政程序出现不敷适用的困境”,那就显得言过其实了。目前立法上对自动化行政的创新应用保持了一种相当容忍与克制的态度,其原因可能有如下两个方面:一是自动化行政体现了官民双限性与双利性。双限性是指其高效平等地限制、压缩、降低了行政相对人违法行为发生的可能性以及逃避处罚行为的发生概率,同时也高效客观地限制、压缩、降低了自然人执法者(行政权力代理人)的主观随意性和徇私可能性。在双利性方面,如果不否认自动化行政已经以指数级加速度提升了行政效能,那么也就不能否认其前所未有的利民便民性。二是目前自动化行政尚处于人工执法的工具性、辅助性、仿生性“技术取证”和“技术支持”阶段,“人在环路”为其提供了程序合法基础和与现有行政程序法的通用接口,并没有根本动摇现有行政程序法律关系构造,自动化行政中有关设备的“物的瑕疵”抑或“规则的瑕疵”,在现有法律框架内是可以通过规则微调抑或法律的系统解释得到妥善解决的。

当然,这并不意味着自动化行政在程序法理上就没有正当性疑问,恰恰相反,伴随自动化行政的迭代升级与应用扩展,学界所担心的行政程序合法性问题定会日渐突出和加剧,并会引发自动化行政实质正义问题的叠加与累积。学术界指出的自动化行政涉及实质正义的典型问题,主要包括行政关系主体的意志丧失、辅助系统之算法可能的固有歧视以及处罚密度过大等问题。关于行政关系双方主体的意志问题,前文已借助“意志的后台化”作了阐述,从而否定了这一问题的法理价值。针对自动化行政中算法决策可能存在的固有歧视以及处罚密度过大等问题的有效法律工具目前主要有两个,一是免于完全自动化决策权,二是算法解释权。

免于完全自动化决策权已存在于域内外立法中。欧盟《通用数据保护条例》第22条规定:“如果某种包括数据画像在内的自动化决策会对数据主体产生法律效力或对其造成类似的重大影响,数据主体有权不受上述决策的限制。”我国《个人信息保护法》第24条第3款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”针对商业领域的自动化决策问题,有学者认为拒绝权路径严重危及自动决策算法的应用,故而主张数据主体不得请求企业解释自动决策算法的决策逻辑、不得事先拒绝自动决策算法的应用。在自动化行政中,由于前述自动化行政的双利性优势,再加之行政本身的高权属性,相对人在实践中通过请求方式行使免于自动化决策权的现实可行性并不高。例如郑智航主张基于平衡论的视角运用免于完全自动化决策权,以实现具有确定内涵的行政权与相对方权利的结构性均衡。目前存在该类实践的国家,主要是尝试性地以划定完全自动化决策之“例外”范围的方式在法上落定这一权利。

自动化行政算法解释权的设置功能是多方面的,它一方面是为了舒缓行政传统方式向自动化转型时所引发的社会紧张,另一方面是为了防范行政算法可能导致的社会歧视隐蔽化、固化与强化等问题;它一方面体现现代法治行政公开与民主参与原则的要求,另一方面又是为了保障相对人切身利益特别是宪法上人格平等等基本权利的安全。目前法学界对算法决策解释权的研究,存在以“具体决策”为中心解释与以“系统功能”为中心解释两个面向。笔者认为这两个面向的解释均属于技术层面的而非法律论证层面的解释。面向公众时,技术层面的解释会因技术壁垒导致理解之不可能,而且也无法律上的必要性。法律层面的算法解释权应是对“决策结果”而非对“技术过程”的解释权,这就与在传统社会背景下如果出现机动车侵权,被侵权人需要的解释是法律意义上的侵权认定(以法庭外专业机构的鉴定结论为前提)以及赔偿的法律依据之解释,而非机动车构造原理以及专业机构鉴定原理之解释,是相通的。基于行政的高权特征和公共价值,自动化行政算法解释权既不同于商业算法解释权,也不同于传统权利保护意义上的解释路径、基准、目标与尺度。行政相对人提出算法解释请求,行政机关需要做的是利用统计学工具、大数据方法以及比较方法,就决策结果是否符合“大数定律”、是否符合“非歧视平等对待”“类似情况类似处理”“比例原则”及其合法性、合理性作出解释,而非解释具体决策逻辑原理抑或自动化系统功能原理,对后二者的解释属于法律外的“硬技术解释”,而不属于法律论证意义上的解释。周文清认为司法审查需要行政机关解释对自动化执法系统投入使用过程与系统本身的科学性作出合理解释外,还要对“实际效果”进行审查,“即监控系统投入运行后,是否出现大量的复议或诉讼,导致产生科学性上的合理怀疑”。从司法审查角度厘定算法解释权之内涵与外延,可以说是抓住了行政算法解释权的要旨。自动化行政算法解释应该是对算法之于法律影响的解释,而非对算法决策的数理技术逻辑的解释。

即使自动化行政在上述诸方面均已不存在行政法理上的正当性问题了,自动化行政处罚中的处罚力度与密度仍是一个需要行政法回应的重大问题。相较于传统人工处罚,自动化行政处罚实现了处罚的精准、客观和高效,甚至基于对技术的可预期发展,未来实现无遗漏、无误差、无失误处罚在理论与实践上也是可能的。在高某某与上海市公安局杨浦分局交警支队等道路交通管理行政处罚一案中,高某某停车时间略超过规定的3分钟,即被顶格罚款200元,在人工执法中很难实现的类似处罚,借助现代最简单的自动计时技术却可以轻松实现,且不会产生执法争议。但问题是:这种精准是我们所需要的吗?客观量化的、精准无误的处罚就一定是正当的吗?人类一切制度的建立都是以“人不完美”“人的行为无法完全精确”为事实基础的,而自动化行政技术的“完美性”却与之相冲突。所以,在自动化行政处罚梯度量表设计上,就需要大幅度提升技术决策冗余、大幅提升违法阈值和处罚门槛值,要根据自动化行政发展水平进行动态缩表,以降低行政相对人所支付的社会总成本,实现自动化行政法治与良法善政的统一。毕竟,自动化行政的目的是为了推进个人自由的安全与扩展,而非是为了实现“个人被按照一种完整的关于力量与肉体的技术而小心地编织在社会秩序中”的规训状态。

结语

自动化行政是技术化社会的必然产物,是国家机器升级的必需装备,也是助推我国行政进入“实质性”法治行政时代的必要工具。法治行政必须主动适配技术化社会发展。“如果能够通过现实空间代码的自动约束达到效果,我们就没有必要依赖管理机构的存续、人们的忠诚或者可信赖性了。如果我们能够让机器来约束,我们就能够更有信心杜绝不适当的约束行为。”莱斯格(Lawrence Lessig)的上述论断,要取消“映射与孪生”而成的世界背后管理机构的存续,这无疑是将代码治理神化了;但他在后半句中所言的,的确是自动化行政之真谛。以传统行政的惯常形态质疑自动化行政,并没有行政法理上的说服力。由面对面行政演进到界面行政,通过技术映射实现法律规范代码公式化、中介要素技术化、执法场景去人化,不过是量化法治行政的智能版本,是行政法治形态朝向客观量化的技术性调整而非行政法治理关系的本质性颠覆。自动化行政被质疑,更多是数智化转型期的一个社会心理学问题,伴随自动化行政的应用普及以及社会心理的变化,此问题将自然消解。

由数字化生存到数字化生产生活,“技术已经成为治理活动的有机环境的重要一环,潜移默化地在改造着国家的技术装置。”自动化技术已在众多行政场景中加速垂直部署和推广应用,伴随聚焦行政决策科学化、社会治理精准化、公共服务高效化之数字政府建设的推进,行政平台化、非现场化、智能化水平将大幅跃升。基于数智技术的自动化行政,将实现对传统行政权力和行政相对人权利的一体技术宰制,并一劳永逸地解决公权力制约以及社会秩序维护中的大多数传统难题,当然其也会生成更具挑战性的全新难题。比如有学者指出的自动化决策技术逻辑与法律程序的时空观的不适配、权力观的不兼容、人际观的不契合等问题,就是自动化行政决策难以回避的全新正当性伦理难题,这需要另文予以深入研究。

本文原载《法学家》2025年第2期。

    进入专题: 行政法治   数智化  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/160887.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统