内容提要:从网上审批到无人审批,全自动行政审批行为已经成为数字行政法未来的发展趋势。全自动行政审批行为,其核心逻辑是基于全国一体化政务数据体系搭建的算法模型并程式化、规模化运用于个案审批中。从制度定位看,全自动行政审批符合具体行政行为的行政权能(主体)、行政权运行和法律效果等成立要件,但这种以机器自动化方式来形成法律关系和决定当事人权利义务的制度创新,也改变了传统行政行为的基本预设,继而引发算法风险的隐忧。从适用基础看,全自动行政审批行为通过行政机关获得法律授权并确保算法规则的合法性。从适用领域看,全自动行政审批应限制在许可申请材料结构化、审查规则标准化、裁量基准可代码化且排除涉及生命权等重大基本权利的许可事项范围内。为了防止自动化决策对个案裁量的剥夺、程序性权利的缩减和法律责任的模糊,应当基于“通过设计的行政法”理念,完善全自动化行政审批行为的技术性正当程序机制和数字审批责任机制,即明确算法的公开机制、建立排除算法偏见程序和公民陈述申辩程序,建构全自动审批过程中的算法审计机制、人工介入机制和责任分配机制,最终推动行政审批数字化与法治化的系统集成。
关键词:全自动行政审批行为;通过设计的行政法;技术性正当程序;责任机制
一、问题的提出
随着新型数字技术广泛的运用,行政机关日益依赖数字化方式回应行政任务的持续性更新。这种自动化、数字化行政既可以表现为单纯程序制度的自动实施,也可以承担作出实体决定的功能。在行政处罚领域,“电子警察”等非现场执法方式的日渐普及。在行政审批领域,“秒批”等全自动化行政审批行为,成为当前我国优化营商环境改革实践的重要制度创新。其中,全自动行政审批行为借助平台载体、数据汇集和算法决策的技术赋能成为数字政府建设的标志性创新,对提高行政效能、激发市场主体活力和优化营商环境具有重要意义。2024年1月《国务院关于进一步优化政务服务提升行政效能推动“高效办成一件事”的指导意见》(国发〔2024〕3号)更是要求充分发挥政务服务平台支撑作用、着力提升政务数据共享实效和持续加强新技术全流程应用。
显然,自动化行政决策方式本质上是行政权力的体现,其本身也要符合依法行政原理的约束,确保行政机关行使行政权的合法性与正当性。相比需要人工介入最终决策的电子警察、辅助审批模式,全自动行政审批行为引发了如何确保算法决策与依法行政原理和公法价值融会贯通的问题。一方面,如何将法规范转译为严格准确的计算机语言以及算法技术的可控性问题仍是自动化行政全面铺开的阻碍因素。即在自动化行政实践中,存在不确定性法律概念的数字转化无法考虑人类的动态选择和表达的风险,即使是更加理性的算法决策技术,同样不是实现行政合法性的绝对答案。另一方面,完全自动化审查创新不断冲击着传统以公务人员为核心的行政权力运行方式。“行政可运用的信息与网络的新信息技术,也将导致行之有年的行为模式与决定结构的变迁。”行政审判中法官对全自动行政审批行为是否可诉、自动化裁量瑕疵是否可问责、算法不透明是否导致行政程序违法等问题尚未达成共识。鉴于此,本文从行政法治视角分析全自动行政审批行为,对其技术逻辑、法律性质、适用界限,以及法治因应等议题分别予以阐释。
二、全自动行政审批行为的逻辑与证成
(一)全自动审批行为的技术逻辑
“智能时代的法律创新还必须紧密结合技术逻辑展开,切忌脱离技术特征谈风险防控。”全自动行政审批行为是行政审批与人工智能技术融合的结果,其运作原理在于模仿行政执法者的法律思维:基于政务大数据体系搭建算法模型,并将申请者的事实内容转译为机器可识别的计算机代码,然后将特定算法模型运用于个案自动化的做出审批决定。
一是基于全国一体化政务数据体系搭建行政审批法律知识图谱。建构行政审批法律知识图谱是全自动行政审批的关键环节,其基础是完善的政务大数据体系。在全自动行政审批创新中,政务数据汇集和共享是基础性要素,系统实现秒批的关键是数据联通,可联通所有相关数据库,进行数据自动比对。《国务院关于加强数字政府建设的指导意见》要求“加快推进全国一体化政务大数据体系建设,加强数据治理,依法依规促进数据高效共享和有序开发利用。”目前,国家政务大数据平台主要包括国家政务数据服务门户,基础库和主题库两类数据资源库,以及数据分析系统等六大核心系统,为算法自动化决策提供数据基础。所谓法律知识图谱,是将法律规范、文书和证据材料中的相关实体概念以一定的法律逻辑联结起来的概念框架。建构行政审批法律知识图谱的目的是将大量简单的、结构化的行政审批事项类型化和标准化,基于事实要件、规范依据以及二者之间的因果对应关系编写成计算机代码并事先植入自动化决策系统。这些政务数据经过预处理和标准化后,成为系统学习和决策的基础。
二是基于不同类型的推理逻辑建构行政审批知识图谱的算法模型。人工智能系统的核心问题是机器如何模拟法律人推理的逻辑过程。在传统的法律认识论中,根据制定法进行认知性推理被认为是从规则到结论的线性论证过程,也即根据规则进行演绎式推理。与此相对应,专家系统型算法模型特别适合成文法领域,其基础逻辑是机器自动执行预先设定学习规则。这些规则都由前提和结论两部分组成,一旦知识库中的规则和综合数据库中的事实信息相匹配就会触发系统自动执行推理。随着信息技术的迭代发展,基于大数据分析的深度学习型算法兴起。机器学习型算法并不依赖专家预先指定测试变量和数学函数,而是通过数据和经验学习自动获得动作参数继而改进算法,其基础逻辑是相关性分析而非因果性分析。根据算法模型的学习能力、准确性和可解释性的不同,学习型算法可以进一步区分为浅层学习型算法和深度学习型算法,前者以决策树、贝叶斯为主,后者则包括神经网络、随机森林、提升树等。当前,跨系统信息查询、海量数据快速处理、场景匹配和自动核验和决策等自动化审批场域中使用的算法,主要为浅层学习型算法。
三是智能审批系统基于行政审批知识图谱和算法模型自动化作出决策。当基于法律知识图谱搭建的算法模型完成,人工智能系统便可以按照算法规则的推理逻辑对审批过程中的事实要素与规范代码进行“涵摄”,自动生成决策建议或结果。在此过程中,自动化行政带来的并不仅是简单的决策方式革新或迭代,还导致经由决策的算法化所导致的算法权力化。对此,有学者认为,虽然行政审批决定从传统的人工转变为机器作出,引发了行政权力不适当的委托或下放的隐忧,但全自动化审批行为具有合法性,属于全自动具体行政行为的一种。但是,也有学者认为,算法决策行为的构造是技术逻辑的数学架构,是算法系统做出的意思表示,不同于有着严格的法律主体要求和内在意思建构的法律行为,其既非人也非物,毋宁是一种人机交互的行为。为此,需要进一步探讨全自动行政审批行为是否契合行政行为的构成要件,以及全自动行政审批行为的属性特征。
(二)全自动行政审批行为的法律性质
从司法实践看,法院尚未完全接受自动化决定,认为系统自动生成的审批决定与行政机关作出的审批行为之间不能等同。例如,在“昆藤公司与广东省人民政府行政复议纠纷二审上诉案”中,法院认为,因审批系统错误作出的全自动不予受理答复行为,不应视为省人社厅作出的行政审批行为。但是,也有法院认为,系统自动生成《建筑工程施工许可证》事实上表明行政机关已在“建筑工程施工许可管理信息系统上审批许可的事实”。可见,以自动化决定为代表的数字行为与传统行政行为形式上存在差别,需要进一步比较全自动化审批行为与行政行为在法律构造上的异同。一般认为,行政行为是指行政主体及其工作人员或行政主体委托的组织或个人实施的产生行政法律效果的行为。行政行为的成立要件主要包括行政权能(主体)要件、行政权运行要件和法律效果要件。那么,全自动行政审批行为是否符合这些构成要件呢?本文的基本结论认为其是符合的。
首先,全自动行政审批行为的主体可以推定为行政审批机关而具备行政权能。“秒批”中的事实认定、法律适用、实体决定等过程全程排除人工介入,对传统行政程序中“人”的角色定位构成挑战。但是,行政主体理论本身也是一种法律拟制,是“对实际上不是人的社会实体,在法律上把它看成和人一样,能够享有权利和负担义务,这是一个由法律所创造的人,所以称为法人。”因此,自然人、法人或机器都只是承载行政权能、行使行政权能的概念载体。全自动行政审批是通过机器执行算法来完成审批过程,本质上是将行政机关的意思表示和行为过程通过算法化、自动化的方式予以实现。所以,基于经济社会管理的需要,也可以将机器及其背后的机构共同拟制为法律主体。其次,全自动行政审批行为是行使行政权的行为。不同于行使民事权利的行为,行政权的行使具有支配性、优益性和不可自由处分性等特点。全自动行政审批行为主要适用登记、认可等体现高权性的行政活动,符合行政权行使要件。最后,智能审批系统能作出产生外部法律效果的行为。行政行为的外部法律效果强调行政权的运行应当对外部公民的权利义务的形成、变更和消灭产生直接影响。显然,全自动行政审批行为的对象是公民、法人或其他组织,审批的结果对公民能否获得许可的权利义务产生直接影响。需要指出的是,行政法上意思表示遵循客观推定原则。行政行为的内容并非完全根据表意人的意思,而是受表示于外部的客观形态或法律支配,即只要客观上对相对人的权利义务产生直接的拘束就是行政行为。是故,根据行政法的客观意思推定理论,行政机关的意思表示,可以从智能审批系统对相对人的权利义务产生拘束的角度予以客观推定。
综上,全自动行政审批行为与行政行为的构成要件之间具有契合性,属于行政行为的一种亚类型。事实上,我国行政法学早已不拘泥于德国经典意义上的行政行为含义,而是主张对行政行为概念持宽泛的广义理解,以适应中国公共行政管理的主体多元化与行为方式多样化的现实需要。
三、全自动行政审批行为的适用限度
尽管理论界长期以来对行政机关采用算法和自动化技术取代人工进行决策的方式持审慎态度,但是,全自动化决策系统的普及应用在各行政领域却呈现出一种不可逆转的发展趋势,其背后体现以行政效能为导向的数字政府建设目标。在行政决策中引入人工智能,以机器自动化方式来形成法律关系和决定当事人的权利义务,这对当代行政法的核心部分提出了挑战。目前,我国对全自动行政审批行为尚缺乏明确的法律规定,其本身的合法性问题亟须厘定。行政审批作为行政机关的重要职权,若引入数字技术实现机器算法代替行政机关作出自动化决策亦遵循行政法治的原则和精神。申言之,全自动化行政审批行为能否经得起依法行政原则的检验继而明确自身的合法性?如何平衡全自动行政审批行为的裁量效率提升和审批事项要件复杂模糊之间的矛盾?这些问题可以整体上归入全自动化行政行为的适用限度议题中一并探讨。
(一)适用基础:应获得法律授权并确保算法规则的合法性
全自动化行政审批行为对现代行政法治国家的基本原理形成挑战。全自动审批行为并非单纯行政许可程序内容的自动化,而是由程序创新拓展至实体决定,引发实体性决策机制的革新。全自动行政审批行为排除了行政公务人员介入行政审批“程序实施+实体决定”环节的必要性,冲击了“人在回路”(human in the loop)的行政合法性链条。从政策试验维度看,全自动行政审批行为更多源于数字政府建设背景下的行政自我改革,法律规范的缺失导致这种规制创新要在合法性层面遭受更大的质疑。依法行政的逻辑是通过要求行政符合法律秩序从而实现行政的合法性;这种合法化逻辑,本质上是形式上的“合法律性”,由于法律具有民主正当性,符合法律的行政便在这个意义上得到了政治意义上的合法化。那么,行政审批智能系统是否能够获得法律授权以及是通过何种授权机制获得合法性?
一则,机器不能够成为法律直接授权的对象。有学者认为,“尽管机器当前并未获得法律的直接授权,但立足未来,法规范体系应当给予机器学习型算法以更大的作为空间,甚至直接赋予其完全独立作出行政决定的权力。”但这种观点忽略了机器与人的区别。一方面,理论上而言,智能机器和行政主体都是法律拟制的产物,立法机关似乎可以基于人工智能技术的发展对机器的主体性进行法律上的拟制和授权。但是,机器在处理利益复杂的个案时,面临着缺乏同理心、决策能力和道德责任感问题。“即使自动化国家更为智能、具有更高问责度,它也可能存在缺乏同理心的风险。”另一方面,技术的发展使得机器可以被形式上“授权”自主执行某些预先设定的审批任务,但其背后仍是对人类操作者的授权和责任分配,以及对机器决策的严格监管。未来,“人类—算法”协同的责任体系将成为自动化行政的核心问题。
二则,法律可以授权行政机关采取完全自动化审批活动。关于全自动化行政审批活动是否需要获得法律授权,有学者认为,“秒批”作为典型的替代授益系统,“本质在于个人对自身利益的处置—是否愿意以个人信息置换程序性义务的减省,因此经由相对人同意即可应用,无需另行授权。”本文认为,全自动行政审批模式相较于传统的行政行为,在程序执行及实体裁决层面均呈现显著差异,它不仅限制了行政相对人的程序性权益,并实质性地取代了人工进行实体决策的过程。只要行政机关对数字技术的使用构成了权利干预的效果,则这种执法创新就应当得到法规范的授权和规制。因此,对于此类自动化行为必须获得法律授权,否则不利于程序参与者的权利保障。欧盟国家在赋予公民数字权利的同时,也普遍要求政府机构通过规范授权作出自动化决定。从规范效力看,行政自动化应当遵循法律保留原则成为各国共识,不过法律保留的范围并不限于形式意义之法律规定,而包括法规命令、自治条例或规章等实质意义之法律,但排除行政规则。目前,我国仅《个人信息保护法》第55条对“利用个人信息进行自动化决策”作出特别规制,面向未来,立法者应当在行政法典总则部分或以行政许可法为代表的特别法中明文授权行政机关可以采取自动化手段。
三则,应当确保行政审批规范转译的合法性。如前所述,行政机关在法律规范授权基础上还需要确保算法规则的设计符合法治价值。一个公平公正的算法责任体系应当融入法律规范和伦理规范的要求,继而在规范内容和技术可控角度符合民主正当性要求。首先,具体行政审批规范的内容适合转译为计算机代码。算法规范在语言上具有精准性特征,每一条指令都必须被计算机准确无误地理解和执行。因此,能够进行全自动化作业的审批规范不仅在构造上具有结构化和标准化特征,其转译为计算机代码的过程也必须避免使用不确定的法律概念。其次,应采取科学方法实现法律规范的代码化转译。目前数字政府建设普遍采取政企合作方式进行,数字技术公司高度参与自动化审批模式的实践运营,应当强化自动化行政审批实施过程中技术人员将审批规范代码化过程的合法性控制。实践中技术人员在法律转译过程中因缺乏法律知识和教义学的训练,经常出现技术转译过程中偏离授权初衷的合法性风险。所以,必须通过一定的技术手段确保算法规范转译的准确性。例如,荷兰的莱布尼茨法律中心的“元法律”项目通过XML格式对法律规范的代码化转译,使得行政部门能够访问世界各地语言转换后的以元数据格式为表现形式的法律规则。
(二)适用领域:许可裁量基准标准化且排除生命权等重大基本权利事项
理论上而言,全自动行政行为既可以在羁束也可以在裁量情形下被作出,但其本身的适用仍存在实质界限。从域外立法例观察,德国《行政程序法》第35条规定唯有法律允许且行政机关存在裁量空间和判断余地时,行政机关才能实施全自动化行为。这一规定实际要求计算机编码规则与实体法要求的契合性。对于全自动行政审批行为而言亦如此,实践中大量许可事项的构成要件充斥着不确定法律概念和个案裁量因素,数字化和标准化难度高,有学者更是指出,行政许可裁量基准细化本身的难度“是横亘在(行政许可裁量基准等)非行政处罚类裁量基准工程前的客观困难。”因此,全自动行政审批行为的适用存在边界。
第一,从审批事项结构角度看,全自动审批主要适用裁量基准标准化和数字化的许可事项。标准化和数字化具有内在相关性,如果许可裁量基准可以实现标准化,那么规范数字化和代码化更加容易。一般认为,“电子数据处理在自动作出决定中的应用范围一般小于在决定准备过程中的应用,尤其是在行政机关享有裁量权和判断余地领域或者公民听证程序。”就现有的技术实现能力而言,行政审批智能系统在涉及价值选择和价值判断的许可审查条件时仍无法做出合理选择,因此其主要是适用具有高度标准化、结构化的许可事项。根据机器裁量空间的不同,可以做如下区分:一是羁束性许可事项中机器裁量空间压缩为零,全自动行政审批具有容许性。二是通过裁量基准能够实现规范内涵标准化的许可事项,全自动行政审批同样具有适用空间。行政机关事先通过将审批规范中的不确定概念或价值判断事项予以基准化、标准化和确定化,能够确保自动化裁量的一致性。三是赋予机器个案裁量空间的许可事项不适用全自动化行政。此种情况下,系统直接处理不确定法律概念的解释与行政裁量的判断,存在脱法化和侵害合法权益的风险。所以,未来应当根据审批事项的领域、审查对象和裁量基准标准化的难易程度分级分类推进自动化审批,对于申请材料结构化、审查规则标准化、裁量基准可代码化的许可事项,可以规范运用完全自动化技术。
第二,从审批内容所涉及利益的重要程度看,全自动行政审批应排除适用涉及生命权、自由权等重大基本权利事项。全自动行政审批行为虽然具有提高行政效能、优化营商环境等维度优势,但其权力运行的过程体现的是利益分配和强制力实施,具有极强的行政干预色彩。从基本权利保护视角看,对个人权利和利益影响重大的事项,不能交由机器以自动化作出决定。但是,宪法秩序下对公民基本权利的保护也需要与数字时代的自动化行政创新相适应,将我国宪法上“国家尊重和保障人权”的原理嵌入数字行政之中,达成效率与公正、理性与温情之间的适当平衡。所以,应根据全自动行政审批所涉基本权利的类型来设计分层次的保护方案。有学者指出,我国现行《宪法》对基本权利条款的限制形成了“单纯法律保留—加重法律保留”两个层次,其中涉及财产权、文化活动等权利类型一般适用“单纯法律保留”;对人身自由、选举权等权利类型适用“加重法律保留”,即不仅要由法律规定或者基于法律规定,还必须符合宪法规定的特定要求。实践中对生命权、自由权等重大基本权利作出处分的事项、对社会发展和生态系统可持续发展产生重大影响的事项,不应该纳入全自动行政审批范围。因为,这类事项属于对利害关系人具有实质意义的问题,在程序上需要行政机关依法进行听证,而机器尚无法根据自动化程序实现听证调查任务。换言之,对于财产权等社会经济权利,法律可以通过明确具体适用条件、程序和救济机制基础上授权行政机关适用全自动行政审批。
四、全自动行政审批行为的规范构造
全自动行政审批行为除了对实体内容的正当性造成冲击外,亦对传统行政程序造成诸多挑战,原有按照人工审查要求设置的诸多正当程序均被省略。例如,“秒批”除了申请程序外,所有的其他行政环节均瞬间完成。尤其是,以机器学习型算法为代表的自动化决策立基于历史数据的相关性预测未来,这种相关性而非因果性分析的决策逻辑难以通过传统法律归责规则推知或论证,“算法黑箱”问题随之产生。所以,有必要基于“通过设计的行政法”理念,明确自动化行政审批行为的规范构造,其要求全自动行政审批行为的设计、使用和处理的全部流程嵌入行政法治的理念和原则。
(一)基于技术逻辑的规范:技术性正当程序的规范建构
如前所述,行政相对人面对全自动行政审批行为时存在“算法不平等”,传统的知情权、异议权和救济权在面对算法时不断被削减。是故,应当在正当程序基础上引入技术手段而建构技术性正当程序,确保自动化行政行为符合自然正义的基本要求。技术性正当程序旨在将正当程序的要求嵌入算法的设计和运行之中以解决代码的设计是否正当、代码运行是否透明、代码决策是否存在偏差等问题,提升自动化行政的透明度、可问责性和公正性。正当程序的基本要义至少包括程序公开性、程序中立性和程序参与性等三项基本原则。这三项基本要求构成自动化行政审批行为的核心程序要求,从而有效保障公民的基本权利。
一是明确算法的公开机制。《欧盟通用数据保护条例》(GDPR)第13条要求,自动化决策的主体必须为当事人提供决策的相关逻辑和实质性信息。有学者认为,考虑到算法的黑箱效应,应当尽可能公开算法的运算数据、源代码以及将预测趋势转换为决策行动的编码细节。但是,信息通信技术的迭代发展使得算法模型日趋复杂,专家都无法理解或达成一致意见,对于公众而言更是如此。因此,在具体方式上应重点围绕对公众会产生影响的算法核心要素进行公开,这些要素包括目的要素(算法要实现的行政目的)、依据要素(算法依据的法规范)、规则要素、效果要素等。需要指出的是,算法公开有利于保障公众知情权,但不意味着完全忽略利益衡量。《政府信息公开条例》第15条规定全面公开也得兼顾利益衡量,对涉及商业秘密或者个人隐私时,算法可以不被公开。对于完全自动化审批中的行政算法是否构成商业秘密问题。本文认为行政算法一般不涉及商业秘密,即便是涉及深度学习型算法,也可以通过引入可验证的算法解释机制,形成能够体现各种输入变量与输出结果之间相关性的量化透明报告,这种做法并不侵害到算法模型中的商业秘密。
二是建立排除算法偏见程序。算法公开程序有利于确保算法权力处于公众的监督之下,但公众对算法代码的理解有限,必须诉诸专业人员判断是否存在算法歧视或偏见。事实上,算法并非客观中立而是具有价值负载性,往往蕴含某种预设的价值偏见。这种偏见可能源于参与算法设计者的主观意识,或者源于训练数据的历史偏见。而行政中立性要求的核心恰是避免偏私,其要求决定自动化行政程序结果的算法规则应当符合平等权要求,避免算法偏见。因此,需要通过完善程序一致性制度来避免算法偏见,即要求算法规则必须统一适用,不能单为某个人选择不同的程序,以确保算法规则的普遍适用性、可重复性和可再现性。首先,需要通过对算法参数的控制以避免算法歧视,譬如避免使用性别、种族、宗教等身份特征类数据,排除歧视性标准。其次,要注重对技术弱势群体的程序保护。对于长久处于技术弱势群体而言,即便算法和源数据都是准确的,且算法本身没有任何倾向性,算法也会复制和扩大已有的歧视和缺陷,继而会对弱势群体作出不公正的决策。所以,对于弱势群体的保护不仅需要在算法公开中对公开方式予以特殊安排,更需要将扶助弱势群体的伦理嵌入各类算法决策机制。最后,应通过黑箱测试或白箱测试等算法测试方法评估算法规则是否符合程序一致性要求。
三是保障自动化审批活动中公民的陈述申辩权。算法自动化决策并非万能,“绝对可靠的专家”也会犯错误。事实上,算法自动化决策在数据输入端和结果输出端均可能出现错误,必须引入事前的算法影响评估机制和事后的陈述申辩或听证程序。算法影响评估程序要求行政机关在选择或建设某项智能审批系统前,要吸纳公众或第三方参与算法影响评估,了解、评估和参与其对自身的影响。在结果输出端,技术性正当程序要求保障自动化行政中的个人获得被听取意见的机会。所以,全自动行政审批活动中负有关键职责的公务人员应当有能力解释和控制自动化审批决定的原理和错误,并能指出相关决定所依据的事实和法律。当机器作出不予审批的全自动化决策时,更应赋予个人听证的权利。当然,全自动化审批活动主要是适用事后听证程序。传统的行政程序中,行政相对人可以面对面的与行政公务人员沟通,但在“秒批”等自动化活动中,行政决策的过程瞬间完成,事前的听证程序几乎被排除适用。
(二)基于内部控制的规范:数字审批责任机制的规范建构
正当程序赋权过程中仍面临个人数字素养和能力无法匹配权利行使要求、无法回应集体利益保护诉求等问题。实践中,算法透明、公开有时候并不能很好的解决信息不对称问题,甚至出现因高度可见性反而降低透明度的“透明度悖论”。借助智能化技术的理性外衣,全自动化行政审批中容易出现责任混同和“算法卸责”问题。所以,亦有必要基于系统控制理念,从“内部行政法”视角完善自动化审批行为中的责任机制。“若要保证数字技术参与裁量的公正性,内部控制程序的运用很可能才是最为关键的一环。”所以,在外部技术正当程序赋能公民程序权利的同时,还应从内部控制程序的角度去建构自动化审批行为中的责任分配机制。
首先,建构智能审批系统选择和实施过程中的算法审计机制。算法黑箱和商业秘密保护等事由导致企业自我规制难以实现从算法预设计到部署和运行阶段的有效管理。作为应对方案,算法审计机制成为一种新型算法监督机制,主要围绕审计的主体、对象和方法展开,目的是确保确认算法符合人权、合规标准、公平以及数据保护等方面的要求。是故,应当从概念内涵、实施主体、方法选择和实施效果等方面建构全自动行政审批活动中的算法审计机制。一是明确算法审计的内涵。一般认为,算法审计是根据一定的标准,对算法系统从规划、开发、实施到运行维护各个环节进行审查评价,对其合法性、有效性、安全性、效率性等进行评估和控制的方法。二是算法审计的实施主体。从域外实践看,算法审计的主体包括科技企业内部审计、监管机关审计和第三方审计。考虑到我国正处于算法社会的兴起阶段,当前更可行的方案是由行政审计机关制定和发布自动化决策系统影响评估报告以实现算法行政公开。三是算法审计的方法。算法审计的方法主要包括外部偏差审查和技术合规内审,外部偏差审计聚焦于识别算法系统技术元素是否存在偏差,通常由独立审计员执行;而内部监管审计则是由授权机构深入系统内部,进行全面法律合规性检验。四是算法审计的实施结果。算法审计的结果是形成一份包括审计过程、算法影响评估结果和改进建议的审计报告。一方面,算法审计报告应当向社会和公众开放,满足公众对自动化算法决策的知情权;另一方面,算法审计报告对于不同的利益相关者发挥不同的法律作用。对行政相对人而言,算法审计报告可以成为其主张权力救济的根据;对于行政机关而言,算法审计报告是行政机关与算法开发商之间数字行政法律责任承担和分配的重要依据。
其次,健全全自动审批过程中的人工介入机制。相关数据显示,公务人员具有自动遵从自动化系统的倾向,甚至出现有警告信号或来自其他来源的矛盾信息的情况仍选择性采纳算法决策的建议。因此,必须建立自动化审批决定中的人工介入机制,以平衡行政效能与行政相对人权益保护之间的关系。“人在回路”是各国人工智能立法中普遍性的立法原则,旨在通过把人带回到算法的闭环以保障人的尊严,被视为数字社会中人的基本权利之一。因此,虽然人工智能被视为替代人类的技术,但算法思维却无法替代和模仿人的同理心、灵活性和创造力,人机协同的制度设计是未来法治的普遍趋势。就技术维度而言,应当在技术层面建立系统裁量偏差的预警和介入机制,并达到人工处理通道的保留、开放性处理选项的设置和系统操作权限配置的重心下沉的要求。例如,《国务院办公厅关于印发“互联网+政务服务”技术体系建设指南的通知》(国办函〔2016〕108号)便要求设置裁量异常监察,对收费异常裁量情形进行监管。就规则层面而言,需要在法律层面明确人工介入程序的内容和效力,发挥制度规范在自动化决策中的引导和规制作用。在以往实践中,基于大数据分析和算法模型作出的自动化审批行为被视为技术理性或计算科学的代表,行政机关不会主动对自动化决策行为进行有意义的审查。所以,需要从规范上明确全自动行政审批行为中行政机关的介入义务,同时考虑到算法黑箱、算法歧视和依法行政的要求,当行政审批智能系统与人工决定不一致的时候,应当赋予人工干预决定更高的法律效力。
最后,完善全自动行政审批过程中的责任分配机制。数字时代,对于谁应该是责任人以及该承担多少义务的机制变得很不稳定。实践中行政审批系统建设模式往往采取的是公私合作模式,私法主体介入行政法律关系后容易产生公私主体之间的责任界限模糊和混同。传统基于结果主义的算法问责无法有效穿透数字方式创新引发的算法黑箱效应。所以,应当明确全自动行政审批行为中的各方参与主体的数字行政法律责任。从责任对象看,“控制力构成了归责的正当性基础”,数字技术公司和行政机关是行政算法的实际控制主体,也是数字权力的实际掌握者。所以,行政机关和数字技术公司是主要的责任对象。从责任类型看,既包括行政机关实施违法自动审批行为所承担的违法行政责任,也包括数字技术公司承担的行政违法责任。从归责原则看,数字技术公司应就智能审批系统的设计、运营和维护承担法律责任,并保障数字系统的合理平稳运行;政府对全自动行政审批行为的监管责任则是全过程的,包括事前的市场运营者的资质准入审查责任、事中对数字平台运营情况的质量监管责任和事后承担的数据安全风险规制责任等。此外,在面对特殊情况下具体参与主体均无明确过错却造成了致害结果情形,还应引入分布式责任,即当特定主体可以改善算法行政行为的结构或潜在结果,却没有履行相应的义务时应优先承担责任。
结语
“数字文明建设的价值目标是造福于人民。”以机器学习型算法为核心的人工智能技术发展给行政法的发展带来无限的可能,但自动化行政的最终目的是通过推进政府治理现代化而更好地尊重和保障人权。从并联审批到智慧审批,将自动化方式运用到行政审批领域代表着数字政府建设背景下行政审批改革的发展方向。全自动行政审批行为虽然能通过法律授权机制和谨慎划定在行政裁量领域的适用范围获得民主正当性和合法性,但在面对复杂情形下的法律适用、不确定法律概念解释时,应当结合计算推理和算法模型可能导致的权利侵害风险谨慎设定具体适用规则,通过技术性正当程序和内部责任机制共同推动行政审批数字化与法治化的系统集成。全自动行政审批行为的研究不仅能够运用依法行政原理、行政行为理论指导和推动自动化行政审批的制度改革,还可以检验、修正和反哺数字行政法总论的发展。