本文载于《吉林大学社会科学学报》2025年第6期
夏志强,四川大学公共管理学院教授、博士生导师,全国政治学类专业教学指导委员会委员,国家社科基金重大项目首席专家。主要从事政治与行政学基础理论、公共服务、数字公共治理等领域研究。
黄琳珠,四川大学公共管理学院中国式现代化治理研究中心研究助理。
[摘要] 人工智能算法深度嵌入公共行政领域,不仅改变了传统行政模式,提高了行政效率,也引发了行政责任体系的根本性变革。算法技术嵌入行政体系重塑了政府责任内容、主体关系及科层结构,也导致了算法行政的三大问责困境,即主体维度上的权力解构与机制失灵、客体维度上的责任坍缩与权力弥散、内容维度上的标准模糊与价值失焦。在算法技术嵌入行政体系并逐步迈向算法行政时代的过程中,重构责任体系的路径是通过人机协同实现价值理性与技术理性的互补平衡,构建政企协同的公私责任分配框架并重塑融合“机制问责”与“德性问责”的复合型问责体系。加强对算法行政体系的问责,应以公共性维护为核心,通过制度创新实现技术赋能与责任约束的辩证统一,推动算法行政可持续发展。
[关键词] 算法行政;行政责任;行政问责;政府责任;问责机制
一、引言
以大数据为基础的人工智能正以前所未有的深度和广度嵌入人类社会的各个领域,其广泛应用不仅创造了新的经济社会环境,也以强大的力量影响、塑造和指导着我们的行为和社会治理。随着公共数据的积累与算力的提升,算法技术也由浅入深、由表及里地渗透到公共管理与政府决策的各个方面,并逐步带来行政体系的深刻变革。算法行政便是这一过程的必然产物,其意指公共行政部门通过大数据和算法进行自动化操作和决策,进而实现国家和社会治理。
算法行政不是一个静态概念,而是在技术演进过程中被不断塑造的。在发展初期,算法主要是行政过程中的辅助工具,帮助政府提高服务效率和决策精度,例如在线问政、政府流程电子化等。在这一“工具”角色里,算法只是公民与政府互动的介质,行政官僚始终掌握着最终的决策权和执行权,因而算法的应用并未改变行政体系中的权责结构。随着技术的不断进步,以机器学习为代表的第三次人工智能发展浪潮兴起,突破了“波兰尼悖论”,机器学习算法可以通过基于大数据的自我训练过程完成参数调整与模型构建,即完成算法的自我生产过程。尽管人类仍然参与其中,但机器学习算法已然摆脱了需要依赖人类表达能力的局限,从而极大地提升了算法能力并扩展了其应用范围。这些技术突破意味着算法在公共行政中的作用不断扩大,并逐步开始承担决策和执行的职能,甚至可能脱离传统的官僚体系进行独立运作,逐渐从官僚“工具”转变为具有独立性的官僚“主体”。
随着算法的独立性增强甚至获得独立人格,公共行政中的权责关系发生了深刻变化,传统的政治委托代理关系被打破,民众作为“委托人”、行政官僚作为政治“代理人”的关系需重新审视。一方面,新的算法治理工具将越来越多地取代行政自由裁量权,对社会和公民产生重大利害关系;另一方面,多责任主体导致责任归属模糊化,引发传统责任与问责机制的失效,进而可能造成责任悬空。算法嵌入引致的责任失范极可能导致算法行政不仅不能实现效率的提升,甚至可能导致私人利益挤占公共利益、技术知识取代行政知识。因此,研究算法行政重构责任体系与问责制具有重要意义。
算法嵌入行政过程使得公共权力的运行方式随算法代理发生了变化,因此,算法行政责任并不能简单地视为传统行政责任的算法化,而应进一步讨论算法行政作为一种新的行政方式,在重塑政府行政过程中产生的新的责任问题与问责问题。本文从算法如何重塑行政责任的基点出发,追问这一过程如何使原有的问责框架失效导致责任失范,探索重构算法责任与问责体系、推动算法行政责任落实的路径。
二、算法行政重塑政府责任
人工智能算法技术快速嵌入公共行政的各个环节,悄然推动着传统科层体系的变革。技术驱动的变革具有涟漪效应,不仅改变了科层组织和工作流程,还深度改变了行政体系传统的权责关系,带来了行政责任主体、责任内容及结构的变化,进一步促进了政府与市场及社会之间职责关系的重构。
(一)算法嵌入行政引致责任内容的变化
在技术与行政深度融合的算法行政中,算法嵌入深刻触发了政府职责内核的变化。这种调整呈现出三重递进式变迁:从行政决策的底层逻辑变化,到行政程序的不透明累加,最终延伸至价值目标的调整。相应地,算法行政职能及其履职方式的变化也要求对政府责任内容加以调适并回应。
1.行政依据从经验权威到数据闭环的变化强化了政府数据责任
在公共行政领域,传统决策是自上而下的由经验与直觉驱动的决策模式,而算法行政则是以大数据作为基础,由数据驱动决策。通过实时处理多源异构数据,政府信息能力实现量级跃升,有效缓解治理主体与对象间的信息不对称。与此同时,算法治理的双刃剑效应也同步显现:一方面是个人隐私权与公共安全的张力;另一方面是数据主权的制度性冲突,需要处理好政府数据利用与公民数据权保护的关系。因此,如何对作为决策依据的公共数据进行分级分类保护,协调政府信息利用、信息公开、隐私保护之间的关系,成为算法行政中政府不可推卸的责任。
2.行政程序黑箱性与解释义务断裂要求强化政府的解释责任
算法决策形成了“政治黑箱+技术黑箱”的叠加效应。对社会和公民而言,政府内部行政决策更多地与政治过程相关联,并未公开或者公开进入程序法治轨道,本身就存在“行政黑箱”;而复杂算法内部工作原理不仅无法向公众解释,不能被行政人员理解,甚至对算法技术专家来说都是不透明的,这更是在行政黑箱之内以算法的“无知之幕”叠加了一层“算法黑箱”。在算法行政过程中,机器学习模型在行政系统内的部署及后续使用过程往往因技术壁垒规避了公众参与、专家论证、信息交换及披露等正当程序控制,导致决策合法性基础流失。因此,如何平衡算法决策过程的黑箱性与公众知情权,向公民清楚地传达决策背后的逻辑以维持公众的信任和理解,重建算法行政决策的程序控制,成为政府的又一重要责任。
3.效率崇拜与公共性消解导致的价值失衡要求强化政府的价值责任
算法行政作为技术理性的具象载体,将复杂社会问题转化为可计算、可预测的程式模型,使得技术理性所追求的效率最优、工具至上的价值取向深度渗透于行政过程。但算法行政对行政效率的追求似乎蕴含着这样的价值前提:只要算法系统能够对政策选择进行持续监测和分析,政治行为者就能更快速、更灵活地重新评估先前的决策,从而将政策决策与公众偏好联系起来。
追求效率本是算法行政的优势所在,而实际上“效率之殇”是对技术治理最直接的批判。首先,算法系统运行的底层逻辑是“相关性”而非“因果性”。对于私人部门商业活动来说,相关关系足以支持其盈利而无需深究盈利背后的内在规律,但就公共部门而言,仅止步于对相关关系的了解而放弃对因果性的追求,是否足以支撑复杂的社会治理系统,是值得怀疑的。其次,算法系统的“效率”存在瑕疵。在数据来源、算法及其系统中无法避免的瑕疵,使得算法驱动的决策系统在实践中造成过严重的不良后果,例如,在基层警务执法领域,美国的警务预测系统建立在歧视性和非法的历史实践基础上,使得预测结果带有深深的地域或种族歧视;在医疗卫生领域,英国国家医疗服务系统出现失误导致45万名女性错过乳腺癌筛查,可能给270名女性带来致命性伤害。更为严重的是,算法技术的使用正在瓦解公共部门的价值共识及对公共价值的追求,使其被视为实现治理效率的实验室。因此,算法行政责任不仅要求政府合理使用算法技术,为行政效率负责,也要求政府合理管理算法技术的使用,为行政价值负责。
(二)算法嵌入行政引致责任关系的变化
算法技术重构的不仅是行政工具的效率刻度,更引发了责任关系网络的结构性变化。算法行政中的交互关系由传统“行政主体-行政相对人”的二元式转变为“行政主体-自动化行政系统-行政相对人”的三元式。一方面,促使政企协作模式从“契约委托”向“数据共生”转换,模糊了公私责任界限;另一方面,算法行政技术黑箱迫使技术开发者、运营商与政府部门形成新型伦理连带关系。同时,算法自主性的增强进一步瓦解了传统行政中“人为主体”的权责预设,倒逼建立人机互嵌的责任关系。
1.算法市场中传统政企委托-代理关系的转型
算法系统的专业性与复杂性要求行政系统寻求外部支持,在全社会范围内整合人才、技术、资本等资源才能建成。因此,算法行政的第一层委托-代理关系涉及公共部门与私人企业之间基于公共事务委托或算法技术购买所产生的新型组织关系。区别于传统的政府工程发包与公共服务外包,算法行政中政府控制权被稀释:不仅由于算法知识的专业化、前沿化与复杂化,也因为“供应链”形态的算法市场主体,在数据驱动下,多个相互关联的市场主体及其系统参与其中。例如,传感器系统(由一个参与者控制)可能连接到分析系统(由另一个参与者控制),而分析系统本身又输出到决策系统(由第三个参与者控制)。因此,公私责任关系发生了深刻变化:出于对算法技术主体的依赖,政府不再能以一己之力承担算法行政的所有责任,而市场主体理应对算法技术在公共领域的使用负责。同时,由于算法供应链的影响,政府对委托-代理关系的管理从单一控制转变为控制合作网络。
2.技术治理责任的社会化扩散
在技术生产端,算法行政系统建设任务最终需要落实到具体的技术人员进行设计与开发。作为代理人,算法技术专家依据合同要求进行算法系统的设计、开发、测试、部署等一系列项目执行,代表行政官僚和企业管理者等委托人行事。这一层委托-代理关系也存在两个特征:一方面,算法复杂性与专业知识壁垒加剧了信息不对称,使得行政官僚往往难以穿透技术帷幕对技术专家实施有效问责;另一方面,开发过程的集体性消解了个人责任:无论是跨组织协作还是多人团队内部的任务分解,都可能导致责任空置。鉴于专业技术主体在开发算法行政系统中具有一定的专业权与自主权,能够作为人工智能伦理中的强势角色选择“用脚投票”,因此,在社会层面开展伦理培训、促进行业自律,将成为调和专业自治与公共价值的关键路径。
在数据来源端,公众作为算法治理生态的“沉默合伙人”,正以数据生产者的身份被纳入责任网络。算法系统的开发、调试与维护离不开海量数据供给,算法系统发挥具体功能也离不开精准的数据支持。虽然公民并非算法工具的直接使用者,但其作为数据供给者也直接影响到算法系统的质量与算法行政的效率。这意味着,技术治理责任不应局限于开发端的专家共同体,更需培育公众作为数据主体的能力,通过制度设计将分散的社会责任转化为可操作的共治实践。
3.从工具依赖到主体性博弈的变迁
在电子政务时期,信息技术仅仅被视为行政官僚的工具和资源,而在人工智能时代,算法系统已与行政官僚共同塑造着算法行政,超越了工具性角色而体现出主体性特征。算法系统之“主体性”地位虽并不等同于法律意义上的“行政主体”,但能动性使其已然超越“物”本身的客体属性,不仅对政府行政行为和决策产生影响,而且代表着所属行政主体的决策意志,并对行政相对人产生法律效力。因此,算法行政的第三层委托代理关系出现在行政主体(或其代理人)使用人工智能算法系统进行行政决策或预测的过程中,产生了算法使用者(技术专家/行政官僚)-算法技术之间实质性的委托-代理关系。
行政官僚将部分决策权委托算法代为行使,对算法的监督控制、对算法决策结果进行审查与判断,成为行政官僚新的责任。深度学习算法的不可解释性(如神经网络的黑箱特性)导致传统技术控制论失效,行政官僚对算法决策逻辑的理解形成“双重认知鸿沟”:既无法掌握技术细节,也难以预判系统演化趋势。这种情况与以往委托代理问题中被扭曲的代理统治的风险截然不同。人工智能算法能否作为独立的责任主体?在人机层面的委托代理关系中责任应当如何分配?这是重大的理论和实践问题。
当下人工智能算法并未发展到有知觉或有意识、有情感的程度,无论是算法全自动决策还是混合型决策(需要人类决策者或审查者的参与),算法都起到决策信息提供的作用,其工具属性远大于主体属性。此时算法系统的责任必然只能由人类行为者承担,即由参与研发算法系统的技术专家、部署和使用算法系统的行政者及双方组织共同承担责任。然而,当人工智能发展到有知觉意识、有情感倾向、有道德价值判断的强人工智能阶段,开始与行政官僚形成分工关系,成为行政官僚的“算法同事”甚至“算法领导”时,算法必将承担相当部分行政责任。但算法责任的实现具有特殊性,即仅能从积极的态度出发,对算法进行主动责任设计,而不能指望其承担被动责任:因为若要求人工智能承担被动责任,则需要对人工智能作出相应的“惩处”。然而无论是物质上的(信息限制与使用限制)还是精神上的(类似于通报批评),似乎都无法让外界感到人工智能受到了实质性制裁,“问责”力度由此被削弱,责任也无着落。而要求人工智能承担主动责任,即有意识地在决策过程中践行公平公正等道德准则,则需要强人工智能生成过程中实现道德代码的输入与进一步的自我学习,这一部分“输入”的内容与过程可以通过人类有意识的干预达成。这一步虽尚未实现,但从积极乐观的立场看,是指日可待的。
可见,若寄希望于人工智能算法主动责任的实现,归根结底须在人机关系透视的基础上,从当下算法行政初期阶段入手,依托制度对算法行政系统中的“人”进行约束与管理,进而从“输入端”影响算法技术的走向。因此,人类行为者仍然是责任问题中的首要主体。
(三)算法嵌入行政引致科层组织内部关系变化
算法系统嵌入行政过程,除了影响政府与外部组织之间的责任关系,也对科层制组织形态产生了结构性冲击,使得科层组织内部纵向权责关系与横向协作模式都发生了改变。
1.纵向等级责任关系的变化
算法技术嵌入行政体系引发的科层组织转型,首先呈现出显著的纵向传导效应,其本质是通过数字技术重构政府纵向权力架构,进而改变纵向责任关系。这一过程表现出以下几个特征:其一,科层组织的扁平化重构。算法技术以强大的信息处理功能减少了传统科层制对信息传递中间传导节点的需求,中层机构的实体职能逐步虚化,形成“决策权上移、执行权下沉”的去中间化权责配置模式。其二,行政责任的差异化嬗变。在技术治理范式下,高层管理者面临从“政策制定者”向“算法治理者”的角色转型。其核心责任不仅在于管理组织,还需要理解和控制算法的运作,从而实现对算法行政的价值引领与价值纠偏,例如构建算法治理的制度框架,包括算法伦理审查、技术路线选择和风险预警机制建立等。基层行政则呈现执行责任强化特征,依托算法技术完成公共服务标准化输出,形成基于数字痕迹的“技术问责制”。这种责任分化实质是传统科层制“整体性责任”向“技术分解式责任”的制度性转换。其三,算法可能引致职责体系的弹性调适,即“改变职责同构的传统关系,使基于事实需求的职责异构成为可能”。算法不仅强化了中央政府的宏观调控能力,更为地方政府提供了自适应治理的技术工具,可突破传统“职责同构”的刚性约束,构建起“以事性定权属、以事项配事权”的新型职责矩阵。
总的来说,技术治理的深化并未消解科层制的制度根基,而是形成了技术与组织互构的新型治理形态。在组织扁平化与控制强化的双重作用下如何避免责任逃逸,亟须明确现有算法嵌入对组织形态与各级组织职能的影响,进而进行责任梳理与等级职责体系的重构。
2.横向协作责任关系变化
在横向维度上,算法驱动政府职责横向重构的耦合机制,重构了政府部门间的协作范式。一方面,横向职能部门职权责划分更为清晰。通过数据整合与智能分析,算法系统能够综合研判各项业务指标,为机构设置优化、整合、撤并提供数据支撑和决策标准。另一方面,跨部门协同的新场景出现。出于算法治理信息需求,传统上由某一特定部门负责的任务可能会变得更加跨部门化。无论是出于任务导向的部门协同,或是数据导向的部门间信息共享,各部门间责任关系交织难分。此外,算法治理可能催生新的管理角色和责任,例如算法伦理审查机构、数据治理机构等新兴职能单元。这些技术治理专责机构既需要保持独立性以确保技术中性,又必须嵌入现有行政体系以维持治理连续性,其权责界定成为制度设计的核心议题。
三、算法行政的问责困境
算法技术对公共行政权责体系的重构,本质上映射着“技术赋能”与“责任重构”的共生关系。随着算法系统逐步承担服务供给、政策执行、风险研判等行政职能,公共权力的运行逻辑已发生结构性位移。当技术专家通过代码书写行政规则、公民数据流成为治理资源时,责任分配机制正突破科层制下的清晰归责链条,转向多元主体共担的技术治理生态,但这种权力-职能-责任的三维调适尚未建立起制度性框架:既有法律规范仍困囿于“人机二分”的责任认定传统,监管体系难以捕捉算法动态迭代中的伦理风险,更缺乏对技术性权力扩张的有效制衡。制度供给滞后与技术创新之间的张力,使得算法问责陷入主体模糊、客体泛化与标准缺失的多重困境。
(一)问责主体权力解构与问责机制失灵
算法技术嵌入对传统行政问责体系构成了结构性冲击,其核心困境源于主体能力的消解、问责路径的断裂及技术治理的异质性挑战,具体表现为主体缺位、路径失效及陷入被动三个方面。
1.传统行政问责主体与新兴技术主体的双重缺位
在中国语境中,传统行政问责主要有人大问责、政府内部问责、法院问责、政党问责以及其他主体问责(主要包括公民、其他社会团体等非权力主体)。相较于算法行政对行政能力的提升,其对传统问责主体的赋能具有滞后性:对于非权力主体而言,公民作为潜在问责主体存在集体行动困境。这主要表现为,公民作为微观事件中受算法决策影响的群体缺乏问责能力,而宏观事件中分散的利益相关者又难以形成有效的问责压力。对于权力主体而言,传统问责主体面临技术赋能滞后与知识壁垒的双重制约,人大与司法机关因法律滞后性难以介入技术治理,行政机关则受制于算法黑箱(代码、数据、使用过程及动态调整等多重黑箱)而丧失监督能力。
同时,技术责任主体缺位凸显治理权责错配。为避免算法行政中商业利益对公共利益的驱逐,对技术主体进行行业规制理应成为问责的重要环节。行业规制对应的问责主体类型是专业同行问责,是指由行业监督机构依赖行业标准对算法行政进行问责。目前一些欧美国家已形成了科技伦理问责和算法影响评估两种专业同行问责机制,而我国在技术层面的专业问责力量尚待挖掘与整合。在算法行政生成过程中,政府购买算法不可避免,私人部门凭借技术优势深度介入公共行政,形成技术权力垄断,可能使得商业利益驱逐公共利益,而我国尚未建立专业化的技术问责机制进行科技伦理审查或算法影响评估,这将导致技术治理责任悬置。
2.传统问责路径的技术性失效
“责任”在不同维度上呈现出多样化表现形态。从角色定位上看,责任是指主动的职责担当,即Responsibility;在过程层面,责任表现为说明回应的义务履行,即Answerability;从结果评价的角度来看,责任表现为对履责不力的法律追究,即Liability。由此也延伸出了三条传统的问责路径,即透明、回应与审计,但这三者都面临着算法行政的冲击。首先是透明性困境的加剧。算法黑箱包含多层不可解释性,即使实现技术公开,机器学习结果的非因果性特征亦使决策逻辑难以被人类理解与验证。其次是回应性机制的瓦解。行政官僚因技术壁垒丧失解释能力,而技术专家往往因脱离具体算法行政实践场景而无法有效回应,二者共同导致回应性责任链条断裂。最后是审计效能的衰退,主要表现为无法对算法嵌入行政过程带来的效果进行衡量。算法技术的使用需要高昂的设计和运维成本投入,算法行政系统的投入产出比能够被准确计算是衡量算法行政效率的前提。然而,行政系统多大程度上因算法嵌入而改善了行政效果是难以衡量的,在大多数情况下,算法系统的使用是自愿的,因此很难将绩效差异归因于算法系统本身。
3.既有问责手段的事后性与局限性
出于事前审查对技术创新与技术采纳阻碍的可能性考虑,算法问责主要以事后的司法审查问责与赔偿救济为主。例如,被交通部门的算法系统误判罚款后,可以采取行政复议或者行政诉讼的方式寻求救济与赔偿,但过度依赖行政赔偿等事后救济,使得算法行政问责中存在种种制度缺陷。一方面,司法能力与技术复杂性的鸿沟扩大。在涉及更广泛主体利益、具有更深远影响的复杂算法决策情境中,算法危害的指数级增长、数据痕迹的自我湮灭,将很大程度影响司法救济的有效性。另一方面,分散化的事后追责缺乏系统性约束,不仅难以形成预防性治理机制,反而导致对合规惰性的逆向激励,使得公共治理成为算法试错的试验田。此外,事后问责具有滞后性,其痛点在于对改善内部管理的系统性激励很少,无法从内部建立起“负责任”的动力系统。
简而言之,被动问责机制仍困囿于“人类中心主义”的责任范式,试图用传统行政的线性归责工具应对算法社会的网状责任生态,不仅难以修复已发生的技术伦理创伤,更可能在司法救济的反复失效中降低公众对算法行政的容错阈值,引发算法行政合法性争议。
(二)问责客体责任边界消融下的权利弥散与责任坍缩
算法决策的黑箱属性与技术权威消解了行政责任的因果链条,传统基于行政命令链的逐级追责机制面临失效风险。当算法成为公共决策的关键变量时,技术理性与行政责任的耦合突破了科层制“谁决策、谁担责”的预设框架,最终导致问责对象的泛在化与责任路径的碎片化,形成“有组织的不负责任”的责任困境。这主要体现在公私主体权责交织、人机关系模糊化以及科层制层级责任关系的失调。
1.公私责任异质化:公私部门责任传导的模糊与断裂
算法行政中因技术主体的介入打破了传统公共行政的单一主体格局,形成政府与技术企业的复合治理主体。一方面,公私利益冲突异化了企业责任。私人部门凭借数据与技术优势深度介入公共事务,其逐利本性导致责任异化,尤其是平台型企业通过算法俘获与权力渗透,将商业逻辑嵌入公共治理,形成“技术霸权”。另一方面,算法供应链的延长进一步加剧责任扩散,降低了避责成本,致使问责失效。从开发、部署到运维的多元主体导致责任碎片化,使得责任的追溯十分复杂,增加了问责难度。同时,主体之间的权力关系不平衡将导致责任倾轧,由于一些关键参与者,尤其是经常控制底层技术的主要供应商占据着重要地位,极易通过法律策略转移责任、规避问责,而监管滞后性使平台企业得以利用制度真空实现“技术脱责”。
2.人机责任断层:算法代理引发的权力让渡与责任黑洞
算法嵌入行政过程重构了人机交互的责任分配图谱。行政人员虽保有最终决策权,却在技术理性支配下形成“自动化偏见”,将算法建议奉为决策圭臬。算法通过重塑工作场景与决策流程,实质上架空了行政主体的专业判断权,使其沦为技术执行者。在这一新的权责关系中,当算法决策出现偏差时,责任追溯将面临双重困境:技术黑箱性阻断了因果链条的还原,而行政官僚基于有限理性与组织压力选择“算法默认”实现避责,将导致责任主体虚置。随着人类与人工智能的深度协同,人类愈发依赖人工智能,这使其在管理行动与社会整体运转中的主导地位日益凸显。在一些情境中,尽管人类仍掌握最终决策权,但这种权力是有限的,因为人类只能在智能算法提供的方案中进行选择,无论人类如何决策,在最终结果上都可以认为智能算法已对人类的管理决策行为实现了近乎全权控制。若科技与社会制度的发展进一步突破人与物的二元分立,使人工智能算法获得独立人格,此时算法行政中的人机关系及其责任关系又会截然不同。当算法行政中出现人类无涉的“算法循环”决策模式,智能算法在法律意义上成为委托代理关系中的受托人时,原先以自然人从业者作为规制对象的问责体系,更加面临着适用困境。
3.科层责任的层级解耦:纵向问责链条的技术性消融
算法嵌入对科层制层级关系产生了解构效应。上级政府通过技术赋能强化了对基层的控制,却将决策风险转嫁下级,以柏林预测性警务系统为例,算法系统纵向贯通三级政府,形成“技术科层制”:围绕算法系统“KrimPro”进行制度化设计,将不同的工作步骤纵向分配到各个警务部门,每个部门都成为更大处理链的一部分,使该算法系统在决策过程中的使用成为一种义务。一方面,该过程实现了预测性警务工作的下放,上级政府通过算法系统的嵌入实现对基层预测性警务工作的赋能,进而将实现职权责的直接下放,基层官僚“向上负责”路径从向具体事务负责转向对算法事务负责;另一方面,通过算法嵌入实现了对基层的直接控制。“警方在预测犯罪高风险地区的所有行动都被记录并存储在数据库中。这样做是为了对预测结果进行评估,同时也对决策过程进行监督。这样就可以追踪到哪些警务部门对预测性警务系统提供的信息做出了何种反应。”上级政府通过对算法系统的强制使用以及运行过程的监管实现实质上的控制强化,使得基层部门在承接技术权力的同时,因缺乏算法解释权与修正能力,沦为算法执行终端。当决策失误发生时,权责追溯则呈现“倒挂”:技术主导者(上级)掌握问责主动权,而基层官僚则承担“替罪羊”角色。这种结构性矛盾催生基层政府的策略性避责行为,将风险系数更低的技术革新作为治理重心,以事本主义的逻辑替代结构性改革。
(三)责任伦理冲突下的问责标准模糊与价值失焦
算法技术的嵌入直接引发了问责内容的结构性危机,其核心困境体现在问责范围的扩张性与责任标准的模糊性。
1.问责范围的系统性模糊
问责范围的模糊,一方面体现在技术赋权驱动的行政权力扩张导致责任边界的弥散化。算法行政将政府责任从传统的事后监管延伸至事前预测、事中干预的全周期治理,形成覆盖社会生活全域的“穿透式覆盖的系统性监控机制”。这种权力扩张衍生出更多的技术性责任,如数据隐私保护、算法公平性维护等新兴责任。这些新的责任将出现在不同的行政环节,使得旧的责任体系被打破,而大量责任缺乏实体载体,进一步模糊了政府责任边界。另一方面体现在价值性责任的隐匿引发的问责内容识别困难。算法行政可能面临表达与聚合不足、不完全垄断、公共信息不完整、短视效应、威胁人权与尊严等公共价值困境。算法作为效率工具使得行政价值责任受到冲击,而伦理责任识别难度更大、不可问责性更高。当行政官僚能依托算法系统以效率作为绩效衡量标准,与此同时又缺乏明确的标准来判断采用技术所带来的收益时,算法技术嵌入产生的新的算法行政系统将自然而然地削弱问责制。
2.问责标准的结构性危机
算法决策的动态性与技术黑箱性彻底颠覆了传统行政问责的判断基准。第一层标准模糊出现在决策层次上。算法的不同功能与决策结合,需要不同维度的判断标准:决策型算法一般嵌入即时决策需要对算法输出结果的对错进行判断。即时性行政决策往往影响范围小、时限短,行政事实与依据明确且在领域内具有完备的行政知识经验积累;而预测型算法主要对不确定性事务进行评估与预测,往往是长期的、影响深远的、决策依据与情境不断变化的决策,例如是否实施计划生育。这类决策的影响呈现出阶段性特征,在具体的时间节点上评判决策是否正确有失偏颇,只能依据决策结果对其质量进行评估。第二层模糊则出现在评判标准及其产生主体上。普遍认为算法决策系统需要引入竞争,而引入何种竞争,即由谁来判断算法输出结果是否正确却存在争议。这里存在相互冲突的两种观点——由其他算法进行审查与将人作为审查员。其中,由算法进行审查主要是出于效率的考量,希望从技术层面出发设计可解释性的算法;让人作为审查员则是出于对人的想法具有更高的可塑性与公平性的判断。但无论是由人还是算法成为决策质量的判断标准,表面上均表现为输出结果一致或不一致,而无法判断孰优孰劣、孰是孰非。不存在外生的决策质量评判标准也就意味着,改变决策过程就是改变决策质量,对行政决策结果的问责转为对决策过程的监督问责,而决策过程的不透明性则最终极有可能使问责遁入虚空。
四、走向更负责的算法行政
算法行政所面临的责任困境,本质上是技术权能与责任承载主体之间的结构性断裂。一方面,行政者因对复杂技术的陌生或依赖而陷入“智能失权”,导致对行政价值把控弱化;另一方面,算法工具因其非主体性难以成为最终责任归宿,而传统科层制下“组织-个人”的线性责任链条,在算法介入后变得模糊甚至断裂。这种主体-工具地位的混淆、权能-责任匹配的失衡,不仅冲击着行政伦理的根基,更对公共行政所承载的公共利益保障功能构成了严峻挑战,它迫切要求我们超越传统问责模式的窠臼,以系统性的思维重塑算法行政的可问责性框架。
(一)观念转变:人机协同的价值理性重构
对人机关系的重新认知是指引算法行政责任体系结构性重塑的价值罗盘。算法行政问责的实践困局,正倒逼人机关系认知的深度变革:当算法表现出自主决策能力时,传统行政模式中将技术作为附庸工具的定位已然过时,但同时人们也容易陷入“机器主体”的认知误区,本质上是“能否将算法看作人”和“能否将人看作人(而非技术奴隶)”这两个问题没有得到整合的缘故。要实现算法行政问责变革,首先要求我们跳脱出传统“技术中立论”与“技术中心论”的极端观念,从对“谁是主体”的争论转向“能力本位”的探讨,在具体的算法行政实践中实现人机各取所长,走向人机协同互补的算法行政。
1.价值理性的复归:公共性捍卫中的人类主体性发扬
亚里士多德将“善”划分为“目的善”与“手段善”。目的的公共性是公共行政最根本的公共性,“其基本任务是处理个人与集体、不同的社会团体、不同的利益阶层等之间的关系,以求在多元的利益冲突中发现作为共同基点的公共利益”。因此,在算法行政的场域中,对公共性的追求是一种“目的善”,源于维护和实现公共利益这一政府合法性的实质性内容;而利用算法进行行政则是一种“手段善”,为现代公共行政更好地实现公共性根本目的提供技术支持。面临动态多变的行政场景及复杂算法技术的嵌入,公共行政者不仅丧失了以往那样从容驾驭的自信和能力,而且只能配合这种技术的范式和逻辑习惯性地“跟随跑”,主动或被动陷入技术依赖。随着时间推移,人可能逐渐失去对技术的控制能力,陷入“智能失权”的“新贫穷陷阱”,进而使得算法使用僭越“手段善”的地位而危及“公共善”这一根本目的的实现。要避免陷入此种困境需要重新唤醒行政系统中的人及其价值。
算法行政中,公共行政者行为在很大程度上受算法技术的支配,这是由算法技术过程的固定性所导致的必然让步。发挥主体性以把握价值方向,实现公共性需要转变公共行政者的角色:能动性的发挥不在于流程上的形式责任,而在于价值实质的把控。将行政者从具体的重复性、操作性事务中解脱出来,而在任何涉及价值生产与价值分配的环节中,人都必须在场。在这种客观要求下,公共行政者的行政分工要从事务性处理的“下游”向公共性生产的“上游”转移。
在价值生成方面,强化公共行政的公共性,发挥公共行政者的直接沟通功能。穆尔认为,公共管理者的首要任务是根据环境的变化及对公共价值的理解,改变组织职能和行为,创造新的价值。公共利益在各方利益主体不断博弈中得以确定,相应地,公共价值也需在充分交流、相互博弈中生成。在这一过程中增强对公共价值的理解,需要加强公共行政者与行政相对人的直接沟通,提高调研、论证工作占比,以人的逻辑思维、场景分析、想象和创造、发散思维的能力弥补算法技术的能力不足;以感性主体的柔性化解算法参与下公共部门与公民交往交流的刚性。公共行政者价值生成的在场使价值方向的把控权仍然掌握在人的手中,同时人的参与也提高了算法行政中算法技术使用的合法性。
在价值判断方面,强化公共行政决策标准的公共性,发挥公共行政者的个人知识作用。行政组织赖以运转的知识基础可以大致划分为科学知识、官僚知识与个人知识。科学知识与官僚知识具有标准化、客观性的特征,算法系统设计中将此二者编码、吸纳较为容易,而隐性的、抽象化的官僚个人经验知识很难用精确的语言进行准确的计量和表达,难以标准化、编码化,也就难以被算法系统吸纳。当算法行政中不同价值观之间相互冲突或彼此竞争时,便产生了伦理问题,我们希望行政者能够依据自身知识经验对伦理问题进行判断。因此,应发挥行政官僚个人知识的作用,与算法中所蕴含的科学知识与官僚知识相互补充,使其共同构成算法行政价值判断的基础,也即依托行政官员设计知识驱动的算法,而非仅仅由数据驱动。
2.工具理性的驯化:算法功能边界的效率性遵循
人工智能算法是否具有主体性?从“责任”视角出发,人工智能算法并不具备完满的主体性。目前,人工智能算法构造、行为方式仍然与人类有根本差异,尤其是伦理道德层面,算法暂时无法进行道德思考并作出伦理行为,因此并不能成为责任主体。展望未来,即使具备了较强的自我意识与自主意识,并且能够在进化过程中实现与人类的“价值对齐”(Value Alignment),但从主体性构成的社会基础角度来看,人工智能算法仍难以建立人类主体性所依赖的社会关系和实践基础;从主体性构成的价值角度来看,人之所以获得主体地位,是因为人类将自己当作目的,而不是像一般动物一样仅仅依据本能生活,较之而言人工智能难以使自身获得目的意识。简而言之,算法虽超越了工具属性,在决策过程中具备一定的自主性,但并不能具备完整的主体性,也就导致现有的责任承担机制与落实机制不能“制裁”算法本身并使其承担责任。
因此,在考量算法角色与分工时,应对其有效性与有限主体性有清晰的认知。算法技术的“中立”特性在行政流程中下游的计算工作与流程性事务中能够实现价值最大化,同时需对算法技术的使用作出边界限定:不替代价值判断、不突破法律框架、不形成技术垄断。与此同时,在算法设计时又需对算法超越工具的属性有深刻的洞察,即算法本身具有规则属性,算法决策的责任是在算法的设计和开发中构建的,算法设计时就规定了决策中的责任分配。算法设计时应当对算法使用场景中受到算法影响的人的思维与行为加以模拟,使算法价值规则与算法使用时的“潜规则”同频共振,共同促进算法功能的有效发挥。
3.人机互动:从“被动适配”向“竞争性共生”演化
算法行政目前并非“完全体”,算法技术嵌入行政过程并最终重构行政模式是一个分工协调制度调整、人机相互磨合的漫长过程。在此过程中,人机关系也会随之变化。人的主动性应当在算法嵌入之初得到张扬。算法嵌入行政系统之初,竞争性的人机关系是值得鼓励的:肯定行政者对算法技术的合理怀疑,同时也鼓励算法技术对运算规则中隐含的人的价值偏好进行审查,在良性竞争关系之中,算法技术更加贴近公共行政场景的现实需求,行政者则因在算法调试过程中自身的意见被重视与采纳而提升对算法技术的信任,从而使人机互动进入正向循环,最终进入各司其职的互补合作关系。当然,人机关系从竞争走向竞合也并非顺其自然,而是治理手段与科学方式的融合。如何加速这一过程,使人机协调的过渡更为平稳,需要在知识、制度、技术方面加以干涉。一方面,确立人机共生的观念,将“人机共生”理念融入公共行政价值体系之中,“人之所长交由人,算法所长交由算法”;另一方面,加强人机沟通,提升行政者算法知识储备的同时,在算法系统中增加“解释说明”模块(系统的解释、操作过程的记录与追踪),通过机器的输入和输出对特定决策的“出处”进行“决策层面”的说明,帮助行政者深入了解系统的运行。
(二)技术创新:责任锚定的技术支撑体系
1.数据中台构建与价值提纯:公共数据提质增效的技术工程
数据是算法的原材料,是一切智能技术的基石。数据具有公共性,其符合经济学中公共物品非竞争性与非排他性的核心特征。这一属性使其天然具备支撑行政穿透式监管的基因:非排他性要求破除数据壁垒,为监管主体提供无差别接入可能;非竞争性确保数据复用无损,赋能多层级审查的可行性。当前算法行政问责的数据困局,恰在于公共数据资源被部门藩篱割裂、被私人产权遮蔽,致使问责因“信息贫血”而悬浮。
公共数据提质不仅是技术工程,更是公共性再分配的政治过程。唯有在数据基座上实现公共性的再生产,算法决策的合法性方能在问责风暴中岿然不动。一方面需整合政府层面的公共数据。行政者需扮演跨系统数据桥梁角色,建立跨部门数据共享负面清单(如涉密数据目录),以“默认共享、例外禁止”原则倒逼数据流动,进而实现权限重组;同时开发低耦合数据中台,将异构数据库转化为标准可读接口,实现技术适配并提升数据应用效率;另一方面则是实现私人部门数据的公共价值萃取。私人数据(如社交舆情、商业平台消费轨迹)蕴含着公共价值要素,却往往因产权问题产生可及性壁垒。可设计双层滤网提取公共性:第一层是法律滤网,旨在通过法律确权授权框架,建立“公共利益豁免”条款(例如突发公共卫生事件中调取出行数据);第二层是技术滤网,例如利用联邦学习等技术(Federated Learning,FL)提炼群体行为模式的同时运用差分隐私(Differential Privacy)等技术剥离个体敏感信息。
2.穿透溯因与分布归责:算法监管的双轨制技术架构
对算法平台的穿透式问责旨在对算法行政中“责任蒸发”现象予以矫正,其核心是通过侵入性技术干预获取监管信息,找出实际致害主体并确定其法律责任。主要实现穿透外部结果到过程监管、穿透合同自由到要素监管、穿透法人外衣到技术监管。针对算法决策的“输入-输出黑箱”,为实现从过程到结果的穿透,需构建跨学科专家委员会主导的审查机制,利用数据溯源、代码验真、模型偏差检验等技术全方位审查;针对算法产权壁垒,当算法服务合同沦为“技术隐秘性护盾”,需开发算法影响评估系统实现要素化监管,例如将合同条款映射为可量化指标、自动生成机器可读+公众可理解的“双模态报告”,并且依据评估结果划分风险等级,触发分级审计。
分布式责任则是针对穿透式责任对算法行政中各主体行为因果关系的模糊性、相关关系的依赖性及实用性不足提出,认为在算法行政的具体参与主体无明确过错却造成了致害结果的情况下,链条上的主体均应承担相应责任,从而形成一个完整的责任闭环。借助区块链技术实现存储、证明与追溯的一体化,保证“源头可溯、过程可查、效果可评与责任可追”。由此算法行政情境下各责任主体行为轨迹得以清晰记录。
穿透式责任指向算法行政系统内部主体之间的关系,当面临算法影子官僚风险时,政府仍然承担着对算法行政中企业主体的监管责任,从要素、合同到系统的监管有助于实现控制权的回归,限制算法行政系统中的私权膨胀;而分布式责任则指向算法行政系统与外部问责主体之间的关系,分布式责任有助于问责主体厘清问责对象,既包括从算法行政系统到各实体组织的责任明确,也包括从组织责任到个人责任的追究,确保受损害者获取相应的救济与赔偿。
(三)问责范式的双重整合:制度效能与伦理价值的互构路径
1.构建差异化的责任分配机制
在算法行政的多主体协同框架下,政企协同责任配置需率先破解责任归属的结构性困境。这要求确立“能力-受益”的分配原则。在“能力”维度,基于客观责任的可计算性本质,政府与市场组织在算法行政合作中应实施差异化担责。企业依托其技术控制优势履行技术可行性保障责任,例如算法故障导致的决策失误或服务中断以金钱赔付实现契约补偿;而政府则需凭借公共权威承担系统性风险兜底责任,例如因算法歧视引发社会信任危机时进行政治回应与解释,并提供恢复名誉等救济措施,最终形成企业重经济补偿、政府主政治回应的责任惯例分层适配机制。而“收益”维度则强调,算法供应链中不同市场主体之间的责任分配也应是共同但有区别的,其责任分配应考虑不同企业组织参与算法行政的能力与收益程度。
与客观责任的可计算、可衡量相对,主观责任是不可计算、不可分割的责任。主观责任在算法行政中最大的体现是“政治责任”。当责任范畴延伸至不可量化的主观领域,政治责任的实现应形成双向保障机制:针对消极政治责任(体现为合法性折损与信任度降低),必须坚持政府单一承担原则,通过引咎辞职等制度设计为公众政治情绪构筑制度性宣泄渠道,实现“政治系统健康的泄压阀功能”。而对于积极政治责任,则应推行政府示范下的共担机制:一方面建立算法伦理审查委员会对技术方案进行公共价值评估;另一方面通过公共理性教育促使开发者将公平正义内化为算法设计准则,完成“政治情绪疏导-治理效能提升”的良性循环。
2.构建双重问责的整合机制
责任是公共行政的首要条件。隐含价值选择的责任确定是产生效率的前提,一旦责任得到恰当确立,效率也便随之而来。对责任的不同理解则产生出问责的不同路径。弗雷德里克认为责任是一种“责任感”,因此他所倡导的问责是“作为德性的问责”,将美德作为问责的标准确立;而芬纳认为责任是一种惩罚与纠正,因此芬纳倡导的是一种“作为机制的问责”。在算法行政的问责中,两种范式并非对立,而恰好构成“技术治理-价值引领”的互补关系。机制约束确保底线责任,德性引导推动卓越治理,最终实现算法行政的合法性再造。
机制问责在算法行政责任实现机制中具有不可替代的地位,其核心价值在于通过制度化追溯路径激发负责动力并保障有序补偿。这一目标的达成,需依托可操作的责任追溯体系建构,首先需要依托技术锁定责任辐射范围,明确责任传导链条,彻底破解责任对象模糊性困境。而机制问责最终能否落实则取决于响应机制是否标准化,需要构建类似“首问响应-专业研判-分级处置”的操作规程,以响应时效压缩行政惰性空间,避免“投诉黑洞”侵蚀算法行政公信力。同时建立统一接诉平台,实现诉求入口集成化与响应状态可追踪,为后续专业研判奠定时效基础。专业研判旨在对算法致害进行跨学科知识解构,防止非专业性因素干预导致误判;而分级处置则避免低风险申诉挤占有限行政资源,从而在制度层面完成从问责诉求到矫正行动的完整兑现。
作为德性的问责重点在于行为,侧重于规范问题以及实际和积极行为的评估,理应成为算法问责制的另一重要组成部分。一方面,作为机制的问责对公共行政者带来的制度与行为束缚,一旦超过限度便会挤压公共管理人员的创新与创造力;另一方面,机制性问责具有一定的事后性与滞后性,而算法的系统性、延时性危害可能使得结果具有破坏性、持久性且难以弥补。责任仍然应当成为算法行政系统的主动追求而非被动要求。此外,虽然算法技术代理权随着技术迭代升级与日俱增,但代理权应与责任区分开来,将代理权归于自主系统绝不是将人类的道德责任转嫁给该系统。因此,也需强调作为德性的问责,从积极的角度提高算法行政系统的可问责性。德性问责本质上是一个动态的价值共识构建过程,其实现难度源于三重张力,即公共利益的多元诠释易引发认知分歧、责任优先级的差异化排序导致行动冲突、行政主体特殊利益与公共义务的博弈形成内在矛盾。破解这些困境需要构建开放的学习型问责生态,在技术层面开发“算法-行政者伦理对话系统”;在制度层面建立多方参与的“算法伦理联席会”,整合技术专家、市民代表、社会组织形成常态化磋商机制;在文化层面实施“公共精神浸润计划”,针对算法行政中的公私部门主体开展公共性职业道德教育,培育“乐善好施”的公共行政精神。
五、结语
算法行政作为数字时代“计算主义”的治理实践,虽在风险预测与行政效率提升层面展现出技术优势,却深陷技术理性僭越与价值理性失落的双重困境。本文揭示了算法技术嵌入公共行政面临的风险,即以效率崇拜消解公共价值,以技术中立掩盖责任空转。既有以程序与法律为锚点的问责制度对这一风险的回应无疑是机械且滞后的,而如何冲破算法技术迷思,重振人的主体性地位,如何超越事后问责依赖,构建能动回应的行政,是本文的初心。
本文选取中观组织视角,链接宏观制度与微观行为,审视算法行政的责任,并提出重构算法行政问责制的设想,力图推动责任性算法的建设。算法行政发展离不开责任制与问责制的规范,但责任与问责制度也是根据行政场景的变化和技术的进步不断调适与转型的。因此,未来对算法行政责任的研究离不开更为动态化和深入细致的探讨,比如对算法行政的实践进行追踪调查研究,从微观层面对相对独立的不同层级政府、不同部门的职责“小算法行政系统”进行具体研究,去寻求算法行政责任制度的规律性和差异性。