胡敏洁:数字时代给付行政的理论更新与制度回应

选择字号:   本文共阅读 58 次 更新时间:2026-03-21 21:37

进入专题: 数字时代   给付行政   技术人文主义  

胡敏洁  

 

摘 要:在数字时代,给付行政作为与民生保障最为关系密切的领域,更易实现数字化。数字化虽有助于提升效率和便利性,但也带来了数字普惠、数字鸿沟、个案精准给付等问题。由于给付行政具有的个案裁量属性,其实际上难以完全依赖自动化模式。因此,数字时代的给付行政法治建设应以技术人文主义为规范根基,以个体赋能为价值导向,构建算法、情理与法律相融合的规范框架。具体而言,要推进普惠型数字公共设施供给,将数字平台作为新型基础设施,注重其普惠性与数据共享;在给付决定中融入技术性正当程序,保障相对人参与和沟通;强化面向服务的监管,关注特殊群体权益,完善相关事前评估机制。这些措施,旨在避免数字化对弱势群体权益的侵扰,保障个人尊严等权益,实现数字时代给付行政功能的更好发挥。

关键词:给付行政;技术人文主义;数字时代;赋能

 

一、问题的提出

给付行政作为行政法学中的特定概念类型,其外延并无严格界定。通常而言,该概念兼具目的与手段双重属性,既可视为行政目标,也能作为实现目标的手段。给付行政的诸多内容与公共服务紧密相连,数字技术的广泛应用显著提升了效率与便利性,使其得以高效融入各类给付项目。在医疗、教育、社保等民生保障领域,由于覆盖群体规模庞大,数字化技术的运用不仅大幅提高了服务效率、增强了公众获取给付的便捷性,还对识别欺诈骗保等行为具有更精准高效的效用。然而,其依赖的海量数据库及智能系统也可能因系统识别或判断错误等因素,影响给付对象的实际权益获取。荷兰、印度、美国等国在给付行政系统平台建设中所暴露的隐私保护等问题,日益成为国际人权法的讨论热点。联合国人权理事会曾于2019年指出,福利国家正逐渐消失于网页和算法之后,对贫困人群产生了重大影响,其中存在的透明度缺失和算法偏见是导致弱势群体被进一步边缘化的主要原因。

在我国行政法学研究中,现有成果更多聚焦于数字法治政府建设与公共数据开放议题,即通过发展电子政务、建设政务平台、推行网格化社会治理等方式,探索科技、法律与行政在国家治理体系与治理能力现代化进程中的高度统一。同时,众多学者对“自动化行政”及“算法规制”展开了深入探讨。相较而言,针对数字时代下的给付行政理论更新与制度回应研究尚显不足。当然,数字化公共服务领域的研究与之密切相关。有学者主张,数字时代的公共服务行政法体系应以行政法律关系为支点,直面服务供给形式转型所蕴含的治理变革、发展需求与制度困境,从而确立其现实语境、框架思路与规范重心。当然,亦有学者指出,整体型公共行政与基于需求的公共服务供给模式虽为公共行政提供了新框架,注入了新价值,反映了数字化进程中公共行政的核心演变,但这种法律转型路径难以全面回应数字化对传统行政法的系统性挑战,其借鉴价值存在局限性。

放置于整个行政法学体系中加以审视,给付行政虽仅为其中一环,但其对象的广泛性及潜在的弱势群体权益保护等问题仍具有一定特殊性。尤为关键的是,给付行政的核心特征在于其鲜明的个性化属性与广泛存在的行政裁量空间。然而,基于数据系统的给付行政,颠覆了传统的面对面交互模式,致使服务对象不得不在个体需求、行政内部流程与数字系统之间艰难权衡,效率、科学性与需求满足之间由此产生张力。一方面,数字平台建设中始终存在普惠性以及数字鸿沟是否能被消除的问题,这实则可以通过强调其作为公用设施的属性予以规范化,这也是对传统给付行政学说之拓展;另一方面,在个案给付中,自动化给付系统能否完全识别并满足个性化需求以及大规模数据聚合与隐私权保护的平衡亟需考量。

基于此现状,本文认为,应强调技术人文主义理念,立足于给付行政的本质属性,即使在自动化服务全面替代人力的情境下,人类仍具有不可替代性,由此强调个体赋能,将算法、情理与法律结合,将技术人文主义在平台建设、给付决定作出、给付决定作出之后予以贯穿和偏重,以此构建能够回应给付行政实践之需的相应法律制度。

二、数字时代下给付行政发展的实践境遇

根据《国务院关于加强数字政府建设的指导意见》,数字政府建设旨在满足人民对美好生活的向往,坚持数字普惠,消除数字鸿沟,确保建设成果公平惠及全体人民,而且在国家层面得到了明确的指导和政策支持。伴随着数字化方式在给付行政中的运用,亦产生了两方面亟待解决的问题,其一是作为给付行政展开基础,亦是给付行政内容的平台建设问题;其二是个案精准给付中的相应法律问题。

(一)数字平台建设的普惠性与数字鸿沟的消弭

给付行政始终强调共享观念,进而,基于群体和地区差异等不均衡现象,会具体表现为对普惠的强调,即关注每个人都能获得发展机会、参与发展过程并获得发展结果的公平分配。进而,根据《中华人民共和国宪法》第14条关于建立社会保障制度的规定,强调国家与社会在教育、医疗、就业等方面的制度性保障义务,通过建立完善的社会保障制度与治理体制,进而扶助社会弱者并改变社会资源分配中的歧视性安排,最终使改革发展成果更多、更公平地惠及全体人民。在诸多关涉给付行政的立法中,亦对“共享发展”有所规定。

设施行政始终是经典给付行政理论和实践的重要组成部分,故此,数字平台建设既可以从平台监管和竞争政策角度予以研究,也需要予以给付行政视角的观察。当给付行政制度发展与数字技术相结合时,这种“普惠”便表现为数字技术及其平台的普惠,即数字权利的充分配置和数字资源的合理分配,即进一步体现为通过这些技术的利用,最终改变现实社会中的不均衡,总体上在制度架构上实现共享发展。

基于《国务院关于加强数字政府建设的指导意见》中的宏观设计,提供公平、普惠的民生服务,需拓展如“多卡合一”“多码合一”模式的数字平台建设,提升普惠性、基础性、兜底性服务能力。例如,为加强政府治理、提高行政效率和服务水平,各涉及给付行政的部门都建有相应的信息系统,这些系统整合了各类资源和技术手段,以满足用户需求为核心,为行政管理决策者和执行者提供全面、准确和及时的信息,如国家社会保险公共服务平台。特别是我国在减贫行动中所建立的建档立卡精准识别系统,更是实现了数字化技术应用的推广,在规范识别流程、标准、行为以及建立全过程人民民主的社区评价和监督机制上均发挥了重要作用。这类平台多以提供服务为主要目的,作为辅助性平台,即并不直接参与决策,只是侧重于在具体事项上给予便利。当然,还存在一些决策性数据平台,典型的如北京经开区政务大模型服务平台。

进一步,数字鸿沟的消除是普惠性数字公共服务供给的自然结果,只不过与数字普惠相比,它更多地体现为一种消极问题的解决需求。给付行政的对象为特定群体,如贫困群体、老年人等更容易成为数字鸿沟中的“受害者”。如已有调研显示,不少低保申请者和低保户因为无法及时获得民政部门网上发布的相关信息而错失领取低保的机会。“现在使用电子政务和政务APP,确实方便了很多,但对来领低保的那些大爷大妈却带来了麻烦。他们基本不会上网,无法在我们的网站看到最新政策信息,如果有时间我们会帮他们讲解和操作,但很多时候我们工作都非常忙,没有办法帮到他们”。也有研究发现,转向APP载体后,老年人普遍面临数字鸿沟问题,对线上支付、个人信息填写等环节的不信任感和隐私担忧显著增大。一旦自动化系统出现错误,申请人的利益便会直接受损。

可以说,信息通信技术的接入是现代公民参与社会、经济活动的基础,缺乏这种接入,会导致个人被边缘化,无法获取在线公共服务、教育资源或参与数字经济,进而削弱其公民权利的实现。在数据鸿沟下,数字不平等的原因正是因为社会弱势群体缺乏与数字技术途径之间的交互联系。这意味着,需要从社会结构因素、数字技术使用项目的构建角度来理解这种关系。这也愈发凸显出依据给付行政原理,从国家宏观决策角度,弥合区域、人群差异的意义。

(二)数字化系统中的个案精准给付

在直接依靠数据所提供的给付决定中,如行政补贴的给付,很多地方财政厅推出“免申即享”政策,改变了原先行政补贴的申请程序,改为了“系统审核——人工辅助”,企业无须主动提出申请,无须提供申请材料,奖励资金就打进账户。这一模式同样广泛应用于高层次人才薪酬奖励、创新型企业培育、困难群众补助发放等多个行政补贴领域。在此情境下,数字系统的应用不仅显著提升行政效率,更实现了精准化的个性化服务。例如,在低保等社会保障金发放场景中,系统可即时响应需求,无需居民申请即可实现发放,这在技术层面上已具备可行性。若该系统得以实施,将有效规避行政信息传递过程中的疏漏,确保每位符合条件的救助对象均能及时获得应得救助。

个案中的精准给付改变了原先给付行政中被给付对象与行政程序的依赖性,行政相对人和行政机关之间的沟通、对话、互动开始发生转变。公民社会保障信息持续不断地被记录、被存储、被整合和被分析,最终被转化成为数字信号,并以大数据的形式最终完成货币化和资本化。一方面,依托数字化手段,给付活动能更有效率、更为精准地展开。如借助数字识别,解决既往低保申请过程中容易存在的“死亡保”“关系保”、隐瞒收入、认定失准等问题。当然,尽管这种数字化方式普遍被认为可以提高效率并被广泛采纳,但其效果却未必总是尽如人意。例如,日本推行的智慧养老系统,在短短数年间便显现出老人个性化需求满足不足、护理服务效率提升有限等问题。同时,数据、平台和人力资源的匹配不够。数据算法虽强大,但仍需依赖人的服务,否则难以充分展现技术的优越性能。例如,目前许多日本老年人家庭安装传感器,但由于日本的护理人员短缺,这些新技术无法快速响应老年人的需求。但另一方面,代码替代了人类的裁量和审慎判断,导致弱势群体难以获取数字资源或存在能力匮乏的情形。算法黑箱和人工智能等技术障碍可能使给付行政的对象因数字鸿沟而难以接触技术,或因能力受限而缺乏在数字社会中生存的基本技能。此外,许多涉及给付行政的自动化系统在设计时往往侧重于防范福利欺诈,可能导致给付对象面临被污名化的风险。

既往的个别化,即给付行政中富有针对性的需求判断都被隐匿于机器之后,群体往往被简化为仅具共性的代码集群,这一简化过程加剧了其与多样性、个性化之间的冲突。更何况,由系统故障或不正确的数据所导致的错误决策可能会对那些需要访问的人产生毁灭性影响,进而从根本上否定公民生存权。如本文最初所提及的三个案例,即印度法院的“阿达尔(Aadhaar)案”、美国法院的“米达斯(MiDAS)案”以及荷兰法院的“系统风险提示案”(SyRI案, System Risk Indication Case)均暴露了自动化系统所带来的各种法律风险。

例如,印度2009年所启动的阿达尔(Aadhaar)计划,旨在为印度全国居民建立生物识别身份数据库。阿达尔(Aadhaar)号码不仅用于管理福利给付,如食品配给,还与印度支付界面相连,使得公民能够使用12位阿达尔(Aadhaar)号码进行各种转账交易。由于系统错误等因素,需要食物的资格群体可能会被排除。该系统涉及广泛的公民个人身份数据识别,也被认为侵犯了隐私权。此外,政府与商业机构共享公民数据库的行为也涉嫌违宪;国民信息数字化计划的实施,更是让政府对民众的监视监控变得轻而易举,而数据库的安全性保障却令人担忧。

再如,美国密歇根州跨辖区毒品预警系统(MiDAS,Multi-jurisdictional Drug Alert System)运用以来,很多“高风险”申请人实际并无欺诈行为,存在大量的涉及失业欺诈的虚假数据识别,其中,黑人和低收入群体占比显著偏高。这些被错误识别的个人最终被驱逐,信用评分被破坏,以至无家可归或破产。在围绕该系统的集体诉讼中,原告认为密歇根州失业保险局依靠跨辖区毒品预警系统来检测和裁决涉嫌的失业欺诈案件,并在没有充分通知或给予申辩机会的情况下判定有罪,侵犯了他们的正当程序权利。

此外,荷兰法院的“系统风险提示案”亦涉及错误的系统风险识别。2018年,人权和公民权利组织、工会、代表劳动和收入问题的全国性非政府组织等组成联盟,对荷兰政府使用系统风险识别系统提起诉讼。2020年,荷兰海牙地方法院裁定系统风险识别相关立法违法,违反了《欧洲人权公约》的隐私权保护条款。法院认为,系统风险识别系统在欺诈检测和隐私保护之间未实现平衡和公平。具体而言,该系统过于不透明,其风险模型和指标未公开,也未明确告知人们数据被处理;在数据收集方面,收集的数据过多且目的不明确、不具体,违反了数据最小化和目的限制原则;另外,有迹象表明,该系统可能对低收入社区人群存在偏见,但因其运作未公开,无法核实是否使用了歧视性算法。由此可见,一旦个性化、临时性的需求被机器所取代,由人类评估转向数字评估,会带来诸多数据运用风险。当然,这三个案例之间存在一定程度的差别,如美国米达斯案,更多体现的是一种决策型算法,系统独立完成数字匹配和识别;在荷兰系统风险识别案中,系统仍保留了必要的人工复核环节;印度阿达尔案中则涉及大量的生物识别信息。具体差异如下表所示:

从中也可以看出,与给付行政相关的各种福利自动化系统所涉及的数据具有高度的隐私性,一旦自动化决策介入给付行政,若缺乏足够的算法透明度和充分的司法保障,技术的普遍运用反而会增加权力滥用风险,而弱势群体往往会成为最大受害者。

数字化时代给付行政所面临的两层问题,彼此之间亦存在交叉,如基于数字设施的数字普惠服务,实质上最终也会落实在每个具体个体之上。此外,还存在一种可能的未来场景,即当人工智能越来越多地在医疗、老年人照顾等领域发挥完全替代作用时,或会引发新的法律风险。对此,本文暂不做重点讨论。总体来看,人工智能对人类老年生活的影响在于,它既能提升老年人的自主性、独立性和尊严,也可能加剧其社会孤立感,减少社会参与机会。此外,还伴随着不容忽视的伦理风险。当下,在人工智能还停留在产品阶段时,即不具备人形及深度学习时,其仍主要发挥辅助功能。

三、技术人文主义的引入:数字时代下给付行政法治理论的更新基础

给付行政领域或是最适宜被技术占领的领域,毕竟该领域较少触及国家安全等敏感内容,因而相对适宜技术的深度融入。更何况,如回归到给付行政的本质,由于其带有鲜明的服务导向,也使得借助数字力量,更容易富有效率且便捷地提供服务。鉴于想要获得给付的群体之需求满足,这导致他们往往容易忽视甚至默许技术对个人隐私权的潜在侵犯,而给付行政活动的成败关键不仅在于行政机关是否单独地实施有关政策,还在于其能在多大程度上获得社会的支持。基于这些支持以及个人需求的满足,引入技术人文主义或是数字时代给付行政理论的更新基础。

(一)给付行政与技术人文主义的契合性

作为技术人文主义的代表人物,刘易斯·芒福德(Lewis Mumford)的思想深受媒介环境学派的影响,强调技术与社会的互动并对电子传播技术持批判态度。他认为,技术应服务于人的自主权和精神需求并致力于将巨型机器去神秘化,力求打破单一技术主导的文明格局,进而重塑人在技术发展进程中的核心角色,促进人与技术间的和谐共存。技术人文主义的最终立场是,唯有将人类置于中心地位,方能从根本上解决技术引发的种种问题;摒弃对技术未来的责任感,既是不负责任的体现,也是非理智的行为。与给付行政相关联,意味着人工智能等技术在其中的运用应遵循福祉、伦理道德等基本边界,强调“人工智能发展应以增进人类共同福祉为目标;应符合人类的价值观和伦理道德,促进人机和谐,服务人类文明进步;应以保障社会安全、尊重人类权益为前提,避免误用,禁止滥用、恶用”。进而,必须关注这个时代的社会规范和秩序升级,诸如更新或创立新的正义准则。就此而论,人类自己的选择和决定依然属于未来人文主义的核心。当然,技术人文主义的前提在于,人工智能尚欠缺主体性,一旦人工智能具有了主体性,在“新主体”观念之下,恐产生的问题是另一层面的。法律可以规范、引导超越性信仰在下述方面发挥作用,即帮助人类坚守生活的意义、抵御数据的压迫,对抗“数据迷信”、人工智能异化和“技术拜物教”。在技术人文主义的规范基础引领下,给付行政的法治架构需更重视个人主体性的保障并强调个体赋能。

同时,在规范维度上,应强调算法、情理与法律的融合,在规则与裁量、服务与监管面向均通过技术人文主义的要求,引入同理心(Empathy)并强调服务面向。“同理心”这一新颖概念是指行政机关有责任收集关于公民需求的多种视角,并确保在数字行政国家中,公民与政府之间的互动保持有意义且具有包容性。同理心是一项宝贵的技能,因为没有同理心,人类将无法相互理解。同理心通常被定义为通过设身处地想象自己处于他人的情境中来理解他人的经历。情感同理心要求个体感受到与受影响方相同的情绪;认知同理心,也称为共情准确性,要求个体对他人的想法和感受有更完整、准确的认知。同理心可以在两方面发挥作用。首先,同理心可在事前决策环节发挥作用,即先适用于是否将公共服务自动化以及设计数字政府决定阶段。这可确保政府平台便于使用、具有包容性并能理解公民的不同需求。弱势公民不仅受自动化决策不透明性的影响,而且还面临无法申请其应得福利、犯下更多行政错误、错过截止日期,或因无法使用数字工具而被认定为欺诈者的风险。其次,同理心应在行政决定作出后、公民犯错且未能行使权利时,事后发挥作用。

同理心的引入,实则也是技术人文主义的特征之一,是实现良好治理,考虑个案的关键因素。特别是,当政府在作出影响个人福祉的重要决定时,同理心也可以要求行政机构提供人类互动的机会来倾听表达。欧盟委员会下设专家组也均强烈主张从以人为本的角度采用人工智能系统,强调人类中心主义并强调人工智能系统的开发应服务于人类,满足人类的需求并让人类满意,要求以安全可靠的方式实施人工智能系统。这种以人为本的方法还意味着要尊重问责制、可解释性、公平性、职业责任等关键原则,并在组织内部弘扬人类价值观。可以说,遵循以人为本的方法,人类监督应起到保障或质量控制的作用,保护公民免受人工智能系统故障的影响。

(二)规范目的:个体赋能

给付行政的权利基础通常是生存权或社会权,其核心在于提供某种最低限度的保障。在数字化转型的浪潮中,数字公民身份的构建成为一项紧迫的社会需求。通过采集和汇集公民的数字资产、隐私和信息,数字公民身份将个体抽象化为治理单元,同时确保了公民在数字平台上的法律地位和权益。给付行政想要实现的是个人自由,“通过自律的个人主动追求生活,为实现人格利益创造条件”,从这一观点出发,作为最终责任主体的国家应该实现“生活方式的选择范围”乃至“实质性的机会平等”的理念,并被要求创设作为自由前提条件的制度。这与数字化技术可带来的促进和赋能功能本质上具有相通之处。由此,数字时代的给付行政所涵盖的生存权观念应不只是最低限度的保障,更应强调赋能,需要意识到个体并非超社会性存在的,其权利的实现,面临着社会结构权力的支配、影响。换言之,在承认这些主体生存权益的同时,更需为其参与社会生活提供实质性的支持与条件。在针对荷兰政府福利数字化的研究中,有学者曾指出,数字化运行中的数据质量、伦理和隐私问题经过一定时间总会解决,但是,这不仅是实施问题,数据转型源于权力下放后政府对控制社会政策领域预算和所提供服务的迫切需求。特别是在数据服务外包的公私合作中,社会政策领域中最需要考虑的公民,即“客户”被忽略了,个体对数字技术的掌握和分配程度等因素会导致新的资源分配不平等,因此形成的数字鸿沟可能导致部分群体在申请阶段就被排除于给付行政项目之外,进而凸显了数字时代个体赋能的重要性。可以说,为这些群体提供可及性、普惠性的数字服务是实现其权利的基本前提。对此,基于《提升全民数字素养与技能行动纲要》,我国正在积极采取措施,特别是针对老年人和残疾人等特殊群体,如果想要使这些群体更好地融入数字社会,就需要在公共网站的设计、实施以及用户体验等诸多方面付出更多努力。

因此,实现人在自动化行政过程中的回归,捍卫被“四处蔓延、秘密、自动化的”系统所威胁的尊严价值,如技术性程序等观念可对当代行政法中的正当程序予以重新诠释,这些都是赋能的有效手段。基于个体赋能的要求,数字时代的个体被赋予了诸多相关数字权利,这些权利使个体从被动的数据提供者转变为主动的信息管理者,在数据层面实现赋能。如欧盟《通用数据保护条例》(以下简称《条例》)等法律框架是个体在人工智能时代赋能的核心工具,基于该《条例》,个体权利具体包括知情权与访问权在内的各级权利,即个体有权知晓系统搜集、使用个人数据的情形并获取自身数据被处理的记录。此外,当数据错误或者被滥用时,个体可要求修正或删除,避免因错误数据导致自动化决策不公;对于纯自动化的决策,包括福利资格的判定、司法量刑辅助,个体有权提出异议并要求人工复核,防止算法黑箱剥夺个体辩护机会。

(三)规范维度:算法、情理与法律

在给付行政中,须全面考量各种非法律因素,即便在法律框架内,行政官员的裁量权也扮演着判断并形成给付决定的关键角色。社会希望官僚机构能够灵活应对特殊情况,能够根据服务对象的个人情况采取不同的处理方式。但数字时代的自动化行政,缩减了这种不同处理方式的可能性。即便在传统的给付行政研究中,特别是社会救助等项目中,给付行政所要求的同理心和灵活性,与其所需要遵循的严格规则和公正之间本就存在矛盾,需要探求实现二者平衡的方法。这体现了技术人文主义在给付行政中的核心要求。

一方面,从规则制定角度来看,对于技术利用中的人文关怀,如对于适老化服务、救助对象利用信息的方式等并未多加规定。例如,《社会救助暂行办法》中虽提及了医疗救助中的便捷服务提供以及鼓励社会力量参与提供社会救助项目、需求信息,然而,这些条款尚不足以充分涵盖实践中已广泛建立的数据平台建设需求。再如《中华人民共和国老年人权益保障法》第52条规定,国家采取措施,发展老龄产业,将老龄产业列入国家扶持行业目录。扶持和引导企业开发、生产、经营适应老年人需要的用品和提供相关的服务。不难发现,适老化产品的开发、生产也是规则制定时需考虑的内容。另一方面,对裁量层面而言,鉴于完全消除行政机关自由裁量权并无可能,可通过算法的优化,精准识别个性化特征,以确保个性化需求的充分满足。在给付行政的实施过程中,还需进一步借助行政程序中的沟通、协商、公开以及说明理由等机制,以确保算法决策过程的透明度与公正性。当然,这种公开仍需要行政机关的说理配合。

由此,在给付行政之中,算法、情理、法律共同形成了相应规范形式。就算法而言,如上文所述,加强算法透明度等是其核心,尤为重要的是,普通公民难以全面掌握算法规则,尤其是处于给付行政中弱势地位的群体。也就是说,在算法系统被采用之前,即在发展阶段便需要将围绕个性化特征,注重合法以及合规,进而将包括透明度、问责等基本规范嵌入算法之中,这些系统需致力于消除对边缘化及弱势群体的排斥现象。这种信任的建立既要求系统中融入符合普遍情境的人性考量,也需涵盖人工智能或许会忽略的边缘性案例。总体上,人类可以通过制定并调整算法规则,构建出更符合公民需求的数字化平台,并在其中融入包括人权在内的公法价值。以用户为核心的平台设计,在技术人文主义的导向下,仍应该是尊重个人需求等权益的数字平台。

情理则与伦理、同理心等相关,强调无法被技术理论所取代的内容,强调必要的人工审慎核查,特别是行政机关工作人员、社会工作者等基层执行者的精准把握。这种对技术人文主义的关怀,最终也要求各种系统的操作员基于人的自律行为承担相关责任,如在相应责任承担时,仍可将对安全负责的责任人理解为负责该系统的人类,尤其是给付行政所涉伦理问题甚多,对于负责相关系统的人或组织而言,首要任务是作出明智判断并确保相关利益主体能够积极参与。

最后,当其聚焦于法律规则时,仍应整体上契合给付行政的特征,构建服务导向下的数字化应用策略。例如,在行政组织法的规范下,当私人主体承担起给付行政的职责时,应确保他们获得充分的激励,以激发其自我规范的积极性,进而更有效地借助数字化技术提升行政运作的效率。在行政程序法层面,应构建更多融入协商元素的技术性正当程序规范,以此回归至以人为本的程序保障理念。即便在本文未深入探讨的救济法领域,针对技术引发的诸如数据库泄露、隐私保护等风险,同样可以通过优化诉讼服务平台来提供必要的援助。

概观之,给付行政是很容易被自动化的领域,但实则从根本上,它也是很难被完全自动化的领域,及时给付是关乎公民生存权甚至生命权的重要事务。给付行政的内容庞杂,该领域的规范设定既要回应现有数字化问题,但更需意识到,给付行政的本质实则与数字化技术存在天然张力。例如,在给付行政的政策制度设计中,通过公众参与等途径扩大被给付对象的参与度,关注他们的需求,在一定意义上就是反数字经济浪潮的。例如,在打造残疾人、老年人的数字空间时,需考虑到即使在虚拟环境中,他们同样需要如同物理世界般的陪伴和关怀。更何况,数字技术和平台本身还远远不能满足被给付群体的实际需求,最终实现个人的尊严。因此,在引入相关自动化系统之前,秉承技术人文主义的理念,必须认识到数字化系统以及人工智能并非无所不能,人类在某些关键领域仍需承担最终判断责任,可从事先的法律与规制框架确认中,对于可能要被完全自动化的领域予以限定,要了解个人在社会法律层面角色的动态变化以及不同群体可能面临的风险,对风险进行诊断是不可避免的必然要求。在此基础上,构筑人类对数字化系统的信任,借助合法、合乎伦理等标准予以调整。

四、数字时代给付行政的制度回应

基于技术人文主义的整体指引,数字时代的给付行政制度也需要从如下三方面展开,即普惠型的数字公共设施提供,用来解决数字化给付行政的前提基础,建构类似于公用事业提供一样的供给规则。此外,在基于更多数字化展开的给付行政活动中,强调通过技术性正当程序实现更多群体的利益表达。最终,在给付行政活动展开之后,搭建强调服务面向的监管法律制度。

(一)作为新型基础设施的数字平台

尽管传统政府负有重要的基础设施建设功能,但仍受制于物理空间的地域分割和属地化管理影响,像公共交通、能源这样的基础设施仍然是本地化导向的。赛博空间的特征在于由平台促进的网络连通性和提供的泛在基础服务,进而超越传统中央和地方分权的地理时空边界。数字化时代,给付行政中的“公共设施”提供从传统的本地化导向的设施提供扩展到了互联互通下的互联网平台。这种基础设施由数据采集、算法模型、硬件设备、政策规则等“构建模块”组成且依赖一系列社会实践(如数据标注、模型训练、部署应用等)维持运转。

对此,《国务院关于加强数字政府建设的指导意见》(国发〔2022〕14号)涉及多种相关表述:(1)数字设施的普及与数字资源的优化供给,推动数字化服务的广泛应用与普惠。(2)城市公共基础设施数字转型和智能升级。(3)补齐乡村信息基础设施短板。仅从字面表述来看,这些“设施”实则仍属于既往给付行政研究中的公共设施部分,只是这种公共设施的形态发生了变化。当数字设施与中国给付行政制度实践发展所存在的城乡差异相关联时,这一问题就会自然转化为城市公共基础设施的数字转型以及对农村信息基础设施的补齐。

首先,数字平台公共设施的普惠性。既往对公共设施的研究中,常将其与公物等概念相关联。随着现代经济的迅猛发展与科学技术的持续进步,需要将行政信息、无线电波、因特网、环境等新型公物纳入公物范畴。是否将无体物作为公物取决于归类的意义,如果无体物,例如电视信号,具有公物的典型特征,那么就应将其归入公物的范畴。长期以来,大陆法系国家的学者都普遍认为公物只能是有体物,现已基本放弃这种观念。例如,德国学者不再局限于德国民法典第90条的实体特征,而是将包括领空、开放型海洋(在海岸线范围内)以及电流等在内的多种财产纳入公物范畴,以适应公共目的性要求。换言之,甄别数字平台和设施是否属于给付行政范畴的关键,在于判断其是否具有公共利用的目的以及政府是否承担“普遍服务义务”。如我国互联网平台分级指南将互联网平台分为三级:超级平台、大型平台、中小平台。超级平台指同时具备超大用户规模、超广业务种类、超高经济体量和超强限制能力的平台,这些平台更具有公共设施的属性。它们都需要规模运作,其价值是以用户的广泛程度为基础的。随着这些平台的广泛使用,它们对于获取信息变得越来越必要。同时,这些平台通过制定平台规则,还能够对平台里的用户、经营者进行监督治理。部分国家更是强调数字平台的服务原则,强调在数字环境中,用户友好性、界面的质量以及它们所提供的信息量可被视为服务原则的一部分。数字服务的可用性、可及性以及使用的便捷性也是公共行政中服务原则的维度。当然,一旦作为公共设施,数字平台便会受国家监管和控制,其中便会存在悖论,即大型平台的数据安全、普遍服务置身于公共设施的给付行政语境之下时,其原有或最初建构时的市场要素和创新精神便可能会因此受阻。平台企业在投身于公共服务,特别是涉及给付行政的信息提供领域时,其内在驱动力的大小,成为衡量其硬件设施能否充分满足公民普遍服务需求的关键要素。

同时,作为新型基础设施,数字平台除设施提供的普惠性之外,也需要全面考量依托平台所形成的权力架构和分配,主动融入可持续性发展与公平设计的理念,确保基础设施服务于多元社会价值。在此,可以将人工智能社会技术基础设施视为“权力的社会技术基础设施”,即赋予、剥夺权力的基础设施并关注核心基础设施服务于谁或何种利益与价值观。例如,数据设计中嵌入了哪些“数据利益”;哪些利益和价值观相互冲突;这些冲突在人工智能政策或标准等方面如何得以解决。换言之,在平台设施建设、算法嵌入等前段环节便需要考虑包括普惠性在内的诸多公法价值。

其次,对于以行政行为方式展开的给付行政,如传统的依申请等展开的给付活动,由于其中加入了技术平台等力量的介入,为确保给付决定的公正合理,各分散、碎片化的给付行政平台之间需首先在平台设施建设上实现数据共享以及互联互通,这种数据共享和互联互通机制有助于打破给付行政运作中的碎片化、条块分割现象。典型如医疗保障数据平台,看似是技术平台的服务提供,但如异地就医等问题的解决均依托于此。各省市所建立的众多数据平台,不仅面临财政资金重叠使用的困境,而且平台间信息孤岛的形成也极大阻碍了数据的有效整合与高效利用。行政机关进行政府数据共享是大数据技术推动和服务型政府发展的必然。政策、制度和技术障碍之外,政府数据共享还面临数据权利归属不明、版权化路径探索艰难、权利义务关系失衡,以及数据安全、隐私、商业秘密、国家秘密保护等难题,这些均对政府数据共享的法治化进程构成不同程度的阻碍。基于给付行政的服务面向,数据共享和互联互通的实现实则也是政府公共服务能力的提升。

(二)技术性正当程序在给付决定中的融入

经典的给付行政理论,常认可更多运用非权力性手段,通过契约形成权利义务关系。也就是说,给付行政任务的实现,在具体路径选择上常包括决定和契约两种类型。那么,数字时代这两种形态会发生何种变化吗?以下将分而述之。

对于给付行政决定的作出方式而言,它遵循着上文提到的“申请—受理—调查—决定”这一标准化流程。在这些环节中,由于电子化、数据化的引入改变了其所依托的行政程序模式,即从原先的人工审核到机器审核。程序自动化除了通过各种数字格式提供虚拟参与外,还包括在线填写表单,完成申请;在线提交材料,在线审查等并可能会根据个人情况推送个性化的在线信息。这一变革颠覆了传统给付行政所依赖的“面对面”服务模式,显著削弱了一线行政官员的裁量权。对此,学者们评价并不一致。如有些学者认为,这种裁量减少有助于更加公平地执行政策;而有些学者则认为,毕竟个人生活是复杂的,算法难以全面捕捉这种复杂性,从而可能削弱其中的个性化元素。在一项针对英国自动化福利提供的调查研究报告中发现,尽管多数人赞赏通过数字化为福利领受者提供更高效和个性化的服务,但是少数申请者更难获得该系统,且系统的复杂性增加了他们申请的难度,增加了他们受到行政不公正的影响。虽然这类申请者可能只是少数,但这种动态仍然引发了一个问题:谁处于旨在提供社会保障福利的系统的核心?是那些从高效率和个性化中受益的主流群体,还是那些需要特殊对待的“脆弱”群体。

具体到给付行政的各个领域,如社会保障行政、补贴行政及公共设施行政,它们均以满足不同群体的个性化需求为宗旨。同时,给付行政强调政府与相对人之间的对话、沟通与协商。线上方式割裂了这种沟通。更何况在数据鸿沟下,数字不平等的原因正是因为社会弱势群体缺乏与数字技术途径之间的交互联系。这就需要从社会结构因素和数字技术应用的项目设计角度出发,来深入理解这种关系。

正因为如此,技术性正当程序的概念才得以被引入。这也是技术人文主义的具体要求之一,只有将人的主体性和对人性尊严的尊重放在首位,正当程序才可能在人工智能算法的设计过程中得到贯彻,“以人为本”的核心价值才不至于流于空想。总体来看,引入正当程序原则至少意味着可以在所有不同阶段的评分程序中审核流程质量。由此,技术性正当程序的完整内涵包括原理公开、全程参与、充分告知、有效交流、记录留存、人工审查六个方面,这意味着从自动化系统的建设维护到系统支持行政机关作出决定的每一环节均充分包含相对人及社会公众的有效参与、表达和沟通,人在自动化行政过程中的体面存在和行动能力便可得到切实保障。如其中通过平台直接实现的给付。例如,在相应网站上完成免申即享等给付内容,贯穿技术性正当程序的要求,应当对其算法加以公开,确保平台数据的真实性和完整性。部分复杂申请活动,行政机关仍需进行线下或人工辅助确认,因为并非所有平台的即享功能都能完全自动化。

(三)强化面向服务的监管

以技术人文主义为导向,监管者既应追求对任何类型的人类社会共同体具有管护责任,同时也有责任尊重某一特定人类社会共同体的基本价值,赋予该共同体特定身份的价值。如是否有助于老年人更广泛地利用数字平台;在涉及儿童救助补贴等方面,是否为其家庭提供了必要信息保障。涉及这些群体的服务提供时,尤其是例如智慧居家养老服务平台,其缺乏专门的准则和标准,这种状况易导致信息泄露、诚信缺失,损害老年人权益,从而阻碍智慧居家养老服务体系的有序发展。

诸如此类平台,可通过先行制定指导意见等非正式规范对平台建设、资金支持等予以规定。待制度完善之后,或可借鉴德国《社会法典》第十册《社会行政程序与社会数据保护法》的立法经验,对数据的搜集、处理和使用进行专门规定;这也是因为给付行政一旦被数字化之后,其中所包含的大量医疗、养老、托育等个人信息带有高度的私隐性特征,如艾滋病患者信息、基因数据等可能关乎国家安全与社会稳定。这些提供服务的关键数字服务提供商,一旦其服务或产品出现重大故障或灾难性失灵,可能会冲击国家安全、经济稳定和公共卫生秩序,如系统故障在内的业务中断风险、被恶意攻击等,所有类型的故障都会产生极其负面的后果,超出单一实体范畴,因为任何一种故障都可能会导致消费者对数字领域失去信心。进而,需要基于《中华人民共和国数据安全法》(以下简称《数据安全法》)第21、30条,即关系重要民生、重大公共利益等方面的数据属于国家核心数据,实行更加严格的管理制度。同时,重要数据的处理者应当按照规定对其数据处理活动定期开展风险评估并向有关主管部门报送风险评估报告。例如,评估算法的正确性、数据安全性、技术可行性、社会影响以及法律合规性,确保将可能引发高风险的领域纳入法律框架。

除《数据安全法》的规定之外,基于《重大行政决策程序暂行条例》,制定有关公共服务的重大公共政策和措施均需经过风险评估程序,这也实则属于给付行政的范围,基本公共服务数字化实则也可被视为一种重大公共政策,进而遵循相应的风险评估要求。如“智能笔”的使用会增加额外的负担,固然在为学生提供个性化方案方面有其积极作用,但其中的成本和可能涉及的敏感个人信息也需加以考量。进一步,考虑到基本公共服务属性,实际上可参考已有地方立法中所建立的男女平等评估条款,强化这些规定的效果,例如将其细化为数字化公共服务提供中的消除数字鸿沟、数字排斥评估标准,如因无法使用数字化方式,进而无法获得数字身份的群体,特别是弱势群体,如老年人、残疾人等,充分考虑对其资格的影响进而在各项立法以及决策中加以事先明确,通过公开、公众参与等事先决策审查程序加以评估和预防并考虑是否配套其他替代方式等。当然,涉及公共服务领域的诸多个人信息多属于《中华人民共和国个人信息保护法》中的敏感个人信息,如医疗领域中的诸多信息,采集敏感个人信息需要遵循充分的必要性和履行严格保护措施,这也是评估程序中应加以考虑的重要因素,这一点无论是在基本公共服务抑或非基本公共服务的数字化提供中,均需考量。

概观之,监管面向下,给付行政涉及的众多平台,既可能是监管信息的提供者,亦可能成为被监管对象。在此背景下,规制者与受规制者之间的界限逐渐变得模糊,为确保公共干预措施的有效实施,规制者必须不断加强与受规制者的协作。因此,这既包括了平台企业的自我规制,如通过互联网网络协议等方式实现自我拘束;也涵盖了域名许可等外部行政控制手段。对于平台建设中的委托等情形,也需要根据《数据安全法》第40条规定,遵循相应的批准程序,即受托方应当依照法律、法规的规定和合同约定履行数据安全保护义务,不得擅自留存、使用、泄露或者向他人提供政务数据。即使对社区、单位等社会主体也应给予具体的细化规定,如遵循监控录像的保存时间等要求。

五、结语

数字时代对诸多领域带来了挑战和冲击,给付行政亦不例外。由于其与公共服务的密切相关性,数字化所带来的挑战甚至对各福利国家发展趋势产生了一定程度的冲击,“数字化能否带来经济和社会进步以及平等?或许可以,但在每个福利国家,其程度不尽相同。斯堪的纳维亚福利国家,如瑞典、丹麦、芬兰、挪威似乎处于有利地位,因为这些福利国家的内部现代化水平已经高于大多数后社会主义和保守福利国家。因此,政府和公共行政部门不妨更多地关注这些内部现代化效应,例如利用数字化实现医疗、护理和教育系统的现代化并促进全社会,包括城市和农村地区的人们,平等获得这些服务”。由此可见,为了在数字时代更好地发挥给付行政功能,需要更为强调围绕政府在数字时代下的服务职能优化,对行政内部加以塑造,提高行政机关的数字化政务能力,在流程再造的过程中,对于“屏幕官僚”的权力滥用等予以规制仍然是数字时代给付行政法治进路的内在要求。尽管数据、信息具有分享等独特属性,突破了自由、平等、权利和主权的传统逻辑、权益基准和规制边界,但其关键在于如何对数字时代中自由、平等和权利进行扩展与限缩的交换平衡,进而达致数字正义。可以说,借助技术人文主义的引入,一定程度上可以避免数字化所带来的弱势群体权益侵扰并实现个人尊严等相关权益保障,更好地满足公民个人需求。

因此,通过人类事先的立法和政策设定,可以在一定程度上预防数字化带来的风险。如在我国的各类给付行政项目之中,构建兼顾安全、权利保障和公平等价值在内的规范结构,通过对预防性风险影响评估等方式的规定,进而审查现代技术发展所带来的各种风险,从网络、平台系统和技术角度,构建确保透明度、保障多方对话、具有可追溯性、确保数据质量和安全的治理框架,方可实现个人尊严等权利的更好保障。此外,当大量数据汇集于相应平台时,已远非个人信息保护,更是关乎数据安全甚至民生稳定的国家战略,强化国家安全角度的给付行政中数据保护亦具有相当的必要性。

    进入专题: 数字时代   给付行政   技术人文主义  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/173924.html
文章来源:本文转自《行政法学研究》2026年第2期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统