摘 要:人脸识别技术在社会治理与商业领域的广泛应用,带来了隐私泄露、算法偏见和结构性风险等复杂的治理挑战。2025年公布实施的《人脸识别技术应用安全管理办法》虽着重强化了个人信息保护,但其监管逻辑仍过于集中于数据合规层面,未能系统性回应算法高风险及其社会影响。为全面应对包括人脸识别在内的智能技术风险,有必要统筹结合“个体权利导向”与“系统风险导向”两种治理路径,厘清两种路径在监管对象与责任主体、风险介入时点、合规工具与评估指标、执法逻辑与组织架构、公众权利与救济渠道、规则适应性与动态更新机制六个维度的区分及互补关系。同时,还需围绕技术自主性、社会外部性与可解释性三个关键维度对技术风险进行精准刻画,以确保治理路径的适配性和有效性,从而为中国智能技术治理提供一套既保障个体权利,又维护系统安全的可操作治理框架。
关键词:人脸识别;个人信息保护;个体权利导向;系统风险导向
近年来,人脸识别技术(Facial Recognition Technology,FRT)以其在身份鉴别、公共安全和商业营销等方面的独特优势,迅速成为数字社会的核心技术设施之一。然而,随着技术的深入渗透,关于人脸识别技术导致“全场景监控”和“全维度监控”的忧虑也在加剧;除了常见的个人隐私风险,算法偏见、实时识别错误、社会排斥效应等高复杂度问题更是层出不穷。在此背景下,2025年6月1日生效的《人脸识别技术应用安全管理办法》(以下简称《办法》),试图为人脸识别技术的应用建立安全规范。然而,《办法》能否完整且有效地回应人脸识别技术所带来的关键风险?本文拟以监管逻辑视角对此问题展开分析评价。
本文批判性提出,《办法》的监管逻辑依然停留在个人信息保护的传统路径,重心落在数据收集与使用的合规性上,却未能将算法准确性、算法偏见、社会结构性风险等系统性问题纳入监管体系,导致法律规制与现实风险之间出现错位。为揭示这一结构性缺陷的成因,本文将人脸识别技术的监管实践置于“个体权利导向”与“系统风险导向”两大路径下加以对照,围绕监管对象与责任链条、介入时点与风险刻画、合规工具与衡量指标、执法逻辑与组织架构、公众权利与救济路径以及适应性与动态更新六个维度,系统辨析二者的区分和耦合关系。进一步地,本文提出“技术特性与治理路径适配”框架,以技术自主性、社会外部性、可解释性为三重坐标,对包括人脸识别在内的智能技术进行风险识别和刻画,并据此在两种治理路径之间进行动态匹配,合理配置准入、评估、监督与救济等工具,从而在权利底线与系统安全之间建立可操作的衔接机制。本文旨在揭示我国现行人脸识别技术治理的盲点,进而为新兴智能技术的制度化、可验证与可持续治理提供一套可复制的分析路径与实践进路。
一、人脸识别技术的两类监管实践
(一)个人信息保护
在个人信息保护这一监管实践中,人脸识别技术被视作对公民个人信息权益和隐私权的潜在威胁,因而侧重于通过数据保护法律来加以规范。其核心理念在于确保个人对自身生物特征数据的控制权,具体表现为严格的数据保护规则,例如,信息主体的明示同意、数据收集的目的限定、最小化原则及数据安全存储等。欧盟《通用数据保护条例》(GDPR)即采取此路径,将用于识别自然人的生物特征数据定义为敏感数据,原则上禁止其处理,除非满足明确的例外情形(如明示同意或法律明确授权)。
实践中,此路径已经在多个司法案例和国家立法中得到具体体现。例如,英国的“爱德华·布里奇斯诉南威尔士警察案 (Ed Bridges v.CCSWP)”(以下简称“布里奇斯案”)中,上诉法院认定警方在公共场所部署人脸识别技术侵犯了个人隐私与数据保护权,明确指出该技术的部署缺乏法律授权、算法存在偏见且未有效进行隐私影响评估(DPIA)。此外,美国伊利诺伊州早在2008年通过《生物识别信息隐私法》(BIPA),规定企业在收集人脸或其他生物识别数据前必须获得用户书面同意,并明确数据用途,否则将承担法律责任。联邦层面的《商业人脸识别隐私法案》虽然尚未通过,但各州及城市(如旧金山、波士顿)已相继采取行动,立法禁止或严格限制公共场所的生物识别技术使用,以保障个体自由和隐私权益。这些实践显示,个人信息保护路径的优势在于法律原则清晰,程序救济完善,适合处理个体层面的隐私风险。
(二)人工智能风险治理
与上述个人信息保护不同,人工智能风险治理将人脸识别技术置于更广泛的社会技术系统视角下考量,从技术特性、系统风险和社会影响出发实施全方位监管。此类实践不仅关注个体的信息保护,更关注算法运行、决策过程与外部性风险,如算法歧视、大规模误识别、持续监控对公共自由的影响,以及技术集中可能造成的社会权力失衡等系统性问题。具体而言,此路径通常借助风险分级的监管策略,对人工智能系统进行风险的分类分级,对特定类别和等级的人工智能系统则设置严格的准入审查、独立第三方风险评估、运行期风险监测、人类监督机制等制度安排。
欧盟的《人工智能法》是人工智能风险治理的代表性探索。该法通过风险分级将人工智能系统分为不可接受风险、高风险、有限和最低风险四级,并对高风险系统设定严格的合规义务。在该法框架下,人脸识别属于生物识别系统。该法将远程生物识别系统(remote biometric identification,RBI)列为高风险人工智能(但纯粹用于1:1身份验证不在此列)。执法机关在公共场所的“实时”远程生物识别系统属于原则性禁止;仅在寻找特定受害或失踪人员、预防特定且重大且迫在眉睫的威胁、定位或识别涉嫌特定严重犯罪的个人三类目的下,且经事先司法或独立行政授权并满足时间、地域、人群范围严格限缩等条件,方可例外使用。此外,基于生物识别(如人脸识别)对敏感属性(如种族、宗教、性取向、工会成员等)进行分类、推断,以及在工作场所和教育场景使用情绪识别(emotion recognition)属于被禁止的做法;在禁用之外的场景,生物识别分类与情绪识别作为高风险人工智能纳入强监管义务。
在国际层面,各国和组织也日益强调对高风险人工智能的前瞻性监管。美国尽管尚未制定联邦人工智能法案,但其国家标准与技术研究院(NIST)发布了《人工智能风险管理框架》(AI RMF),提供自愿性指引,指导组织从策划、开发到部署各环节识别和降低人工智能系统对个人、组织、社会可能造成的风险。国家标准与技术研究院特别通过人脸识别算法评测(FRVT)揭示了许多商用算法存在显著的种族和性别偏差。这些技术发现直接指向算法偏见这一系统性风险,促使美国一些城市和执法机构暂停或限制人脸识别的使用,并推动制定算法问责立法。
在民间领域,英国阿达·洛芙莱斯研究所(Ada Lovelace Institute)多次呼吁制定专门规制生物识别技术的立法,特别建议在公共场所严格限制或暂停情绪识别等推断性技术的使用。联合国人权事务高级专员办事处(OHCHR)亦建议,各国对可能严重损害人权的人工智能应用(如公共空间实时监控、生物特征分类与社会评分系统)采取全球暂停措施,直到能确保技术不侵犯人权为止。
综合而言,个人信息保护和人工智能风险治理分别代表了两种监管实践:前者以个体信息权益为中心,将人脸识别等视作数据处理活动加以约束;后者以系统风险为导向,将其作为“社会-技术”系统,从开发到应用全过程进行干预。这两种实践并非截然对立,某种程度上是互补关系。例如,《通用数据保护条例》与《人工智能法》在欧盟被定位为并行机制:前者保障数据权利底线,而后者填补其在算法风险方面的空白。然而,在不同国家或地区,由于法制背景不同,往往会呈现侧重其一的监管模式。下文将通过比较中国《办法》与欧美规则的具体条款,检视这两种实践的差异。
二、中国《办法》与欧美治理模式比较
2025年6月生效的《办法》,以部门规章形式对人脸识别的使用进行了专门规制。从条文内容来看,《办法》主要借鉴并强化了个人信息保护的要求,但在高风险人工智能治理维度仍存在明显不足。下面将通过若干关键主题的中外比较,剖析《办法》的特点与局限。
(一)监管对象与责任链条
《办法》的适用对象局限于“在中国境内应用人脸识别技术处理人脸信息的活动”。其将“个人信息处理者”(基本等同于GDPR的“控制者”)作为主要责任主体,要求其在使用人脸识别时履行告知、同意、安全保障等义务。值得注意的是,《办法》第2条豁免了对研发者的监管:对于“为从事人脸识别技术研发、算法训练活动而处理人脸信息”的,不适用本办法。也就是说,算法开发者、供应商在研发和训练阶段并不在本办法直接监管之列。这种做法固然有利于避免对技术研发的过度束缚,但也导致责任链条的不完整:算法提供方在设计和训练阶段对模型性能和偏差影响最大,却游离于专门规制之外。反观欧盟《人工智能法》,其通过明确区分提供者(provider)和使用者(deployer),将算法开发商也纳入监管体系。《人工智能法》赋予提供者主要合规责任,包括确保数据收集质量、进行合格评估、取得CE认证等,同时要求使用者在部署高风险系统时履行监督和报告义务。这种“双轨主体”模式保证了从开发到应用各环节均有明确责任主体,形成完整的责任链条。相比之下,中国《办法》仅聚焦于最终使用环节的个人信息处理者,使得算法源头责任缺位:如果算法本身存在重大偏差或隐患,依据《办法》难以及时追责算法供应商,这与人工智能治理逻辑强调的“谁开发、谁负责”原则不符。
(二)风险识别与前置评估
《办法》延续了《中华人民共和国个人信息保护法》的要求,规定个人信息处理者在使用人脸识别前应当开展个人信息保护影响评估。第9条列举了评估内容,包括处理目的合法必要性、对个人权益的影响及缓解措施、人脸信息泄露篡改等安全风险评估。可以看出,此评估主要围绕数据安全与合规展开,例如,防范信息泄露滥用、确保处理目的正当最小等。这是一种事前风控,即在实施前由数据处理者自我评估可能风险,并保存评估报告供监管检查。然而,该机制存在两大局限:一是评估侧重个人信息层面,缺少对算法技术系统性风险(如识别准确率、偏误率、模型稳健性)的要求;二是评估结果并不需要向独立机构备案或批准,监管部门事前缺位,仅在特定潜在风险出现(人脸信息存储数量达到10万人)时通过备案介入,或事后检查或发生事故后才介入。
相比之下,人工智能风险治理强调事前审批和持续监测并重。如前所述,欧盟对于高风险人脸识别系统,要求在上市前通过第三方合格评定确保其符合所有指标要求。此外,《人工智能法》还要求提供者建立质量管理和监控体系,持续收集和分析系统在实际运行中的表现,定期评估是否需要改进或重新认证。这相当于将风险评估从“一次性手续”变为“持续性义务”。美国国家标准与技术研究院的人工智能风险管理框架也倡导对算法进行全生命周期的风险监控,及时应对模型偏移或环境变化导致的新风险。相较而言,中国《办法》缺乏对算法精度和偏差的前置测试要求,也无定期报告或重新评估的机制。一旦系统上线运行,除非在特定潜在风险出现、发生数据安全事件或被投诉检查,否则监管部门难以及时发现算法性能问题。事前审查与持续监管的缺失,意味着对人脸识别“精准度风险”和“误用风险”的管控不到位。
(三)算法透明与可解释性
《办法》要求个人信息处理者在使用人脸识别时,必须以显著方式告知个人有关信息,包括处理者身份、目的方式、保存期限、对个人权益的影响、个人权利行使途径等。这实际上是用户知情权的一部分,旨在提高数据处理活动的透明度。然而,这种透明义务局限于告知用户,并未涉及算法技术本身的透明。换言之,企业无需向监管部门或公众披露其人脸识别算法的工作机制、性能指标、模型是否经过独立审查等。这与欧盟在高风险人工智能治理中的多层次透明性形成对比。所以,《办法》缺乏对更深层次的算法可解释性和外部监督机制的要求。例如,当人脸识别技术用于执法或社会管理时,公众或被识别者往往无法得知算法依据何种标准作出识别或判断结果。如果发生误识或歧视性结果,责任如何认定也不清晰。相比之下,“布里奇斯案”判决和阿达·洛芙莱斯研究所的研究都强调独立审查算法性能的重要性,“布里奇斯案”中法院批评警方未验证算法是否存在种族或性别偏见,违反了公共部门的平等义务;阿达·洛芙莱斯研究所则建议建立算法备案和审核制度,让独立专家能够测试人脸识别系统在不同人群上的准确率,并公开报告结果,以提升系统的问责。在美国,多个地区司法管辖也尝试推行所谓算法影响评估(AIA)制度,要求部署影响公众的算法前公开相关信息并接受公众反馈。中国《办法》目前仅有模糊的“承担社会责任”条款和备案要求,但备案内容主要围绕数据处理规则,且备案资料并不公开,这使得算法透明度停留在行政内部。总体而言,《办法》体现的是传统数据保护视角下的透明度要求(告知、备案),而非人工智能治理所倡导的算法机制透明和公众监督,且针对算法透明与可解释性要求尚且置空。
(四)功能范围与推断性识别
《办法》的规制范围主要针对验证个人身份(1∶1)和辨识特定个人(1∶N)两类用途。这两类均涉及通过比对人脸信息来识别人的身份。《办法》对这两类用途设定了一些限制,如不得将人脸识别作为唯一验证个人身份方式(若有其他方式可满足目的);在公共场所安装人脸识别设备须“出于维护公共安全的必要”,且禁止在公共浴室、更衣室等私密空间部署。这些规定旨在避免不必要的人脸收集和过度监控。但问题在于人脸识别技术的实际应用已经超出上述身份识别范畴,出现了大量推断性识别的情形。例如,利用人脸数据去推断个人的种族、性别、年龄、情绪、健康状况,甚至信用评分和犯罪倾向等。这类“衍生/推断识别”往往风险更高,因为其既可能侵犯个人敏感信息(如种族、健康属于特别敏感数据),又可能基于伪科学或相关性推断导致严重歧视和误导。欧美监管者对此已有警觉,欧盟《人工智能法》明令将基于生物特征推断敏感属性和情绪识别纳入高风险人工智能,并要求此类系统满足严格许可条件;欧洲委员会甚至考虑在立法过程中对实时情感识别实行全面禁止。欧洲许多机构和人权组织也呼吁禁止利用人脸识别推断种族、性取向、性格等特征,认为此类用途侵害人性尊严且技术不可靠。例如,欧洲理事会(Council of Europe)2021年发布的人脸识别指南明确指出:识别人种肤色、性别、情绪、个性等用途应被禁止。
反观中国《办法》,并未覆盖除“识别个体身份”之外的人脸识别技术用途。这意味着,如果企业利用人脸技术对消费者进行情绪分析或身份特征标记,只要履行了个人信息告知同意义务,在法规上并无明文禁止。然而,这类推断型识别带来的歧视和滥用风险更难通过用户同意来消除。例如,购物中心若通过摄像头分析顾客情绪以定向营销,消费者很难真正知情且给予自由同意。再如,人脸识别用于招聘中预测求职者“诚信度”或“智力水平”,明显涉及对个人的偏见推断,可能违反就业公平。这方面,中国现有规则(包括《办法》)尚属空白。
(五)歧视防范与公平责任
偏见与歧视是人脸识别技术饱受批评的问题之一。欧美大量研究和实践已证实,一些算法对少数族裔或女性的误识率显著更高,原因可能在于训练数据不均衡或算法设计偏差。这类技术偏见会直接导致歧视性后果,如非洲裔群体更易被错误地匹配为嫌疑人,从而承受不公正待遇。《办法》在总则中提到要“尊重社会公德和伦理”“不得侵害个人合法权益”,但未对算法歧视做出任何具体规制。例如,没有要求企业在部署前测试算法在不同人群上的性能,也没有要求持续监测算法输出的公平性或定期报告潜在偏倚。在“布里奇斯案”中,英国法院首次将平等法引入人脸识别审查,认定警方未充分考虑算法的种族/性别偏差,违反了公共部门的法定“平等义务”。这一判决凸显出监管者应当对算法歧视进行实质性审查:不仅考量使用目的是否合法,也要评估技术本身有无系统性偏见。欧盟《人工智能法》则进一步在立法要求中嵌入了防歧视原则,要求高风险人工智能在设计时尽可能确保“不存在利用敏感属性的不合理偏差”,提供者需在技术文件中说明为降低偏差所采取的措施,并在风险管理中重点关注算法对不同群体的影响。欧盟《人工智能伦理准则》和欧盟数据保护委员会(EDPB)指南也反复强调公平原则,敦促开发者采用多样化数据、消除训练偏见并引入独立审计。与此形成对照,中国的监管目前缺少算法公平的考量,没有平等权相关的评估要求,也无投诉救济渠道专门针对算法歧视。如果某人因为人脸识别误判而遭受损失,现行法律只能依据《中华人民共和国民法典》寻求民事侵权救济,举证和归责均有难度。在高风险人工智能治理逻辑下,理应通过立法明确要求算法供应者证明其产品不会产生不合理歧视,并赋予监管机构权力对算法进行审查测试。从这个角度看,《办法》在防范歧视上还是流于软性的伦理要求,缺乏刚性的制度保障。
综上对比可见,我国的《办法》基本框架仍停留在保护个人信息和规范数据处理活动的层面,对算法本身的高风险属性及其可能引发的社会后果考虑不足。这既有立法导向的原因,也受制于当前我国尚未建立针对人工智能的体系化监管设计。
三、两种技术治理路径的分界
笔者此前提出,要全面适配并应对人脸识别技术带来的各类风险,需要建立一种分层治理的思维框架,即同时关注应用层、技术层、信息层、系统层四个方面:其一,应用层聚焦技术部署的前置条件与场景准入,通过最小必要原则、比例原则与公共利益衡量,回答“谁可在何种场景、出于何种目的部署并使用该技术”;其二,技术层关注实现算法与工程品质,包括图像采集精度、训练与验证数据的代表性、公平偏差与稳健性,以及活体检测、对抗样本等;其三,信息层规范面部图像与特征模板的收集、关联、加工、流转与使用,强调合法性基础、目的限定、最小化、透明与个体救济;其四,系统层确保机密性、完整性、可用性等底座安全与可追溯运行,以支撑持续合规与问责。相比于拙作所讨论的《征求意见稿》,现已生效实施的《办法》显著缩减了对应用层与技术层的规制密度,而主要着力于信息层的数据处理规则与系统层的安全防护措施。
然而,这种“信息+系统”相对收缩的治理思路,难以充分覆盖新型智能技术的复合风险。首先,当前智能技术风险不再仅限于“是否允许收集数据”的简单问题,而更多涉及技术系统本身如何稳定运行、如何避免算法出现偏差以及出现异常状况时如何及时停用等复杂问题。这些问题单靠信息层面的规制显然无法有效解决。其次,智能技术带来的影响范围更广泛,不再局限于个体,甚至可能涉及大规模群体的利益与公共空间的安全,例如,公共场所实时的人脸识别或对弱势群体的潜在影响,这些问题超出了个体通过自身数据保护权利能够控制的范围。再次,智能技术的开发者(提供者)与具体应用场景的管理者(部署者)通常并非同一主体,这种分工导致了责任上的断裂,仅关注具体的“数据处理者”无法充分追究和解决技术本身的缺陷和运行管理中的问题。最后,新兴的在线学习技术与知识更新意味着智能技术需要持续的性能监测、动态更新和实时风险控制,传统一次性的合规审查与事后救济方式明显不足。因此,需要引入事前测试、持续运行监测和定期再评估等更加主动、更加系统的工程化风险管控措施。
基于此,笔者认为亟须从更为系统和理论化的视角深入分析智能技术治理的路径问题。这种理论化的梳理不仅是为了完善我国当前人脸识别技术的治理方案并支持后续的持续优化,更是为了在未来面对层出不穷的各类智能技术时,避免再次陷入类似的治理困境。为此,本文将智能技术的治理路径细分为两种类型:一是以保护个人信息和基本权利为核心的“个体权利导向”,强调通过赋予个体对其个人信息和相关决策的有效控制权,确保隐私、平等和人格尊严得到根本保障;二是以公共利益和风险防控为核心的“系统风险导向”,通过场景化的风险评估和差异化管理,动态设置技术应用的准入条件、技术测试要求以及持续监测措施,针对风险较高的智能技术实施重点监管。
在实际治理过程中,这两条路径并非完全分离,而是以“权利保障、风险管控”的方式密切协作,个体权利导向首先设定明确的数据处理规则和个体基本权利保障措施,为技术应用划定边界;系统风险导向则在此基础上针对技术应用场景与技术特征设置具体的监管要求,包括分级管理、第三方评估、持续监测和审计等措施。同时,这些技术层面的监管活动及所获得的数据,也为个体权利导向提供了更充分的信息支撑,使个体可以更有效地行使知情权、申诉权、纠错权等权利。
尽管这两条治理路径在实践中紧密结合,但在具体实施时仍体现出明显的结构性差异。这种差异主要体现在监管对象与责任主体、风险定义与介入时机、合规措施与评估标准、监管逻辑与执法模式、公众参与与权利救济机制、适应能力与动态更新频率这六个关键维度上。对这些差异进行深入、细致地辨析,是建立高效、稳健的智能技术治理体系的基础。本部分将聚焦于分析这六个维度的结构性差异。在明确上述结构性差异后,本文的余下部分将进一步探讨如何根据智能技术自身特性精准选择和调整治理路径。即不同技术特征所产生的风险水平与治理需求,将决定何时优先适用个体权利导向、何时更需要强调系统风险导向,或何时需要将两者进行灵活整合,以实现治理方式与治理对象之间的最佳匹配,为不断涌现的智能技术风险治理提供更加清晰、有效和精准的政策指导。
(一)监管对象与责任主体
个体权利导向路径将监管对象聚焦于个人信息处理活动,以保护个人信息、隐私和自主决策等基本权利为核心。该路径将个人信息主体的权利置于制度中心,要求信息控制者/处理者遵守告知、同意、最小化、目的限定等原则。风险要素在此仅用于调节合规强度:处理活动若涉及敏感生物识别信息或可能严重损害个人权益,法律要求更严格的评估和防护措施,但不会因此全面禁止该技术进入市场。系统风险导向路径则视整个技术系统及应用场景为监管对象,关注其潜在的系统性外部风险。在这一逻辑下,风险评估成为技术市场准入的门槛。例如,欧盟《人工智能法》预先将某些用途界定为不可接受或高风险,只有通过严格评估并满足质量管理、数据治理、人类监督等要求,相关系统方可上线。
在责任主体上,个体权利导向路径明确了个人与处理者的权利义务关系:个人作为权利主体,可行使知情权、访问权、更正权、删除权等,对抗不当技术干预;控制者/处理者负有遵守规范、保障个人权利的责任。该路径通过赋权个人来矫正技术和信息不对称,允许个人通过投诉监管机构或诉诸司法维护自身权益。相比之下,系统风险导向按照风险产生环节确定责任主体:开发者、提供者或部署者被视为主要责任方,须在设计和投放阶段履行风险评估和减缓义务。个人无直接权利要求停止高风险系统,监管由专门机构自上而下介入。因此,风险导向路径的责任链更多沿“开发者、监管者”轴线展开,而非“个人、控制者”轴线。
两种路径背后的正当性基础也不同:权利路径诉诸基本法保障的公民权利,强调不可触碰个人权利底线;风险路径则以公共利益和整体福祉为依归,通过专业管控将总体风险降低到可接受水平。尽管两种路径在实践中并非绝对对立,权利路径也根据风险高低差异化部分义务,风险路径亦强调防止歧视等基本人权,但在理论起点上确有根本区别:前者从个人权利出发,以风险大小调整合规程度;后者从整体风险出发,以风险等级决定市场准入与监管强度。
(二)风险刻画与介入时点
两种路径在“风险”的界定上存在根本差异。个体权利导向以定性方式看待风险,实质是判断某项技术行为是否可能侵犯特定个人权利。只要被认定侵害了个人隐私等基本权利,就跨过不可逾越的红线,被视为不可接受的风险。对于基本权利而言并不存在部分侵犯的连续光谱:要么被侵犯,要么未被侵犯。如有研究者所指出的,将权利侵害程度量化为滑动刻度是错误的。因此权利导向路径倾向于将风险视为质的门槛:一旦触及权利红线,就不考虑发生概率,一律视为不可容忍。
系统风险导向路径要求对风险进行量化评估和分级管理。风险被定义为造成某种法益损害的可能性和严重程度组合,监管者据此将人工智能系统按风险等级分类,高风险系统对应更严格的监管介入措施。风险被视作连续谱意味着某些低程度风险在权衡利弊后可被接受。但这种量化方法也易忽视个体差异:以“平均收益”判断可接受风险,可能无意中容忍少数人遭受重大损害。这与权利导向路径坚持每个人权利都不可侵犯形成鲜明对比。
在监管介入时点上,权利导向路径倾向于事前设红线、事后强救济的模式,法律预先明确禁止某些本质侵犯权利的行为或要求特别保护(如未经同意不得处理敏感信息),只要发现技术行为威胁到个人权利,监管就会在事前介入禁止;事后若权利确被侵犯,则提供投诉、申诉和司法诉讼途径补救。换言之,权利导向路径只要察觉权利受威胁就立即干预,而不等待对损害概率的计算。
系统风险导向则贯穿技术全生命周期实施风险管理,根据评估结果决定何时介入:风险越高,介入越早且严格;风险较低,则可后置干预甚至不干预。开发阶段对高风险系统要求严格测试评估,部署前须审批或符合认证标准,运行中持续监测报告;而低风险技术则监管介入较少甚至放权。这种分级介入原则提高了监管资源的针对性和效率,但也可能对未标记为“高风险”的问题反应迟缓,一些难以量化的隐患因此被忽略。
这种差异体现了两种不同的预防理念:权利导向路径近乎采取绝对预防,只要行为本质侵犯权利就一律约束;风险导向路径遵循比例原则,根据科学评估的风险程度决定干预强度。一些学者因此主张人工智能治理应坚持以人权为基础,而非单纯依赖风险分析,因为后者可能将不可让渡的权利底线变为可计算、可交易的指标。简言之,在风险的刻画和监管介入时点上,权利导向路径奉行道义上的零容忍,而风险导向路径奉行基于概率和成本收益权衡的渐进管控。
(三)合规工具与衡量指标
在个体权利导向路径中,常用的合规工具着眼于保障个人权利本身。典型做法包括发布隐私声明、征求用户同意、开展数据保护影响评估(DPIA)、提供数据访问和删除渠道、建立投诉和救济机制等。这些工具旨在提升数据处理的透明度和让个人掌控自身信息,以确保合规过程中个人权利得到体现。然而在实践中往往流于形式。
系统风险导向则侧重技术过程管理型的合规工具,建立起持续的内部风险识别、评估、缓解和监控流程来满足外部要求。典型工具有定期风险评估报告、算法影响评估(AIA)、质量管理体系、技术标准符合性以及第三方审核认证等。这些工具强调开发和运行阶段的尽职调查和过程管理,注重降低风险的实际效果而非表面手续。例如,人工智能开发者若能证明已按最佳实践进行了偏见测试和风险缓解,即便系统最终出现问题也可被视为已尽责合规。这体现了一种“过程合规”理念,更关注行为者尽到了合理努力,而非苛求结果绝对零风险。
两种路径对合规的衡量标准也截然不同。权利导向通常依据规范性指标二元地判断合规:该履行的义务有没有履行,有无出现侵犯权利的事件。如果企业未经同意收集数据或发生数据泄露,即被认定不合规,因为直接侵犯了用户权利。这是一种静态的守法合规观,即只要遵循预定规则便算合格。然而企业满足了纸面要求并不意味着真正控制了风险。风险导向则采用动态和量化指标评估合规,关注风险是否被有效降低、风险管理机制是否运转良好。例如,考察高风险AI系统是否进行了充分的风险分析和缓解,剩余风险是否降至可接受水平,运行中是否建立了持续监测和应急响应机制等。这是一种以证据和效果为导向的合规观,要求用数据证明风险在可控范围内。
上述差异反映了背后合规哲学的区别:权利导向路径奉行“遵守规则”哲学,认为遵循既定程序即合规;风险导向路径奉行“结果导向”哲学,认为合规的真谛在于实现安全可靠的效果,规则只是手段而非目的。因此前者的监管者通常检查企业是否履行了诸如告知、同意、回应用户请求等义务,后者的监管者则更关注企业提供的风险报告、测试数据,并与其讨论改进空间。
(四)监管逻辑与执法架构
个体权利导向的监管逻辑以明确的个人权利原则设定技术应用边界,属价值优先的原则导向。立法预先规定个人信息、人格尊严等各项权利保护原则和禁止行为,技术必须在此框架内运行。监管机关多采取响应式执法,通过个人投诉或执法检查发现违规后,依据诸如“未经同意不得处理个人数据”等法律原则立即介入纠正并处罚侵权行为。每次执法都可直接援引上位权利原则作为依据,因而正当性强且边界清晰。
系统风险导向则以风险评估结果决定干预重点,体现出前瞻主动的风险导向。立法给予监管者裁量权让其根据科学研判识别高风险领域并提前介入管控。监管者基于事故统计和行业研究等确定最高风险的人工智能应用,集中资源制定专门规制(如高风险系统须经许可)。执法上强调主动监督和过程管理:要求相关企业定期提交风险报告、接受现场检查或远程监控,形成多层级专业监管网络动态治理技术风险。为此往往需要设立新的专门机构或跨部门协调机制集中专业能力(如成立人工智能监管委员会),赋予行政机关更大裁量权以快速响应技术变化,但同时也引发如何确保权力受控和问责的新挑战。
在执法方式上,权利导向路径依托明确法律责任采取强制性制裁手段,一旦确认侵害个人权利,即对责任方科以巨额罚款或责令停止有关技术使用,以震慑潜在违法者,守住不可侵犯的权利底线。风险导向路径则更注重持续督导和协商改进,发现风险迹象时,先要求企业整改、引导其在“监管沙盒”等受控环境中完善技术,而非立刻对抗性惩罚;只有当风险达到不可接受程度或主体蓄意违法时,才采取撤销许可、下架产品等“熔断”措施。总体而言,风险导向路径的执法风格更加注重专业评估与合作治理风险,而非单纯依赖事后惩戒。
(五)公众权利与救济路径
在个体权利导向的范式中,个人权利被置于核心位置。法律赋予个人知情同意、数据访问、更正、删除以及不被算法武断决定等权利,使其能对抗强大的技术行为者。这将抽象权利原则具体化到日常生活,让个人能够以自身权利主张参与技术治理。相反,系统风险导向通常并不给个人直接干预技术部署的权利,而主要通过监管机构来保护公众利益。个人难以要求某人工智能系统停止或改变,除非能够根据其他法律证明自身权益受损。在人工智能风险监管框架下很少出现类似欧盟《通用数据保护条例》那样的个人权利条款,更多是强调提供者义务和监管权限。因此公众在高风险技术治理中主要处于被保护的地位,由专家和机构替其判断安全与否。这虽然减轻了普通人了解复杂技术的负担,但也可能让人产生无力感。
在救济路径方面,在权利导向路径下建立了多层次的维权渠道:个人可先向数据控制者主张权利,不满意则向独立监管机构投诉,仍未解决还可诉诸法院。此外还允许集体诉讼等途径来维护公共利益,从而降低个人维权门槛并扩大救济覆盖面。相比之下,风险导向路径主要依靠行政干预和事后赔偿来提供救济:一旦高风险技术造成损害,监管部门会强制其停止并处罚责任方,受害个人则通过侵权法等途径索取赔偿。然而在损害发生之前,个人几乎无法凭法律要求暂停核发运行的高风险系统,因为只要提供方符合法定风控要求,该系统就被允许运行。
因此,权利导向治理确保公众拥有明确的权利清单和救济途径,使个人从被动的风险承担者转变为主动的权利主张者;风险导向治理侧重整体风险防控,个人多以被代表的方式受保护,其救济依赖监管运作和事后责任。前者的优点是赋权个人、透明参与,但如果救济不畅,权利可能流于空文;后者的优点是专家主导、高效预防风险,但可能出现“公众利益无人主张”的真空。为兼顾个体权利与社会安全,政策和学界正探索在人工智能治理中增加公众参与渠道、在隐私治理中融入风险视角等混合模式。
(六)适应性与动态更新
技术发展日新月异,对监管适应性提出了严峻挑战。个体权利导向由于立基于高层次的基本权利原则,具备一定的稳定性和普适性,但动态调整往往滞后于技术演进。基本权利的内涵相对恒定,一部个人信息保护法典可能十几年不变,而此间技术生态已迭代多轮。立法或修法过程漫长,新出现的风险(如算法歧视、深度伪造等)往往难以及时纳入法律规制。如果不辅以软法或灵活机制,权利框架容易出现治理真空或滞后。权利导向路径主要靠法律解释和体系内延伸来吸纳新情景,通过法院判例、学理阐释将新技术纳入既有权利范畴,或由立法赋权监管机构发布指引。但总体而言,其响应速度受限于法定程序周期。
系统风险导向在设计上更强调动态更新能力,采取模块化、程序化的方式随风险变化调整规则。常用手段包括授权行政机关动态调整高风险清单和技术标准、引入快速修订程序(如监管沙盒试点新规后再立法推广)、依托行业标准组织持续更新技术规范,以及设置定期评估和日落条款等。这些机制使监管能够较灵敏地回应不断涌现的高风险技术。但现实中也面临局限:监管者需要很高的技术前瞻能力,否则仍可能跟不上变化;而规则频繁调整也增加了从业者的不确定性,可能在一定程度上阻碍创新。
权利导向路径的弹性更多来自原则的包容性,精心措辞的权利条款往往可覆盖未曾预见的新情况,通过价值衡量进行扩张解释。例如,“隐私权”已通过解释延伸到定位数据、基因数据等21世纪新领域,“平等原则”也被用来规范算法歧视。但这种适应有赖于法律解释者的视野和魄力,并且缺乏主动的“学习”机制。在制度层面,也少有内建的定期更新要求,例如,宪法和基本权利法典修改并不频繁,只能由新时代赋予其新的含义。
风险导向路径则努力将“学习机制”嵌入治理体系。例如,要求监管机构发布年度风险评估报告、定期召开专家会议研判新风险,并据此调整规制策略;鼓励行业协会总结事故教训、及时更新行业守则。这样形成从实践中获取信息、持续优化治理的反馈循环,类似于工程领域的迭代优化。然而行政机构或专家委员会的认知能力有限,而且如果透明度不足,公众将难以对这一调整过程是否出现偏差进行监督。
公众参与也影响适应性的路径。权利导向路径的变革常由公众舆论和社会运动自下而上推动(如隐私运动、数字人权倡议),一旦形成共识就会促使立法或司法做出改变,是规则演进的重要动力。而风险导向路径更多依赖专家自上而下的调适,由专业判断驱动政策变动,公众作用相对间接。这可能造成技术政策的“民主赤字”,虽然更新更快,但因缺乏公众广泛参与而正当性不足,引发质疑。
总而言之,在适应性与动态更新方面,权利导向治理强调价值恒常胜于规则易改,其强项是稳定明确但反应较慢;系统风险导向治理强调灵活调整胜于一劳永逸,其长处在机动前瞻但可能牺牲确定性和公众参与。如何结合两者的优势,是未来技术治理需要探索的关键课题。
四、技术特性与治理路径适配框架的展开
在前文区分了“个体权利导向”与“系统风险导向”两种监管路径后,本部分进一步探讨如何根据智能技术本身的特性,在二者之间进行适配性选择。具体而言,不同技术特性是否应对应不同的治理路径?何时应侧重保护个体权利,何时又应更加依赖对系统性风险的管控?为此,本文提出“技术特性与治理路径适配框架”,以技术自主性、社会外部性和可解释性三重维度为坐标,对包括人脸识别在内的新兴智能技术的风险特性进行识别,并根据不同的风险画像,动态匹配相应的治理路径和监管工具。
(一)智能技术风险刻画维度
第一是技术自主性(对“可预见性”的检验)。技术自主性是指智能技术在决策过程中无需人类干预而独立执行任务和决策的能力。这种自主性决定了智能技术行为的可预见性及由此产生的风险可控性。当系统的决策机制明确且稳定、决策边界清晰时,风险主要局限于数据获取和数据处理的合规性。此类情境下,传统的个体权利保护路径较为有效,通过合法性基础(如个人同意或法定授权)、数据处理目的限定、数据最小化原则及信息主体权利救济机制,就能实现风险的可控。例如,以固定规则驱动的人脸身份验证、静态个人信用评分系统等技术,其风险高度集中在隐私侵害或数据过度收集,这种风险相对易于识别且易于规制。
然而,当智能技术的自主决策能力显著提高,系统具备实时学习和自适应行为时,其决策边界便难以预先预测,传统的事前规则往往无法涵盖所有可能的风险情境,个体救济的事后补救更可能变得不切实际。例如,高度自主的无人驾驶汽车、实时公共场所人脸识别系统、大型生成式人工智能(如生成式文本或图像模型)等技术,都具有较高的不确定性与风险失控可能性。此时,风险很容易从个别案例的个人损害扩散至社会范围,形成难以个体化追责的系统性危害。因此,更需要系统风险导向的监管路径,建立事前许可或备案、引入独立第三方风险评估、设计实时风险监测机制与事故处置方案,包括确保必要时人为干预系统的“人在环内”机制,以及明确技术失控时的暂停或终止使用程序,以避免个体与公共风险进一步扩大。
第二是社会外部性(对“受影响范围”的检验)。社会外部性衡量智能技术对公共利益或社会整体产生影响的范围。当智能技术的影响主要限于特定个人层面,且对外界存在较强的可控性与替代性时,权利导向的治理路径更具适用性。个体在明确同意的基础上自主决定是否接受技术服务,这种情况类似于人脸识别的个人设备解锁、个性化推荐算法等情景,此类情形的风险范围可控,规制上可以主要依靠个人信息保护与隐私保护法律框架,以尊重个人的自主选择为主。
然而,当技术的社会外部性突出,其影响波及公共空间、不特定多数人乃至弱势群体时,个体自主选择的有效性大幅削弱。高外部性意味着风险可能超出个体的认知和掌控,带来群体性与结构性风险。例如,公共场所实时生物识别技术、公共情绪监测系统、社会信用评分算法等都具有显著的公共影响,风险可能集中表现为大规模监控侵犯隐私、群体歧视和偏见扩散等公共安全与公平问题。这类技术风险单纯靠个体救济无法有效防范,必须通过系统风险导向的路径,以政府监管的形式进行前置审查、风险分级和准入限制。同时需要跨部门监管合作,及时开展系统性风险评估、持续的社会风险监测与适时调整风险治理措施,从而确保公共利益与社会整体安全得到有效保护。
第三是技术的可解释性(对“可被治理性”的检验)。可解释性指智能技术决策的透明度与决策理由可被人类理解的程度。这项特性直接决定了治理措施介入的可能性与有效性。当智能系统具有较高的可解释性与可追溯性时,权利导向路径更为适用。可解释性较高意味着受影响的个人和监管者可以清楚地了解算法决策的逻辑与具体原因,从而较容易地发现不当决策,并通过现有的法律救济途径及时纠正错误或侵权行为。此类系统较易适用传统法律规则,如通过信息公开、个人异议和撤销机制进行有效监管。
然而,当智能技术呈现出显著的“黑箱”特征,决策依据高度复杂且难以明确阐释时,个体权利救济便因信息不对称而遭遇巨大障碍。例如,基于深度学习的情绪识别技术、大型语言模型等技术都可能对特定个人或群体产生影响,但其算法过程难以清晰还原与审查。这种低可解释性的情形下,单靠个体权利主张或事后救济难以奏效,监管方式必须转向更强度的系统风险导向措施,包括实时监控、持续性能审计与透明度报告、独立第三方算法审核与认证,以及明确算法责任主体的持续说明义务。这种前置性与持续性措施可弥补个体因技术信息高度不对称而难以有效主张权利的缺陷,及时发现和干预系统性风险。
综上所述,技术自主性、社会外部性与可解释性三项技术特性,在规范意义上直接决定着个体权利导向路径和系统风险导向路径之间的适配选择。治理路径的选择,应当根据这三项特性组合呈现的具体风险情境,动态决定是以保障个体权利为主,还是转向系统性风险治理,抑或需要两种路径并行以达成治理效果的最优化。唯有在治理路径的选择上具备足够的弹性与灵敏性,才能在保障个人权利的同时有效应对日益复杂的智能技术风险。
(二)适配规则
智能技术的治理路径适配问题,在规范上体现为如何依据特定技术风险刻画进行审慎的制度选择,以避免治理方式的“一刀切”或过度单一化。因此,在前文区分技术自主性、社会外部性和可解释性三项关键技术特性的基础上,本部分进一步提出一种可操作的治理路径适配规则,以确定在何种情境下适宜采用权利导向治理路径,何种情境应倾向于系统风险导向,何种情境下则需要两种路径的并行适用。
第一类情境为权利导向路径优先适用的情况。这种情形通常表现为智能技术运行的自主性较低、对外部环境影响范围较窄且技术决策过程具有较高的透明度和可解释性。具体而言,此类技术往往是具有清晰决策规则的静态或简单动态算法,例如,明确的个人身份认证系统或个性化推荐系统。由于此类技术的潜在风险较易被个体察觉和控制,个体通常具有有效的救济渠道,因而规范路径适合以个体权利保障为核心。治理措施的着重点应放在个体信息处理的合法性与正当性审查之上,具体包括严格遵循告知同意原则、落实数据最小化和数据留存期的限制,并为个体提供充分的程序救济机制和说明理由的义务。此外,权利导向路径在这一情境下也要求企业必须提供明确的信息,使个人能够清楚地了解并掌控相关智能技术的应用过程与结果,从而有效维护自身权利。
第二类情境则是系统风险导向路径优先的情况。当智能技术的应用呈现高度自主性、显著的社会外部性以及技术过程的低可解释性时,技术风险的控制便难以完全通过个体层面的权利主张或事后救济来实现。由于此类技术往往能够快速而广泛地影响大量不特定个体,并在公共层面形成结构性风险,例如,误判风险、大规模歧视或不当监控风险,因此必须采取更严格、更主动的前置监管和持续性系统监督措施。具体的监管方式包括但不限于前置性的技术风险评估、事前准入审查或行政许可制度、系统运行中的实时监测和事故报告机制,以及明确的暂停和下线机制。此外,还需要引入独立的第三方评估机构,对技术系统进行客观评估与持续审计,以确保系统运行的安全性、合规性与可控性。总之,在高风险情境下,治理路径更多地关注整体的风险防控、责任主体的明确化和监管措施的持续性,从而确保公共安全与社会整体利益不受威胁。
第三类情境为权利导向与系统风险导向并行适用的情况。实际治理实践中,一些智能技术往往无法简单归入上述两种情境的任一类,可能同时兼具对个体权利产生侵害与对社会整体形成系统性风险的特征。例如,情绪识别技术和生成式人工智能技术(如大型语言模型)即属于此类情境。一方面,此类技术可能直接影响个体的隐私、尊严或权利;另一方面,其自主运行和规模化应用还可能产生社会层面的结构性风险,例如,大规模歧视或虚假信息扩散。因此,在治理上必须同时关注微观个体权利保障与宏观风险管控。适用的具体策略可以采取“权利底线+风险分层管理”的双重结构:首先,在微观层面严格落实个人信息保护的基本原则,保障个人知情同意权和救济权利;同时,在宏观层面实施高强度的风险防控措施,例如,对该类技术应用实行强制性的风险分级审查、动态准入管理和持续运行监测。通过这种并行治理的方式,既可有效地保护个体权利,又能确保系统性风险的及时发现与处置。
治理路径适配规则的正当性基础,源于法学理论中的比例原则与必要性原则。这一原则强调监管措施的强度与技术风险之间应存在合理的比例关系,只有在相应技术事实集合下,采取较高强度的监管措施才具有正当性与必要性;否则,应适度降低监管强度,回归至较低干预的权利导向路径。例如,当一种智能技术被发现可能造成严重而广泛的公共安全威胁时,则监管机构实施严格的前置审查和持续监管措施具有充分的正当性。而当某种技术的潜在风险较小且影响范围有限时,强制实施类似的高强度监管措施便会被认为是治理措施的过度扩张,应当适当减少监管干预。这种动态的适配逻辑确保监管的有效性和灵活性,使治理路径的选择更符合实际情境,并兼顾技术创新与风险防控的平衡。
因此,智能技术治理路径适配规则并非追求单一模式或简单归类,而是强调以技术自主性、社会外部性与可解释性为坐标,在具体风险情境中动态合理地确定个体权利保护与系统风险管控之间的治理重心。只有通过规范理论的深入分析和恰当的制度设计,才能为应对复杂多变的智能技术风险提供制度支撑,并有效地保障个人权利和社会整体利益的协调共存。
(三)衔接机制设计
要实现个体权利导向与系统风险导向两种治理路径在实践中的有机衔接,需建立一套配套机制,以确保治理措施在个体权益保护与系统风险防控之间实现无缝衔接,避免监管盲点与责任真空。为此,本文提出如下四项具体制度化机制,以完善智能技术治理体系的实施路径和可操作性。
第一,统一底线条款的普遍适用机制。面对智能技术对敏感个人信息的广泛利用,尤其是涉及生物特征数据、定位轨迹或敏感属性推断数据的处理,个体权利保障理应设立不可突破的普遍底线条款。这一底线条款不因技术形态的差异而有所松动,而应一律适用严格的个人信息保护原则,包括明确的数据处理目的、个人数据最小化原则、短期存储原则以及个体数据处理的充分知情同意与撤回权利。同时,为确保底线条款落地,需通过行政执法和司法程序保障个体的申诉、救济与纠正权利。例如,当涉及人脸识别或情绪识别等敏感数据的处理时,应确保数据主体明确知晓数据用途,并享有随时撤回授权的权利,以最大程度保障个人信息自主控制权的落实。
第二,动态高风险清单制度。这一机制强调由主管监管机构联合相关部门及外部专家,定期对智能技术应用进行风险等级动态评估与更新,及时将高风险技术应用纳入监管范围并明确监管强度与措施。这种高风险清单不应采取封闭式列举,而应采用开放性列举,以适应不断涌现的新型智能技术风险场景。例如,当前广泛讨论的情绪识别技术、敏感属性推断技术、跨数据库追踪技术,均可能对个人隐私权、人格尊严与群体权益造成重大风险,应列入重点关注的高风险清单,并实施严格的技术准入审查与持续监管。针对确有特殊必要的技术应用场景,应建立严格的例外审批制度,明确限定使用的期限、适用范围和复审周期,以保证监管措施的动态调整和适时修正。
第三,建立双轨评估体系,以强化个体权利保障与系统风险管控之间的相互支撑。个体权利导向路径所依赖的个人信息影响评估(PIA)制度与系统风险导向路径所依赖的算法/系统影响评估(AIA)制度,不应作为孤立的监管工具,而应在实际部署时相互配合、共同发挥作用。在具体操作中,可以将二者进行统一编号、联动评估,并在文件存档中实现相互引用,以确保不同层次的风险信息互通共享。例如,当某一智能系统进行重大更新或应用场景发生变更时,应同时启动二者的再评估程序,以共同构建持续、完整的证据链条,从而确保技术应用始终处于监管掌控之中。这种双轨评估体系不仅强化了对个体数据处理合规性的监督,也为系统层面的风险评估提供了具体的个案与数据支撑,防止权利保护与风险管理之间的脱节现象出现。
第四,实施指标化问责与激励机制。法律制度的实施不仅取决于法条规定的严密程度,也取决于能否通过执法机制和激励措施确保合规行为的实现。监管者应在执法过程中明确设定一系列可衡量、可核验的风险管控指标,例如, 对不同群体的差别性影响、算法偏差程度、系统运行中事故报告与响应时限,以及技术暂停与恢复的条件与程序。这些指标的设定不仅为技术提供方和使用方提供清晰的合规指引,也便于监管部门对技术运行状态进行实时监测和动态监管。同时,监管机构还应通过制度性激励机制促进合规行为的落实,例如对于合规表现优秀的企业提供监管沙盒、政府采购和税收优惠等政策激励,而对合规表现较差的企业,则限制其市场准入或予以更严格的监管约束,以形成权责明确、激励有效的制度环境。
综上,个体权利导向和系统风险导向两种治理路径的适配与衔接,需通过统一底线条款、动态高风险清单制度、双轨评估联动体系以及指标化问责与激励机制予以制度化落实。这些机制的实施能够有效弥合两种治理路径在实践中可能产生的缝隙和漏洞,确保技术风险防范和个体权利保护在规范上实现无缝衔接,共同构建起完整、系统、弹性的智能技术治理框架。
五、结语
从规范理论的视角来看,本文所构建的技术特性与治理路径适配框架试图在三个关键张力之间寻求合理的平衡与协调:一是“权利保护”与“系统风险治理”之间的平衡,以权利保障为底线确立治理的绝对边界,同时辅以风险管理工具对更为复杂的系统性风险进行有效管控;二是“事前预防”与“事后救济”之间的平衡,通过前置的风险评估、准入许可与持续监测机制搭建风险防控的前沿防线,同时在事后保留充分的程序性救济措施,包括信息透明、申诉程序与损害救济途径,保障个体在事后获得纠正与补偿的权利;三是“技术动态演进”与“规制稳定性”之间的平衡,以动态更新的高风险清单与适时评估机制保持规则的灵活性与适应性,同时通过统一的底线条款维持规则适用的稳定性与可预期性。这种三重平衡的治理安排,并非是对现行单一路径的简单替代,而是一种结构化的补充与精细化的制度分工,旨在更为精准有效地回应智能技术带来的风险与挑战。
当然,本文提出的适配框架也存在一定的适用边界与现实局限性。首先,有关技术特性与治理路径的三维分析框架(技术自主性、社会外部性、可解释性)尚停留于规范理论与制度设计层面的初步探讨,其具体的参数确定与实践校准仍需未来更多实证研究与试点项目的检验和完善;其次,本文提出的指标化问责与激励机制尚需与司法审查和行政执法在证据采信标准、司法审查强度和行政执行机制等方面进一步对接,以提升制度实施的可操作性与可行性;最后,制度落地过程中涉及的跨部门监管协作和独立第三方评估体系的建设与完善,要求配套的组织法与程序法设计跟进,明确相应主体的法律地位、职责权限以及跨部门协同的具体方式,以确保制度真正具有落地实践的能力。
展望未来,以人工智能为代表的智能技术治理问题将持续面临“新型风险场景不断涌现”与“传统治理规则持续滞后”的双重挑战。因此,本文所提出的治理适配框架,不仅为当前人脸识别治理的不足提供了系统化的理论回应,更为应对包括跨数据库追踪、自动驾驶、无人机等更广泛的智能技术风险提供了可扩展与可迁移的规范方案和制度路径。这一治理框架的内涵既能够向外拓展至更多风险场景的治理规范,也能够向内深化到责任主体的明确划定、证据链条的有效衔接和救济机制的程序优化,真正做到以权利底线兜住个人的基本权益,以风险治理守住复杂技术体系的安全底线。