原文载于《南京师大学报(社会科学版)》2026年 第2期
[摘 要]在人工智能侦查的大规模应用中,有效贯彻尊重和保障人权的“以人为本”要求,成为世界各国侦查机关智能化转型面临的核心命题。在政策激励和实践驱动下,我国侦查机关以“技术可信假设”为前提,构建了犯罪预测型、风险评估型、识别监控型和证据收集分析型等人工智能侦查系统。然而,这些以公民数据为研究分析对象的人工智能侦查系统,却在缺乏充分有效的规范指引和约束的情况下,实质参与到侦查活动中,滋生出过度扩张干预权利的范围、大幅增加干预权利的强度、不当压缩权利救济空间等风险。鉴此,有必要从基本权利的防御功能和国家保护义务出发,系统构建人工智能侦查权利保障的法治框架。在规范和制度层面,应当设定层次化的人工智能侦查权力边界,侦查机关承担防控人工智能技术风险的义务,并建立人工智能侦查应用的权利保障机制。
[关键词]以人为本;人工智能;侦查应用;权利保障;国家义务
随着国产可信可靠人工智能的快速发展,我国各地公安机关积极接入最新人工智能开源大模型,整合公安机关内部各类数据资源,建立人工智能侦查模型,逐步推动人工智能与侦查活动的深度融合。人工智能侦查固然能够大幅提升刑事侦查活动效率和犯罪控制能力,但是也潜藏着过度干预公民基本权利的风险。当前,全球主要国家对人工智能技术的法律规制已经聚焦于应用层面的公民权利保障,要求人工智能应用必须以人为本,不能过度干预公民基本权利。相比之下,我国刑事侦查领域部署和应用人工智能不仅缺乏充分有效的规范指引和约束,而且部分侦查人员间或存在“用隐私换安全、用数据换权利”的司法认知。这导致在部署和应用人工智能时,人工智能系统的允许和禁止范围、用于训练系统的数据、用于验证或评估输出准确性的指标和流程、监控频率,以及使用特定人工智能系统的风险等内容均处于空白或模糊状态。这种任意性的应用态势,映射出公权力机关在将人工智能嵌入刑事侦查时偏重于控制犯罪、轻视保障公民权利的不足。
长期以来,公民权利保障属于刑事诉讼活动中的薄弱之处。因此,在刑事侦查领域贯彻以人为本的人工智能应用理念,就必须将其具象化为尊重和保障公民权利的要求,细化为约束新型侦查权力的程序规则和防控人工智能应用风险的技术规范。当前学界主要从数据和算法角度围绕人工智能应用对侦查活动的影响展开研究,较少从权利保障视角审视人工智能侦查应用问题,这使得人工智能侦查应用中权利保障研究较为薄弱且缺乏系统性。有研究主张传统刑事诉讼规则无法有效制约人工智能侦查活动,侦查权急剧扩张易引发公民权利受侵犯风险。有研究认为,人工智能侦查的构建、训练和运行均离不开海量数据支撑,在缺乏相应保护机制的条件下,必然会出现个人信息保护不足和数据安全风险。还有研究认为,人工智能侦查应用场景设置随意,会与数据和算法问题相交织,带来合法性、正当性和伦理性风险。在既有研究的基础上,有必要进一步对人工智能侦查应用的权利干预状况进行系统性审视,从权利保障视角对人工智能侦查应用进行规制。
一、我国人工智能侦查应用的类型解构与逻辑分析
在刑事侦查活动中,人工智能服务于侦查机关预防、追诉和控制犯罪的目标,逐步推动刑事侦查的数字化和智能化转型。为厘清人工智能侦查应用对公民权利的干预和影响,有必要先对人工智能侦查应用的现状展开剖析,以明确人工智能如何通过对特定或不特定主体的个人数据和信息进行分析研究,进而辅助乃至替代侦查主体完成侦查任务。
(一)我国人工智能侦查系统的类型化梳理
人工智能性能的快速发展和出错率的大幅降低,为人工智能在侦查领域的普遍应用奠定基础。将人工智能技术与刑事侦查业务需求相结合,可将当前人工智能侦查应用分为以下四种类型。
一是犯罪预测型人工智能系统。此种人工智能使用侦查机关所掌握的历史犯罪数据,预测犯罪行为可能出现的地方、参与犯罪活动的人以及成为犯罪活动受害者的高风险人群。其并非具有预测特定犯罪将会在何时何地发生的能力,而是估计犯罪的总体可能性,从而引导公安机关的侦查方向。犯罪学中犯罪发生与地点环境、社交网络之间的关系理论是犯罪预测型人工智能的元理论。将这些理论简化为数据点,建立以机器学习为内核的人工智能模型,就可以运用定量分析方法评估有可能与犯罪活动相关的时间、地点和个人。根据预测维度的不同,可将犯罪预测型人工智能分为基于地点的预测和基于人的预测。前者需要辖区内的历史犯罪数据、犯罪相关人员数据、环境因素数据以及社会经济数据等多方面数据的支持;后者依托于犯罪记录数据、社交网络数据、个人基本信息数据、环境与行为数据等数据库,开发有可能在未来犯罪或成为犯罪受害者的个人预测档案。
二是风险评估型人工智能系统。相较于犯罪预测型人工智能从抽象到具体预测热点地区或热点人物的模式,风险评估型人工智能则直接聚焦特定个人,评估其复行犯罪和妨碍诉讼的社会风险性,为侦查机关适用强制措施提供决策参考。此种风险评估型人工智能提供了对个人社会风险性的可能概率,而不是确定性的预测。这种评估源于人身危险是行为人动态人格呈现的犯罪学理论。通过社会行为史、社会人格模式、社会态度和认知以及社会交往等个体特征数据,可以对实体人格进行评估,进而呈现其社会风险性。该模型使用高级统计和机器学习方法,如梯度回归或梯度提升决策树,输出低、中或高风险的评估结果。例如,北京市通州区人民检察院基于检察业务数据库,划分出3大类25项风险评估因素,建立了逮捕和羁押必要性审查社会危险性量化评估模型,实现了犯罪嫌疑人社会风险性的量化评估。
三是识别监控型人工智能系统。此类人工智能根据生物识别、计算机视觉、数据挖掘和复杂模式比较技术,能够自动化地识别和监控犯罪嫌疑人。识别是确定个人与个人身份之间的关联,监控是收集、记录、储存、处理和控制个人信息。识别需要监控所提供的信息,监控需要识别以明确追踪对象,两者之间存在紧密的联系。一方面,人工智能通过对特定指纹、掌纹、面部、虹膜、声音、签名、步态、静脉纹路、心电图或者DNA信息与中央生物识别数据库的比较分析,精准确定或核实特定主体身份。例如,苏州市机智空间管理系统通过整合指纹、足迹、DNA等多种信息,采用先进的智能匹配算法和多维比对模式,为刑事技术专业比对认定提供了全方位的技术支持。另一方面,数字设备记录大量人类数据,通过收集、记录、存储这些数据就可以实现对人的物理痕迹和数字痕迹的全方位监控。例如,榆林市公安局警务视频大模型通过关联分析人员的社交关系、活动轨迹、通讯记录等多源数据,绘制出动态的犯罪网络图谱。
四是证据收集分析型人工智能系统。此类人工智能通过机器学习、自然语言处理和其他方法,能够自动化收集和分析数字设备和数据,增强侦查人员发现、分析证据的能力,从而提高取证分析的能力、速度和准确性。证据收集可分解为证据潜在来源识别和证据保存两个步骤,人工智能不仅能够实现物理证据识别和数字化保存,而且能够从计算机、移动设备、网络流量、云空间中挖掘、识别和发现电子证据。在证据分析环节,人工智能可以识别一致或异常的模式,对大量数据集进行组织和分类,分析大量基于文本的证据,自动化关联不同来源的证据。例如,苏州市公安局机智空间管理系统能够全面采集刑事案件现场勘验信息,实现提取、检验、保管及处置证据的全流程记录和管理,并采用先进的智能匹配算法和多维比对,实现多源数据的综合比对功能。
(二)我国人工智能侦查运行的核心特征
第一,以人工智能可信假设为基本前提。一方面,侦查机关青睐人工智能的自动化数据处理能力,主动建立对人工智能的信任。在刑事侦查活动中,侦查机关对海量数据往往又爱又恨。虽然海量数据中潜藏着大量案件线索和证据,但是依靠人力审查既不现实也不高效。人工智能在强大算力的支撑之下,依托特定的算法结构,能够自动化处理和分析数据。另一方面,侦查机关缺乏理解和控制人工智能运作的能力,从而被动建立对人工智能的信任。受人工智能技术复杂性的影响,人工智能使用者往往难以客观理解和评估人工智能的能力,从而产生人机协同障碍。但是为了提高侦查效率,侦查机关仍需建立对人工智能的信任,以协调侦查机关和人工智能之间的关系。
第二,以公民数据为主要分析对象。公民常常处于被预测、评估或者监视的处境,成为人工智能系统分析的对象。一方面,在人工智能侦查大模型的设计环节,与犯罪活动相关的公民数据数量和质量决定大模型的性能。人工智能侦查模型的性能需要经过预训练、监督微调以及强化学习的过程。这一过程需要大量历史犯罪数据和公民信息数据,在循环反馈中提升模型的能力。另一方面,在人工智能侦查的应用环节,上述四类人工智能侦查应用均以人为分析核心,从人的身份、行为、话语、风险等方面展开全方位的数据收集和信息挖掘,从而实现其预设功能。例如,犯罪预测型人工智能测算犯罪行为可能出现的地方、参与犯罪活动的人以及成为犯罪活动受害者的高风险人群。风险评估型人工智能评估犯罪嫌疑人的社会危险性。监控识别型人工智能记录存储公民信息,进行人身同一性识别。证据收集分析型人工智能对人类行为留下的物理痕迹和数字足迹进行挖掘分析。
第三,以数据分析结论辅助人类经验判断。一方面,人工智能侦查应用的运作模式是得出数据分析结论。犯罪预测、风险评估、识别监控、证据收集分析型等侦查人工智能均属于决策式人工智能。例如,犯罪热点地区和热点人群的预测结论,犯罪嫌疑人的社会风险性评估报告,犯罪嫌疑人识别和监控报告,以及证据收集分析报告。另一方面,人工智能侦查应用的定位为辅助型角色,即辅助侦查人员进行侦查决策。相较于行政领域直接推行以人工智能替代人类进行自动化决策,刑事司法领域中的人工智能应用则必须且只能处于辅助人类决策的地位。犯罪预测型、风险评估型、识别监控型、证据收集分析型等侦查人工智能的数据分析结论,直接与侦查机关是否开展预防和追诉犯罪活动息息相关,事关对公民权利的国家强制干预和剥夺,必须由侦查人员进行经验审查和判断。
二、人工智能侦查应用对公民权利的现实威胁
人工智能侦查应用大放异彩的同时,也隐藏着侦查机关隐性扩张权力从而过度干预公民权利的隐患。人工智能不仅为侦查机关提供了新的公民权利干预手段,而且使得传统侦查手段更具权利侵扰性。同时,人工智能潜藏着的偏见、歧视和错误,也会随着侦查机关对人工智能的信任而作用于公民。由此,公民在人工智能侦查应用中处于不利地位,保障公民权利面临着新的威胁和挑战。
(一)过度扩张干预权利的范围
一方面,人工智能侦查干预权利范围从特定犯罪嫌疑人权利扩张至普通公民权利。传统侦查活动的干预范围限定于有犯罪嫌疑的特定主体权利。根据我国刑事诉讼法的规定,在满足“有犯罪事实发生需要追究刑事责任”的立案条件后,侦查机关才能实施刑事诉讼法授权的侦查行为。特别是强制侦查行为直接干预公民权利,其适用必须满足特定主体加特定犯罪嫌疑的要求,侦查机关不能单凭猜测任意推定适用于不特定主体。人工智能侦查则将干预范围扩张至普通公民的权利。在人工智能技术的加持下,侦查机关在具体犯罪事实尚未发生之前,便对具备特定特征的人群进行犯罪风险预测;在犯罪事实发生之后,利用公共数据库信息识别和追踪犯罪嫌疑人。这些功能的实现不仅将普通公民纳入普遍犯罪嫌疑范畴,而且以牺牲普通公民隐私权和个人信息权为代价。譬如,苏州市公安局部署的犯罪预测系统,从根本上突破了传统侦查“以特定犯罪嫌疑人为对象”的干预范围。该系统对普通公民数据信息进行无差别采集。其以苏州市10余年1300余万条历史警情数据为基础,整合7.8亿条社会公共数据库信息,纳入治安管理相关信息和公民生活化信息等382种变量类目,并且运行过程中还在持续更新和扩充数据库。其数据收集并非聚焦于特定嫌疑主体,而是覆盖苏州市域普通公众,从而形成一种无差别、普遍性和持续性的公民数据干预模式。
另一方面,人工智能侦查干预权利范围从单一性权利扩展至复合性权利。在物理世界中,公民权利结构依托于有形体,诸权利之间相互平行、泾渭分明,侦查活动的权利干预范围往往为单一性权利。而在物理世界和数字世界双循环架构下,建立在自然人基础上的物质性权利,逐渐向基于数字化信息人的数字权利扩张,新兴数据权利不断涌现。数据权利呈现出束状开放结构,包括数据生产者、处理者、主权者等多元主体的利益和诉求,兼具实体性和程序性双重属性。并且,公民隐私权、个人信息权和数据权之间呈现出你中有我、我中有你的交融状态。在此背景下,以大规模数据收集和分析为手段的人工智能侦查,其权利干预范围往往扩展至多元主体的复合权利和单一主体的复合权利。例如,江苏昆山警方部署“主战主防”智慧侦查模型,该模型能够实时获取犯罪嫌疑人的定位数据,调取通信信息和社交平台聊天记录,收集银行流水和交易记录,监控和冻结银行账户。并且通过算法模型深度分析和挖掘犯罪嫌疑人的行踪轨迹、社会关系、生活习惯等信息,甚至关联其家庭成员的财产信息以追踪资金流向。其权利干预范围横跨人身权、财产权等多个权利领域,对涉案人员和案外人员的隐私权、个人信息权、通信秘密权和财产权进行了交融式、叠加式、连锁式干预,单一侦查行为直接干预多重主体的复合权利。
(二)大幅增加干预权利的强度
首先,人工智能侦查实现了对公民权利的深度穿透干预。受到人类认识能力和办案资源的限制,传统侦查活动遵循“由人到案或由案到人”的侦查模式,只能探求与犯罪相关的表面信息,对公民权利的干预属于外部干预。侦查人员的侦查活动往往从获取已发生案件所遗留的痕迹和信息入手,例如,对犯罪现场进行勘验检查,收集和提取现场遗留的证据。而人工智能侦查则遵循“由数到人、由数到案”的侦查模式,从对案件信息的公开探求,转向对人格信息和私密数据的深度解析和隐秘窥探,对公民权利进行深度穿透干预。人工智能侦查运行要获取的信息不限于案件本身,其通过汇聚海量微小公民行为信息,凭借机器学习算法梳理、关联和推导出侦查人员难以察觉的隐性信息,最终形成干预公民权利最为深刻的公民数据档案或者人格画像,穿透公民的个人情感和私密信息。例如,新乡市检察机关在查办朱某徇私枉法案时,应用结构化数字侦查模型采集朱某的银行流水信息、出行轨迹数据以及社交软件数据等日常生活信息,形成与朱某相关的人格画像与行为图谱后,围绕朱某异常行为的侦查假设进行样态分析,提取出朱某泄露案情、指导销毁证据、收受好处的关键证据。
其次,人工智能侦查形成对公民权利自动化、实时化和持续化的干预态势。在办案资源、手段和期限的多重限制下,传统侦查活动对公民权利的干预具有明确的时空边界。在空间维度上,传统侦查活动对公民权利的干预具有间歇性和片段性;在时间维度上,传统侦查活动对公民权利的干预附着于具体案件,受到侦查期限规定的明确限制,即便侦查机关可以申请延长侦查期限,但最终也会随着侦查程序的终结而停止。而人工智能侦查则依靠自动运行的算法和不断产生的公民数字信息,突破了物理世界对侦查活动的时空限制。训练得当的人工智能侦查模型能够自动采集多源数据,依据机器学习算法模型自动识别异常特征或模式,同时自动触发相应的干预措施。例如,温州市建构“反诈大脑”模型,该模型能够自动监测海量电信和社交平台数据,运用自然语言处理技术实时分析与识别诈骗语义,自动向可能的受骗者推送预警信息,封堵涉诈电话号码,冻结相关账户。
最后,人工智能侦查对公民数据权利的干预愈演愈烈,但是并未受到刑事诉讼法的规制。在刑事侦查活动中,侦查机关能否干预公民权利以及如何干预公民权利受到法律保留原则和比例原则的双重限制。易言之,国家承担着保护公民基本权利的义务,侦查机关只有遇到程序运行的客观障碍且获得法律特殊授权时,才能采取干预公民权利的措施,且须将对公民权利可能造成的侵犯限定于最低程度。由此,刑事诉讼法形成了对公民权利干预强度各异的侦查措施的控制体系,以平衡犯罪控制和人权保障之间的关系。人工智能技术应用于侦查环节,不仅为侦查机关提供了新型案件侦查手段,而且极大地赋能传统侦查措施,显著地提升侦查机关预防和控制犯罪的能力。然而人工智能侦查以公民为研究分析对象,直接干预公民数据权利的核心领域。相较于传统侦查措施对人身自由、住宅隐私或财产权的限制,其对公民权利侵害可能造成的深度和广度也不容忽视。当前刑事诉讼法对人工智能侦查应用的监管和控制处于真空状态,人工智能侦查对公民权利的干预未受到有效的程序性控制。这导致侦查权控制体系逐渐被侵蚀,侦查活动对公民权利的干预强度不断增加。
(三)不当压缩权利救济的空间
一方面,人工智能侦查应用侵蚀公民寻求权利救济的前提,即公民难以察觉人工智能侦查行为对其权利的不当干预,从而将救济权搁置。传统侦查措施对公民权利的干预具有外部可见性和物理强制性的特点,公民能够清晰知晓其对公民权利的限制,从而在其权利受到不当干预时提起救济。例如,拘传、取保候审、监视居住、拘留和逮捕直接干预和限制公民的人身自由权,搜查、查封、扣押和冻结直接干预和限制公民的隐私权和财产权。这些强制性侦查措施是侦查机关在必要时,依靠国家强制力实施的物理干预行为,具有外部可见性和强制性。
人工智能侦查则呈现出隐秘不可见和强制力无形化特征,这使得公民难以察觉人工智能侦查对其权利的不当干预。其一,人工智能侦查是一种数字化、信息化侦查模式,其对公民权利的干预具有无形性和非接触性。其依靠具有机器学习能力的人工智能自动搜集、关联和使用数据,映射犯罪嫌疑人的人际关系和行为习惯,将数据去匿名化以锁定犯罪嫌疑人、关联不同数据集进行推论等。例如,美国执法机关应用Clearview AI数据库,在公民毫不知情的情况下,利用自动化爬虫技术,从社交媒体、新闻网站等公开平台抓取超过600亿张人脸图像。其二,深度学习赋予了人工智能系统自主决定处理事件的基准,但是深度学习的复杂神经网络系统也使得人工智能的内部工作方式和决策逻辑“黑箱化”,进而导致人工智能侦查的内部运作过程难以被观察。人工智能侦查对公民权利的干预隐藏进了算法流程和优化参数之中,其对公民权利的限制从物理直接干预转向数字化影响、渗透和操控。其三,侦查机关将人工智能侦查系统的部署和使用情况,视为其内部工作事务或者保密事项,并未向社会公众披露,遑论在具体案件中将人工智能使用情况告知被干预主体。我国尚无公开人工智能侦查系统使用情况的相关规定,这意味着因草率利用人工智能酿成错误侦查的具体数字根本无从得知。
另一方面,人工智能侦查应用削弱公民寻求权利救济的能力,公民难以证明人工智能侦查对其权利的不当干预,从而无法得到救济。刑事诉讼法为了有效救济公民权利和震慑违法侦查行为,对于尚未执行或者正在执行中的强制性措施,赋予当事人申诉和控告权,以及时变更或者撤销该强制性措施;对于执行完毕无法撤销的强制性措施,允许当事人申请确认侦查行为违法,并排除违法侦查行为取得的证据。当事人为了获得有效救济,必须提出申请并提供初步的证据或线索,以论证侦查行为的违法性。根据这些线索或材料能够初步勾勒特定主体与特定行为、特定行为与特定侵害结果之间关系。传统侦查行为主要发生在物理空间,由特定主体实施,造成的损害结果是明显有痕和可观察的。在此框架下,当事人能够确定违法侦查的行为主体、行为方式与损害结果之间的因果关系。
人工智能侦查发生在数字空间,由人工智能体自动实施,造成的损害结果是隐性和不可见的。这些因素相叠加就形成不透明、高度复杂、相对自主的人工智能侦查系统。当事人难以确定违法侦查的行为主体,也难以证明人工智能侦查行为与损害结果之间的因果关系。首先,人工智能侦查是由人工智能隐秘地自动进行,既无与当事人的物理接触,也无须出示相应法律文书。其次,难以确定侵害结果是由人工智能系统造成,还是侦查人员造成的。最后,人工智能系统是否具有刑事诉讼主体地位也存在极大争议。因此,当事人往往难以找到可以质疑的对象,难以勾勒出相关因果关系。例如,《华盛顿邮报》调查发现,美国12个州的15家警察局仅凭人工智能的人脸识别结果便确定嫌疑人,已造成至少8人无辜被抓。遭马里兰州警方错抓的阿朗佐·索耶说:“我知道我是无辜的,但我怎么才能打败机器呢?”
三、人工智能侦查应用权利保障的法治路径
人工智能技术和侦查活动的深度融合,催生出新型不受控制的人工智能侦查权。这种权力是极易扩张的侦查权与携带技术、伦理风险的人工智能相叠加的产物,在某种程度上对公民权利产生了极大威胁。应当从基本权利的防御功能和国家保护功能出发,强化侦查机关的人工智能侦查应用的注意、防范和保障义务。
(一)设定层次化的人工智能侦查权力边界
在人工智能侦查应用的权力规制思路上,应当遵循风险的分类分级思路,构建层次性权力控制模式。根据我国人工智能侦查应用情况,可以区分出三种使用方式:一是预测性,对“可能发生的犯罪风险或人身危险”进行分析,形成对可能发生之事的预测,或者计算未来事件的概率。二是描述性,对“已经和正在发生什么”的分析,即客观呈现已经和正在发生案件的事实全貌与数据状态。三是解释性,对“为什么会发生”的分析,通过整合各类证据,拆解“案件为何发生”“证据与事实如何关联”“作案行为为何呈现特定形态”等关键问题。以对现实事态和主体权益的影响程度为标准,预测性使用会标记特定对象,并引发后续对特定对象的权利干预。而描述性和解释性则不指向特定对象的行为限制或者权益调整。在上述侦查人工智能中,能够预测未来的人工智能侦查系统能够引发潜在的干预行为,对公民权利的威胁性最大;描述性的人工智能侦查系统会涉及对公民的实时监控和数据存储监控,对公民权利的威胁性次之;解释性人工智能侦查系统涉及数据的解析、关联和分析,对公民权利的威胁最小。因此,只有设定一种层次化的人工智能侦查权力边界,才能适配不同类型人工智能在侦查活动中的有效运作。
首先,对于具有前瞻性、通过预测能够影响实际情况的人工智能侦查系统,必须严格确定其应用边界。犯罪预测型人工智能将刑事追诉建立在可靠性程度难以衡量的“数据线索”上,一旦出错将会对公民权利造成不可逆转之侵害。因此,对于犯罪预测型人工智能必须适用绝对的法律保留,即部署和适用预测型人工智能必须有法律的明确规定。预测型人工智能的适用应当符合比例原则的要求。其被允许适用案件范围应当限定在涉及国家安全、严重暴力、有组织和涉众型犯罪中。在选择适用预测方法时,首选适用基于地点的预测,而非适用基于人的预测。在进行决策时,不能单凭预测结果就启动侦查活动,必须有其他证据或者线索相佐证。风险评估型人工智能影响对妨碍诉讼风险尚未发生的犯罪嫌疑人采取何种强制措施的判断,其出错对于犯罪嫌疑人的侵害较低。因此,风险评估型人工智能可以适用相对法律保留,即要有相当于法律位阶之规范作为依据。风险评估型人工智能的适用无须受案件范围的限制,但是依旧不能仅根据社会风险性量化评估结果就决定强制措施的适用,应当辅之以其他客观情节或者表现。
其次,对于呈现当下或者过去的人工智能侦查系统,可以确定相对严格的应用边界。根据识别监控型人工智能对现实的影响,可将其划分为呈现当下和回溯过去的人工智能。其判断过程涉及大量的个人敏感信息,判断结果关乎犯罪嫌疑人的确认、案件事实的复原,但是并不构成对未来的预测。因此,在外部,对于识别监控型人工智能可以设定相对严格的应用边界。在内部,要对呈现当下和回溯过去的识别监控型人工智能进行差异化对待。对于呈现当下的识别监控型人工智能,其部署和应用可以适用相对的法律保留;其适用的案件范围应当限定于可能判处三年以上有期徒刑的刑事案件中;其运行目的应当限定于确认特定主体身份和行为轨迹,避免泛化监控;其应当遵守相对检察官保留原则,即在使用之前应当得到检察官的明确授权,例外紧急情况下可以先行适用,适用之后应当在24小时之内获得检察官的授权。对于回溯过去的识别监控型人工智能,其属于查证案件事实的技术性事项,其部署和应用可以由侦查机关自行制定部门规章,不违背法律即可。其适用限定于具体的犯罪案件,由侦查机关内部审批决定实施。
最后,对于描述或者解释过去的人工智能侦查系统,可以进行宽松化规制。证据收集分析型人工智能具有快速解析数据、实时检测威胁以及从高级数据分析中获得见解的功能。相较于预测未来和呈现当下的人工智能侦查系统,其对现实情况和公民权利的影响都相对较小,从整体上可以采取宽松化的规制思路。根据功能的不同,可以将此类人工智能侦查系统细分为证据收集型和证据分析型人工智能。证据收集型人工智能的功能为取证和存证,关涉证据合法性和公民权利干预问题。其部署和应用可以适用相对的法律保留,其在运行中应当严格遵守比例原则的要求,采用与案件严重程度相匹配的检查手段,收集与案件相关的证据,不得过分扩张证据收集范围;其实施应当经过侦查机关内部审批决定。证据分析型人工智能的功能为分析、挖掘、解释和评估证据隐藏的信息,其属于侦查机关分析和研判证据内容的技术性事项,可以适用比证据收集型人工智能更为宽松的规制机制。其部署和应用可以由侦查机关自行决定和自行实施。
(二)侦查机关承担防控人工智能技术风险的义务
基本权利的国家保护功能,要求国家积极消除公民基本权利在实现上可能遇到的阻碍。根据利益与风险一致原则,侦查机关作为人工智能系统的部署和应用者,对人工智能侦查活动具有实质控制力。其在享受人工智能对侦查活动助益的同时,有义务防控人工智能技术对公民的不当戕害。
1. 人工智能侦查系统部署前的测试义务
人工智能侦查系统部署前,侦查机关负有测试义务,须对算法公平性、结果准确性、模型安全性等事项进行彻底测试,判断其是否符合应用所要求的安全和监管标准。这种测试义务由测试标准、测试主体和测试结果三部分组成。首先,应当制定人工智能侦查系统的安全应用标准,以便统一规范全国侦查机关对人工智能侦查系统的部署。全国网络安全标准化技术委员会发布《政务大模型应用安全规范》,提出了模型选用测试、部署测试、运行测试和安全防护测试四方面要求。这对人工智能侦查系统安全标准的设置,具有极大的启发意义。人工智能侦查系统的安全标准,可以在这四项测试事项的基础上,遵循算法公平、结果准确和模型安全原则,对服务提供商资质、合法合规标准、配套设施性能和数据隐私安全等内容进行丰富和完善。其次,根据人工智能技术复杂性和侦查活动专业性的特征,人工智能侦查系统的测试主体应当由侦查机关与独立技术测试方共同组成。在侦查机关提供侦查活动的规范和实践要求下,独立技术测试方模拟实际端到端部署后的本地运行状况,在各种输入、条件和边缘情况下测试该系统,力求全面反映复杂社会背景下人工智能侦查系统的表现。最后,应当将测试结果与测试标准相对照,以判断是否可以部署该人工智能侦查系统。若测试结果符合相应的安全标准,应当将测试内容和各指标项评分进行公开,以证明部署该人工智能侦查系统的合法性;若不符合安全标准,则不应当部署该人工智能侦查系统。
2. 人工智能侦查系统应用中的监督管理义务
人工智能侦查系统应用中的监管义务,要求侦查机关在应用特定人工智能侦查系统时,必须对输入端的数据质量、运行端的算法表现和输出端的结论使用等事项进行全面的监督、管理和记录。首先,在侦查人工智能系统的输入环节,侦查机关需要监督所使用数据获取和处理的合法性,并管理数据的质量。我国人工智能侦查系统采取的是“开源大模型+侦查数据库=侦查业务大模型”的发展模式,侦查数据库中数据的质量、数量和多样性,能够决定人工智能侦查系统的性能上限。随着社会发展和犯罪活动的发生,侦查数据库始终处于动态扩充中,其积累的大量公民个人信息,一旦泄露或被错误使用,极易引发对公民的伤害。而且由于程序缺陷,该数据库中也会存在错误信息。因此,侦查机关需要按照《个人信息保护法》《数据安全法》的规定,对数据使用行为的安全性和隐私保护情况展开监督,并对输入数据的质量进行把关。
其次,在人工智能侦查系统的运行中,侦查机关需要对算法表现进行持续监督。在对源头输入数据进行控制后,尚需要持续监测该系统的算法。算法是串联源代码和模型架构的数理逻辑,其蕴含的偏见、歧视和错误因素,会直接影响人工智能侦查系统的性能安全和稳固。侦查机关需要对算法的表现进行持续监测,区分系统故障、错误与人为故意、过失,及时报告和干预参数,以保障系统的准确性和可靠性,消除涌现的偏见和歧视。
最后,在人工智能侦查系统的输出环节,侦查机关需要管理其输出结论的使用方式。在当前的法律框架下,人工智能不具有主体地位,其运行的稳定性和可靠性是无法保障的,其机器学习逻辑存在无法解释的黑箱问题,因而是无法取代人类进行决策的。对于人工智能侦查系统输出的结论,侦查机关应当将其作为辅助信息收集和分析的材料,经过人工审查和验证之后,才能作为决策依据。同时,为了避免部分侦查机关仅依据其输出的结论便进行侦查决策的行为,侦查机关内部应当制定人工智能参与侦查决策的使用流程和指导方针,以确保人工智能侦查系统输出的结论得到人工审查。
3.人工智能侦查系统应用后的审查评估义务
人工智能侦查系统应用后的审查评估义务,要求侦查机关在人工智能侦查系统投入应用之后,要定期审查该系统的使用情况和整体表现,定期评估该系统在遵守法律和保障人权方面的状况,并根据审查评估结果判断该系统的公平性和可靠性,评判系统隐患的严重程度,及时适用更新、修正、退役或者禁用的举措。相较于初始部署阶段和运行阶段,对人工智能侦查系统的短暂测试和局部性监管,事后的定期评估更具整体性、全面性和动态性,能够反映该系统随着社会化部署和使用而出现的新问题,从而有利于及时采取应对措施,防控对公民权利的不当影响。首先,侦查机关应当建立人工智能侦查系统的周期性审查评估机制。该机制由审查评估主体、周期和内容三部分组成。可以考虑由独立第三方作为审查评估主体,以季度或者年度为周期,对该周期内参与案件办理的人工智能侦查系统运行的后台数据进行审查。其次,侦查机关应当着重审查人工智能侦查系统在准确性、公平性和合法性等关键指标的表现。结合侦查机关对该系统输出结论的采纳率和现实案件的真实情况,就可以评估该系统的准确性和可靠性。从该系统运行的后台数据和侦查机关建立的运行文档中,可以对算法、数据源、训练程序和性能进行分析,从而检验其公平性和合法性指标。最后,侦查机关应当根据审查评估结果,对人工智能侦查系统作出不同的决定。若该系统表现良好,则可以继续更新使用;若该系统存在可修正的漏洞或隐患,则需要及时补救、纠正;若该系统存在难以修正的重大漏洞或者难以适应新情况,则需要考虑停用。
(三)建立人工智能侦查应用的权利保障机制
建立人工智能侦查应用的数据和隐私保护机制。首先,我国《个人信息保护法》和《数据安全法》为刑事诉讼中保护个人信息,提出了公平信息实践和国家总体安全的要求。侦查机关必须确保人工智能侦查系统遵守这些规定。其次,根据公平信息实践理论和国家总体安全的要求,侦查机关作为信息控制者和处理者,必须合法合规控制和使用人工智能侦查系统,承担相应的组织和技术保障义务。在组织保障上,侦查机关内部要设置个人信息保护和数据安全负责人,其负责监督和指引本机关人工智能侦查的数据收集和处理活动。在技术要求上,要建立数据分类分级管理、数据加密或去标识化、访问记录和控制、数据屏蔽和安全存储等一系列技术规范。通过实施隐私增强和数据加密的技术手段,最大程度排除人为干扰或不当泄露,形成系统性公民隐私和数据安全保护机制。最后,还需要明确具体侦查机关在个案使用人工智能侦查系统的数据要求。在数据收集的范围上,要严格遵守比例原则和相关性原则,确保只收集必要和相关的数据。在数据的使用上,侦查机关必须遵守目的限制原则,确保数据仅用于特定、明确和合法的侦查目的,并且不会以与这些目的不相容的方式处理。在数据的存储期限上,必须严格限制在处理数据目的所必需的时间内。当不再需要该类数据时,应安全删除或进行匿名化处理,以最大限度地限制未经授权的访问或降低滥用的风险。
建立人工智能侦查应用的公民知情权保障机制。在人工智能侦查应用中,保障公民的知情权具有多重意义。其一,知情权是公民行使救济权利的基础,只有利害关系人知晓侦查机关在作出对其不利决定时采用了人工智能侦查系统的结论,才能主张申诉或控告的救济性权利。其二,知情权是促进公民对人工智能侦查应用信任的必要条件。通过持续的信息公开保障公民的知情权,使公众信任和接受,才能将人工智能技术成功整合到侦查活动中。其三,知情权对于公民监督和制约侦查机关的权力至关重要。要建立人工智能侦查应用的公民知情权保障机制,应从破解人为制造的黑箱和机器制造的黑箱两方面展开。一方面,为破解人为制造的黑箱,侦查机关需要建立人工智能侦查系统部署和应用的沟通和披露机制。侦查机关在部署人工智能侦查系统时,应当提供人工智能系统的相关信息,包括应用情况、功能参数、系统局限性和维护更新日志等。侦查机关在具体个案中应用人工智能系统时,应当主动告知相对人使用人工智能的情况,并披露对人工智能结论的使用和采纳情况。另一方面,为破解技术制造的黑箱,侦查机关应当持续促进人工智能侦查系统的可解释性。最为直接的做法便是,向当事人披露该系统的运行算法、参数和输入数据,并要求当事人签署保密协议,从而兼顾人工智能系统服务提供商的商业保密需要。此外,还需要持续引进新技术和工具。例如,可视化技术能展示深度学习模型的决策过程,使当事人理解该系统的决策逻辑。