摘要:人工智能(AI)在刑事司法领域中扮演着越来越重要的角色,典型应用案例如风险评估系统(RAI)的部署在美国引发争议—— RAI在提高效率的同时也带来了偏见与不公平的可能性。随着中国在司法领域中引入AI,RAI的已有经验可以提供什么教训?
人工智能(AI)正在全面性地渗透到社会的不同领域。随着科技的发展,智能技术也为包括公共安全在内的社会问题提供了越来越多的解决方案。特别是在刑事司法中,人工智能具有多种用途,包括收集和分析证据、预测和预防犯罪以及指导司法决策和量刑。在中国,法院的数字化也已经起飞。最高人民法院首席法官兼最高法院院长周强表示,中国法院致力于将现代技术与司法程序相结合。我国的司法体系将在智能化中越发依靠算法辅助,这也表明人工智能将能够更直接、更实质地参与司法决策。因此,必须充分了解算法工具的优点和潜在危险,以确保与刑事司法原则的兼容。
一 司法决策中的典型AI应用:美国风险评估系统(RAI)
美国的监禁率比世界上任何其他国家都要高——截至2016年,每38个美国成年人中就有一个正在教养所。降低监禁率和改革刑事司法的压力促使美国转向智能工具。风险评估系统(RAI)使用被告人的个人资料来预估累犯评分。该分数将助力于法官决定能否释放被告以及该罪名。例如,在肯塔基州,早在1976年就使用了风险评分,以出庭的概率来分配评分。次风险框架将每个被告标记为低,中或高风险,从而使法官能够做出更加透明和客观的决定。
从理论上讲,RAI旨在为刑事司法带来众多好处。一方面,如上所述,该算法工具在风险评分中采用了清晰的清单式标准。肯塔基州在2011年通过了HB 463立法,要求审前使用风险评分,以降低监禁率。如果法官能够更科学地判断在审判前将哪些被告送进监狱,监狱人口过多的经济负担就可以得到减轻。此外,研究表明,与人类决策相比,RAI的统计模型表现更为一致。由于算法的评估标准具有透明性,法院能够更好地解释决策背后的理由。因此,越来越多的州,包括处于刑事司法改革前沿的加利福尼亚,已经转向了RAI来满足其刑事司法的需求。
但是,RAI的普及也带来了激烈的辩论。其中, RAI主要有三个令人担忧的原因。
首先,与机器学习的核心一样,RAI能够找到数据中的趋势。但是,算法是通过使用历史犯罪数据进行训练的,而历史犯罪数据通常会因带有偏见的警务和不完整的数据收集(“dark figures”)而歪曲。正如美国数学家Cathy O'Neil在她书中所说道,当机器学习算法使用有偏见的统计数据时,就会进一步对贫困和有色人种造成伤害,产生一个恶性循环。因此,使用RAI可能会复制和放大偏见,从而破坏公平公正的司法体系的原则。
第二,RAI的机制提出了一个群体和个人之分的问题。正如在2016年威斯康星州最高法院的著名案件Loomis v Wisconsin中提到,RAI并未提供了准确的个人风险评分。相反,风险预测基于与集体数据的相似性及其历史趋势比较。梅利莎·汉密尔顿(Melissa Hamilton)指出,将基于群体的数据转换为个人评估很容易“漏洞百出”。当不清楚算法输出会如何被使用者理解时,RAI的风险评分很容易被错误理解。因此,找到与司法体系人员正确沟通风险的形式至关重要。
最后,尽管RAI能够识别出再犯可能性,这种识别仍然只是一个未证实的相关性。RAI无法证明相关性是否对应真实的因果关系。例如,如果低收入人群与高累犯相关,这种相关性并不能作为确定低收入会引起犯罪的证据。RAI并非旨在识别犯罪的社会经济因素,但如果不仔细的解释,其输出很可能会导致因果关系存在的假象。同样,相关性也必须由人类使用者来理解并给予意义,但人类可能会带入个人政治取向和价值观并施加认知偏见。为了使RAI评估更具参考价值,可以使用贝叶斯优化(Bayesian Optimization)来指示风险评分的确定性。然而,确定性因素在RAI评估结果中的重要性仍然是一个模糊点。
二 中国司法系统中的AI
尽管RAI远非刑事司法的灵丹妙药,此类工具确实为AI对司法体系的影响提供了重要见解。虽然我国目前还未使用像RAI一样的风险评估系统,AI已经应用于许多公共安全相关领域,包括面部识别、DNA分析和档案数字化。自2017年以来,贵阳市通过大数据办案系统处理了419起刑事案件和480人。同时,与去年相比,办案时间减少了30%,因证据不足的不批捕率也下降了28.8%。显然,大数据和人工智能为司法体系做出了一定的贡献。但是,我国司法智能化仍在起步阶段并存在着不足。例如,一线办案人员指出了“简易案件不需要,复杂案件不敢用”的问题。
正如最高人民法院院长周强所说,智能化司法体系的雄心可以体现出我国刑事司法的未来规划。参考第十八届四中全会的旨意,人工智能可以助力于“统一证据标准”和 “防范冤假错案”的目标。而在预测性AI提高客观性和效率的同时,算法偏见,数据差错和不明确的相关性都可能造成负面影响。因此,需要找到缓解算法工具缺陷的策略。这些策略可以指导所有司法体系和政策制定者找到适当的途径更好的在刑事司法领域使用AI。在这方面,RAI的已有经验可以提供相关洞见。
三 如何应对算法工具带来的隐患
首先,需要建立一个在法官,算法程序和研发人员之间分配责任的框架。AI责任一直是各个领域长期存在的疑问。如今,随着AI对司法决策影响的增大,明确地界定审判责任变得尤为重要。在Loomis v Wisconsin一案中,COMPAS 评估系统使用了被视为商业秘密的算法,因此无法披露。这将加剧为评估错误或技术漏洞分配责任的难度。为了司法领域公平公正的原则,任何司法体系都必须能够对错误的案件判决有明确的责任承担,在研发人员和使用者之间有清晰的责任划分。此外,随着人工智能在未来获得法律实体的可能性,还必须对智能系统建立适当的惩罚措施,以确保人工智能在刑事司法中的责任性。
第二,根据自然公正(natural justice)的核心原则,任何一个案件都需要能用充分的理由解答其决策逻辑。因此,RAI和类似的工具必须具有一定的透明度,以确保所有相关方充分了解风险评估的前因后果。这也意味着需要对训练RAI的数据进行评估,以确定训练数据和当前案件的兼容性,以及算法输出是否会不公平地对待一些社会群体。而这样的全面评估也将需要数据科学家与特定领域的专家合作来更好的解释RAI的输出。
此外,除了减轻RAI算法偏见的措施外,人类的认知偏见也可能会带来负面影响。Alex Albright对肯塔基州RAI数据的研究揭示了令人担忧的趋势——法官更倾向于否决建议免除黑人被告保证金的算法输出。因此,有必要了解不同的司法人员如何理解RAI的输出。如果要负责任地将AI工具部署到刑事司法中,不仅需要克服算法偏见,而且还必须消除隐性的人为偏见。法官可能需要进行更好的培训,以了解如何最好地理解RAI的意义。同时,可以要求法官为否决RAI建议提供详细的解释。结合消除算法偏见的措施,识别人为偏见对于AI在司法体系中的应用也至关重要。
最后,政策制定者应持续监控智能工具的使用结果,评估其性能并将结果公开发布。不同的司法体系和参与者对人工智能在司法决策中的应用可能会显出不一致而且出乎意料的反应。为了预测和管理这些可能性,决策者应该与研究机构和市场人员合作,以更好地理解司法行为因AI而产生的变化以及算法对刑事司法的长期影响。
四 余论与总结
尽管RAI等工具提供了各种好处,但其缺点也表明人类决策仍不可或缺。特别是在重要及复杂的案件中,应仔细评估智能工具所使用的数据,识别是否存在算法或人为偏见,并保留每个案件不同的相关要素。AI可以会在未来更实质性地影响司法决策并甚至代替人类决策,但法律制度的演进性,例如不断变化的法律和社会规范,将始终需要人类的深度参与。因此,算法辅助决策的目的,不应过于集中于一劳永逸的解决方案。相反,重点应该是通过有效的人类与人工智能的协作来最大幅度地发挥人工智能的正面功能性,从而创建一个更高效、更公平的刑事司法体系。
参考文献
[1]. Završnik, A. (2019). Algorithmic justice: Algorithms and big data in criminal justice settings. European Journal of Criminology, 147737081987676. https://doi.org/10.1177/1477370819876762.
[2]. 谢澍:《人工智能如何“无偏见”地助力刑事司法 ———由“证据指引”转向“证明辅助” 》,载《西北政法大学学报》2020年第5期。
[3]. Hao, K. (2020, April 2). AI is sending people to jail-and getting it wrong. https://www.technologyreview.com/2019/01/21/137783/algorithms-criminal-justice-ai/.
[4]. Chohlas-Wood, A. (2020, June 17). Understanding risk assessment instruments in criminal justice. Brookings. https://www.brookings.edu/research/understanding-risk-assessment-instruments-in-criminal-justice/.
[5]. Simonite, T. (2019, September 5). Algorithms Should've Made Courts More Fair. What Went Wrong? Wired. https://www.wired.com/story/algorithms-shouldve-made-courts-more-fair-what-went-wrong/.
[6]. O'Neil, C. (2017). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Penguin Books.
[7]. Oswald, M. (2018). Algorithm-assisted decision-making in the public sector: framing the issues using administrative law rules governing discretionary power. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2128), 20170359. https://doi.org/10.1098/rsta.2017.0359.
[8]. Marchant, R (2018) Bayesian techniques for modelling and decision-making in criminology and social sciences. Presentation at the conference ‘Automated Justice: Algorithms, Big Data and Criminal Justice Systems’, Collegium Helveticum, Zürich, 20 April. https://collegium.ethz.ch/wp-content/uploads/2018/01/180420_automated_justice.pdf.
[9]. 周济、牛站奎:《人工智能在城市公共安全领域的应用及发展研究》,载《城市蓝皮书:中国城市发展报告No.13大国治理之城市安全》2020年11月, http://www.gzpeace.gov.cn/info/1515/22360.htm。
[10]. 周尚君,伍茜:《人工智能司法决策的可能与限度》,载《华东政法大学学报》2019年第1期,http://www.iolaw.org.cn/showNews.aspx?id=69983。
[11]. 刘宪权、林雨佳:《人工智能时代技术风险的刑法应对》,载《华东政法大学学报》2018年第5期,http://www.iolaw.org.cn/showNews.aspx?id=68399。
[12]. Gillula, J., & Lacambra, S. (2018, December 22). Recidivism Risk Assessments Won't Fix the Criminal Justice System. Electronic Frontier Foundation. https://www.eff.org/deeplinks/2018/12/recidivism-risk-assessments-wont-fix-criminal-justice-system.