王莹:算法侵害类型化研究与法律应对

选择字号:   本文共阅读 233 次 更新时间:2022-09-06 23:52:30

进入专题: 算法侵害     数据与个人信息保护     算法可解释性  

王莹  
国家互联网信息办公室于2021年8月27日发布了《互联网信息服务算法推荐管理规定(征求意见稿)》(下文简称《算法规定(意见稿)》),既旨在规范互联网信息服务算法推荐活动,也为了在《个保法》基础上尝试进行算法规制。

  

   GDPR关于目的限制原则、访问权、免于完全自动决策权、数据保护影响评估等的规定为人工智能系统处理数据提供了关键的制度保障措施,对此,需要在人工智能算法的背景下予以动态解读。微软研究院首席研究员Kate Crawford和Google开放研究创始人Meredith Whittaker联合创立的知名跨学科人工智能研究机构AI Now Institute作出如下论断:“从长期来看,数据保护框架因从对隐私与侵害的个人化而非集体化的理解出发而作茧自缚,无法应对算法贻害无穷的应用。AI系统往往利用故意选择的非个人数据类型对与人群或其所属的社区进行敏感的推断,此时个人数据门槛的保护作用就失灵了。”(46)

  

   因此,GDPR与我国现有的个人信息保护立法中的个人数据规制思维及个人赋权解决方案无法彻底解决算法侵害防治与算法规制问题。欲全面、系统地防治算法侵害,就需要转变数据保护思维模式,将目光从数据源头拓展到算法自动决策过程,需要结合算法自动决策的技术特征实现从静态规制到动态、全流程规制的转变。2017年国务院发布的《新一代人工智能发展规划》(国发[2017]35号)提出,应建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。欧盟人工智能高级别专家组在《可信AI伦理指引》中也强调,鉴于AI系统运行于动态环境中且不断演进,对人类施为与监督、技术鲁棒性与安全、隐私与数据治理等实现可信AI的七个基本要求的执行及评估也必须被贯穿于AI系统的全生命周期,并对执行中的变化进行记录及说明。(47)应在算法设计及应用的全过程吸纳算法决策利益攸关方的不同观点与考量,这有利于对侵害及新问题作出快速回应。

  

   在机器学习算法日益成为主流算法的人工智能技术发展趋势下,算法决策不再是简单的从数据输入到数据输出的线性逻辑推理过程,而是包括数据标记、特征提取、模型训练与调优、算法迭代、模型验证、误差分析、模型融合、回归等步骤的动态的迭代过程。(48)如果仅针对算法自动决策源头的底层数据或个人信息行使更正权,不触及算法决策模型的逻辑错误或整个机器学习算法步骤中的瑕疵,就无法保障决策结论的正确性。(49)例如,在包含自动驾驶系统的自动驾驶车辆准入方面,工业和信息化部于2021年5月8日发布《智能网联汽车生产企业及产品准入管理指南(试行)》(征求意见稿),规定了智能网联汽车产品准入过程保障要求,包括整车尤其是驾驶自动化系统的功能安全过程保障要求、驾驶自动化系统预期功能安全过程保障要求和网络安全过程保障要求,这体现了自动驾驶汽车等人工智能产品在准入层面的算法规制动态性与全流程特征,能够最大限度地降低算法错误的发生概率。

  

   (三)事前规制与事后规制的沟通:建立算法问责制度框架

  

   合法、公正和透明性原则等数据处理原则与访问权、更正权、删除权等数据权利保证了数据的正确性、公正性,与算法影响评估制度一同发挥着事前规制功能与避免产生算法侵害的功能,而在算法侵害产生后,通过因果关系和过错认定进行责任追究,则属事后规制,事前规制与事后规制并行,方能形成算法侵害防治与算法规制的闭环。

  

   1.算法归责困境

  

   算法黑箱带来的关于算法因果关系与过错的认定难题,给传统侵权责任与刑事责任的适用设置了障碍,与事前规制相比,对事后规制的研究与实践在世界范围内均处于早期阶段,呈现出事前规制与事后规制失衡、脱节的特点。

  

   GDPR虽然规定了知情权、访问权和解释权,但对于有关条文如何衔接,以及解释权的具体内容、标准、操作路径等,并无明晰规定。鉴于事前解释、事中解释都仅要求数据控制者告知数据主体抽象的自动决策的逻辑、决策结论可能造成的影响、整体上的决策因素及权重,并不涉及具体决策事项,所以,在事后解释的内容、标准不清晰的情况下,数据主体既无从了解一项算法侵害的成因、机制,也无法提出有意义的质疑及获得法律救济,更无从对算法侵害进行追责。(50)《个保法》第48条及24条关于解释权的规定也较粗疏。针对具体决策结论的关于解释权的模糊规定使得以赋权方式来纠正信息不对称,制衡算法黑箱,以实现对算法侵害的追责与救济的立法期待落空。算法可解释性(尤其是针对具体决策结论的可解释性)在复杂算法(如神经网络算法)中仍然是一个未解的技术难题。技术界的主流观点认为,机器学习算法的可解释性与其精确性和功能之间具有一种负相关关系,(51)若过于强调可解释性,就意味着更简单的算法与更低的精确性与效率。在现阶段,法律对算法可解释性尤其是对具体决策结论的可解释性的追求不能脱离AI的技术现实,以避免制定出无法落地的“未来主义”法条。

  

   我国《个保法》第24条规定,在利用个人信息进行自动决策时,应当保证决策的透明度和结果的公平、合理。有学者认为,该规定是对平台算法的穿透式监管,为平台算法的自动决策的设计、部署、运行与结果输出等设置了注意义务以及以过错责任原则对平台定责的依据,确立了平台算法问责制和以平台治理为核心的算法自动决策治理框架。(52)但实际上,鉴于算法可解释性的技术难题,尤其是在复杂机器算法中,欲将具体决策结果追溯至某个设计缺陷或行为输入,在现阶段不具有技术可行性,不应将可问责性原则作为一种纯粹的事后规制手段,不应将其与传统侵权法、刑法中的过错责任原则作等同理解,期待其发挥后者基于具体侵害场景的预防、威慑与惩戒的功能。国内学者或坚持确立独立的人工智能体责任或算法责任的激进立场,(53)或坚持沿用产品责任等传统责任框架的保守路线。(54)例如,有观点认为,产品责任中的谨慎标准可以延伸到人工智能产品领域,发展所谓的谨慎算法标准,以进行算法归责。(55)但鉴于机器学习的开放性、迭代性、自主性等技术特征,如何确定谨慎义务中的合理标准,在技术上与法律上都仍是一个开放性问题。目前,人工智能法学界对事前规制问题的关注有余,但对事后规制则关注不足,故有必要结合算法的技术特征对传统法教义学的归责原理与责任制度进行适用性检验与扩展性研究,探讨对算法侵害进行归责与追责的方案。

  

   2.算法可问责性及其意义

  

   IEEE《自动智能系统伦理全球倡议》(Global Initiative on Ethics of Autonomous and Intelligent Systems)将算法可问责性原则(Accountability)作为一项重要的伦理原则,要求在算法应用引起侵害或负面后果时应能向算法开发者、使用者追责。(56)GDPR第5条第2款引入可问责性原则,要求控制者对遵守第1款所规定的数据处理原则承担合规责任并对此提供证明,并尝试通过自动决策条款及解释权、访问权等条款建立一套算法问责机制。(57)GDPR第5条也并未将可问责性界定为关于某种具体权利侵害结果的结果责任,而是将之界定为违反数据处理原则的合规责任。可见,不同于传统的责任制度,可问责性制度更类似于一种沟通事前规制与事后规制视阈的制度性工具。

  

   在现阶段,与其悲观慨叹传统责任制度作为事后规制工具的失灵,因坐等技术瓶颈的突破而失去技术发展与规则引领的先机,或者盲目乐观地憧憬强人工智时代人工智能体的独立责任,不如采取现实主义的法律解决方案。一方面,应结合算法侵害的技术机理与传统教义学责任原理积极推进算法归责机制研究,另一方面,应将可问责性原则理解为沟通事前规制与事后规制视域的方法论工具,结合现阶段算法的技术特点,尝试建立沟通事前规制与事后规制的机制,对算法侵害进行过程性管控与应答。算法问责制度工具包括对数据收集、特征提取、算法设计等过程进行的全程记录留痕、认证与审查,(58)应引入算法影响力评估制度,对算法可能产生的负面影响、受决策影响对象的访问权设置及实现路径、侵害发生后的审查或纠正机制等进行评估,以在算法设计与应用的全过程及时对可能发生与已发生的算法侵害作出回应,实现事前规制与事后规制的融通。《算法规定(意见稿)》第7条规定了算法推荐服务提供者的安全主体责任,要求建立健全用户注册、信息发布审核、算法机制机理审核、安全评估监测、安全事件应急处置、数据安全保护和个人信息保护等管理制度等,第8条引入了算法审核、评估、验证等制度,这正是建立算法全流程监管及算法问责机制的初步尝试。

  

   在算法侵害风险较大、影响面更广的领域,如在公共机构算法决策应用方面,美国、加拿大等国已开始推行算法影响力评估制度(AIA)。(59)该措施有助于预估算法侵害,查找算法侵害发生的原因,并据此调整算法模型或数据,优化算法,以防治算法侵害,是促进算法问责的有力规制工具。GDPR第35条设置了数据保护影响力评估制度(DPIA),这被认为是对事后规制不足的一种补强方案,(60)该条要求数据控制者在进行高风险的数据处理前,进行数据保护影响力评估,即通过自动化处理对与自然人相关的个人因素进行系统性与全面性的评价,在大规模处理第9(1)条所规定的敏感数据或第10条所规定的关于定罪与违法的个人数据时,或者在存在公共空间监控的情形中,应对数据处理的目的与必要性、数据主体的权利与自由风险等进行评估。我国《个保法》也规定,在处理敏感个人信息及利用个人信息进行自动决策等情形下,个人信息处理者应当事前就个人信息的处理目的、处理方式等是否合法、正当、必要,就对个人权益的影响、安全风险及所采取的保护措施是否合法、有效等进行评估。

  

   然而,GDPR与我国《个保法》所规定的均是数据保护框架下的风险评估,即数据保护影响力评估,而非算法影响力评估,与算法影响力评估相比,数据保护影响力评估的缺陷主要在于:

  

   其一,对技术正当程序的考量不足。GDPR与我国《个保法》皆不强制要求评估程序必须是外部的或必须引入中立的第三方,未从实定法层面明确外部机构介入评估的必要性,这使得评估的中立性与效果存疑。但算法影响力评估则试图搭建一个联合内部与外部的、联合专业机构与公众的、具有实践性的问责框架,以促进专业人士与公众对算法的民主参与。若纳入外部问责和审计力量,则更能满足技术正当程序的要求,更能展现更完善的协同治理架构。(61)

  

其二,评估内容侧重个人数据安全风险,而非侧重全面、多维的算法侵害风险。如前所述,囿于个人数据保护框架与数据权利思维,数据保护影响力评估旨在事前发现个人数据安全风险,无法覆盖广泛的利用非个人数据进行算法决策所造成的侵害与利用个人数据对集体所造成的算法侵害风险。正如荷兰的社会福利欺诈筛查算法SyRI与预防性警察算法所显示的那样,人工智能系统应用往往对公共利益、个人自治、机会均等、弱势群体的隐私等造成集体性的损害。(62)《算法规定(意见稿)》第8条规定:“算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,(点击此处阅读下一页)

    进入专题: 算法侵害     数据与个人信息保护     算法可解释性  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 民商法学
本文链接:http://www.aisixiang.com/data/136376.html
文章来源:《法制与社会发展》2021年第6期

2 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统