吕炳斌:论个人信息处理者的算法说明义务

选择字号:   本文共阅读 216 次 更新时间:2021-11-04 13:18:01

进入专题: 个人信息处理   算法决策   告知同意   说明义务  

吕炳斌  

   就产业竞争而言,算法越是复杂和晦涩,就越是难以被反向工程所破解,其竞争优势也会越明显。从竞争的角度看,算法开发者具有内在动力去保持算法的复杂性和晦涩性,这会致使算法难以得到充分的解释。

  

   就技术发展而言,算法只有超越人类智慧,才能给人类带来更多益处。如果要求算法决策的方法必须为人类所理解,这不仅可能与事实不符,也可能会阻碍算法技术的创新发展。由此角度而言,算法是不能被人类所充分说明的。若法律对算法开发者或使用者施加充分公开和完全透明的说明义务,可能会阻碍科技的创新发展,不利于社会的进步。

  

   总之,从算法披露和说明的可能性和成本问题、保护商业秘密的需要、防止决策系统受到人为干扰和滥用的需要以及产业竞争与技术发展的需要等不同角度,都可以发现算法说明义务面临着各种阻力。这种抵制性理由与算法说明义务的正当性理由相互作用,只能导向有限的算法说明义务。

  

   (二)算法说明义务的说明范围及其限度

  

   算法说明义务的说明范围及其限度其实是一个问题,可归结为:信息处理者需要就哪些事项进行说明?回答这一问题时,自然也会明确信息处理者不需要就哪些事项进行说明。

  

   在比较法上,算法说明义务的范围和限度也是个棘手的问题,在个人数据保护领域较为领先的欧盟也缺乏明确的答案。欧洲学者近年来展开的“算法解释权”之争,其中不仅涉及该项权利是否存在,也涉及该项权利的范围和限度问题。如前提及,欧盟官方咨议机构发布的相关适用指南认可了“算法解释权”,但对于自然人如何行使这些权利,该指南却语焉不详。在比较法经验不足的情况下,我们还是需要根据算法说明义务的基本原理去明确和限定其范围。

  

   首先需要分析和明确的问题是,算法说明的对象是限于一般意义上的系统功能,还是可以包括对特定决定的算法决策过程所作的解释说明?与之相关,可进一步澄清和明确算法说明义务是事前的说明义务抑或是事后的说明义务。事前解释侧重于解释系统功能,而无法就一个特定决定的理由依据进行说明。事后解释的内容则可囊括系统功能和特定决定的理由依据See Sandra Wachter, Brent Mittelstadt, Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, 7(4) International Data Privacy Law 76, 78 (2017).。比如,就采用算法决策的信用评分系统而言,个人信息处理者在事前能解释和说明的是系统的一般逻辑、使用的数据类型、算法决策的目的以及预期用途;事后解释则可进一步说明一个特定的评分是如何形成的,这就需要结合信息主体的个体情况对其数据和权重进行说明。可见,事后解释是一种更倾向于个体主义的解释,也将会透露出更多的有助于理解算法决策的信息,具有一定优势,应予肯定。从个人信息保护立场出发,透明度原则应当贯穿于个人信息的使用、分析等不同阶段,以使个人获得算法决策的准确性、有效性和不歧视的保障Tal Z. Zarsky,Transparent Predictions,2013 University of Illinois Law Review 1503,1548 (2013).。

  

   我国《个人信息保护法》第24条关于个人针对自动化决策的保障措施条款中规定的算法说明义务针对的是已经作出决定的自动化决策,是一种事后说明。尽管事后说明对于保护个人信息权益而言非常重要,但同样不能忽视事前说明的重要性。我国法律对“个人信息的处理”进行了极为广义的界定,不限于狭义上的加工处理,还包括收集、提供、公开等,并且法律没有进行穷尽列举。相应地,个人信息处理的告知义务和说明义务也可贯穿于个人信息“处理”的全过程。因此,我国法下的个人信息处理者的说明义务不限于事后说明,也包括加工处理、使用中的说明,还可以是事前对系统功能等事项的说明。相应地,算法说明义务既包括事后说明,也包括事前说明,既涉及面向特定对象、就特定决策进行的解释说明,也涉及就一般意义上的系统功能等事项的说明。只有这种覆盖个人信息处理全阶段的说明义务,才能充分保障个人在算法决策中的权益。

  

   其次,从技术角度而言,算法的解释说明到底应该解释到什么程度?复杂的数学解释往往超出了普通人的理解能力,既不必要,也不可行。欧盟的态度也是如此,信息处理者只需提供关于算法逻辑的有用信息。至于何为有用信息,这一判断具有事实依赖性,法律上难以形成明确的标准。欧盟指南在附件中也只是提供了一份“良好做法建议”,建议个人信息处理者以明白易懂的方式向自然人提供诸如以下信息:在生成用户画像和分析决策过程中已经或将要使用的数据类别;这些数据类型具有相关性的原因;自动化决策中使用的用户画像是如何生成的,包括自动化决策中使用的统计信息;为何此画像与自动化决策相关以及如何将其用于针对某个自然人的决策Article 29 Data Protection Working Party,Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP251rev.01, 6 February 2018, p.31.。笔者认为,在算法解释说明的技术层面,重点不应该放在算法的具体技术细节,而应该是整体方案、技术本质、基本逻辑、主要参数、大致权重和潜在风险等关键信息。但是,只是笼统地披露整体方案和技术本质尚无济于事,不能满足算法说明义务的程度要求。比如,我国最为著名的信用评分系统——芝麻信用——公开披露的算法是“运用云计算及机器学习等技术,通过逻辑回归、决策树、随机森林等模型算法,对各维度数据进行综合处理和评估”参见芝麻信用网站关于“芝麻分”的介绍,https://www.zmxy.com.cn/#/detail/1-2,2021年7月20日访问。,这就显得不足。什么是逻辑回归、决策树和随机森林?这些术语根本不便普通人理解和知情,“综合处理和评估”更是模糊且笼统的表述。个人信息处理者的披露说明应不限于此,算法技术的基本逻辑和主要参数应可披露,技术的潜在风险也可加以说明,这并不会对信息处理者带来过多的成本,也不会影响其对算法的商业秘密保护。毕竟,商业秘密保护的是秘密点,这些模型算法的基本逻辑和主要参数很难落入商业秘密保护范畴。只是披露基本逻辑和主要參数,而不披露具体的参数和权重,也很难被用户用于博弈,造成滥用,也不会影响产业竞争和技术发展。其实,个人通过广泛检索,还是可以弄清逻辑回归、决策树和随机森林等模型算法的基本逻辑的,但会面临较高的查找和学习成本。既然信息处理者可以以较低成本披露这些算法的基本逻辑,就应当基于告知义务的基本宗旨,予以披露,以便促进个人知情。此外,技术层面的算法披露的一个障碍是一般的自然人未必能够理解,这就要求在风险和敏感度较高的决策领域,使用人类可以解释和理解的技术方案和决策方法,从而规避不可控制的风险。

  

   最后是算法说明的范围限于算法本身,还是包括算法的应用?其实,技术本身是无害的,对个人权益造成侵害的往往是算法应用,而不是算法本身。因此,算法说明的重点之一应当是算法的具体应用方式。比如,算法决策的结果是用于信用评分、工作评估、定向广告还是其他用途?在应用过程中,是否存在人工干预?如果存在,人工干预的程度如何?决策结果是否可以受到重新审查?其条件和程序如何?当然,从算法应用着手进行解释,仍然难以回避对算法技术方案的解释,两者应当相辅相成。同样以国内最为著名的芝麻信用评分为例,其在算法应用方面仅仅说明了“较高的芝麻分可以帮助用户获得更高效、更优质的服务”参见芝麻信用网站关于“芝麻分”的介绍,https://www.zmxy.com.cn/#/detail/1-2,2021年7月20日访问。,这也显得不够。这些评分到底作何用途,会对个人产生什么影响,应当予以较为清晰的说明。

  

   (三)算法说明义务“有限版”的有益补充

  

   个人信息保护原则上奉行私法自治。当私法自治存在不足时,则需动用公私法协同规制的方案。在算法决策场合,这也是由算法本身的特征决定的。算法风险高度分散、形态多样,充满着很多不确定性,需要构建从不同的风险链条节点介入、由不同主体参与的规制谱系苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第177-184页。。

  

   算法说明可以打开“算法黑箱”,最大程度地促使关于算法的基本逻辑、主要参数、大致权重、具体用途及潜在风险等关键信息和有用信息的披露,以最大程度地保障个人知情。为此目的,这些信息应当以通常理性人可以理解的方式进行说明。另一方面,具体的技术细节和复杂的数学解释往往超出了普通大众的理解能力,通常也超出了保障个人知情同意的需要。有关具体参数和权重的技术细节还可能构成商业秘密保护的秘密点,因此,一些“算法黑箱”可能无法被彻底打破。前文也已论及,要求算法的彻底公开和完全披露也不尽合理。故而,出于商业秘密保护等限制因素,算法说明义务难免存在不足。如果算法决策可能存在的歧视和偏见恰好是由算法中的秘密点造成的,出于保护商业秘密的考虑而放弃对算法的监督,并不合理。此时,以第三方审计和监督的方式进行的算法问责制成为一个替补的合理选择,这既可以避免算法中的秘密点的公开,也可以促使算法受到专业人士的监督和控制,化解算法中的秘密点的潜在风险和危机。当然,算法问责制也存在外部监督成本较高、有效性也未必得到保障等问题。也正是因为如此,本文提倡的首要算法治理措施是算法说明义务。一般而言,算法的基本逻辑、主要参数、大致权重、具体用途及潜在风险等关键信息的披露可以确保个人的知情同意,也可以基本保障算法的透明度原则。当算法说明义务无法充分实现算法治理的目标、无法确定受决策的个人是否得到公平合理的对待时,才需要第三方审计和监督的介入。

  

   在比较法上,欧盟倾向于以个人数据权利为基础开展算法治理,美国则倾向于通过算法审计和问责机制促进算法治理张欣:《算法解释权与算法治理路径研究》,载《中外法学》2019年第6期,第1425页。。两种模式各具优劣。中国可以汲取不同模式的优势,打造出算法治理的升级版和优化版。在方法论上,算法解释权或算法说明义务主要采取个体主义方法论,而算法问责制主要采取整体主义方法论。在算法说明义务之外,辅之以算法问责制,实际上是选择个体主义和整体主义兼具的算法治理之道。包括算法治理在内的社会治理均要从整体和个体两方面入手,方能不偏不倚,实现综合治理、协同治理。

  

   五、结论

  

   在应用算法的个人信息自动化决策场合,个人信息处理者(同时也是算法决策者)需要承担相应的说明义务,本文将之称为算法说明义务。这在规范上和理论上均可得到解释和证成,但同时也面临着障碍。因此,算法说明义务有一定限度。算法说明义务的目的在于提供算法的有用信息,主要包括技術和应用两大方面。在技术上,可以说明的是系统功能、技术本质、整体方案、基本逻辑、主要参数及大致权重、使用的数据类别和范围、数据的相关性、自动化决策的用户画像如何生成等有用信息。可不予说明的是算法的技术细节、具体运算方式、详细的参数和权重;动态化、智能化的人工智能神经网络层数和决策参数更是无需说明,在事实上也无法说明。在算法应用上,应当说明的是算法的用途和目的、算法决策可能存在的不足和风险、是否存在人工干预、对决策结果进行重新审查的条件和程序等信息。算法说明义务既包括事前说明,也包括面向特定对象、就特定决策进行的事后说明。该义务主要围绕算法这种个人信息的处理方式而展开,同时涉及个人信息处理的目的和范围,与一般意义上的信息处理者的说明义务在本质上具有一致性,可谓一脉相承。

  

   本文从义务角度研究个人信息保护规范不仅具有学术上的转向作用,也具有重要的实践意义。我国学界对个人信息是权利还是权益存在理论争议。其实,无论是权利,还是权益,都存在对应的义务,违反义务才会产生法律责任。明确义务的内涵和范围,对法律的实施至关重要。因此,在理论上继续探讨个人信息权利(权益)的性质和地位之余,加强个人信息的保护义务研究,可深化对个人信息保护规范的理解,促进法律规则的实施。

  

    进入专题: 个人信息处理   算法决策   告知同意   说明义务  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/129449.html
文章来源:现代法学 2021年4期

1 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2022 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统