王莹:算法侵害类型化研究与法律应对

选择字号:   本文共阅读 231 次 更新时间:2022-09-06 23:52:30

进入专题: 算法侵害     数据与个人信息保护     算法可解释性  

王莹  

   第13条和第14条规定了数据控制者在收集信息和获取个人数据时应当履行的事前通知义务,这可为数据主体知悉数据收集目的等信息奠定制度基础。具体而言,第13(1)(c)条和第14(1)(c)条要求控制者在收集信息时应向数据主体提供关于个人信息处理目的以及法律基础的信息。第13(2)(f)条和第14(2)(g)条规定,控制者在获取个人数据时,应向数据主体告知自动化处理所涉及的逻辑以及该种数据处理对数据主体的重要性和可能产生的后果。

  

   第29条工作组指南指出,机器学习的不断发展与复杂性已使理解自动决策的过程或画像工作变得更加困难,故而数据控制者需要寻找简单方法来告知数据主体决策背后的推理机制或作出决策的依据。GDPR要求数据控制者向数据主体提供关于算法逻辑的有意义的信息,这并不是要求数据控制者一定要向数据主体提供关于算法的复杂解释或者揭示整个算法,而是要求数据控制者提供足够的供数据主体理解决策理由的信息。(37)

  

   (2)第15条规定的访问权

  

   依据该条,数据主体有权向数据控制者提出要求,确认那些与数据主体相关的个人数据是否正在被处理,数据主体有权要求访问那些与数据主体相关的个人数据,并获知详细信息。这些信息包括处理目的、相关个人数据的类别、在自动决策机制和识别分析过程中运用的逻辑、数据处理对数据主体的重要性以及可能产生的后果等内容。本条赋予数据主体在自动决策过程中的沟通与知情机会,使数据主体能够了解预期的自动化处理的影响,而不是针对一项特别的决策事项的解释。(38)

  

   总体视之,GDPR引入诸数据处理原则,对于控制数据质量,从源头端防治算法错误、算法歧视、算法标签等算法侵害无疑具有重要意义,但也存在以下局限性:

  

   其一,存在权利行使效果有效性的问题。鉴于算法处理数据的规模及算法黑箱,个人数据权利的行使效果存疑。具体而言,与传统物理社会中权利的行使不同,在人工智能时代,人们对数字权利的行使存在信息与技术门槛。面对海量的数据处理与算法黑箱,个人往往很难行使访问权、质疑权或反对权,“个体很难知晓其个人数据是否被处理,其个人数据何时被处理,被哪个数据处理者处理”。(39)

  

   其二,存在个人数据思维局限性的问题。以保护个人数据为宗旨的GDPR囿于个人数据的思维路径,具有算法规制及应对算法侵害的局限性。GDPR仅适用于利用个人数据的算法自动决策,如果算法系统处理的数据是非个人数据,则不受GDPR的规制,由此产生的算法侵害,并无对应的防治渠道。

  

   四、算法侵害应对方案的本土化构建

  

   我国最新通过的《个保法》借鉴了GDPR的源头数据规制与数据赋权制衡的应对方略,形成了从部门法到数据法的算法初步规制框架,下文以此为基础,提出我国算法侵害应对与算法规制的扩展思维路径。

  

   (一)搭建算法规制的数据法基础框架:算法规制的起点

  

   2016年《网络安全法》第41条规定,网络运营者收集、使用个人信息,应当遵循合法、正当、必要、公开透明、知情同意等原则,首次从网络运营者的网络信息安全责任角度引入了关于个人信息处理的基本法律规范。《个保法》也规定了合法、正当、必要、诚信、明确、合理、最小化、公开透明、准确等原则。《个保法》第四章引入了数据权利,规定个人就对其个人信息的处理享有知情权与决定权、查阅复制权、可携带权、更正补充权、删除权、解释说明权等。我国逐步从网络信息安全责任、个人信息控制者义务、个人信息主体权利角度引入GDPR规定的个人数据处理原则与数据主体权利,形成了个人信息保护的基本框架,构筑起我国算法规制与算法侵害防治的起点。

  

   此外,我国《个保法》第24条就算法决策设置了专门条款,规定:“个人信息处理者利用个人信息进行自动决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。通过自动决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。通过自动决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动决策的方式作出决定。”该规定赋予个人在商业推荐或信息推送算法中的选择权或拒绝权、在自动决策对个人权益造成重大影响时一定程度的解释权与拒绝权。如上所述,解释权对于防治各种算法侵害的意义自不待言,同时,选择权或拒绝权对于维护信息自决权与防治算法操纵、算法归化亦不可或缺。2019年的《App违法违规收集使用个人信息行为认定方法》规定,可将“利用用户个人信息和算法定向推送信息,未提供非定向推送信息的选项”的情形认定为“未经用户同意收集使用个人信息”,而《个保法》生效后,可直接适用第24条,将之认定为“未提供不针对其个人特征的选项,或者未向个人提供便捷的拒绝方式”。《个人信息安全规范》要求,“在向个人信息主体提供业务功能的过程中使用个性化展示的,宜建立个人信息主体对个性化展示所依赖的个人信息(如标签、画像维度等)的自主控制机制,保障个人信息主体调控个性化展示相关性程度的能力”,此即为对选择权或拒绝权的贯彻。

  

   与GDPR第22条相较,我国的自动决策条款具有以下特点:

  

   1.数据来源范围不同

  

   GDPR对“特殊类型个人数据”的处理采用一般性禁止加允许例外情形的方式,对完全自动决策更是严格禁止,除非在存在明确同意、为实现实质性公共利益所必要并且提供特定保护措施等情形下,一般不能适用第22条第2款所规定的免于完全自动决策的例外。而《个保法》对于敏感个人信息则采取一般性允许加特殊限制的方式,仅要求在处理敏感个人信息时,须具有特定的目的和充分的必要性,须取得单独同意,须告知处理必要性和对个人产生的影响,且须进行事前风险评估,此外,并未设定专门针对自动决策的限制。但将种族、民族、宗教信仰、个人生物特征、医疗健康信息等敏感信息作为输入数据进行算法决策,具有高风险性,极易引起算法标签、算法歧视及算法操纵等算法侵害,给个人及社会带来深远的不利影响,值得重视。

  

   2.自动决策对象(个人信息主体)与决策主体(信息处理者)的权利范围不同

  

   (1)解释权

  

   或许是立法者考虑到算法解释的技术开放性与解释类型尚未定型,故而留白,《个保法》关于解释权的规定稍显简单化和形式化。鉴于对复杂机器学习算法中具体决策结论的解释具有极大技术难度,学界就采取何种解释类型(结果型解释、模型中心型解释、主体中心型解释)存在争论,(40)因此,第24条未就向个人说明到何种程度以及如何作出说明作出具体规定。

  

   (2)人工干预权、质疑权、表达观点权

  

   第24条未配置完全自动决策在对个人产生重大影响时的人工干预权、质疑权与表达观点权,在算法程序正当意义上似有欠缺。在对决策对象产生重大影响的算法决策中嵌入类似于听证的程序及人类审核监督程序,防止人类沦为算法决策的客体,对于避免算法操纵、算法归化、算法错误等侵害具有重要意义。如果说质疑权与表达观点权尚能被解释权部分覆盖,那么,人工干预权在《个保法》上则完全阙如。欧盟人工智能高级别专家组于2019年4月发布《可信AI伦理指引》(High-Level Expert Group Ethnic Guidelines on Trustworthy AI),提出了实现可信AI的七个基本要求:人类施为与监督、技术鲁棒性与安全、隐私与数据治理、透明性、多样性非歧视与公平性、社会体制与环境福祉、可问责性。(41)在首当其冲的人类施为与监督(Human Agency and Oversight)这一要求中,“人类施为”要求人类必须被给与足够的理解AI系统或与其互动的知识工具,且在可能时得以对系统进行合理的评估或质疑。AI系统须为个人作出符合个人目的的、更好的、更全面的选择提供支持。(42)“监督”则提倡人类对AI系统采取干预与治理措施,防止AI系统损害人类的自我决定权或产生其它负面后果。

  

   这在我国早期智能投顾监管中已有所体现。2018年发布的《关于规范金融机构资产管理业务的指导意见》(银发[2018]106号)第23条规定:“金融机构应当根据不同产品投资策略研发对应的人工智能算法或者程序化交易,避免算法同质化加剧投资行为的顺周期性,并针对由此可能引发的市场波动风险制定应对预案。因算法同质化、编程设计错误、对数据利用深度不够等人工智能算法模型缺陷或者系统异常,导致羊群效应、影响金融市场稳定运行的,金融机构应当及时采取人工干预措施,强制调整或者终止人工智能业务。”

  

   基于机器学习算法中人工干预问题在技术上的开放性与难度,亦有学者对GDPR第22条规定人工干预权提出质疑。(43)但是,一方面,机器学习算法的自动决策往往是辅助性的,因而不属于完全自动决策,另一方面,即使是对于完全自动决策的机器学习算法而言,人工干预也并非要求人类进行完全的支配,而是应在程序上具有一种介入或审查的可能性,算法设计者或应用者有义务对实现这种可能性进行技术与资源投入,尤其是对那些对个人具有法律影响或其它类似重大影响的自动决策应用而言。

  

   我国个人信息保护立法在借鉴GDPR的基础上已初步形成了源头数据规制与数据权利制衡的算法侵害防治法律框架,但在完全自动决策场合,仍有必要进一步丰富数据权利束,在未来的法律修订中进行合理的人工干预权设置。一方面,应赋予人类介入与审查的可能性,并制定具有可操作性的权利行使机制。例如,第29条工作组指南要求数据控制者必须确保决策过程的干预具有实质性监督意义,应当由具有权限和能力改变决策结果的人执行决策干预,必须在数据保护影响评估报告中识别、记录人工干预的程度及发生阶段,以避免数据控制者故意通过设置形式化的人工介入来规避本条的适用。(44)另一方面,也需在科技创新与算法侵害防治之间寻求衡平,为此,可以将人工干预权触发的条件适当提高。例如,只有当完全自动决策可能对生命、健康、安全等重大法益产生影响时,方可进行人工干预。

  

   (二)促进数据保护思维向算法规制思维扩展

  

GDPR因其在数据保护、数字经济与算法规制方面的首创性规定,被奉为数据与人工智能立法的圭臬,学界亦提倡通过借鉴GDPR来推动我国相关立法。(45)但是,数据合规与数据赋权虽为规制算法提供了基础,但并非算法规制的全部。GDPR的自动决策条款仅是以规制数据为起点迈开探索“算法法”的第一步。(点击此处阅读下一页)

    进入专题: 算法侵害     数据与个人信息保护     算法可解释性  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 民商法学
本文链接:http://www.aisixiang.com/data/136376.html
文章来源:《法制与社会发展》2021年第6期

2 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统