吕炳斌:论个人信息处理者的算法说明义务

选择字号:   本文共阅读 216 次 更新时间:2021-11-04 13:18:01

进入专题: 个人信息处理   算法决策   告知同意   说明义务  

吕炳斌  
而算法决策由机器执行,人类对之的信任危机将更为突出。在诉诸权威之外,解决信任危机的主要方法是解释说明。由此,对算法的解释说明也是算法信任危机的解决方案中不可或缺的重要组成部分。

  

   第三,算法说明义务还具有制度激励功能,可促进更为透明、更为可靠的算法的研发和诞生。若无此义务,算法就会朝着黑暗的方向前行,“算法黑箱”不仅可能会因此合法化,而且还会得到持续的制度支撑和发展动力。恰当的法律规范和义务配置有助于促进技术的良性发展。若要使“科技向善”,不仅需要科技产业界将之作为一种理念和口号,也需要作为行为规范的法律规则尤其是义务规则的指引。

  

   总之,算法说明义务具有十足的正当性理由,足以证成。然而,在另一方面,它也面临着一些障碍。算法说明义务正是在正反两方面的理由碰撞之中生存,这些理由的相互碰撞也决定了该项义务的范围和限度。

  

   四、算法说明义务的范围和限度

  

   (一)算法说明义务面临的障碍

  

   1.算法说明的技术障碍和成本问题

  

   算法说明义务存在的直接目的是使受算法决策影响者理解算法。然而,受众理解算法,存在不少障碍,这一方面受制于算法本身的专业性和复杂性,另一方面也受制于受众在技术方面的理解能力。AlphaGo战胜柯洁即是人工智能算法无法解释的典型例证。如果程序员可以理解AlphaGo的算法,程序员也将成为杰出的棋手,甚至可以预测和破解其算法,从而战胜它。计算机算法往往由复杂的代码构成,绝非“1+1=2”那么简单。诚如学者所言,在外行眼里,“代码即乱码,算法像魔法。”沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,载《环球法律评论》2019年第6期,第29页。应用于商业决策和社会决策的算法更是如此,其往往是大型的算法设计,其中包含的参数和变量极多,且可能经历了数任程序员的修改与更新,其中还可能存在一些不能轻易修改、程序员自己都未必理解的“祖传代码”,算法的解释说明在技术上的确存在种种障碍苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第168页。。在机器深度学习的背景下,人工智能的神经网络层数和决策参数在不断增加和变化,算法也在不断的更新发展之中,算法的动态化、智能化更是加剧了算法解释说明的难度。可以说,对于人工智能算法而言,任何解釋说明都难以达到充分性的要求。

  

   由上可知,在算法说明义务的程度和范围的构造中,需要充分考虑算法设计者或应用者的解释成本问题,并将之与公众的潜在收益进行大致的衡量。从技术上而言,算法的解释说明的确存在“易读性”、可解释性或可说明性的问题。基于技术障碍和说明成本的考量,一个初步的结论是算法设计者或应用者只需要解释说明到逻辑思路层面,而不是解释说明具体的运算方法,更不必提供复杂的数学解释。

  

   2.商业秘密的限制问题

  

   作为一种技术方案,知识产权保护对算法的研发具有重要的激励作用。然而,算法在现行知识产权法律框架下很难获得专利权、著作权的保护,从而需要寻求商业秘密保护。第一,在专利权保护方面,智力活动的规则和方法不属于专利保护的的客体,这是公认原理。我国《专利法》第25条也是如此规定,而算法正是一种智力活动的规则和方法,其本身并不能获得专利。但是,包含算法的技术方案是一种技术领域的发明,应当可以获得专利。在大数据和人工智能发展背景下,国家知识产权局于2019年12月31日专门修改了《专利审查指南》,明确了抽象的算法本身不能获得专利,但包含算法的技术方案在满足新颖性、创造性、实用性等可专利性条件下可以获得专利《国家知识产权局关于修改〈专利审查指南〉的决定》,国家知识产权局公告第343号,2019年12月31日。。据此,算法可以通过纳入整体技术方案的形式间接地获利专利保护,但将算法作为整体技术方案的一部分的保护方式有一定的局限性,他人的侵权也限于对整体技术方案或等同方案的侵权。他人对其中算法的使用完全可以提出抗辩,认为其使用的是不受法律保护的部分。此外,从商业竞争的角度而言,公开算法、申请专利也非良策。因此,即使是通过专利制度来间接保护算法也具有很大的缺陷。第二,在著作权(版权)保护方面,算法可以分解为一系列的数字化的代码和命令,犹如其他语法字符串,这些代码和命令可以获得版权保护。但著作权法仅仅保护算法的表达层面,即代码和命令的符号组合,而不是算法本身。综上,专利保护和版权保护在算法保护上都存在不足,并非算法保护的首选之策。从而,商业秘密成了算法及其源代码的默认保护方式See Sonia K. Katyal,Private Accountability in the Age of Artificial Intelligence, 66 UCLA Law Review 54, 125 (2019).。美国一起典型判例即认为用于裁判量刑的算法属于商业秘密,无需披露State v. Loomis, 881 N.W.2d 749 (Wis. 2016).。在我国,已有案例涉及算法系统的商业秘密保护和算法披露之间的冲突问题。在某案中,阿里妈妈公司基于算法系统,认定原告在推广中涉嫌违规,给予处罚,但以算法保密为由拒绝披露具体的处罚依据。法院从格式合同的规制着眼,认为单方免责的规定显失公平参见“陈鱼与杭州阿里妈妈软件服务有限公司网络服务合同案”,杭州铁路运输法院(2017)浙8601民初3306号民事判决书。。其实,从算法的商业秘密保护角度看,阿里妈妈公司拒绝披露具体的处罚依据,也有一定的道理。毕竟,其中算法可能的确享有商业秘密保护。除了技术层面的算法之外,算法运用的数据也可能构成商业秘密。基于商业秘密的特性,算法及其数据的商业秘密保护将对算法披露和说明构成实质性的限制。

  

   以商业秘密保护之由,拒绝算法的披露和说明,无疑会产生一定的负面效应。商业秘密保护缺乏明确的边界,也不像权利化的著作权、专利权那样存在法定的限制和例外,从而缺乏明确的权利保护的平衡机制,需要在个案中进行利益衡量,这就导致了算法商业秘密保护的复杂性。更为重要的是,商业秘密缺乏也不可能具有公示制度,故而号称受到商业秘密保护的算法到底能否构成商业秘密,旁人无从得知。正如学者指出,如果不先公开和检查源代码,他人就不可能知道一种算法是否可以作为商业秘密See Charles Short,Guilt by Machine: The Problem of Source Code Discovery in Florida DUI Prosecutions,61 Florida Law Review 177, 190 (2009).。因此,即使决策程序使用的软件代码和算法来自公有领域,算法所有人或使用人仍可能声称其属于商业秘密,以此名义,不予披露,拒绝解释。算法的商业秘密保护实际上是认可“算法黑箱”,并在一定程度上将之合理化,与权力行使的透明原则相悖。

  

   如何解决算法的解释说明和商业秘密保护之间的冲突,是一个较为棘手的问题。第一种思路是个人信息保护优先于商业秘密保护。欧洲有学者认为,与保护商业秘密相比,GDPR更倾向于强化对个人数据权利的保护,因此,建立在个人数据权利基础上的算法解释权相较于商业秘密具有优先地位See Gianclaudio Malgieri, Giovanni Comande,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, 7(4) International Data Privacy Law 243, 262-264 (2017).。在中国法的语境之下,个人信息和商业秘密属于等阶的权益,尽管不少学者主张对这两项客体予以权利化的保护,但立法上并没有明确地采取权利化的表述。因此,权利化的个人数据利益高于非权利化的商业秘密利益,这在欧盟法的语境下可能成立,但在中国法的语境下并不当然成立。另一种思路仍然是寻求比商业秘密位阶更高的利益。在这方面,公共利益的概念无疑可以出场。我国有学者即认为,公共利益的存在可以在特定情形下否定算法的商业秘密保护陈景辉:《算法的法律性质:言论、商业秘密还是正当程序?》,载《比较法研究》2020年第2期,第127页。。的确,公共利益可以构成对民事权益的限制,但其适用空间也极为有限。只有当算法披露涉及公共利益时,才能动用这个理由。显然,并不是所有的算法决策都涉及公共利益;反而,大多数基于个人信息处理的算法决策可能只涉及个人利益,而不是公共利益。

  

   综上所述,我们很难找出一个普适性的理由,来使算法说明义务凌驾于算法的商业秘密保护之上,后者的确将构成对前者的限制。据此,可以说明的主要是系统功能以及算法的一般逻辑和主要参数,而不包括详细的参数和权重,后者往往落入商业秘密的保护范畴。需强调的是,商业秘密保护对算法解释说明可以起到限制作用,但不是绝对的拒绝。在两项冲突的利益面前,探讨某项旨在保护其中一种利益的措施之程度是否合理时,可借鉴比例原则的思想。比例原则的本质在于“禁止过度”,在民事領域也有着广泛的应用空间郑晓剑:《比例原则在民法上的适用及展开》,载《中国法学》2016年第2期,第143-165页。。基于比例原则的思想,为了保护个人权益,要求算法的解释说明,可符合适当性的要求;只要将对算法商业秘密保护的影响控制在最小范围之内,也可符合必要性的要求。但狭义比例原则也要求以最缓和的手段来实现算法说明的目的。由此,算法说明义务需要以最为缓和的方法进行,减少和避免对商业秘密的侵害。

  

   3.决策系统的人为干扰和滥用问题

  

   面对技术日渐深入人类生活各个领域,有人会对技术进行博弈,这是可以预见的。这种博弈可能导致对算法决策系统的干扰和滥用。在现实中,针对主流的信用评分系统,黑市中的“刷分”产业链已然形成谢宛霏、徐楚霖:《芝麻信用刷分背后暗藏套现产业链》,载《中国青年报》2017年8月4日第06版。。

  

   在防止算法的博弈和作弊方面,算法保密具有独特的内在价值。匿名和保密可促进公平,这似乎是不证自明的公理。学术期刊普遍推行的同行专家匿名评审即是一个典型的例证。同理,将算法保密,可避免算法博弈、数据作弊等人为干扰,有利于所有人都在公平的状态下获得分析和评价。这对正在形成的算法社会的秩序构建具有不可忽视的社会价值。正因为如此,某些决策的过程和依据必须保持晦涩不明,以免他人博弈See Joshua A. Kroll, Joanna Huey, Solon Barocas et al.,Accountable Algorithms, 165 University of Pennsylvania Law Review 633, 639 (2017).。若信用评分系统的算法完全公开和透明,刷分和博弈现象将更加猖獗。

  

   4.产业竞争和技术发展需要算法保持复杂和晦涩

(点击此处阅读下一页)

    进入专题: 个人信息处理   算法决策   告知同意   说明义务  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/129449.html
文章来源:现代法学 2021年4期

1 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2022 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统