贾开:人工智能与算法治理研究

选择字号:   本文共阅读 1568 次 更新时间:2019-01-30 13:06

进入专题: 人工智能   算法治理  

贾开  


摘要:伴随着人类社会数字化程度的不断提升,算法已经成为影响世界运行的基础性规则。以机器学习算法为代表的第三次人工智能浪潮的兴起,更是突破了“波兰尼悖论”所揭示的人类表达能力的局限,使得算法实现了自我生产,通过基于大数据集的自我学习过程形成规则集并应用于不同场景下的感知和决策。算法性能的提升及其应用的普及在极大提高人类社会运行效率的同时,也带来了新的治理风险与挑战,相关议题集中表现为不可解释隐忧、自我强化困境与主体性难题三个方面。在对算法基本原理进行梳理并对其可能引发的治理议题进行合理评估的基础上,本文提出推进认知教育、促成算法伦理、区分政策优先级三方面政策建议,以形成兼顾发展与规制、且不超越当前及未来技术发展可能性的政策创新进路。


2017年9月,《人民日报》连发三篇评论,对基于算法而向用户自动推荐个性化内容的互联网业态提出了批评。为吸引“眼球经济”而导致所推荐内容的低俗性、虚假性,片面强化用户偏见与喜好而使得整个社会可能陷入“信息茧房”的极端性,一味迎合用户而使得智能平台走向媚俗化并最终可能阻碍创新的危险性,共同构成了对于当前正蓬勃发展的算法推荐相关业态的深刻反思。[1]事实上,不仅仅是算法推荐,我们日益生活在一个“算法社会”之中。[2]搜索引擎对于用户搜索内容的排序算法,商业银行对于贷款申请者的还款风险评估算法,机场车站对于大规模人群的特征识别算法,都是已经被普遍使用并深刻影响我们日常生活的典型案例。


由此引发的问题在于,对于伴随技术发展而出现的新业态,《人民日报》的警示性评论是否预示着算法在极大提高人类社会运行效率的同时,也会带来普遍性的治理挑战?若如此,考虑到算法及相关业态本身的复杂性,我们又该如何推进治理机制的创新以应对这种变化,尤其是如何通过公共政策框架的重构以平衡发展与规制的二元关系?本文将围绕上述问题展开分析,探索性地提出算法治理的三个基本问题。本文将指出,在数字化进程不断加深且网络空间与现实空间深度融合的时代背景下,我们需要充分认识到算法治理的重要性;另一方面,基于对算法基本原理及其应用场景的总结性分析,我们应该对新技术和新业态带来的治理挑战形成不超越其现有发展水平及未来发展可能性的合理评估,进而在此基础上有针对性地提出算法治理的公共政策创新进路。


从上个世纪中期计算机和互联网的发明以来,以计算机程序代码为载体的“算法”便开始涉入并影响人类生活。在上个世纪末,哈佛大学法学院莱辛格教授即注意到了算法作为人类社会运行规则的基础性作用,并提出了“代码即法律(Code is Law)”的经典论断。[3]自此以后,旨在讨论算法形成、应用及影响的算法治理研究便逐渐成为学者关注的焦点。在继承已有研究的基础上,本文更多关注人工智能背景下的算法治理问题。本文将指出,以机器学习算法为代表的第三次人工智能发展浪潮下,算法的生产过程发生了本质变化;这一变化不仅意味着算法应用能力的提升和应用范围的普及,更意味着算法对于人类社会影响的扩大以及相应治理挑战的凸显。


一、人工智能背景下的算法治理:转变及其意义


虽然“算法”这一概念在现实生活中耳熟能详,但其定义在学界却并没有形成高度共识。狭义的理解认为算法是特殊的决策技术[4],而广义的理解往往将算法视为建构社会秩序的理性模型[5],更聚焦的研究则对算法进行分类并特别关注“与公共利益相关的算法”。[6]不同理解的差异源于“算法”本身在事实上的模糊性与复杂性。一方面,算法被认为无处不在,其在不同场景下管理、分类、约束乃至决定整个社会的运行;但另一方面,算法却往往被描述为高深莫测或难以捉摸,我们并不能明确界定一个实体对象或工作流程来解释算法的运行。在佐治亚理工学院教授伯格斯特看来,算法就像“黑洞”,我们能清晰感受到它的影响但却并不能对其内部一窥究竟。[7]正因为此,试图对算法做出一般性的定义不仅困难,也是一个不可能完成的任务;而不同学科按照各自的理解与兴趣对算法的不同侧面展开研究则可能是更为实际的途径。计算机科学关注算法的模型与构成,社会学将算法视为设计者与技术参数互动过程的产物,法学聚焦算法作为法律原则外化的符号或代表的作用,而哲学路径则强调算法的伦理性质。[8]沿袭这一思想,本文从公共管理学科视角出发,重点关注算法影响社会运行的规则属性,并试图从规则的形成与应用出发,探究算法影响社会运行的机制与过程,并在此基础上提出算法治理公共政策创新的建议与思路。在此视域下,算法治理的对象将不仅聚焦作为其载体和结果的计算机代码,而同时包含影响这一载体和结果形成的所有相关因素,尤其是人工智能第三次浪潮背景下大数据的影响。


就算法的规则属性来看,莱辛格教授提出的“代码即法律”无疑是研究的起点,不过其在十余年前对于该论断的解释并不足以完全回应算法治理在当前所面临的挑战。在莱辛格教授看来,“代码即法律”的意义在于回应了网络自由主义者对于“网络乌托邦”的想象,指出网络空间虽然能够避免政府干涉,但其却被置于市场主体这只“看不见的手”的完美控制之下,而后者正是通过算法来塑造网络空间的运行规则并进而对人类社会产生影响。[9]莱辛格教授的洞察开启了社会科学对于算法的研究兴趣,不过伴随着技术演化与业态发展的进程,算法本身的生产过程,及其对于人类社会的影响机制与结果都发生了巨大变化。就前者而言,在以机器学习为代表的第三次人工智能浪潮兴起的背景下,算法不再仅由商业公司(甚至不由人类)所生产并控制,算法的自我生产能力决定了其作为“规则”的复杂性;就后者而言,网络空间与现实空间的不断融合使得线上线下的边界逐渐模糊,原本局限于网络空间的算法规则开始对现实空间产生越来越多的影响。


上述两方面转变的重要性可从“波兰尼悖论”中得到更清晰的体现。迈克-波兰尼曾指出,“人类知道的远比其能表达出来的更多”。[10]事实上,我们虽然能很容易记住一张面孔、辨别一个声音,但却并不能很好地阐述或解释我们为什么可以实现这一功能。在第三次人工智能浪潮兴起之前,传统算法的生产过程实际上就是人类表达自身的过程。对于传统算法而言,其往往需要设计者明确某项工作的实现流程并事无巨细地规定好计算机在给定条件下的给定动作。“波兰尼悖论”在指出人类表达能力缺陷的同时,也指出了传统算法生产过程的局限。但以机器学习为代表的第三次人工智能浪潮的兴起,则突破了“波兰尼悖论”的束缚,机器学习算法可以通过基于大数据的自我训练、自我学习过程完成参数调整与模型构建,也即完成算法的自我生产过程。尽管人类仍然参与其中,但机器学习算法已然摆脱了需要依赖人类表达能力的局限,从而极大地提升了算法能力并扩展了其应用范围。


网景公司创始人马克-安德森2011年曾在《华尔街日报》上发表文章,描述了各个产业朝向数字化转型且其生产与服务过程被广泛嵌入软件的趋势,他将这一变化称之为“软件正在吞噬世界”。机器学习算法对于“波兰尼悖论”的突破,将加速这一进程的发生,最终使得“软件吞噬世界”成为更快到来的现实。算法作为社会运行的基础规则将由此扮演更为重要的作用,而因此出现的新的治理挑战也将成为重要的公共议题,算法治理研究在此背景下才凸显其时代意义。需要指出的是,虽然机器学习算法突破了“波兰尼悖论”,这并不代表我们就进入了所谓的“强人工智能时代”,也不代表算法就可以替代人类社会运行的所有规则并完成各项社会功能。事实上,机器学习算法的实现原理决定了其适用环境的局限性。


二、算法作为规则:原理及其应用


尽管从不同角度出发可以对“算法”做出不同定义,但算法的基本功能则在于塑造了网络空间的行为规则,在允许某些人类行为的同时也限制了其他行为的实现。伴随着网络空间和现实空间融合程度的不断加深,算法作为网络空间行为规则的影响也逐渐延伸至现实空间,开始对后者的既有秩序产生冲击。


在制度主义的理论框架下,规则包括正式规则和非正式规则,前者一般指代被清晰表述的成文规则,而后者则包含为既定范围社会成员所共识的价值信念、风俗习惯、文化传统等非成文规则。尽管从实现方式上看,算法都是以“成文”形式体现为计算机代码,但这并不代表所有算法都理所当然地应被视为“正式规则”;事实上,如果从规则对人类行为产生影响的机制与过程来讲,算法仍然可被划分为正式与非正式两类。前者具有明确的可解释逻辑,人类能够理解算法规则的内容并知道其是如何做出影响人类行为的决策或形成产出的;相比之下,后者不具有可解释性,无论是算法的生产者、使用者或受影响者,其都不能明确解释算法做出某种特定决策的原因与过程。如果回到“波兰尼悖论”的分析框架,传统算法可以被视为具有正式规则属性,而第三次人工智能浪潮背景下的机器学习算法则更类似于非正式规则。


算法作为规则的不同属性源自其不同的实现原理。具有正式规则属性的传统算法多是建立在人类清晰界定议题、明确实现流程的基础上,并最终转化为可被计算机识别并自动执行的数字代码;相比之下,更类似于非正式规则的机器学习算法并不依赖人类的理解与分析能力,而是通过算法的自我训练、自我学习过程调整参数与权重以最终实现既定目标。后者的基本原理大致可分为标注、训练、应用三个阶段。[11]


“标注”是机器学习算法的准备阶段,其目的是形成可供算法进行学习或训练的大数据集。无论是通过人工识别并标记的方式,还是基于传感器或物联网而自动生成的方式,“标注”将特定的人类知识与语音、图像、视频等可被计算机进行处理的数字材料联系起来。“训练”则是机器学习算法的自我调整、自我生产阶段。在既定目标(比如图像识别算法中的识别准确率)的引导下,算法对“标注”后的大数据集进行不同方式的处理,并最终形成由该大数据集若干共性特征所组成的规则集。这一规则集的形成过程是建立在反馈迭代的自动调整基础上。换言之,如果依据当前规则集而形成的输出结果不满足预先设定的目标,则算法将根据一定边界条件对规则集进行调整——正是在此意义上,机器学习算法突破了对于人类程序员的依赖而实现了自我生产。另一方面,该规则集所包含的共性特征不仅可能数量巨大,且往往不能被转换为可为人所理解的自然语言,而这便是导致机器学习算法不可解释性的原因所在。“训练”结束后所形成的规则集,便成为指导机器学习算法应用于不同场景下的标准与原则。事实上,“标注”、“训练”与“应用”是紧密联系的统一整体,“应用”过程形成的输出同时可作为新的数据来源反馈至“标注”阶段的数据集并指导“训练”阶段对于规则集的调整。


需要指出的是,机器学习算法存在多种实现路径,“标注-训练-应用”的三阶段过程更多属于“监督学习”这个分支,而不需要依赖数据集标注的“非监督学习”也正在得到越来越多的关注。但就现实应用与当前发展阶段而言,监督学习仍然占据了绝对重要的位置,且在未来相当长的时间内可能都是主要模式。[12]


基于对机器学习算法基本原理的阐释,我们不难发现其对于大数据的依赖。“标注”阶段形成的大数据集几乎决定了“训练”阶段所产生规则集的主要内容。事实上,算法发展史的相关研究表面,包括机器学习在内的数据挖掘与分析算法在大数据到来之前就已经出现[13],但正是受益于硬件计算能力大幅提升、数据存储成本大幅下降、数字经济业态快速崛起等多种因素影响下大数据的空前繁荣,才真正促成了机器学习算法在当前的普及。建立在机器学习算法基础上的语音识别、图像识别、自然语言处理等基础性人工智能技术已经被广泛应用于金融、医疗、公共安全、城市交通等各个领域,并正在向其他领域快速扩散。在此背景下,人们形成了对于人工智能技术发展及其应用未来的乐观态度,而算法也被视为无所不在且又无所不能的新规则影响着人类社会的方方面面。


但另一方面,正是因为对于大数据的依赖,我们同样不难发现机器学习算法的应用局限性,其至少体现在以下三点。[14]首先,机器学习算法对于规则集的归纳依赖于预先界定的明确的输入数据、输出结果和评价指标,因而其更适用于具有明确任务界定的应用环境,但却很难被应用于不具有明确目标或者工作产出绩效不明确的人类活动之中。再者,机器学习算法对于规则集的归纳更多建立在对于输入大数据集的相关性分析基础上,而非直接建立不同变量之间的因果联系,因而其更适用于能够接受一定误差且满足“一秒反应原则”的工作[15],但却无法处理依赖大量背景知识并要求较长逻辑推理链条的环境。第三,机器学习算法在客观上要求输入大数据集与其应用环境具有概率上的分布一致性,否则算法基于输入大数据集所归纳出的特征“规则集”将很快过时并因而难以指导对于当前和未来的预测或分析,这一特性在剧烈变动的环境中体现的尤为明显。


事实上,如果考虑到大数据集本身可能存在的缺失或偏颇问题,机器学习算法的应用局限性会更大。也正是因为局限性的存在,当我们将算法普遍应用于人类社会不同领域时,便必然会带来诸多治理挑战,而这又具体表现为不可解释隐忧、自我实现困境与主体性难题这三个方面。


三、算法治理的主要议题:不可解释隐忧、自我强化困境与主体性难题


“算法治理”这一命题的意义在于,伴随着以机器学习为代表的第三次人工智能浪潮的来临,算法的自我生产突破了“波兰尼悖论”的束缚并因而加速了“软件吞并世界”的变革进程;但另一方面,算法作为规则的普遍应用及其自身局限性的内在张力又意味着它将对人类社会的传统价值与既有治理体系产生冲击,甚至形成新的治理风险与挑战。已有研究注意到了人工智能算法所可能带来的公共安全、不法应用以及军备竞赛问题,而它们也是在每一轮技术革新浪潮中都会出现的共性问题。[16]相比之下,本文则更多关注算法因其技术逻辑及应用方式的特性而带来的新问题。就此而言,今日头条所引发的对于算法推荐业态的治理反思还仅仅只是冰山一角,排序算法、风险评估算法、特征识别算法同样涉及多方面的治理议题,本文具体将其总结为以下三个方面:不可解释隐忧、自我强化困境与主体性难题。


首先,不可解释隐忧主要关注算法因其生产和应用过程不能为人所理解而可能带来的算法黑箱、不可监督、难以追责等治理议题。《卫报》专栏作家Ben Goldacre曾将算法形象描述为一系列的“黑盒子”,其认为一方面数字世界是不透明的,而另一方面人类却将财富、隐私以及其他所有东西都置于其中。面对这样一个知之甚少的数字世界,“人类并不清楚什么是安全的、什么是有风险的,更难以分辨什么是合乎伦理的,而什么又是令人恐惧的”。[20]需要注意的是,算法的不可解释性并非完全因为其作为商业秘密而受到公司或个人的刻意隐瞒,其更深刻的原因一方面在于算法本身的复杂性,即使其设计者也很难清楚解释整个算法的运行过程[21];而另一方面则在于第三次人工智能浪潮背景下机器学习算法本身相对于人类表达能力的脱离,不仅其基于大数据集的自我学习、自我训练过程不为人所知,甚至是其最终形成的规则集也往往不能转换为可为人所理解的自然语言。如果算法本身是完美的,那么因不可解释隐忧所导致的治理问题便也不足为惧;不过恰恰相反的是,为人所共识的经验性结论却表明算法永远都存在漏洞和缺陷。[22]面对这样的潜在风险,由于不可解释隐忧的存在,我们事实上并不能将相关责任完全置于算法设计者身上,这便自然带来监督与问责的难题。尤其是当将算法应用于公共决策领域之时,监督与问责机制的缺失将使得不可解释隐忧可能导致决策错误的风险变得不可接受,而这也将自然阻碍技术的发展与应用。


第二,自我强化困境聚焦算法因依赖大数据学习过程而可能出现的固化、偏差、歧视等治理议题。正如前文对于机器学习算法基本原理的阐述所表明,算法基于“大数据集”而通过自我训练、自我学习以形成“规则集”的过程,实质上是对于过往人类社会模式特征的总结并将其用于对于未来社会的感知与决策,其一方面在提高人类社会运行效率(例如基于用户历史偏好而提高交易匹配效率)的同时,另一方面也将不可避免地复制并延续当前社会的既有格局与特征,从而不利于变革与创新的发生。后者便被称为算法的“自我强化困境”。与此相关的治理议题又可进一步细化为三种类型。首先,算法对于人类行为特征的精准识别在有利于为不同个体提供差异化、个性化服务的同时,也将强化个人偏好并甚至可能催化极端倾向,今日头条代表的算法推荐业态所可能导致的“信息茧房”问题便是此种类型的典型案例。再者,人类社会的不确定性与复杂性在客观上决定了“大数据集”的不完备性,数据缺失导致算法所形成“规则集”的偏差将可能进一步强化既有的社会不公现象。事实上,人类社会既有的“数据鸿沟”现实可能导致部分人群的数据缺失,并因此使得他们进一步被隔离在“算法社会”之外。例如人脸识别算法对于不同种族人类的识别准确率差异显著,针对白人男性的错误率低于1%而针对黑人女性的错误率却高达35%,造成这一差异的原因正是因为黑人女性相关数据的缺失。最后,机器学习算法基于社会整体“大数据集”而形成“规则集”并应用于具体场景的过程,暗含着以整体特征推断个体行为的基本逻辑,这便可能造成“算法歧视”问题,特别是在将算法应用于决策领域时其潜在风险尤甚。相关研究曾经证明,美国芝加哥法院使用的犯罪风险评估算法COMPAS对黑人犯罪嫌疑人造成了系统性歧视,其具有高犯罪风险的几率往往被错误地评估为两倍于白人。造成这一歧视的原因正是由于COMPAS算法是基于黑人罪犯多于白人的过往事实,但这一整体特征却并不能用于推断某一特定黑人的犯罪风险会高于白人。需要强调的是,算法歧视的严重后果还不仅止于此,其甚至可能造成“自我实现”的恶性循环。当一个最初没有高犯罪风险的黑人受到“算法歧视评估”并因而遭受错判时,其很可能因此对社会产生敌意并最终走上犯罪道路,从而反过来证明算法最初评估的“正确性”。类似案例同样体现在谷歌广告系统推送招聘信息时的系统性性别歧视,女性用户组收到的推荐机会仅为男性的六分之一。


第三,主体性难题涉及算法作为人类社会运行规则而在一定应用场景下替代人类行为所引发的治理议题。长久以来,围绕“算法(尤其以搜索引擎的排序算法为代表)是否应受言论自由保护”的激烈争论便是此类议题的集中体现。一方面,算法仅被视为人类的工具,因而不具有经典言论自由理论在伦理意义上要求思想自主性或在政治意义上要求投票权利主体性的前提[17];另一方面,如果将言论自由保护的目的视为促进观点的交流和真理的发现,那么算法在筛选信息方面的高效无疑使之具备值得保护的价值与意义。[18]就实践层面而言,美国语境下的法律判例更多倾向于后者,通过将“算法排序”比附于“报纸编辑”的路径以赋予算法更强的言论自由保护,从而使得包括不正当竞争、歧视、诽谤在内的诸多因算法应用而引发的争议议题都不得不被设置了较高的起诉门槛。然而,围绕这一议题的争议还远未结束。相比于美国,以欧盟为代表的规制理念更多拒绝对于算法施以一般性的言论自由保护,转而强调针对具体议题的分析与裁决,法国雅虎案、谷歌反垄断案都是相关例证;即使对于美国而言,伴随着技术发展与业态应用的普及,近年来的相关判例也同样反映了法官对于算法是否应当受到规制的态度的微妙变化。[19]值得注意的是,如果说对于传统算法而言,我们还可以将其类比于报纸并假定其背后是人类意思的表达(报纸编辑可被视为人类意思的表达);那么对于第三次人工智能浪潮背景下的机器学习算法而言,算法的自我生产能力已经使得这种假设不再成立。机器学习算法基于大规模数据集形成的“规则集”并不依赖于人类的表达能力,这样的技术突破不仅意味着人类行为自动化程度的又一次提升,其也反映了算法生产过程及其应用结果与人类行为本身的分离。考虑到传统治理体系都是以人类行为因果关系作为制度基础,机器学习算法的成熟与普及将不可避免地带来算法治理的主体性难题。在此背景下,不仅是“算法是否应当受到言论自由保护”这一传统议题将再次受到挑战,自动驾驶的民事责任如何归责、算法所创造的知识产品是否受到版权保护等新议题也将伴随着相关技术的发展与应用而凸显。


面对上述治理挑战,尤其是对于人工智能背景下,算法因其技术逻辑及应用方式的特殊性而带来的新问题,我们需要公共政策的创新加以应对,以兼顾发展与规制的平衡。本文提出,应在认知教育、算法伦理与政策优先级这三个方面开展政策创新。


四、算法治理的公共政策创新:认知教育、算法伦理与政策优先级


一般认为,以1956年的达特茅斯会议为标志性起点,现代人工智能的发展到目前为止经历了三个阶段。然而,持续至今的人工智能第三次浪潮不仅仅只是因为相关技术及应用得到了长足进步,其在公共政策领域引发的全球关注同样是此轮发展区别于历史上任何一个时期的重要特点。[23]包括美国、英国、德国、日本、中国在内的诸多国家在相继发布人工智能国家发展战略的同时,也重点关注因为人工智能发展而可能带来的治理风险与挑战。[24]习近平总书记近日在中共中央政治局“就人工智能发展现状和趋势”举行的集体学习中,同样强调要“加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”,以确保“推动我国新一代人工智能健康发展”。[25]


算法是人工智能技术应用的重要领域,包括排序算法、风险评估算法、特征识别算法在内的诸多算法逐渐成为影响人类行为的基础规则,并伴随着人类社会数字化进程的不断加深而进一步扩大其影响范围。然而,受限于其本身的技术与应用逻辑,算法在其应用过程中存在不可解释隐忧、自我强化困境、主体性难题这三方面治理挑战。如何在兼顾发展的前提下,有效控制治理风险便成为算法治理相关公共政策创新的主要内容。已有研究就某些特定议题提出了具体的政策分析,但尚未形成整体性框架。[26]就此而言,本文提出三方面建议,以作为算法治理相关公共政策框架创新的基本思路。


首先,要加快普及人工智能认知教育,使人们能够科学认识算法应用带来的可能进步及潜在风险,在避免盲目乐观的同时形成客观预期,以减少技术发展及应用过程中的不必要障碍,并同时促进应对治理挑战的相关政策创新。尽管存在诸多风险与挑战,我们仍然要认识到人工智能背景下,算法的普及应用对于人类社会整体的福利提升。例如相关研究表明,基于算法的自动承保系统比人工审核能够更准确地预测违约,并因而在此基础上可以帮助往常难以被纳入金融服务体系的贷款申请人提高借款批准率[27];而在家庭暴力风险评估的应用场景下,基于多数据源、多维度的评估算法能够比人类评估员更为准确且更少歧视地判断儿童是否处于家庭暴力的风险之下。[28]正因为此,重要的或许不是要求算法在其应用过程中不能存在任何的偏差或歧视,而是以更为实际的态度评估其是否相比于当前社会运行机制有所提升;在此基础上,再通过包容型监管、沙盒监管等方式探索、推进相关算法治理机制的改进与创新。举例而言,奥巴马政府时期针对算法歧视议题展开了一系列调研并发布了相关报告,虽然并没有直接导致任何政策产出,但却有效推动了公众认知并影响了随后相关讨论的深入。[29]事实上,考虑到算法的不可解释隐忧问题,算法的设计者、使用者往往也并不清楚算法偏差或算法歧视的存在;在此情况下,更有效的治理方式并非片面地要求算法本身的透明与公开,而是调动利益相关方的积极性,从算法被影响者的角度观察、考量算法的应用结果。实现后者的前提便需要公众对于人工智能认知的提升乃至普及。


再者,要加强算法伦理的讨论与研究,推进自然科学领域与社会科学领域相关专家的对话与交流,并围绕算法的开发与应用共同起草、形成具有约束力的伦理指导原则。算法应用过程中所引发的治理挑战当前还处于发展阶段,在具体政策体系尚不完善的情况下,通过算法伦理的引导有助于在不限制技术发展可能性的同时缓和并控制相关风险。2017年1月,美国计算机协会专门发布了算法治理伦理原则,涵盖利益相关者责任、救济机制、算法使用机构责任、鼓励可解释算法研发、数据治理、算法审查要求、实时检查责任等七个方面。尽管在这些伦理原则的指导下,要求建立算法审查制度或算法正当程序制度的政策提案尚未获得共识,但伦理原则的形成与宣传仍然有助于促进相关研究者重视算法研究及应用过程中的潜在风险,并共同探索相应的治理措施。考虑到不同国家不同应用场景的差异性,算法伦理原则并不一定要在全球范围内完全一致。正因为此,在参考已有成果的基础上,形成适合中国数字社会发展需求的算法伦理原则既具有其必要性,也有其迫切性。不过就目前的发展现状而言,全球范围内较有影响力的算法伦理(或者更大范围的人工智能伦理原则)大都来自欧美,其提出主体涵盖政府部门、社会组织、产业协会等各类主体;相较之下,同样作为人工智能发展大国的中国却并没有形成自己的声音。这一方面可能反映出相关议题尚未引起国内各方重视,而如果考虑到算法伦理的学科交叉性和领域交叉性,这可能也反映了我国产业界和自然科学领域与社会科学领域相关专家的良性对话机制尚未形成,而这也自然成为当前政策需要鼓励和支持的着力点所在。


最后,要根据算法应用的成熟程度及其影响的范围大小,以不超过其当前发展水平及未来发展可能性的客观理念,分领域、分优先级的制定相关公共政策。在人工智能第三次浪潮的影响下,公共管理领域当前围绕人工智能及算法治理相关政策的讨论虽然同样注意到了潜在的风险与挑战,但多是以对未来充满乐观想象的态度提出假设式、前瞻式的政策建议。不过正如本文对于机器学习算法基本原理的阐述所揭示的,其应用本身存在多方面的局限性。机器学习算法在输入大数据集、明确目标函数、分布一致性,以及能够接受一定误差且不依赖背景知识等方面的应用要求,使其在可预见的未来中仅能在某些特定领域中得到广泛应用;而如果考虑到某些领域的应用还需要人类制度的剧烈变革,那么在短时间内,机器学习算法的应用范围可能将更为有限。举例而言,自动驾驶汽车的广泛应用不仅需要技术的成熟,其同时还需要交通法规、归责机制、保险条例等一系列社会制度的同步变革;相比之下,在机场、车站使用人脸识别算法替代人工以作为身份验证方式的应用场景,将更为迅速地普及开来。后者可能引发的风险与挑战自然应该成为当前政策的关注重心。正因为此,分领域、分优先级地围绕算法的不同应用开展政策研究并制定相关治理政策,可能是更为现实、也更为有效的公共政策创新思路。



    进入专题: 人工智能   算法治理  

本文责编:limei
发信站:爱思想(https://www.aisixiang.com)
栏目: 科学 > 科学评论
本文链接:https://www.aisixiang.com/data/114860.html
文章来源:本文转自《中国行政管理》2019年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统