贾开 蒋余浩:人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择

选择字号:   本文共阅读 198 次 更新时间:2018-09-03 16:28:21

进入专题: 人工智能   公共政策  

贾开   蒋余浩  

  

   摘要:人工智能的兴起不仅是技术或产业领域的重大发展,更是经济、社会、政治各领域的基础性和综合性变革,由此产生的治理挑战要求公共政策框架的重构与创新,而这又体现为三个基本问题。首先在技术层面,人工智能的核心是算法与数据,其内在逻辑是基于机器学习形成自主决策。其次,传统科层治理结构、方法以及范围不能应对新的变化,从而构成了人工智能时代的治理挑战。各国现有政策所遵循的“无需批准式监管”或“审慎监管”逻辑固然有其合理性,但却局限于“创新”与“安全”的二维选择而失于片面。最后,本文提出综合性公共政策框架,力图为人工智能时代的崛起建立制度基石。

  

  

2017年7月,国务院印发《新一代人工智能发展规划》,不仅对人工智能的发展做出了战略性部署,还确立了“三步走”的政策目标,力争到2030年将我国建设成为世界主要的人工智能创新中心。[1]值得注意的是,此次规划不仅仅只是技术或产业发展规划,还同时包括了社会建设、制度重构、全球治理等方方面面的内容。之所以如此,是由于人工智能技术本身具有通用性和基础性。换句话说,为助推人工智能时代的崛起,我们面对的任务不是实现某一个专业领域或产业领域内的颠覆性技术突破,而是大力推动源于技术发展而引发的综合性变革。

   也正因为如此,人工智能发展进程中所面临的挑战才不仅仅局限于技术或产业领域,而更多体现在经济、社会、政治领域的公共政策选择上。首先,普遍建立在科层制基础上的公共事务治理结构,是否能够适应技术发展和应用过程中所大规模激发的不确定性和不可预知性?再者,长久以来围绕人类行为的规制制度,是否同样能够适应以数据、算法为主体的应用环境?最后,如何构建新的治理体系和治理工具来应对伴随人工智能发展而兴起的新的经济、社会、政治问题?

   应对上述挑战并不完全取决于技术发展或商业创新本身,而更多依赖于我们的公共政策选择。本文试图在分析人工智能发展逻辑及其所引发的风险挑战的基础上,对人工智能时代的公共政策选择做出分析,并讨论未来改革的可能路径,这也就构成了人工智能治理的三个基本问题。具体而言,人工智能本身成为治理对象,其发展与应用构成了治理挑战,而在此基础上如何做出公共政策选择便是未来治理变革的方向。

   全文共分为四个部分:第一部分将探讨人工智能的概念及特征,并进而对其发展逻辑进行阐述。作为一项颠覆性技术创新,其本身的技术门槛对决策者而言构成了挑战,梳理并捋清人工智能的本质内涵因而成为制定相关公共政策的前提;第二部分将着重分析人工智能时代崛起所带来的治理挑战,主要包括三个方面,即传统科层治理结构应对人工智能新的生产模式的滞后性、建基于行为因果关系之上的传统治理逻辑应对人工智能新主体的不适用性,以及人工智能发展所引发的新议题的治理空白;面对上述挑战,各国都出台了相关政策,本文第三部分对此进行了综述性对比分析,并指出了其进步意义所在。需要指出的是,尽管各国的政策目标都试图追求人工智能发展与监管的二维平衡,但由于缺乏对人工智能内涵及其发展逻辑的完整认识,当前的公共政策选择有失综合性;本文第四部分将提出新的治理思路以及公共政策选择的其他可能路径,以推动围绕人工智能治理的相关公共政策议题的深入讨论。

  

   一、人工智能的概念及技术发展逻辑:算法与数据

  

   伴随着人工智能技术的快速发展,尤其是其近年来在棋类对弈、自动驾驶、人脸识别等领域的广泛应用,围绕人工智能所可能引发的社会变革产生了激烈争论。在一方面,以霍金[2]、马斯克[3]、比尔-盖茨[4]、赫拉利[5]为代表的诸多人士呼吁加强监管,警惕“人工智能成为人类文明史的终结”;在另一方面,包括奥巴马[6]在内的政治家、学者又认为应该放松监管,充分释放人工智能的技术潜力以造福社会。未来发展的不确定性固然是引发当前争论的重要原因之一,但围绕“人工智能”概念内涵理解的不同,以及对其发展逻辑认识的不清晰,可能也同样严重地加剧了人们的分歧。正因为此,廓清人工智能的概念内涵和发展逻辑不仅是回应争论的需要,也是进一步提出公共政策建议的前提。

   就相关研究领域而言,人们对于“人工智能”这一概念的定义并未形成普遍共识。计算机领域的先驱阿兰-图灵曾在《计算机器与智能》一文中提出,重要的不是机器模仿人类思维过程的能力,而是机器重复人类思维外在表现行为的能力。[7]正是由此理解出发,著名的“图灵测试”方案被提出。但如同斯坦福大学计算机系教授约翰·麦卡锡所指出的,“图灵测试”仅仅只是“人工智能”概念的一部分,不模仿人类但同时也能完成相关行为的机器同样应被视为“智能”的。[8]事实上,约翰·麦卡锡正是现代人工智能概念的提出者。在他看来,“智能”关乎完成某种目标的行为“机制”,而机器既可以通过模仿人来实现行为机制,也可以自由地使用任何办法来创造行为机制。[9]由此,我们便得到了人工智能领域另一个非常重要的概念——“机器学习”。

   人工智能研究的目标是使机器达到人类级别的智能能力,而其中最重要的便是学习能力。[10]因此,尽管“机器学习”是“人工智能”的子域,但很多时候我们都将这两个概念等同起来。[11]就实现过程而言,机器学习是指利用某些算法指导计算机利用已知数据得出适当模型,并利用此模型对新的情境给出判断,从而完成行为机制的过程。此处需要强调一下机器学习算法与传统算法的差异。算法本质上就是一系列指令,告诉计算机该做什么。对于传统算法而言,其往往事无巨细地规定好了机器在既定条件下的既定动作;机器学习算法却是通过对已有数据的“学习”,使机器能够在与历史数据不同的新情境下做出判断。以机器人行走的实现为例,传统算法下,程序员要仔细规定好机器人在既定环境下每一个动作的实现流程;而机器学习算法下,程序员要做的则是使计算机分析并模拟人类的行走动作,以使其即使在完全陌生的环境中也能实现行走。

   由此,我们可以对“人工智能”设定一个“工作定义”以方便进一步的讨论:人工智能是建立在现代算法基础上,以历史数据为支撑,而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。这一概念尽管可能仍不完善,但它突出了人工智能技术发展和应用的两大基石——算法与数据,有助于讨论人工智能的治理问题。

   首先,算法即是规则,它不仅确立了机器所试图实现的目标,同时也指出了实现目标的路径与方法。就人工智能当前的技术发展史而言,算法主要可被划分为五个类别:符号学派、联接学派、进化学派、类推学派和贝叶斯学派。[12]每个学派都遵循不同的逻辑、以不同的理念实现了人工智能(也即“机器学习”)的过程。举例而言,“符号学派”将所有的信息处理简化为对符号的操纵,由此学习过程被简化(抽象)为基于数据和假设的规则归纳过程。在数据(即历史事实)和已有知识(即预先设定的条件)的基础上,符号学派通过“提出假设-数据验证-进一步提出新假设-归纳新规则”的过程来训练机器的学习能力,并由此实现在新环境下的决策判断。

   从对“符号学派”的描述中可以发现,机器学习模型成功的关键不仅是算法,还有数据。数据的缺失和预设条件的不合理将直接影响机器学习的输出(就符号学派而言,即决策规则的归纳)。最明显体现这一问题的例子便是罗素的“归纳主义者火鸡”问题 :火鸡在观察10天(数据集不完整)之后得出结论(代表预设条件不合理,超过10个确认数据即接受规则),主人会在每天早上9点给它喂食;但接下来是平安夜的早餐,主人没有喂它而是宰了它。

   所有算法类型尽管理念不同,但模型成功的关键都聚焦于“算法”和“数据”。事实上,如果跳出具体学派的思维束缚,每种机器学习算法都可被概括为“表示方法、评估、优化”这三个部分。[13]尽管机器可以不断的自我优化以提升学习能力,且原则上可以学习任何东西,但评估的方法和原则(算法)以及用以评估的数据(数据)都是人为决定的——而这也正是人工智能治理的关键所在。算法与数据不仅是人工智能发展逻辑的基石,其同样是治理的对象和关键。

   总而言之,围绕“人工智能是否会取代人类”的争论事实上并无太大意义,更重要的反而是在廓清人工智能的内涵并理解其发展逻辑之后,回答“治理什么”和“如何治理”的问题。就此而言,明确治理对象为算法和数据无疑是重要的一步。但接下来的重要问题仍然在于,人工智能时代的崛起所带来的治理挑战究竟是什么?当前的制度设计是否能够对其做出有效应对?如果答案是否定的,我们又该如何重构治理体系以迎接人工智能时代的崛起?本文余下部分将对此做进一步的阐述。

  

   二、人工智能时代崛起的治理挑战

  

   不同于其他颠覆性技术,人工智能的发展并不局限于某一特定产业,而是能够支撑所有产业变革的通用型技术。也正因为此,其具有广泛的社会溢出效应,在政治、经济、社会等各个领域都会带来深刻变革,并将同时引发治理方面的挑战。具体而言,挑战主要体现在以下三个方面。

   首先,治理结构的僵化性,即传统的科层制治理结构可能难以应对人工智能快速发展而形成的开放性和不确定性。之所以需要对人工智能加以监管,原因在于其可能成为公共危险的源头,例如当自动驾驶技术普及之后,一旦出现问题,便可能导致大规模的连续性伤害。但不同于飞机、大型水坝、原子核科技等二十世纪的公共危险源,人工智能的发展具有极强的开放性,任何一个程序员或公司都可以毫无门槛的进行人工智能程序的开发与应用。这一方面是由于互联网时代的到来,使得基于代码的生产门槛被大大降低[14];另一方面,这也是人工智能本身发展规律的需要。正如前文所提到,唯有大规模的数据输入才可能得到较好的机器学习结果,因此将人工智能的平台(也即算法)以开源形式公开出来,以使更多的人在不同场景之下加以利用并由此吸收更多、更完备的数据以完善算法本身,就成为了大多数人工智能公司的必然选择。与此同时,人工智能生产模式的开放性也必然带来发展的不确定性,在缺乏有效约束或引导的情况下,人工智能的发展很可能走向歧途。面对这一新形势,传统的、基于科层制的治理结构显然难以做出有效应对。一方面,政府试图全范围覆盖的事前监管已经成为不可能,开放的人工智能生产网络使得监管机构几乎找不到监管对象;另一方面,由上至下的权威结构既不能传递给生产者,信息不对称问题的加剧还可能导致监管行为走向反面。调整治理结构与治理逻辑,并形成适应具有开放性、不确定性特征的人工智能生产模式,是当前面临的治理挑战之一。

再者,治理方法的滞后性,即长久以来建立在人类行为因果关系基础上的法律规制体系,可能难以适用于以算法、数据为主体的应用环境。人工智能的价值并不在于模仿人类行为,而是其具备自主的学习和决策能力;正因为如此,人工智能技术才不能简单地理解为其创造者(即人)意志的表达。程序员给出的只是学习规则,但真正做出决策的是基于大规模数据训练后的算法本身,而这一结果与程序员的意志并无直接因果关联。事实上也正由于这个特点,AlphaGo才可能连续击败围棋冠军,而其设计者却并非围棋顶尖大师。也正是在这个意义上,我们才回到了福柯所言的“技术的主体性”概念。在他看来,“技术并不仅仅是工具,或者不仅仅是达到目的的手段;相反,其是政治行动者,手段与目的密不可分”。[15]就此而言,长久以来通过探究行为与后果之因果关系来规范人的行为的法律规制体系,(点击此处阅读下一页)

    进入专题: 人工智能   公共政策  

本文责编:limei
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 政治学 > 公共政策与治理
本文链接:http://www.aisixiang.com/data/112088.html
文章来源:中国行政管理 公众号

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2018 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
易康网