陈玉荣:对人工智能技术逻辑、风险挑战与公共政策治理选择的建议

选择字号:   本文共阅读 151 次 更新时间:2017-10-12 10:09:29

进入专题: 人工智能  

陈玉荣  

   伴随此轮人工智能发展高潮,社会中普遍存在这样的担忧与疑虑:机器是否会取代人类,人工智能是否会成为人类文明史的终结?在未来的人类生活中,人工智能也必将扮演越来越重要的角色。对于这样的图景,我们自不必惊慌,但也不可忽视。监管人工智能,找到正确的方向并采取合理的措施,正是当下所应该重视的政策议题。人工智能在其60余年起起伏伏的发展史中,再次迎来了高潮。但伴随此轮发展高潮的,同样还有社会中普遍存在的担忧与疑虑:机器是否会取代人类,人工智能是否会成为人类文明史的终结?这样的担忧自有其合理性所在,而也正是基于此,要求政府介入并对人工智能的发展进行监管的呼声不绝于耳。可问题在于:对于一个尚未成为现实而仅存在于想象中的“威胁”,究竟应该如何施以监管,以避免“孩子跟洗脚水一起倒掉”?正因为如此,2017年7月,国务院印发《新一代人工智能发展规划》,不仅对人工智能的发展做出了战略性部署,还确立了“三步走”的政策目标,力争到2030年将我国建设成为世界主要的人工智能创新中心。这是因为人工智能发展进程中所面临的挑战才不仅仅局限于技术或产业领域,而更多体现在经济、社会、政治领域的公共政策选择上。首先,普遍建立在科层制基础上的公共事务治理结构,是否能够适应技术发展和应用过程中所大规模激发的不确定性和不可预知性?再者,长久以来围绕人类行为的规制制度,是否同样能够适应以数据、算法为主体的应用环境?最后,如何构建新的治理体系和治理工具来应对伴随人工智能发展而兴起的新的经济、社会、政治问题?应对上述挑战并不完全取决于技术发展或商业创新本身,而更多依赖于我们的公共政策选择。本文试图在分析人工智能发展逻辑及其所引发的风险挑战的基础上,对人工智能时代的公共政策选择做出分析,并讨论未来改革的可能路径,这也就构成了人工智能治理的三个基本问题。具体而言,人工智能本身成为治理对象,其发展与应用构成了治理挑战,而在此基础上如何做出公共政策选择便是未来治理变革的方向。

  

一、人工智能的概念及技术发展逻辑:算法与数据

  

   伴随着人工智能技术的快速发展,尤其是其近年来在棋类对弈、自动驾驶、人脸识别等领域的广泛应用,围绕人工智能所可能引发的社会变革产生了激烈争论。在一方面,以霍金、马斯克、比尔-盖茨、赫拉利为代表的诸多人士呼吁加强监管,警惕“人工智能成为人类文明史的终结”;在另一方面,包括奥巴马在内的政治家、学者又认为应该放松监管,充分释放人工智能的技术潜力以造福社会。未来发展的不确定性固然是引发当前争论的重要原因之一,但围绕“人工智能”概念内涵理解的不同,以及对其发展逻辑认识的不清晰,可能也同样严重地加剧了人们的分歧。正因为此,廓清人工智能的概念内涵和发展逻辑不仅是回应争论的需要,也是进一步提出公共政策建议的前提。就相关研究领域而言,人们对于“人工智能”这一概念的定义并未形成普遍共识。计算机领域的先驱阿兰-图灵曾在《计算机器与智能》一文中提出,重要的不是机器模仿人类思维过程的能力,而是机器重复人类思维外在表现行为的能力。正是由此理解出发,著名的“图灵测试”方案被提出。但如同斯坦福大学计算机系教授约翰·麦卡锡所指出的,“图灵测试”仅仅只是“人工智能”概念的一部分,不模仿人类但同时也能完成相关行为的机器同样应被视为“智能”的。事实上,约翰·麦卡锡正是现代人工智能概念的提出者。在他看来,“智能”关乎完成某种目标的行为“机制”,而机器既可以通过模仿人来实现行为机制,也可以自由地使用任何办法来创造行为机制。由此,我们便得到了人工智能领域另一个非常重要的概念——“机器学习”。

   人工智能研究的目标是使机器达到人类级别的智能能力,而其中最重要的便是学习能力。因此,尽管“机器学习”是“人工智能”的子域,但很多时候我们都将这两个概念等同起来。就实现过程而言,机器学习是指利用某些算法指导计算机利用已知数据得出适当模型,并利用此模型对新的情境给出判断,从而完成行为机制的过程。此处需要强调一下机器学习算法与传统算法的差异。算法本质上就是一系列指令,告诉计算机该做什么。对于传统算法而言,其往往事无巨细地规定好了机器在既定条件下的既定动作;机器学习算法却是通过对已有数据的“学习”,使机器能够在与历史数据不同的新情境下做出判断。以机器人行走的实现为例,传统算法下,程序员要仔细规定好机器人在既定环境下每一个动作的实现流程;而机器学习算法下,程序员要做的则是使计算机分析并模拟人类的行走动作,以使其即使在完全陌生的环境中也能实现行走。

   由此,我们可以对“人工智能”设定一个“工作定义”以方便进一步的讨论:人工智能是建立在现代算法基础上,以历史数据为支撑,而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。这一概念尽管可能仍不完善,但它突出了人工智能技术发展和应用的两大基石——算法与数据,有助于讨论人工智能的治理问题。

   首先,算法即是规则,它不仅确立了机器所试图实现的目标,同时也指出了实现目标的路径与方法。就人工智能当前的技术发展史而言,算法主要可被划分为五个类别:符号学派、联接学派、进化学派、类推学派和贝叶斯学派。每个学派都遵循不同的逻辑、以不同的理念实现了人工智能的过程。举例而言,“符号学派”将所有的信息处理简化为对符号的操纵,由此学习过程被简化为基于数据和假设的规则归纳过程。在数据和已有知识的基础上,符号学派通过“提出假设-数据验证-进一步提出新假设-归纳新规则”的过程来训练机器的学习能力,并由此实现在新环境下的决策判断。

   从对“符号学派”的描述中可以发现,机器学习模型成功的关键不仅是算法,还有数据。数据的缺失和预设条件的不合理将直接影响机器学习的输出(就符号学派而言,即决策规则的归纳)。最明显体现这一问题的例子便是罗素的“归纳主义者火鸡”问题 :火鸡在观察10天之后得出结论(代表预设条件不合理,超过10个确认数据即接受规则),主人会在每天早上9点给它喂食;但接下来是平安夜的早餐,主人没有喂它而是宰了它。

   所有算法类型尽管理念不同,但模型成功的关键都聚焦于“算法”和“数据”。事实上,如果跳出具体学派的思维束缚,每种机器学习算法都可被概括为“表示方法、评估、优化”这三个部分。尽管机器可以不断的自我优化以提升学习能力,且原则上可以学习任何东西,但评估的方法和原则以及用以评估的数据都是人为决定的——而这也正是人工智能治理的关键所在。算法与数据不仅是人工智能发展逻辑的基石,其同样是治理的对象和关键。

   总之,围绕“人工智能是否会取代人类”的争论事实上并无太大意义,更重要的反而是在廓清人工智能的内涵并理解其发展逻辑之后,回答治理什么和如何治理的问题以及明确治理对象为算法和数据无疑是重要的一步。但接下来的重要问题仍然在于,人工智能时代的崛起所带来的治理挑战究竟是什么?当前的制度设计是否能够对其做出有效应对?如果答案是否定的,我们又该如何重构治理体系以迎接人工智能时代的崛起?本文余下部分将对此做进一步的阐述。

  

二、人工智能时代崛起的治理挑战

  

   不同于其他颠覆性技术,人工智能的发展并不局限于某一特定产业,而是能够支撑所有产业变革的通用型技术。也正因为此,其具有广泛的社会溢出效应,在政治、经济、社会等各个领域都会带来深刻变革,并将同时引发治理方面的挑战。具体而言,挑战主要体现在以下三个方面。

   首先,治理结构的僵化性,即传统的科层制治理结构可能难以应对人工智能快速发展而形成的开放性和不确定性。之所以需要对人工智能加以监管,原因在于其可能成为公共危险的源头,例如当自动驾驶技术普及之后,一旦出现问题,便可能导致大规模的连续性伤害。但不同于飞机、大型水坝、原子核科技等二十世纪的公共危险源,人工智能的发展具有极强的开放性,任何一个程序员或公司都可以毫无门槛的进行人工智能程序的开发与应用。这一方面是由于互联网时代的到来,使得基于代码的生产门槛被大大降低;另一方面,这也是人工智能本身发展规律的需要。

   2016年10月19日,霍金在剑桥大学Leverhulme未来智能中心的开幕仪式上发表演讲,声称“人工智能可能是人类文明史的终结……其在人类历史上,可能是最好的,也可能是最糟糕的”。这并不是霍金第一次对人工智能的发展发出警告。2014年在接受BBC的采访时,他也表达了类似的观点。自那之后,霍金也积极投入到宣传、推动对人工智能研究进行合理规范的行动当中。事实上,Leverhulme未来智能中心成立的重要使命之一便是化解AI(人工智能)可能带来的风险。霍金并非“杞人忧天”的唯一,特斯拉、SpaceX的创始人埃隆·马斯克同样屡次警告人工智能潜藏的巨大风险。在霍金、马斯克等人的推动下,超过892名人工智能研究人员以及另外1445名专家共同签署并发布了《人工智能23条原则》,以确保人工智能的发展行进在正确轨道上。人工智能是否会取代甚至“奴役”人类的可能性并非是针对其的唯一担忧,人工智能对于就业的冲击、社会不平等状况的加剧同样是引起人们焦虑的重要原因。《未来简史》的作者尤瓦尔·赫拉利就直接指出:人工智能的发展将导致大量失业等社会问题的出现,并使得少数个体成为“超人”中的新精英而大部分人类都将沦为在经济、政治意义上毫无价值的个体,由此人类将进入最不平等的时代。我们是否应该相信霍金、马斯克和赫拉利等人对于人工智能的担忧呢?不同的人有不同的观点。扎克伯格就曾批评过马斯克,他认为“现在对于人工智能安全性的担忧,就如同两百年前担心飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。”事实上,历史上任何一项颠覆性的技术进步都伴随着诸多质疑,无论是原子能技术的发明,抑或是基因工程的突破,无不如此。但历史最终证明,人类社会的发展并未陷入混乱或终结,这也说明当前对于人工智能的担忧或许存在一定的夸大成分。不过另一方面,人工智能的发展又的确潜藏了巨大风险,放任自流的监管态度明显不是最优选择。同样需要指出的是,自1960年代OECD提出“知识社会”的概念之后,技术发展就成为了与土地、人口并重的国家竞争力的重要体现之一。如何通过合理监管以有效引导本国人工智能技术的发展,自然成为各国政府绕不开的难题。也正因为此,当前争议的核心并非“是否应该对人工智能的发展进行监管”,真正的挑战在于“监管什么”,以及“如何监管”。事实上,只有回到人工智能技术本身并从其基本原理出发,才能正确理解什么是人工智能,它能干什么、不能干什么,潜藏的价值和风险又是什么。只有建立在对这些问题正确理解的基础上,我们才能为未来的监管政策提出有益建议。

正如前文所提到,唯有大规模的数据输入才可能得到较好的机器学习结果,因此将人工智能的平台(也即算法)以开源形式公开出来,以使更多的人在不同场景之下加以利用并由此吸收更多、更完备的数据以完善算法本身,就成为了大多数人工智能公司的必然选择。与此同时,人工智能生产模式的开放性也必然带来发展的不确定性,在缺乏有效约束或引导的情况下,人工智能的发展很可能走向歧途。面对这一新形势,传统的、基于科层制的治理结构显然难以做出有效应对。一方面,政府试图全范围覆盖的事前监管已经成为不可能,开放的人工智能生产网络使得监管机构几乎找不到监管对象;另一方面,由上至下的权威结构既不能传递给生产者,信息不对称问题的加剧还可能导致监管行为走向反面。调整治理结构与治理逻辑,并形成适应具有开放性、不确定性特征的人工智能生产模式,(点击此处阅读下一页)

    进入专题: 人工智能  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益笔会 > 科学精神 > 科学评论
本文链接:http://www.aisixiang.com/data/106415.html
文章来源:中国绿色经济

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。

学友讨论

Powered by aisixiang.com Copyright © 2017 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
易康网