殷卫海:人工智能热点问题

选择字号:   本文共阅读 1105 次 更新时间:2017-10-27 11:39:20

进入专题: 人工智能  

殷卫海  

  

   Q&A

   A=殷卫海,上海交通大学教授

   Q1:2017年,阿法狗完全打败了国际围棋的顶尖高手柯杰,而阿法元通过自学打败了阿法狗。你是如何看待这两个现象级事件的?

   A:(1)这是人类科学技术的重大进展,是人类的骄傲。必须注意到,阿法狗和阿法元的创造者和拥有者都是人类,同样人类也决定着阿法狗和阿法元是否参加比赛或者退役。所以,阿法狗或阿法元打败了人类围棋的顶尖高手绝对不说明人类的无能,而更说明了人类的创造能力达到了一个新高度。

   (2)阿法狗和阿法元的成功又一次证明部分人类智力的规律是能够被人类揭示并且让机器学习的。

   (3)从历史的角度看,机器学习的先驱Arthur Samuel在1959年开发了一个国际跳棋程序,已经证明了机器的学习能力。七年后这个程序就战胜了美国一位八年保持不败的高手。1997年,IBM的Deep Blue就战胜了国际象棋世界冠军卡斯帕罗夫。所以,阿法狗战胜围棋顶尖高手这一事件本身一点都不令人惊讶。

   (4)人类的精神远比智力丰富和伟大,人类的文化也远比数据丰富和伟大。我相信这是在“人工智能(Artificial Intelligence, AI)时代”人类必须坚定保持的信念之一。

   (5)以为阿法狗和阿法元的成功就证明了机器超越了人类是肤浅的想法。通过阿法狗和阿法元的成功而无限夸张人工智能的伟大、并极力贬低人类的行为也是愚蠢和危险的。

   Q2:软银的孙正义在他于MWC 2017大会上的演讲中预测“未来30年,智能机器人的数量(包括智能汽车)会超过人口总量。”你是如何看这个问题的?

   A:(1)根据我们对以往二十多年电脑、网络、手机发展状态的观察,以及现在全球对于人工智能的狂热、人工智能技术发展的速度来看,他的预测是很有道理的。

   (2)我觉得人类必须思考未来50年、100年后这个地球上会发生什么。只要没有法律法规的限制,几乎可以肯定智能机器人的数字会不断增加,而其数字几乎肯定会超过人类、并且会远远超过人类。人类在五十年后可能就会生活在智能机器人的海洋之中。在这样的世界,我们将如何和智能机器人相处?我们可能和智能机器人和平相处么?我们在这样的社会还能够继续发展人类文明并拥有幸福么?我们应该让智能机器人不受限制地增长么?为什么人类一定要任凭智能机器人无限制地增长?这些问题不再是科幻小说中的问题,这是我们、我们的子孙一定会面对的问题和选择。

   (3)我对“人类在一个智能机器人数目远超过人类的社会还能够继续发展人类文明并拥有幸福么?”这个问题有以下回答:智能机器人肯定将具有越来越强大的自主学习能力,完全可能超越人类的控制。当智能机器人数目远超过人类,人类很可能会完全失去对智能机器人的控制。我预测人类在就业上、安全上、心理健康上、哲学上、社会稳定性上都会处于极其危险和痛苦的状态,而到那时人类的真正灭绝就会只是早晚的事情。

   (4)依据于我以上的判断,我相信如果人类要生存和发展,唯一的选择就是必须对智能机器人的数量及其拥有的能力用法律法规和管理条例做出极其严格的限制,比如可以限制智能机器人的数量在一个国家中永远不允许超过人类数量的某一个比例,而且应该严格禁止发展可能完全超越人类控制的“超人工智能”机器人。

   (5)对于“为什么人类一定要任凭智能机器人无限制地增长?”这个问题,我有以下回答:我坚信的伦理学是--- “任何对于人类的幸福和人类文明发展具有价值的才是符合伦理的”。当某些高科技对人类产生了巨大的威胁和伤害的时候,它就是完全不符合伦理的。所以,任何人都没有理由用表面冠冕堂皇的“科技发展”的借口来使得一个伤害人类的高科技变得符合伦理。所以,我们任凭智能机器人无限制的发展就将是最不符合伦理的行为。

   Q3:不少人认为人工智能将会造成大量的失业。你如何看待这个问题的?

   A:(1)造成大规模失业是人工智能对于人类社会的最大威胁。如果大规模失业不断地蔓延向很多行业,其对于社会的稳定性将造成不可估量的伤害。所以,应对“人工智能造成大规模失业”是我们在建立应对战略中的首要任务。本书对于这一应对战略作了系统的阐述。我相信,随着人类思考的不断深入加上坚决有力的行动,人类是能够征服“人工智能造成大规模失业”这个人类社会将面临的最大魔鬼的。

   (2)本书提出了在“人工智能时代”,将有一些职业会得到显著的发展。探索和发展新的工作机会、同时用各种方法抑制人工智能对于人类工作的取代是未来社会最重要的工作之一。

   (3)可能会有观点认为尽管人类工作会被取代,未来自然就会有新的工作出现从而避免失业率增加的发生,因此大可不必担心人工智能取代人类的工作。我认为这是极其盲目、危险的乐观,而对于决定人类命运的事情,这种盲目的乐观是不被允许的。我相信谨慎地控制人工智能产业的发展才是最合理的战略。尽管“人工智能时代”会产生一些新的工作,根据现有的信息,我个人相信如果放任人工智能产业的发展,人工智能将取代的人类工作的数量会远远超过其带来的新工作的数量。

   (4)美国信息技术与创新基金会(ITIF)的调查数据分析认为,与一些认为技术发展会对劳动力市场造成破坏的看法相反的是,在从1850年到2015年这165年里,因技术进步而对劳动力市场产生破坏和扰乱的情况是很少发生的。我对这一分析的观点是:(1)用165年的历史来预测人类的未来是极度不科学的。就像一个地区以往200年里没有发生过地震、没有过社会暴乱,就可以预测这个地区将永远不会发生地震和社会暴乱了么?(2)从特斯拉、富士康工厂中的机器人,到无人机、无人商场等,再到正在快速强大丰富的人工智能技术及其应用,如果一个人从如此多的信号中还看不出人工智能将取代大量的人类工作,只能说这个人很缺乏对于未来发展的洞察力。(3)本书将从各个角度论证,只要没有社会的干预,人工智能必然将取代极其大量的人类工作。

   Q4:在2017年7月,特斯拉的CEO Elon Musk和脸书的CEO Mark Zukerberg关于人工智能对人类是一个威胁还是一个好事有着公开的激烈争论。你是如何看待这个争论的?

   A:(1)用“盲人摸象”的故事来比喻,Elon Musk和Mark Zukerberg像那些表达了片面判断的盲人。我惊讶于Mark Zukerberg思想的狭窄。无论是原子能的发现还是病毒学的发现,不少高科技都是“双刃剑”,它们一方面可以为人类提供很高的价值,另一方面也为生产大规模杀害人类的武器建立了基础。这些都是毋庸置疑的事实,为什么Mark Zukerberg还要一味地说:“人工智能将制造出很多对于人类很好的产品”,而完全无视于人工智能对人类的威胁呢?而Elon Musk认为人工智能对于人类的威胁主要是人身安全等,这其实也是很不全面充分的判断。如我在这本书中将详细论述的,人工智能对人类最大的威胁是造成大规模的失业,其它重大的威胁还包括对人类社会在心理健康上、哲学上、以及社会稳定性上极其深刻和严重的威胁。

   (2)两位国际顶尖的科技界领袖对如此重要复杂的问题提出了狭窄的判断,是让我感到十分震惊和担心的。这一事件说明,至今人类社会根本就没有将“人工智能对于人类社会的影响”这个决定人类社会命运的核心问题思考清楚,还处于十分初始和肤浅的状态。而同时很多企业已经对人工智能产业以极大的狂热进行了大规模的工作和投资。这种危险的状态必须被扭转。政府、企业、大学以及全社会都应该理智清醒地对“人工智能对于人类社会的影响”这个核心问题进行深入全面的思考和探讨。如果不这样做,人工智能必然会成为人类历史上最糟糕的事。

   (3)这两位科技领袖判断的狭窄性也进一步坚定了我的判断:“人工智能是根本没有资格取代人类的”。价值判断是具有最根本意义的。而人工智能的装置恰恰是由Elon Musk和Mark Zukerberg等人领导的工程师们设计的。如果这些领袖的判断都是如此的狭窄,难道我可能会同意将人类的地位拱手交给那些工程师们设计的人工智能装置么?何况人工智能产品还有安全性等问题。

   Q5:2015年7月7日,美国密西根州汽车配件厂的工人Wanda Holbrook成为了人类历史上第一起“机器人杀人案”的受害者。你是如何看待这一事件的?

   A:(1)必须设立极其严格的人工智能产品的安全性标准。可以预见随着人工智能设备数量的爆炸性增长,未来人工智能设备伤害人类的事件会越来越多,而这还没有包括恐怖分子或其它集团通过控制人工智能设备伤害社会、勒索社会这些可能发生的事件。而这些事件的发生无疑会使制造以及使用这些人工智能设备的企业在经济上和法律上遭受极其巨大的损失。

   (2)无论是企业、社会还是个人,都不要由于这次人工智能的热潮而丧失冷静,都应该充分地思考人工智能可能造成的不良后果甚至危机。

   (3)社会必须建立起强有力的法律法规和管理制度,不仅要保证人工智能对于人类社会价值的实现,而更要最大限度地防止人工智能对于人类社会的威胁。

   Q6:现在不少专家认为23-30年后,人类将迎来史无前例的‘奇点’。在这个‘奇点’上,人工智将能实现瞬间飞跃,成为“超人工智能”,其智能将超过、甚至远远超过普通人的智力。你是如何看待这一观点的?

   A:(1)人工智能在技术上的发展取决于至少以下四个要素:算法技术、大数据技术、云计算技术、以及并行计算芯片技术。我同意在未来的23-30年中,这些技术都会有极其迅猛的发展,而这些发展完全可能使人工智能从“弱人工智能”发展成为“强人工智能”,并进一步发展成为“超人工智能”。

   (2)人类社会必须回答的极重要问题是:如果“超人工智能”的机器人是完全超出人类控制的、可能严重伤害人类的,我们还应该允许“超人工智能”不受任何限制地发展么?我的观点是:对于可能完全超出人类控制的、可能严重伤害人类的具有“超人工智能”的机器人,我们必须用法律法规和管理条例极其严格地管理和限制这类机器人的生产。如果不这样做,人类社会其实就在进行着自杀,因为每天人类都在制造着对人类具有巨大威胁的敌人。

   (3)如果明知道具有“超人工智能”的机器人对于人类的生存具有极其巨大的威胁,难道我们还有任何理由任其发展么?其实事情非常简单,放任具有“超人工智能”的机器人的发展就是在放任对极多的民众、对人类的杀害。

   Q7:2017年美国有些人在讨论关于设立政府基金,用于支付由于人工智能失去工作的人们的福利。你如何看待这个建议?

   A:对于瑞典等富有创新能力的人口小国,这可能是一个可行的方法。但对于中国和美国这样的大国,我认为这种建议实现的可能性是很小的:1)政府很可能没有足够的财政资源支付大量的待业人员的福利。2)做工作是人类获得其人生价值和尊重的基础。即使待业人员能够依赖政府给予的福利过上温饱的生活,长期没有工作本身仍将极大地伤害他们的人生价值和自尊感。

   Q8:特斯拉的Elon Musk为人工智能可能造成人类灭亡在做准备,他在实行他的“火星计划” --- 希望能够将人类殖民到火星。你怎么看这个想法?

   A:(1)为了能够运送人类到火星,Elon Musk已经制造出了可以被回收的火箭。这些是值得称颂的伟大的高科技成功。

   (2)为预防人工智能造成人类灭亡,人类不应该将“逃向火星”作为一个重要的选择,而反而不运用人类的所有力量去征服人工智能对于人类的威胁。从现状来看,人类对人工智能对于人类社会影响的思考还是极其不充分、不成熟的,也必须承认人类社会对于这些最重要问题的关注和投入的精力是极度不充分的。这种状况如果不尽快被扭转,必将造成极其严重的后果。

   (3)如果人类战胜不了人工智能对于人类的威胁而不得不逃往火星,我完全不相信那些逃到火星上的人们可能在我们了解极少的火星上生存下去。

   殷卫海,上海交大生物医学工程学院教授、Med-X研究院副院长。

  

    进入专题: 人工智能  

本文责编:frank
发信站:爱思想(http://www.aisixiang.com),栏目:天益笔会 > 科学精神 > 科学评论
本文链接:http://www.aisixiang.com/data/106604.html

1 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2021 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统