白彤东:从中国哲学角度反思人工智能发展

选择字号:   本文共阅读 242 次 更新时间:2020-09-28 00:11:48

进入专题: 人工智能  

白彤东  

   摘 要:虽然阿尔法狗等代表的人工智能的进展远远超出了自动化时代我们对机器所能完成的任务的想象,但是当今的人工智能还没有任何智能,对强人工智能的担忧是杞人忧天。不过,对强人工智能的反思,仍然可以促进我们对一些人类根本问题——比如何为智能、何为人——的探讨。从中国哲学的角度看,现在对强人工智能是否会替代和毁灭人类的担心,可能带有西方文化的偏见。但是以孟子对人之为人的理解来养育类人之存在,也有其问题。在应对现有的人工智能的挑战上,我们应该加强的,恰恰不是创造性教育,而是以死记硬背、以习题和考试为训练方式的基础和高等教育。人工智能的发展可能会强化经济不平等,对此的解决,可能也要通过加强精英的责任和贤能在政治中的决策角色来解决,而这恰恰是儒家政治哲学的一个可能贡献。

   关键词:人工智能;强人工智能;儒家;创造性教育;经济不平等

   作者简介:白彤东,复旦大学哲学学院教授,博士生导师。

   基金:上海高校特聘教授(东方学者)岗位计划(跟踪计划)。

   一、人工智能尚不是真正的智能

   最近大数据和人工智能技术的令人目眩的发展,尤其是阿尔法狗(AlphaGo)让人难以置信的成功,使得“人类是否会被人工智能控制、替代、甚至杀掉”这样的问题一跃成为热门话题。虽然有这样惊人的技术发展,但是,笔者想说的第一点是人工智能还不够智能,甚至一点智能都没有。虽然阿尔法狗击败了世界上最好的围棋选手,但是随便一个人都可以赢了它——只要我们选择和它玩中国象棋就可以。当然,如果它开始学中国象棋,它可以很快击败我们,但是我们可以再一次击败它——只要我们选择跟它比踢毽子。一般来讲,人类智能的一个核心特点是它可以做那些不是事先设计好的任务,而阿尔法狗和其他现有的人工智能产品还只能做它们被事先设计好的工作(虽然它们可以做得很好,甚至超过人类)。因此,我们可以说,现有的人工智能还没达到真正的智能。

   在美国加州伯克利分校执教的哲学家阿瓦·诺伊(Alva Noё)对此有很好的说法。钟表并不真的知道时间,而是我们人类用它来辨别时间。与此类似,迄今为止的人工智能只是被我们人类用来干那些(要用到)智能的事情。阿瓦·诺伊指出:“即使最简单的生命形式,比如阿米巴虫,也展示了某种智能、自主性(autonomy)、创造性,这甚至超越了最强大的电脑。”1根据他的说法,阿米巴虫之所以更智能,是因为它可以为自己改变和创造自己的生存环境。也许有人会说,当今的人工智能也可以做到这一点。笔者认为,更准确的说法是,阿米巴虫的独特之处,在于它并没有一个人格意义上的设计者,或者即使它有,这个设计者也没有给它一个具体的任务,而仅仅是“寻求生存”这样一个模糊的指令。人类沿着这种独特性走得更远。可以说,即便我们是被设计出来的,我们也被设计成要超越任何(固定或特定的)设计。

   笔者这里无意否认阿尔法狗和其他人工智能进步之神奇。很多人原本以为机器(包括人工智能)只擅长机械性的事情, 即那些有着清楚规则和特定程序的工作,也就是所谓的自动化。而如围棋这样只能通过经验、天分、不可言说的知识(tacit knowledge)等才能掌握的任务,机器是无法完成的。阿尔法狗证明,我们这个信念有着巨大的漏洞。但是,围棋毕竟还是一个特定的任务,有清晰的规则和一些基本的策略,并且最重要的是,它的输赢是明确定义了的,不需要人类的外来判断和干预(这样机器可以快速和高效地自我学习)。因此,阿尔法狗的成功让我们不得不承认,机器(包括人工智能)可以做绝大部分特定的、结果明确的工作,哪怕是没有机械性的步骤可以遵循来完成这项工作。但是,究其根本,阿尔法狗仍然没有人类意义上的智能:它没有选择掌握围棋,是我们人类替它选定的。

   当然,有人会说,我们还是应该为人工智能真的获得智能——即人工智能(AI)变成了所谓强人工智能(Artificial General Intelligence/AGI)——的那天做好准备。诚然,人类在预测未来上表现很糟糕。在20世纪50年代,人工智能就已经开始发展,但突破性的进展最近才发生。十年前,多数人认为纳米和生物科技才是将来科技发展的方向,很少有人意识到人工智能的巨大进展。但不幸的是,我们人类只能利用我们(经常具有误导性的)过往经验和非常有限的智能去为未来做准备。现在看起来,对人类更清晰和紧迫的挑战来自基因编辑、气候暖化这样的问题,而不是强人工智能。与前者明显的迫切性相比,反思强人工智能对人类的挑战简直就是杞人忧天。

   但是,这不等于说,反思强人工智能的问题没有任何意义。在英美哲学界有两个很热门的话题是关于僵尸和时间旅行的。如果我们知道,僵尸电影和《回归未来》(Back to the Future)系列电影在20世纪80年代很流行的话,我们可以嘲笑说,这些哲学家似乎是从流行电影中找到他们的研究话题。精神正常的人不会觉得真的会遇到僵尸,而时间旅行只存在于科幻电影之中,只是一个数学上的可能性,几乎没有物理学家认为在较近的甚至是很远的未来里面,时间旅行有任何成为现实的可能性。但是,同情地讲,反思这些看起来是闲极无聊甚至是荒诞的话题,可能还是有哲学意义的,因为它可以展现一些被隐藏起来的问题。类似的,即使真正有智能的强人工智能还远在天外,我们还是可以反思,对它的思考是否可以让我们发现一些重要和有趣的话题。实际上,我们前面“当今的人工智能还没有任何智能”的说法,就可能是这样一种反思的结果,即对(其实还很遥远的)强人工智能的憧憬或者恐惧,让我们不得不回应人类的智能为何的问题。

   二、强人工智能与中国哲学:制造超级人类?

   对强人工智能与人工智能的各种挑战的哲学反思,已经有很多。在这篇文章中,笔者会集中于从中国哲学与思想相关的角度出发,来反思其挑战。在对强人工智能的态度上,在美国,公众对强人工智能和其他科技进步常常是充满恐惧的,但在东亚,公众对科技发展似乎更持一种欢迎态度。如果这种观察确实是事实,那么一个可能的解释是,现代科学首先在西方得以发展,而在追赶过程中,东亚就很可能产生对科学的(非科学、非理性的)崇拜。在东亚,“科学”和“好的”成为同义语。另一个可能的原因,是基督教有创生的神话(creation myth),根据这一神话,只有上帝才能造人。但在东亚传统里面并没有这样的创生神话,不同的神,甚至是人都可以参与到创造和成就人类的过程中。人类会创造类人的存在,东亚人比西方人更易接受这种可能性,因为哪怕是世俗的西方人总还是在成长中可能受到基督教的潜移默化的影响。同时,伴随着这种创生神话,还有世界大毁灭的神话2,为西方人对科技进步带来世界毁灭提供了思想上的“蓝图”,这又与东亚的文化传统不同。因此,哲学和文化传统的不同,直接影响到东西方人对人工智能的不同态度和心理反应。

   这里的另一个问题是,在什么意义上我们就造就了一种类似甚至超越人的存在?前面的关注集中在人的智能上。但是,按照孟子对人之为人的理解,我们会说,在这个问题上,只关注智能是错误的。因为对孟子来讲,人之为人,或者人与禽兽的根本区别,不是智能,而是恻隐之心及建立于其上的仁。作为德性之一的智(能)是为仁服务的,即帮助我们实践我们的恻隐之心,帮助他人。对恻隐之心(compassion)这种情感(passion)的首要性的强调,在西方哲学里面是非常罕见的。正如哲学家休谟(David Hume)指出的:“谈论情感(passion)和理性(reason)之争、给予理性以优先地位,并断言人有多少道德只与在多大程度上遵从理性之命令(dictates)相关,在[西方]哲学乃至日常生活里面,没有比这些说法再通常的了。”3与之相对,休谟几乎是独树一帜地论述,就产生行动或者促使我们行动而言,“理性是并且应该只是情感的奴隶”3。当代神经科学家安东尼奥·达马西奥(Antonio Damasio)引用了休谟的后一种说法,并且也为情感在人类行动中的首要性做出论证。4但是,如上所述,休谟关心的是人类行动的驱动因素,达马西奥更是主要在经验层面关心这个问题,并诉诸进化论。用进化论的语言来讲,我们可以说,休谟和达马西奥实际是在论述,由于其更长的演化历史,人类中动物性的因素比我们的理性要强大得多。如达马西奥指出的:“神经系统只是在5亿年前进入了生命的舞台。比起演化的时间尺度,比起地球上生命的40亿年的历史来讲,这实在微不足道。”4他这里说的是神经系统,而人类乃至人类智能这种依赖于极其复杂的神经系统的演变,当然就更短了。

   因此,虽然在西方传统里面,休谟和达马西奥已经是少有的例外了,但是他们的立场还是与孟子有着根本不同。孟子所关注的是恻隐之心,而非任意一种情感,并且他对恻隐之心这种情感的强调,不是出于它是与动物相通并且有着长久的演化积累,而是因为它以及建于它之上的仁是人兽之别的根本。在《孟子·离娄下》中,孟子指出:“人之所以异于禽兽者几希。”5他这里虽然没有明确指出区分人类与禽兽的这一点点东西(“几”)是什么,但是从其他地方看,这种区分应该是从恻隐之心发展出来的仁。在《孟子·公孙丑上》中,孟子指出“不忍人之心”(恻隐之心或者同情心)是人类所共同的(“皆有”)。人类需要培养人皆有之的恻隐之心,这样才能配得上人的名声。因此,孟子并不认可情感是人类行动之主宰这一立场(休谟和达马西奥的立场),而是要求人类的理智和其他自然情感都要被恻隐之心所规管。也就是说,孟子以及追随孟子的儒家的立场与休谟和达马西奥等西方思想家中这样强调情感重要的少数派仍然有着根本不同,其对恻隐之心的强调有其独特性。

   当然,西方道德学说的主流学说之一的功利主义的核心,在于根据是否提高最大多数人的最大幸福的理性计算,而另一主流学说的义务论,也强调对理性的道德原则的服从。与此相对,休谟一支的思想家更为强调情感的指导。孟子式的儒家强调对恻隐之心这种道德情感的培养,让其成为我们行动的推动者。在情感的指导功能上,孟子式的儒家与休谟式的思想家有相通之处,可以互相借鉴。

   从孟子的立场出发去回答我们是否在创造类人的存在,我们要关注的是我们是否创造了“人工道德情感”,而不是“人工智能”。对强人工智能的担心,从孟子的角度看,不是对类人但强于人的存在的担心,而是对(具有超人智能的)禽兽的担心。著名的图灵测试,在对机器与人的区别上,关注的是语言和理性。但按照孟子对人的理解,我们应该关注的是被试者是否展示出恻隐之心。并且,即使我们创造了具有内在的善的存在,即使这个存在通过了孟子式的图灵机测试,这并不意味着我们制造类人存在的使命就完成了。虽然根据孟子,恻隐之心是人兽之别的关键,但是成人是一个过程,不是一个固定的点。生物意义上的人仍然需要学习成为孟子的道德与规范意义上的人。正如恻隐之心可以变得越来越强,我们也可以成长得越来越是人,或者成长为越来越大的人(道德意义上的大小)。如果一个生物意义上的人不好好抚育人的天生的善性,他可能会退化得近于禽兽。这对孟子而言没什么好奇怪的。比如,《孟子·滕文公上》指出:“饱食、暖衣、逸居而无教,则近于禽兽。”既然生物意义上的人可以退化成禽兽,那么,一个被制造出来的存在可以通过培养道德情感而变成人,也没有什么好奇怪的了。

孟子的道德培养是我们成人之关键性的观点也可能会帮助回应另一个对强人工智能的担忧。强人工智能可以在智能和体格上强于人,如果它们被设计成或者自己选择(强人工智能的重要特征就是可以自主决定)去消灭人类,谁也拦不住它们。因此,让它们的行为得以规管就变得很重要了。但是如果我们希望通过编码或者律令来规管其行动,比如阿西莫夫的机器人三定律(Issac Asimov's Three Laws of Robotics),它们很可能最终无法处理复杂的生活所带来的挑战。其实我们只要看看揭示伦理两难的电车问题可以膨胀成一个研究领域,(点击此处阅读下一页)

    进入专题: 人工智能  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 哲学 > 科学哲学
本文链接:http://www.aisixiang.com/data/123039.html
文章来源:《中州学刊》

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2020 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
工业和信息化部备案管理系统