於兴中:人与科技:从智能间的平衡到人性的平衡

选择字号:   本文共阅读 2585 次 更新时间:2022-04-12 00:29

进入专题: 人工智能  

於兴中  


摘要:从复合智能的角度审视人工智能,不难发现人工智能只是人的智能的某些层次的展现,并不是全部,而人的智能的许多层面并不是可以计算或者进行逻辑分析的。人的智能之间有一种并不需要刻意追求的自然的平衡。但人工智能的发展应该寻求反映人的智能的各个层次的自然平衡。智能间的平衡给人工智能的开发提供了一种可欲的前景。但是,比智能间的平衡更重要的是人性的平衡。智能间的平衡增强了人的理性的力量,而高度发达的理性很可能会牺牲人的情感和灵性,从而使人单向度发展,使人性失去平衡。从人的智能的多种层次和人性的多种层面来看,人工智能是无法代替人的智能的,即便是在计算方面人远不如机器。为了避免人性单向度的发展,人工智能的研究必须考虑智能间的平衡和人性的平衡。


一、引言

不管我们是处于新时代、后时代,还是未来时代,我们都需面对人和科技的问题;无论将其称为旧科技、新科技,还是智能科技,我们都必须面对人工智能。面对人工智能,就要面对科技乌托邦和科技现实主义的矛盾,面对人工智能研究中的难题和利益驱动下的炒作,尤其要面对人工智能会否代替人类的这种可怕的忧虑。这显然是我们这个充满了未知而且动荡不堪的世界上一个关乎所有人的困惑,但要对如此重大的问题提供一种解答并非易事。笔者在此只想提供一些粗浅的看法。

本文拟从人工智能和人的智能的区分入手,理解什么是人工智能,它的局限性以及它到底能走多远等问题,指出人的智能具有多重表现,而人工智能只是其中的部分反映。然后,笔者试图从人性的角度深入理解人工智能的局限性,亦即从人的精神状态或精神世界的角度,去探讨人的理性和非理性与人工智能的关系,指出人的多种智能间应该有适当的平衡。

鉴于这样的情况,社科、人文学科应该如何来应对?如何来面对现在方兴未艾的智能科技运动?本文在结尾部分就这一问题提出了一些看法。

二、人与科技:一个历久弥新的话题

人与科技是一个亘古长新的命题,在人类历史的长河中很多思想家都对科技与人的关系、科技本身的实质和性质,以及人和科技如何相处等等一系列的问题做过很多精辟的论述,也提供了许多精彩的观点。例如,柏拉图的《法律篇》,亚里士多德的《物理学》,以及老子、庄子的见解,而庄子有好多论述读了之后让人顿悟。

《庄子·天地篇》说子贡南游于楚,路过一个叫汉阴的地方,看到一位老者在灌溉田地,跑来跑去拿水,干了半天,事倍功半,没有什么太大的效果。子贡就跟老者说,你何不制造一个名为“槔”的机械,用它来灌溉?老者问他详情。子贡便告诉他,一旦制造出这种机械,就不需要这么劳累了,是事半功倍的事情。老者听了之后不以为然,说道:

吾闻之吾师,有机械者必有机事,有机事者必有机心。机心存于胸中则纯白不备。纯白不备则神生不定,神生不定者,道之所不载也。吾非不知,羞而不为也。

他说如果采取你这种办法的话,心里就不纯净了;心都不纯净了,何以成事。追求大道也追求不到。我不是不知道你讲的事。我知道,但是我不愿意做,是羞而不为。

在西方的科技发展史上,人们对科技所采取的态度大相径庭。一个特别有意思的例子是英国诗人拜伦(Lord Byron)和他女儿艾达。拜伦是19世纪英国非常杰出的诗人,他和雪莱被称为当时英国最伟大的两个诗家。拜伦是反技术的卢德主义者的支持者,而他的女儿则对新技术的发展作出过贡献。

拜伦是一位浪漫派的诗人,做过英国议员。17、18世纪工业革命时,发生了一系列变化,进入了机器时代。纺织机之类的机器出现后,大量的工人被替代。因此,当时在英国有一些工人起来反抗,破坏机器。其中有一个人叫卢德,他号召了一批人大肆破坏机器,招致英国政府的镇压。很多卢德派的人被处以刑罚。拜伦同情卢德派人,专门给议会提交了提案,反对英国制定的关于针对损毁机器的人(卢德派)的刑法,不过他的反对并没有奏效。他后来专门写了一首歌颂卢德派的诗,叫卢德派之歌。这首诗广泛流传,每一本拜伦的诗选都会收入这首。

拜伦的女儿艾达出生不久,拜伦因为债台高筑,不得已出走,去了希腊那一带旅游,把女儿留在家里。但这个孩子后来得到很好的教育,她对机械特别感兴趣。后来成为第一个将分析引擎技术与提花机结合的计算机程序员,写出了该领域第一个算法(algorithm),因之被公认为史上第一位程序设计师。

最近,英国工业联合会(Confederation of British Industry,CBI)发布了一份报告,预测到2030年的时候,每10个英国人中就有9个需要学习新技能,或者全面进行重新培训。根据CBI的数据,英国有2100多万人缺乏应对数字化所需的基本数字技能。而基于这些问题,预计将在未来10年内花费1300亿英镑。因为新技术数字智能的发展,现在工人也面临着非常大的问题。技术的问题永远是一个大问题,到时候都会发生很大的变化,造成很大的后果。

细读人类技术发展史,不难发现一些特点。技术的发展会提高生产力,促进经济发展,这一点很少有人怀疑。而且技术革命同时也会带来巨大的社会进步,比如民主制度、选举制度以及对个人权利的尊重等。当然,技术的最大受惠者是政府,对内政府可以采用先进技术来维持秩序进行治理,对外可以增强军事实力。人工智能出现以来,世界上好多国家都把它用于军事或者维持内部秩序。

而每一次技术变革都会导致不平等,这也是一个大的问题。我们经常说已经进入算法社会、人工智能的时代、数字时代、数据时代等;进入之后,你会发现它是一个精英社会,一般的老百姓如果没有经过训练,没有受到很好教育的话,很可能就会被抛弃。美国是一个非常发达的社会,经济发达、制度先进,但是我们看到不平等问题仍非常严重,而且这种不平等可能也是与技术有关系。技术带来了很大的不平等,而且这种不平等广泛存在,但似乎没有好的办法对待。如果说实行了一种不平等的社会制度,人们可以反对,可以抗议,政府可能会取消这种不平等的制度。但是技术的不平等,治理带来的不平等,是很难取消的,只能想办法慢慢缓解。

因此在这种情况下就会凸显宗教的重要性。在每一次大的技术革命或革新后,宗教的重要性就突然一下子被抬高。针对人工智能或是一些新的技术,脑神经科学、基因改造等等技术,开始考虑到底人有没有能力来制造人?人应该不应该制造人、创造人?这种情况下宗教的意义也就显得更加重要了。但是截至目前,还没有任何一种技术改变了人的主体地位。

然而,如果我们相信科技乌托邦主义,很可能人的主体地位也会被取消。科技乌托邦是一个由来已久的观念,推崇技术优先、技术决定论。科技乌托邦主义者推测,未来是一种技术性的治理,技术统治的社会是更好的社会。根据理性的、数学的、逻辑的安排,我们的政治制度、社会制度、经济制度都会非常合理。这样的社会到来的时候,一定是个美好的社会。不过,科技乌托邦的美好愿景不一定能够实现。

库兹韦尔(Ray Kurzweil)是一个发明家,也曾经是谷歌非常重要的技术监管人才,一个非常优秀的科学家,同时他又是个未来学家。他做了好多预言,据说65%都实现了。在2005年他写过一本书叫《奇点来临》(The Singularity is Near),在书中他提出了两个预言:第一个说在2029年的时候,计算机的发展就会达到图灵测试,也就是说,计算机的智能就会达到人的水平。今年是2021年,还有不到10年时间,现在看来实现的可能性是比较小的。

另一个说2045年是奇点来临的时候。那时,一种超级人工智能(ASI)将会居于统治地位。那时候人和芯片、计算机可能结合在一块,人就可能变得比现在聪明多少倍。这个预言也很难说能够实现。与此同时也有凑热闹的人,写了一本书叫做《社会奇点》(Social Singularity)。库兹韦尔的奇点(singularity)主要指技术上的积累、技术上的突破带来的其他方面的变化,《社会奇点》这本书关注的则是社会方面会产生的情况。社会的奇点到来时,我们现有的社会制度可能得要画上休止符,然后出现截然不同的新制度、新体制。然而,众所周知的事实是,政治制度、社会制度的演变往往需要很长的时间。在很短的时间内,大概达不到这样的效果,即便是在很短的时间内经过了一场革命,也不一定会产生出新的制度来。

另一个值得一提的科技乌托邦的支持者是赫拉利(Yuval Noah Harari)。这位非常有才华、有洞见,而知识也相当丰富的学者,在《人类简史》里有不少惊人的见解。他说生物是算法,身体是计算器,因此一切都可以计算,包括人的七情六欲。按照赫拉利的这种对人性的极端简化主义逻辑,可计算性便是人性的一切。

他举了个特别有意思的例子:一个饥肠辘辘的人在岛上看到了香蕉,极想饱餐一顿。但他同时又看到不远处有一只雄狮。在这个情况下,他就要计算了——该不该去摘香蕉?摘香蕉需要什么样的条件?狮子会有什么反应?自己有什么能耐?能跟狮子比速度吗?有何办法躲开狮子?如何能够摘下香蕉而不被狮子吃掉自己?因此通过计算,找出最佳的方案,就是人的计算性。这个例子所证明的也只是人的计算性而已,而计算性是人的理性的一个很重要的组成部分。逻辑、推理、数学、可计算性、功利主义,这几方面构成了人的理性。然而,理性只是人性中的一部分。

此外,关于“种子人工智能”(Seed AI)的说法也令人感到恐慌。智能科技领域的先驱们一开始就对具有自我改进能力的设计抱有很深的希望,设想一旦设计出具有真正自我改进能力的程序,一个快速的进化过程就会开始。随着机器对自身和自身模型的改进,人们将开始看到与“意识”、“直觉”和“智能”本身相关的所有现象。一旦跨过这个门槛,世界将大不一样。

这种希望在“种子人工智能”的说法中得到了充分体现:先设计出一种像种子一样的算法或者作为师父的主算法(master algorithm),然后这种算法通过自我学习、自我改进创造出新的算法,如此发展下去,直到出现超级人工智能(ASI)。虽然截至目前,还没有出现通用人工智能(AGI),但对于超级人工智能的念想仍然在持续。

凡此种种都是科技乌托邦的表现,是非常值得去认真对待的思潮。

三、人的智能和人工智能

今天,人们因为经常担忧有一天人工智能会比人的智能强,以至于会忘记人工智能本是来自于人的智能,是人的智能反应、衍生出来的一种外化产品,而不是造物者创造的与人无关的另一套可以和人的智能抗衡的外在实体。

当然,在这里首先应该问的问题是什么是智能。

1、智能

“智能”一词来源于拉丁文名词“intelligentia”或“intellēctus”,而这两个词又来源于动词“intelligere”,即理解或感知的意思。在中世纪,“intellectus”这个词成为一个学术术语,与经院哲学的形而上学和宇宙学理论,包括灵魂不朽的理论紧密相连,遭到了弗朗西斯·培根、托马斯·霍布斯、约翰·洛克和大卫·休谟等早期现代哲学家的强烈反对。他们在英国哲学著作中都更倾向使用“理解”,以代替“智能”或“智识”。因此,该词一度在英文理论著述中极为少见,但后来在当代心理学中又被重新使用。

智能的定义是有争议的。智能的能力是什么,智能是否可以量化等方面都有不同的定义。智能可以泛指逻辑、理解、自我意识、学习、情感知识、推理、规划、创造力、批判性思维和解决问题的能力。更广泛地讲,它可以被描述为感知或推断信息的能力,并将其作为知识保留下来,以便应用于不同的环境或背景中。

1994年发表在《华尔街日报》上的一篇由52名研究人员署名的声明《关于智力的主流科学》给智能做了如下定义:

智能是一种非常普通的心理能力,其中包括推理、计划、解决问题、抽象思维、理解复杂思想、快速学习和从经验中学习的能力。它不是单纯的书本学习,不是狭隘的学术技能,也不是应试的聪明。相反,它反映了我们理解周围环境的一种更广泛、更深刻的能力——“捕获”、“理解”事物,或者“弄清”该做什么。

1995年美国心理学协会科学事务委员会发表的一份报告《智力:已知与未知》(Intelligence: Knowns And Unknowns)中将智能定义为:个人在理解复杂的思想、有效地适应环境、从经验中学习、进行各种形式的推理、通过思考克服障碍等方面的能力是不尽相同的。尽管这些个体差异可能是巨大的,但它们绝不是完全融贯的:一个人的智能在不同场合、不同领域,用不同的标准来判断时,表现会有所不同。“智能”的概念就是试图澄清和组织这一系列复杂的现象。尽管在某些领域已经表现得相当清晰,但还没有一个概念能够回答所有的重要问题,也没有一个概念能够得到普遍的认同。

可见,虽然智能有一个大概的范围可以确定,但每个人的智能并不相等。因此,也无法达致一个统一的定义。

2、人的智能

智能既存在于人类身上,也存在于其他动物身上,往往被称为自然智能(biological intelligence)。人工智能的研究有一种是试图模仿人的自然智能,称之为人工自然智能(Artificial Biological Intelligence)。人的智能决定了人工智能,人工智能反过来会挑战人的智能,但不一定能超过人的智能。确切地说,人工智能只是人的智能某些方面的反映,而人的智能的内涵要比人工智能的内涵广阔得多。加德纳(Howard Gardner)教授关于多元/复合智能的理论对人的智能的多样性做了详细的探讨。他认为人的智能包含很多层面,诸如语文智能、数理逻辑智能、空间智能、肢体动觉智能、音乐智能、人际智能、内省智能、自然智能、其他类型智能以及创造力、实践方式等层面。

语文智能包括口头语言运用及文字书写的能力,把句法、音韵学、语义学、语用学结合并运用自如。这种智能使人在学习时用语言及文字思考,喜欢文字游戏、阅读、讨论和写作。数理逻辑智能使人靠推理来进行思考,喜欢提出问题并执行实验以寻求答案,寻找事物的规律及逻辑顺序,对科学的新发展有兴趣。空间智能使人对线条、形状、形式、空间及它们之间的关系具有很高的敏感性,并能准确地感知视觉空间,用意象及图像思考,并把所感觉到的表现出来。

空间智能可以划分为形象的空间智能和抽象的空间智能两种:形象的空间智能为画家的特长,抽象的空间智能为几何学家特长,建筑学家则形象和抽象兼备。空间智能是指人对周围环境的理解,人对于什么样的情况下做出应变、什么样的情况下能做什么事,是一种空间和视觉的能力。这个能力现在看来是人工智能所不具备的。

这就是为什么我们现在无人驾驶汽车遇到很大的问题:你可以给它输入一些程序,让它通过机器学习灵敏行驶的能力。但是遇到一些路况或状况的时候,如何来马上应急?这是它不足的地方,所以它也会出事故,已经出过好几次事故了。

肢体动觉智能是人身体的认知能力。人可以通过观察认知,通过分析认知,也可以通过体悟体会认知。顿悟是一种认知方式,经验积累到一定程度时,可能会突破。这种智能也与人的各种感觉、动作有关,包括手感等。音乐智能强的人通过节奏旋律来思考,能察觉、辨别、改变和表达音乐,对节奏、音调、旋律或音色较具敏感性。人际智能使人对人的脸部表情、声音和动作比较敏感,能察觉并区分他人的情绪、意向、动机及感觉。

内省智能是一种了解、意识到自己的内在情绪、意向、动机、脾气和欲求,以及自律、自知和自尊的能力。内省智能可以划分两个层次:事件层次和价值层次。事件层次的内省,是对于事件成败的总结;价值层次的内省,将事件的成败和价值观联系起来自审。自然智能是人认识植物、动物和其他自然环境(如云和石头)的能力。自然智能强的人,在打猎、耕作、生物科学上的表现较为突出。自然智能也可以进一步归结为探索智能,包括对于社会的探索和对于自然的探索两个方面。

而人的智能还可以从其他角度进行分类。比如对于事物的记忆力,包括短期和长期的记忆力,形象和抽象的记忆力等。形象力是在记忆的基础上形成形象的能力,抽象力是在形象的基础上形成抽象概念的能力,信仰力是在形象和抽象思维的基础上形成对于人生和世界总括的观念的能力,创造力则是形成新的形象、理论、信仰的能力。

3、人工智能

人工智能作为一门学科肇始于1956年的美国。

到了20世纪60年代中期,美国的研究得到了国防部的大力资助,世界各地都建立了实验室。人工智能的创始人雄心勃勃,对未来持非常乐观的态度。赫伯特·西蒙(Herbert Simon)预言,“机器将有能力在20年内,做任何人类能做的工作”。马文·明斯基(Marvin Minsky)对此表示赞同,他写道:“在一代人的时间内……创造‘人工智能’的问题将得到实质性解决”。然而,他们没有认识到自己面临的任务的难度。此后的一段时间,人工智能的研究并没有大的进展。

1974年,为了回应一些人士的批评和美国国会不断要求资助更有成效的项目而施加的压力,美国和英国政府都切断了人工智能的探索性研究。接下来的几年,后来被称为“人工智能的冬天”。这一时期,人工智能项目很难获得资金。20世纪80年代初,人工智能研究因专家系统在商业上的成功而复苏。

2015年AlphaGo成功击败职业围棋选手后,人工智能再次引起全球广泛关注。在其历史上的大部分时间里,人工智能研究被划分为一些常常无法相互沟通的子领域。这些子领域有的基于技术上的考虑,如特定的目标(如“机器人”或“机器学习”)、特定工具的使用(“逻辑”或“人工神经网络”),或深层次的哲学差异,也基于社会因素(特定机构或特定研究人员的工作)。在21世纪,随着计算机能力、大量数据和理论理解的同时进步,人工智能技术经历了一次复苏;人工智能技术已经成为技术产业的重要组成部分,帮助解决计算机科学、软件工程和运筹学研究中的许多挑战性问题。

人工智能研究的传统问题包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵物体的能力。通用智能是该领域的长期目标之一,方法包括统计方法、计算智能和传统的符号AI。许多工具被用于人工智能,包括搜索和数学优化的版本、人工神经网络,以及基于统计、概率和经济学的方法。人工智能领域借鉴了计算机科学、信息工程、数学、心理学、语言学、哲学等许多领域的知识。

从复合智能的角度审视人工智能,不难发现人工智能只是人的智能的某些层次的展现,并不是全部,而人的智能里有许多层面并不是可以计算或者进行逻辑分析的。另外,人的智能之间有一种自然的平衡,人并不需要特别刻意去平衡各种智能。在这个意义上,人工智能的发展应该寻求反映人的智能的各个层次的自然平衡。人的能力是多层次的,人工智能的反映也应该是多层次的。但是截至目前,我们所熟悉的人工智能还远未达到这种状况。关于通用人工智能(AGI)和超级人工智能(ASI),以及人工情能(Artificial Emotional Intelligence)的设想也仅仅停留在概念的层面,而没有迹象表明研究者们在朝着智能间的平衡努力。

还有极端的说法,认为人工智能这个词只不过是一种营销工具。因为算法、数据、网络等的结合形成了今天的智能科技的核心内容。“人工智能”这个词用多了,会让人产生错觉,以为人工智能就是一切。但实际上人工智能只是形容其中的某一个方面,或是自然语言处理,或是人脸识别,或是自动驾驶车辆。所以,有人认为智能机器是不存在的,只有大数据和复杂的算法。技术的前沿还是受制于掌握技术的人类的智慧。我们没有理由因为数据和算法看起来很智能,就害怕、对立或者崇拜它们。

大数据和深度学习方面令人难以置信的进步,是因为有令人难以置信的聪明人。事实也是如此,我们今天能够走到这一步,能够看到有这么多的人工智能产生出来的新技术成果,能够享受各种各样的新的工具、新的用法等,确实是有赖于我们中间那些绝顶聪明的人。重要的还是人,而不是工具或者用工具生产出来的产品。

四、从智能间的平衡到人性的平衡

智能间的平衡给人工智能的开发提供了一种可欲的前景。但是,比智能间的平衡更重要的是人性的平衡。智能间的平衡并不意味着理性与非理性的平衡,理性与激情的平衡,心性、智性、灵性的平衡。智能间的平衡增强了人的理性的力量,而高度发达的理性很可能会牺牲人的情感,从而使人单向度发展,进一步巩固了现代社会建立在理性、逻辑、科学、经济与法律之上的人的发展模式,使人性失去平衡。

我们知道理性和非理性这种分法,也是为了认识人的精神状态、精神境界等。因为人确实有的时候靠激情、靠体悟,而不仅仅靠计算、分析或者逻辑。但在社会科学的研究中,绝大部分的努力都花在了理性分析上面,而非理性的研究几乎没有立足的基础。或者说,人们对非理性的认识远不如对理性的推崇。社会学家、法学家、经济学家甚至包括有些伦理学家和心理学家使用得比较得心应手的仍然是理性分析的方法。但是在很多情况下,我们可能会发现,无论平凡人的生活还是某个民族的宏大历史,都深深地打上了非理性的烙印。生活中那些能够刺激人的神经、调动人的激情的往往是非理性的事件。

事实上,人们从未忘记对非理性的研究,只是因为主流思潮为理性主义所垄断,关于非理性的研究始终未能引起广泛的关注。且不说研究宗教和伦理的书由来已久、佳作无数,就是关于人的激情、欲望、人性善恶的专著也层出不穷。

比较遗憾的是,在理性专制的时代,非理性的研究最后也得进入理性的轨道,比如理性视野下的宗教和伦理学。去年,普林斯顿大学出版社出版的斯密斯(Justin E.H.Smith)的《非理性——理性黑暗面的历史》(Irrationality: A History of the Dark Side of Reason)一书指出,事实上非理性已经定义了人类生活和历史的大部分,而这一点不仅仅表现在学术上。

他认为,为了使人们或社会更加理性而将理性强加给他们,会变异成为非理性的终极爆发。极端理性主义(hyper-rationality)会导致所谓的“理性的暴政”,表现在智能科技领域,就成了AI/技术的暴政。极端理性主义者持有对理性的功效毫不怀疑的信念,一切都必须按照理性来计算。前面提到的赫拉利的观点即是这种极端理性主义,认为一切都是可以计算、可以来选择的。人的理性和非理性之间应该有一个平衡。人工智能和人的智能间的平衡,从智能的平衡到人性的平衡,其实智能间的平衡只是策略,更多需要平衡的是人的智性、灵性和心性,或者理性和非理性之间的平衡。

过度理性会导致非人性化。理性系统既是人性化的,也是非人性化的系统。从法律的角度来看,法律是一个理性的系统,是智性的发展,是人性的发展,但同时它也是一种非人性的系统。因此,法律的一些冷冰冰的规定要融入人的感情,所谓法、理、情并举。AI系统是一种理性的系统,是人的智性的反映,因而是人性化的。但同时它也是非人性化的,因为它会牺牲人性中除了智性之外的其他部分。所以,当我们进入由人工智能所产生的系统时,其实也是在进入非人性化的系统。

更糟糕的是,在人工智能飞速发展的背景下,我们可能变得并不是越来越智慧,而是越来越依靠人工智能。依靠人工智能并不能使我们变得更智慧。正如美国富兰克林·福尔(Franklin Foer)在他的《没有思想的世界》(World Without Mind)一书中所指出的那样,由于超级平台、大公司和科技公司为我们量身定做、打造了各种各样的服务平台,包括获得信息、阅读、欣赏娱乐节目等等,我们变得越来越不善于思考。

生活在它们为我们打造的平台世界里,我们貌似在用脑子,但实际上并没有再动脑筋,因为我们的选择只能在平台为我们提供的范围内进行。网络公司和平台给我们提供的平台有多大,我们的世界就会有多大。今天我们基本上没有太多的选择,我们只能接受大公司大平台提供给我们的那些各种各样的服务。仔细想来,这是一件非常可怕的事情。因为它对我们的人性,尤其对我们的智性,具有非常大的摧残力量。人工智能是人的智性的反映,但是由于这些平台给我们提供的渠道的限制,事实上我们的智性没有得到很好地发挥。

所以,认识到人工智能只是人的智性的一部分,是我们理解人工智能能否替代人的问题的前提。从人的智能的多种层次和人性的理性、非理性,或人性包含智性、心性和灵性的角度来看,人工智能是无法代替人的智能的,即便是在计算方面人远不如机器。为了避免人性单向度的发展,人工智能的研究必须考虑智能间的平衡和人性的平衡。

五、人文社科应该如何应对?

对于同一件事情,不同的人有不同的看法。在科学家、平台企业、政府以及社科人文学者眼里,智能科技的发展是不一样的事情。科学家所追求的是研究成果,对于一些科技难题的解释,他们会本着追求科学真理的态度,孜孜不倦地开展自己的研究。他们也可能会关注智能科技的社会用途及其后果,但是那并不是他们关注的主要对象。商家关注的主要是盈利,即某一项智能科技的产业性应用,以及它能带来什么样的利益。而政府所关注的主要是管理社会秩序,促进经济发展,并在一定的意义上保护公民的权益。

表面上看来,人文社会科学研究与智能科技的发展并无直接关系,人文社科学者实则肩上担负的责任十分重大。智能科技应该朝什么方向发展,应该如何发展,除了科技本身的规律之外,还有智能科技会带来的社会影响。即便是科技的能力达到了某一个层次,能够制造出某一种神器,但是否应该制造这种东西却是智能科技本身决定不了的,因为它牵扯到很多外在因素,取决于社会的需要和人的需要。

举例而言,设计并生产自动驾驶汽车的能力已经非常成熟,但到底该不该使用自动驾驶汽车,即在什么样的情况下,什么样的地方,以及什么样的人群中,可以使用无人驾驶汽车,这则是比较复杂的问题,需要进行评估。不是说有能力制造了,就必须要制造出来。这不是科技能解决的问题。再如,关于人工生命的建构,即便是智能科技达到了能够制造出人的水平,应该不应该制造人?制造出来的人工生命应该享有什么样的权利?会起什么作用?这牵扯到几千年历史形成的道德传统,是科技研究者不能回答的问题,而社科人文学者则对这些难题有更多的发言权。

人文社科学者必须尊重专业,尊重科技研究的专业性和专业人才的权威性以及专业技术的不可替代性。但这并不意味着人文社科人才在智能科技研究领域就毫无用处,因为有时候智能科技的研究也需要人文社科的支持。

一个显著的例子是人工智能与法律推理的研究。这个领域是人工智能与法律的研究中最早开始的领域,包括推理建模,根据案例推理,根据规则推理,以及可辩驳推理。有研究智能科技的学者指出,我们今天的人工智能和法律推理研究之所以停滞不前,并不是因为智能科技技术上的问题,而是因为法学家没有给我们提供足够好的关于推理的理论。那么在新的环境下需要新的思想、新的理论指导。假设法学家们在法律推理方面有新的理论可用,也许人工智能和法律推理的研究还会再往前走一步。

再如,人工智能价值匹配(alignment)是确保人工智能系统可靠地做人类想要的事的任务,收集大量关于系统应该做什么的数据,并使用学习算法从这些数据中推断出可推广到其他情况的模式。由于要做的是符合人们价值观的行为,因而最重要的数据将是来自人类的价值观数据。

这可以分几步走:首先,要对人类的价值观有一个满意的定义;其次,要以符合定义的方式,收集关于人类价值观的数据;再次,找到可靠的机器学习算法,能够从这些数据中学习和泛化。

这几步都有很大的不确定性。第一步,即对人类价值观的定义,显然不是智能科技所能确定的。所谓科技向善,首先要确定什么是善,这乃是宗教、哲学、伦理学、政治学和法学的领地。更何况,人类的价值观太复杂,无法用简单的规则来描述。像“公正”“平等”这样的价值本身的意义不大,只有把它们用在具体场合时,它们的重要性才能彰显。加之,在现实生活中价值观与大量关于世界的事实纠缠在一起,在构建机器学习模型时无法将事实和价值观干净地分开。因此,社科人文学领域的贡献不仅是可欲的,而且是必需的。现在,谷歌、微软等科技巨头公司都会聘用社会科学或人文科学背景的人才,希望他们与工程团队一起工作,帮助开发符合伦理的人工智能。

同时,人文社会科学可以助力普及智能科技文化,提高全民的信息素养(information literacy)、数字素养(digital literacy)和数据素养(data literacy)。这是一个非常重要的、首当其冲的、具有相当紧迫性的问题。

在智能科技时代,争取让所有的人都能够用到智能科技,解决所谓的“数字鸿沟”,是任何文明的国家和政府急需面对的问题,以便避免大多数人成为被算法社会边缘化的“闲人”(an irrelevan tperson)。人文社科学者至少可以助力普及智能科技,包括编撰普及读物,或者和科学家联合,或者独自做些简易的节目,尽可能努力建设智能科技文化,并努力提升全民的智能技术素养。科学家们本身有自己研究的课题,要花很多精力从事研究。人文社科学者从观察者的角度,可以看到一些问题,并用比较妥当的文字表达出来。

助力提高全民智能科技素质的另一面是防止出于各种原因对智能科技的炒作。目前,围绕人工智能、算法、大数据、互联网、物联网、万物网、区块链等智能科技的炒作大行其道,尤其是人工智能和区块链这两个领域的炒作最为火热。

除了说一些诸如“颠覆性的技术”“革命性的产品”之类的空话之外,目前技术炒作的两大手法是排名与预测。当然,这两种手法也广泛用于其他领域。公司排名、产品排名、技术排名、研究人员排名,不一而足,目的就是营销炒作。我们经常会看到网上流传着形形色色的排行榜。比如,有史以来最有名的10本书,某个行业最重要的20位专家,甚至世界诗歌史上最美的10首诗等。这些排行榜好像具有公认的性质,但它们的真实性质只不过是经过营销者刻意组织的广告而已,反映的只是个别人或者若干人的看法,并不能反映所涉及的产品的质量,也代表不了大多数消费者的心声。通过诸如此类的做法,网络平台将消费者带入为他们提前设计好的轨道。消费者可能会觉得,这没什么关系,只要方便,符合我的喜好就行,不必计较这些大公司会把我们带向何处。

预测则集中体现在对于未来的向往,哪项技术会成为热门,哪个公司会成为龙头老大等。麦肯锡全球研究院(McKinsey Global Institute)曾将两家隶属于Alphabet(谷歌的母公司)的AI初创公司DeepMind和Nest Labs吹得神乎其神,但Alphabet报告称DeepMind在2017年亏损约5.8亿美元,NestLabs在2018年亏损5.69亿美元。IEEE Spectrum于2019年3月发表的一篇文章认为,IBM的AI部门Watson在个性化医疗保健应用程序上“承诺过多但交付不足”,此后不久IBM便将Watson从药物研发中撤出。炒作后果之严重,并不亚于其他重要价值。炒作既会给普通老百姓带来利益损失,也有可能破坏主管部门决策的基础,因此是需要认真对待的。

当然,助力提升全民科技素养需要人文社科学者自身对智能科技的相应了解,这一点似乎还没有成为人文社科学者普遍关注的目标。从人文社会科学到艺术和设计,一切都在人工智能中占有一席之地。引入人类学、社会学、政治学、心理学、经济学、历史学等社会科学学科的相关信息,可以使人工智能对数据的理解更加丰富。而人文社科领域对智能科技的运用也遍布各个领域,非常广泛。

尽管如此,在很多情况下,人文社科学者仍然存在知识老化、信息不足的问题。比较难的是,人文社科领域存在比较严重的知识不对称现象:一方面,熟悉智能科技而又具有创新能力的人并不占有资源;另一方面,占有资源有决定权的人往往知识老化,并不了解智能科技。这种现象自然不利于人工智能中人文社会科学知识和方法的应用。

人文社科领域的研究者在科技怀疑主义和科技乌托邦之间可能起到一种平衡的作用,可以助力克服卢德主义,切实认识技术造福人类的重要性,社会进步实际上可能落在实处的只是技术的进步,但同时又可以助力克服技术乌托邦主义。按照数学精算安排的社会制度并不一定是一个公正的社会。在这里,逻辑推演无法挑战历史演变,对人与科技的关系保持一种平衡的认识是人文社科学者的基本立场。

六、结语

今天的世界,人类走向异化的趋势日益明显。人对于自己智商的管理越来越无能为力。这固然是因为人的好奇心使然,但追逐利益的本性也是不可否认的原因。在人类技术发展史上,平衡利益和风险的需要总是反复发生、一再出现。但是人工智能以一种全新的、大规模的形式对人的工作、生活、教育、社会交往等各个方面产生全面影响,甚至影响如何理解和重新定义人本身。

任何科学技术的出现和大规模的应用都会给人们带来一些困惑。人们所面临的首先是异化的问题,其次是人的贪婪和对于未知的恐惧。人工智能的出现,也给人们带来同样的困惑。人工智能会不会有一天取代人而存在?人是不是会有一天受制于自己创造的机器人?这是异化的问题。

人工智能到底有多大的潜力?到底能不能出现所谓的通用的人工智能或超级人工智能?不管人工智能有什么样子的潜力,有些人总是会拿捉摸不定的未来说事,以谋取利润。他们总是会以不同的方式和手段来打造人工智能的神话,这是人的贪婪的问题。而人工智能会不会有一天发展到给人类带来毁灭性打击的地步?机器人会不会不断地创造机器人,或者发生变异?算法会不会导致新的算法或篡改人本来的意图?这些都是属于未知的问题。

人工智能伦理的探究,需要面对的问题在很大程度上就是以上由异化、贪婪和对未来的未知带来的恐惧。近年来,各国已经先后发布了数量可观的关于人工智能伦理原则的宣言和倡议。其中,普遍认可的原则包括关于透明度、平等/非歧视、责任、安全、隐私等内容。不过,目前已有的人工智能伦理原则仅仅是宣言式的倡议或承诺,缺乏具体程序和规则。在技术乐观主义和巨大现实利益的裹挟下,未来人工智能领域充满了不确定性和迷思。

    进入专题: 人工智能  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/132636.html
文章来源:本文转自《中国法律评论》2021年第2期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统