董春雨:从机器认识的不透明性看人工智能的本质及其限度

选择字号:   本文共阅读 9988 次 更新时间:2023-06-27 12:20

进入专题: 人工智能   机器认识论   认识不透明性  

董春雨  

 

摘要:当前人工智能研究中的核心理论问题之一是人工智能的“理解力”问题。对于大多数的计算模拟而言,人们无法获得那种传统认识论意义上的透明性。从计算科学的技术实现层面看,面对巨大而复杂的计算量,人类不可能审查全部的计算过程,这就造成了人类在认识上存在着不透明性的盲区。基于认知不透明性与认识不透明性的区分,机器认识中的不透明性会导致“理解”的缺失。从认识透明性的角度分析人对机器可能的认识把握程度及其要求,可以对机器的理解能力的本质及其限度做出相对精准和深入的探讨,为人们厘清机器认识论的特征,进而理解人工智能与人类智能的本质联系与区别,提供一条富有启发性的路径。

关键词:认识不透明性 理解 计算模拟 机器认识论

 

当前国内外学术前沿的热点之一无疑是关于大数据与人工智能(AI)相关问题的全方位探讨,诸如神经网络、深度学习、算法偏见、机器伦理及机器人情感等,无不备受关注,相关的研究可谓如火如荼,人们在这些领域的认识因此也取得了长足进步。虽然上述研究内容非常广泛,但是如果我们对AI的本质及其限度缺乏准确判断,那么讨论就只能流于表面。例如,当下有人主张“人是算法的尺度”,即人们现在已经形成了一种共识,算法不仅要追求效率,要有精度和准度,但它不是无情物,算法还要向善,要有温度,亦即算法得彰显人文关怀和人本情怀,算法必须“利人”而不能“损人”。人们已经清醒地认识到“应该”在算法中嵌入伦理与人本逻辑,可我们面临的根本问题是:这样美好的愿望到底如何才能落地?至少是原则上能不能落地的问题。前者属于科学问题,后者则属于哲学问题。或者说,如何在AI研究中实现把人当成人的问题等所对应的要求,前提是对AI的本质及其未来的发展趋势的深刻理解。

其实,有关AI本质的探讨从其相关研究肇始之时即20世纪50年代起就已展开,迄今已逾半个世纪,其中著名的争论有“图灵测试”及后来的“中文屋测试”等,并形成了符号主义、行为主义和联接主义三条研究路径。及至今日,学术界产生了两大基本流派:一个是所谓的弱人工智能学派,认为机器智能永远无法超越人类智能;另一个是所谓的强人工智能学派,认为机器智能最终将超越人类智能——特别是库兹韦尔还给出了这一特殊时刻的时间节点即2045年,并称之为“奇点”。有关人工智能未来的发展,人们的看法莫衷一是。澄清各种观点的核心问题是如何看待人机的划界问题,而完成划界任务的根本将落实在划界的标准上。当前学界趋向于将划界的标准主要归结于所谓的“理解”这一本质问题上。当然,有关“理解”本身的研究,在西方哲学史上有着悠久的传统,它发轫于古希腊关于知识问题的思考,及至近代,洛克、莱布尼茨等都有以理解为主题的专著来阐发人类的认识能力。到20世纪初,由于人们对语言分析的关注和深入探讨,随着命题或理论的“意义”与“语境”问题等的凸显,理解作为一种与认识相区别的认知方式,相关研究也从最初专门的语言分析角度,逐步扩展到实践知识论的视域,即将语言、心灵和行动三个维度综合起来探讨心灵、语言、实在和行动的关系问题,在这方面尤以海德格尔、伽达默尔等提出的解释学观点令人瞩目,他们强调理解是有关人类的各种经验的意义的诠释活动,是理解者与被理解者的“心灵”的交流与汇通,是认识主体筹划自己可能的存在方式即人生何所向的实践路径。关于理解的这一研究角度的转变,即从内在的心灵向度和外在的实践向度对理解问题的研究,对于讨论人—机、机—机关系问题,具有启发意义。特别是将理解当成自身核心目标的科学哲学,自然而然地把相对更为狭义和专门的科学理解问题,引申为科学哲学领域中最重要的研究范畴之一,并出现了许多代表性的人物,如从早期的卡尔纳普、亨普尔到晚近的斯蒂芬·格林(S. Grimm)和亨克·雷格(Henk W. De Regt)等,他们讨论科学理解的主观性与客观性之间的冲突问题、语义学与语用性的复杂关系等。当然,科学理解还涉及更为复杂的情况即意会知识或默会知识(tacit knowledge)等问题。

对于“理解”问题的研究,本身已经构成一个极其完整和宏大的论域。本文不可能全面梳理有关理解问题的所有思想资源,甚至连与计算机和人工智能技术密切相连的自然语言处理、语义分析学等问题都暂时无法顾及。笔者主要从所谓的认识透明性的角度,通过这样一个具体的切入点,分析人对机器可能的认识把握程度及要求,从而对机器的理解能力的本质及限度做出一些相对精准和深入的探讨,以期为进一步理解AI与人类智能的联系与区别,提供一条富有启发性的路径。所以,本文后面提到的理解概念,主要是与认识不透明性密切联系在一起并在相对狭义的意义上使用,它的基本含义是:(1)一个认识的主体(包括人或机器即AI,下同)对认识的对象即客体(包括人或机器即AI,下同)在某一时刻t时各种状态的了解;(2)一个认识的主体对客体在历时过程中各个环节具体机制的把握即对因果机制的认识;(3)借助于“主体间性”的概念,在扩展认识主体内涵的前提下,将人对人的理解的讨论延伸到人与机器的双向理解以及机器与机器之间理解的论域,同时也带来了对AI本身的群体社会性、演化性等问题的探讨。

一、认知的透明性与认识的不透明性

哲学界自古以来就有一个关于人类认识的预设,即存在着一个现象领域,在这个领域中没有什么是可隐藏的。后来的认知哲学将这一观点系统地扩展到了心灵领域,使透明性(luminosity)成为认识论中的一个核心概念。它认为,心灵的各种状态对于我们自身而言是自明的,即人能够知道它的有知状态——如果一个认知主体知道 p,那么他就知道他知道 p。我们心灵的各种状态对于我们自身是透明的,可以有一种特殊的通道对这些状态进行觉知,一旦心灵拥有内容,我们就能够对这些内容有所觉知。可见认知哲学中的透明性,强调的是人的心灵与人的认识之间的“透明”关系,而且“对思维最恰当的理解,是将其视为心智中的表征结构以及在这些结构上进行操作的计算程序”。这种对人类心灵的基本理解,也被称为心智的计算—表征理解(Computational-Representational Understanding of Mind,CRUM),它为我们理解思维与认识中的透明性提供了一个基本的参照和前提。

当然并不是所有的哲学家都默认人类认识对心灵而言是透明的,蒂摩西·威廉姆森(T. Williamson)就认为,并非我们的所有思维都是这样的,即并非所有的思维都能够被我们完全觉知。这意味着有很多思维的元素或形式是在我们熟悉的认识家园之外,并在不同环境中起着不可或缺的作用。威廉姆森提出了与透明性相对的另一个概念,称为“反透明性”(opacity)。反透明性的表现其实也不难想象,比如从思维的形式来看,人的思维过程中存在着许多令人“莫名其妙”的现象,有时我们可以称之为直觉、顿悟或灵感等。对于这类思维方法,学术界也习惯于把它们归为“非逻辑方法”,本质上是无法做到“我知道‘我知道’” 的。一方面,前面我们提到的默会知识的问题,事实上从理论层面深化了我们对人类认知的深层结构问题的认识,即在我们认知的理性推理之下是否还有底层运作的根本机制?或者说,我们不仅知道除了明晰知识之外,还有默会知识的存在,当然我们也会关心,默会知识主要发生于意识的哪个层面,抑或是前意识甚至是无意识层面?另一方面,默会知识通常所带有的难以名状的技巧特征和高度的个人化色彩究竟意味着什么?它是否可以算作人类认识世界时所获得的部分透明性的结果?关于认知的这种分层和划界研究,也成为学界有待进一步深入研究的焦点问题之一。

在认知哲学中,人们将认知透明性理论默认为一切认识活动的前提,它与反透明、真理、知识、正负内省等之间有着复杂联系,人们所持观点也不尽相同,这反映在认知科学近几十年来在相关问题的激烈争论上。从总体上看,如果我们认为认知是透明的,那么知识的获得可以通过心灵的反思获得;如果我们认为认知是不透明的,那么知识如威廉姆森所言是存在限度的。可无论这些主张之间的差异有多大,它们背后关注的问题是相同的,那就是在哲学认识论意义上,人们在主客二分的前提下,不可能忽略的首先是我们自身的能力即具有智能的心灵本身的性质。这其实是人类中心主义认识论囚笼的必然结果——只有人类这样的智慧生物才有能力去认识(客观)世界,所以两千多年来哲学认识论的发展,一直围绕着人的认知能力展开,而当代所谓心灵哲学或认知哲学的研究,就是沿着这条一以贯之的道路而到达的最新阶段的产物。所以,过去人们有关认识的透明性的讨论,主要局限于对人类的心灵自身的反省方面,即局限于上面谈到的认知透明性。这一局面的根本改变,源于“机器智能”的兴起。机器智能的出现进一步拓展了认识的透明性的内涵和外延,同时也使问题变得更加复杂。

众所周知,在近代科学革命发生之初,机器首先以望远镜等形式实现了对人类感觉器官的延伸。20世纪40年代以来,由于电子计算机的发明和广泛使用,它所具有的强大的运算能力催生了一门新的科学——计算科学,其实质是人类脑力的外推和增强。特别是近20多年来,由于大数据和机器学习技术的出现,机器对人类认知能力的本质性扩展从量变进入到质变的领域。真正的人工智能技术开始成熟起来了,阿尔法狗(AlphaGo)等的诞生便是一个典型的事例。这种形势的微妙变化,也促使人们更加严肃和审慎地看待人和机器主要是AI之间的关系。如何看待AI的本质遂成为问题的关键所在。于是,一个根本问题摆在了人们的面前:在机器智能的认知过程中是否存在着一个类似于人类认知过程中所面临的问题,即机器认知的透明性问题?

因此,我们首先需要区分认知哲学中的透明性与计算科学中的认识透明性(transparency)概念的区别和联系。有关机器认识透明性的研究,远没有认知哲学中有关与人类大脑相联系的透明性的研究那样历史悠久、系统和深入。

还是在20世纪初,美国科学哲学家保罗·汉弗莱斯(P. Humphreys)曾用认识不透明性(epistemic opacity)来讨论计算机模拟的特征。他认为,由于我们无法直接审视与核查计算机模拟过程中的大多数步骤,致使“核心模拟初始状态和最终状态间的动态关系是认识上不透明的”。后来,汉弗莱斯又对认识的不透明性给出了更加严格的定义:“假若认识主体X在时间t不了解与这个过程相关的所有认识论元素,那么该过程相对于主体X在t时刻是认识上不透明的。” 即“认识不透明性背后的含义是:主体不了解或无法知道与可证明特定计算步骤的有关内容”。

从上述定义不难看出,所谓的认识不透明性,已不像认知不透明性那样,仅局限于对认识主体自身心灵性质的反省,而是着眼于认识的全过程,将认识的主体、认识的客体、认识的过程和方法等各种因素与各个环节纳入到所考虑问题的范围之内,即汉弗莱斯只是对作为一种科学方法的计算机模拟的发展做了简单的展望就已经看到,对于大多数的计算模拟而言,人们实际上无法获得那种传统认识论意义上的透明性——因为从计算科学的技术实现层面上看,面对巨大的计算量,人类不可能审查全部的计算过程,这就造成了人类在认识上一定存在着盲区即不透明性。

计算机模拟和计算科学在当下已经构成了一套具备独特意义的新的科学方法,而这些方法也为科学哲学引入了新的绕不开的问题,那就是与“计算方法”密切联系在一起的“认识不透明性”问题。因此,其后汉弗莱斯在很多场合下,探讨了认识不透明性的性质和分类等问题。

首先需要考虑的是认识的主体X及其认识能力在认识过程中所起的作用和他(它)所能达到的程度。这一部分的内容与之前的认知科学哲学的讨论有许多重合之处,主要是指其对人类“心灵”的反省的部分——有关心灵的一般能力即心理认知及其机制的研究在现今早已成为认知科学和哲学中的一种流行趋势,但由于机器认识在大数据和AI 条件下深度介入认识过程,这里的认识主体X实际上是将人与计算机和AI 包括在内的所谓综合“智能体”(agent),而我们讨论的重点则是与计算机和AI相关的内容。

其次,与认识不透明性明显相关的另外一个方面是由认识的“外部环境问题”引起的专利问题,即某些机构出于自身利益考虑对关于人工智能等中的关键技术细节如代码等进行保密,以保持竞争优势或避免其他“公司”的恶意攻击。从某种程度上看,这种旨在维护其商业秘密和竞争优势的主动自我保护形式造成的不透明性,实际上是人们熟悉的技术专利壁垒,将导致竞争对手和公众得到不透明的信息甚至是虚假信息而被欺骗。这种基于人为因素造成的不透明性是属于非认识论层次上的,本文不做过多的讨论。

最后,就当前的机器学习或AI技术而言,很大一部分内容主要体现为某种编程语言,它们在某些方面与人类语言完全不同,因此大多数人仍然无法直接使用它,目前的编写和读取代码以及算法设计是一项专门技能。就像数学家比艺术家更擅长处理数,而艺术家希望在对数的认识上要想超越数学家,只能通过不断地增加自己的数学知识储备,直到学会了一系列特殊规则即成为另一个数学家后才能实现自己的目标。这意味着我们需要对专家与技术文盲做出区分。另外,即使作为专业人员,专家们事实上也很难避免所谓的数据偏见,即人们在收集与选择数据时,各种偏见往往会随着人类自身的介入而渗透在数据中,数据带有原始性偏见;用具有偏见性的数据再去训练算法,又会产生更深的算法偏见与算法歧视等一系列问题。总之,无论是技术专利还是技术文盲等导致的认识不透明性,都是由于认识主体知识的不足甚至是错误导致的,即与人类认识主体的主观知识状态相关,它们都不是本文讨论的重点。本文讨论的认识不透明性主要着眼于计算技术、算法等数字型认识客体,包括AI与人类认知维度之间的差别问题研究,当然它也与科学表征、计算主义、还原方法等传统哲学问题密切相关。下面我们将从理论层面的本体论与认识论角度以及技术实现层面的可操作性等角度展开对该问题的具体分析。

二、机器认识的不透明性:原则与技术实现

(一)

理论原则上的不透明性

理论上的不透明性与认知科学中的表征问题有着密切联系。基于逻辑路线的机器智能发展将机器的理解力还原为符号对现实世界的表征与形式化问题,而这一问题又不得不以计算的本质问题作为理论的基点。关于计算的本质,哲学家、数学家与计算科学家等存在着不同看法,但计算主义与表征问题随着认知科学的发展,从早一代的心理表征理论到如今4E、5E的新认知理论,又加入了身体与行为等要素的讨论,相关的文献极其浩繁。简言之,从古希腊毕达哥拉斯的“万物皆数”观点起,到伽利略直接把宇宙看成是一部由数学写成的大书,再到牛顿力学的巨大成功,从数的角度来理解世界,始终是科学认识中最基本的方法论。及至当代惠勒又提出了“万物源于比特”的鲜明主张,同时伴随着计算科学与网络技术等的发展,一种新的世界观基础业已铸就:人们把物质粒子看作信息模式,把物理规律看作算法,万物都可通过算法理论而实现,即宇宙可以类比于一台可计算的量子计算机,于是一种信息论式的科学范式自然形成。从古至今,人类一直都在追求的对世界的透明化认识,离开了数这一核心要素就无从谈起。由于“数学化”具有专门化和符号化的特征,它已经顺理成章地成为人们表达科学思想与理论的最主要的形式,我们也可以将这一过程及其结果称为“科学表征”,认识的透明性因此也与科学表征密切联系在一起:我们以一种能被人类进行明确审查、分析、解释的方式来表示系统的状态以及这些状态之间转换时所遵循的规则或规律,理论模型以及模型的每个部分都可以被明确地表征。因此,一些认知科学家、人工智能专家和哲学家对人工智能发展持乐观的态度,坚持一种建立在还原论上的计算主义或算法主义的强纲领,认为从物理世界、生命过程到人类心智都是算法可计算的,甚至整个宇宙也完全由算法支配。但是反计算主义则对上述认识论观点充满了质疑:从对物理世界层级的可计算性来看,即使使用最精密的仪器,我们依然无法辨认许多物理过程,对物理过程观察的准确度是有限的。这样,我们就无法得出物理世界是可计算的结论。这一反驳与计算的本质是连续的还是离散的这一问题相关。

一般从现象上看计算是离散的,因为我们总是在一个数据区间内做特定运算。但是计算的连续假设认为,虽然在任何两个连续数据值之间,可能有无限多个其他值,而且连续数据本质上总是数字,但所谓的计算过程应该可以覆盖一个区域内的任何值,在数据之间没有灰色地带,计算只是在进行量的增加。也就是说,对于一个区间内的无数个数据,计算总能连续地完成。如果认为计算是连续的,那么人们原则上就必须承认一种对计算的全过程完全理解的可能性,于是理论上的认识不透明问题本质上就是个假问题。反之,如果认为计算是离散的,所测数据的准确性与扩展或外溢问题就构成了对理论的连续性与一致性的形而上学意义上的挑战,如果物理世界的可计算性被否定了,那么作为物理世界特殊存在的机器本身的可计算性也受到这一论证的影响。而且很早就有人提出,计算科学并不能把数据当作认识论的终点,在追溯数据所承载的信息时,也仍然会遇到不透明的问题:“信息并非总能表述为二进制的数据,因此,有一种信息的概念是计算机无法触及的。” 这也表明了,即使我们在第一层级理解计算上无限逼近于透明,在第二层级的信息获得方面仍旧难脱更深层次的困局。当机器本身的计算本质会受到影响时,主体对它的认识也不可避免地不再具有理论透明的可能性了,计算主义强纲领在理论层级上遇到的困难演变为了机器认识论中的透明性困难。

除了与计算本身相联系的问题之外,符号表征也牵涉到一个更为宽泛的话题即模型和实在的关系问题。

按照传统的观点,世界本身是一种外在于人的客观存在,当我们去认识它时,是在运用科学的理论去说明和理解这个世界,但我们自己拥有的任何理论本质上都只能是通过建立(一组)模型来解释和预言我们所关注到的各种现象——所谓理论模型,就是通过简单化或理想化的方法,对某一现象进行的一种一般性的抽象的描述,比如最初力学中的质点和当今生物学中的DNA结构都是如此。所以,模型是我们和世界之间相通的桥梁。模型的性质和作用对于我们这里讨论认识不透明性的理论原则就是一个绕不开的话题,因为无论是概念,还是算法,都属于模型范畴。

模型的构建是依赖于简单化或理想化方法的。为了能够顺利认识世界,我们通常关注的只能是事物的个别和特殊的方面——如果根据万物普遍联系的观点,我们研究某一现象时要考虑到与此相关的无穷无尽的所有细节,那认识实际上是寸步难行的,因此我们有时要故意强化或者弱化现象当中的某些方面,从而在忽略现象世界中那些具体的、次要的和偶然的属性的前提下尽量保留、揭示事物的本质特征,这一方法论在近代科学实验和机械隔离分析方法的成功运用中已经大放异彩,同样它也是模型方法的精髓所在。简化或理想化即意味着“以偏概全”,科学模型不可能是对现实世界的完全描述,而只能是对现象世界的“部分描述”。

这样,我们自然就无法要求科学理论的模型,能够全面反映、符合它所要表征的那个对象的全部属性和规律,那么抽象的理论模型和具体的被观察世界的关系是怎样的呢?实际上这个问题在科学哲学中早已有过许多专门的探讨,无论是种类繁多的英美哲学,还是风格各异的欧陆哲学,给出的答案最后几乎都归结到一点,那就是“同构”。

所谓同构,有时又称为同型(形)或同态,本意指的是形式上的相似性,当代数学中则被严格定义为一个集合中某些元素与另一个集合中的某些元素之间具有的某种对应关系。如果两个事物之间具有某种对应关系,就可以说它们之间有一个函数成立,或者说两者之间有一个映射关系;这类关系中最强的一种,也称一一对应关系,即不仅每一个输入变量值刚好有一个输出变量值与之对应,而且每一个输出变量值也刚好有一个输入变量值与之对应,就称“一一对应”。

理论模型与现实事物之间是否存在“同构”关系?对它的回答,将帮助我们从哲学本体论与认识论的角度回答科学表征的实质及其限度是什么;更进一步,才能使我们去透彻地理解认识的不透明性问题。例如,人们的感觉与知觉是否存在一种同构的关系,不仅关涉自心、他心与主体间性问题,而且也与被知觉的物理世界之间存在着可知与不可知的关系问题。虽然有人认为,“心理意象的结构对应于实际感知体的结构”,这种同构关系,打开了人类心灵通达世界的各种道路,但这种同构关系也是有局限性的,那就是“心灵”所能反映的,充其量只能是全部的现实世界的一部分内容。如何来看待这一点呢?众所周知,古希腊哲学家普罗泰戈拉早就说过一句名言:人是万物的尺度。过去人们对它的解读是主观唯心主义式的,当代哲学则从人的主体性出发强调“关系实在”的意义,它突出的是人的观察能力的有限性:尽管借助于各种科学仪器的帮助,人类感知世界的局限通常可以获得某种程度的突破,但最终的界限在哪里,却仍然是一个不得而知的问题。

这样,理论模型在感知世界的过程中所发挥的作用就清晰了起来:理论模型与被感知事物之间的同构关系是一种必要的认识论前提——人们是通过结构的等价性即同构关系来认识事物的,即客观世界的结构可以与人们构建的理论模型的结构进行类比而被认识,同构关系因此成为科学表征的精华也就不足为奇了。它对于以计算模型和算法为基础的机器学习或AI而言,也不能例外。

无论如何,科学模型或者科学表征是我们认知世界所依赖的重要方法。我们上面关于科学(模型)表征的离散性与连续性、简单性与抽象性以及同构性等问题的讨论,为进一步探讨以计算模型和算法为基础的AI的技术发展前景做了一定程度的澄清:从理论原则上讲,理性的符号表征的方式可以为AI智力水平的提高提供充分的可能,比如就目前专门机器人阿尔法狗下围棋所能达到的高度来看,它已经超越了人类。AI是可以基于对围棋规则的理解通过“自我博弈”的手段,不断在机器学习过程中提高棋艺,最终不仅在思考的速度上超过人类,而且在思维的自主创新方面也具有可能性。

也许,仅从外部实用功能的角度来定义AI的观点来看,机器的可使用性及其有效性所能达到的高度看起来是无法限量的。但这种观点很早就受到了人们的质疑。这一争议的关键所在是人机的划界问题,即人类智能和机器智能的本质区别到底是什么?首先,人们从一开始就对图灵测试等类似的问题进行了广泛的讨论,至今难有定论。从目前机器学习的过程和机制来看,AI水平的提高离不开大数据技术的支撑,通常它是大量数据“投喂”训练的结果,故有“数据是粮食”之说。

其次,机器在大数据中采集到的规律,本质上都属于“统计相关性”,而不是事物之间前后相继和彼此具有决定与被决定意义的因果性。虽然人们现在也在努力让机器通过事物的相关关联识别出其中的因果关系,但在这方面依然存在着许多难题。而且因果关系还应该从因果效应和因果机制两方面来理解,即使A和B之间的因果效应在经验上是可以确证的,但期间可插入的具体环节如C、D、E等机制不清楚,人们也很难说是理解了整个事件的来龙去脉。所以,因果机制作为对因果效应的“本体论”解释,其主要含义之一是通过结构模型揭示原因导致结果的过程,这也会引申出本文所关心的认识透明性问题的另一个重要要求。如果说前面有关认识透明性的定义是某一时刻t对事物状态的把握,那因果机制问题的提出则是从历时的过程的角度对认识的透明性所提出的更加深入的要求,而且它也与我们前面讨论的数据的连续性和全域性密切联系。总之,如果机器无法在相关性与因果性之间做出有效区别,如果机器无法把握因果的具体机制,那么机器在“理解”世界方面就始终无法实现质的飞跃,它就永远不可能超越人类。

再次,人类还具有不确定的“自由意志”等品质,它们也将是机器智能在发展过程中难以克服的巨大障碍,因为以符号表征为基础的技术路径从根本上讲依然难以跳出计算主义的窠臼,通过理性主义的路径达到非理性的彼岸,这似乎是一个悖论。这一悖论的存在也在提醒我们,那种试图从机器智能的结构和工作机制反过来理解人类大脑的工作原理的还原论做法,虽然在神经科学的研究领域和脑机接口等技术领域已经取得了有目共睹的成绩,但它最终所能达到的高度似乎是有限的。

最后,人类的认知基础可能并不如洛克所主张的“白板说”,而是偏向于康德所说的“先验综合判断”——人生下来就有某些认识和应对世界的能力,这种能力在与其他生物物种的比较中其差别也是异常明显的,我们现在一般将这种差别概括为认识的主体性的一部分内容,其本体论基础实际上蕴含在DNA的先天差别之中;反观机器认知,既需数据投喂,又靠算法支撑,在认识活动开始之前,可谓白板一块。这种认知前提的差异也许从有关碳基生命与硅基生命的比较中可以看得更加透彻。

综上所述,我们在这里主要讨论了机器智能的工作原理及其所受的若干限制,即分析了机器认识的不透明性在理论原则上的一些表现。但这仅仅是问题的一个方面,下面我们将从技术实现层面转入对不透明性问题的讨论。

(二)技术实现上的认识不透明性

如上所述,一般认为科学家在计算科学中对透明性认识的追求,意味着他们在理论原则上理解机器所做的许多尝试。在计算科学中,我们谈到不能计算A时,通常指以现在的硬软件水平完成A很棘手,而不是原则上证明A是不可能的事。但“计算A”这样的科学语言,在哲学使用中被误解了。因此温斯伯格称“科学哲学家,错过了为现代科学的这一爆炸性领域作出贡献的机会,这恰恰是因为他们偏向于关注原则上的可能,而不是我们在实践中所能取得的成就”。因此我们需要给予实操类的困难而非原则性的解决方案更多关注。技术实现上的不透明性应该是目前机器认识不透明性更需要关注的主要内容。

技术实现上的不透明性首先需要考虑的问题依然与数据本身相关。从逻辑上来讲,认识的透明性意味着我们对认识对象的全方位把握,它通常也可被称为是一种“上帝视角”。但是,尽管现在我们已经拥有了相对成熟的大数据方法——大数据的关键特征就在于它可以从多个维度去刻画事物与现象,并且要求每个维度的数据要接近全样本,所以大数据的一个要求就是多维性和完备性,但是想要获得有关事物的所谓“全域数据”在实操层面上肯定是无法实现的:前面我们谈到的“人是万物的尺度”的论证从一定程度上就反映了关于数据的这种局限性。另外可测数据的精确性问题,显然是与认识的透明性相关的。虽然我们前面讨论数据的连续性与间断性问题时也隐含了对这一问题的观照,但测量的精度所能达到的实际程度对我们把握事物本质的影响自近代科学以来就是不争的事实,这还是在不考虑像以混沌与分形为特征的内在随机性以及量子随机性的情况下所需要考虑的情形。总之,上述由于实际的“信息破缺”即测量数据不足所引发的认识上的不透明性与众所周知的主观“数据偏见”完全不同。

从算法层面上来看,人们在认识不透明性方面遇到的问题似乎更多。

1.算法的复杂层级关系带来的不透明性问题

尽管我们可以简单地以一种仅理解其运算逻辑的方式来实现理解机器算法的目的,但实际上,这种简化没有特别的用处,人类面临的更大挑战,是如何理解由大量简单模块协同工作后产生的结果。在大数据时代,一个研究往往需要分析数十亿或数万亿个数据示例以及数以万计的数据属性,一种算法的内部决策逻辑是随着对训练数据的“学习”而改变的。处理大量特别是具有异构属性的数据会增加代码的复杂性,同时也需要使用内置于代码中的技术和装置来管理它,这样的一系列过程无形中增加了对计算过程的认识不透明性。

人们在处理大数据情形时,一般会采取扁平的数据结构——如云数据常采用分布式储存方式以执行大量的简单运算,并可以设计逻辑规则容易理解的代码形成算法将其联系起来,但代码与数据长时间相互作用会出现大量不可预测的过程,而这一过程是不完全被以人类能够理解的可视化、理想化等方式呈现出来的,即是不可约化的。比如,现在在机器学习方面发挥重要作用的多层级神经网络方法就意味着算法将被分成多个不同的层级,每个层级之间的关系是从量变到质变的突变或涌现关系。按照我们从复杂性的角度对系统的整体性、层次性和涌现过程与性质的研究,系统每一个层次的新质的产生都是以突变的方式完成的,对这一过程的数学分析可以利用专门的“突变论”这样的数学工具等,而在物理机制的理解上则可以参照以“混沌”这样的奇异吸引子所具有的分形结构为基础的“初值敏感”特性——其最通俗的表述即为“蝴蝶效应”。总之,突变或者“混沌”行为所表现出来的内在随机性,并不意味着它与因果分析是相互对立的。在数学家的眼里,混沌现象是不成立的——上帝如果愿意,他可以知道混沌行为的一切细节,即在上帝的眼里,混沌的本质依然是满足严格的决定论模式的。当然,人永远不可能成为上帝,所以在物理学家的眼里,混沌的不确定性在技术实现的层次上就是不可消除的。这意味着,从实操或测量精度的角度看,多层级神经网络计算对认识不透明性的限制是难以克服的。多层级神经网络算法对认识不透明性的另一种影响表现为它在运算过程中所展现出来的新质生成的不确定性。算法在这种意义上与“认识黑箱”无异。而图灵奖得主杰弗里·欣顿(Geoffrey Hinton)在2014年时就把这种由算法系统自主提供的人类既无法言说、也无法意会的新型知识称为“暗知识”(dark knowledge)。简言之,暗知识是一种基于多层级深度学习过程自主运行而产生的结果,它形成的机制和要素是什么?其合理性从何而来?我们都不得而知,因此它对传统认识论构成了冲击,并促使我们认真对待这类不透明性知识的认识论价值及其意义。

总之,从算法层级上看,机器学习中大多数更深层次的协调并不一定是统计概率上的最好结果,同时如上所述,这种统计相关性也与因果性有着很大的差距,这就使人们在很多情况下无法仅靠直觉来理解这些隐含的过程,可见人类在认知尺度上的推理和语义解释模式与机器学习中算法的复杂性之间存在着认识维度上的鸿沟。因此机器认识中的算法与模型所具有的不可避免的复杂性,表明了机器认识不是模型认识论的一种简单叠加或延伸,这种复杂性与人类具有简单的协同能力与协同过程的理解能力之间的不匹配关系,是认识不透明性的重要来源之一。认识不透明性的产生,除了由于机器计算的高维度特征带来的理解障碍和不可约化问题之外,时间因素在其中也扮演着重要的角色,甚至从实操的角度看,它起到了决定性的作用。

2.计算中的时间复杂度及其影响

在计算机科学中,许多算法与计算的运行都需要考虑时间要素。时间复杂度 (time complexity)是定量描述算法运行时间的一个函数。因此在考虑某一系统的计算能力时不能只关注该系统原则上的计算量,同时还要考虑到其计算的效率。日常生活中描述完成一件事情需要多少时间,往往存在几种类型:首先是常数时间(c),它不随事情复杂度增加而增长;与复杂度线性相关(n),随着复杂度增加线性增加运行时间;还有多项式时间(nc)和指数时间(cn)。后两种情形下的计算时间,会随着复杂度增加呈指数爆炸式的增长。当程序中多数运算过程是线性相关的时间时,并不需要十分担心计算复杂度问题,因为只要提高算力,时间就会以可观的速度缩短。而当计算是非线性地以多项式方式增长时,因为运算时间消耗过大,甚至趋近于无穷,我们实际上是接受不了的。因此在计算科学中,一个好的算法希望时间复杂度越低越好。如果解决一个问题需要的时间随实例的规模成指数级增长,那么该问题被称为是“不可操作的”。虽然不可判定性和不可计算性对于理解计算是很重要的,不过不可操作性有着更重要的影响。不可操作性即是实操中认识不透明性产生的来源之一,这个问题意味着大规模的实例无法在合理的时间内运用计算解决,虽然输入与起始算法是简单的,但在不同阶段可能要理解的内容也呈指数级增长。这对人类有限的认知能力来说,是个无法解决的实操难题。

这样一来,不透明性问题已经不仅仅与算力及人类认知能力有关,更与时间和空间的性质有关。即使我们可以假设,人们能用概率理论如贝叶斯法则分析不确定表征并把不确定推理的问题转化为符号系统中的元素,从而解决理论原则方面的限制,那么此类方法仍然会遇到实操上理解的障碍。所以,技术实现上的不透明性乃是人类理解机器的不可逾越的拦路虎,它本质上就是关于时间与算力的复杂交互导致认识客体——机器本身无法成为一个完备的被认识状态。既然囿于时间复杂度导致运行时间无限延长,计算本身无法完成,那么人类又如何去理解这个没有终点因而也没有答案的计算过程呢?由此可见,时间问题对于计算与理解的重要性是我们应该予以充分考虑的前提之一。

三、限度与意义

机器智能是否会真正出现仍是当代悬而未决的一个重要问题。所谓“人造意识”现在也仅仅存在于科幻电影或其他虚构形式的作品中。这一问题不仅难在具体技术的实现层面上,更难在理论路径的正确选择上。换言之,我们连“机器意识是什么”这样的一阶问题都没有办法回答清楚,又怎样来探讨“如何实现它”这样的二阶认识问题?所以,不能简单地将“机器智能”当成人类的意识。即使作为意识的发出者,我们至今也无法确切地了解它们为何产生、如何作用、走向何处。人造意识的产生必定需要遵循严格的因果线索,并且要沿着有关人的意识研究之路重新返回那个人工智能的出生地。这是否同时也意味着,我们对机器认识透明性的讨论,需要建立在对人的认识透明性的基础之上?不过,如本文开头所指出的那样,有关人类认识透明性及人类的自我知识模型的研究在认知科学哲学中已有很多,但它们不是本文关注的重点——它们只是引出本文论题的出发点或者大的理论背景而已,因此本文在这方面没有过多着墨。事实上,像本文在第一部分所做出的专门努力那样,我们一方面简练地回顾了人类认知透明性的基本内涵,另一方面则着力探讨了(机器)认识不透明性与认知科学中的人类的认知不透明性之间的联系和区别,同时强调前者是后者的扩展或延伸;另外从目前的情况看来,对人类认识自身的、单独的形式逻辑的、功能主义的、自然主义的、神经层级的研究进路,在理论上都不是很完善,因此科学工作者才开始进行“复合路径”的探索。这样的情况存在,使机器智能何时超越人类智能的奇点问题实际上只能变成未来学家对技术发展的一种乐观展望。做出上述判断的原因,还出于以下一些考虑。

首先,认知科学家通过与人脑的类比对机器意识问题进行了深入讨论,他们的普遍共识是:“理解”是智能产生的基础;而机器的理解问题又如上文所言,由于数据增多,计算涉及更多复杂层级与过程的不可约化等,试图完全理解机器这条道路几乎是不可能实现的,因此“在有计算不可约过程出现的系统中,计算系统未来状态的最有效程序就是让系统自己演化”。像人们熟知的,自然有自己演化的规则,那么机器也有自己演化的规则,我们不能强求人类理解计算机模拟与机器认识过程中的每一个要素的影响和每一步计算的细节,计算科学对于人类主体而言,认识的不透明性或为其基本特征之一。这个问题或者也可以这样来看待:如果人类自己对自身意识的来源尚不完全知晓——如前所述,我们是找不到自身认识的家园的,而机器智能又有自己独立的发展路径,即对人而言它是不透明的,那么人机智能的对应、比较的基础是否就被消解掉了?

其次,除“理解”难题外,有研究者认为:从计算科学的视角看,没有人工意识的出现,甚至没有我们应该尝试的方向,是因为那种被称为“计算解释鸿沟”的东西——他将计算上的解释鸿沟定义为:“缺乏对如何将高级认知信息处理映射到低级神经计算的理解。”“高级认知信息处理”是指认知的各个方面,例如目标导向的问题解决、推理、执行决策、认知控制、计划、语言理解和元认知,这些认知过程都可以有意识地访问。所谓“低级神经计算”是指通过人工神经元网络可以实现的计算类型。事实上,计算解释鸿沟问题依然是人类意识的局部不可表征所导致的不可解释问题——它本质上从属于人们在心灵哲学中已经讨论过的“解释鸿沟”概念的一部分:在心灵哲学研究中人们注意到,在我们有关主观性的心灵状态的知识和有关客观的物理世界的知识之间,似乎不可能找到用以连接的桥接规律(bridge law),即在这两种知识之间,似乎存在一个无法闭合的认识论鸿沟。在心灵哲学里,这个鸿沟也被称为“解释鸿沟”(the explanatory gap)。它的存在意味着,我们用以描述外部世界的知识似乎不适用于描述心灵状态。这一问题一经提出,一直是心灵哲学关注的核心议题之一,热度至今不减。而对于人工意识的建构来说,如果这一难题无论如何是绕不过去的,那么这是否意味着与人类智能同质的人工智能的发展也是不可能的?

最后,在传统的认识论中,由于人是认识活动中居于主动或主导地位的一方,人们将这一认识论特征也称为“人类中心主义”的。然而随着计算机与人工智能技术的崛起,人在认识活动中的地位已经发生了深刻变化。计算机的使用而带来的计算方法在哲学上的新颖性,正在使人类逐步失去其在认识论中所处的中心地位。我们曾根据大数据条件下机器认识的不可替代性进一步明确了人类中心主义面临的困境,提出解决这一问题的关键是要建构以机器为主体的非人类中心认识论,这在某种程度上可以消解人与机器的对立,承认机器在认识论中应有的价值。

认识论的立场从人类中心主义向非人类中心主义的转变,使“理解”的意义和任务变得更加错综复杂起来。毫无疑问,“理解”的本质首先是一种“关系”,关系就意味着至少是两者之间或以上才能发生的;其次它的核心诉求是“真”或者“正确”。就其具体表现而言,有如下两个方面的考虑。

第一,从理解问题产生的主动的一方来讲,本来它最初主要关心的是单个人本身的“自知”和“自觉”,即本文一开始就讨论过的“认知科学当中的透明性问题”,这里不再赘述。

第二,就人和人之间的多认识主体的理解而言,其最重要的表现还有所谓的“他心”问题。它同样很早就进入了人们的研究视野,例如在中国古代哲学中的表述就是庄子与惠子游于濠梁之上关于“子非鱼”的那一段经典对话。这一问题的本质是一个人对他人意图的推测与判定,当然推测与判定的前提是一个人对另一人意图的认知和理解。及至当代哲学,它已演变成主体间性问题了。

主体间性概念的意义非常复杂,但其最基本的含义与建立在传统西方哲学中以孤立的原子式的个体观念基础之上的主体性概念不同,指的是不同主体之间的群体性问题,尤其涉及的是主体与主体之间的统一性问题或“共在”问题。它在本体论与认识论方面的表现本质上是对知识的普遍性的追求,或者说是认识的个体如何摆脱自我的困境而具有普遍知识,从而在不同主体之间达成共识并进行有效和正确交流的目标。这种认识论意义上的主体间性最初仍然会镶嵌在传统的主客二分的本体论框架之中,但它却在认识论方面带来了重大的转向,即人们从关注认知上的“主—客体”关系及这一关系中的主体性的地位等问题转向了关注处在同一认识过程中的不同主体间的共生性、平等性和交流关系问题,所以海德格尔等人强调主体与主体之间的交往、理解即解释的关系,强调人在解释活动中与世界的同一性,进而使主体间性以解释学和存在论的理论形式进入了本体论的领域。本体论意义上的主体间性主要涉及自由何以可能、认识何以可能等问题,以图从根本上解释人与世界的关系问题,解决人的生存问题。

可见,主体间性问题的深入讨论,实际上将人们最初关注的认识的客观性、普遍性、统一性逐步引导到关注人类不同主体之间如何通过语言交流而达到的平等与共生性,其解释学意蕴更偏向于人与世界关系的开放性和人与人关系的公共性,这就为人对这种关系的主观建构提供了发挥作用的可能空间,同时它也意味着这种关系将具有群体特征和动态演化特征等。应该说,包括解释学在内的当代西方哲学在总体上与传统的理性主义立场有了很大的差别,而且它们讨论问题的重点也主要限定在人文主义的论域。但是,上述有关人的主体间性问题的讨论,可以为我们拓展对人机关系和认识透明性问题的理解提供一种新的富有启发性的理论视角。

首先,考虑机器认知介入认识过程的事实,即如今的认识主体实际上已经进入人机混合的“智能体X”时代,这将导致理解问题变得更加扑朔迷离了。从分类角度来讲,理解关系内涵的复杂化已经不再局限于人际之间,而是至少将表现在三个维度上,即人与人、人与机器、机器与机器之间的理解问题上。其次,借助于上述主体间性问题研究的基本思路,在人与机器以及机器与机器之间,我们不得不考虑的更加复杂的情形是,类比于像海德格尔、伽达默尔所强调的人类通过语言对话达到交往的公共性的要求,在人机之间和机机之间同样需要借助于明确的符号表征才能达到相互理解,但在这方面像前面提到的,由于解释鸿沟、默会知识等问题的存在,机器想要完全理解或者达到人类的意图,其间或有难以克服的困难,甚至在机器与机器之间,它们也很难达到统一。因为包括默会知识在内的知识的特征与相互理解的公共性都隐含着社会性及其不断变化的可能性,这意味着即使是机器与机器之间也会遇到自身突现呈现的不确定和多样化问题的困扰,还有机器本身社会性协同进化的需求——在这一方面,它实际上已经开辟了人工智能研究的另一个重要领域,即人们关注的对象已经不限于作为单体的人工智能,在不久的将来,我们还需要面对由单体通过合作而形成的“群体智能”——相关的研究,现在已经陆续展开,其实质是人工智能未来可能的社会化发展问题——在这一方面机器智能的成长与人类智能的发展一样,将在与复杂社会情境的互动过程中逐步实现,这也可以看作是人工智能本身通过自组织最终形成的社会化行为对主体间性问题的扩展或延伸,从而也使理解的主体形式及其相互关系变得愈加复杂了。

以上我们讨论人自身、人与人、人与机器之间的理解问题即透明性问题,除了那些理论原则之外,在人与机器关系的问题上,近些年来脑机接口技术的进步给我们思考透明性问题带来了一些新角度。

脑机接口(Brain Computer Interface,BCI)技术指的是通过某类传感器探测和采集脑内活动的一些信号如脑电波,再通过与传感器联结的计算机中的智能算法识别或解码脑信号的含义,最终将它们编码为外部机器如假肢、轮椅或机器人等可以理解并执行的控制命令,形成在人的身体不动的情况下由“脑控”来操纵的外部设备的运动,即达到“意念制动”或“心控外物”的行动效果。现阶段该技术可以帮助因为伤病而失去肢体或感官功能的残障人士,通过不同的脑机接口重新获取行动或感知的能力;而在未来,它还可以进一步用于健全人获得超常的行动和感知能力,这意味着脑机接口技术将会深刻改变人的感知和行动方式,即从根本上改变作为认识主体的人的认知活动的特性,并因可以赋予认识主体原先不能具备的某些能力甚至是某种特殊能力而使其发生某种意义上的“新进化”。

具体说来,目前的一些穿戴设备作为辅助设备可以用来帮助那些患有注意力缺陷障碍的学生改善其注意力而提高学习成绩,帮助那些长期疲劳驾驶的司机克服注意力的瞬间分散而减少交通事故的发生,更有甚者,脑机接口设备可以将红外线和超声波信号转换成对大脑皮质特定区域的电刺激,从而在大脑接受和处理这些信号后,使人突破了与生俱来的生物学限制而“看到”了红外和紫外光、“听到”了次声波和超声波,也就是使认识主体具备超常的感知和认识能力。与传统的认知技术如纸笔书写、电脑辅助设计、手机通信等在空间上与人体特别是人脑的分离和区隔不同,脑机接口与认识主体的思维器官连为一体,脑—机之间可进行直接的交互,由此自然而然就突出了两者的相互“理解”问题。根据准确理解即透明性理解意味着两者之间具有“一一对应”的关系,它至少包含着如下两个方面的问题:首先机器的运作机制,基本上是以算法为基础的逻辑与理性的过程,其意义的“一”相对来说比较简单,虽然其中也有突现等可能;相对而言,人脑的状态的表现就会复杂得多,特别是其中会包含情感和自由意志等许多非理性因素的影响,不难想象,从人脑到机器状态的一一对应会遇到很多难以预见的问题。其次,从哲学上来讲,解决上述问题的关键是还原论方法论原则的适应性和有效性问题。而在当代科学和哲学的视野中,还原论思想与方法的局限性是显而易见的。因此,从认识透明性的要求来看,脑机接口技术能够达到的程度是有限的。

严格地讲,有关“记忆清除”“数字克隆”“意识上传”等话题,都还停留在科幻等文学和影视作品当中,但就是在这样的情况下,脑机接口技术的发展已经展现出了另一种十分诱人的前景,它就是近期受人瞩目的所谓“意识上传”现象。所谓“上传大脑”,主要有三种类型:第一种是上传人类完整的“心智”;第二种是上传部分记忆,尤其是有重要意义的且不容易找回的内容;第三种是上传信息。从脑科学和人工智能的一些研究来看,第三种情形可能更接近于目前“脑机接口”的真实状况。如果要将每个人的大脑都克隆到机器当中或者云端,甚至还需考虑“数字人”随信息变化、数据更新而带来的进化,从而实现数字人的发育和永生,我们面临的挑战还是极其严峻的。

尽管“脑机接口”技术当下在许多方面给世人带来更多的还是遐想,但它引发的问题却令人深思。

首先,脑机接口技术意味着外部符号系统和其他认知工具可以被深度嵌入人类的认知系统之中,形成一个完整的、有机式的“耦合系统”,在这一系统中,人的肉身与技术元素之间构成了一种互为因果、相互调节的不可分割的整体,即脑机接口中的非人技术元素已经成为认知过程或认知系统的一部分,这对认知主体的心灵延展方式提出了新问题,而借助于脑机协同所实现的智能增强将使认识主体进入一种新的存在和发展状态之中,并引发认识主体的新进化;以至于有可能出现这样的情况:在大脑和外部设备一起完成认知任务的时候,离开了某种外部设备,该认知任务就不可能完成。那么这个外部设备与认识主体的关系是可以分离的吗?可接下来的问题依旧是,虽然当前的脑机接口技术可以实现认知的部分功能,但颇具形而上学色彩的人机之间的认识透明性将从根本上限制认识主体的可能的延展程度,即外在的东西和内在的东西是否一定有不可逾越的本体论区别?当外在的东西对内在的东西起到替代作用时,难道它还不具有与内在的东西相同的本体论地位吗?

其次,从当前的脑机接口技术的发展趋势来看,机器因素所发挥的作用会越来越大,那么其终极状态是否是“机器心灵”的诞生?即当机器部分的作用不仅仅是算力和速度的增长,而是逐步延展到能够自主和灵活地处理一些认知问题时,它就不仅具有工具的属性了,在一定程度上会成为拥有“心灵”的机器,从而具有了某种意义上的“主体性”,此时它能不能在形而上学意义上被看作一个有意识的实体就成为一个值得深思的问题了。

最后,如果脑机接口技术的要义还是在强调人机的融合,“人机共生”的思想强调的机器部分基本上还是在不能具备完全独立意义上的且将受控于人脑并为人服务的装置,那么这一发展趋势的极限应该是本文所关注的主题,即延展后具有完整和完全认知能力并具有主体地位的纯粹的AI。当然,从具有独立认识主体地位到最终超越人类智能,也许还会经历漫长而曲折的过程,但现在至少在认识透明性的问题上,将引导我们从人—机关系的角度转向机—机关系的思考。

结语

本文关于人与智能机器划界问题的讨论,可以帮助我们对人工智能的未来发展做一些思考。

首先,人工智能的本质从一开始就是对人类智能的模拟,如果严格遵循笔者一直强调的认识论中对透明性概念的理解——只有在一个认知主体知道A时,那么“他”才知道“他”知道A——推广到机器认识论中,机器透明性认识的合理形式就应该是:只有在作为机器认识主体的机器本身知道A,那么它才知道它知道A。这里的“知道”是对人类“理解”行为的模仿,据此,一种透明性的认识追求应是对作为机器认识主体的机器的“自我意识”而言的,明确这一点极其重要,通过本文的讨论,我们才能明确机器意识的本质应该是什么,或者说现在虽然还没有真正的机器意识的出现,但明确人类意识与机器意识之间的区别,并对机器意识在机器认识论中的作用做出界定,是有利于明确其未来发展的可能和方向的。

其次,我们前面在探讨人—机关系及其在透明性问题上的表现时指出,其中存在的最根本的困难之一也许是非理性因素的表达和实现方面的问题,比如人所独有的自由意志、灵感和情感等方面的问题,都是人工智能研究目前亟须突破的难点,有人甚至将这种鸿沟归结为碳基与硅基之间不可约化的区别。而从某种程度上来讲,机—机关系之间的理解似乎在这一点上反而简单了一些,因为它们的工作运行机制和方式基本上是同质化的,其基础本就属于计算、逻辑方法等范畴之内的事情,期间的沟通联络无论在硬件上还是在软件上都相对更容易一些,障碍相对更小一些,特别是在目前的人工智能技术普遍采用相对简单的平行数据储存与读取结构并运行相同算法的条件下。但是当我们在考虑由机—机关系形成的复杂智能网络问题时,除了需要注意单体人工智能内部所发生的独特的突变即产生暗知识等导致不透明性的可能外,从前面有关主体间性若干特征的讨论来看,我们还应该意识到机器群体以自组织形式出现的“协同进化”效应——这样一个由纯粹的人工智能组成的机器社会,应该具有开放性、灵活性、多样性,这种不确定性之于认识透明性又意味着什么?它可能是我们必须面对的另一种困难。

再次,从大家常说的“人是社会关系的总和”的角度来看,除了自由意志、情感、艺术创造性等不确定的非理性因素的定量表征问题之外,人的伦理、社会情境的多样化与复杂程度也是非分析式的和令人难以复制的,而人类的智能事实上还是一个长期的包括文化影响在内的动态生成、演化的结果,会涉及主观的目的和动机,并与情境中的客观条件的变化密切相关,这些并无一定之规。单拿这里所分析的单体智能机器的认识特征而言,虽然我们也会考虑到深度学习导致变化和进步的可能,但主要还是局限于形式化的计算、逻辑与理性方面的考虑,所以它与人类所能展现出的意向性、目的性、自主性等其实并不完全对等。即使考虑到未来机器群体的社会性及其自主开放和演化的可能,我们也还是可以这样说,也许我们过高地估计了理性的力量,虽然逻辑表征等问题是AI发展的前置基础之一。一句话,纯粹的终极机器心灵之梦,还很遥远,让我们拭目以待。

作者董春雨,北京师范大学价值与文化研究中心(北京100875)。

来源:《中国社会科学》2023年第5期P148—P166

    进入专题: 人工智能   机器认识论   认识不透明性  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/144026.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统