魏屹东:论人工认知实现的方法论策略

选择字号:   本文共阅读 2942 次 更新时间:2024-04-30 09:28

进入专题: 人工认知   自然认知   人工主义  

魏屹东  

 

摘 要:人工认知作为一个新的研究领域,是在自然认知研究的基础上和人工智能快速发展的刺激下形成的。鉴于自然认知的连续性和人工认知的非连续性之别,从方法论上审视,人工认知的实现策略需要考虑从生命到智能发展的不同阶段的属性统一性:生命系统的目标指涉性和生物指号性的统一,感知系统的预知性和情境性的统一,意识系统的涌现性与生成性的统一,心智系统的模拟性与表征性的统一,以及智能系统的重构性与文化性的统一。这些基于适应性表征的属性统一,可为人工认知的实现提供方法论。

关键词:人工认知;自然认知;统一性;人工主义;适应性表征

 

人工认知(artificial cognition,AC),也称人工认知感知,它是计算机科学特别是人工智能(AI)兴起后,相对于自然认知(natural cognition,NC)的一个新概念和新研究领域,旨在强调认知的理解性对智能的符号性的超越。这里的“人工”特指“人造的”,是物理意义上的,不是生物合成意义上的。AI只是AC的一个典型方面,因为认知(思维和理解)不仅涉及智能(符号操作和问题解决),还涉及生命、意识、心智、知识等心理学、哲学和认知科学等所关注的心性方面。由于认知是通用智能的核心,它不仅涉及智能系统(生物脑、人工脑)的信息处理,也涉及认知主体如何知道(理解)、推理和学习,故而其含义要比智能更丰富,涉及领域更广。

根据这种考虑,由于AC涉及NC中生命(刺激反应)、感知(接收刺激并行动)、意识(基本感受性)、心智(自我意识)和智能(抽象符号处理)这些从低级到高级的发展阶段(cf.Crowder et al., pp.7-8),AC的实现也必然要相应于这些阶段展开。事实上,从十多年前开始的AC的预知系统(cf.Pezzulo,pp.257-270),到近年来关于大脑的预测加工模型(cf.Clark,p.1)和AI的可解释性框架(cf.J.E.T.Taylor and G.W.Taylor,pp.454-475)的研究都涉及这些方面。这里笔者将生命作为认知的前提,感知作为认知的界面,意识作为认知的平台,心智作为自我意识,智能作为符号象征。如果这种理解是合理的(这里不讨论这种理解的依据,也不讨论两种认知的差异,而是从认知哲学探讨实现AC的方法论策略),那么AC是什么,源自哪里,与AI有何不同,又会通过何种策略来实现呢?这就是接下来要着重探讨的问题。

一、人工认知与相关概念界定

相对于成熟完善的NC研究(认知科学、脑科学及动物认知),AC研究要晚得多,而且更多是关于AI、人工生命、机器意识、虚拟现实、大数据和知识表征的探讨,对其哲学反思则更晚。因此,这里首先有必要对“人工认知”的提出、含义及其相关概念作出界定和澄清。

我们要特别强调的是,“人工”是指相对于自然类的人造物理制品,不是仿生意义上的生物合成物(区别于非生物的人工脑),而是认知人造物(cognitive artifacts)和人工工效学(cognitive ergonomics)意义上的事物。认知人造物是指人造的物理客体,如计算机、机器人,旨在协助、强化和提升人的认知能力。人工工效学从设计技术、组织和学习环境的视角研究工作场中的认知,用认知表征和信息处理的术语分析工作任务,以获得可靠、有效和令人满意的认知结果。

关于AI和AC,这两个概念既有联系又有区别。目前普遍认可的是,AI源于1956年的达特茅斯会议,其前身是图灵1948年提出的“机器智能”(人造智能),通常指通用图灵机的计算和表征能力,区别于“自然智能”(生物智能)。根据已有文献,AC是肯尼(R.Keene)在谈论与生物认知的关系时首先使用的一个概念(cf.Keene, pp.196-202),此后由皮兹洛(G.Pezzulo)用于说明认知是预知系统(cf.Pezzulo, pp.257-270),但他们都没有特别区分AC与AI。2014年弗农(D.Vernon)将认知定义为关于预测行动需要和发展预测这些行动之结果的能力,将人能制造出具有相同能力的机器系统称为“AC系统”(Vernon, p.2),并认为认知建模是其关键。2016年布兹(M.V.Butz)和库特(E.F.Kutter)提出“具身智能”“具身AI”“具身认知智能体”(embodied cognitive agent)概念,尝试从生物功能和计算视角介入AI研究(cf.Butz and Kutter, pp.65-70),这就是受生物学启发的AI;几乎同时,雷曼格纳(S.Lemaignan)等人提出基于社会性人机交互的AC概念(cf.Lemaignan et al.,pp.1-29),瑞特(S.Ritter)等人则在此基础上提出一种可解释性框架,一个包括人工生命、人工感知、人工意识、人工心智和AI在内的混合领域(cf.Ritter et al., pp.2940-2949);2020年J.E.T.泰勒和G.W.泰勒进一步提出通过实验心理学介入AI,进而形成人工心理学,以实现AI具身化的设想。人工心理学的独特之处在于强调认知模型是通过实验数据而不是直接观察得出的,更注重科学实验而非思想实验,更关注科学哲学的科学解释而非心灵哲学的内省解释。显然,AC区别于AI的经典定义,后者仅模仿并衡量其创造的产物与人类有多相似。

另外,需要特别说明的是,“人工认知”与“人工认知架构”也是有区别的。后者先于前者,但含义稍有不同,前者是指一种合成的、不断进化的生命形式,具有自主推理、自我评估、自我调节、自我修复、预测未来的情境并动态地适应环境的能力;后者旨在强调信息处理和在知识发展过程中为这种生命形式提供模仿人类推理的能力,并非一味强调要实现类人或超人智能的强AI主张。

在笔者看来,这些差异既形成了AC的人工主义(artificialism)策略,也构成了对基于生物自然主义的NC和基于功能主义的经典AI的双重挑战。人工主义是一种对计算与心智的关系以及对科学结构和文化过程采取计算与表征的符号主义。作为一种哲学方法,它强调通过计算机科学与科学哲学的结合来探索心智的本质及其在可能世界中的作用,并定义了机器性能的等效标准和跨越可能世界的一致的、有组织的计算属性,其中包含了智能设计的意向性,以此来证明思想作为心理内容的功能。(cf. Chiao, pp.25-126)而且,笔者认为AC作为一种解释框架,为可解释AI或机器学习提供了一种思路(相对于大脑作为黑箱,认知心理学只能通过实验来模拟它,而认知机器的行为是可解释的,其装置不完全是黑箱),这是因为深度神经网络驱动的AI已达到了让人难以甚至不能表达模型如何做决策的复杂程度。因此,对于AC而言,人工主义的介入是十分必要的。

概言之,AC被认为是可解释智能机器行为的一个新领域,对NC形成了一系列重大挑战,涉及人工生命的离身性(disembodiment)和离散性对(vs.)自然生命的具身性(embodiment)和连续性、人工感知的倾向性对生物感知的感受性、人工意识的关涉性和符号性对生物意识的意向性和现象性、人工心智的自治性对生物心智的能动性、AI的功能性对人类智能的灵活性。这些挑战同时揭示了两种认知方式的差异性,必然会涉及具有哲学意蕴的物理倾向性和自治性、生物的本能反应性、有意识生物的意向性和目的性、有心主体的能动性和主体性、无心智能体的机制性和功能性。回应这些挑战需要对认知/智能及其适应性表征策略作进一步的论证。

二、关于认知/智能与适应性表征

上述讨论表明,按字面理解,AC就是人造认知。我们通常把人类能够独立实施的自适应可预测行动的能力称为认知,而把制造出具有相近或相同能力的机器和软件系统称为AC系统。根据这种理解,AC是从与NC的类比或模拟而来的,而要模拟NC如人脑的功能,首先要建构认知模型,这意味着我们需要考虑建模问题,如从自然系统吸取多少灵感、复制或模拟自然系统有多真实、认知系统的物理结构有多重要、认知能力与其实现方式有何种区分等。(参见弗农,第4-8页)

然而,认知究竟是什么,其定义并不十分明确,不同学科也有不同理解。心理学侧重认知的思维和心理表征,认知科学侧重认知的信息处理和符号操作,哲学侧重知识获得的认识论,AI侧重认知的智能特征的计算建模,但它们的意义很相近。(参见魏屹东,2020年,第1-2页)因此,如何理解认知取决于这个问题的语境(即人脑、身体与环境之间的交互关系),例如,认知科学中的不同认知范式(认知主义、涌现论和混合范式)对认知的看法就不尽一致。一般来说,认知就是主体对周遭环境中所发生事件的推理和判断能力,包括感知、学习、预测、适应和行动等属性。在AI中,这些属性被认为表现出智能行为,在这个意义上,AC与AI几乎相同。

事实上,与认知一样,智能也不是一个意义很明确的概念,二者之间的界限是模糊的。关于智能是什么,不同学科有不同的理解。从生物心理学看,智能是对理解的运用,包括判断力、常识、主动性和适应力,甚至与情感、后天培养和社会文化环境相关。(参见沃里克,第19-28页)因此,“智能是个人从经验中学习、理性思考、记忆重要信息,以及应付日常生活需求的认知能力”(卢奇、科佩克,第3页),也就是生命体“完成复杂目标的能力”(泰格马克,第50页)。显然,这里所说的智能是生物智能,不是AI。从信息科学的角度看,“智能是一个信息系统在知识和资源相对不足时的适应能力”(王培,第27页),“知识和资源不足”是相对于系统试图达到的目标来说的,“适应”指的是系统从其历史经验中提取知识,并据此为应对当下情境和未来目标做准备。所以,离开学科语境来谈认知或智能是意义不明的。当然,提及认知,我们会自然地想到与之相关的生命、感知、意识、心智(心灵)、智能,甚至经验、情感、自我、自由意志等概念。这些概念之间是什么关系?如何使用?这里有必要稍加澄清。

从认知心理学来看,认知意味着认知主体的存在。人是最典型的认知主体,有大脑、有意识、有心智、有情感、会思维、能认知、会推理、能使用自然语言;特别是经由科学训练的科学主体(科学家),还会使用更抽象的逻辑和数学语言。这必然会涉及“意识”“心智”“自我”甚至“情感”“道德”等这些描述心理或精神现象的概念。这就是为什么科学认知也会涉及这些大众心理学和心灵哲学中的一些难以验证操作且不能重复的主观性或非理性观念。在科学认知的层次,认知强调科学性和客观性,突出逻辑性和抽象性,即集中于认知的推理、问题解决和符号操作方面。科学作为认知的典型方面,虽然强调客观性,但对世界的解释却离不开有意识经验的参与,这就是经验适当性的问题。经验适当性表明,经验是一种具身认知模式,是联系心智和自然的中介,“它(感知经验——引者注)构成了一类适应性的感觉系统,它只是把表象传递给意识,而不在形成意识上虚耗各种心理活动”。(贝特森,第43页)这里的表象就是心理表征,一种无意识的知觉过程,我们无法察觉到该过程,但可以意识到这个过程的结果,如心中所想的东西。

就认知过程而言,它必然涉及适应性和表征。适应性不仅与有机物和生物学相关,也与无机物和物理-化学相关,因为在最基本组成意义上有机物是由无机物构成的,生物学是基于物理学和化学的。所以,适应性是自然世界基本的普遍属性,许多模型纳入了适应性,遗传算法就是描述这种进化适应性的一种典型方法。(参见米勒、佩奇,第210-211页)表征也有两层意思:一是物理和生物层次的属性呈现,在解读这种属性时,需要使用语言,语言表达就是命题表征;在认知层次,表征是指使用中介工具描述对象,这个过程就是符号意义的说明,其结果是知识表达。这两层意思的表征都是符号指涉关系,是主体的一种范畴化适应能力。(参见魏屹东,2019年,第16-18页)也就是说,认知表征的本质就是符号指涉,势必涉及符号学、生物符号学、语义学和语用学。

就认知与表征所涉及的上述概念及其关系而言,杜威在《经验与自然》中关于自然、心灵与主观之间关系的说明(参见杜威,第301-302页)对笔者有所启示。他认为,在精神物理层次上,意识是就现实的直接性在性质上各种差异的总和而言的;同时在心灵(心智)层次上,意识是对于意义现实的领会或观念而言的。因此,在心智与意识之间有一个明显的差别,在意义(语义)和观念(思想)之间有一个明显的差别。心智是就那些体现在有机生命的功能中的整个意义体系而言的,意识在一个拥有语言的动物中系指对于意义的察觉或知觉;意识是从实际的事情(无论是过去、现在还是未来)的意义之中去认知这些事情,因此,意识就是实际的观念,就是正在发生的思想。而在任何有意识的行动和状态中,心智的大部分内容仅是隐晦不明的,其范围(起作用的意义领域)要比意识的范围宽广得多。在杜威看来,心智是关联全局和永远持续的,意识是局部和变动的;心智是思维有结构和有实质的一个恒常背景与前景;而认知的意识乃是一个过程,是一系列的此地此时,如“我感觉到牙疼”。按照杜威的形象说法,心智是一个恒常的光辉,意识则是间断的,是一连串强度不同的闪光,或者说,意识乃是对于持续传递中的消息所作的片刻遮断,好像一架收音机从布满空气的振波中选择少数的振波而使得它们可以为人所听见。根据这种主张,情绪、感觉、思维和欲望都是一个认知的察觉状态,而意识到的意义在发生层次上就是观念。笔者不完全赞同杜威关于心智是全局的、持续的,而意识是局部的、变化的这一观点,相反,笔者认为意识是全局的、持续的和基本的,而心智是基于意识的(当然也是全局的、持续的),也就是说,没有意识就不会有心智,“意识是人类心智的根源”(莱恩,第269页),具有优先性和根本性,比如昆虫可能有感觉意识(本能),但没有心智意识(自我意识)。一句话,感觉是低级意识,心智是高级意识,而高级意识是基于低级意识的。

概言之,在生命的意义上,认知是有意识的心智活动,表征同时包含了这些方面,而且使用了抽象符号,这意味着认知的表征是有意识的符号指涉过程;在非生命意义上,认知是无意识的纯物理符号操作和信息处理过程,表征是其呈现方式。如果这种理解是对的,那么认知就存在意识和无意识两方面:一个是自然的,一个是非自然的。这些概念之间的优先性和逻辑关系是:生命→感知→意识→心智→智能,构成了物理→生理→事理(法理、伦理)序列,适应性表征贯穿其中。这意味着智能本质上是源于意识和心智的,因为AI也是人造的,是人类智能的衍生物或结晶。接下来,笔者将按照这种逻辑演进关系,以哲学方式探讨AC不同方面的可能实现策略。

三、人工认知的生命实现:目标指涉性与生物指号性的统一

生命是NC的前提。这里再次强调,所谓人工生命,不是以人工手段合成生物体(杂交、克隆)意义上的,而是对智能体生成的活动系统进行再生和演化意义上的。如果我们将自主行动看作生命体的本质特征之一,那么能自主移动的机器人就是有生命的人造物。如果我们进一步将生命系统看作生物符号系统(指号关系网),或一个操作符号产生意义的表征系统(cf.Ferreira,pp.107-130),那么生命系统就有了目标指涉性,是一个自我指涉系统,而自我指涉性是一个实体拥有自我意识的标志,如某人知道他/她是谁(能自指)。按照这种逻辑,人工生命本质上就是指号关系构成的认知生命的物理延展或机器建构,因此,人工生命的主要问题必然涉及:人工生命如何展现自然生命的属性,如何给自然生命建模;智能体在人工构架中起何作用,如何与所处环境发生联系(即如何适应性地表征其环境),如何给予智能体的活动以生命性说明,如元宇宙中的我的动画替身;人工生命能否对基于生命的NC形成真正的挑战。

从方法论考虑,如果将认知系统视为一种指号关系和自我指涉系统,那么人工生命很可能通过人工主义方法和生物符号学的整合来实现。人工主义作为一种形式化表征建模方法,通过计算模拟构建生命系统的部分和细节,其实质是计算模拟和符号推理。生物符号学假定不存在我们所说的“心智”这种东西,而是将其作为一个概念的位置标识符,即目标的记号或图标,人类和其他动物都有这种能力(指向目标)。这种将人工主义与生物符号学相结合形成的新方法论,既不同于心智的分析哲学(不进行还原解释),也不同于神经科学哲学(忽视脑的进化)。(cf.Swan[ed.], pp.6-8)笔者发现,这种整合策略,既超越了自然主义的生物学解释和物理主义的机械论解释,也超越了心灵哲学中的机器功能主义的结构-功能解释,对被普遍接受的生物自然主义构成了挑战。

如果是这样,这种新方法论就为构建和测试数据集中的因果解释提供了一种新策略。理由是,根据人工主义,计算机科学的理论建构是以模拟和构建计算模型(符号表征系统)为基础的,可为构建和测试数据集中的因果解释提供工具。根据生物符号学,生命系统是指号系统,是由基因(指号)决定的,基因的遗传、组合和演化就是指号过程。这样一来,自然生命的指号过程可通过计算模型来说明,由于人工生命系统是由形式系统刻画的,它就更能够使用计算机建模了。因此,我们可以将计算机科学的形式表达范畴化为关于生物系统计算层次的理论建构。这意味着,人工主义不仅定义了机器性能的等效标准,也跨越人工生命这种可能世界的有组织系统的计算属性;不仅是对物理系统和可能世界中所有物体的一种假定,也包含了可能世界中智能设计的意向性和目的性。因此,物理系统的物理部分和性质就是自治的和自组织的,并作为人工生命世界的基础,作为涌现现象和性能来生成计算的物理部分和性质。所以,建模是人工生命研究的关键,即通过模拟自然生命的特征为人工生命建模——或以物理硬件形式,或以模拟软件形式,赋予人工生命以认知能力,即“认知生命”。如果这种逻辑是对的,我们就可通过人工主义的形式表达和生物符号学的指号关系,将人工生命与自然生命勾连起来,其中的符号指涉性和指号过程都是适应性表征的不同方面。

由于适应性的介入,这个过程必然涉及机械具身性和现象具身性这两种极端的认知方式:前者意味着认知居于物理实体中,后者意味着认知存在于某个环境生态位。(参见弗农,第176页)事实上,正是由于这两种认知方式都拥有具身性,它们才能够通过适应性表征将两种生命形式连接起来。如果是这样,泰格马克预测的生命3.0超级智能机器的出现就是非常可能的。(参见泰格马克,第31-32页)质言之,笔者想通过适应性表征将AI的探讨拓展并概念化为关于生物系统计算层次的建模,这等于确定了机器性能的等效标准和跨越人工生命这种自组织系统的计算属性。由于人工主义预先假定了物理系统和可能世界中智能设计的意向性,使得其中的物理部分和组织具有了自治性和自组织性,并成为人工生命的涌现性和自主性计算的物理部分,这相当于让计算机芯片像脑神经元一样运作。因此,我们可通过形式表达和指号关系的适应性表征,把人工生命和自然生命连接起来。

四、人工认知的感知实现:预知性和情境性的统一

感知是认知系统的必要条件,也是体现生命力的一个重要标志。如果说一个实体是有生命的,那么它一定具有感知能力,如生物的刺激反应。根据生物学我们还可以推知,没有感知能力的生物,如植物,一定不会有更高级的认知能力。我们进一步假定认知系统是皮兹洛所说的预知系统,一种预知性表征(anticipatory representation),即从反应性到积极主动性的感知能力(cf.Pezzulo et al., pp.3-22),或是克拉克所主张的预测加工系统(参见克拉克,第1-3页),那么人工感知就是认知性感知(区别于本能性感知),当然具有预知或预测能力,否则它就不能对NC形成挑战了。

问题是,人工感知装置如何展示这种认知性感知?预知性如何在生物体和人工感知系统中实现,即预知性表征如何允许认知功能的实现,与意识的意向性和感受性有何不同?我们用于理解与未来而不仅仅是与现在协调的预知性表征,如何处理情境化智能体的发展问题?这种预知性表征能力如何成为NC和AC系统的一种未来导向能力?可以看出,这一系列追问均与认知系统的预知性有关,而预知性是将心智作为预知系统的一种自适应表征能力。理由有二:第一,认知应该被描述为一种主动的生产性活动(康德的看法),而不是一种被动的刺激-加工系统或输入-输出系统,即:这种预知系统永远保持高度的主动性,并在不同期望状态之间不停地变动,致力于将感觉信号与预期目标匹配起来,以期获得不断更新的感知状态。第二,表征和符号能力的发展是由于主体对未来的预知和处理的适应性优势,也就是克拉克主张的大脑预测加工或多层预测编码机制,其中部署了一系列概率生成模型。(同上,第28-31页)笔者认为这一机制将自上而下的概率生成模型与保证编码及传输过程高效性的核心预测编码策略结合起来了。这样一来,智能体形成基本表征和符号能力就取决于预知或预测能力,而预知是基于感知的。因此,预知性是NC中发展若干个人和社会能力的必要条件,基于运动的模拟认知观实际上也启发了人工感知系统的设计方式,如感知-行动模式。可以预计,未来的机器人不应该只是简单地适应环境,而是预知环境,预测目标,通过持续调整预测误差来表征环境,它们的生成机制将成为引导日益复杂的认知能力的关键。

从方法论观之,这种预知主义以情境方法改造传统AI,也就是将计算表征方法与情境方法相整合。若进一步将预知分析与感知-行动分析(通过感知收集数据或信息并经过处理而行动的方法,也称行动主义)相结合,就形成了一种超越传统行为主义和动力主义的新方法论。因为预知的目的在于行动而不仅仅是预测,而行动在这种复杂的动态联结中起到双重作用——既是被理解的对象也是感知预期的结果。行动是处于具体情境中的,必须与世界包括其他主体对接,比如“认知发展机器人”能够将其他人或另一个机器人视为一个动态的预测对象来感知,而预测是通过一个内部自我模型的投射或翻译来实现的。(cf. Ogata et al., pp.4144-4149)这表明情境对于认知主体的重要性是不可或缺的,因为认知主体可以通过调节内部的预测加工路径来区分自我与他人。因此,是“情境塑造了有效连接的网络,聚合新质的、柔性的神经资源联合体,调动和调整用于拟合前馈感知信息流的相关模型”。(克拉克,第185页)笔者认为,这种情境化的预知方法超越了认知科学中的计算表征主义和联结主义。而且笔者发现,将大脑视为一个本质上具有预知性的器官是很有用的,因为它被设想为利用过去和现在的信息来产生对未来的预知。这一想法可用于设计人工感知系统,即通过预知性与情境性的结合来实现人工感知。

显然,根据我们对NC预知性的理解和日益复杂的预知能力的发展,我们可以设计出能够协调当前行为与未来结果,并根据未来需求进行规划、制定和实现抽象目标的人工预知性认知系统。而且,这种预知性表征能力可能是NC和AC的一种未来导向能力。(cf. Pezzulo, pp.257-270)经验证据表明,植根于感觉运动神经器官的预知性表征是至关重要的,它被包含在一些低层次和高层次的认知功能中,诸如运动控制、注意力、计划和目标导向的行为。在笔者看来,人工感知也必须具有这些能力,未来还可能包括模拟能力、社交能力、共同注意和沟通能力,因此,预知性可能是引导认知机器人的高级认知功能的关键因素。如果是这样,预知性有可能成为未来设计和开发AC系统的一个关键属性。笔者认为,对预知的理论、经验和计算研究,特别是模拟理论,将允许认知机器人的进化飞跃,从具有意向性和感受性的NC,升级到预知性表征的AC。其结果是,这种AC系统的自适应自治性将更为突出,其应对复杂环境的自我管理和自我调节的能力会更强。(参见弗农,第113-117页)

概言之,在人工感知系统中,就像在NC中一样,内隐和外显预知允许从面向现在的能力进化到面向未来的能力,从而引导高层次的认知和社会能力。(cf. Pezzulo and Castelfranchi,pp.115-131)这种AC系统具有基于技能、基于规则和基于知识的行为(cf. Meitinger and Schulte, pp.91-100),而且在不同系统之间进行协作。这三种行为是机械式AC的能力,也就是目前AI和智能机器人具有的能力。在笔者看来,AC要成为预知性或预测加工式的具身AI,还应该具有自寻优(self-optimization)能力(主动寻求最大化最优化)和自语境化(self-contextualization)能力(自主融入新语境),这些能力同时也是认知方法,即自寻优方法和语境化方法。这些方法的综合形成了笔者所说的新预知主义——一种将预测性、情境性和语境性进行整合而形成各种自适应的自治策略。

五、人工认知的意识实现:语境涌现性与生成性的统一

这里的意识是指基于生命和感知的自然或生物意识,我们人类是这种意识的代表。然而,由于对自然意识是什么、如何产生并运作的问题还没有搞清楚(虽然有形形色色的意识学说),因此,人工意识对它的挑战会面临更大的风险或不确定性。意识到底是什么?在哪里发生?与认知是何关系?能够科学地得到研究吗?机器是否能够有意识?这些问题一直存有争议,也是认知科学、AI和认知神经科学以及认知哲学要具体面对的难题。所以,方法论在这里显得尤为重要。

事实上,无论从哲学还是科学视角看,我们的意识现象特别是主观意识(认知性意识,区别于客观性意识)仍然是个“黑箱”,人工意识(机器意识)几乎只能在模拟自然意识或大脑功能的层次上进行。在这个意义上,我们必须了解意识发生的本质特性。在哲学-现象学语境下,目前较普遍认同的看法是,意识是意向性与现象性因素的结合(参见加布里尔,第129页),也就是对象指涉性和体验感受性的统一。在物理-生物学语境下,目前意识发生的公认特性是涌现性(简单相互作用产生复杂行为)和生成性(自组织特性),相应地就有了语境涌现论(基于系统论的自然主义方法)和认知生成主义(生态学耦合方法)。语境涌现是作为物理系统和其他系统不同描述层次间的一种非还原但定义明确的关系被提出的,旨在说明不同层次系统间属性的不可还原性,如意识不能被还原为大脑的物理和神经性质。(cf.Atmanspacher, pp.18-36)在技术上,语境涌现产生了一个形式健全和经验适用的程序,以一种整体一致的方式在描述层次间进行翻译,并可从神经层面的描述来讨论心理状态。

笔者认为,若将语境涌现论与生成主义整合起来,可形成一种更强的认知涌现方法。这种新方法可统一传统认知研究的控制论方法和AI方法,不仅有助于AC与NC的融合,也是对被普遍接受的情境-觉知方法的有益补充。(参见魏屹东,2022年,第109-121页)这是因为,人工意识特别是人工主观意识要梦想成真,语境是其不可或缺的因素,因此,对于人工意识如何具有语境的问题,我们不能沿着认知主义的老路,而是要运用一种与其相对立的新语境涌现论——涌现+耦合+生成方法论。语境涌现论认为,意识是一种涌现现象,有其物理-生物机制和演化因素;生成主义认为,有意识认知不是表征过程,而是一种产生于动态在线互动或自治主体与其所嵌入的环境“耦合”的意义创造过程。这意味着,认知是建立在自治主体的意义创造活动之上的,自治主体主动地产生和维持自己,从而制定或产生自己的意义和价值域。(cf. Thompson and Stapleton,pp.23-30)不过,生成主义还不是一个成熟的研究纲领,它有两种版本:一个是广义生成主义,认为认知是主体与其周围环境的动态耦合所产生的一种意义涌现的关系过程,一种主体自我维持的自治过程;另一个是狭义生成主义,认为认知是以产生知觉意识的探索活动为基础的,并拒绝表征过程。对生成主义不承认表征这一点笔者并不认可,因为生成过程本身就是表征(呈现属性或行为),如大脑中产生的梦境。

在笔者看来,语境涌现论和生成主义本质上是一致的,都是基于语境的适应性表征主义,因为认知的“涌现”和“耦合”都是嵌入语境的。如此一来,自然意识和人工意识就可纳入基于语境的适应性表征框架,可用适应性表征修改、提升其方法论功能。所以,语境涌现+生成主义+适应性表征可给予人工意识一种更合理的解释。笔者将这种具有自治性的适应性表征策略视为一种预测和实现以目标为导向行为的交互方法论。根据这种方法论,自治性现实环境是基于计算机/传感器/智能组技术的AC系统,能够捕捉到人类要完成的任务,在特定语境出现之前或出现时行动,通过与人的自然互动来解决问题并减少手头任务的认知需求,以及监督影响过程进行的效果和条件。同时,自治性现实环境还表现为一种现实的自生环境。自治性表明:智能体有能力在没有人工干预的情况下进行任务选择、优先排序、目标导向的行为和决策。而且,自治性体现的意识灵活性促使智能体在解决问题的过程中自我适应并与其他智能体相互作用。

目前,基于智能体及其组合的认知系统架构概念已经在AI中很好地建立起来了,并展示了巨大的潜力。在自治性现实环境的条件下,人工意识研究面临的一个挑战是:建构一个复杂的、自给自足的系统,同时通过传感器感知环境、执行计算实体和行为,一定程度上自主代表其用户完成任务,并与监督内部状态的应用程序进行通信。而且,这种人工意识系统不仅通过获取、存储、生成和使用知识为用户提供认知支持,还通过参与问题解决和过程控制调整自己的操作;它是一个能执行认知功能的网络,一个独立的智能体,而不仅仅是一堆目标导向的物理行为模拟器。据此,笔者预计,在适应性表征框架下,人工意识将会通过语境涌现与认知生成的整合在一定程度上得到实现,但要达到哲学上理解的意识,即意向性与感受性的统一,还有相当程度的距离(是碳基的还是硅基的可能很重要)。

六、人工认知的心智实现:模拟性与表征性的统一

这里笔者再次强调,心智是作为纯精神现象的自我意识存在的。心智作为高级意识是人这种智慧生物特有的。笔者赞同赵汀阳先生的看法,即自我意识是个哲学问题,讨论它不能停留在生理-物理层次,而要在语言表达层次进行,因为“人类的自我意识就发生在语言之中”(赵汀阳,第42页),从而使一切事物都变成了思想对象,并能够对意识本身进行反思。所以,在哲学语境中,心智这个概念主要是针对人而言的,即人拥有心灵;而人工心智是AI发展起来之后才有的概念,而且是通过模拟或仿生来尝试进行研究的,还谈不上物理上的实现,即制造出一个拥有感受性的机器人。即使现在的智能机器人,虽然具有目标导向的意向性(指向目标),但没有现象意识(感受性),还只是模拟意义上的推理机器,是表面上看起来有智能的“好像”心智,不是生物意义上像我们一样具有感受性的真正心智。在这里,“真正”的意思是“自然产生的”,而不是“人造的”,所以,任何人工心智,都是“好像”意义上的自然功能模拟物。

所谓模拟,就是运用一个设计的事物或过程对真实事物或过程的模仿或虚拟,目的是表现出所选择物理系统或抽象系统的关键特征,其中计算建模是关键(区别于心灵哲学中关于预测他人行为的模拟理论)。这一过程必然要求模拟物与被模拟物之间的相似性和适应性,因为模拟的关键是有效信息的获取、关键特征和表现的选定、近似简化和假设的应用,以及模拟的重现度和有效性。在算法层面,模拟由一个可理解的心理状态的形式化程序组成,它产生对给定的特定输入的精确输出,也就是计算机及其组成部件的模拟模型,包括对世界的大规模模拟再现的“计算脑”。(cf.Churchland and Sejnowski)若将这种模拟主义(笔者对心理模拟理论的概括)与计算表征主义相结合,可形成一种超越纯粹的形态模拟的新方法论,因为前者仅侧重于心理模拟和心理建模,后者则侧重于计算机模拟和符号推理的物理实现。

目前的人工心智研究,在理论上基于相似或同构策略,在技术上是模拟(心智)手段,在哲学上是“好像”哲学和合理归因模式,毕竟心智作为精神或心理的东西难以人工物理地实现(尽管心智是物理地产生的)。在工程上,机器人学为设计具有适应和学习能力的机器人提供了一种可行的方法,即通过互动和学习来开发新的技能。因为认知机器人是基于心理学、生理学和神经科学的洞见实现的,其目的是在AC系统上模拟和复制类人的性能和内部状态。(cf. Christaller, pp.221-224)比如发展性机器人技术作为一种跨学科方法,包括发展心理学、神经科学、AI和机器人学,用于机器人复杂的感觉、运动和心理能力的自主设计,其直接灵感来自儿童认知系统中的发展机制和原则:具身性和社会学习能力。这是开发人工心智的两个关键原则。

上述讨论表明,人工心智的哲学研究是假设意义上的“好像”模式和合理归因模式,前者给出假设,后者寻求解释归因,目的是让世界有意义。这意味着,我们把所有的认知属性归于无生命的物体,如机械装置,而不主张所描述的物体真的拥有这些属性。智能体要像人那样行动,就必须具有行动能力和协调能力,这两种能力构成智能体的联合行动。然而,最小意义的行动能力还不足以构成联合行动——在集体互动中成为一个社会行动者(即实践主体),因为联合行动的核心在于协调能力。根据联合行动概念,共同意图的功能性作用是协调能力,只有智能体以有组织的方式合作,才能谈论联合行动,就像群体智能(蚂蚁、蜜蜂)那样。否则,这样的交互只能被描述为偶然的并行操作,而不能被理解为联合操作。这是人工心智研究面临的一个巨大挑战。

如果智能体在人类社会生活中越来越普遍,并且与它们的互动是真正的社交体验而不仅仅是工具使用,那么就需要一种策略来克服我们在哲学中对社会认知能力的限制概念。这就需要发展出一种人工社会认知(相对于人类社会认知)。进一步说,如果AC能够在最小意义上行动,并额外提供与其他社会主体协调的社会能力,那么这种系统就可以被称为联合行动中的社会主体,因为它们实际上拥有了社会认知能力。有研究表明,智能体联合行动中的协调所需的社会能力有三个重要方面:通过最小程度的读心来理解其他智能体、社会线索的互惠交换和以最小程度的承诺作出贡献的能力,这些方面有助于机器人专家研究AC基准的发展。(cf.Strasser, pp.106-114)

总之,随着计算机科学和AI技术的发展,人工心智的研究有望在复杂的和不编程的情况下提供模拟以促进问题解决和过程控制,并实现与用户的协同合作。这意味着人工心智应该具有更多的智能、更多解决问题的能力和更合理可行的自然界面。尽管未来难以预测,但未来的人工心智极有可能模拟人脑的认知功能,解决问题的工具将基于虚拟现实技术,界面将是多模态和适应性的。而且这种功能将包括各种子功能:人工感知、模式识别和理解情境;解释各种形式的信息,如语音、手势、传感器数据;图像和场景识别;虚拟对象的创建和操作;操作过程的预知模拟以及基于语境的推理和决策。这些功能需要在不确定的现实情境和不可预知的条件下实现。因此,这些AC应用系统能够适应其自然环境,而无须预先编程,同时表现出高度的鲁棒性。(cf.Horváth, pp.297-318)这样,人工心智很有可能通过计算模拟与适应性表征的整合得到实现。

七、人工认知的文化智能实现:重构性与文化性的统一

“智能”在这里特指基于意识和心智的高级符号表征能力。众所周知,AI有强弱之分。作为认知辅助工具的弱AI已经实现,如计算机和各种机器人;而作为类人实体的强AI或通用人工智能,如拥有意识和情感的机器人,还只停留在理念上,能否实现仍是个开放的问题。在笔者看来,目前的AI还只是工具意义上的,而不是文化意义上的(涉及意识、情感甚至道德、习俗)。要成为文化意义上的AI,就需要对AI进行文化重构,笔者将这种文化重构的AI称为“文化AI”(AI的人性化),将文化对重构主义的修正称为“文化重构主义”。提出“文化AI”概念的目的是将人类特有的文化特征(文化智能)嵌入AI:一方面可让其更具有人性;另一方面可整合“具身的”“可靠的”“负责任的”“友好的”AI等提法,以避免概念上的混乱。

重构主义(re-constructionism)是一种研究心智、大脑和行为的自下而上的经验方法,与还原论自上而下的过程相辅相成,强调心智和大脑的基本机制及其涌现过程,并假设心智和大脑的组成过程及其互动描述了复杂的心理涌现现象,与心灵哲学中说明心理现象的神经机制的涌现论相似。(cf. Chiao, p.68)重构主义能够以更广阔的认知视野解决问题,因为它考虑了计算机制的物理实现,从而为更广泛的认知现象建模提供了合适的工具。随着人工神经系统的发展,生物形态计算出现了新的特点,根据这种方法,作为认知媒介的多细胞生物获得了自我表征能力,从而能够区分“我”和“他者”,并提供支持运动的基本功能。比如,将拥有集中控制的神经系统的动物连在传感器和驱动器上能够使它们移动,这增加了生存的可能性,因为单个神经元是一个相对简单的信息处理器,而整个大脑拥有复杂的信息处理和计算能力。除将认知系统建模为具身的、嵌入的、生成的和交互的能力之外,形态计算还为AI提供了理解这种能力如何进化以及它在生命体中如何发展的手段。

可以看出,作为一种哲学立场,重构主义假定心理现象是一系列心理和神经属性互动的结果,其不足是忽视了文化对心智的塑造。若将重构主义与文化主义相结合,就产生了一种具有文化性的新方法论。文化主义认为,人类的文化学习能力本身就是一种创新能力,这种能力是通过社会交互获得的,而不是基于生物适应过程的直接结果;更重要的是,文化学习的特殊性(只有人拥有)不仅促进了信息的传递,而且让我们从他人那里了解心理过程。(cf.Heyes, p.2182)因此,正是文化的参与和推动才使得人类最终拥有了心智。显然,这种文化重构方法具有更大的包容性,超越了认知神经科学中以计算解释为范式的认知主义和还原论,因为计算范式仅通过计算模拟大脑来理解心智(cf. O'Reilly and Munakata),而文化AI则涵盖了上述不同叫法的AI,更具人文性。

文化重构主义不同于已有AI哲学的地方在于:它不是从AI是否会思维,是否理解字符串,是否有情感、人格、道德以及可能的法律问题出发,而是从更具有包容性、根本性的人类特有的文化属性切入,以更深层的文化统摄智能以外的情感、道德和法律。当然,这里的文化整合不是替代,而是旨在推进或超越传统AI,但如何进行文化整合在技术上仍然是个难题。我们知道,传统认知科学侧重于通过知觉、推理、记忆、学习、问题解决等方式研究产生知识的过程,但很少涉及生物学、化学、(量子/纳米)物理学和混沌理论、信息科学、自组织、人工生命、AI和数据科学、延展心智或分布式认知、社会学和生态学等。根据当代认知科学,认知是远离物理-化学-生物基质的高层次抽象计算过程,是由经典的序列计算(符号操作)或人工神经网络建模的。于是问题来了,在这种脱离生物身体的、较低层的亚符号信号处理和较高层(心理的)认知过程之间如何建立连接?

在人工神经科学中,重构主义为解决这些问题提供了生物形态计算方法,认为这些问题大多只能在经验数据、实验和充分的生成模型和模拟的基础上才能得到解决(仅依赖哲学的内省和思辨是远远不够的)。(参见渡边正峰,第252页)因为通过重构生物形态计算,我们可将AI建模为交换(通信)信息的节点(智能体)结构的动态活动过程,就像单细胞生物群体(如细菌)的相互交流、形成群体或通过形态计算呈现为社会/分布式认知群(细胞群通过形态计算聚成具有特定控制机制的多细胞集合而形成组织、器官、生物体和群体生物),与遗传算法类似。(cf. Dodig-Crnkovic, pp.19-23)

质言之,从科学哲学来看,重构主义是对物理世界的完整解释的补充,强化世界中不同心智间的相互作用,并使我们从心理和推理中产生了关于自然界的稳定模式和规律。也就是说,重构主义将心理思想和神经机制的一组同一关系作为重要的涌现属性,是对有组织的物理系统的部分和细节的放大。在这种意义上,重构主义也是一种涌现论,因为它不自觉地把具有文化特征的心理思想和神经机制的同一性关系作为一种涌现属性,进一步推进了AI的人性化发展。所以说,文化AI很可能通过重构主义与文化主义的统一来实现。

综上所述,笔者依据NC的不同发展阶段对AC实现的相应方面的划分只是相对的。事实上,那些方面通常是混合的、交叉的、渗透的和交融的,其实现策略总体上是适应性表征方法论。原因在于:人工主义的实质是使用贝叶斯方法的形式建模,它通过经验启示法不断尝试达到目标,加之与生物符号学方法相结合,表现出生命体的适应性;预知分析加上行动主义意味着感知+行动=适应性+行为表达,表现出感知的预知性;语境涌现的机制就是适应性表征,加上认知生成意味着变化+结果呈现=适应性+表现(表征的另一种形式),表现出意识的自主性和能动性;模拟是目标引导的拟合性表征,表征是显性和隐性属性的物理及符号呈现,二者的统一凸显了心智的抽象性和灵活性;文化重构意味着自然进化与文化进化的结合,表现出自然和文化的双重适应性和表征性。一句话,AC的实现依赖于上述多种属性的适应性表征整合,而这些属性的整合必然要求多学科(认知科学、符号学和AI等)的交叉与综合,因为认知本身就是多属性和多方面的。

 

参考文献

[1] 贝特森,2019年:《心灵与自然:应然的合一》,钱旭鸯译,张建新审校,北京师范大学出版社。

[2]杜威,2014年:《经验与自然》,傅统先译,商务印书馆。

[3]渡边正峰,2021年:《大脑的意识,机器的意识:脑神经科学的挑战》,安婷婷等译,北京大学出版社。

[4]弗农,2021年:《人工认知系统导论》,周玉凤、魏淑遐译,王希审校,北京大学出版社。

[5]加布里尔,2022年:《我非我脑》,王培译,重庆出版社。

[6]克拉克,2020年:《预测加工:具身智能如何应对不确定性》,刘林澍译,机械工业出版社。

[7]莱恩,2020年:《生命进化的跃迁》,梅苃仁译,文汇出版社。

[8]卢奇、科佩克,2018年:《人工智能》,林赐译,人民邮电出版社。

[9]米勒、佩奇,2020年:《复杂适应性系统》,隆云滔译,上海人民出版社。

[10]泰格马克,2018年:《生命3.0:人工智能时代人类的进化与重生》,汪婕舒译,浙江教育出版社。

[11]王培,2022年:《智能论纲要》,上海科技教育出版社。

[12]魏屹东,2019年:《适应性表征:架构自然认知与人工认知的统一范畴》,载《哲学研究》第9期。

2020年:《认知哲学手册》,科学出版社。

2022年:《人工智能的情境觉知:一种“在线”适应性表征》,载《上海师范大学学报(哲学社会科学版)》第1期。

[13]沃里克,2021年:《人工智能基础》,王希译,北京大学出版社。

[14]赵汀阳,2022年:《人工智能的神话或悲歌》,商务印书馆。

[15]Atmanspacher,H., 2007, “Contextual Emergence from Physics to Cognitive Neuroscience”, in Journal of Consciousness Studies 14(1/2).

[16]Butz, M.V. and Kutter, E.F., 2016, How the Mind Comes into Being: Introducing Cognitive Science from a Functional and Computational Perspective, New York: Oxford University Press.

[17]Chiao, J.Y., 2020, Philosophy of Computational Cultural Neuroscience, New York: Routledge.

[18]Christaller, T., 1999, “Cognitive Robotics: A New Approach to Artificial Intelligence”, in Artificial Life Robot 3(4).

[19]Churchland, R.S.and Sejnowski, T.J., 1992, The Computational Brain, Cambridge, MA.: The MIT Press.

[20]Clark, A., 2016, Surfing Uncertainty:Prediction,Action,and the Embodied Mind, Oxford: Oxford University Press.

[21]Crowder, J.A., Carbone,J.N. and Friess,S.A., 2014, Artificial Cognition Architectures, New York: Springer.

[22]Dodig-Crnkovic, G., 2018, “Cognition as Embodied Morphological Computation”, in V.C.Müller(ed.), PT-AI 2017,SAPERE 44, Cham:Springer.

[23]Ferreira, M.I.A.,2010, “On Meaning: A Biosemiotic Approach”, in Biosemiotics 3, Berlin:Springer.

[24]Heyes, C., 2012, “New Thinking:The Evolution of Human Cognition”, in Philosophical Transactions of The Royal Society B-Biological Sciences 367.

[25]Horváth, I., 2008, “Concept,Framework and Resources of a Proactive Reality Environment:Combining Artificial Cognition with Interactive Instruments”, in D.Talabǎ and A.Amditis(eds.), Product Engineering:Tools and Methods Based on Virtual Reality, Berlin: Springer.

[26]Keene,R., 1995,“A New Model for the Cognitive Process”, in Proceedings of the First International Symposium on Intelligence in Neural and Biological Systems, IEEE Computer Society.

[27]Lemaignan,S., Warnier,M., Sisbot,E.A., Clodic,A. and Alami,R., 2017, “Artificial Cognition for Social Human-Robot Interaction: An Implementation”, in Artificial Intelligence 247, URL = https://hal.archives-ouvertes.fr/hal-01857498/document.

[28]Meitinger,C.and Schulte,., 2009, “Human-UAV Co-Operation Based on Artificial Cognition”, in D.Harris(ed.), Engin. Psychol. and Cog. Ergonomics, HCII 2009, LNAI 5639, Berlin:Springer-Verlag.

[29]Ogata,T., Yokoya,R., Tani,J., Komatani,K. and Okunoet,H.G., 2009, “Prediction and Imitation of Other's Motions by Reusing Own Forward-Inverse Model in Robots”,in ICRA'09, International Conference on Robotics and Automation,IEEE.

[30]O'Reilly,R.C.and Munakata,Y.,2000, Computational Explorations in Cognitive Neuroscience:Understanding the Mind by Simulating the Brain, Cambridge,MA.:MIT Press.

[31]Pezzulo,G.,2007, “Anticipation and Future-Oriented Capabilities in Natural and Artificial Cognition”, in M.Lungarella, F.Iida, J.Bongard and R.Pfeifer(eds.), 50 Years of AI, Festschrift, LNAI vol.4850.

[32]Pezzulo,G.and Castelfranchi,C., 2007, “The Symbol Detachment Problem”, in Cognitive Processing 8(2).

[33]Pezzulo,G., Butz,M.V., Castelfranchi,C. and Falcone,R., 2008, “Introduction:Anticipation in Natural and Artificial Cognition”, in G.Pezzulo et al.(eds.), The Challenge of Anticipation, LNAI 5225.

[34]Ritter,S., Barrett,D.G., Santoro,A. and Botvinick, M. M., 2017, “Cognitive Psychology for Deep Neural Networks: A Shape Bias Case Study”, in International Conference on Machine Learning, PMLR 70.

[35]Strasser,A., 2018, “Social Cognition and Artificial Agents”, in V.C.Müller(ed.), PT-AI 2017,SAPERE 44, Cham:Springer.

[36]Swan,L.(ed.), 2013, Origin of Mind, New York:Springer.

[37]Taylor,J.E.T. and Taylor,G.W., 2020, “Artificial Cognition:How Experimental Psychology Can Help Generate Explainable Artificial Intelligence”, in Psychonomic Bulletin and Review 28.

[38]Thompson,E.and Stapleton,M., 2009,“Making Sense of Sense-Making:Reflections on Enactive and Extended Mind Theories”, in Topoi 28.

[39]Vernon,D., 2014, Artificial Cognitive Systems:A Primer, Cambridge, MA.: The MIT Press.

 

魏屹东,教育部人文社会科学重点研究基地山西大学科学技术哲学研究中心专职教授,哲学学院二级教授、博士生导师。《国家哲学社会科学成果文库》入选者,国家哲学社会科学重大项目首席专家,长期从事科学史、科学哲学、认知哲学、人工智能哲学以及语境论的认识论和方法论研究。

    进入专题: 人工认知   自然认知   人工主义  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/151064.html
文章来源:本文转自哲学研究,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统