刘永谋 白英慧:人工智能拟人论的哲学反思

选择字号:   本文共阅读 382 次 更新时间:2025-12-29 22:13

进入专题: 人工智能   拟人论  

刘永谋 (进入专栏)   白英慧  

 要:AI拟人论主张AI在本体论、认识论、方法论与价值论层面对人类进行全面模拟。AI拟人化正逐渐成为AI文化的典型特征。与AI泛灵论相比,AI拟人论具有多维性、普遍性、以二分框架为基础的特点。在实践应用中,AI拟人论在通用AI领域聚焦于AI认知架构的拟人化;在具身智能领域侧重于AI“身体”的拟人化;在机器情感领域致力于AI情感能力的拟人化;在数字永生领域倾向于对人类个体的全面细致模仿。从根源上看,AI拟人论的盛行源于人类认知机制对意义标准与效率标准的遵循。这虽然提升了人机交互体验并突破了AI应用边界,但也引发了AI恐惧、偏见固化、阻碍创新等问题。对此,应坚持一种AI拟人论的有限主义进路,在产业发展中确保对AI拟人论的可控性治理,在哲学审视中聚焦对AI拟人论的批判性审度,在文化建构中防止对AI拟人论的非理性幻想。

关键词:人工智能;拟人论;泛灵论;有限主义

随着人工智能(artificial intelligence,AI)语言理解、情感识别、交互反馈等能力的不断提升,不少AI产品逐渐显现出“察言观色”“善解人意”等类人特征,AI拟人化趋势日益明显。在这一背景下,拟人论(anthropomorphism)已广泛流行于AI的技术设计、社会应用与文化想象之中,被视为提升用户接受度与交互自然性的关键路径。目前,AI拟人论研究分布于哲学、心理学、计算机科学、文学、社会学等多个领域。尽管相关讨论层出不穷,但多数研究仍以各自学科的立场和方法为主,缺乏有效的跨学科整合,难以形成对AI拟人现象的系统性认知与规范性引导。更为突出的是,一些研究倾向于将拟人论与泛灵论(animism)相混淆,对AI拟人论的界定较为模糊。对AI拟人论进行阐释与澄清不仅是AI理论发展的内在需求,也是相关技术实践的现实要求。在此基础之上,对AI拟人论进行哲学反思尤为重要。这种反思不仅有助于澄清AI与人类在本体论层面的根本差异、揭示拟人化所掩盖的AI局限与技术伪装,还能促使我们重新审视拟人化的合理边界,从而构建起一种有限、可控、审慎且互补的人机共处模式,为AI的健康发展奠定坚实的人文基础。

一、AI拟人论的理论阐释

拟人论指的是将人类的某些特征赋予非人对象的思想观念。通过分析不同研究者对拟人论的界定,有学者指出:拟人论被概念化为一种倾向、一种技术性刺激、一种感知、一种过程及一种推断。该总结并未明确区分拟人论与拟人化(anthropomorphization)概念。必须注意的是,拟人论强调的是人类在理解层面对非人对象的观念投射,包含解释学与本体论的维度;而拟人化则聚焦于行为层面的人类属性技术复制,具有工程学与实践操作的导向。因此,AI拟人论可以被视为一种心理倾向、一种感知状态及一种认知推断。AI拟人化正逐渐成为AI文化的典型特征。

AI拟人论认为,本体论层面AI的本质在于类人性。根据卡普的“器官投影说”,技术的最初发展便是源于对人类身体各部分的模仿。而AI的不同之处在于,其模仿深入人类的意识与情感,展现出更高的自主性与不确定性,逐渐逼近人类的存在本质。这也意味着,AI在本质上并非与人类相等同的存在,甚至算不上是人类的克隆体,仅仅是一种外在的、功能的模仿与展现。在认识论层面,AI拟人论意味着,AI对知识的获取是在模仿人类的认知过程。AI通过传感器感知环境,并借助强化学习等算法进行知识积累。这在一定程度上模仿了人类通过感官与经验获取知识的方式。例如,AI在与环境的互动中根据奖惩反馈不断调整行为,这一强化学习机制类似于人类依赖经验不断修正与优化认知结构的过程。然而,AI高度依赖于大量的数据输入与反复训练,而人类往往能够基于有限经验,通过推理、类比或直觉迅速获得新知。这一差异表明,AI在深层次上仍难以完全复现人类的认知能力。在方法论层面,AI拟人论主张在设计方法与评价方法上的拟人化。例如,类脑智能作为一种AI设计方法,“是受大脑或者生物神经运行机制和认知行为机制启发,以计算建模为手段,通过软硬件协同实现的机器智能”,具有很强的拟人化特征。此外,图灵测试则通过测试AI在人类互动中展出的类人程度,以评估AI系统的智能水平。在价值论层面,AI拟人论关涉AI价值对齐,主张赋予AI类人道德。无论是通过模拟人脑中与道德判断相关的神经机制,还是借鉴人类在进化中的合作与利他行为模式,AI拟人论往往基于自然主义道德观,致力于使AI在面临道德决策时能够做出符合人类价值的选择。

值得注意的是,AI拟人论与泛灵论关系密切,常常被混淆使用。二者均认为AI具备某些人类特性,但在范围、基础、程度等方面存在差异。

首先,与AI泛灵论相比,AI拟人论更加多维化,涉及对人类各类特征的模拟。广义上的AI拟人论具体表现为AI对人形、人神、人事的模拟,是具象化的,其类人特征可通过技术指标量化验证。如今,AI与机器人的结合趋势日益明显,因此,广义上的AI拟人论与机器人拟人论的涵盖范围基本相同。在人形层面,AI通过虚拟模拟与实体模拟的双重路径实现形态类人化。虚拟模拟通常依赖于计算机图形学和虚拟现实技术来创造高度真实的虚拟形象,例如清华大学与智谱AI联合开发的华智冰拥有超写实数字形象,具备逼真的人类外观与丰富表情。此外,AI还可以与机器人相结合,从而具备类人“身体”,实现实体模拟。例如,汉森机器人公司开发的Sophia机器人通过仿真硅胶皮肤与伺服电机实现对人类表情、肢体与动作的现实模拟。伊丽莎白·菲利普斯(Elizabeth Phillips)等人总结了机器人类人外观的四个维度,分别为表面外观(surface look)、身体—操作器(body-manipulators)、面部特征(facial features)及机械运动(mechanical locomotion)。在人神层面,AI聚焦于对人类认知与情感的模拟,由此具备类人的推理决策、情感识别与表达等能力。例如,微软小冰既能写诗,又能与人类进行情感交流。具体来说,人神即人性,人性具有两层含义,即人类独有(uniquely human,UH)特征与人类本质(human nature,HN)特征。其中,人类独有特征倾向于一种高认知能力;而人类本质特征指向一种情感性存在。因此去人性化(dehumanization)具有双重维度。在此基础上,雅库布·兹沃托夫斯基()等人认为,拟人化是去人性化的逆过程,因此拟人化至少是二维的,并且相较高认知能力,AI拥有一定的情感能力,更能显著提升拟人化水平。在人事层面,AI重点模仿人类的交往能力尤其是合作能力、交流能力,从而更好地执行任务、适应环境并与人交互。例如,软银的Pepper机器人不仅能够在银行执行接待客户的任务,还可以在养老服务中提供陪伴价值。必须明确的是,上述各个层面的AI拟人论均基于行为主义的哲学理念。换言之,无论AI内在机制如何,只要其外在地表现出类似于人类的行为特征,便会被拟人化。而AI泛灵论仅仅将灵魂赋予AI,具有单一性与抽象性。大部分AI泛灵论者认为,AI具有内在精神。他们常常依赖超验解释,极易陷入不可证伪的神秘主义困境。总之,AI拟人论凭借其多维化、具象化的模拟,在技术开发和实际应用中更具普遍性与可操作性。

其次,AI拟人论以二分框架为基础,倾向于人类中心主义。AI拟人论的重点在于模拟。换言之,AI设计以人类为模板,倾向于通过人类标准来定义AI的存在和功能,而非立足于AI的独特属性或潜力。因此,现阶段的AI拟人论在根本上属于一种技术工具论,把AI视为一种服务于人类的复杂工具。在AI应用过程中,即便人机界限逐渐模糊,大部分AI拟人论者仍将AI视为客体,并未赋予其与人类同等的地位。但是,AI泛灵论由于聚焦于人类的精神层面,认为AI内在地具有灵魂,因此极易转向一种对现代二分框架的破除,主张消除人机之间的界限。人类学家欧文·哈洛韦尔(Irving Hallowell)提出的“非人类之人(other-than-human persons)”概念认为,“人类(humans)”是“人(persons)”的子集,“人”作为一个更广泛的类别,不仅包括人类,还包括岩石人、熊人等。成为“人”并不需要与“人类”相似,而是“人类”与其他“人”存在相似之处。按照此观点,AI即为“非人类之人”,其与“人类”均具备灵魂,因此可统称为“人”。这意味着,AI泛灵论在某种程度上消解了人类与AI、主体与客体之间的区分,此种非人类中心主义的观点过于激进,不利于人类的可持续发展。

最后,AI拟人论更具普遍性,覆盖人类各年龄阶段、各社会领域。AI拟人论的普遍性源于其设计逻辑与人类认知机制的深度契合。这种契合通过双重路径实现,即技术专家的主动拟人设计与用户的无意识投射。技术专家将AI拟人论视为一种理性设计策略,基于技术接受模型与用户体验设计AI类人外观、功能,以提高人机交互的自然度、舒适度、接受度为最终目标。此外,用户受认知与情感的影响,在与AI的频繁交互中极易将其视为类人存在。但是,泛灵论哲学“在理论上表现为信仰,在实践上则表现为崇拜”。AI泛灵论常源于技术崇拜,更多地存在于AI狂热分子之中。他们直接将AI视为有灵魂的、有生命的物体,往往立足于AI的未来发展,对超级AI充满信心、极度乐观,信仰并崇拜AI,更加带有宗教意味。因此,AI泛灵论中充斥的幻想与疯狂注定使其沦为技术文明进程中的边缘化叙事。

二、AI拟人论的实践图景

拟人论作为AI设计与研究的核心范式之一,已深度渗透至通用AI、具身智能、机器情感与数字永生等领域,逐渐形成一种跨行业、跨学科、多层次的技术文化现象。从本质上看,这一过程正是拟人论在现实层面上的拟人化实现,把人类属性转化为可编程、可交互、可感知的人工机制。

通用AI与专用AI相对,指的是AI不仅能执行特定任务,还能像人类一样在多种任务与各类情境中展现出高效、灵活的智能,因此主要聚焦于AI认知架构的拟人化。实现通用AI的关键在于模仿人类的多任务处理能力与跨领域迁移能力,“可通过迁移学习将已学习的伦理知识迁移到新场景、新问题上”。人类具备在同一时间段内处理多个任务的能力,能够做到对任务的随时切换、并行处理与优先级管理,这依赖于大脑对不同任务的资源分配。在AI系统中,实现多任务处理的核心同样在于计算资源的分配与管理,相关技术包括多线程技术、并行计算、分布式计算等。例如,自动驾驶系统往往能够通过中央调度器协调,做到导航、避障、语音交互模块并行运行。然而,真正逼近人类的多任务处理能力仍需突破意识建模、能耗优化等核心瓶颈,当前的硬件和计算架构还难以高效支持大规模、多任务并行处理,特别是在移动设备或低功耗环境下。此外,跨领域迁移能力指的是人类能够将一个领域中的知识和技能迁移到其他不熟悉的领域,并进行有效应用。这一能力的实现离不开抽象思维能力与强适应能力,人类需要提取不同领域的共性规律,发现表面无关事物的深层联系,从而在面对新问题时,能够从不同领域汲取灵感、借鉴经验,并根据环境变化进行调整和应对,最终创造性地解决问题。对于AI来说,要具备跨领域迁移能力,需通过多模态知识图谱构建跨领域关联的语义网络,由此帮助AI系统理解领域间的关系,提供跨领域推理的基础。目前,AI在迈向通用智能的进程中仍面临泛化能力不足的问题。现有的AI模型存在灾难性遗忘困境,会在学习新任务时忘记旧任务。因此,需要开发更有效的持续学习算法,使AI能够在不丢失原有知识的情况下适应新领域。

具身智能源于AI与机器人的深度融合,侧重于AI“身体”的拟人化。具身智能对人类身体的模仿包含三个层面,分别为对身体形态的模仿、对身体智能的模仿以及对身心协调的模仿。具身智能通常会部分或全部模仿人类的肢体结构、身体比例、关节自由度等,以便能够在复杂环境中保持平衡、协调运动。例如,波士顿动力的Atlas机器人身高1.5米,体重89公斤,关节自由度28个,接近人类体型;特斯拉Optimus机器人拥有仿生脊柱与髋关节设计,模仿人类直立行走的生物力学结构。仅仅对人类身体进行外在模仿是远远不够的,具身智能还需关注对人类身体智能的模仿。具身智能的“身体”不仅是由传感器、执行器构成的物理系统,还具有可区分性与可控制性,因此需要通过编码嵌入和人群学习路径模仿人类拥有的世界模型与躯体标记能力。此外,身体与意识的协调亦十分重要。人类通过身体的感知器官收集信息,并将这些信息反馈给大脑,然后通过神经系统调控身体各部分的动作。这一“感知—认知—行动”的闭环过程构成了高度协同的智能反馈系统,使得人类能够实时适应环境变化,并实现有目的的运动与控制。具身智能旨在模仿人类感知与运动之间的紧密耦合。通过集成各类传感器,AI系统能够实时捕捉环境及自身状态的变化,在此基础之上借助计算模型进行信息融合与决策生成,最后通过驱动器或执行器实现物理层面的运动输出。

机器情感已逐渐成为人机交互中的关键要素,其本质上是一种情感能力的拟人化,主流技术实现路径为情感计算。AI主要对人类的情感识别、情感表达、情感体验与情感控制能力进行模仿,从而在交互中营造出人机共情的幻象。AI能够通过检测人类面部动作单元,提取音调、语速、停顿等声学特征,识别文本情感极性与隐含情绪,采集心率变异性、皮肤电反应等生理指标的方式,模仿人类的情感识别能力。另外,目前AI模拟人类情感表达的技术正不断发展完善,例如,AI可通过情感语音合成技术来控制声音的音调、语速和节奏,以高频的音调和较快的语速来表达愉悦情绪,而以低频、缓慢的语速来表现悲伤或沮丧;还可通过触觉传感器提供情感反馈,借助震动、温度变化或力反馈来传递情感,轻轻的触碰可以表示安慰,紧握的手可能表示鼓励或支持。必须注意的是,AI无法真正具备人类的情感体验与情感控制能力。其原因在于,人类情感依赖神经递质(如多巴胺、血清素)、边缘系统(如杏仁核、海马体)和自主神经系统(如心跳、出汗)的协同作用,而AI无生物身体,缺乏生理机制,无法产生生理层面的化学反应。此外,情感体验是主观的内在感受,而AI所表现出的情感仅是算法输出的符号逻辑,其缺乏自我意识,不具备第一人称视角的体验,不能像人类一样进行深层次的情感反思和自我调节。

数字永生就是使人以数字形式永远存活于赛博空间,强调人格特征的数据化。值得注意的是,在上述三个领域中,AI对作为类别的人类认知、身体与情感进行模拟,而复生进路下的数字永生强调个体特殊性与差异性,致力于实现对逝者个体的细致模仿。AI对逝者的模仿存在两条关键途径:个体数字画像与个人经历图谱。个体数字画像是对逝者生前在数字空间中留下的静态数据与行为特征的归纳和重建。它试图通过外在表现、语言风格、情绪偏好、社交习惯等,模拟逝者的表象人格。而个人经历图谱则通过时间线、情境节点及人物关系来记录与模拟逝者的生活史和经验轨迹,意在模拟生命过程中的意义结构。两者结合构成了数字永生的双重基石:前者拟形,后者拟魂,如此才能使AI更适用于情感慰藉、纪念交互、历史叙述与深度对话等不同场景。

三、AI拟人论盛行的根源

拟人论在AI领域的盛行受到多种因素的共同推动,包括科幻作品、产品设计与媒体传播等。科幻作品通过拟人化的叙事结构、视觉形象与情节设置,常常赋予AI角色以类人外观、自我意识与反抗精神等人类特征,使观众更易“感同身受”。这种影响不仅停留在艺术表达层面,更深刻地渗透到社会认知结构中,持续塑造着大众对AI的拟人化想象与期待。在产品设计层面,拟人化有助于降低用户对技术的心理与操作门槛,使人们以最小的学习成本适应AI系统,从而提升其社交接受度,使其更合群、更合意。对于媒体而言,AI拟人论在信息过载的传播生态中具有明显优势,如门槛低、信息量大、情绪张力强等,能够迅速吸引注意力、延长用户停留时间、激发争议与讨论,因而已成为一种关键传播机制要素。

AI拟人论的盛行虽受到上述因素的影响,但根源在于人类的认知机制。在人类面对未知时,往往会在对它的多种解释之间做出选择。选择的标准主要有两条:意义标准与效率标准。

人类学家斯图尔特·加斯里(Stewart Guthrie)指出,人类在面对不确定性时,往往会优先寻找对自己最具意义与价值的解释模式。换言之,当感知模糊或信息不足时,人们倾向于寻找最有可能影响自己生存与行为选择的因素。在这一框架下,以人类为模型来解释世界之所以被广泛采用,正是因为它对人类自身而言具有最高的信息密度与行为预期价值。这种解释方式的本质,正如加斯里所言,是一种“下注(betting)”行为。此种行为源于先天遗传机制与后天学习路径。具体到AI情境中,当人类面对一个具有不确定性、模糊性或复杂行为的AI系统时,若将其押注为“类人存在”并据此与之互动,即使判断失误,其代价往往也相对较低。例如,我们可能只是对AI表达尊重、使用礼貌用语,或赋予其某种情感状态上的假设。这些错误判断虽然会浪费时间与资源,并引发一些伦理问题,但通常不会导致功能性损害或重大风险。更重要的是,如果判断正确,我们便可以立即调用关于自身行为、语言、情绪等方面的丰富经验,以便高效地与AI互动、做出应对决策甚至预警潜在风险。然而,若人类直接将AI视为普通工具或被动的技术客体,则可能在某些情况下付出极为高昂的代价,特别是在AI系统具有一定程度的自主决策能力或行为复杂性的情况下。因此,面对AI,人类倾向于采取一种“逆概率下注”策略——即使概率不高,也会优先将其视为类人存在以应对潜在风险。这种策略的核心逻辑在于,宁可高估AI的拟人性,也不低估其可能性,从而确保高可能回报与低实际代价。

效率标准是指人们在众多可能的解释中,通常倾向于选择获取门槛更低、调取更快、应用更直接的解释路径。这种策略既受限于个体的认知资源,也受到时间压力与环境不确定性的影响。效率标准意味着,在解释复杂现象时,人类往往遵循一种效率导向的认知策略。在AI这一高度专业化且发展迅速的技术领域中,这种效率偏好尤为明显。AI具有不可解释性,面临算法黑箱难题,即便是技术专家,也往往难以对复杂AI系统的全部行为做出因果清晰、语义明确的解释。正是在这样的语境中,人类在理解AI行为时,会本能地借助自身最熟悉、最易调用的解释模型——人类自身。正如尼古拉斯·埃普利(Nicholas Epley)等人认为的,拟人化现象产生的原因在于,AI与人类具有感知相似性,因此能够“诱发主体知识”。毕竟,人类的感官经验局限于自身内部,无法直接体验外在的AI,获取人类自身的知识比获取AI的相关知识更简单、更全面、更快速,有利于实现信息处理效率最大化。

必须指出的是,人类的认知机制受到情境的深刻影响。这意味着拟人论在本质上是动态的,随时间的推移而不断发展。在初始接触的几秒至几小时内,新奇效应占据主导,由于缺乏内在认知模型,人们往往依赖最易得、最熟悉的解释框架——人类自身的行为与心理模板,因此拟人化倾向迅速攀升至峰值;随后进入熟悉化阶段,历时数天,人们通过互动与观察逐步构建AI产品的行为模型,使可预测性增强,AI逐渐被工具化,拟人化倾向随之下降;最终进入稳定期,拟人化水平趋于平稳。因此,AI拟人论的盛行不仅源于人类固有的认知倾向,更源于这种倾向在与技术交互过程中的动态实现——它既是认知效率的初始选择,也是随情境经验持续优化的结果。从根本上看,拟人论之所以广泛流行,正是因为它提供了一种高效且灵活的理解路径,使人类能够在同AI的交互中不断调整人与非人之间的认知边界。

综上所述,AI拟人论的盛行根植于人类固有的认知机制。在这一深层认知动因的基础上,科幻叙事、产品设计与媒体传播共同发挥催化作用:它们不仅激活并放大了人类固有的拟人认知倾向,更通过系统性的符号建构与话语实践,将拟人化塑造为AI技术融入社会认知的主流路径。从产品设计到产品应用,从市场营销到媒体宣传,拟人论几乎贯穿了AI发展的每一个环节,已逐渐成为一种深植于技术实践与社会想象的AI文化现象。不可否认,将AI拟人化提升了人机交互体验,突破了AI应用边界。以AI拟人论为基础,AI系统不仅具备技术上的可操作性,更获得社会与心理层面的可交互性。这极大地缩短了人机之间的心理距离、认知距离与操作距离,使人机互动更加自然、流畅。此外,随着AI拟人论影响的不断深入,AI逐渐从“任务型工具”扩展为“情感型陪伴者”,从“专家工具”扩展为“大众伙伴”,进入心理支持与情感陪护等原本被认为只有人类才能胜任的领域。通过类人界面、自然语言交互、可视化反馈,拟人AI实现了日常化、平民化与普适化。

四、发挥AI拟人论的作用

不可否认的是,过度的AI拟人论也带来了一系列问题,常被讨论的有“恐惑谷”效应、AI对人类的取代等。除此之外,我们还应关注AI拟人论所带来的偏见固化风险和阻碍创新困境。在AI拟人化过程中,人类社会已有的性别、种族、阶级等偏见被投射、嵌入AI之中,并自动化地反复呈现,导致原有社会刻板印象在AI技术系统中被固化和再生产。詹妮弗·罗伯逊(Jennifer Robertson)认为,许多AI研究者“倾向于不加批判地再现并强化附着于女性和男性身体上的主流刻板印象”。例如,语音助手往往被设定为温柔、顺从、服务性强的女性声音与人格,将服从性与女性身份绑定,放大了性别刻板印象。此外,如果“拟人”被视为AI发展的黄金标准,便可能束缚技术创新的想象力,使研究资源过度集中于模仿人类智能,而非探索其他形态的、可能更具突破性的非拟人智能范式。更有学者认为,拟人论在根本上是一种谬误:当将人类特征赋予并不具备该特征的AI时,拟人论被视为一种事实性错误(factual error);当在证据不足的情况下认为AI具备某些人类特征时,拟人论被视为一种推理性错误(inferential error)。

但是,由于拟人论具有明显的跨学科性、跨文化性与跨年龄性,其早已深刻渗透于人类的认知结构之中。即使是在科学实践中,科学家们也“仍然在不同层次、以不同自觉程度、以不同隐喻程度持续产生大量拟人化表达”。因此,彻底消除AI拟人论不仅不现实,也不必要。在警惕过度的AI拟人论所引发的各类风险时,我们也应正视拟人论作为人类认知机制之一的普遍性,充分发挥其在AI产业发展、AI哲学审视与AI文化建构中的积极作用。关键之处在于,我们需坚持一种AI拟人论的有限主义进路,避免将AI过度拟人化,确保AI在拟人的基础上有益于人,真正服务于人类福祉。

AI产业发展中,应确保对AI拟人论的可控性治理。具体而言,应明确拟人化的边界,并有效抑制拟人偏见的生成与传播。一方面,AI技术专家需要避免在对技术突破与性能提升的追求中陷入AI全面拟人的误区。在AI设计中,应避免模拟人类自由意志、道德判断等核心人格属性,以防引发人机混淆与责任归属模糊的伦理困境。关键在于,应追求AI的最优拟人化而非全面拟人化。这要求拟人AI产品的设计必须结合心理学理论,平衡人类直觉期望与机器人实际功能。另一方面,AI拟人化主要通过大规模数据训练得以实现,在此过程中必须加强对数据资源的筛选与清洗,剔除其中可能包含的性别歧视、种族刻板印象与阶级偏见,以防止社会不平等结构在AI系统中被编码并加以再生产。AI拟人化设计不应默认复现人类的特定文化或权力结构,而应有意识地融入性别平等、种族多样与语言多元等价值维度,以确保AI在人机交互中展现出包容性与公正性。同时,应将公众纳入AI治理体系,赋予用户更多个性化控制权,从而推动AI技术发展向民主化与伦理普惠方向演进。总之,AI拟人论的可控性治理应被纳入一个以功能为导向、边界清晰且价值敏感的框架之中。唯有如此,才能在提升人机交互效率的同时,确保AI真正服务于人的尊严、安全与公共福祉,避免滑向技术精英主义与商业操控主义。

AI哲学审视中,应聚焦对AI拟人论的批判性审度。首先,应以跨学科方法为基础,对AI拟人论进行多视角审视。AI拟人论涉及计算机科学、认知科学、心理学、工程学、伦理学、法学、社会学等多个学科,单一学科视角不仅难以揭示隐性风险与认知盲点,也无法构建具有理论洞察力与现实回应力的哲学批判路径。在此基础之上,问题意识尤为关键。问题意识既不是简单地提出问题,也不是绝对地怀疑一切,更不是直接输出主观价值,而是一种批判性的认知姿态——它意味着发现那些被掩盖的问题,解构那些被预设的问题,并重构真正具有理论价值与现实意义的问题。唯有如此,我们才能在AI拟人化的热潮中保持认知主动权,避免陷入由技术神话、媒体叙事与产业逻辑所操控的话语框架。值得注意的是,对AI拟人论的批判最终需回归人类自身。拟人论实践不仅是对AI的形象建构,更是人类借助AI这一镜像对自我进行重新定义的过程。因此,需要厘清人之为人的本质,明确人类的不可替代性边界,防止人的机器化。总之,AI哲学需明确立场、设立底线:人的价值不应以工具性衡量,人的存在不可被算法模拟,人的尊严不能被技术侵蚀。

AI文化建构中,应防止对AI拟人论的非理性幻想。践行AI拟人论的有限主义路径需立足现实,认识到AI拟人论在现阶段面临的技术阻碍,抵制在文化传播、文化交流中的无限化想象,时刻警惕AI拟人论意识形态。现有AI文化中存在类似“AI觉醒”“AI进化”“AI反叛”“AI超人”等大量AI拟人论意识形态,它们具有想象性与主观性,缺乏客观性与实证性,受文学、艺术、宗教的影响较深,极易引发人类对AI发展现状的误解,从而加剧AI恐惧。例如,“AI觉醒”这一表述暗含人工智能将获得意识与自主性的含义,但这一设定在当前科学与工程逻辑下缺乏明确的实现路径和可证性基础。从认知结构角度看,已有研究指出,“大模型的工作原理与人的思维方式存在三项根本性差别——大模型没有遵守规则的能力、没有知识能力、没有强共识性(只有弱共识性)”。这些结构性差异表明,大模型尚不具备构成意识或自主性的基本条件,所谓“AI觉醒”更多是文化幻想而非技术现实。对此,AI文化传播应确保AI概念的准确性、语境的适当性。首先,有必要制定AI相关术语的使用规范,严格区分技术层面与哲学层面的语义边界,防止“模拟”与“具备”、“行为”与“本质”等术语的混用和误导。其次,应明确传播语境,区分“科学陈述”与“虚构情节”、“现实描述”与“科幻想象”,避免语境层面的模糊化。与此同时,还应通过多渠道、多层次的公众科普与教育干预,逐步提升全社会对AI的科学理解,从而推动公众对拟人化现象的批判性审视。此外,在文化交流过程中,应积极借鉴不同文化对AI拟人论的差异化理解。拟人化的象征意义、伦理感知与社会接受度始终深植于特定文化结构和价值体系之中。在西方文化中,AI拟人论常呈现出人机对立与主体威胁的叙事逻辑;而在日本文化中,AI拟人论则更多体现为物我和谐、人机共生的愿景型想象。因此,我们应超越西方中心主义的单一视角,努力构建一种更具包容性与差异敏感性的文化框架。这意味着,我们既不应对AI拟人论的发展抱有过度乐观的预期,也不应陷入全然悲观的否定立场,而应在技术可能性与文化风险之间把握好“度”,寻求一种平衡路径。唯有如此,方能形成一种审慎的拟人论策略,实现AI拟人论的有限、理性与多元建构。

 

进入 刘永谋 的专栏     进入专题: 人工智能   拟人论  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/171090.html
文章来源:本文转自《南通大学学报(社会科学版)》2025年第6期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统