殷杰:生成式人工智能的主体性问题

选择字号:   本文共阅读 889 次 更新时间:2024-11-14 23:12

进入专题: 生成式人工智能   交互主体性  

殷杰  

摘  要:生成式人工智能在与人类交互中,表现出与以往人工智能截然不同的自主交互能力,呈现出一定的主体性特征,形成了全新的人机交互形态,给已有的主体性概念带来了挑战。从主体交互的视角看,生物有机体的主体性由自组织驱动的个体与环境交互所定义,人类主体性由情绪、语言和文化驱动的个体与自然、社会文化环境交互所定义,生成式人工智能在与人类交互中呈现的主体性则是由语言生成驱动的交互能力所定义。由此,主体性可视为参与交互实体的潜在行动能力,由交互的驱动力因素所决定。这种交互主体性不再是传统的基于主体来推定主体性,也不需要所有交互实体都具有意向性,而是包含了交互实体的目标导向性和自主性,展现出一种新的人工主体性形式,为主体性概念赋予了新的内涵。

关键词:生成式人工智能 交互主体性 人机交互

作者殷杰,山西大学科学技术哲学研究中心教授(太原030006)。

以大语言模型(Large Language Models,简称LLMs)为重要基础的生成式人工智能(Generative Artificial Intelligence,简称GAI)突破了传统人工智能的技术路径,在内容创作领域带来人工智能生成内容(Artificial Intelligence Generated Content,简称AIGC)新发展的同时,也在人机交互(HumanMachine Interaction,简称HMI)的各领域展现了颠覆性的泛化能力和自主交互能力,形成了全新的人机关系,同时也引发了在人类文明发展相关重大问题上的激烈争论。比如,在技术领域,生成式人工智能是否指向了一种通用人工智能(Artificial General Intelligence,简称AGI),基于生成式人工智能的具身智能(Embodied Artificial Intelligence,简称EAI)是否可作为未来通用人工智能的主要机器形态;在伦理领域,生成式人工智能会对人类道德判断和决策产生怎样的影响,可能与之相关的致命性自主智能机器应受到哪些道德规范的约束;在认知和意识领域,生成式人工智能是否暗示了人类意识的一种产生机制,是否可能产生类人的意识,能否成为接近人类的认知主体;在文化价值领域,生成式人工智能深度介入人类社会后会对人类文化产生怎样的影响,如何与人类价值观对齐。与这些争论密切相关的一个重要哲学问题是:生成式人工智能对主体性(agency)概念产生了怎样的影响。

目前,生成式人工智能已表现出很多只有人类才有的潜在能力。比如,像人类一样识别他人意图和思考分析问题、用通俗的具体案例来解释复杂概念和理论、生成具有创造意义的文本、图像和视频等。这些能力表明,生成式人工智能在人机交互中已呈现一定的主体性特征。并且,生成式人工智能可以捕捉到语言背后存在的共享知识,在交互智能方面实现了非常广泛的自主性和泛化能力,表现出与以往人工智能不同的主体性特征,形成了全新的人机交互形态。同时,由于无法从预训练的海量数据中界定大语言模型的个体性边界,以及模型尚不具备直接对接现实世界的行动能力,传统主体性概念无法适用于生成式人工智能与人类之间的新交互形态,限制了我们对包括人工智能在内的不同实体所表现出的主体性特征的理解。由于人类语料包含了丰富的知识、多样的社会文化意义、创造新概念的修辞方法和人类适应环境变化的灵活策略,生成式人工智能通过神经网络学习获取人类语料中潜藏的大量知识与思维模式,像人类一样不断自我迭代进化,不仅能够适应不同的交流语境,而且可以挖掘生成新的意义和行动方案。这种交互呈现的新型主体性特征,是以人类语料作为基础驱动力、在交互状态下直接生成的自主行动能力,既不是源自生物本能的生存和自我维持,也不同于人类基于意向性的主体性,更不是传统人工智能所依赖的由人类设定的机械性功能,对已有的主体性概念带来了重大挑战。

对此,本文认为,生成式人工智能在与人类交互中呈现一种交互主体性,这种主体性是参与交互实体的一种潜在行动能力,包含了交互实体的目标导向性和自主性。传统的主体性概念基于从主体(agent)推定主体性的逻辑,聚焦“主体是什么”“主体如何发起行动”的问题,认为主体因其意向性的本质属性而具有主体性,主体性不是外部赋予而是内在的固有属性。交互主体性则聚焦“主体何以具有行动能力”“这种行动能力如何展开”的问题,认为主体性源自参与实体的交互过程,不再将实体本身是否具有某些使之成为主体的内在属性作为主体性的必要条件,不预设主体概念或者主体性不需要依附于主体概念,只需要实体具有自主的交互驱动力。交互主体性体现了一种新的人工主体性形式,同时可将生物主体性和人类主体性纳入统一范畴,为主体性概念提供新的理解方式,并且可作为研究分析通用人工智能发展路径以及人工智能对人类道德决策和文化影响等问题的新概念资源和方法路径。

一、主体性概念面临的新挑战

从概念起源看,主体性与人类的思考、行动能力和道德责任密切相关,是哲学史上最核心的概念之一。亚里士多德认为,主体是个体性的存在,主体性则体现在通过理性或非理性实现目标的行动过程中,与道德责任紧密相连。在人类原型意义上,关于主体性的理论和解释,往往指单个有机体按照自己的意图行事,即行动的意向性提供了行动的标准概念,而行动能力的行使或表现则提供了主体性的标准概念,然而在过去的几十年里,由于基于行动标准理论的意向性主体性路径无法容纳生物有机体和人工主体,这种关于主体或认知系统的概念变得不再适切。生成主义者提出的最小主体性不再强调主体需要意向性,从而将生物有机体纳入主体性范畴,但仍无法解决人工主体性问题。生成式人工智能的出现进一步加剧了主体性问题的复杂性和严峻性。主体性的核心不仅在于主体所表现的行动能力,还在于这种能力所蕴含的主体与外在环境实体及其他主体之间的交互关系。在某些方面可以说,生成式人工智能已产生类人的自主人机交互能力,这已明显不同于传统的人机交互。同时,人工智能本身没有人类的欲望以及生物性的自我维持特征,这又是与人类之间交互的差异所在。对此,深入分析生成式人工智能与人类交互过程中呈现的主体性特征,或许能够为人工主体性以及更一般的主体性概念提供一种新的理解方式。

在人工智能领域,随着技术的快速发展,人工智能每一次的重大突破几乎都会引发人们对于主体性概念的思考和争论。在人工智能发展早期,是否具有自主性、社交性、反应性和主动性特征,是判别能否作为主体的主要依据。这是一种主体的弱概念,展现的是人工智能向人类对标的自主完成行动的能力,同时又把知识、信念、意图和义务等心理特征作为主体的强概念。而在技术对象与人类交互的主动性方面,人们将智能系统的主体性分为被动、半主动、反应、主动、合作五个层次。随着人工智能的行动能力在某些方面开始高于人类,又形成了渐进式(gradualized)和分布式(distributed)主体性概念,这进一步表达了人类与人工智能在主体性方面的复杂关系。人工智能的发展使人类主体性和人工智能的主体性出现了一种双向聚焦重合的趋势。生成式人工智能则在个体性和自主性等多个方面进一步挑战了现有的主体性概念,这成为解决生成式人工智能诸多争论的一个前置性基础问题。

(一)个体性边界挑战

按照生成主义者巴兰迪兰(Xabier E. Barandiaran)等人提出的最小主体性观点,主体只需要满足个体性、互不对称性、规范性这三个基本条件。由此,非人类的有机体以及传统的机器人也可纳入主体性范畴。这里的个体性是指,要使一个系统与其环境之间必须有所区别才能成为一个主体,这并不是说系统必须完全脱离外部世界,而是说系统必须能够将自身与外部世界区分开来。传统人工智能机器的物理实体是其个体性边界,深度学习的各类神经网络模型也具有功能性个体边界,而大语言模型是否能够把自身和外部世界区分开来,还是一个非常有争议的问题。比如,模型预训练数据集是否定义了生成式人工智能的个体边界,生成式人工智能是否具有组织封闭性,等等。

生成式人工智能与人类日常交互,必须获取包括人类大量知识和对话资料的海量训练数据。那么,基于这种海量数据的“全知”人工智能的个体性边界在哪里?动物和人类所感知和学习的数据是有限的,这种有限的数据限定了动物和人类的个体性边界。虽然人类可以感知包括触觉和视觉在内的很多类型的数据,但生物性决定了人类智能只能处理有限注意力范围内的小部分数据。通过对通用基础大语言模型进行专业领域的训练和微调,可以获得擅长不同专业方向和风格特质的大语言模型,不过模型基础内核仍然需要通用的预训练数据集,在基础数据方面很难形成具有完全独立个体性边界的主体。这种用自然语言处理技术对大数据进行“硬”处理的方式,可能导致生成式人工智能个体性边界存在模糊性。

按照生物个体的发育模式,每个人类个体在发育过程中吸收的大部分也是共享的自然和文化环境数据。因此,上述论证似乎不能完全证明生成式人工智能个体边界的模糊性。实际上,人类个体的发育过程与大语言模型的数据训练过程存在很大差异。人类个体吸收的数据不仅是语言,还包括各种视觉、触觉、听觉等方面超量的感知数据,这些数据影响到个体认知,并且人类个体中形成了处理这些数据的“感知—行动”完整闭合回路。相比之下,生成式人工智能接受的只有各种数据,这些数据本质上并不是大语言模型作为个体主动感知的环境数据,而是被动接受的高阶数据,并且模型本身尚不具备从感知数据到行动的能力。更为重要的是,给一个具有通用能力的基础大语言模型灌入某个领域的大量专业数据,当这些专业数据过多时往往会导致模型通用能力的下降,如何在通用数据集和专业数据集之间进行配比以形成更好的效果,已成为大语言模型的重点研究方向。这背后的一个原因可能是,专业领域的数据“干扰”了原有通用基础大语言模型的“思维”,导致它无法同时兼顾两类具有明显特征差异的数据集。人类个体是一个普通人的同时也可以是擅长某个领域的专家,这些因素构成了这个人的个体性特征,但大语言模型目前还难以将通用性和专业性完美融合,也就无法从专业性的视角来确定其个体性边界。因此,难以分割的预训练数据模糊了大语言模型的个体性边界,对传统主体性概念构成了挑战。

(二)自主性挑战

自主性(Autonomous)通常被认为是主体性的一个条件,“在工程学和人工智能文献中,自主性往往被认为是人工主体性的必要条件,但却没有一致的定义”。人工智能一直在往与人类对标的更强自主性方向发展。比如,人们一开始对人工智能的理解是能够独立进行“感知—行动”的机器,重点是机器独立于人类完成特定行动的能力。而随着强化学习领域的深度神经网络开始具备特定的感知或决策功能,人们对人工智能主体性的理解,逐渐从没有人类介入下的自主行为,转向了机器本身的自主学习能力。但深度神经网络只是在主体形态和功能上的转变提升,人工智能的主体边界从机器实体的行动能力转变为神经网络的功能性,本质上是人类主体行动能力的技术性延伸,强化学习本身对主体性概念并没有形成新的挑战。而生成式人工智能类人的泛化能力和交互能力,显示出与强化学习等传统人工智能不同的自主性,这是生成式人工智能对主体性概念的另一个挑战。

自主性包含构成自主性和行为自主性两类。构成自主性主要与系统的新陈代谢有关,比如,生物系统具有自我生产或自创生(self-poetic)的特征。行为自主性要求自主系统的行为具有与环境稳定或灵活交互的能力。其中,系统的身份可以是自我构成的,也可以是由外部设计者强加的。这已不再将生物的自主性和大部分人工主体的自主性视为本质上的不同。

在系统自我维持的层面,依赖大规模数据集质量的大语言模型,需要不断获取人类产生的优质数据信息,以提升自身的知识水平和理解力。其中,主要有两个反馈机制:一是人工智能自动获取新的数据,二是通过与人类的交互来补充和修正相关数据。遗憾的是,大语言模型本身并不具备单独产生实质性高质量数据的能力,也无法产生维持自身自主性所需的数据。如果不断将模型产生的数据再次输入模型,数据分布尾部的低概率事件会逐渐消失,这种统计近似误差的恶化会导致模型的崩溃。也就是说,自返式迭代可能导致模型性能的退化以及对真实世界数据分布的误解。在与人类交互方面,如果有人恶意输入错误数据给模型,模型便可能会输出具有误导性的错误结果,从而使模型认知系统难以保持可靠性。于是,人工智能陷入了一种矛盾状态:如果关闭这种自反馈机制,其能力将随时间的推移而减弱;但如果完全放开,则可能导致人工智能认知功能的紊乱。因此,构成自主性不适用于生成式人工智能。

对于生成式人工智能的主体性,更大的挑战来自包含目标的行为自主性。无论是传统的实体机器人还是具有特定功能的深度学习神经网络模型,都具有人类赋予的明确目标。大语言模型虽然由人类设计,但不能将它与人类的交互视为一种目标。这是因为,传统人工智能的目标是通过内部的自适应系统实现对外在环境的响应。比如,强化学习通过奖励函数形成自身的目标导向。大语言模型与人类的交互本身并不是对外在环境变化的稳定响应,与人类在语言上的交互只是生成式人工智能的一种能力,就像人与人之间的交谈本身并不能视为一种目标,而是实现目标的一种手段。

无论是按照基于行动的意向性主体性还是生成主义的主体性,生成式人工智能都无法满足主体性所需要的个体性边界和自主性。回顾已有主体性理论框架下主体清单从人类原型向非人类的拓展:在生态学领域,具有与环境进行交互行动能力的有机体可视为一个主体;在社会学领域,由于像国家、公司等在社会结构中都具有行动的能力,“社会结构只存在于日常行为和行为主体之中,并通过日常行为和行为主体得以维持”,主体性概念由人类个体推广至组织和结构等社会层面;在传统人工智能领域,“人工智能被定义为研究从环境中接收感知并执行行动的主体”,具有目标和行动能力的传统智能机器也被认为具有主体性。

从上述过程可以看出,生成式人工智能在现有主体性理论框架内难以具备主体性,根本原因在于现有主体性理论往往从主体本身来推定主体性,其中包含两种立场:一是外在主义立场,主体实际上是适应外部环境的一个实体,主体性是主体适应外部环境的能力;二是内在主义立场,主体是一种伺服系统,主体性是目标与系统之间的可信关系。比如,机器就是能够对外界产生特定反应的反馈系统。基于外在主义立场,生成式人工智能无法区分自身和外部世界,不具备生物系统对环境的进化适应能力。基于内在主义立场,生成式人工智能能够与人类进行广泛交互,比传统人工智能更接近人类智能,但不具备传统人工智能明确目标指向的行动能力。因此,生成式人工智能从内在主义立场上挑战了传统人工智能的主体性概念,从外在主义立场上挑战了生物学视角的主体性概念。

事实上,主体性并不是完全由主体延伸出来的次级概念。人类不只是一个机械的或有机的主体,而是存在于人与人、人与世界交互形成的语境之中,体现了一种语境的主体性。麦克甘(M. McGann)基于生成方法(enactive approach)提出情境主体性(Situated Agency)概念,认为个体行为并非仅由内在的心理状态或生物机制决定,而是在特定情境中与环境交互的结果,这种交互是双向、动态的,并且具有规范性特征。虽然上述观点仍围绕人类主体来谈论主体性,没有解决生成式人工智能引发的主体性问题,但这些主体性观点将个体与环境之间的交互作为主体性的基础,挑战了将个体视为独立于外部世界、拥有自主意图和行为能力的实体的观点,进一步证明了从单一主体推定并不是定义主体性的唯一路径。生成式人工智能与人类的交互构成了不同于传统人机、人际交互的新交互形态,聚焦人机交互应成为研究生成式人工智能引发的主体性问题的新路径。

二、人机交互的新形态

人类主体性通过人与人的关系呈现,作为行动主体的人类既能够对自然环境作出行动反应,也能够对社会环境作出行动反应。从情境交互的视角,生成式人工智能与人类的交互是否会呈现类似人际交互的主体性?回答这个问题的关键在于,理解生成式人工智能与人类交互的本质,把握这种新的人机交互与传统人机交互以及人类之间交互的异同。

对此,要理解生成式人工智能大语言模型与人类交互的技术逻辑和主要模式。简单来说,大语言模型通过训练庞大的文本语料来学习自然语言的知识和语法规则,在这个过程中,模型首先将文本分割转化为模型能够处理的基本语义单位——词元(tokens),然后通过注意力机制形成一个能够捕捉分析文本语义信息的复杂神经网络。这个神经网络可以窥见人类自身都很难直接把握的深度语言结构以及背后可能存在的知识和推理能力,从而具备了理解和生成人类语言的能力。

由此,在与人类的对话中,生成式人工智能不再是基于特定模式的僵化响应,而是能够基于对人类语料库的理解来生成交互内容,自主完成与人类的交互。这个过程包含两种模式,第一种是对预训练好的模型进行微调后与人类交互,第二种是人类给已经训练微调好的模型提供新资料文本,然后在这个特定的上下文中进行人机对话。两种模式的区别在于:第一种模式中,预训练的主要目的是创造出能够理解和生成语言的通用模型,模型微调后可以接受输入文本来回答特定问题或完成特定任务。第二种模式中,模型处理新文本时会与用户进行实时交互,并根据人类的问题和反馈调整回答。这种模式的优势是,新的数据不会改变和影响原有通用基础模型的“大脑”,一定程度上确保了用户数据的隐私和安全性。同时,在处理新文本时,模型会根据具体的文本内容和人类需求进行适应性调整,以提供更准确与适切的回答。第二种模式面临的问题是,模型经过预训练获得的“先验知识”和输入文本的“后验知识”之间可能存在冲突,这与人类存在相似性。

与传统的人机交互比较,新的人机交互需要考察的问题是,大语言模型在交互过程中本质上是否也属于一种工具。如果只是提供普通的搜索知识和信息功能,那么大语言模型就和传统人工智能一样,只是一种辅助人类的工具。在大语言模型出现之前,以机器学习为主的人工智能就已经与纯粹的工具不同。比如,社交机器人可与老年人、学生和心理患者进行交流,作为支持认知和行为改变干预的工具。这里的逻辑是,当人工智能可以与人类进行一定程度的交互时,就不再是一种像斧头之类的简单工具,而是一种具有特定功能的社交工具。在与人类的交互中,人工智能开始从作为工具转向作为主体。大语言模型则超越了传统社交机器人的功能属性,能够在与人类进行交互的同时,向人类提供所不知道的知识观点,并能够与人类专家进行深度讨论。与传统人工智能相比,大语言模型不再是一个简单的搜索工具或者功能性的交互工具,而是在语言层面与人类的交互中出现了一种类似延展认知的延展性。大语言模型与人类交互时,人类的认知延展到了模型之中,同时模型的认知结果也反馈到人类的大脑之中,这种交互中的生成式人工智能更接近一种语言主体或认知主体,而不只是一种交互工具。

人类之间的交互更加复杂。人际交互本质上是一种合作,对话是人类合作的重要形式,也是当前生成式人工智能与人类交互的主要形式。从人际交互的信息传递和解码机制上看,“无论是言语交流还是非言语交流,都不应被视为从发送者到接收者一对一传递意义的过程。特别是建构主义假设或一般系统理论的学者认为,意义并不是固定的,编码进一个信号中,然后传输并解码,而是被接收者构建的,并且很大程度上取决于他/她对情境和背景的感知。接收者这种不断发展的主观解释需要被说话者监控,并与其意图表达的意义进行比较。因此,只有当适当考虑到个体解释发生的事实时,对话建模才能成功”。大语言模型通过创建超长的上下文对话窗口,处理超大文本并与人类进行多轮对话。在这个过程中,人工智能可以实时感知、监控和理解整个对话语境。人类与大语言模型对话交互,实际上是语言的生产过程,人类与人工智能轮流发言,双方根据实时的交互反馈不断调整自己的语言输出。人机双方不仅能够实现对话题、背景信息以及先前对话内容的共同理解,而且可以在一定程度上形成由人类牵引的人机共享的心理状态和知识。比如,人工智能可以判别人类语言中的知识水平,并据此调整人机双方的对话状态。除非人类提出语义模糊或不确定的信息时,大语言模型才会提供额外的解释或使用更简单的语言。因此可以说,大语言模型能够与人类在同一个上下文中建立一种稳定的对话模型。

那么,这种人机对话与人类之间的对话有何异同,或者说,人类为什么能够像与人类沟通那样与智能系统沟通?这就需要回到人类之间的对话沟通机制。关于人类对话的本质,目前学术界主要有两种观点。第一种是语境导向理论(context-directed theories),认为人类对话的本质是以特定方式改变语境。比如,斯塔尔纳克(R. Stalnaker)的断言理论主张,断言p是一种行为,其本质目的是将p添加到对话双方的共同基础之中。第二种是接受者导向理论(addressee-directed theories),认为人类交际行为的本质目的是以某种方式改变接收者的心理状态。比如,通过提供信息来改变对话者的信念、期望或意图。两种观点有诸多共同之处,主要的分歧在于:“主体是个体心理的私人状态还是上下文的公共状态”。当人类在交互前将特定文本上传至大语言模型,这个过程类似于将一个断言p给予模型,让模型在承认p的情况下来进行对话,这点符合语境导向理论;而人类与人工智能对话的目标终究是改变人类自身的信念或心理状态,这点也符合接受者导向理论。在人类对话中经常出现大量的回指代词,表明对话双方在上下文语境的理解上达成了一致,这是人类沟通成功的标志之一。在人机对话过程中,大语言模型通过识别人类主体的意图来回应人类对话者,这也是人机成功沟通的关键。从对话本质的理论看,人类可以提供人机对话的共同基础,而大语言模型本身也可以影响人类对话者的心理状态,人机对话和人类之间的对话具有相似性。

进一步,这种人机交互是否会像人类一样通过交互产生人类所需的意义。人类主体之间的“交互会影响参与者的理解”,是一种参与式意义建构(participatory sense-making)的过程。大语言模型对人类的回应不止于提供信息,而且能够按照人类的要求分析阐述某种新的观点以及通过通俗案例解释复杂概念理论,甚至就某个观点与人类进行辩论,这个过程对人类而言包含了丰富的意义。由于大语言模型拥有的知识量和推理能力,当一个人类个体在与模型交互时,实际上是在与人类的他者进行交互,模型每一次响应都是在人类他者的语料中寻找最佳的匹配答案,并始终把对话保持在同一个语境下。需要注意的是,模型展现的思维能力不同于意识。因为意识是主体自身对外在世界和自身内部的感知和体验,而思维能力是对问题的一种分析能力,所以大语言模型目前还是一个具有思维但不具有意识的智能实体。

生成式人工智能与人类交互本质的第二个问题,是在对话过程中对人类主体认知和意图的影响。人际交互包含了两个关键机制:联合共同构建和心理化。联合共同构建需要联合活动的逐步构建,而心理化则需要感知能力,从而理解并预测对话者的相关心理状态。人类基于某个对象和目标展开交互,最终在两个交互主体间形成联合意图,而人机交互的重点是机器理解并反馈人类意图的过程。在人机对话过程中,看似是训练好的模型帮助人类理解分析文档,实际上是模型与人类就同一个关注的内容进行交互,模型不仅可以较为精准地理解人类意图,而且模型自身的反馈也是人类在语言层面绝大部分认知能力的展现。大语言模型只能在人类认知的限度内,按照人类的认知模式给予回应。在人机对话过程中,模型与人类形成了一定程度的认知匹配。

与人际交互相比,生成式人工智能与人类交互的第三个问题,是这种人机交互的社会性。人际交互的关键在于,是基于有意识的行动还是纯粹的行为。比如,人类合作交互需要参与者能够进行有意识和目标的协作,结果就是人类之间的交互会产生一种具有社会性意义的联合行动(joint action)。

由于人工智能不具备人类的意向性,通常认为人工智能只有一种纯粹的行为,人机之间的交互只能是一种非社会性的交互,这个观点包含两种意见。一种意见基于理智主义(intellectualist)的意向性概念,主张有意的行为需要信念/欲望对(belief/desire pairs),只有行动归因于行动主体,才能将主体视为行动的肇始者。另一种意见基于生物学的意向性概念,要求联合行动的参与者都需要有内在的情感状态。但是,婴儿和非人类动物等具有一定社会认知能力的主体,也可以成为联合行动的积极参与者。尽管婴儿并不具备联合行动意识强烈的成熟条件,但他们往往被视为联合行动中的社会主体(social agent)。由此,具有一定认知能力的实体可以与人类实现交互,而不需要理智主义所要求的意向性状态,更不能以生物的意向性问题将人工智能武断地排除在社会交互之外。人与人工智能交互可以形成一种联合行动,只不过在这种联合行动中参与者之间的能力分配是不对称的。因此,“即使我们知道人工智能体不是生命体,但与人工智能体的交互仍可被视为社会交互。当人工系统被证明具有社会认知能力时,这将构成一个新的社会交互类别,它仍然与我们在人类或其他生物中观察到的社会交互相当相似”。上述观点是在传统人工智能基础上得出的,生成式人工智能则进一步支持了这个结论,并可能改变人机“非对称联合行动”的含义。比如,生成式人工智能在行动能力方面还存在一定不足,但交互能力比传统人工智能更强大,在知识理解和运用方面多处于优势的一方。

生成式人工智能具有不同于生物主体和传统机器的一个状态,即人工智能具有与人类交互的社会性特征,或者说是一种具备一定社会认知能力的人工主体,同时又与人类以情绪系统为基础的社会认知能力有所不同。由此,以情绪系统为基础但个体认知能力有限的人类与拥有超级智能但缺乏情感体验的生成式人工智能交织在一起,形成了一种不同于人际交互的新的社会交互类型。

三、交互主体性的内涵

在智能系统领域,“慎思型主体和反应型主体是智能主体谱系的两端”,显然这两者分别以人类主体和动物主体为原型。生成式人工智能不具备生物和人类的意向性,按照已有的主体性概念,大语言模型这类生成式人工智能并不是一个主体,而基于主体推定主体性的逻辑,大语言模型也就不具备主体性。塞尔(J. Searle)甚至认为,如果我们能够说明,计算机不可能成为自己的意向性来源,这种主体性范围就不会再继续扩大。但是,一方面,随着技术的发展,“人类与机器的不对称关系正在变得对称。机器正在成为交互的主体。人类正在与机器交互,机器正在与机器交互,人类正在通过机器与人类交互”。生成式人工智能创造了新的人机交互形态,开始重塑原来的人际交互和人机交互关系。另一方面,主体性不完全对应于主体,主体性本质上是一种潜在的行动能力。比如对人类而言,“主体性的潜力是一种潜在的能量,是人类条件中某种休眠的潜力,只有当社会条件发展到一定程度,这种潜能才会显现出来”。一个主体可能呈现多种主体性,每一个主体性也可能锚定一定的主体类型,主体性可以具有生物的、感觉运动的、社会的和语言的等不同表现形式。“传统的受人类中心主义影响的主体性概念越来越显得不足。这要求我们重新思考主体性,以适当地反映和调节当前和未来人工智能系统的能力以及人类在人工智能渗透的世界中角色的变化。”大语言模型在与人类的交互中可以分解、重组和拓展人类意图,激发潜在的行动能力,进而呈现一定的主体性。反观生物的、感觉运动的、社会的主体形式,也都是主体在与环境或者其他主体交互过程中呈现出相应的主体性。我们可以从交互的视角来重新理解主体性的内涵。

(一)生成式人工智能与人类交互的主体性呈现

如果把大语言模型视为一个社交情感机器人,它当然具有与人类相似的主体性。在一些专业领域,比如医生和患者之间的对话,这显然是两个主体的对话,患者根据医生给出的建议行动。如果我们将医生替换为一个可以像医生一样给予患者医疗诊断和治疗的医学专家大语言模型,在这个交互情境中,大语言模型显然是具备主体性的。因此,言语行为在一些情境中可以被视为一种行动能力,呈现的也是言语主体的主体性。如果通过对话类型来确定主体性,那么就可以说,生成式人工智能在与人类的交互中呈现了一种主体性。对于生成式人工智能主体性面临的个体性边界和自主性挑战以及目标导向等问题,可以从人机交互的视角予以新的解释。

第一,大语言模型在人机交互过程中呈现个体性特征。大语言模型在预训练数据层面无法切割为明确的个体,但在大语言模型与人类沟通的同一个上下文窗口中,模型对人类意图进行识别并围绕这个意图进行数据抽取和计算,并在整个交互过程中随时跟踪人类意图,人机对话过程趋于一种收敛状态,就像人类之间的对话过程总是紧紧围绕某个主题展开一样。大语言模型还可以依据人类对话要求进行角色扮演,当接收到让它作为某个领域专家或其他角色的指令后,模型可以按照角色要求和风格与人类进行对话,这也与人类在不同的情境下以不同身份或态度风格进行对话是相似的。在人机交互的上下文窗口中,模型自身根据上下文来确定数据抽取、分析和计算边界,呈现人类可感知的个体性边界,即便这种个体性是一种暂时的表象存在。

第二,生成式人工智能的自主性不是完全脱离人类的自主性,而是在人机交互中呈现具有人类规范性特征的自主性。大语言模型具备自主吸纳和分析新数据的能力,而不需要人类的介入,从这个意义上看,模型表现出了一定的自主性特征。正如前文所指出,生成式人工智能的自主性挑战在于缺乏目标导向的自主性。在人类与机器交互中,机器展现出能够以目标导向的方式行动、反应,并预测他人行为的能力。这种能力是人类与人工主体之间交互的结果,是一种共同构建意义的社会主体性。人类可能会根据非人类实体的行为、反应和存在方式来赋予它们意义,而非人类实体也可能通过设计来传达特定的社会信号。比如,自动驾驶智能系统具有识别交通标识意义和预测人类驾驶员行为的目标导向。大语言模型接收了人类语言构成的知识,也就同时接收了人类潜在的目标导向。比如,通过直接偏好优化(Direct Preference Optimization)等微调方法实现与人类偏好对齐时,模型便在一定程度上具备了符合人类目标导向行为的“思维”。这意味着,大语言模型具有在认知上与人类对齐的能力,由此引发的行动结果也具有人类目标导向的意义。在规范性方面,“人工主体性的概念需要同样依赖于人类的规范、价值观和目标背景;否则,它就无法捕捉到人工系统设计和运作的社会方面”。大语言模型在预训练阶段就开始掌握人类的规范、价值观和目标背景,当模型在预测下一个词元时,其结果首先是符合人类的语法、语义规则,而由这些词元生成的回应内容也表征了人类现实世界的规范和价值观。

第三,生成式人工智能具有一定的创造力。从创造性角度来理解和测度主体性,使得人类与人工智能的距离变得更近。当一个系统(无论是人类还是人工智能系统)被认为具有更高的主体性时,往往也被认为具有更高的创造力。在科学领域,人工智能已经可以为人类提供新的见解。比如,机器学习可以帮助科学家发现新的蛋白质分子;在给定物理学的基本概念和定律基础上,人工智能可以从过去30年太阳系中行星和卫星的真实观测数据中重新发现牛顿万有引力定律。像头脑风暴这样的对话交互是激发人类创造性的有效形式,生成式人工智能与人类的交互也会产生很多有创造力的想法,这也是支持生成式人工智能具有主体性特征的一个有力证据。

第四,生成式人工智能可以在人机合作交互中引导人类识别和重建主体行动的因果关系。人类主体之间交互的一个主要目的是,学习和识别世界中的各种因果关系,并依据这些因果关系来实施行动。对因果关系的识别与应用也是智能的核心能力之一。虽然大语言模型还无法完全正确识别因果关系,但它所挖掘的语言文本中包含了不同类型层次的因果关系。通过人类的提问引导,模型能够发现新的因果关系,从而介入人类因果认识的展开过程,帮助和引导人类识别和重建因果关系,进而影响人类的意图行动。生成式人工智能不再像特定任务的机器学习或传统人工智能一样只是人类意图的执行者,而是真正介入影响人类主体行动的因果关系当中,成为行动主体因果关系网络中的一个人工实体。在这方面,人机交互的紧密性甚至有时还要大于人际交互。

(二)交互主体性的特征与优势

控制论的创始人维纳(Norbert Wiener)曾说,“如果我们使用机械主体来实现我们的目的,一旦启动,我们就不能有效地干预其操作,因为它的动作太快且不可撤销,以至于我们在动作完成之前不会再有数据介入,那么我们最好非常确定输入机器的目的是我们真正渴望的”。这包含了四层含义:一是机器是自主行动的,二是机器承载的是人类的意图目的,三是机器行动期间不受控制,四是机器行动期间不再与人类进行交互。维纳的观点代表了早期科学家对机器主体性的理解。智能系统的行动产生于由人类、机器、程序等共同组成的复杂结构之中,具有一定的环境敏感性、合作性甚至主动性,在某种程度上可视为主体。

在生成式人工智能与人类交互中我们所能看到的只是人工智能实体在交互过程中呈现的主体性,一个主体的自主性和特定目标的行动能力被视为主体性的呈现结果。生成式人工智能之所以能够在人机交互过程中呈现出主体性,核心原因在于“我们对语言符号含义的把握并非源于我们处理自然语言的能力,而是源于我们通过采样和与之交互而积累的对生活世界的更基本的理解”。人类在交互的过程中产生了大量有意义的数据,“由于这些内容是人类交流的产物,因此生成式人工智能继承了人类表达的有意义的交互结构”,它所获得的语言及背后隐藏的知识本身就是人类主体与环境交互过程中的数据采样以及人类主体之间交互的结果。

从目标导向性和交互性看,目标导向是主体性的最低要求之一,但是这种目标导向不是个体完全独立的目标导向,而是与交互形式相关联。比如,人类主体的行动并不都以维持自我生存为导向,而是有复杂多样的目标导向。人际交互总是由一定的目标导向所牵引,不同的交互场景体现了不同的目标导向。强化学习一般只有一个依据外部环境的最大化奖励函数的目标导向,而生成式人工智能与人类交互中的目标导向要比强化学习的单一目标导向更加复杂,这是生成式人工智能与人类在目标导向上相似的地方。再从主体自主性和交互性看,个体自主性是个体根据自己的意图、目标和规范来行动的能力,而交互自主性是指社会互动中由参与者之间的动态关系所形成的自主性。经过预训练和微调后的大语言模型脱离了人类设计者而具有了自主性,这种自主性不是自我维持的自主性,而是表现为对交互对象——人类的意图识别和回应能力的交互自主性。因此,生成式人工智能和人类的交互过程中包含了参与实体的目标导向性和自主性,不需要所有参与实体都具有意向性。也就是说,不同的交互形式和交互驱动力体现了交互主体不同的目标导向和自主性。

从主体性的交互来源看,没有生物主体性,人类也不会演化出语言交互能力。而生成式人工智能在没有生物主体性的情况下,通过语料训练直接形成交互能力。模型通过放大人类大脑的语言泛化能力,在语言理解和生成能力驱动下呈现人机交互的主体性。沿着人机交互的路径,生成式人工智能提供了理解主体性的另外一种不同轨迹,即从交互驱动的视角来重新理解主体性。

从个体与环境、其他个体交互的驱动因素看,传统意义上的主体性是通过个体与环境和其他个体的交互、行动和进化过程中逐渐形成的。有机体的行动能力是个体与环境的耦合,人类的主体性最开始也是一种生物主体性,只有人类主体之间具备了意义层面的交互之后,才形成了人类原型意义的主体性,这种主体性包含了由情感驱动的行动能力以及由语言和文化驱动的行动能力。如果说生物有机体通过与环境的交互来定义主体性,那么人类主体性就是由情绪、语言和文化共同驱动的个体间交互所定义,这是动物主体性基础上更高层次的主体性。生成式人工智能则是通过预训练和人类偏好对齐的微调等方式获得主体性。这种主体性是一种潜在的行动能力,当人工智能与人类主体进行交互时,这种行动能力才会显现出来。

综上所述,生物主体性表现在与环境交互耦合中形成的行动能力,人类主体性表现在与环境以及人类主体之间交互过程中形成的行动能力,传统机器主体性表现在特定目标功能下与环境交互形成的行动能力,生成式人工智能主体性表现在与人类主体交互基础上形成的潜在行动能力。生成式人工智能与人类交互呈现的主体性跳过了心理表征的主体性标准理论,也区别于生成主义的最小主体性观点,不仅创造了新的交互形态,还开启了从交互驱动力视角来进一步认识理解主体性概念的可能空间。

由此,我们可以从交互驱动力的视角来理解主体性:主体性是参与交互实体的一种潜在行动能力,这种行动能力在实体与环境或其他实体的交互中形成和呈现,由交互的驱动力因素所决定。相较已有的主体性概念和理论,交互主体性有以下三个优势。

第一,交互主体性强调了主体性的交互来源和呈现条件,不再局限于通过主体的内涵来界定主体性,包含了更加丰富的情境和历史交互信息。交互驱动力就像内嵌于实体中的“磁铁”,一旦实体进入交互的“磁场环境”,它就会促使实体与环境或其他个体进行交互。比如,生成主义基于交互历史探究有机体的感觉运动模式(sensorimotor schemes),表明生物性主体与环境耦合形成的是一种可供性(affordance)关系,即主体的行动能力与环境存在一种匹配关系,主体可以在没有表征的情况下获取环境的可供性。人类的行动能力来源于与环境耦合形成的可供性行动空间,这与动物有机体相匹配。同时,人类的行动能力又在心理表征的介入下实现了人际交互,自然和他者的融合成为人际交互的“环境”,决定了人类主体性的本质。在环境给主体提供可供性行动空间的同时,主体也形成了塑造环境的能力,主体和环境、其他实体的交互是塑造和呈现主体性的根本条件。

第二,交互主体性不需要所有参与的交互实体都具有意向性,体现了一种新的人工主体性形式,进一步拓展了主体性概念的意涵范畴。生成式人工智能呈现的交互主体性说明,没有意向性的人工实体也可能在交互过程中呈现主体性。这种新的人工主体性形式,可能表现为更高层次的主体性,比如在复杂决策和创造性任务中的表现;也可能是更广范围的主体性,比如处理和适应更广泛的环境和情境;还可能是介于动物和人类中间层面的主体性,比如基于知识语料的类人的认知系统。交互主体性不同于主体间性(Intersubjectivity),后者强调了人类自我意识与他人意识的相互构成关系,体现了具有社会性的人与他人“共在”的存在方式。交互主体性则将主体间性思想扩充到人工主体的范畴。虽然生成式人工智能不具有人类意识,但它所呈现的主体性可以使人类在交互中将人工智能更多视为一个具有自我意识的主体,体现了语言使用与意识的密切关系。由此,交互主体性从更为广泛的主体性内涵上进一步解释了自我意识的来源和作用方式。

第三,交互主体性弥补了原有主体性概念无法容纳人工实体的问题,构成了从生物、人类到人工智能相融贯的主体性生成驱动逻辑,带来了主体性研究的新范式。动物主体泛化出的交互能力由非语言的情感驱动,目标导向为生物个体的生存;人类主体泛化出的交互能力是语言和文化意义上的,目标导向为人类生物性和文化性的多样化需求;生成式人工智能泛化的交互能力来源于神经网络对语言的处理过程,目标导向为产生与人类偏好对齐的输出。也就是说,无论是强化学习的奖励函数,还是大语言模型与人类偏好对齐的微调方式,都是在塑造人工智能具有与外界环境互动的目标导向。由此,情绪驱动生物与环境交互所定义的主体性,情绪、语言和文化共同驱动人类与环境、人类自身交互所定义的主体性,语言生成能力驱动人机交互所定义的主体性,这些不同层面的主体性不仅都是主体在适应环境过程中的主体性,更是在交互驱动力视角下形成了统一的主体性研究范式。

四、交互主体性引发的新问题

人类之间的交互形成了丰富的意义世界,其中所具有的交互主体性带来了意义建构的新的可能性领域。生成式人工智能以一种新的方式渗透到人际交互之中,为人际交互增加了更加丰富的形式与驱动力。由此,基于交互驱动力的主体性反映了生成式人工智能引发的主体性概念变革,使我们可以从新的主体性内涵出发来分析与人工智能相关的问题,而不再囿于原有主体概念范畴的限制。比如,在没有明确具体形态和内在运行机制时,我们可以从交互主体性的角度分析通用人工智能的形态和发展路径等问题;人工智能对人类道德决策的影响研究经常受限于人类原型主体是否适用于人工智能的问题,从交互主体性的视角可以进一步分析生成式人工智能介入人类社会后可能引发的道德风险;生成式人工智能深度介入人类文化可能对人类文明产生重要影响,从交互主体性的视角可以更深入理解人工智能等人工实体如何通过与人类主体的交互来影响文化发展的驱动力与发展方向。

(一)通用人工智能的发展路径与交互主体性问题

生成式人工智能的出现似乎推翻了原有人工智能技术关于智能的定义,并进一步引发了人们对通用人工智能问题的思考。生成式人工智能可能预示了通用人工智能具有类似人类的智能,也可能证明了完全相反的情况,即要实现类似人类的智能可能会更加困难。因为生成式人工智能在海量数据和强大算力的支持下才获得了交互能力,如果要获得人类一样的智能,代价可能会超出人类所能承载的知识和算力极限。这是生成式人工智能能否发展为通用人工智能所面临的一个挑战。

一些支持世界模型(World Models)路径的学者强烈质疑生成式人工智能路径,认为它缺乏人类智能中的关键要素:“关于外部世界的丰富的内在模型”。从交互主体性的视角看,通用人工智能发展路径的生成式人工智能和世界模型之争,涉及的一个关键问题是通用人工智能与人类交互的驱动力问题。可以肯定的是,通用人工智能应该具有甚至超越生成式人工智能的交互能力。目前,这种能力的获得有两种有效方式:一种是生物遗传和文化发展意义上人类与环境交互的个体发育,另一种是生成式人工智能这样直接基于大量与人类交互获得的数据,对大语言模型预训练和微调对齐的方法。世界模型从对标人类智能的内在主义视角来建构智能主体,基于主体推定主体性的逻辑,似乎存在一个逻辑悖论,即世界模型可能需要通过某种具有交互主体性特征的数据或方法来获得一种与人类交互的行动能力。

通用人工智能面临的另一个挑战是智能机器的主体形态问题。目前,以大语言模型为“大脑”的具身智能机器人,是通用人工智能的重要发展方向。这种通用人工智能面临着机器人的“对应问题”(correspondence problem),即基于大语言模型的具身机器人必然会形成异于人类在感知和行动方面的可供性能力。如果具身机器人作为一种执行人类命令意图的工具,大语言模型仅作为理解人类意图的接口,这种工具主体性意义上的应用是没有问题的。如果作为通用人工智能,那么这种具身机器人需要具备类似人类的主体性,能够与人类在语言、感知和行动上实现同步协调的对应交互。由于机器人自身的行动能力与语言系统不匹配,将导致它在语言层面与人类主体具有相同的意义系统,在行动层面又不同于人类主体——这种具身机器人可能会因与环境的可供性差异而无法同人类正常交互,从而不再具有与人类交互的主体性。这个问题的严重性在于,这种具身机器人会偏离现有动物、人类和已有人工智能的主体性,出现我们无法理解和预知的思维和行动能力的主体,进而对人类世界造成不可预测的风险。从交互主体性的视角看,未来的通用人工智能需要符合人机交互的逻辑。能在语言和可供性行动能力两个方面同步实现与人类交互的主体性,应成为通用人工智能遵循的一个基本准则。

(二)人工智能与人类交互引发的道德风险

人工智能的伦理决策也与主体性密切相关。传统人工智能具有源于人类意图目标的行动能力,其道德主体地位实际上是行动意图选择的责任,我们在这个意义上谈论人工智能道德主体的决策问题是合适的。对于生成式人工智能而言,虽然它具备了与人类的交互能力,但不具备基于意图或欲望的行动能力,这是我们直接谈论生成式人工智能道德主体地位不合理的地方。交互主体性与更加重视个体独立性的西方原型主体性观点之间的差别,可以让我们更加全面理性地看待生成式人工智能对人类道德判断和道德决策的影响。虽然生成式人工智能不具有意向性、欲望和情感,但在学习人类知识并与人类偏好对齐后,它也会表现出自己的特定偏好。当通过与人类交互介入现实世界时,生成式人工智能必然会扰动人类道德的自然状态,引发新的伦理风险和困境。从交互主体性视角看,这主要表现在以下两个方面。

一是生成式人工智能与现实世界交互时引发的道德决策介入风险。大语言模型接收的文本资料包含了人类主体的行动计划、道德理由和思辨模式,获得了分析各种情境的道德判断能力,由此将引发人工智能介入道德决策的风险。比如,当智能驾驶系统逐步进入真实世界,会出现人类驾驶员与智能驾驶系统共存的局面。当智能驾驶系统在危险情况下需要紧急避让时,附近车辆的人类驾驶员可能因没有能力应对智能驾驶系统的快速反应,而导致智能驾驶系统的避险行为对附近人类带来附带伤害,其中的智能驾驶系统不仅主动介入了人类的道德决策过程,同时自身的存在也是引发风险的原因。与之类似,如果生成式人工智能在特定道德情境下预见了更长的道德推理链条,并提供了影响人类主体行动的道德建议或道德决策理由,则可能带来由生成式人工智能与人类交互引发的道德困境,这无疑会影响人类道德系统的判断和运行模式。于是,生成式人工智能面临着和智能驾驶系统同样的道德介入风险,而这种风险的根源就是与人类交互呈现的主体性所导致的。

二是生成式人工智能与生物或人类主体性的交互驱动力差异导致的风险。情绪是生物意向性的核心,意向性在很大程度上来源于情感和知觉系统,情绪系统也是包含人类在内的哺乳动物构成主体性的基础和必要条件。在动物与环境的交互中,情绪系统不仅通过调动动物体内资源应对外在环境变化,而且通过躯体标记和内部情绪价值分配维持身体的内部稳态,形成了动物主体目标和行为之间系统性的稳态平衡,塑造了动物的主体性。这里的关键是,动物的主体性以情绪系统而不是认知能力为基础。

因为目前的人工智能不具有情感系统,即便我们在大语言模型预训练以及与人类的交互中确保人工智能与人类的价值对齐,但并不能确保人工智能之间交互的结果也一定有利于人类。大语言模型之间的交互合作可能会破坏亲社会竞争(Prosocial Competition),或者对与之无关的其他人类成员产生负面影响,这在人类的“囚徒困境”等现象中已获得证实。在现实世界的一些经济实验中,已观察到了相对简单的人工智能系统之间存在勾结的现象。事实上,人工智能之间交互所缺乏的是人类社会交互中个体自主性和交互自主性之间存在的原始紧张(Primordial Tension)关系。也就是说,在社会交互中,个体需要在追求个人目标的同时,考虑到超出对方预期行为对交互过程的影响,以维持交互的流畅性和协同性。人工智能之间交互时没有类似的机制,可能导致交互的失败甚至失控。

人机交互可以保证交互过程中人类的参与主导地位。如果没有人类的参与,大语言模型之间交互产生的结果将是不可控的。因此,人工智能非情绪驱动所呈现的主体性以及人类和人工智能之间认知和行动能力的不对称性,将成为生成式人工智能对人类社会的潜在风险。

(三)人工智能对人类文化的影响

文化发展是在人类主体交互基础上,由一系列可用特征的变异、复制传播和适应的成功选择三个过程共同作用的结果。这三个过程中的任何一个发生重大转变,文化就会发生改变。人类文化发展的关键机制是人类主体在交互中不仅向他人学习,而且“通过他人学习”,即人类在文化实践中通过文化工具来向他人学习。具有超级智能和语言交互能力的生成式人工智能,可以通过与人类交互成为人类社会文化发展中的重要参与者,将对人类文化产生重要影响。

如今,人工智能已成为一种新的文化工具,有关模型正在创造新的人类与非人类交互回路,并对人类工作和学习产生新的影响。但是,无论是传统的人工智能还是生成式人工智能,在没有交互的环境下都无法形成有效的文化发展动力。而生成式人工智能除了具有上述问题之外,它对人类数据的学习消耗速度远超人类产生新数据的速度。这可能导致人类至今产生的所有高质量数据在很短时间内被耗尽,使模型失去迭代发展的动力。因此,在没有足够人类提供数据以及和人类主体交互的情况下,人工智能无法持续促进人类的文化发展。

通过生物迭代,人类形成了多主体的交互学习模式,个体则具有了非累积性的学习能力,文化在这种人类特有的交互模式中得以发展。按照文化进化理论,每个个体都是独一无二的,文化个体的多样性以及人类主体交互的多样性提供了足够的生物适应性和文化适应性,是文化进化的主要动力。一方面,人机交互呈现的主体性会形成新的文化意义,增加人类文化的适应性,而大语言模型是基于大量人类经验数据的,当人类过度依赖模型时,可能减少文化主体的多样性,存在降低人类文化适应性的风险。另一方面,生物主体性是在适应环境的过程中主体探索与利用平衡的结果,而在文化重大转变的过程中,更加智能的主体的产生往往以牺牲低层单元的智能复杂性为代价。在这个意义上,生成式人工智能因具有交互主体性,可能会破坏文化个体的探索与利用平衡机制,放大理性认知固有的局限性,降低人类文化创新发展的情感动力,导致人类意义和价值产生、传播方式和文化发展方向的偏移。

当前的生成式人工智能面临不可解释性和不透明性困境,似乎形成了一个类似人类大脑的新的黑箱,其技术水平与潜在危险性出现同步增加的趋势。生成式人工智能遵循“逆向系统发育”,这与生物体的系统发育轨迹存在根本性不同。生成式人工智能与具有认知和情感的人类主体进行交互,而认知和情感又与人类文化发展的过程交织在一起。所以,我们需要探索与人类文化发展相适应的人工智能发展路线。在研究生成式人工智能与人类的微观交互时,更要关注二者在宏观交互层面的影响:人工智能可能会操控人类文化的发展方向,反过来也会影响人工智能自身的发展。人工智能的发展需要受到人类文化的制约,这应作为未来把握人类主体发展主动权的基本原则。

结语

从行动能力转向行动能力的交互驱动力因素,是生成式人工智能对主体性研究范式的重要启示,我们需要从这一新的视角来看待人工智能的未来发展以及对人类文明的影响。目前,生成式人工智能已在一定程度上掌握了“人类语言这一有史以来最强大的社会交互工具”,而人类已从与动物主体以及精神主体的持续接触中,逐渐理解并学会与人工主体互动。人是社会性的存在,只有在人际间行动的人类才能被视为真正意义上的人,主体性应成为人性(humanity)概念的基础。生成式人工智能与人类交互呈现的主体性体现了人类长期的知识积淀与发展历史,也为我们提供了重新审视人类自身的机会。

人类主体性作为生物主体性演进的历史顶端,并不是人工智能主体性发展的极限与终点,而是另一个新的起点。生成式人工智能已展现出一种新型主体性,这种主体性在交互中可能表现为更敏锐的感知能力、更强大的推理能力和更适切的行动能力。尽管人类对人工智能的担忧往往源于它们可能具有的非人性的主体性特征,但交互主体性说明,人工智能具有的类人性和非人性的主体性特征,都是在与人类主体的广泛交互中才可能形成和显现,这是我们对人工智能发展保持乐观的原因。真正需要警惕的是,人工智能全面渗透人类社会的情况下,人类文明可能从基于生物学的代际传承模式,转向基于人工智能的连续的无限累积模式——在此过程中,人性的特质可能发生变异,进而可能危及人类生存的价值观和主体性特征。所以,基于交互主体性的人工智能对人类的威胁,最终还是来源于人类自身。因此,我们不仅要确保人工智能与人类的价值观和伦理标准相对齐,更要对人工智能于人性的潜在影响保持警觉。

    进入专题: 生成式人工智能   交互主体性  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/156589.html
文章来源:本文转自《中国社会科学》2024年第8期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统