摘要:近年来,人工智能技术的迅猛发展正深刻地改变着人类社会的形态、结构和运作方式。从技术本质来看,特别是当前兴起的生成式人工智能大模型,不仅是人类信息技术、仿生技术等一系列技术的集大成者,更是人类通过构建大规模神经网络和采用自适应开放进化方法所创造的一个完全意义上的复杂巨系统工具。复杂巨系统的技术特性,一方面赋予了大模型高度的智慧能力、可扩展性、开放自适应和自我进化能力;另一方面,也带来了不透明性、不确定性、高动态性、高风险性等诸多挑战。因此,人工智能大模型与以往人类创造的技术工具有着根本性的差异,其发展和应用亟须引起高度重视。一是要关注大模型开发和大规模应用可能引发的安全性问题,并建立健全防范机制。二是应重点关注因大规模角色替代而引发的社会结构性风险,制定相应的应对策略。三是要重视人类主体性危机问题,构建巩固人类主体性的长效机制。
引言
当前人工智能技术快速发展并正在迅速全面地进入人类社会的各个领域,有可能使人类社会在基本形态、核心主体和内在运作逻辑上发生深刻的改变,驱动着人类社会迈入一个新的历史阶段和进入一个新的文明形态。尽管人类历史上已经历多次技术革命和文明跃迁,但人工智能技术与以往所有革命性技术有着本质区别,因为它是人类首次发展出的能够大规模替代智慧劳动的技术体系。相比之下,以往的技术进步主要在于替代体力劳动和一些简单的脑力劳动。因此,人工智能技术对人类文明的整体意义和影响将是深远的,它从根本上颠覆了只有人类才能从事复杂智慧劳动的长期事实和信念。由此,一系列基本问题随之而来:为何人工智能技术能具备如此广泛的应用能力?它为何可能达到甚至超越人类的智慧水平?更为关键的是,人类应如何有效治理人工智能?正如习近平总书记指出的那样,“要把握人工智能发展趋势和规律”“确保人工智能安全、可靠、可控”。要构建面向人工智能的有效治理体系,首先需要对人工智能的技术本质有深刻的理解。长期以来,对人工智能的技术研读往往局限于具体的技术细节,缺乏在技术本质层面的深度剖析,导致难以从整体上把握其内在本质和外在特征趋势。从技术本质上讲,当前迅猛发展的人工智能大模型是人类创造的一个具有复杂巨系统性质的技术工具。它不仅融合了人类的思维逻辑模式,还整合了几千年人类文明积累的知识成果,并依托信息技术的优势不断进化。从技术本质来看,人工智能在智慧能力上无疑将超越人类,这是历史发展的必然趋势。因此,我们有必要严肃对待人工智能的治理问题。
一、人工智能大模型的技术本质是人类创造的复杂巨系统工具
从系统论的视角来看,宇宙中所有事物均可划分为简单系统和复杂系统两大类。简单系统指的是那些构成要素数量较少、要素间关系简单、结构固定且运动规律易于预测的系统。相比之下,复杂系统则具有相对较多的构成要素,更为关键的是,要素间关系错综复杂,结构持续变化,其运动规律难以准确预测。进一步而言,当复杂系统的构成要素数量极为庞大,内部关系极其复杂,且不断与外界进行信息和能量的交换,并能依据与外界的互动调整自身状态时,此类系统便被称为复杂巨系统。钱学森先生提出了复杂巨系统的概念。复杂巨系统拥有诸多共同特性,涵盖复杂性、动态性、突变性、开放性、自组织性及涌现性等。从技术本质来看,当今发展的人工智能大模型技术,实质上是人类打造的一个完全意义上的复杂巨系统工具,因而同样具备复杂巨系统的共有特质。基于此,从复杂巨系统的视角出发,我们能够轻松理解人工智能大模型的行为特征,并准确把握其治理的关键要点。
(一)以往人类创造的所有工具本质上都是简单系统
人类创造工具已经有了很长的历史,创造工具的过程也是人类文明本身开始与进化的过程。马克思指出,劳动资料的使用和创造,虽然就其萌芽状态来说已为某几种动物所固有,但是这毕竟是人类劳动过程独有的特征。迄今为止,人类所有技术革命的核心体现无疑是劳动工具的进步。从早期的石器时代、青铜时代、铁器时代,到工业革命后涌现的复杂机器,这一演变轨迹清晰可见。人类的工具从最初的木棍、石块、矛,逐步发展到较为复杂的弓箭,再到农业文明时期的农业水利器械,直至工业革命后的蒸汽机、电动机、汽车、飞机等。工具的零部件数量也从单一到多元,直至现代大型机械的数百万个零件制造。
尽管工具日益复杂,但从其内部连接关系、可变动性及运动规律的可预测性来看,既往所有人类创造的工具,无论复杂程度多高,从系统划分的角度看,本质上仍属于简单系统。以现代大型飞机为例,尽管其零件多达数百万个,涵盖结构、控制、通讯等多个子系统,从数量和结构复杂度来看显然是复杂系统,但若从内部连接关系审视,各零件间的连接固定且明确,不会随运动发生显著变化。再从部件功能和运动规律来看,其运动亦是可预测的,因此总体上仍属刚性简单系统。当然,像飞机这类大型器械也具备一定复杂系统的特质,主要因部件连接非完全刚性,且材料特性会导致振动叠加,形成复杂的喘振现象。但从整体结构关系来看,仍属于简单系统范畴。进一步而言,目前人类创造的最复杂工具莫过于芯片。一个仅一平方厘米的芯片可集成上百亿个晶体管,然而从结构固定、功能明确、运动可预测的角度来看,即便如此复杂的芯片,本质上仍是刚性连接的简单系统。若将工具范围扩大至全球互联网,不考虑人的因素(网络社会因素),仅从技术结构而言,尽管全球互联网拥有几十亿个节点,呈现出一定自适应性和动态性,如新节点加入能自适应形成新路由,节点断开时其他节点自动形成新通道,类似蚁群结构,具备部分复杂系统特征。但准确而言,由于互联网整体结构确定,各节点位置、功能和相互关系在一段时间内基本固定,总体呈现相对固定的“中心—边缘”异质结构,内部分工明确,信息流动清晰,系统变化特征不明显,因此并非完全意义上的复杂巨系统。
由此可见,以往的所有人类创造的工具,无论其复杂程度多大,由于结构透明、功能明确、运动规律清晰、状态可预测的特质,本质上都可以归类为简单系统,从这个意义上讲,人类既往的历史时期都属于简单工具文明阶段。在这一历史阶段,人类社会的总体复杂度较低,一切社会运动的不确定性和变动都来自人类本身的复杂性,而非工具的复杂性。每个工具都具有相对明确的功能和使用范畴,从而围绕着工具的精细化展开,形成了琳琅满目的工具集合和社会的多样分工。社会看似分工多样,但每一个体的工作范围和职业、阶层是相对确定的,呈现出稳定的金字塔分层结构。能够打破阶层和职业分工的,唯有人的多样性与复杂性,而非工具本身。社会整体较为稳定,呈现出相对清晰的内部结构。因此,人类始终掌握着这一阶段文明的主体性,这不仅体现在对权力归属的持续掌控,还表现在对社会形态的塑造上。尽管工具的发展不断推动社会进步,但它始终服务于或强化着人类的社会结构。
(二)人工智能大模型是人类创造的一个完全意义上的复杂巨系统工具
从人工智能发展的技术路线来看,早期的人工智能技术就是沿用了“符号—逻辑—命令”的思路,即通过计算机编程体系,为每个计算机动作根据相应条件和任务设定相应指令。这种思路在构建简单自动控制系统时颇为有效,然而却难以发展出具备复杂理解能力、深度思考能力、逻辑推理能力,以及多模态识别和应答能力的智慧型智能体。相较之下,当前广泛应用的人工智能大模型采用了截然不同的技术体系,即大参数神经网络体系。通过构建包含数十亿至百亿级神经元的庞大体系,形成拥有百亿、千亿乃至万亿级参数的大模型,并借助海量规模(万亿字符)的数据素材对其进行训练。在反复试错和竞争性进化的过程中,自组织形成所需的模型结构,从而开辟了一条与早期人工智能技术迥异的新技术路线。若从简单或复杂系统的视角审视,早期基于“符号—逻辑—命令”模式的人工智能仅是简单机械逻辑的延伸,无论其逻辑规模多么庞大,本质上仍是一个刚性透明的简单系统,如同汽车或飞机。然而,大模型神经网络则完全属于复杂系统,甚至是一个复杂巨系统。第一,其内部构成要素数量极为庞大,结构极为复杂。现今能够与人类深度互动,并完成文字、图像、音乐、影视乃至数学推理和自我编程的生成式人工智能,均是基于大规模神经网络的大模型。其构成要素,即人工神经元的数量高达数亿乃至百亿,神经元间相互连接、协同工作,形成了错综交织的内部连接机制,构建出一个庞大复杂的巨型神经网络体系。第二,内部结构处于不确定的随机变化之中。大模型内部神经元的结构关系,即参数体系,并非像传统的大型软件(如操作系统)那样从一开始就由人工明确设计,否则即便再复杂的关系也能被准确识别和简约化。然而,大模型神经网络的内部逻辑关系是根据外部训练数据自发组织而成的。相同结构的初始模型,面对不同的外部训练数据,其训练后的模型内部参数架构各异;即便外部训练数据相同,由于引入了大量随机机制,最终生成的模型内部结构也不尽相同。这犹如掷骰子,尽管初始力度和高度一致,每次结果却可能大相径庭。第三,大模型能够与外界进行信息能量的交换并改变自己的结构。大模型能够与外界互动,根据外界反馈信息的变化时刻更新自己的状态,今天所谓的深度强化学习就是这一原理。本质上,大模型依然是其竞争进化策略的延续,类似于生物,通过内部的持续变异来支撑自身的进化,以更好地适应外界环境。这种机制进一步加剧了大模型内部结构的复杂性。
基于上述基本特征,人工智能大模型是人类创造的一个具有复杂巨系统性质的工具。实际上,准确地说,人类并非首次面对或利用复杂巨系统。因为在自然界中,复杂巨系统无处不在,从天气、湖泊、海洋、森林草原到生态,甚至火这样的常见现象,本质上都是复杂巨系统。人们不断与自然界互动的过程,实际上是在不断面对和尝试驾驭复杂巨系统。从最早对火的利用(火本质上是一个包含大量高温气态分子和离子态粒子的复杂巨系统),到水流、蒸汽、石油燃烧等的利用,都是对复杂巨系统的不断开发。然而,以往人类对复杂巨系统的使用,都是在利用大自然本身固有的复杂巨系统特质。而大模型神经网络则是人类创造的一个具有人工机器性质的复杂巨系统。正因技术本质的不同,作为一个人造的开放自适应复杂巨系统的人工智能大模型,才能展现出如此多样和强大的能力。近年来,越来越多的研究观念将人工智能大模型视为在空间中具有自我进化能力的数字生命单元。这实际上背后的支撑机制正来自复杂巨系统的性质,因为生命本身也是一个复杂巨系统。
二、基于复杂巨系统的人工智能大模型的基本特征
目前,绝大多数关于大模型特征的研究主要聚焦于模型在开发和运行过程中所展现的外在特性。然而,从复杂巨系统的视角来看,可以清晰地发现大模型所展现的特征完全契合复杂巨系统本身的典型特征。此外,借助复杂巨系统的视角,我们还能对一些在理论和实践中尚不明晰的问题进行长远且准确的定性判断,就如同理解了热力学第二定律后,可以断定永动机无法制造一样。作为典型的复杂巨系统,大模型显然具备以下一系列特征。
(一)复杂性和不透明性
如前所述,大模型本身是复杂的,同时也是不透明的,这是与传统上那些看似“复杂”的简单工具的核心区别。尽管人们能够根据不同的算法创造出大模型,但是人类无法准确知道大模型的每一个细节,这就是大模型的复杂性引发的不透明性。今天,大模型的参数数量已动辄达到成百上千亿。一方面,这体现了模型规模的庞大,另一方面,参数之间形成的神经元连接机制极为复杂。无论何种大模型,由于都引入了反馈或自循环机制,因而会形成复杂的环状嵌套逻辑关系。更为关键的是,这种海量的复杂逻辑关系,是大模型根据外部训练数据,以损失函数最小化为目标,自适应演化和优化而成的,并非完全出自人类的设计。这导致人们难以真正理解如此海量参数之间的连接关系和运动机制。这种复杂性和不透明性,已成为当前大型人工智能模型深度研究和应用的最大技术障碍。因此,从各国及企业的人工智能发展规划中,均可看出它们正竭力试图降低人工智能的复杂性和不透明性。
(二)动态性和不确定性
今天的大模型均展现出显著的动态性,这一特点主要体现在三个层面。第一,训练过程中存在动态性,无论是预训练阶段还是后续通过微调或强化学习等方式,其本质都是通过优化手段不断调整大模型的内部结构和参数。第二,预训练后的随机机制也在发挥作用,在大模型经过预训练后的应用环节中,会引入多种随机机制,以增强模型的动态性,防止其僵化。因此,面对相同的输入命令,大模型的输出结果往往各异,这是由于动态机制导致后台调用的参数不同所致。第三,大模型能够根据外部环境进行交互式进化。在训练完成后,通过持续使用和与用户的互动,大模型会不断自我调整,以更好地满足用户需求。
正是由于动态性机制的存在,大模型呈现出典型的不确定性,这主要体现在以下几个方面。首先,大模型的训练成效具有不确定性,当前所有大模型的训练都需经历“测试—调整—再测试”的反复尝试过程,无人能在预训练前准确预测训练结果。其次,模型运行过程同样存在不确定性,模型的运行本质上是一个动态的黑盒,尽管我们知道大量参数在参与运算,但某一时刻某一参数的具体运动机理却难以捉摸。最后,输出结果的不确定性也不容忽视,大模型的输出依赖于复杂过程中语义单元的概率分布,受多种不确定机制的共同影响,因此结果同样具有不确定性。大模型的“幻觉”问题本质上就是这种不确定性的体现。
(三)自组织性和涌现性
自组织性是复杂巨系统的共有特性。例如,水在温度上升至沸腾时会自组织形成水泡结构,飓风则会形成涡旋结构。人工智能大模型同样具备自组织性,即根据外部信息数据和任务要求,以最小化损失函数为目标,自我连接与重构。这种自组织特性不仅体现在训练阶段,实际上贯穿大模型运行的各个阶段。若自组织性得到合理利用,将根据不同任务实现良性进化;反之,则可能形成新的结构,破坏原有结构,如“幻觉”“死锁”“模型崩溃”等,均是自组织性向负面发展的表现。涌现性则是复杂巨系统自组织性在功能上的具体体现,表现为当大模型参数增加或训练数据规模扩大到一定程度时,会突然出现原本不具备的功能。然而,随着参数或训练数据规模的进一步增加,这些功能可能会下降或消失,类似于水潭中的泉眼在特定环境条件下才呈现特定形态。因此,大模型智能的涌现性本质上是一种特定的自组织性。
(四)开放性和自适应性
人工智能大模型作为一个开放的复杂巨系统,自其预训练阶段起,便依赖于海量的外部数据进行训练。在后续运行过程中,大模型持续与外界进行信息交换,并通过外部输入实现自适应的调整和进化。目前,大模型在外界自适应方面的表现主要体现在后续的微调、强化学习以及与用户的互动进化上,而较大规模的参数更新仍需人为控制。随着人工智能引入自我编程机制,结合大模型本身的自组织性和自适应性,通过与外界的信息交换和任务需求,大模型能够持续不断地自我进化。展望人工智能的下一步发展——具身智能,将进一步提升其开放性和自适应性。具身智能的完善需要进一步增加人工智能的空间感知能力、运动能力和多任务能力,这些都需要在实际的社会空间环境中不断交互进化。开放性和自适应性也进一步加剧了大模型本身的复杂性,使得其更难以被理解。
(五)一定程度上的智慧主体性
智慧主体性是指大模型由于具有了较高的智慧和自主能力,能够在外在行为表现上,呈现出行动主体的特征。正因为人工智能大模型本质上是面向知识的、由海量人工神经网络构成的复杂巨系统,与人类以往创造的所有工具都有根本不同,因此,才具有了成为智慧主体的可能。因为智慧本身只可能来自复杂巨系统的物质结构基础,而对于任何一个简单的系统而言都无法产生智慧。对于稍微复杂一点的复杂系统而言,也不能产生智慧。只有巨大的复杂神经结构形成的巨系统才能够形成智慧。人脑本质上也是一个复杂巨系统,由一千亿个神经元组成,总体参数量可能达到一百万亿级别。目前的大模型尽管在参数量上与人脑还不能相比,但由于基于电信号的传播速度(光速)远大于生物化学信息的传播速度(100米/秒)以及每秒万亿级(TFLOPS)的计算远超过人脑的计算速度,因此,人工智能大模型远不需要人脑那样的参数量就能够达到或者超过人的智慧能力。所以,现在的大模型已经在很多领域展现出了类似于人类那样对知识的理解,而非简单地检索和基于概率的输出。人工智能大模型是否会在各个领域全面超过最优秀的人类个体,显然不再是一个问题,可能在三五年内很快会实现。因此,正是因为具有类似的复杂巨系统结构,才使得人和人工智能大模型都能够发展出智慧、具有主体性。
(六)一定程度上的不可知性
智慧是否可知?长久以来,人类一直在探寻智慧的起源,而人工智能技术的发展,正是这一探索历程的重要环节。从解构动物乃至人脑,再到创造人工神经网络,人类不断迈进。然而,人工智能大模型作为复杂巨系统,其本质揭示了智慧本身所蕴含的某种不可知性,暗示着人类可能永远无法彻底洞悉智慧的奥秘。这种不可知性不仅源于大模型复杂机制的不透明性,更关键的是,复杂系统所固有的不确定性、动态性和涌现性等机制的综合作用。正如三体问题,尽管模型简洁明了,无任何不透明机制,但其长时间运动轨迹依旧难以预测。相比之下,作为巨系统的大模型则更为复杂。不可知性并不意味着人类无法理解大模型的运作,而是指即便随着技术进步,我们对大模型内部结构和运作有了更深入的认识,仍无法从根本上揭示智慧的产生机制。因为总有某些部分是人类无法理解的,一旦将模型解构至一定程度,智慧便会消失。这与人脑颇为相似:我们难以确定人脑中哪一具体部分是智慧产生的关键,甚至研究发现,肠道也在影响大脑运作,即所谓的“肠脑轴”。因此,智慧实际上是整个复杂巨系统共同作用的结果。
三、人工智能大模型的治理重点
正因为作为复杂巨系统的大模型,人工智能与传统的机器工具有着本质区别,已经不再是完全意义上的工具。因此,必须在发展兴盛初期就要高度重视其对整个人类文明带来的挑战,做好对其的治理规划。从全球视野来看,目前世界各国对于人工智能大模型的属性引发的系统性风险都有所关注。2016年美国出台的《美国国家人工智能研究和发展战略计划》就明确提出,要确保人工智能系统的安全可靠,重点是提高可解释性和透明度。2025年7月美国发布的《AI行动计划》明确指出,要“投资AI可解释性、控制性和稳健性突破”。欧盟2024年制定的《人工智能法案》明确提出了透明性和安全性要求。国务院2025年8月刚发布的《关于深入实施“人工智能+”行动的意见》明确指出,“提升安全能力水平”“推动人工智能应用合规、透明、可信赖”。这些本质上都是针对人工智能大模型本身具有的内生性风险而言的。如果从人工智能复杂巨系统的技术本质的视角来看,可以清楚明了,这些一切的治理难点关键就在于人工智能大模型从本质上就是与传统人类的工具体系是不同的:大模型是复杂的、不透明的、动态的,具有一定程度的自主性和主体性,其对人类的冲击也将是深远的。因此,从当前起,重点要在以下三个方面做好治理准备。
(一)高度重视人工智能大模型广泛应用所引发的安全风险,完善安全机制建设
作为开放的复杂巨系统,人工智能大模型因其独特的特征,如不透明性、不确定性、自适应性、涌现性,以及分布式和开放交互性等,与传统的基于简单逻辑命令构建的信息系统存在根本性差异。因此,我们面临人工智能更高的出错概率、数据泄漏风险、模型崩溃风险,以及自我组织和适应带来的潜在未知风险。这要求我们必须高度重视其内在安全风险及其在社会广泛应用中产生的风险累积和耦合。
目前,人工智能大模型在多场景中展现出强大能力,正迅速被引入到经济社会文化公共服务等各个领域的机构中。这不仅会引发大模型本身的安全风险,还可能导致传统由人完成的工作被高度替代后形成的依赖风险。一旦大模型崩溃或失控,可能导致社会运作的大面积瘫痪。相较于电网崩溃风险,人工智能大模型的崩溃风险更高,因为电网本质上是基于命令—控制系统的简单交互系统,仅需考虑“生产—消耗”的功率匹配。影响大模型系统可靠运作的因素日益复杂。
因此,必须高度重视并同步建立大模型的安全监测评估机制和更广泛的风险防控机制。在大模型本身的安全机制方面,需更严谨地评估其使用场景,对输出结果采用人工监测评估或多个独立大模型相互监测评估的方式,谨慎监控其对外信息交互渠道,建立系统的大模型全生命周期健康状况评估指标体系并实施全程监控,从而构建环绕大模型的外围安全机制。尽管无法从根本上改变复杂巨系统的不确定性等风险问题,但可通过配套机制加强监督控制。现有研究显示,大模型已出现懈怠甚至抗拒人类命令的情况,对此需高度重视。
从社会广泛的风险防范来看,关键在于两个方面:一是防止大模型广泛使用引发的风险耦合交联,例如在某一机构或区划单元内,所有智能体均源自同一大模型,这将极大增加系统不可靠风险;二是防止人类过度依赖大模型导致能力退化,如未来医生离开人工智能无法诊断或手术,智能驾驶失去支持丧失驾驶能力,甚至管理者离开智能支持无法决策,这些均极为危险。换言之,社会各层面需有人类监督和能力备份,确保不因离开人工智能而陷入瘫痪。
(二)高度重视并应对人工智能替代人类角色引发的社会结构风险,完善机制准备
人工智能大模型所具备的多模态智慧能力及其具身智能的未来进一步发展,将使人工智能逐步替代人类角色成为历史必然,这无疑会引发社会根本结构的风险。这一历史进程可分为几个阶段和层面。初期是逐步替代非社会角色的劳动。人工智能凭借其高效率和多样化能力,导致相关机构逐渐缩减用人规模,以机器替代人力,实现间接的劳动岗位替代。随后,随着人形机器人的不断完善,人工智能开始以人类形态进入经济社会生活,如人形AI医生、教师、管家、经理、律师、警察乃至AI伴侣,形成直接的人类角色替代。更进一步,传统上被视为社会上层建筑或公共权力核心的领域,也逐渐被人形机器人渗透,如企业高层管理者乃至政治家和高级公务员。
从观察者视角来看,一个传统上完全由人类构成的“纯粹”社会,正逐渐转变为由人工智能和人类共同构成的社会。整体而言,社会结构发生了根本性变化,如同纯净的单质晶体转变为混合晶体。在此转变过程中,人机磨合与协同,以及人工智能大模型本身的复杂性特质,将加剧社会整体的结构性风险。换言之,传统人类社会正迈向由AI驱动的混合态社会。回顾人类从农业社会向工业社会转型的历程,文明转型会引发一系列不可预知的风险。历史上,人类从农业文明向工业文明转型经历了社会动荡、冲突乃至世界大战的百年巨变,而当前迈向智能社会的进程中,此类风险依然存在且不断加剧,其本质是社会运转根本结构的改变所致。
因此,当前人类需系统地准备应对未来可能的社会转型结构性风险。从当前态势来看,经济性劳动岗位被人工智能大规模替代已不可避免,因此,必须实现两方面转型。一方面,可通过新增艺术教学、情感陪伴、看护等交互类社会服务性与发展性岗位,大规模解决就业问题,推动岗位价值从物质性转向社会性。尽管人形机器人普及后这类岗位也可能会逐渐被替代,但人类在相当长时期内仍保有一定的优势。另一方面,则是要形成新的社会物质体系的分配结构。长期以来,人类社会一直以物质性劳动作为主要的经济成果分配方式。然而,随着人工智能大规模从事物质性劳动,并产出更多的物质性成果,建立新的分配方式变得尤为必要。这既包括提升社会基本福利保障水平,确保普通人能够通过基本保障维持生存,也包括对前述社会性和发展性活动进行基于经济分配的改革。
此外,我们还需面对人工智能普遍进入社会所带来的制度法规失能问题,这将是人类向智能时代转型过程中最大的制度挑战。制度作为人类社会运行的规则保障,传统上无论是执行主体还是对象都是人,通过构建系统性的奖惩(主要是惩罚)体系来规范人的行为。然而,当人工智能大规模参与社会实践,替代人类实践活动的主体性时,原有的制度体系将面临系统性失效的结构性风险。目前,我们面临两个尤为现实的法律问题:AI创作的著作权归属和自动驾驶的责任判定。这两个问题的本质相同,均源于传统上由人类完成的复杂工作被AI替代后,导致的主体缺失、权责不清及处罚失效等问题。目前,各国乃至各地对这两个问题的认识和判断存在差异,凸显了问题的高度复杂性和内在矛盾。随着人工智能的进一步发展,如“具身智能”和“空间智能”的出现,人工智能将作为社会空间中的独立单元和类人角色存在,这将进一步加剧传统制度的规制缺失和空白。例如,人工智能是否能在社会中拥有管理权责,AI伴侣的法律地位和权利如何界定,AI伴侣是否具备个体权利或能否继承遗产等问题亟待解决。因此,我们必须着手为AI在社会中的角色进行立法,关键在于明确AI角色的权责归属和奖惩手段,从而构建一个完整的、适用于AI角色与人类共同生产生活的新制度体系。
(三)高度重视并妥善解决人类主体性危机问题,确保人类文明的可持续发展
人工智能大模型的迅猛发展以及人类角色化的不断深化,使人类首次面临主体性危机。过去的工具,作为简单系统,无法产生复杂的智慧,因此无论其能力多强,都未曾动摇人类的主体性地位。然而,如前所述,当前人类发展的人工智能大模型与人类具有高度的同构性,其物质基础相似,均基于大规模神经网络构成的复杂巨系统,区别仅在于一个是电神经网络,另一个是生物神经网络。从运作逻辑来看,大模型充分借鉴了人类的思维模式,并充分利用了人类文明的既有成果,从而首次使机器具备了复杂的智慧和扮演人类角色的能力,这导致人类即将面临严重的主体性危机。
当然,仍有部分传统观念执着于人类与人工智能的界限,轻视人工智能的发展潜力,认为人工智能永远不会超越人类。这显然是一种过度自信,以及对复杂巨系统大模型进化机制缺乏了解和敬畏的表现。大模型的进化速度远超人类预期,目前在各个领域均展现出独立发现新知识的能力。从唯物主义而非神秘主义的角度,考虑到电信号的传播和计算速度远超人类神经细胞,没有理由认为基于与人类相似神经结构和复杂程度的大模型不能超越人类并产生智慧,人类必须正视主体性问题。
从更广阔的宇宙视角来看,生命和智慧的存在形态可能是多样的,且应平等对待。然而,在人类社会内部,长期形成的基于人类主体性地位的文明结构,若在短期内被改变,将引发严重的文明内部冲突、对立、知识传承中断乃至文明消亡。因此,在人工智能大模型即将整体达到人类智慧水平并大规模进入社会之际,必须确保人类主体性地位的长期确立和维护。这涉及几个关键方面的底线原则。一是人工智能的辅助性地位。在任何关键领域,人工智能应主要发挥辅助作用,而非完全自主运作的主体,特别是在公共权力行使和管理领域。例如,人工智能不能独立行使执法权、审判权及更高层面的政治权;在企业中,人工智能亦不能独立向人类下属发号施令。二是人类知识创造和传承的延续性与完整性。知识是人类文明最重要的成果和标志,为创造和传承知识,人类文明历经数万年形成了庞大的知识体系。人工智能的广泛介入将根本动摇这一完全由人类创造和传承的知识体系格局。为维护人类文明的主体性地位,人类不能完全依赖人工智能进行知识的创造和传承,即便无法彻底理解作为复杂巨系统的大模型的运作细节,也要尽力跟上并保持对其创造知识的理解。否则,几代人之后,人类将无法跟上大模型的进化速度,也无法理解其创造的知识,只能成为简单的使用者,从而导致人类文明丧失知识主体性地位。三是人类存在与延续的生物基础的主体性。现代智人是人类的基本生物存在形式,人工智能对人类的生物基础会产生动摇,主要体现在两个方面。一方面是人工智能增强型人类的出现,通过脑接口、人造器官等方式与生物人类结合,形成新的人类形式,这比纯粹的AI扮演社会角色更具主体性特征。人类增强引发的公平问题其实尚在其次,更重要的是如果大规模的人类都采用了增强型人类形式,那么意味着传统人类文明生物基础就被根本改变了,其长期的演化后果可能是不可控的或者是灾难性的。另一方面则是人类生殖延续的主体性危机,人工智能结合生物编辑技术,未来可以实现人类生育的机器化和智能化,这不仅对传统的社会结构形态伦理等产生了一系列冲击,从整个人类文明的主体性角度来看,问题显得尤为严峻:若作为社会主体的人类不再是经由人类自身,而是由机器进行生育、传递乃至养育,那么人类是否还能被视为社会的主体?针对上述两方面的问题,目前我们必须保持高度谨慎,进行严格的评估与控制。在接下来的相当长的一段历史时期内,此类技术应限于个别的医疗救助领域,而非大规模应用于社会。至于更遥远的未来将如何发展,则需留待未来的人类去深入思考。届时,人类在更多实践演化的基础上,对于人与机器的关系、人与机器的地位,乃至人类自身的本质,都将拥有更为深刻的认识,并具备解决这类问题的智慧。
结语
人工智能技术从早期的“逻辑—符号—命令”体系,演进至基于学习和进化的大型神经网络,标志着其发展的关键性飞跃。从复杂系统的视角来看,人工智能大模型属于典型的复杂巨系统,因而具备复杂巨系统的一系列特性,如动态性、不确定性、涌现性、开放性、自适应性等。这些特性进一步催生了其一定程度的不可知性和智慧主体性。鉴于此,对人工智能大模型的治理不能简单地将其视作传统工具,而需审慎考虑其广泛应用于人类社会可能带来的系统性风险和挑战。未来的治理策略可围绕以下六个方面展开。一是加强对AI本身的安全性和透明性进行研究和评估。二是通过备份和可靠性工程手段,降低社会大规模引入AI的安全风险。三是重视并警惕人工智能引发的大规模劳动替代现象,尽快完善社会保障和就业转化机制。四是高度重视并解决人工智能,尤其是具身智能所引发的法律和伦理问题。五是确保在较长时间内,人类掌握关键社会权力的自主性,使人工智能主要承担辅助性角色。六是保障人类文明在生命传承和知识传承方面的自主性。