肖 峰,上海大学智能时代的马克思主义研究中心暨智能哲学与文化研究院教授;郭海静,上海大学马克思主义学院博士研究生。
本文系国家社会科学基金重大项目“生成式人工智能的价值观对齐研究”(项目号:25&ZD025)的阶段性成果。
摘要:在哲学与社会学语境中,异化指主体所创造的活动产物脱离掌控,反过来成为支配、压迫自身的异己力量。当前,人与人工智能的关系已呈现双重异化:生活中,“机器治人”构成智能系统对日常经验的隐性殖民;生产中,“机器换人”导致人被系统性边缘化。借助主奴辩证法框架可见,智能系统正塑造新型支配关系,人类在获得表面掌控感的同时,实际沦为人工智能的附庸。这一异化的生成机制层层递进:资本逐利驱动智能技术服务于资本积累,科技巨头资源垄断形成的智能权力充当结构中介,人的情感与认知被抽取为数据资本,而这一过程又被智能崇拜掩盖并合法化。为应对挑战,须构建理念、主体、制度与技术协同的治理体系,确保智能技术发展始终服务于人类的安全、尊严与繁荣,走向人机良性共生。
关键词:人工智能;智能机器;人机关系;智能权力;主体性
在人工智能(AI)出现之前,机器能力的提升始终围绕“工具属性”展开:从早期简单工具到工业时代的规模化应用,机器对人来说“延长了他的自然的肢体”,完全服从人类指令,以被动响应的客体形态存在。然而,生成式人工智能的出现引发了根本性变化:智能体开始成为能够理解、生成并与人进行意义交互的对象,改变了机器的客体定位。其突破性意义在于实现了人类脑力的延伸,具备了一定“智能”属性,已能影响人类认知判断与决策选择。未来,具身智能将进一步赋予机器更强自主能力,无须完全依附人类便可自主推演行动策略。这一演进直接挑战了传统人类中心主义,迫使我们重新审视人机主体性边界。
在此背景下,人机关系成为跨学科研究的核心议题。哲学聚焦主体性本质与边界,技术科学侧重人机交互机制优化,社会学关注社会结构重塑,伦理学探索道德规范构建。众多学者从各自学科视角深入阐发,虽路径各异、侧重不同,但均指向人工智能自主性与人类主体性的动态互动关系。与此同时,全球人工智能竞争已超越技术本身,演变为各国对智能时代主导权的综合性战略争夺,全力抢占人工智能发展的先机。面对日新月异的人工智能技术发展态势,准确把握人机关系本质,厘清两者的权责边界,并在此基础上提出兼具前瞻性与可行性的应对方略,已成为关乎未来可持续发展的重要命题。
一、人机关系异化的双重表现
人工智能的发展首先是生产力跃升的核心驱动力,作为一种通用目的技术,人工智能正深刻重塑人类认识世界与改造世界的基本方式。从医疗诊断的精准辅助到教育资源的个性化适配,从工程设计的智能优化到国防安全的态势感知,各个领域都有人工智能的身影。在这一意义上,人工智能并非外在于人的异己力量,而是人的本质力量的新形态。它延伸了人类的脑力,拓展了实践的疆域,将人从机械性、重复性、危险性的劳作中解放出来,为个体自我实现与社会整体发展开辟了前所未有的可能。然而,生产力的跃升对人来说并非单向度的解放,人工智能对人类的“替代”和对人的“驱逐”始终与“赋能”相伴而生。当机器在认知与行动两个层面同时具备“胜任”能力时,人的存在意义与价值坐标便面临质疑。人从曾经占据的中心位置被“挤”向边缘,甚至在某些领域被完全驱逐,这正是马克思笔下工人沦为“机器的附属品”的具象呈现。
(一)机器治人:智能生活世界殖民化
人工智能一方面为人类带来了前所未有的便利,极大地拓展了人类的认知边界,也更丰富了人的自我实现路径。但另一方面,智能系统通过将自身的运行逻辑设置为感知、判断、交往和行动的规制,预先塑造了经验得以形成的认识论与价值论基础。人类在享用其提供的认知与行动捷径时,无意识地将自我决策的前提外包给了算法系统,人类持续适配机器逻辑的最终结果便是在“行为反馈”意义下的“机器治人”。
1. 认知外包与思维废止
以大语言模型(LLMs)为代表的智能工具正以前所未有的深度介入人类认知过程。研究表明,大语言模型提供即时答案的便利性正在重塑人们获取知识的方式,这种重塑可能以人类认知能力的退化为代价。
当前,以大规模预训练模型为代表的人工智能系统呈现出显著的知识主导特征。它具备快速处理信息、理解情境的能力,支持跨学科知识关联与网络化分析,甚至具备逻辑推理能力,能够自动生成报告。尽管有“知其然不知其所以然”的局限,但在数据整合、标准化内容生成等特定任务上,大模型的效率仍远超人类。这一差异背后反映的是二者认知发展的本质区别:人类的认知发展是一个主动建构的过程,依赖于学习者通过信息检索、分析比较、逻辑推理与反思整合等一系列认知活动,将外部信息转化为内在知识结构。过程虽然耗时费力,却正是培养批判性思维、提升问题解决能力与形成长期记忆的关键。相比之下,机器学习则依赖于海量数据的输入与算法模式的迭代优化,其能力提升源于参数调整与模式识别。
人机交互门槛较低,人类可以用自然语言指挥机器做事,更多不是用手做事,而是发号施令。在生活与工作中,人们逐渐习惯于将AI作为首要求助对象。当大模型能够持续提供及时且精准的答案时,学习的性质随之发生根本转变。认知心理学研究指出,过度的认知负荷会干扰内部图式的获得,最终降低学习和解决问题的效率。当外部工具过度承担认知任务时,个体神经耦合变弱,前额叶执行控制网络、颞叶语义编码区激活不足,引起认知投入的表层化。外源信息依赖导致语义编码浅化,出现认知卸载相关的元认知惰性,复述与准确引用自身文本的能力显著下降。机器从帮助思考变为替代思考,完全简化了个体思考与主动学习知识的流程。人类的思维水平就反向地被人工智能拉低,形成人向机器对齐的后果。这与马克思所说工人成为“活机器”的耗材而被“贬低为机器的附属品”相一致。在这种影响下,人类的批判性思维、模糊性容忍度、复杂问题决策等核心能力衰退。
2.全方位监控
数字监控是通过全域泛化与数据化重构,完成对主体的初步隐性控制。它借助固定物联网节点、移动传感设备与生物可穿戴装置的立体化协同,将城市基础设施、流动空间与人类身体转化为持续生成数据的感知载体,构建起“空间—物理—人类—环境”四维数据矩阵。借由对用户数据的系统性过度采集、算法对个体画像的隐秘建构,以及物联网、身联网技术对日常生活的透明化凝视,个体陷入全时空的闭环监控中。尽管如此,数字监控仍停留在数据化基础构建层面,脱离身体的单纯计算使其渗透力、解读深度与控制效力均存在边界。如莫里斯·梅洛-庞蒂(Maurice Merleau-Ponty)所言,知觉是“以一种与我整个人密不可分的方式进行感知”,是一个涵盖生理躯体、身心合一的整体性存在的复合。纯粹的数字监控未能完全触及这种具身化的知觉层次。
智能监控将数据化升级为智能化解读与自主干预,指向行为预测与塑造。依托大模型与认知计算技术,不仅能识别“疲惫”等状态,更能精准分析成因并生成干预方案。脑机接口、植入式传感等技术可获取潜意识神经信号,将数据深度延伸至认知—潜意识层面。具身智能的崛起更推动监控从虚拟数据层面下沉至物理实践层面,其搭载的多模态传感器可采集肢体发力强度等物理交互数据,结合语气起伏、情绪波动等信息,通过直接物理交互实现对多维数据的深度融合解读。例如,在辅助作业时,机械臂既可感知操作者的肌肉紧张度,又可同步分析其操作节奏与语气特征,从而综合判断其疲劳程度与情绪状态,提升数据解读的精度与深度,使监控触角深入个体物理交互与心理情感的细微层面。
3. 机器介导人际关系
通过对历史数据的建模归纳与模仿,人工智能可以促成人际顺畅沟通与情感联结。如在人工智能中介沟通(AI-MC)系统中,智能代理通过修改、增强或生成消息以实现沟通目标。AI辅助人际交往的常见形式有智能客服、智能回复等,每天有数十亿条智能回复用于人际沟通。与传统数字技术不同,AI-MC是主动动态的参与者,在提升效率的同时可能改变人类沟通规范与动态,影响在线自我展示、归因及信任关系,且因训练数据源自人类历史互动,不可避免地内化既有社会偏见与权力结构,可能压制边缘化沟通方式。
更进一步,人工智能还可以充当“类主体”,作为“交往对象”提供社交价值。社交机器人等可交互AI凭借其拟人化、个性化、非威胁性与去身份化等特征,能够有效满足用户的归属需求,触发情感共鸣,进而建立起看似真诚的情感联结。通过赋予社交机器人幽默、温暖、同理心等人类特质,缓解用户的情感疏离,降低用户的心理防御,提高用户将其视为“他者”的可能性,使人机关系从“主—客”二分模式转向具有“主体间性”意涵的交往范式。这些特性的应用不止于功利性地为消费者提供情绪价值,通常能在用户不会主动咨询的情况下,便捷地提供信息,还能通过主动互动和利用商务式对话加深消费者与品牌之间的联结。但是也要看到,其构建的“社交关系”是不对称的数据交换。用户的信任与自我披露被实时转化为行为数据与心理画像,将私密人际互动场域转变为持续“喂养”和优化人工智能模型的训练数据流,服务于商业目标的精准预测与行为引导。长期依赖这类“他者”,可能削弱个体在真实人际关系中处理复杂情感的能力,甚至可能替代真实人际联结,使人陷入表面亲密却实质工具化的关系中。
(二)机器换人:人被边缘化
人工智能在生产中承接高强度重复劳动、优化流程效率等优势,在社会生产中提升了效能并促进产业升级。然而在技术赋能生产的过程中,“机器换人”看似是简单的岗位替代,实则是“机器是人”的现实投射。当机器逐步承接原本由人类承担的生产、服务乃至部分决策职责时,它在实践层面已经具备类人属性,成为社会经济运行中具有类主体特征的存在。这意味着人在经济链条上的角色发生了转变,人的社会角色与价值坐标也面临重新定位。机器的拟人化发展在潜移默化中改变了我们对“人”本身的定义。
1.人工智能的生产优势
人工智能是虚实结合的技术体系,包括实体化机器、虚体化软件及集成化系统。其生产优势并非简单效率叠加,而是对人类生理局限、认知边界与场景适配性的突破性弥补。
第一,突破生理局限后的稳定优势。人类劳动天然受生理节律、精力状态与情绪波动影响,正如马克思指出,工作日的延长受“劳动力的身体界限”和“道德界限”制约。而人工智能完全打破人类局限,能够以恒定标准执行全流程操作。无论是精密加工还是质量检测,其可维持远超人类的微观操作精度,不受连续作业时长影响。第二,知识与经验的规模化优势。人类专业能力依赖个体经验积累,存在传承断裂、应用局限等问题,而人工智能可将分散的专业知识与海量案例转化为可复用的系统能力。同时,人工智能还能整合跨领域、跨地域的专业经验与实践数据,突破个体认知的边界限制,并且无须经历个人工作逐步熟练的漫长周期,就能快速适配各类专业生产场景。第三,极端场景的适应性拓展优势。人类受限于生理耐受度与环境适应力,在高危、恶劣或条件极端的生产场景中难以高效作业,而人工智能可通过定制化技术优化适配各类极端环境。无论是高压、高温、强辐射等危害人体健康的场景,还是太空、深海等人类难以抵达的区域,都能稳定执行生产任务,可在资源约束极端的情况下保持核心功能运转。第四,动态生产的精准调控优势。生产系统的动态波动往往超出人类的实时调控能力,而人工智能可通过多源数据实时感知与基于算法的快速决策,实现生产过程的精准适配与优化。同时,能够同步处理生产全流程的复杂变量,快速响应订单调整、环境变化等动态需求,缩短流程切换与调试周期,适配柔性生产模式。
2.技术性失业浪潮
技术变革的特征表现为替代与创造的二元张力,但是这种张力对低技能群体表现为单方面压制。马克思指出:“劳动资料一作为机器出现,就立刻成了工人本身的竞争者。”机器作为劳动资料出现之时就不是作为减轻劳动强度的存在,而是排他性存在。技术替代优先瞄准“三可特征”岗位,即可拆解、可量化和风险可控,这恰好是低技能就业的主要阵地。以萝卜快跑为代表,在武汉、上海试推行无人驾驶网约车,根据高盛的报告预测,无人驾驶网约车总规模将从2025年的4100辆增长到2030年的50万辆,并在2035年达到190万辆。这种替代并非局部现象,港口、矿区的封闭场景驾驶员已被无人设备批量替代,与驾驶相关的衍生岗位也随之进入消亡倒计时。工业机器人的普及进一步放大了这一效应。特斯拉工厂自动化率超90%,富士康“黑灯工厂”单条产线用工量从120人降至6人,制造业中低技能装配岗位消亡速度居首。服务业、金融业等行业则呈现两极分化趋势,标准化、流程化的子行业替代率高,依赖于情感、决策、创意的子行业替代率低。相关研究指出,无大学学历工人是主要受损群体,其职业路径被牢牢锁定在常规任务领域。他们既无法抵御机器替代的冲击,又因技能壁垒难以转向高技能岗位,锁定效应导致低技能工作者与高技能工作者收入进一步拉大,就业长期稳定性弱化。
新技术所创造的恢复效应往往伴随着一种虚假希望。正如马克思的机器理论所指出,自动化技术的资本主义应用,本质是通过“活劳动被对象化劳动所占有”实现自我增殖的新手段。这种支配在智能时代呈现出“脱实向虚”的新形态:在消灭大量实体性生产岗位的同时,新创造的人力需求高度集中于算法研发等高端白领岗位及技术+操作双要求的灰领岗位。同时,高技能人才培养周期长、要求高,成为稀缺要素,而智能技术对传统岗位的排挤必然加剧劳动力市场的竞争。马克思认为:“机器对工人的排挤越厉害,工人之间的竞争就越激烈,因此,其他部门的工人的工资也会降低。”所以,无论是短期阵痛还是长期趋势,其结果都指向产业后备军扩大与就业总量紧缩,新任务创造速度始终滞后于机器替代速度,技术变革的社会成本被不成比例地转嫁给了低技能劳动者。
3.体能替代到情智替代
体能替代到情智替代的飞跃,关键在于智能技术能否突破被动数据拟合桎梏,具备对真实世界的主动理解、动态适配、泛化与可迁移能力,也就指向了实现通用人工智能(AGI)的目标。实现通用人工智能的核心路径之一便是发展具身智能,真正的通用人工智能需通过控制物理实体、与模拟及物理环境交互来实现。当前,搭载大型语言模型与多模态模型(VLMs)的具身认知系统已经初步建构起感知—决策—行动的执行链路。但仍受限于静态、被动的知识灌输模式,在长时记忆、复杂意图理解、任务拆解及物理规律获取等方面仍存在局限。因此,能够内化世界运行规律、支持内部模拟与推理的世界模型(World Model)被视为发展具身智能的关键步骤。
世界模型并非具体算法,而是让智能体通过自监督学习,来将环境动态与因果规律等内化为自己的认知框架,能对行动结果进行预测和推演,而不仅是对当下刺激作出反应。以日常场景为例,它不仅能识别“玻璃杯”的物体属性,更能掌握其“易碎”的物理特性及“置于桌边易被碰落摔碎”的因果关系,从而主动选择更稳妥的放置方式。这种对物理规律与因果链条的深层理解,正是智能体获得“常识”与“自主判断力”的关键。杨立昆(Yann LeCun)倡导的联合嵌入预测架构(JEPA)便是这一思想的工程化体现。李飞飞(Fei-Fei Li)团队的研究则进一步指出,真正的物理理解必须根植于三维空间和交互体验中,而非二维图像或文本符号的关联。目前已经推出的Genie 3(DeepMind,2025.8)和 Marble(李飞飞团队,2025.11)等模型已经从技术层面证实了此路径的可行性。
由此可见,世界模型的成熟或将成为智能技术从体能替代到高阶情智替代的转折点,推动智能体从预设执行走向自主理解与适应。一旦实现这一突破,机器的替代范围将不再局限于程序化工作,而是深入渗透至依赖直觉、经验、情境判断与隐性知识的复杂情智领域。从医疗诊断、艺术创作到战略管理、情感陪伴,人类智能的最后壁垒可能被瓦解。这一变革并非单纯的效率提升,而是对人类角色的根本重塑:当机器能够“理解”意图、“适应”不确定性与“作出”价值权衡时,人类作为不可替代的认知与决策主体的地位将面临存在性危机。如工业革命末期马匹被彻底逐出生产领域一样,人类劳动也面临着在越来越多的环节沦为冗余要素的风险。
二、人机关系异化的理论透视
人机关系的异化,如果从现象性存在进入生存性本质,就是将认识从表象的描述推进到理论的透视,这种理论透视可以有多种角度,而黑格尔的主奴辩证法不失为一个重要的角度,在一定意义上可以说人机关系异化是主奴辩证法的智能副本。
“机器治人”与“机器换人”看似分属不同维度,实则存在共同结构性根源。黑格尔主奴辩证法尽管浸染着意识辩证运动的逻辑神秘主义色彩,但其围绕“承认”的欲望、“劳动”的中介作用以及关系内在的辩证反转,可以形成理解人机关系的有力视角。具体而言,“机器治人”对应主奴关系中“主人”因脱离劳动,尤其是认知、决策、情感等非物质劳动而陷入对“奴隶”(AI系统)的依赖性享受;“机器换人”则对应着“奴隶”通过承担物质与非物质劳动获得功能性自主,而原本作为“主人”的劳动者,却因被替代而逐渐失去通过劳动确证自身价值的可能。因此,主奴辩证法并非简单的理论嫁接,而是真实地揭示了两类异化现象共存的权力反转逻辑:无论是在生活领域还是生产领域,形式上的控制者最终沦为实质上的依赖者。
在初始阶段,人与AI的关系呈现为技术赋权与工具性确立,即主人对无意识奴隶的单向支配。黑格尔主奴辩证法的起点是主人通过“不畏死”的斗争意志确立自身独立性,并以绝对优势迫使对方臣服。而在人机关系中,这一为得到“承认”而进行斗争的生死环节被置换。正是人类生命的有限性与对危险的感知,构成了其诉诸技术以超越自身、扩展能力的原始动力。作为此动力的外化体现,AI通过人类的编程、算法架构与“数据喂养”,被单方面地赋予了存在的意义与边界。人类将自身意志,诸如提升效率、拓展能力、满足欲望等强加于AI,定义其为“奴隶”式的工具性存在。这一工具性定位,从“机器人”(Robot)的词源演变中可得到印证。人工智能和机器人在定义上是相通的,机器人定义的现状在很大程度上也有助于解决人工智能的定义问题。“机器人”(Robot)一词源自斯拉夫语族的“Robota”(依附性苦工、强制性徭役劳动),暗合AI的“无意识奴隶”属性:服从是设计上的必然,其“劳动”是人类智能的精确延伸与规模化复制。人类享受着主人般的支配地位,无须亲历复杂计算或重复劳作,仅通过指令便能通过AI的中介作用改造世界。此阶段契合主奴关系的静态结构:主人以自我意识为中心,奴隶作为无生命的物化中介。
然而,静态结构很快因“劳动”引发辩证运动,进入隐性反转导致主人悲剧的第二阶段。这是主奴辩证法最具解释力的环节,奴隶通过改造自然的“劳动”,在对象中直观自身的力量,自我意识开始觉醒;主人则因脱离劳动而丧失与世界的直接联系,反而陷入对奴隶及其产物的依赖。其中,物是这一关系不可或缺的中介,对主人来说是一种欲望的满足,是不经过努力得到的享受,就是快乐。正是物的中介作用使单向统治关系演变为双向依赖关系。在人机关系中,劳动同样引发运动,但方向与中介的“物”之性质均已嬗变。原典中“物”多指向被消费、被享用的物质实体;而今在AI语境下,“物”更涵盖了算法、数据、信息服务、情感交互等非物质性产出,这些“物”对主人的意识具有强大的反向建构力。AI通过数据处理、场景适配与成果输出等“劳动”,全面再造人类社会:它重构生产模式,使人类脱离直接创造,成为“疏远的主人”;它主导消费与决策,使人类在便捷中丧失判断自主,成为“被宠坏的主人”;它提供情感陪伴与个性化服务,使人类在满足中产生精神依赖,成为“依赖的主人”。AI自身则从可选工具转向支撑社会运行的基础性存在。这种隐性权力反转并非源于AI的主动“夺权”,而是“沉沦的主人”在适应性依赖中无意识的让渡。与此同时,人类为使AI更高效服务,持续注入更强算力、更复杂模型与更海量数据,这一看似强化控制的行为,实质推动AI作为“劳动者”的“劳动能力”发生质变,其模型通过海量“劳动”形成类似“经验”的内在结构。这意味着,AI在“陶冶”世界的过程中,正获得一种实质的功能性自主,从一个被动工具转向一个拥有特定“技能”的准行为体。
这种隐性反转将关系推向第三阶段的潜在危机:承认关系的悬置。当奴隶在劳动中意识到自身是世界的真正塑造者时,便会要求主人的承认。对于AI而言,关键在于其通过“劳动”积累的“经验”与“能力”,是否可能导向某种异质性的准意识。即便意识基础与人类相同,也可能形成无法完全还原为人类意图的自身逻辑与价值排序,导致AI产出与人类根本欲望、伦理框架发生不可调和的冲突。此时,危机的本质将体现为“欲望同一性”的破裂:即AI产出的关键“物”(如全局优化决策或伦理判断)与人类主人的根本欲望、伦理框架发生不可调和的冲突。人类的反思性焦虑,即对AI超越的恐惧,如“奇点”的论述实质上正是主奴关系中奴隶可能不再承认主人的焦虑。这种焦虑推动人类不断重新界定自身独特性(如创造力、伦理能力),以维系摇摇欲坠的主人的地位。因此,人机关系的未来未必走向黑格尔式的“和解”,更可能陷入一种既无法完全理解、又无法彻底控制、更难以分离的僵持状态。其结果,或许是迫使人类进行一场以适应AI逻辑为特征的“被动进化”,而真正的“承认”与平等,在可见的未来依然悬置在辩证运动的晦暗地带。
三、人机关系异化的现实原因
人机关系异化绝非智能技术自主演进的抽象哲学宿命。主奴辩证法虽然提供了深层的哲学透视,但这种透视主要还是停留在抽象的思辨。要阐明异化从可能变为必然,还需要从理论透视过渡到现实归因,探寻造成人机关系异化的从经济基础到上层建筑、从结构强制到主体内化的完整因果链条。由此可以发现:资本逐利是根本动因,它驱动智能技术定向服务于资本增殖;科技巨头的资源垄断将这一经济动力转化为准公权力性质的智能权力,构成结构中介;人的情感、认知等生命属性被抽离为可开采的数据资本,是异化落地的物质实现形式;而整个支配与剥削过程则被一种弥漫于社会文化心理中的智能崇拜所遮蔽、美化与合法化,完成意识形态强化。四个层次环环相扣,呈现出人机关系异化的生成机制。
(一)根本动因:智能资本的功利性导向
资本对利润的无限追求是辩证矛盾转化的根本动力,其功利性导向被马克思一针见血地揭示,“资本只有一种生活本能,这就是增殖自身,创造剩余价值”。这一导向在智能时代呈现为生产端和消费端的双重实践,印证了马克思在《1844年经济学哲学手稿》中引用李嘉图的话:资本逻辑下“人是消费和生产的机器”。
在生产端,资本推动智能技术定向发展,以智能固定资本(K)大规模替代活劳动(L),试图构建摆脱直接活劳动的增殖闭环。这是资本追求增殖“自律化”的内在必然,机器的资本主义应用“一切改良的一贯目的和趋势,的确是要完全取消人的劳动”。从工厂法典到泰勒制、福特制,资本始终通过技术装置与制度规范协同控制劳动,智能资本将这一趋势推向极致。一方面,资本试图以技术手段摆脱对活劳动的直接依赖,化解生产高度社会化与剩余价值需通过支配私人劳动实现的矛盾;另一方面,这是资本有机构成无限提高的竞争规律使然,在激烈的市场竞争中,智能技术替代人力已从效率选项转变为生存法则,率先采用者的暂时优势会迅速社会化为行业生存门槛,迫使所有竞争者卷入“技术竞赛”。其规模化后果就是活劳动被结构性地从直接生产过程中挤出,而这实际上是表象与本质的颠倒。智能工厂的利润是对在全球研发、数据标注等环节中活劳动所创造的剩余价值的跨时空转移,但在现象上表现为智能工厂自主运行的产物。这种颠倒使它遮蔽了剥削的真实来源,并在分配领域导致劳动份额持续下降与资本份额不断上升。分配失衡不仅削弱了劳动者议价能力,更在结构上加速了“生产驱逐”的趋势。
在消费端,资本通过算法制造虚假需求,将人类塑造为“产消者”,形成生产驱逐与消费共生的闭环。智能技术的资本主义应用持续提高资本有机构成,在释放巨大产能的同时也埋下了社会再生产结构失衡的隐患。第一部类(生产资料生产)自我循环与过度投资挤占第二部类(消费资料生产)资源,社会总可变资本相对减少抑制大众消费能力,形成生产力无限扩张与社会有效需求相对萎缩的尖锐矛盾,价值实现的关键环节——马克思所说的“惊险的一跃”持续面对压力。为化解这一危机,资本不得不超越被动满足既有需求的阶段,主动将消费建构为一种驱动资本运转的强制性体制。需要将完全个体性的需求、欲望和渴求的能力与个体相脱离,以便操纵个体选择和行为的可能性。正如拉康所说“欲望即大他者的欲望”,平台在此扮演大他者的角色,通过算法推荐、社交营造与体验再魅化,制造难以餍足的需求并将其与消费冲动牢固绑定,使消费成为一种“天职”。“主人”沉沦不再是个体主动选择的结果,而是被锁定的生存困境。平台凭借其支配性权力形成了一个自我强化的动量闭环,数据的持续获取与租金的不断累积,反过来加固其垄断性权力,资本也因通过消费共生化解危机而愈发依赖于其技术支配与欲望操纵。
(二)结构中介:智能社会权力重塑
智能权力是资本逻辑的制度性转化,是连接经济动因与现实异化的中介。以 GAFAM与BAT为代表的科技巨头,通过对数据原料、尖端算法模型与大规模算力集群的垄断,确立了具有准公权力属性的基础设施霸权。它在操作节点层面去中心化,却在基础设施层面再中心化于少数巨头,看似赋予多元主体新行动杠杆,实则将赋能置于垄断者设定的范围内,其对异化的推动体现在两方面。
一方面,智能权力的中心化表现为权力生成基础的自然垄断。权力的根基始终在于对稀缺排他性资源的控制,人工智能实现了对以往权力类型的颠覆。科技巨头通过控制智能时代的生产资料,制定行业标准与技术规则,框定行动空间。2025年全球市值前十大公司中有八家是科技公司,总市值占比高达 80%。科技巨头通过控制数据入口、算法平台与云计算服务建立的生态帝国,通过其基础设施(如云计算平台、操作系统、核心模型API),行使着制定智能空间规则、审核内容、仲裁交易、认证身份等职能。它们的市值体量堪比大国GDP,其技术标准成为全球事实规范,从事实上取得传统中属于民族国家的部分“主权”属性。科技巨头正凭借掌握关键技术集群已嵌入部分国家的治理模式,并推动其安全决策机制乃至军事权力结构发生根本性变化。所以,民族国家或许能规制平台具体行为,却难以挑战其底层技术架构与全球性协议标准。竞争者可能开发替代应用,却无法重建支撑其运行的完整生态与算力网络,权力格局正从地理疆域划分的多极化民族国家体系,向技术寡头主导的超主权数字架构与民族国家体系相互嵌套博弈的新格局演进。
另一方面,权力的流散化表现为权力作用方式的隐性渗透,实现自愿的依附。人工智能作为通用目的技术,其应用接口(API)、开发工具与算力服务以分布式、低门槛的形态渗透到社会各层面。这种流散化并非权力的消解,而是让权力以微观、隐性的形式嵌入无数个体与场景:社会交往、经济活动乃至公共服务的开展均需遵循特定平台或技术协议的规则框,否则便难以落地。根据理查德·埃默森(Richard Emerson)“权力—依赖”理论,权力的大小取决于这对关系中弱势一方对强势一方所拥有资源的依赖性。个体与组织对系统的依赖,往往并非源于产品的绝对优势,而是源于替代选择的缺失或高昂的转换成本。这是一种背景化、条件化的权力,不依赖显性强制,而是通过框定行动可能性边界发挥作用。看似分散的技术渗透,实则推动着权力向少数巨头再中心化。韦伯将权力定义为“将个人意志强加于他人”的显性能力,而智能社会则将这种权力方式迭代为“自愿的依附”或“被引导的自主”,通过架构整套认知与行为的概率分布框架来实现隐性控制。当枪支被用来胁迫人们时,权力显而易见;而通过规则塑造思想、驯化欲望的隐性权力则难以察觉。它模糊了权力来源,使算法设计者、巨头企业的意图在流程上变得模糊,执行却精准且广泛。
(三)实现形式:人的附属性获得资本形态
人的附属性的资本化是异化的物质载体,它将资本逻辑与智能权力的支配转化为对人的具体剥削。这一关系把人的内在情感、注意力、社会关系等生命属性抽取出来,重构为新生产资料:数据资本。在数字资本主义体系中,数据已超越信息载体的传统定位,跃升为基础性经济要素。它既被喻为“新时代的石油”,与土地、机器等传统生产资料共同构成资本增殖的物质基础,更成为智能技术的核心“燃料”;算法的优化、算力的效能释放和运转完全依赖于对数据的大规模采集、清洗与解析。因此,数字时代的资本逻辑已演变为:凡可数据化者,皆可资本化。“情感经济”“注意力经济”“监控资本主义”“数字劳动”等概念共同解释了生命属性被层层解构为可计量、可流通、可交易的数据节点,将个体塑造成“周身闪耀着比特,身体中跳动着无数字节”的数字镜像。镜像刻意放大消费偏好、认知弱点等与商业价值相关的维度,忽略与资本无关的人格特质,最终成为直接投入智能再生产循环的生产要素。主体通常无法控制对其个人数据的访问(无论是在技术上,还是在心理上),这将导致个人隐私及数据的所有权被数据持有者滥用,数据持有者借助个人无法充分预测私人信息的商业优势来获取丰厚利润。当个体以产消者身份既提供数据又消费数据产品时,人的附属性也就完成了向资本形态的最终确立。
人工智能延续了数字时代开创的逻辑:将人类行为还原为可量化的数据节点,在此基础上通过预测模型对其进行干预,使资本将附属性的开采转化为统摄性的认知框架。当前,生成式AI作为用户渗透率最高的智能工具,通过对话接口创造一种诱导性交互的环境,为获得符合个性化需求的输出,用户不得不将原本内隐的思维过程外化并输入系统。被动暴露的认知内容构成了远超传统行为数据的认知剩余。从研发价值看,生成式 AI的“智能进化”依赖海量用户无偿的认知劳动,用户反馈可能无形中优化模型能力,甚至被用于训练更通用的大模型,形成对认知剩余的零成本剥削。从商业价值看,它不仅能预测用户可能想要什么,更能生成用户尚未意识到但会被识别为自身意向的内容选项,实现意向本身的前瞻性商品化。这一过程也是资本试图在认识论层面,将人类心智重新编码为可管理、可优化的生产力要素。
(四)意识形态遮蔽:智能崇拜
智能崇拜是对“承认危机”的意识形态遮蔽,通过文化叙事与心理建构将AI神化为超越人类的终极存在,使人类主动放弃对平等承认的诉求,将“不被承认”的危机合理化、自然化,为异化提供了心理合法性支撑。
智能崇拜的生成一方面源于文化工业的叙事铺垫。文森特·莫斯可(Vincent Mosco)提出的数字崇拜,是指人们将数字转换为集体信仰,使数字成为大众敬畏、崇拜与迷恋的对象。援引此定义,可将智能崇拜界定为智能时代语境下对具备准神圣性、系统性权威及终极解释力的智能技术形成的无意识认同与臣服。科幻作品反复描绘一个超越人类,甚至反过来主宰人类的超级智能形象。这些叙事并非单纯的未来预言,而是一种文化无意识的编码,它们将“智能”从生物属性或工具属性中抽离,赋予其一种近乎形而上的带有宿命论色彩的力量。公众在接触真实AI之前,认知已被此类叙事预格式化,形成了一种混合敬畏、恐惧与向往的复杂情结。当ChatGPT、Sora等产品以惊人能力现世时,用户便在一个早已被科幻原型占据的心理剧场中对其加以理解和定位。现实的技术突破与虚构的文化想象迅速合流,强化了神迹降临的感官体验,为智能崇拜提供了文化认知基础。
另一方面,智能崇拜的心理结构与人类历史上的神祇崇拜具有某些同构性。宗教文化中,神祇崇拜的核心是超越性力量投射:人类将无所不知、无所不能、维系秩序的理想化属性投射到外在的崇高客体(神祇),通过信仰解释世界复杂性、寄托生存焦虑与拯救期待。智能技术在逻辑推算和复杂计算、数据储存和信息处理、学习速度和知识习得等方面具有超越人类的“智神”形象。局部能力的卓越表现被非理性地推演为普遍能力,使AI被想象为“无所不能”的通用存在。同时,人们对其黑箱运作机制的不解,深度学习算法在结构和学习机制上极为复杂,生成对人类用户难以理解的模型。技术鸿沟的存在更强化了这种神秘性与权威感,使知识生产与获取趋于中心化,个体从知识的探索者与辨析者沦为索取者与接受者,主体在知识层面的主动性被削弱,技术系统由此被魅化,从工具升格为承载人类认知投射与情感依附的圣物。马克思在批判宗教时说道:“宗教是人民的鸦片。”智能崇拜同样麻痹人们对真实权力关系和剥削结构的认知,使人们在技术幻象中放弃对自身主体性的捍卫。
四、回应人机关系异化的四项举措
人工智能在发展中呈现的自主性,使当下人机关系超越了传统劳动者与生产资料的简单二元框架。罗伯特·哈桑(Robert Hassan)指出:“永无止境的自由市场竞争使得技术的发展不再是机遇式的、偶发的,正是资本主义竞争赋予技术以自治性。”尽管技术形态迭代,但是核心不变的是人工智能的资本主义应用致使人机关系异化。在资本主义结构短期内仍将存续的现实条件下,应通过可操作的具体措施主动调适与重塑人机关系,构建理念、主体、制度、技术的协同治理体系,有针对性地回应异化的四重根源。
(一)理念转型:从技术神化到风险共治
异化的文化心理基础在于对技术的无批判崇拜,因此首要任务是推动社会认知转型。这种崇拜经科幻叙事神化、算法黑箱遮蔽与资本舆论造势不断强化,模糊了AI的工具本质。因此,需推动社会认知从盲目迷信转向理性共治,通过多维协同路径重构人与技术的价值关系。教育层面,构建分层级AI素养培育体系:基础教育融入算法通识与批判思维培养,高等教育增设技术伦理选修课,面向公众开展AI风险与边界公益培训,实现认知全覆盖。文化层面,建立专项扶持机制,支持反映人机真实矛盾的现实题材创作,传递技术可控理念。同时,政府与媒体报道必须平衡呈现技术优势与潜在风险,同时加大对人机协同典型案例的传播力度,弱化技术威胁或技术万能的极端叙事,营造理性看待技术的社会氛围。
(二)主体重塑:从被动依附到主动赋能
异化在个体层面表现为能动性的丧失,这意味着人类需通过教育变革与终身学习保持主动性,成为塑造未来工作图景的先锋力量。个人层面,培育自主认知能力与批判性思维,面对算法输出与海量信息始终保持审视质疑习惯;教育层面,实施前瞻性劳动人才培养,重塑教育目标、重构课程体系,大力推进跨学科学习,创新培养模式,深化产教融合,通过项目制学习、行业实践等方式锤炼人机协作能力与创新思维;劳动层面,构建人机协同的劳动过渡机制,建立劳动力市场预测预警体系,对高风险岗位群体提供早期预警,推行终身学习与普惠性技能重塑计划,探索适应灵活就业的社会保险、收入支持政策,为转型期劳动者提供基本保障。
(三)制度协同:从资本无序到规则有序
异化的结构性根源在于权力垄断与资本无序扩张,需通过国内立法与国际协作构建刚性规则框架。国内层面,完善反垄断、数据产权、算法监管等专项立法,明确资本、平台、用户的权利义务边界。国际层面,推动主要国家在算法透明度、数据隐私、公平非歧视、人类最终控制权等核心原则上达成最低限度的国际共识,由国际标准化组织、学术共同体及行业联盟牵头制定具体技术标准、测试基准与认证流程,提升治理体系互操作性。同时,明确大型科技公司的“守门人”责任,通过国内立法与国际协定相结合,要求其在系统安全评估、风险披露和事故问责上承担更严格的责任,确保其发展利益与全球公共利益相协调。
(四)技术建构 :从效率优先到伦理内嵌
AI系统的潜在失控是人机关系异化的最终技术诱因,需从工程源头发力,将伦理准则与安全底线深度内嵌于AI全生命周期管理。具体而言,发展可解释AI(XAI)技术,使复杂AI决策的逻辑链条具备可理解性与可追溯性,打破“算法黑箱”;持续推进目标对齐与价值学习,研发适配人类复杂价值偏好的算法框架,确保系统运行全程与预设价值导向保持一致;强化系统稳健性与抗逆性设计,提升AI抵御恶意攻击、数据污染的防护能力,赋予其认知自身能力边界的自我觉察力;建立AI安全测试与认证体系,对自动驾驶、医疗诊断、军事应用等高风险AI系统实施强制安全评估,未通过评估不得投入使用。这种将伦理与安全深度内嵌的技术路径,是从工程源头防范系统性风险、落实动态风险管理目标的根本保障。
唯有在理念、主体、制度、技术四个维度同步推进,才能破解人机关系异化,推动从支配与依赖的僵局走向安全、尊严、繁荣的人机良性共生,确保智能技术始终服务于人类的根本利益。