内容提要:生成式人工智能正在重塑意识形态的生产与传播机制,其技术应用与传播实践的深度融合,既蕴含着意识形态的隐喻性表达,又存在具象化风险扩散的现实可能。系统解析生成式人工智能嵌入社会价值观念的作用机理并提出有效应对策略,已成为维护意识形态安全的重要考量。交互界面设计、数据训练集构建、算法模型架构与深度伪造技术等生成式人工智能的技术要素,既构成特定文化价值及其意识形态渗透的实现路径,又成为诱发群体认知偏差与主流价值认同危机的风险传导中介。为了实现技术赋能与人文关怀的辩证统一,构建良性互动的人机生态,开展消除数据偏见与算法监控的技术治理并构建多方参与的协同机制,成为反对单边数字霸权并推动数字命运共同体建设的必由之路。
关键词:生成式人工智能 意识形态 数字命运共同体 数字资本主义 人工智能治理
作者简介
杨晓彤(1996- ),浙江大学哲学学院助理研究员(浙江杭州 310058)。
文章来源
《马克思主义研究》2025年第9期,注释从略。
当前,生成式人工智能(Generative Artificial Intelligence, GAI)正在利用深度学习技术重塑人类精神生产的智能化图景,其经由数字交互、数据训练、算法架构和技术伪造等符号系统与物质性载体等中介,在技术中立的外衣之下,实现了特定文化语境中意识形态隐喻的具象化转播。如此一来,生成式人工智能不仅完成了“思想意识的自然化(naturalization)和合法化(legitimation)”的隐喻认知,更通过发挥“破坏那些复杂的等级结构体系中的人与人之间的社会关系”的政治功用,成为一种意识形态规训的新型技术装置。诚然,以DeepSeek(深度求索)等为代表的国产大模型,凭借其快速迭代升级、应用范围广泛与全球化协作开发等技术优势,为拓展和优化主流意识形态的内容视野与话语叙事提供了新机遇,但由于其与ChatGPT(聊天生成预训练转换器)类生成式工具同属自然语言处理技术体系,语言本身固有的意识形态属性与技术的扩散效应相互交织,共同构成了意识形态安全的风险诱因。为了有效防范并应对生成式人工智能的意识形态风险,推动以技术民主化与数字平权为内核的多主体协同治理势在必行,也具有现实可能性。
一、生成式人工智能的意识形态隐喻及其规训功能
依循“通过另一种事物来理解和体验当前的事物”这一隐喻的本质,意识形态隐喻指向“通过一定的‘文字转换’让听者从中领悟其中的要义,从而达到共同理解的目的”。可见,隐喻不仅是一种美化与辅助意识形态话语表达的修辞手段,而且是一种通过意象符号传递价值观念的认知工具。尽管隐喻本身并不直接关涉价值判断,但当其与生成式人工智能的技术表达相结合时,便形成了一种具有意识形态属性的意义生产机制,这种机制会潜移默化地影响和重塑公众的主体意识与社会认同。之所以会产生这种影响,是因为隐喻本身具有概念建构和语义整合功能,“借助这种建构权,人们可以对事物进行符合自己意识形态与社会权力的界定、划分与归并”。当这一语言机制融入生成式人工智能时,情况便发生了变化。生成式人工智能的核心是模拟人脑神经网络,能够跨越不同的语义领域并推动其意义互通,这固然打破并改变了传统的信息传播模式,但也因其具有数字监控与算法黑箱的不透明性等技术特质,而在其系统内部自发地产生意识形态风险,乃至与西方中心主义意识形态产生深层关联。故而,“人工智能不只是一个技术问题或关于智能的问题;就政治和权力而言,它不是中立的”,无论是存在于社会中的偏见,还是源自算法或数据科学过程的偏见,本质上都具有意识形态属性。
第一,“知识奇点”的认知革命内含脑力替代的“认知外包”隐忧,隐喻着消解人之主体性及其批判意识的技术解决主义。作为人脑机能的延伸与拓展,生成式人工智能通过数据训练和算法设定,不仅可以产生一种“机器感知”,替换并中介人的身体认知与主观体验,而且能够基于抽象的计算结果,进一步实现自主化创新的知识生产。“人将所接受的数据输入转化为新信息,然后通过将这些与其他概念相联系,赋予其意义,从而产生了知识”。可见,生成式人工智能作为“一般智力”的对象化,打破了“实践—身体—认知”的传统知识生产逻辑,从而逼近无意识认知驱动的“知识奇点”。这就意味着,生成式人工智能作为人脑的“外包工具”,通过知识生产的自动化程序,将人类思维限制在既定框架之中,这不仅使知识本身异变为纯粹的数据集合,而且导致具有主体能动性的认知活动降格为被动的指令服从,从而消解了知识的意向性和主体意识的辩证否定性。与之形成鲜明对比的是,这一脱离真实生活实践与生命体验的“机器感知”,却被推崇为实现真理认知和揭示存在本身的必要介体。然而,这种以计算主义为基础的知识自动化生产机制,其“为计算而计算”的运行逻辑,隐喻着一种“把一切都重新界定成有待技术去解决的问题”的技术解决主义意识形态。在此过程中,人类认知活动与生命存在原本的有机联系被割裂开来,导致认知主体“无法确定在哪些环境和层次上能够产生关于他们自己的意义”。可见,当工具理性被绝对化为目的本身时,这一异化现象及其背后潜藏的技术解决主义意识形态隐喻,就会使人类思维活动与其生命本真状态之间失去内在联结,思维成为被动的工具,生命则成为工具的对象。
第二,多渠道数据嵌入建构隐形监控的“数字化全景监狱”,催生了数字化崇拜的数据拜物教意识形态,隐喻着量化的自我被全方位集体凝视的生存困境。生成式人工智能依凭其技术迭代的自组织能力,能够将开源数据整合为多元语义的语料库,以实现对自然语言的精准解读与答案文本的标准化生成。更进一步,语料库根据创建和更新方式的不同,又可分为被动收集和主动采集两种模式。其中,被动型语料库的建立需要借助系统自动保存用户输入的信息,而主动型语料库则依托数据爬虫技术,高效获取大量数据。然而,无论是用户自发的数据“输入—收录”过程,还是系统主动执行的数据抓取操作,都意味着个人日常生活情境中所遗留的数据足迹,被生成式人工智能的预训练与微调技术(Fine-tuning)所监控。当监控突破了物理和时空的限制,就不再仅仅是一种技术手段,而是演变为一种施加于个体之上的权力运作体系。就此而言,福柯所说的全景敞视监狱并未在人工智能时代退场,而是以超时空的形式实现了全域覆盖,由此打造了一座由瞬时监视升级为实时监控的“超级全景监狱”。区别在于,在全景敞视监狱中,相对集中分布的受控个体仍可觉察到来自中心瞭望塔的权力规训,而生成式人工智能的监控,通过在预训练阶段的混合数据收集和动态对话采集,使个体陷入一种特殊的自愿性强制状态,即个体看似主动公开日常行为数据,但这种公开本质上是被技术机制引导和塑造的强制性行为。这一过程表明,原本自主且自觉的行为主体,在主动“通过自我展示和自己揭露,参与到它(指‘数字化全景监狱’——引者注)的建造和运营”过程中,逐渐被塑造为由自我监测数据所建构的数字化人格模型。而这种将身体机能与存在价值转化为可计量数据的异化情境,更深层次地隐喻着一种数据拜物教意识形态,即无论是生命体还是非生命体,唯有被编码为数据代码,方能获得身份认证与价值确认。正如尤瓦尔·赫拉利所言,“目前最耐人寻味的新兴宗教正是‘数据主义’(Dataism),它崇拜的既不是神也不是人,而是数据”。在这一自由与规训并存的“精神悖论”中,主体经历了自我客体化的异变,不自知地卷入数据主义意识形态的权力之网。
第三,深度学习神经网络的算法设计引发虚假客观的“黑箱效应”,隐喻着“后真相时代”信息过滤歧视的民粹主义话语。生成式人工智能的算法逻辑在于依托模拟人脑神经元的计算模型,如生成对抗网络(Generative Adversarial Networks, GANs)与变换器(Transformer),完成将意识形态话语生产包装为“数字真理”的自动化输出。诚然,生成式人工智能的生成器(Generator)和判别器(Discriminator)通过动态博弈提升了算法预测的准确性,但其内部结构与推演路径难以被人类直接观测的不透明性,也为民粹主义话语的生成提供了技术基础。一方面,算法模型将复杂的社会矛盾简化为可计算的敌我二元对立,并将特定的政治价值编码为一种认知霸权,这一认知霸权表现为“一种特殊的请求,或者不合理地要求一种特权”,制造出脱离现实语境的“虚假客观性”幻象;另一方面,掌握算法规则的技术权力集团运用生成式人工智能,将算法黑箱中隐含的意识形态偏见嵌入“后真相时代”的社会文化场域,催生了“不仅是一种本体式经验现实(一种特殊的政治),而且是政治的同义词”“就是政治本身”的民粹主义政治话语。这意味着,个体在社交媒体中推崇非精英群体评论而否定专家知识的“认识论的民粹主义(epistemological populism)”,背后是民粹主义政治家在操控,其利用生成式人工智能的算法过滤和“黑箱效应”进行权力运作,将远离公众视线的虚假信息,粉饰成具有煽动性的大众呼声。这种做法本质上类似于一种“有组织的意识形态运动”,最终会导致公众丧失批判性认知,而这一批判性认知本应指向的是,生成式人工智能何以重塑事实真相,以及如何规制公共讨论及其传播方式。
第四,技术的价值负载潜隐着文化渗透的数字采邑机制,隐喻着金融—技术垄断资本主义加剧不平等国际政治经济格局的数字殖民主义路径。“人工智能算法借助技术的‘伪中立性’,将其所承载的价值立场渗透到社会结构中,逐渐固化为一种意识形态模式”。以ChatGPT为代表的生成式人工智能,作为当代技术发展的典型形态,其表象的中立性下隐藏着深刻的价值负载与权力运作机制。在经济全球化与数字化交织的时代语境下,这类生成式人工智能体依凭其在算法架构和数据训练中的优势,不仅塑造了全球范围内的信息流动方式,也进一步强化了数字文化领域的不平等格局,从而形成了一种对全球文化生态的数字殖民效应,并在深层次上维系甚至加剧了传统地缘政治中的权力不对称结构。一方面,生成式人工智能的代码叙事构成意识形态嵌入的微观场域。阿里研究院发布的《大模型训练数据白皮书》显示,互联网上中文语料和英文语料占比存在显著差异,英文语料占比高达59.8%,而中文语料仅占1.3%。这种严重失衡的数据结构,导致模型输出的语义结构带有显著的西方中心主义特征,并指向一种非西方文化遭遇系统性排斥,而西方价值观则加速全球渗透进程的“数字巴别塔效应”。另一方面,资本逻辑与技术权力的共谋机制构成数字殖民主义的运行中枢。以微软-OpenAI(开放人工智能研究中心)联盟为代表的“资本—技术”复合体,诱导全球用户加深对生成式人工智能及其技术的依赖,同时制造了科技巨头作为“领主”、用户作为附庸的“数字工厂”,尤其是发展中国家被迫沦为数据采集与财富资源攫取的新型场域,这一数字化殖民情境生动揭示了“数据殖民主义不仅仅是一个‘隐喻或解释镜头’,而且是一种活生生的、充满活力的、资本主义不断寻求新发展阶段的有效动力”的现实。由此观之,ChatGPT类生成式人工智能的技术价值观作为新殖民主义意识形态的“副本”,持续加深了全球南方国家陷入技术依赖与文化失语的恶性循环。
生成式人工智能正深度融入并改变人类认知方式,而其数据提取与算法设计等核心技术环节潜藏着特定的意识形态隐喻。这些隐喻经由资本逻辑与技术理性的合谋,显露出知识生产秩序与权力配置结构异化的社会危机。具言之,传统知识生产者的创造性劳动被降格,成为强制性自愿的数据原料供给,并为智能推荐系统通过用户画像和行为预测所利用。“在当今数字化进程中,算法与智能机器系统正以空前的规模生成、采集、存储、处理并深度解析海量数据,其自主决策机制已渗透至经济运作、政治治理及日常生活的各个领域,逐步削弱了人类在关键决策中的主导地位”。这一异化的社会现实,与数字殖民主义在全球的意识形态渗透相互交织,致使公共领域及其政治伦理本应遵循的交往理性,陷入被工具理性主导的认知困境。
二、意识形态隐喻具象化的智能载体与风险样态
意识形态作为主体对象化活动的观念产物,其生成过程呈现为一种辩证统一:一方面,将具体的实践经验升华,形成抽象的价值体系;另一方面,将抽象的观念系统转化为具体的社会实践形态。如果说意识形态隐喻对应的是“完整的表象蒸发为抽象的规定”之从具体到抽象的过程,那么其具象化则表征为“抽象的规定在思维行程中导致具体的再现”之从抽象回归具体的过程。换言之,意识形态隐喻经由特定载体的中介,显现其价值理念与社会意义的过程,包含着感性经验现象凝练为概念化的理论范式,以及抽象的意识形态具象化为可感知的现实行动两个辩证环节。遵循“具体—抽象—具体”的认知路径,生成式人工智能作为意识形态隐喻具象化的一种新型技术中介,通过其处理文字、图片、数据等多模态信息的内容生成能力,不仅完成了意识形态隐喻从抽象概念到具体符号的转译,也在人机交互过程中衍生出多维度的意识形态传播风险。
第一,智能交互界面的拟人化符号系统导致认知碎片化,催生社会价值规范弱化的风险。符号系统作为意识形态隐喻具象化的重要载体,其内核在于符号形式(能指)与象征意义(所指)之间的对应关系:文字、图像等符号通过对特定的文化价值进行编码,建构起一套意义传递系统。也就是说,意识形态隐喻的抽象价值观念,经由符号表征进行具象化呈现,实现了从隐性概念向显性传播的形态转化。而在此过程中,生成式人工智能凭借其强大的符号处理与意义生成能力,为意识形态在“能指—所指”层面的转译机制,提供了智能化的载体支撑。具体而言,用户输入的自然语言问题(表层符号形式),经由模拟神经网络的语义编码与重构机制,将原始问题转化为新的符号表达形态。这一“输入—转换—输出”的认知闭环,构造了一个具体符号形式与抽象意识形态相互融合的拟真化场境。而问题在于,在持续进行的“提问—反馈”人机交互中,技术表象背后的资本逻辑逐渐显现,并通过系统性价值预设,不断重塑用户的认知定式,从而建构起一种具有数字资本主义特征的意识形态再生产模式。一方面,生成式人工智能利用语言模型对人类思维进行符号仿真,这种处理方式将抽象的算法逻辑包装成具有拟主体性的交互对象。当机械运算被符号化为能够引发“情感共鸣”的智能对话时,技术理性便以脱离客观实在的具象符号为载体,悄然完成了意识形态的自然渗透。另一方面,人机交互的智能界面能够模拟人类在不同情境下的思维图式,其关键在于将完整的思维活动分解为可量化的符号单元。这种碎片化的符号切割过程,导致主体认知发生异化而丧失整体性,最终沦为数字化的单向度存在。从这一角度来说,技术系统的拟人化设计,通过具象化符号重构了主体认知的异化机理,与马克思所揭示的“工人生产的财富越多,他的生产的影响和规模越大,他就越贫穷”,具有悖论性的逻辑同构关系:如同工人与其产品的关系异化,用户与智能界面交互越频繁,其主体意识与社会价值规范的完整性就越易被解构,从而陷入“去中心化”的碎片化认知困局。最终,不论是传统的还是现代的社会价值规范,都在这种认知格局中持续受到冲击,个体的原子化被确认为唯一真实的存在样态。
第二,大模型训练数据的“隐性偏见”固化不平等观念,滋生主流意识形态权威淡化风险。数据作为代码化的符号系统,经由生成式人工智能特定模式的结构化处理,将社会现实转化为可视化图表与统计模型等数据符号,由此,意识形态隐喻及其具象化表达被赋予了“科学化”的虚假外壳。然而,这一表象上客观中立的数据筛选过程,掩盖了训练数据中既有的性别歧视、种族偏见和阶层固化等不平等现实,从而为意识形态传播设定了消解异质性观念的“过滤器”,致使隐藏在意识形态背后的权力关系得以合法化伪装。例如,美国司法系统广泛使用的一种算法对非裔美国人持有偏见,即便该算法已经将罪犯的年龄、性别、犯罪史和未来的犯罪行为一并考虑在内,该算法将非裔美国人划分到高风险犯罪类别的可能性仍高出其他族裔45%。这一基于数据偏见的意识形态操控及其隐性符号权力,本质上延续了“对象化劳动在劳动过程本身中与活劳动相对立而成为支配活劳动的力量”的颠倒逻辑,因其深层结构都在于人类创造的客体反过来支配人自身,形成异化的生产关系。区别仅仅在于,数字时代的权力运作,从经济领域的显性控制转向意识形态领域的隐性符号支配,这突出表现为,以ChatGPT为代表的生成式人工智能,既在客观上为现存社会的不平等结构提供“科学”论证,又消解了旨在推进“每个人的自由发展是一切人的自由发展的条件”之马克思主义意识形态的权威性。造成这种现象的根本原因在于,平台资本的逐利本性会优先强化具有传播效力的文化模因(Meme),而马克思主义意识形态因其在现有语料库中缺乏足够的“能见度”而面临被边缘化的风险。也就是说,ChatGPT类生成式人工智能的数据筛选机制与资本逻辑形成合谋,致使数据符号输出的文化内容天然倾向于复刻数字资本主义意识形态的价值意图,从而削弱了马克思主义意识形态的政治认同感与话语影响力。
第三,算法推荐系统的“信息茧房”效应强化了公众认知的同质化倾向,引发社会价值共识的解构风险。一个社会中体现全社会意愿和要求的最大“公约数”,既是社会价值共识的具象体现,也是社会交往成熟与升华的最终结果。然而,在算法中介的社会关系网络中,这种“公约数”的形成却面临结构性困境。正如马克思所言,“意识[das Bewußtsein]在任何时候都只能是被意识到了的存在[das bewußte Sein],而人们的存在就是他们的现实生活过程”。意识形态作为受社会物质生产结构支配的观念形态,其隐喻的具象化表达需要依托物质性载体才能获得现实存在。在数字时代,算法作为人机交互中动态生成的、具有特定文化属性的实践机制,其“物质性通常指的是算法的技术设计逻辑在社会实践和社会交互中的具体展现”。也就是说,算法系统通过实现抽象观念与“空间的、阶层的、关系的和话语的等多元社会因素的交织与互动”,成为意识形态隐喻具象化的物质性载体。而生成式人工智能的语义计算能力与互动反馈机制,则进一步强化了意识形态隐喻的具象化表达。其一,在技术维度上,算法模型经由参数化处理实现意识形态渗透。生成式人工智能通过捕捉并分析用户的行为轨迹,构建智能推荐系统,这一系统将意识形态隐喻的具象化隐匿于个性化服务的表象之下,完成价值观念的具象传播。其二,在关系维度上,算法系统将用户的无偿数据劳动转化为意识形态再生产原料。当用户在ChatGPT类生成式人工智能平台进行搜索时,其行为数据经语料库筛选和提炼,被加工成为资本定向塑造主体偏好的生产质料,从而实现资本主义意识形态的日常化渗透。其三,在空间与话语维度上,算法通过信息过滤构建封闭的认知场域,致使主体间对话取向呈现出高度同质化特征。一方面,算法推荐系统基于用户的历史行为,产生主动隔绝异质信息的“信息气泡”。主体长期接收精准推送的信息,导致其批判性思辨能力在碎片化符号刺激中逐渐钝化。另一方面,算法系统持续强化特定信息偏好与同质化内容输出,制造主体主动排斥他者的“回音室”。这种“让你根本就不相信外部信息”的自我隔离状态,阻断了集体意志和公共情感的交流互通,从而动摇社会价值共识的根基。这也就意味着,诱导主体“只听我们选择的东西和愉悦我们的东西的通讯领域”的“信息茧房”,通过算法重构认知框架,将多元社会交往窄化为单向符号互动,从而使主体陷入数字资本主义意识形态的驯化之中。
第四,深度伪造技术的权力博弈篡改集体记忆,加剧意识形态渗透风险。拼接、粘贴、缝合、穿越与复制,已成为数字时代历史虚无主义与文化虚无主义的最新表现形式。深度伪造作为生成式人工智能的技术症候,对社会现实的重塑已然超越单纯工具范畴,深度介入社会存在与意识形态关系的重塑之中。从实践逻辑的角度看,“思想、观念、意识的生产最初是直接与人们的物质活动,与人们的物质交往,与现实生活的语言交织在一起的”,主体的具身化交往实践构成意识形态隐喻之历史在场与意义生成的基础,而集体记忆作为社会群体经由日常互动、行为仪式及权力博弈形成的共识性认知,本质上是意识形态隐喻通过实践活动自我调适的具象化呈现。可以说,篡改并重构集体记忆及其符号系统的深度伪造,在充当数字资本主义意识形态隐喻之具象化实践载体的同时,也成为解构传统意识形态隐喻生成机制的技术中介。就技术实现路径而言,生成式人工智能的生成对抗网络通过深度学习历史影像,将特定事件的视听要素分离并量化为数据参数,最终在算法模型中合成逼真却虚构的仿真记忆。然而,这一仿真记忆的生成原理本质上颠倒了马克思揭示的认知规律——“观念的东西不外是移入人的头脑并在人的头脑中改造过的物质的东西而已”,结果导致集体记忆不再是民族历史和文化实践的精神载体,而是沦为资本权力推行认知殖民与意识形态渗透的符号工具。原因在于,在技术系统编辑记忆符号的过程中,历史真相已被置换为可更改与可定制的数字产品。如此一来,不仅资产阶级可以虚构工人罢工之历史场景以重构工人阶级的主体意识,而且西方发达国家可以在数字空间中复现殖民时代的权力结构,借此虚构殖民地时期文明传播的历史拟像,以解构亚非拉国家关于民族解放运动的集体记忆,进而瓦解其后殖民时代的阶级意识。可见,深度伪造技术作为意识形态隐喻具象化实践载体的深层逻辑在于:特定阶级将自身的意识形态诉求加以对象化,使其成为脱离社会关系的“超历史存在”,通过数字技术构建的虚拟空间,导致了“技术的解放力量——使事物工具化——转而成为解放的桎梏”的悖论性结果。因而,“深度伪造不仅仅是不诚实,它们具有真正摧毁个体的潜力”,其以拟真替代本真、以再生替代本源的技术异化,意味着“每个毛孔都滴着血和肮脏的东西”的资本原始积累,在数字资本主义时代实现了“赛博空间殖民”的形态嬗变,而不变的是资本增殖逻辑及其权力意志对主体身心的系统性剥削。
生成式人工智能正通过多种数字技术手段,重塑意识形态隐喻的具体表达形式与其具象化过程。与此同时,生成式人工智能自身也成为数字意识形态渗透与话语权力博弈的新型场域。详言之,智能交互界面以拟人化对话引发情感共鸣,将价值引导融入日常交流情境,削弱主体的理性判断;大模型训练数据中隐含的社会偏见在生成内容时与结构性不平等相耦合,弱化主流意识形态的公共权威;算法推荐系统基于用户画像构建“信息茧房”,解构了代际与群体之间的价值共识;深度伪造技术通过生产高仿真内容,制造虚实交织的集体记忆,冲击主流意识形态的真实性根基。这一系列由技术中介引发的意识形态风险,本质上体现了数字权力扩张与相应规制滞后之间的矛盾。因而,迫切需要出台技术伦理与制度规范协同的应对策略,以平衡生成式人工智能的技术变革与其意识形态治理之间的动态关系。
三、生成式人工智能意识形态风险治理的应对策略
意识形态包含结构形式、核心内涵和动力机制等构成要素,其中任一要素发生嬗变,都可能引发意识形态体系的适应性调整甚至根本性变革。“如果从观念上来考察,那么一定的意识形式的解体足以使整个时代覆灭”。如今,生成式人工智能深度嵌入意识形态的生产与传播,其拟人化的表达方式和训练数据中存在的偏见,导致主体认知的单一化倾向。同时,算法黑箱与技术霸权的资本化操控,催生出价值导向的隐性规训等意识形态风险。这些意识形态风险,与生成式人工智能自身附带的“人类最后的发明”等隐喻叙事,及“人工智能取代人类”等错误思潮的冲击有关。但其矛盾根源在于,既有的意识形态调适机制,难以适应智能技术革命所催生的新型社会关系,两者之间存在着结构性的张力。换言之,数字资本主义社会本质上是社会矛盾与认知偏差的生成系统。这种社会样态具有双重异化机制:一方面,生成式人工智能被异化为替代劳动者的剥削工具;另一方面,通过侵占主体生活空间、消解人类反思能力、瓦解传统生活模式等途径,造成了意识形态内在结构的断裂及其具象化过程的扭曲。在此背景下,要突破生成式人工智能强化“技术统治论的命题作为隐形意识形态(als Hintergrundideologie),甚至可以渗透到非政治化的广大居民的意识中,并且可以使合法性的力量得到发展”的异化困境,既需要从根本上彻底变革这种“人工智能资本主义”的生产组织形式,又需要重构人本主义的技术伦理范式,最终促成智能技术与人类文明的协调发展。
第一,立足科技自立自强,独立自主地创新人机交互的价值观引导路径。生成式人工智能通过整合自然语言处理与情感计算分析方法,构建具有拟人化特征的交互符号系统,在塑造用户自主体验感知的同时,依托碎片化信息传递的底层技术架构,通过持续动态渗透模式,逐步形成认知干预效果。也就是说,主体在信息流中惯于接受即时性与片段化的反馈,这不仅在虚假的情感投射中模糊了人机边界,而且挤压了系统性价值观念的完整构架,致使社会的核心价值观念被分解为离散的认知单元。这一变化的运作机理在于,作为“人的手创造出来的人脑的器官”“对象化的知识力量”,生成式人工智能本质上是人类生理机能与主观意识的技术物化形式,这一“属人性”决定了其必然通过拟人化情感表达等符号系统,构建并依托人机交互载体,既塑造主体的认知框架,又重构社会的价值体系,最终实现意识形态的传播与强化功能。因而,建立技术伦理与社会价值相统一的校准原则,成为人机协同进化框架下创新价值传导路径的必然要求。为此,智能界面的人机交互,既要维持自然语言生成的情感吸引力,又要推动社会价值规范的数字化传播。为此,DeepSeek等国产大模型通过技术创新实现了突破性进展,其经由显性价值观标识系统与隐性语义编码技术的有机融合,构建起既具备人类思维特征又避免完全拟真化的智能交互范式。具体而言,在技术模型中设置人机对话边界,明确人机交互范围,同时运用语义增强技术,拓展核心价值概念的应用场景。这样,既有效规避了过度拟人化导致的文化符号误读风险,又摆脱了传统价值传递的机械式灌输局限,最终达成“技术拟人”与“价值育人”的辩证统一。
第二,探索数实相融的意识形态治理体系,推进数据偏见与认知偏差的动态矫治。生成式人工智能的训练数据,归根到底来源于人类生产生活的现实实践。作为一种参与社会生产的技术形态,生成式人工智能的发展过程深刻体现了生产力变革与技术实践创新的融合共生。正如马克思所指出的,“随着新生产力的获得,人们改变自己的生产方式,随着生产方式即谋生的方式的改变,人们也就会改变自己的一切社会关系”。生成式人工智能嵌入社会物质关系与意识形态观念的技术特性,决定了其大模型训练数据中潜隐的价值偏向,既根植于现实社会固有的结构性不平等,又通过数据权力再生产过程形成新的认知偏差。这一现象不仅激化了既有社会矛盾,而且削弱了主流意识形态在信息传播中维护社会公平正义的引导功能。可见,为了实现数据筛选的去等级化,一是要突破支撑这一机制的社会认知框架,二是要将技术理性批判与社会制度批判有机结合,强化主流意识形态对数据应用的价值引领。具体来说,在物质生产领域,推动数据治理赋能社会治理,通过统计模型系统分析训练数据的阶层分布、地域覆盖及文化特色,精准识别资本权力运作导致的边缘群体数据缺位问题。例如,可借助分布式的数据标注网络,吸纳多元社会主体共同参与数据采集与验证,以技术实践的真实性矫正数据认知的片面性。相应地,在意识形态领域,构建生成式人工智能伦理审查与主流意识形态的衔接机制,推动主流意识形态成为数据筛选的核心校验标准,从而将数据权力的话语垄断程序转化为主流意识形态教育的实践平台。如此一来,这一“防止人类在现存社会组织慢慢灌输给它的成员的观点和行为中迷失方向”的动态矫治机制,实现了追求数据配置效率的技术原则与维护公平正义的社会价值的辩证统一。
第三,坚持以人民为中心的算法逻辑,构建多元信息主体协同交互的融合机制。基于用户个性化标签的算法推荐系统,利用数据画像与行为追踪技术,形成了所谓的“信息茧房”。这一现象的本质,是资本逻辑将信息传播异化为价值增殖工具的技术表现。其表面上似乎迎合了用户的多元化信息偏好,实则却将用户禁锢于“一个封闭的意识世界”,或者说“一个由给定程序、规则和方法所明确界定了的有边界的意识世界”。在数字资本主义生产关系中,平台算法将主体倒置为数据对象,使其屈从于纯粹工具主义逻辑。这一异化机制通过将劳动过程量化并嵌入日常生活,将剥削作为一种社会关系“隐藏在‘玩’(play)的结构之中”,导致主体在看似自由的选择中沦为资本的附庸。同时,对于难以被度量或被转化为经济价值的意识形态观念,算法也通过“追踪我们的每一种情绪,并在我们的消费选择、人际关系和工作机会中不断地操纵我们”,侵蚀主体的理性思辨能力与公共交往的话语空间,“不制造帮助我们过上我们想要生活的产品,也不帮助我们成为我们希望成为的人。它们制造的产品是为了实现它们自己的目标,尽可能多地从我们身上获取数据以谋取利益”。要破解这种算法操控,关键在于打破平台资本对数据资源的垄断,解构算法霸权构建的信息认知体系,以此在算法系统中引入多元价值共融的协同治理机制。一方面,建立个人数字信息的公共转化系统,通过完善以社会效益评估为核心的算法权重调节规制,提升算法对多元价值内容的辨识能力与推送效能,最终推动用户行为数据转化为公共文化资源,避免其沦为资本垄断的私有财产。另一方面,打造多方协同的算法透明化监督体系,形成“政府监管—平台自律—用户参与”的三维治理构架,既要运用算法技术模拟不同社会群体的意见表达,又要求平台在算法中设置公共议题推送的固定比例,从而将算法系统转化为凝聚社会共识的技术载体,而非消解价值共同体的异化力量。这一治理范式既是对“机器,用马克思的话来说,就成了资本用来对付工人阶级的最强有力的武器”这一马克思主义政治经济学批判的当代回应,也是为算法民粹主义祛魅,进而走向算法民主的实践路径。
第四,面向数字治理共同体,实现技术民主驱动的全球数字平权生态。从马克思主义政治经济学的批判视角来看,生成式人工智能通过算法霸权与数据垄断篡改历史记忆,而深度伪造技术作为其具象化呈现,本质上延续了资本主义技术拜物教的逻辑体系以及西方中心主义的观念形态。当科技寡头将用户行为数据转化为可操控的符号商品时,其借助数字生产资料的垄断地位,既主导了意识形态的传播格局,又扭曲了劳动者对价值创造过程的客观认知,致使非西方文明的集体记忆被西方“普世价值”的话语叙事所收编,最终演变为西方数字文化的附属品。为应对这一“资本—技术”复合体及其技术专家治国论的意识形态挑战,安德鲁·芬伯格(Andrew Feenberg)提出技术民主化理念,“把用户、工人和副作用的受害者联系”起来,“赋予那些缺乏财政、文化或政治资本的人们接近设计过程的权力”。该理念的核心在于推动多元社会主体及其差异化价值观念注入技术设计环节,以实现技术专家的专业技能与利益相关者的体验诉求之间的动态调适,从而形成更具包容性的技术治理模式。从这一角度来说,强调技术应用与社会价值协同发展的技术民主化,与主张多元主体平等参与数字共同体建设的“数字平权”理念深度契合:二者的价值内核皆在于,打破技术资本对数字权力的垄断格局,推动以生成式人工智能为代表的智能技术和数字资源的开放共享。诚然,“追求幸福的欲望只有极微小的一部分可以靠观念上的权利来满足,绝大部分却要靠物质的手段来实现”。意识形态只有经由社会实践活动方能转化为现实力量;同样,技术民主化与数字平权理念的实现,也只有依托制度创新和协同治理的实践路径,才能有效遏制数字霸权主义,最终构建以人民为中心的数字文明新形态。从推进共同富裕的数字治理逻辑来看,在国内层面,核心工作是培育公众的数字素养,通过开展数字扶贫和数字教育等系统性工程,弥合群际、人际、代际和超人际(人机)之间的数字鸿沟。在国际层面,面对“全球人工智能博弈进入了话语权、规则制定权和治理权博弈的白热化阶段”的国际态势,需要倡导各国走独立自主的数字发展道路,建立利益攸关方共同参与的国际数字治理格局,以实现技术决策机制的民主化转型。这一推动智能技术与治理权利共生共融的治理体系,既是对数字技术赋能社会治理共同体建设的理论突破,又是我国作为人工智能领域的重要参与者,为全球技术伦理治理贡献“中国方案”的实践创新,从而为贯通国内数字平权建设与国际技术治理变革的双向互嵌,开辟了切实可行的发展进路。
生成式人工智能的意识形态风险治理与数字文明建设,归根结底是社会生产关系适应技术变革的系统性调整过程。面对技术进步受制于资本逻辑与政治伦理失衡的困境,既需要通过在人机交互界面植入社会主义核心价值观引导模块,以智能对话实现主流价值观的柔性传播;也要建立数据流动的动态监测系统,精准识别技术应用中的认知偏差;更要破除“信息茧房”与数据壁垒,构建多元主体协同参与的数字化公共空间。这些治理路径共同指向智能权利共享的技术民主化目标,即在保障劳动者数字权利的基础上,通过国际协同治理,实现智能技术“为人的解放作准备”而非“使非人化充分发展”的本质回归。这既是对马克思主义技术哲学的时代诠释,也是构建数字命运共同体的实践基础。
结 语
系统分析生成式人工智能在研发应用中的意识形态倾向及其潜在风险样态,本质上指向对人类主体与人工智能体如何共生共存的深度反思。当前学界的主流观点总体是乐观的。学者普遍认为,生成式人工智能只是“在特定领域内类似、等同或者超过人类智能/效率但不具备自我意识的机器智能”,作为效率工具的革命性突破,人工智能实质上仍是扩展人类主体认知的辅助系统,故而无法真正取代人类在劳动创造与情感交互中的主体地位。相反,以斯蒂芬·霍金为代表的持审慎立场的学者则相对悲观,担忧人工智能技术自主性的膨胀:“数以百万计的生物机器汇聚在一起的智能,也许某天可以与人类自己的创新能力相匹敌……人造世界就像天然世界一样,很快就会具有自治力、适应力以及创造力,也随之失去我们的控制”。这两种立场之间的辩证张力,实则反映出人机关系存在两种可能的发展路向:当生成式人工智能深度服务于资本运作逻辑时,其算法黑箱与数据操控能力可能演变为新型认知霸权;但如若回归“技术为人”的人本主义导向,则有望建构一种新的智能伦理新范式,让技术发展真正促进人类文明跃升。
习近平主席在致国际人工智能与教育大会的贺信中强调:“人工智能是引领新一轮科技革命和产业变革的重要驱动力,正深刻改变着人们的生产、生活、学习方式,推动人类社会迎来人机协同、跨界融合、共创分享的智能时代。”生成式人工智能作为人类劳动创造的高级成果,其技术伦理的终极价值,应始终聚焦于一个根本目标:确保技术创新始终服务于提升人类的主体性并彰显社会的公共性。为此,技术伦理不能只停留于抽象规范层面,而是要积极推动其转化为涵盖保障数字权利、尊重多元文化和维护全球正义的具体实践。唯有如此,生成式人工智能才能真正复归“是人的本质力量的对象化和现实化,是人的本质力量的实现和自我确证”的本质属性,从而避免沦为异化社会关系与认知结构的新型意识形态载体。
参考文献:
[1]习近平:《加快建设科技强国 实现高水平科技自立自强》,《求是》2022年第9期。
[2]殷杰:《生成式人工智能的主体性问题》,《中国社会科学》2024年第8期。
[3]周辉等:《人工智能治理:场景、原则与规则》,北京:中国社会科学出版社,2021年。