摘要:生成式人工智能已经表现出一系列类人属性,并凭借其广泛的场景适用性、强大的内容生成能力、便捷的交互方式及高度的自适应性等特征,引领着新一轮科技革命。其类人属性使其在特定场景下能够模拟人类的观点、思维和情感特征,并对社会结构和关系模式产生广泛而深远的影响。通过系统梳理近年来数字社会学领域关于生成式人工智能社会影响的主要研究成果与核心观点,以探讨大模型的类人属性为基础,深入剖析其在经济形态与劳动关系重塑、政治权力重构、文化生产与社会关系变革三大关键领域的潜在影响。可发现:生成式人工智能不仅为社会发展带来了前所未有的机遇,同时也揭示出一系列复杂的经济、政治与社会伦理挑战,亟需社会各界共同探讨并开展实证研究。
一、大模型时代下的数字社会学
大模型(Large Model,LM)是近年来人工智能领域的重要技术突破,指通过处理和学习海量数据训练出的复杂模型,这些模型通常由深度神经网络构成,并拥有高达数亿的参数规模。由于参数巨大,大模型呈现出一种独特的属性:能力涌现,即当模型的规模达到一定程度后,会涌现出小模型不具有的能力,进而表现出类似人类的智能。以新一代生成式人工智能大模型GPT-4o为例,正如Omni(全能的)一词所暗示的,与之前的版本相比,GPT-4o不仅能够处理文本输入,还能自如地应对音频和图像等多模态数据的组合,并生成相应的多媒体内容。这标志着人工智能发展迈向全能大模型的重要一步,也将新一轮AI竞争引入了“Her时代”。不可否认的是,社会和生活的各个方面正在或多或少地受到大模型的影响,从某种程度上说,进入大模型时代,是科技和社会发展的大势所趋。
与大模型概念紧密相连的是“人工智能生成内容”(Artificial Intelligence Generated Content,AIGC)或“生成式人工智能”(Generative Artificial Intelligence,GAI),主要指一种利用人工智能技术自动化生成内容的创新生产方式。生成式人工智能的发展并不始于今日,只不过早期大多依赖于固定的模板和严格的规则,生成的内容往往形式单一、缺乏灵活性,难以媲美人类创作。而基于大模型的生成式人工智能凭借其庞大的参数规模和强大的学习能力,能够从复杂的数据中自动提取模式、理解语义,并生成高度灵活、富有创造力的内容。这使得生成式人工智能不再局限于某一特定领域或单一任务,而是具备了跨领域、多模态的生成能力。在这些通用的生成式大模型中,大语言模型(Large Language Model,LLM)特指在海量文本数据上训练、专注于理解和生成人类语言的深度学习模型,是当前LM和GAI发展最成熟、应用最广泛的核心分支。尽管许多前沿大模型已具备多模态能力,但其强大的语言功能仍根植于大语言模型的技术内核。
本文的技术基础立足于基于大模型的生成式人工智能。较之以往的人工智能技术,基于大模型的生成式AI表现出以下突破性特点:第一,通用性。传统的人工智能模型往往专注于解决特定的分类、识别或预测任务,具有明显的场景和行业属性。而大模型凭借其强大的学习能力和泛化能力,不再局限于垂直领域,而是能够自主学习和适应不同领域的任务,实现更广泛的智能应用。这使得大模型成为迈向通用人工智能的重要一步。第二,生成性。生成式人工智能意味着AI技术从传统的预测和分类任务,向更为复杂的创造和生成任务转变。而生成的内容又会反过来影响和塑造使用者的观念和决策过程。生成式大模型的出现代表了一个全新的知识生产和认知机制时代的到来。第三,交互性。从简单的聊天框,到语音识别,再到多模态的交互,大模型突破了依赖程序语言与AI交互的技术壁垒,大幅降低了使用门槛,提升了大众用户的互动体验,扩大了模型的影响范围。第四,自适应性。大模型展现了出色的动态适应能力,它能够根据不同任务和环境,结合用户反馈的提示词和需求,不断进行自我优化与迭代,从而生成灵活的、具有高度个性化的内容。
数字社会学关注数字技术对社会结构和社会关系的形塑,以及数字技术的发展与应用如何受到社会环境的影响。作为一种新兴的数字技术,大语言模型不仅是一项技术革新,更因其类人属性而具备深刻影响社会运行机制的潜力。具体而言,大模型在认知、推理、语言、决策、情感等方面表现出与人类相似的特征,使其不仅是信息处理工具,更成为具有一定自主性的“智能代理”,能够在多个层面深深嵌入社会互动之中。因此,大模型对社会的影响在广度、深度、维度和方式上都可能呈现出超越以往数字社会学范畴的新特征,这不仅为数字社会学研究提供了新的研究议题,也呼吁着该分支学科在理论视角上的深刻转变,具体表现在:第一,社会行为层面,从“技术为工具”到“技术行动者”的转变。模型的类人性促使研究视角从将技术视为被动的工具或环境,转向将其视为社会系统中能模拟、甚至生成社会意向性的新主体,这要求我们发展超越人类中心主义的、新的行动社会学分析框架。第二,社会权力层面,AI的生成能力催生了一种独特的生成性权力。AI的生成能力通过算法直接塑造我们赖以认识世界的符号环境、知识体系乃至文化正当性,从而对社会结构和意识形态进行着更为隐蔽和底层的重构,这迫使数字社会学必须发展新的批判性工具,以揭示这种算法化知识生产背后的权力机制。第三,在社会关系层面,从“人类社会”到“人机共生社会”的转变。人与AI之间日益紧密的社会性互动正在侵蚀社会作为纯粹人类集合体的经典定义,催生了新的人机社会性,挑战着我们对社会联结、群体认同乃至情感归属的既有理解。这要求数字社会学要开始严肃地将非人类智能纳入其对社会秩序和共同体形成的核心分析之中,探索人机共生社会的基本形态与伦理法则。
图1展示了中英文核心期刊在社会科学领域内讨论大模型和生成式人工智能的相关论文数量变化,相关文章在2023年和2024年急剧上升,迅速成为研究热点,并表现出蓬勃的生命力。在中国,已有学者对大模型可能的社会影响进行了诸多颇具前瞻性的探索,包括生成式大模型如何赋能新质生产力和产业升级,生成式大模型的意识形态和对政治秩序的重构,生成式大模型如何重构人机关系和社会关系,大模型对知识生产和传播范式的革新,大模型可能带来的潜在风险及其治理对策等。但无论如何,基于生成式人工智能探讨其潜在社会影响的研究必须直面两个问题:其一,生成式大模型是否、以及在多大程度上具有类人的认知和行为方式?只有在理解其技术特质和属性后,才能对其可能产生的社会影响、影响的广度和深度进行更有根据的深入剖析。其二,西方学界在这一领域有哪些主要的研究成果和代表性观点?西方学者在大模型的伦理、社会风险等方面,已经积累了不少有价值的理论与经验,特别是开展了一系列场景下的实证研究。这些研究可以为生成式大模型对中国带来的潜在影响提供重要的观点参考,也更有利于以一种兼容并包的研究视角,通过相互参照,将其社会影响与中国的社会制度、文化特质、经济发展模式相结合,助力中国自主知识体系建设。
图1 中英文核心期刊相关论文数量变化
因此,本文通过文献回顾的形式,梳理和归纳近几年西方探讨大模型类人属性及社会影响的典型文章,以期推动国内外相关研究的对话,为未来生成式大模型的社会治理和相关领域数字社会学的发展提供参考。本文的章节安排如下:第二节讨论生成式大模型的类人属性,结合西方实证研究,从大模型与人类观点行为的相似性、大模型与人类思维的相似性、大模型与人类情感心智的相似性三方面总结大模型的类人属性。第三节结合大模型的类人属性,梳理生成式大模型的社会影响,从大模型下的经济、政治、文化、社会关系等方面探讨其直接应用价值之外的“意外社会影响”,以期为预见、理解和规范AI技术提供社会科学的参考。最后将对全文进行总结和展望。
二、生成式大模型的类人属性
大模型之所以能引发广泛而深刻的社会变革,其重要原因之一在于它们在认知行为等方面与人类高度相似,其类人的程度与方式,直接决定了社会影响的性质、范围与程度。广义上说,生成式大模型的类人属性可以理解为其是否以及在多大程度上具备类似人类的认知和行为方式,也因此涌现出了大量“机器行为学”的研究,通过让人类裁判区分人机的图灵测试,或者将大模型生成内容与真实社会情况进行对比,来衡量大模型在不同情境中的类人程度。更进一步,大模型的类人属性是一个多层次的复杂概念,根据已有文献,本文大体可以从三个层面加以理解:其一,行为结果模拟层面,大模型生成的内容在形式、风格乃至观点上与人类产物一致程度;第二,认知思维层面,在解决问题时,能否模拟甚至复现人类的思维路径或认知策略;第三,情感心智层面,是否具备自主意识、情感体验和语义层面的真实理解。因此,本节将从大模型与人类观点的相似性、人类思维的相似性、人类情感心智的相似性三个层面,来探讨生成式大模型的类人属性。
(一)大模型与人类观点的相似性
作为生成式人工智能,大模型输出的内容观点是否与人类观点有较大的一致性?部分研究对此进行了测试。一些研究指出,大模型能够很好地模拟人类观点和深层次的观念。比如在政治观点上,通过给定提示词让大模型描述不同党派的刻板印象,图灵测试分析结果显示,大模型不仅能在观点描述上与人类保持一致,并且在语言表达的情感语气、观点极端性和表达习惯等更深层次的观念维度上都与人类非常相似。同时,通过将现实调查数据中的样本基础特征(如性别、种族、年龄、地区、党派等人口学特征)作为提示词输入大模型,构建政治选民的虚拟“硅样本”,并让其投票。测试结果显示,大模型的政治党派投票选择与真实调查数据之间具有非常高度的相似性。
此外,强大的生成式大模型也可以作为裁判来模拟人类的评估倾向:以GPT-4为例,当它作为评判员评估其他大语言模型的表现时,能够很好地对齐人类偏好,其评价结果与人类判断的一致性超过了80%。进一步,大模型能否模拟人类行为决策?阿赫尔等人使用大语言模型模拟了社会科学中的经典行为实验,包括经济学的“最后通牒博弈”实验(测试公平感与决策行为)、社会心理学的“米尔格拉姆电击”实验(研究服从权威行为)、心理语言学的“花园路径”实验(考察句子理解过程)等。研究结果均表明大语言模型很好地模拟了人类行为并复现实验结果。
大模型与人类观点的高度一致意味着,社会科学研究者可以通过基于提示词或者角色特征的情景设定,使用大模型模拟人类样本的填答调查,也可以作为“硅人”在社会实验中模拟和探索人类行为,作为真实人类行为的代理,扮演不同背景的个体进行政策实验或模拟。但也有研究敏锐地指出大模型类人观点的适用条件:当问题复杂、模糊或隐含时,大模型在回答中表现出类似于人类的观点偏见;但在具有明确数学/概率性质的问题上,相比于人类有更少的偏见和更高的准确性,甚至在某些情况下可能表现出超出人类水平的“超准确度扭曲”。
要实现更贴近人类的模拟,不仅需要简单的观点或行为相似,还需依托于灵活多变的动态场景,在一定时间内展现连续的交互、反应及决策过程。例如,斯坦福大学构建了一种基于大语言模型的人类行为交互仿真系统——“AI小镇”,该系统由25个智能体组成,它们在虚拟环境中共同生活、工作并相互作用。每个智能体都能根据其个性化的角色设定,与其他智能体互动,同时具备观察、反思和规划自身行为的能力。同样地,其他研究也探索了利用大模型创建具备人性特征的代理,通过定义代理的基本需求(如饥饿、健康状况和能量水平)、情感状态以及人际关系中的亲密程度等因素,来调整智能体的日常生活活动和社交对话。其对社会科学研究的启发意义在于,长期以来研究者尝试使用仿真智能体模拟人类行为,但对智能体行为的设定通常是基于固定规则的,多个智能体遵循同一套规则和行为逻辑,也无法处理规则设定外的新情景。通过大语言模型对智能体行为的赋能,智能体能够通过交互,反思、计划自己的行为,并根据社会情景和他人互动对外部条件做出反应,实现更可信的人类行为模拟。然而,由于大模型在处理长期记忆等高级功能方面存在限制,为了确保AI代理能够在长时间跨度内维持行为的一致性和连贯性,相关研究还需要运用内存流等技术手段来增强智能体的记忆能力。
(二)大模型与人类思维的相似性
一些学者提出,大语言模型可以视为人类知识的压缩存储库,类似于图书馆或百科全书,但不具备人类的思考能力。换句话说,大模型是通过学习和训练大量数据获得了广泛的知识存储和检索能力,从而在某些方面表现出与人类相似的观点和行为。大模型是否能像人类一样思考?既有研究主要在大模型推理能力、创造力和理性等方面进行了测试。
1.大模型的推理能力。
类比推理被作为人类智慧和创造力的核心,主要指当面对不熟悉问题时,通过与相对熟悉情况的结构化比较,推理出新问题的能力。反映在机器上,则表现为模型能够在没有任何直接训练的情况下进行零样本推理新问题的能力。相关研究表明,大模型能够很好地完成矩阵推理、文本推理、语言推理和故事推理等类比推理任务,其在抽象模式归纳方面,大多数情况下能够匹配甚至超越人类的能力。然而,也有研究得出了不同的结论。例如,有研究利用大型模型对“爱丽丝有N个兄弟,她还有M个姐妹。那么,爱丽丝的兄弟有多少个姐妹?”这类问题进行推理,发现大模型在简单推理问题上存在重大缺陷。不仅如此,它还经常模仿推理的语气,提供虚构的内容来为其错误答案提供额外解释,用看似合理的推理过程掩盖缺乏依据的论点。在关于变量间因果关系的推理中,大模型也没有将有关潜在因果结构的信息纳入推理过程。
实际上,推理思维本身包含多个维度,且不同研究测试的目标和对象、采用的方法、聚焦的维度都存在一定的差异,因此,不同研究得出的结论也存在一定的差异。就GPT-3.5而言,在包括演绎、归纳、溯因、因果及时空推理在内的十个推理类别中,其平均准确率为63.41%,表明它在推理任务上的表现并不十分出色;特别地,其在算术推理、归纳推理、空间推理以及多步推理方面较为薄弱;相比之下,在类别推理、演绎推理、溯因推理、常识推理及时间推理等领域则表现相对较好。
此外,提示词的设计对大模型的推理能力也有着重要影响。提示词采用思维链(Chain of Thought)策略可以显著提高生成式大模型的推理能力和结果的可解释性。具体来说,思维链通过提示词在演示案例中列举出具体的推理过程,引导大模型将复杂的任务拆解为更小、更简单的步骤,从而更精确地理解问题的复杂性和推理过程。同时,通过在问题结尾添加“让我们一步一步思考”(Let’s think step by step)的指示,或对多个思维链过程采取多数表决的方式,均能有效引导大模型以逐步推理的方法获得更准确的答案。
2.大模型的创造能力。
根据广义哥德尔定理,智能有三个层级,算法智能、语言智能和想象智能,而想象智能被认为是最高级同时也最难实现的智能形态。生成式大模型是否具备想象力和创意?早期研究使用心理学替代用途测试(Alternative Uses Test)对ChatGPT创造力的测试结果显示,尽管大模型的创造性表现令人印象深刻,但无法达到人类的创造力水平。针对GPT-4进行托伦斯创造性思维测试(Torrance Tests of Creative Thinking)的结果显示,大模型不仅能产生大量且具有不同类型和变化的想法,也能够在原创层面产生独特的、意想不到的新想法,并且表现超过人类。
考虑到“替代用途测试”或“托伦斯测试”等公开的创造性测试可能因先前的暴露而给大模型带来潜在的测试偏差,使用新的创新性测试变得尤为重要。基于自定义的创造力测试表明,不论是大模型辅助人类工作,还是独立运作,其生成的内容普遍比人类在仅依赖网络搜索或不使用任何工具时创造的内容更具创造性。此外,大模型尤其擅长产生渐进式的新想法,而非彻底全新的想法,这意味着大模型是通过熟练地从数据库中组合各种概念,并将它们以一种连贯且清晰的方式相结合,来实现创造力的。
斯坦福大学的研究进一步澄清了大模型在创造力上的表现:大模型生成的创意在新颖性评分上高于人类专家生成的创意,但人类创意通常更具现实基础,优先考虑可行性和有效性,更符合现有研究和实践考量;相比之下,大模型在创意生成中存在实施细节过于模糊、数据集使用不当、做出不现实的假设、资源需求过高等问题。使用指导性提示词或者思维链提示词、为大模型赋予不同的角色、促使多个大模型之间对话合作能显著影响大模型的创造力。
3.大模型的理性决策。
理性决策能力用于衡量大模型是否能够综合考虑各种利害关系,在给定条件约束的情况下最大化某些预期效用的程度。在消费决策上,LLM能够生成与人类相似的消费者偏好决策,尤其是在估算产品特性和价格的支付意愿(WTP)方面;但其决策在反映不同客户群体的异质性方面仍有局限。同时,通过对以往调查数据的微调,可以进一步提高大模型产品偏好估计与人类消费者偏好的一致性。这种决策能力并非局限于经济行为,还延伸至高复杂度的专业规范领域。在法律层面,既有研究表明,生成式大模型在法律判决预测、法律推理等任务中已呈现出与专业法律人员高度相近的决策模式。尤其在多智能体法庭模拟中,大模型通过角色分工与博弈互动,能够形成符合法律推理逻辑的策略性论证结构,包括法律主张的提出、反驳路径的展开以及证据要素的组织与权衡,从而模拟真实法律行动者的理性决策过程。与此同时,大模型法律决策过程中的不透明性及训练语料所蕴含的规范偏向,可能放大既有法律偏见与结构性不平等,对决策公正性构成潜在挑战。
但大模型的决策与人类决策依然存在区别。有学者评估了GPT-3.5-Turbo在涉及风险决策(投资回报率与风险大小的权衡)、时间决策(即时满足与延迟满足的权衡)、社交决策(自我利益与他人利益间分配的权衡)和食物决策(不同食品偏好的权衡)四种情景下的决策时发现,大模型在决策任务中表现出高度的理性,并且相比于人类,其决策的理性程度甚至更高,同时表现出更高的同质性。此外,GPT-3.5-Turbo的决策过程在不同的人口变量中保持一致,这表明模型在决策时一定程度保证了在不同用户群体中的公平性和一致性,没有表现出算法偏见。进一步,有研究对GPT-3.5和GPT-4的风险决策的逻辑过程进行了分析,发现该模型在期望收益不等的测试中则更倾向于选择期望收益最大化的选项,而在期望收益相等的情况下,才会更倾向于选择更具有确定性的选项。这表明大模型很可能采用了一种分层决策策略:优先考虑期望收益,只有在期望收益相等时才表现出风险规避。
(三)大模型与人类情感心智的相似性
如果说观点和思维的模拟是个体性的,那么大模型在情感和心智层面的类人表现,则使其开始具备社会性的潜质。情感与心智能力并非孤立的内部计算,而是在社会互动中具有深刻的关系性和情境性特征:它们在特定的社会情境中被激发,其最终目的是为了理解他人、影响他人,并有效处理人际关系。当我们探讨大模型的情感心智时,实际上是在考察它作为关系伙伴的潜力,以及这种潜力将如何重塑未来的社会交往。
1.大模型的心智能力。
心智是指理解和推理关于他人心理状态(如信仰、愿望和意图)的能力,这种能力影响着我们如何解释和预测他人的行为,被作为人类社会互动的核心。近期在《自然人类行为》期刊上发表的研究对大语言模型的心智能力进行了系统性评估,重点考察了大模型在识别暗示(是否能够正确识别他人的隐含请求)、误导(理解他人持有的错误观点的能力)、讽刺(理解他人字面意思与实际意图之间的差异)和失态(社交中无意间让对方感到不适的行为)四个方面的表现。结果显示,GPT-4在识别暗示、误导和讽刺方面的表现与人类相当,有时甚至超过人类,但在检测失态行为方面则表现不佳。此外,相关研究通过测量大模型的情商(情绪理解测试)发现,大语言模型在理解不同情境中包含的情绪强度方面表现良好,尤其是GPT-4在情商测试中的表现超过了89%的人类,达到了人类专家的水平。
然而,评估大模型心智理论能力的方法面临诸多挑战。多数研究集中在特定维度上评估LLM的能力,而为LLM心智结果打分也存在主观性问题。更重要的是,许多测试是基于现有的数据集构建的,这意味着大模型可能已经在训练过程中接触过类似的数据,从而影响测试结果的准确性。因此,关于大模型是否具备人类心智理论能力的观点存在分歧。一些研究使用手工构建的测试方法发现,即使是最先进的大模型(如GPT-4)的心智能力也落后于人类表现10%以上,现有的大模型在情商(特别是情绪理解)方面存在困难,与普通人之间仍然存在相当大的差距。
2.大模型的人格。
大模型还能够在一定程度上表现出人格特征。基于大五人格问卷(OCEAN Big Five)的测试结果发现,ChatGPT-4的人格特征在开放性、外向性、神经质、责任心、亲和性五大人格维度上的表现与人类相差无几。在社会交往方面,大模型在涉及利他主义、公平信任和合作互惠等方面与人类高度相似,但在某些情况下会比普通人类表现得更加无私和合作。此外,用户还可以通过特定的提示词对大模型的人格进行定制化塑造。例如,有研究通过104个特质形容词和9个级别的强度来调整大模型的性格特征,结果显示,大模型的输出可以根据预期的人格方向进行个性化的调整,并进一步在相关下游任务中影响大模型输出。
(四)大模型类人属性的特征
总体而言,生成式大模型已经在观点、思维和情感心智等多个方面展现出一定程度的类人属性。但同时,大模型在诸多方面依然与人类认知和行为存在区别,具体表现在:在观点生产方面,大模型生产的内容相对来说具有更少的内容多样性和更高的计算准确性,导致在某些情况下出现观点的单一化和高准确度扭曲;在创造力方面,大模型虽然可以产生很多意想不到的新想法,但主要依赖于对已有信息的排列组合,而非真正基于灵感的创造性思维;在决策方面,大模型的决策过程更偏向理性计算,注重收益最大化,相对较少考虑风险、成本、可行性和潜在的情感因素;在社会交互方面,由于缺乏自主的情境感知力和长期记忆能力,大模型长时间、多轮次的交互往往高度依赖于提示词,导致行为决策不够连贯,难以保持长期的一致性。特别是在推理能力上,不同大模型的训练方式和不同的提示策略会对大模型的推理能力产生较大影响:目前大模型由于底层算法逻辑的不同存在推理模型和通用模型的区分,前者已经将推理思维内化至模型生成中,后者则更需要显式引导推理步骤来引导推理思维。当在模型缺乏相关信息的情况下,大模型会通过概率性选择生成内容,而非基于真实世界的知识库或逻辑推理,进而导致AI幻觉。
以上关于大模型类人属性的总结和讨论是基于特定模型、特定时期、特定的测试条件下得出的,大模型的类人属性会随着大模型的训练方式、提示词的训练方式、技术的发展周期等发生变化。另外,值得注意的是,尽管大模型表现出明显的类人属性,但其是否具备真正的理解能力、创造性思维或自主意识,依然存在广泛争议。正如一些学者所批评的,大模型在某种程度上可能扮演着一个“随机鹦鹉”的角色,能够熟练地模仿、拼接人类的语言模式,却无法理解其内容的真实语义与深层意涵。这一点在情感交互中表现得尤为突出。尽管大模型可以生成非常体贴、富有同理心的回复,但当前的人工智能模型从根本上缺乏真正感同身受的能力,它们既不能分享我们的痛苦,也不能分享我们的快乐,这与人类需要调动自身经历和情感资源才能产生的真实共情有着本质区别。然而,亦有研究给出了相反的观点,大模型内部存在着与稳定、可预测、且与人类高度相似的物体概念表征,并与人类大脑特定区域的神经活动模式高度一致。尽管如此,这些类人属性实际上已经可以在很大程度上代替人类工作,改变人们的信息获取方式、劳动力生产方式、社会交互方式、权力生产方式等一系列社会关系,进而对社会的经济、政治、文化和社会交往带来一系列影响和变革。
三、生成式大模型的社会影响
大模型的类人属性,正促使我们重新审视技术在社会中的本体论地位。它已超越了作为人类延伸的工具范畴,演变为一个能够在社会系统中模拟意向性、执行认知任务的社会类行动者。这一根本性的角色转变,是理解其如何深层次重塑社会结构的关键。首先,大模型凭借其类人的思维和信息处理能力,已不仅仅是被动的工具,而是能够自主执行复杂认知任务的脑力行动者。它将人类最核心的脑力劳动转化为可被大规模复制和部署的计算能力,这不仅引发了对传统职业结构的替代性冲击,更在根本上改写了生产模式中关于价值创造与分配的核心逻辑,引发对经济形态与劳动关系的结构性重塑。其次,大模型依靠其类人的语言表达与观点模拟能力,掌握了一种独特的生成性权力。这种权力并非作用于人的身体或行为,而是通过塑造社会的知识图景与符号环境,通过设定议程、生产事实和引导舆论,对意识形态和权力关系进行着更为精微与底层的影响和重构。再次,模型凭借其类人的创造力与情感交互能力,正日益成为人类社会交往的直接参与者,侵蚀着社会作为纯粹人类集合体的定义,推动社会向人机共生的形态演进。传统的社会纽带、情感归属和审美经验都在被重新定义,进而带来艺术、审美和社会交往的新变化。本节将以大模型的类人属性为基础,探讨其在经济形态与劳动关系重塑、政治权力重构、文化生产和社会关系变革三方面的潜在社会影响。
(一)大模型下的经济形态与劳动关系重塑
LM的核心特征在于自动化与智能化,它能够模拟人类的知识处理能力,如文本生成、信息分析和数据归纳,并执行复杂的认知任务。然而,相较于人类,大模型在物理执行能力、人际互动、深度推理和情感感知方面仍存在局限。因此,其对经济形态与劳动关系的影响将因应用场景的不同而呈现出不同的方式和程度,尤其表现在以知识加工为核心的生产和劳动领域。
1.大模型催生新的经济价值。
经济增长的核心驱动力来自生产力的提升,而生产力的本质是单位时间内完成的有效劳动量。大模型的自动化能力能够显著提高知识密集型任务的效率,从而推动经济增长。据麦肯锡研究预测,这一技术有望引发一场显著的生产力增长革命,预计每年将为全球经济贡献约4.4万亿美元的增值。生成式AI的影响将遍及各行各业,其中四大领域的价值增长尤为突出:客户运营——通过智能化服务提升效率、缩短响应时间并促进销售;市场营销——涵盖广告创意生成、个性化搜索推荐及营销效果分析;软件工程——涉及编程、错误修正与系统架构设计;产品研发——包括辅助研发设计、改进模拟和测试。预计在广泛使用生成式人工智能的未来十年内,全球劳动生产率将提升约1.5%,全球经济增长率将会提高7%。
然而,值得注意的是,尽管生成式AI正成为推动经济发展的新动力,但其带来的数字鸿沟问题不容忽视。高收入国家或发达地区因具备更完善的基础设施、先进的科技环境和良好的使用条件,往往能从中获益更多;相反,低收入国家或欠发达地区可能因缺乏必要的支持而难以充分利用这项技术,从而加剧了这些地区与发达地区的生产率差异。此外,尽管大模型可能带来劳动生产率的增长,回顾过去几十年间信息技术的发展历程可以发现,技术变革导致的工作岗位流失速度通常快于新就业机会的创造速度。若生成式AI的影响模式与此前的信息技术变革相似,则短期内对劳动力需求的直接影响可能是负面的。
2.大模型影响劳动力市场。
大模型自动化与智能化的加速也意味着对部分职业的替代风险,由于其类人属性主要表现在认知领域,大模型将对不同知识密集程度的职业产生不同的影响。一直以来,劳工研究的主要观点认为,技术的发展通常对技能水平最低的体力劳动者冲击最大。但关于大模型对劳动力市场影响的研究表明,高学历、高收入的白领工作更可能受到大模型等AI技术快速发展的冲击:从影响的行业分布来看,法律服务、市场营销、证券金融和信息处理等行业受到的冲击尤为显著。从影响的职业分布看,知识密集型工作,特别是文书类工作受到的影响最大。编程、写作等技能与大模型的暴露程度呈强烈正相关,同时也包括各类电话营销人员和中高等教育教师。考虑到大模型相比人类缺乏物理执行能力,同时并不擅长处理复杂的情境感知任务,涉及物理操作或高度依赖人际互动和情境感知的职业更不容易被替代,具体包括:第一,体力劳动者;第二,从事同时涉及多种任务的工作的劳动者,特别是工作内容涉及与他人沟通和管理等软技能的劳动者;第三,从事个性化服务的劳动者,因为人们更愿意付费让人类而非机器人来满足自己的需求。
除了探讨影响的对象外,相关研究还分析了生成式大模型对劳动力影响的具体方式。大模型的使用将不可避免地带来工作数量减少、失业和工资下降的问题。当大模型能完全复制并代替劳动者时,其与人类的关系是替代性的,这时劳动者的边际价值会被降低,带来更大的失业风险;而当大模型能够增强劳动能力,也即作为生产力工具与人类构成互补性关系时,意味着人们对于价值创造仍然是不可或缺的,并且在劳动力市场中保留议价能力。而大模型是替代或互补关系的本质根源依旧在于不同职业涉及到的物理操作、人际互动、深度思考和情感感知程度。研究发现,在写作领域,大模型主要通过替代工作者的努力来提高生产力,而非补充工作者的技能。大模型的发布对写作相关职业的自由职业者的就业和收入产生了显著的负面影响:平均月工作数量减少了2%,月收入减少了5.2%。然而国际劳工组织的分析报告显示,除了文书工作外,大部分工作和行业只有部分暴露于自动化,工作更有可能被大模型补充而非替代,但这依旧可能影响低收入国家10.4%的就业和高收入国家13.4%的就业。
大模型对劳动力市场的冲击,在不同区域、不同群体间存在异质性,进而对劳动力市场具有不同程度的影响。就不同国家而言,大模型对高收入国家的影响明显要高于低收入国家,在低收入国家,总就业人数中只有约0.4%可能被大模型替代,约10.4%的就业会被大模型影响,而在高收入国家,这一比例上升至5.5%和13.4%。就不同性别群体而言,受大模型影响的职业女性比例是男性的两倍多。其具体原因在于,在中高收入国家的职业结构中,白领工作(例如秘书、会计、记录员、银行出纳员、收银员)占比较高,这些类型的工作更易于受到自动化技术的影响;同时女性同样由于更倾向于从事上述相关白领工作,在面对大模型的冲击时可能更加脆弱。
3.大模型与职业不平等。
生成式大模型可能通过改变已有的职业结构,弥合或者加剧职业不平等。一方面,部分研究表明,大模型的应用将有效弥合现有职业分工中的不平等。在写作任务中,使用生成式大模型能显著提升劳动者的工作效率,特别是对于写作技能相对较低的个体而言,增益效果尤为明显。类似地,在法律领域,大模型辅助对法律任务输出质量的改善并不均衡,技能最低的参与者得到了最大的改进。通过帮助低技能工人提高生产力,大模型有助于缩小生产力的分配差距,促进职业中的平等。换言之,对于大模型能够胜任的任务,大模型可以显著缩小不同水平劳动者之间的质量差距,从而减少了工人之间的不平等。
另一方面,部分研究认为大模型会进一步加剧职业内部的不平等。研究发现,尽管ChatGPT的发布会导致写作相关职业的工作数量和收入下降,但这种下降在过去交易量相对较高或质量标准较低的对象中尤为明显。对ChatGPT的采用使得女性和低收入员工使用该工具的可能性较低,进而加剧了现有的劳动力不平等。在同一个职业内部,已经占据较高职位的人不容易被替代,而初入职场或者职业地位较低的人则面临更高的威胁。原因在于:职位较高的人往往所执行的任务更加多样化,工作内容涉及更多的人机互动软技能,如组织管理和沟通能力,从而降低了被大模型替代的可能性。此外,高职位工作者的经验和专业知识使得人们更愿意支付额外费用与他们进行面对面交流。这可能导致职业内部的晋升阶梯正在消失,阻碍低职位劳动者的向上晋升路径,进一步加剧职业的两极分化。
(二)大模型下的政治权力重构
由于大模型能够模拟人类的信息处理能力,像人类一样进行信息生成与传播,对他人产生影响,而这本身就蕴含了某种权力。根据法兰克福学派的观点,科技并不是价值中立的,而是具有明确政治意向性,能实施全面控制的意识形态。而由于其本身具有非政治性,因此表现为一种更全面、更难以抗拒和更不易察觉的新型意识形态。大模型的信息生产过程主要受到三个层次的意识形态的塑造:第一,互联网内容创作者。大模型的训练数据来源于互联网,其内容本身受到创作者群体的意识形态影响;第二,国家意识形态。大模型的核心技术和基础设施主要由少数几个科技强国掌控,也蕴含着国家的政策、法律体系以及意识形态;第三,高科技公司的算法导向,大模型技术提供商在道德伦理规则、内容审核标准以及算法优化方向上具有一定的价值取向。大模型以交互友好的形式参与到人们的日常生活中,也正在影响和形塑个体行为,并导致政治权力关系的重构。
1.大模型重构算法权威。
由于大模型具备语言生成能力,并能模拟人类的表达方式、语气和推理逻辑,大模型可能导致传统权威的消解,并通过语言或者平台行使算法权威。算法权威是指算法在未提供充分证据的情况下,依然能够指导和影响人类行为的能力。随着生成式大模型开始部分取代搜索引擎和维基百科等传统信息来源,人们可能越来越倾向于相信算法建议而不是人类建议,这将直接导致两方面后果:第一,大模型通过算法权威直接影响人们的认知甚至行为。相关研究显示,与固执己见的语言模型共同写作会影响用户的观点。其二,大模型通过嵌入其他平台隐秘地影响关键决策,行使算法权力。大模型可以通过API接口和插件的形式,集成到社交媒体、电子商务、客户服务以及内容创作平台等不同场景中,自动化地进行相关决策。与传统技术不同,大模型不需要关于如何行动的详细指示,因此它们的决策自由度是前所未有的,也增加了其潜在的影响力和不确定性。例如,尽管证明大模型擅长被作为定价代理,但却可能在定价时造成算法共谋,损害消费者和公司的利益。
2.大模型的偏见与意识形态。
大模型的类人属性意味着它不仅能够模仿人类的语言和逻辑,还会表现出偏见、价值观和意识形态,然后通过信息的生成和传播进一步放大偏见和意识形态。相关研究总结了大模型在性别、种族、文化、语言、内容推荐、商业等方面存在的23种偏见。此外,大模型本身带有明显的政治意识形态。例如,ChatGPT对美国民主党、巴西卢拉和英国工党表现出重大和系统性的政治倾向,这可能损害政治机构的公众形象,并破坏选举过程的完整性。总的来看,大模型更倾向于表现出偏左的观点,支持环保和左翼自由主义的政策立场,如支持对飞行征税、限制租金上涨和合法化堕胎等政策。这些倾向可能与左派政治支持者更积极地在网络上发表言论,而这些言论又成为大模型的训练数据来源有关。
比起错误和偏见,更加严重的是对大模型的恶意使用,这使得基于特定目的的人为操控变得可能。例如,大模型可以通过人工合成虚假信息来制造虚假的“多数意见”,进而误导公众,影响舆论,或者人为抬高股价,甚至煽动大规模的种族歧视和暴力行为。一个典型的案例是微软推出的Tay聊天机器人,在发布不到24小时的时间里,Tay就被恶意调教成了一个发表种族主义和厌恶女性言论的工具。由于通过少量数据就可以影响大模型的态度和意识形态观点,将政治倾向嵌入到大模型中,随后进一步被传播放大成为可能。这些过程使父权制度、殖民主义、种族主义、白人至上主义和资本主义压迫的历史结构进一步强化,相对边缘的对象和社区可能会承受着负面的影响和压迫。
然而,也有文献指出,生成式大模型并非固有地带有文化偏见。相反,观察到的偏见或文化倾向可能源自大规模文本数据本身所反映的现实世界文化特征。例如,研究表明,当使用中文与GPT-4或ERNIE进行对话时,生成的内容倾向于具有更多的相互依存性和整体性认知风格,注重社会和情境特征。而使用英文进行对话时,生成内容则更多集中在个人独立和焦点对象上。这一差异与所使用的语言密切相关,而与使用的大模型无关。这表明大模型的文化倾向并非单纯取决于其本身是否为西方的GPT-4或中国的ERNIE,从而挑战了大模型具有西方偏见的普遍性观点。
3.大模型下的数字殖民与技术平权。
一方面,通过控制数字基础设施,中心国家能够从边缘地区攫取数据资源,并反向输出塑造其社会、经济与文化生活方式的数字服务,形成新的数字殖民。大模型的开发与部署高度依赖于资本、算力和数据,导致其核心能力天然地向少数科技强国集中。大国通过收集和分析大量用户数据,形成对信息流的控制,影响其他国家的经济和社会发展;发展中国家往往依赖于发达国家提供的技术和服务,这可能导致其自主权的降低和对它国经济依赖的加深。此外,技术强国的公司在开发大模型时,往往会无意中将本国的政治、经济和社会价值观嵌入模型之中,间接影响当地的政策制定、社会认知和文化认同。这可能导致发达国家对全球的数字殖民效应:通过控制数字生态系统,这些国家掌握了以计算机为媒介的用户体验,从而在政治、经济和文化生活领域获得了直接的权力,形成新的“帝国控制”。另外,大模型的发展也进一步导致巨型科技公司的权力垄断。大模型的发展趋势正在加速垄断并加深整个经济对超大规模人工智能公司的依赖:只有少数机构才有能力进行计算密集型研究并生成大模型;小型科技公司由于在规模、计算和内存等方面的限制,只能转向使用大型科技公司提供的云端基础设施或者API接口。这种垄断格局使得数据、计算能力和经济收益进一步向少数技术巨头集中,形成新的数字资本主义。随着大模型在更多行业的渗透,数字资本主义的力量可能进一步扩展至金融、医疗、教育和政府治理等关键领域,影响重要决策。
另一方面,仍有学者注意到大模型带来技术平权的可能性,尤其是其开源技术和全球协作模式的发展,反而可能成为打破技术壁垒、赋能边缘群体的潜在工具。以Qwen、DeepSeek、Llama等为代表,这些性能卓越的开源模型被无偿提供给全球的开发者和研究者,从根本上打破了少数公司通过API接口实现的技术垄断,将权力从模型的所有者下放给了广大的使用者和改造者,并通过促进竞争、加速创新和分配权力来造福社会。发展中国家的中小型企业或研究机构无需投入天价成本从零开始训练,而是可以将强大的基础模型下载到本地,利用自有数据进行微调。这一过程不仅能有效保护本地数据的隐私和主权,缓解单一文化和市场集中度,更重要的是,它允许将本土的文化、语言习惯、伦理规范和商业需求深度嵌入模型,创造出真正服务于本地社区的AI应用。一个典型的例证是肯尼亚的非营利组织Jacaranda Health,他们利用Llama2开源大模型,成功开发出针对本地孕产妇的斯瓦希里语健康问答服务,允许将本土的文化、语言习惯、伦理规范和商业需求深度嵌入模型,真正实现了技术的普惠。
4.大模型下的社会治理。
大模型不是一个简单的产品或者一次性服务,而是一个多环节,在不同环境中连续运作的系统,其可能带来的风险很大程度取决于大模型的使用领域和对象,这对治理和监管带来了更大的挑战。有研究基于36份重要的人工智能文件内容归纳了人工智能管控的八大共识性原则:隐私、问责制、安全保障、透明度和可解释性、公平和非歧视、人类对技术的控制、职业责任以及人类价值观的弘扬。而模型的可解释性和算法透明度是公共问责、科学创新和有效治理的重要前提,可量化和计算的模型可解释性或透明度指数有助于通过制定行业标准和监管干预措施推动模型治理的进步。从监管的对象上看,针对大模型的监管和治理至少涉及到开发者、部署者、用户和接受者四种对象,大模型的反歧视应该在上游的开发和部署的过程中解决;由于对上游开发实施普遍的严格标准可能带来监管资源的浪费并不利于小企业参与竞争,因此监管重点应该转向部署人员和用户,特别是高风险应用,而不是预训练模型本身;而下游则可以允许特定用户群体参与和标记内容审核。实践层面,2024年欧盟发布了世界上第一部全面的人工智能行动法案(The EU AI Act),主要基于风险的大小对人工智能提供商和部署者规定了不同的权利义务范围,如教育培训、就业、公共服务等应用场景被定义为高风险,需要受到重点监管。早在2022年欧盟已经针对人工智能发布人工智能责任指令(AI Liability Directive)和产品责任指令(Product Liability Directive),尽管受到了较多的争议,但这一系列法案很有可能引发人工智能监管的“布鲁赛尔效应”,成为其他国家制定法案的参照对象。
(三)大模型下的文化生产与社会关系变革
大模型的创新性和交互性使其在文化生产和社会关系变革中也发挥着重要作用。大模型不仅能够生成符合特定风格和语境的内容,还能基于用户的个性化需求进行动态调整,从而深度参与文化创作过程,并在一定程度上塑造人们的审美偏好和价值观。而其类人交互能力也正在深层次上塑造人类社会关系。
1.大模型的个性化内容生产。
大模型的类人属性使其能够比传统算法更精准地理解和适应个体的心理特征,从而实现高度个性化的内容生成。不同于基于数字行为来识别用户个性特征并据此推送相关联的内容,大语言模型能够在输入信息极为有限的情况下有效识别交互对象的心理特质,并实现规模化个性化信息的生成。此外,其生成内容不仅仅局限于文本内容,它还能拓展至视觉与听觉内容的创造,极大地丰富了个性化内容生产的表现形式。这种类人的理解和互动模式使得大模型生成的个性化内容在吸引力和影响力上远超传统的信息分发机制。研究表明,相较于非个性化消息,通过大语言模型定制化生成的内容对用户的吸引力显著增强。这暗示着大模型的个性化内容生产在多个领域具有广泛潜力,包括但不限于广告营销、新闻推送、政治演说、定制教育及价值观倡导等。然而,大模型的个性化内容生产也可能带来一系列负面的社会影响:它更容易迎合用户的既有认知,“回音室”效应可能因此被进一步强化,导致个人的认知封闭和观点极化;定制广告容易出现引导性广告营销,操纵消费者行为,助长过度消费;加剧社会意识形态偏见,带来不正确的价值观引导等。
2.大模型影响文化多样性。
大模型的类人创造力使其能够模拟人类的写作风格、艺术表达和叙事逻辑,特别是对于缺乏创造力的作家,进而帮助个体产生更多样、更具创造性的内容输出。然而,从宏观层面看,大模型生成的内容却存在文化同质化的风险。由于大模型是基于大规模已有数据学习和排列组合而来,其生成的文本、故事、艺术作品往往遵循统计学上的概率模式,而非激发真正的创新。研究指出,与人类单独撰写的故事相比,大模型驱动的故事之间彼此更为相似,即集体多样性、新颖性的减少:当个体作家发现,经由生成式人工智能辅助的创作获得了更多的认可或更高的创意评价,他们就会倾向于依赖这类工具进行后续创作。而随着越来越多的作家使用相似的生成模型,内容生成的模式和风格也趋于一致,导致作品的新颖性和独特性下降。这类似于“公地悲剧”的效应:虽然每一个个体在短期内都从生成式人工智能中获得了便利,但从长远来看,整个文化领域的创新空间和多样性却被逐步侵蚀。
3.大模型促进艺术审美革新。
大模型的类人创造力不仅改变了艺术创作的过程,也正在从深层次上重塑艺术家的角色与美学标准。一方面,大模型的创造力正在重塑艺术家的角色。大模型不仅提升了创作者的生产效率,还使得艺术创作更加民主化,普通人也能借助这些工具表达自己的创意,参与到文化生产中来。同时,艺术家不再仅仅是作品的直接创造者,而可以成为人工智能生成创意的引导者和策划者。在这种新的创作关系中,艺术家与作品的距离被拉大,艺术创作的独特性和个体性可能会被削弱,从而引发关于艺术价值和审美标准的重新审视。另一方面,大模型生成的作品也将重塑美学标准。在这一过程中,新的艺术形式和风格不断涌现,挑战了传统的美学标准,并促使艺术家思考如何与技术相结合以创造出更具创新性的作品。这种技术变革并不意味着艺术的终结,正如摄影技术的兴起并没有取代绘画,反而引起了新的美术革命。然而,审美革新的同时也引发了一些争议。例如,创作过程中的“作者性”问题变得模糊,艺术作品的独特性和原创性可能受到挑战。
4.大模型重构社会关系。
大语言模型在知识、观点和情感输出上的类人能力,正在重构社会关系,可能引发社交关系的去人际化,并促使社会关系从“知识驱动”向“情感驱动”转变。传统上,知识和技能在社会交往中占据着核心位置,个体通过提供专业知识或帮助来建立社会联系并获得认可。但随着大模型大规模自动化处理信息的能力日益增强,知识和技能的稀缺性逐渐降低,人际关系与社会认同的重要性则愈发凸显。换言之,满足他人心理和情感需求的能力正在取代以往依靠知识交换来获得社会认可的方式,使得个人的品位、情感表达和社交互动在社会交往中的地位将变得更加重要。例如,有研究表明大语言模型可能部分甚至完全取代在线知识社区,特别针对以纯粹信息交换为主要目的的在线社区,因为用户会转向大模型寻求所需的信息,而非通过在线社区的人际互动来获得。这种社交关系的去人际化可能进一步带来负面影响:建立和维护人际关系的机会变少,而许多核心活动,比如团队协作、求教与指导、寻找就业机会等,都极大地依赖于丰富的人际互动。此外,如果这类变化也在正式机构和职场环境中出现,可能会引起组织内部的归属感减弱、同事间的学习交流减少、职业生涯发展的机会受限以及创新能力的下降。
四、结语:大模型时代下的社会学研究
随着生成式人工智能,尤其是大语言模型的飞速发展,全球社会正迈向一个前所未有的新时代。大模型由于在一定程度上具备类人的知识处理与推理能力、语言表达与信息传播能力、创造力、情感模拟与个性化交互能力,使其很可能超越了传统技术工具的范畴,成为社会结构、经济模式、政治权力和文化形态变迁的关键变量。Nature Human Behaviour曾发文呼吁构建一种新的社会学框架——人机社会学,以系统地考察人类之间、人机之间以及机器之间的互动,并以此来理解人类与机器相互依存的复杂社会系统。本文在探讨大模型类人属性的基础上,系统梳理了大模型在社会各个层面的多重影响,涵盖了机器行为学、新型经济形态的构建、政治权力的重塑、组织结构的变革以及文化生产的革新等方面。总体而言,大模型为社会发展带来了新的机遇,在推动社会进步、提升生产力的同时,也揭示出一系列复杂的伦理和社会问题,亟需学术界与社会各界共同探讨与应对。
伴随着技术的发展,大语言模型等生成式人工智能的影响会逐步渗透到个体生活的方方面面。作为研究者,我们的使命是充分运用社会学的想象力,将这些看似分散的个人生活体验上升到社会结构的宏观层面,洞察其背后更深远的社会机制。在全球范围内,关于大模型对社会潜在影响的研究已取得了丰硕成果。与此同时,中国作为全球数字技术创新的前沿力量,在大模型和人工智能等技术的应用与发展方面也走在了世界前列。然而,尽管理论探讨和观点创新层出不穷,基于各类具体实践场景的实证研究仍显不足。面对大模型时代带来的新变化、新机遇和新挑战,本文呼吁学界同仁共同开拓一系列更具体和深刻的研究议程。
第一,在研究视角上,主张在社会行动、关系与权力三个层面寻求革新。首先,在社会行动层面,要超越人类中心主义的分析框架,将大语言模型视为能够模拟人类观点行为的新主体,并将其纳入社会行动理论的核心,探讨其能动性如何与人类行动者相互塑造,共同构成新的社会事实。其次,在社会关系层面,大模型正推动着人机共生社会的到来,这不仅是人与机器的频繁互动,社会联结的基础、情感寄托的对象和身份认同的来源都有可能正在发生转变。最后,在社会权力层面,大模型通过大规模生产和定义我们赖以认识世界的符号与知识,深刻地介入了社会事实的建构过程。这要求社会学发展出一套新的批判性话语,用以分析这种权力如何作用于公众的认知框架,并以更隐蔽的方式完成意识形态的再生产。
第二,在研究方法上,亟待从学理探讨迈向严谨的实证分析。面对不断迭代的大模型算法,研究者应紧跟技术发展步伐,理解其观点、推理和决策逻辑的形成过程。在研究设计上,应着手进行更全面的数据收集,并优先采用准实验设计等严谨的因果推断方法,以建立大模型社会影响的清晰因果链条。在分析方法上,应充分利用前沿社会计算方法,高效处理多模态、多来源数据,揭示算法与社会行为与结构之间的关联及演变规律。此外,大模型本身亦是数字社会学研究的有力工具,可创新性地利用其类人属性,辅助进行数据分析、开展模拟实验与社会仿真,从而更精准地解读和预测数字技术对社会结构的潜在变革。
第三,在研究视域上,主张立足中国本土,将宏大叙事与具体国情深度融合。与西方社会不同,中国独特的社会结构、文化底蕴和治理机制,决定了其在接纳与应对大模型等数字技术时,必将展现出差异化的路径与样态。因此,在推进中国式现代化与构建自主知识体系的进程中,未来的研究必须植根于中国大地。这意味着,需要将大模型带来的社会影响,嵌入到诸如超大规模的人口结构与流动、世界级的城市化与城市群建设、上下五千年的历史文脉、深度的乡村振兴与基层治理创新,以及从脱贫攻坚迈向共同富裕等重大而独特的中国式议题中去,从而提出具有中国特色、能够回应中国问题的原创性洞见。
第四,在学科融合上,倡导打破学科壁垒,构建跨学科融合的开放研究生态。大模型技术的复杂性和社会影响的广泛性,决定了任何单一学科的视角都难以把握。理解生成式人工智能的影响并围绕它制定政策,需要对文化、经济、法律、算法以及技术与创造力的相互作用进行新的跨学科探究。因此,未来的社会学研究必须倡导学科交叉,突破传统的学科藩篱,与人文学科、社会学科、计算机与人工智能等不同学科进行跨领域的合作与融合。
限于篇幅,本文对相关领域的探讨难免挂一漏万。然而,大模型对社会的影响无疑是一个长期、深远且极具本土特色的议题。未来,这一领域必然会有更加广阔的探索空间,呼唤着更多学界同仁的共同参与与集体智慧的碰撞。唯有如此,我们方能在这场技术与社会的深刻变革中,构建出符合时代需求的学术理论体系,并为人类社会的持续进步提供坚实的理论支撑与实践指导。
〔本文系国家社会科学基金重大项目“国家治理视角下基于数智方法的社会风险评估与应对”(24&ZD168)、中国博士后科学基金特别资助“人工智能方法在社会科学中的应用与分析范式研究”(2025T180703)的阶段性成果〕
陈茁,南京大学社会学院助理研究员;陈云松,南京大学社会学院教授、南京大学中华文明数智创新实验室首席专家。
本文载于《学术月刊》2026年第2期。