石英:知识社会学视域下的人工智能:原理、功能及影响

选择字号:   本文共阅读 786 次 更新时间:2025-06-22 11:21

进入专题: 知识社会学   人工智能  

石英  

摘要:人工智能(AI)革命不仅仅是科技革命、产业革命,也是一场知识生产方式的革命。AI发展由基于符号逻辑的演绎推理到基于概率的归纳推理路径,恰是人类认知的逆向过程。机器学习算法模型可以被视为AI的工程原理或技术原理,但不构成其科学原理。AI感知识别、推理判断、生成创造等能力都是基于相关关系的数学计算,与基于因果关系和直觉感悟的人类智力有着本质的区别,且不可逾越。AI只能作为工具而不可能替代人的智能。AI造福人类的同时,其生产的伪知识和信息垃圾也会深刻影响真实的物理世界。AI时代出现的“职业极化”和“数字鸿沟”,将有可能使我们致力建设的“橄榄型”社会演变为“哑铃型”社会结构形态。面对AI引发的社会结构变革,社会治理体系亟须从“被动回应”向“主动适应”转型,构建“技术—制度—人文”协同发展的新型治理生态。AI带来的人机关系异化、人性尤其情感能力退化值得高度警惕。AI发展也通过拓展知识范畴、整合知识结构而不断推动知识社会学的研究向纵深扩展。中国特色知识社会学有必要走出传统的STS路径依赖,让“科学”回到更具包容性的“知识”,打通横亘在“科学”与“人文”之间的壁垒,推动技术形态的人工智能融入社会学的知识形态,使之与政府、企业和公众形成良性互动,并以此贡献于数字智能社会的中国自主知识体系建设。

关键词:人工智能 知识社会学

科学社会学 人机关系

一、引言:从“知识社会学”到“科学社会学”

知识社会学是研究知识如何在社会中形成、传播和演变的社会学分支学科。这里知识的含义包括思想观念、意识形态、哲学宗教、文学艺术、科学技术等方面。知识社会学试图揭示这种广义的知识与社会群体、文化制度、历史情境、时代精神、民族心理等社会文化之间的联系,以及这些社会文化因素是如何影响知识的产生和发展。

1924年,德国社会学家舍勒在《知识社会学的尝试》一书中首先使用了知识社会学概念。早期的知识社会学深受德国古典哲学的影响,把知识作为一种精神现象和认识成果,主要用思辨的方法,从本体论和认识论的视角,研究知识与社会存在的关系。后来,以美国社会学家默顿为代表提出的“科学社会学”把科学知识作为专门的研究对象,试图从总体上描述科学的社会功能,关注科学的社会建制和科学共同体的社会结构,形成了独特的经验研究方法,使其成为一门独立于哲学的经验学科。然而默顿的“科学社会学”较少深入探讨科学知识本身的社会建构过程,一定意义上仅限于科学的外史。20世纪70年代中叶,在英国爱丁堡大学诞生了“科学知识社会学(SSK)”,主张用社会学的视角和方法对科学知识及其成因进行研究,并在如何看待科学的方式上发动了一场观念变革,成为知识社会学影响较大的主流学派。然而也由于其一些观点表述较为偏激,而被科学界不少人指责为“相对主义”,甚至被扣上“反科学”的帽子。此外,在欧洲大陆还产生了以人类学方法研究科学家群体及其科学实践活动的巴黎学派。而在美国,默顿开创的“科学社会学”传统得到发展,形成更为务实的跨学科专门领域——“科学技术与社会(STS)”,并在制定科学和产业政策方面发挥了重要作用。简单追溯知识社会学发展演变历程,可以看到其几乎一开始就将“知识”限定为“科学知识”,实际上形成了分别源自欧洲和美国的SSK与STS两大学术源流和研究传统,二者在具体研究方法和理论观点上也有不少分歧甚至对立,但其共同点都是将科学知识生成与人类社会发展紧密联系,以二者的互动互构作为基本理念和分析框架。

当下,人类社会已进入到一个过去难以想象的知识经济、数字智能时代。人工智能(Artificial Intelligence,AI)作为当代科学技术发展前沿,引领着第四次工业革命,成为国际竞争的焦点,也是普罗大众社会生活中关注的热点。在此背景下,技术形态的人工智能迫切需要提炼和转化为社会学的知识形态,使之不仅仅停留于少数科学家和企业家的小圈子,而是能够与政府、企业和公众形成良性互动,推动中国数字智能社会建设。这就是本文尝试以“知识社会学”为视角,对人工智能的基本原理、功能应用和社会影响进行跨专业探讨的缘由。

二、原理:机器学习与“暗知识”

1.从符号逻辑到机器学习

人工智能是计算机科学的一个分支,是研究和开发利用机器模拟延伸人的智能的理论、方法及应用系统的一门技术科学,其目标是研发具有类似人脑功能的能够解决特定问题或提供特定服务的计算机硬件系统及其软件模型。1936年,英国数学家图灵发表《论可计算数及其在判定问题中的应用》一文,提出了可以进行逻辑运算和推理的通用机器模型,计算机科学的理论基础由此奠定。1945年冯·诺依曼发明了程序存储架构计算机,使得图灵计算机理论模型得以实现,世界上第一台电子计算机于1946年在美国宾夕法尼亚大学研制成功。1949年英国剑桥大学制成存储程序计算机。1956年由明斯基、麦卡锡、香农等科学家组织召开的达特茅斯会议,被认为是计算机和人工智能作为一项专门研究领域和一门学科创立的标志。从二战期间开始研发到20世纪90年代家用电脑开始普及,历经半个世纪。电子计算机由电子管、晶体管到集成电路芯片,按摩尔定律飞速演进,从楼房大小的庞然大物发展至几乎人人拥有、须臾不可离开的手机、平板等各种类型个人电脑终端。

计算机硬件只能处理二进制数据,所谓“处理”其实就是“计算”,就是符号逻辑推演。数理逻辑演绎推理是人工智能早期思想,认为只要解决了自然语言处理即符号化问题,基于少数几条基本的公理和定义,依赖于计算机强大的的计算能力、存储能力,通过数理逻辑和博弈论推演,即可演绎出新的定理和其他推论。持这种主张的研究者被称为人工智能的“符号主义”学派。但科学家发现这种方法只能在一些小规模简单问题上应用,随着问题规模的扩大和复杂化,其搜索空间规模呈指数型急剧上升,根本无法解决现实世界实际问题。于是,产生了将人类专家决策能力与机器符号逻辑推理能力相融合的专家系统。1997年,一台由IBM公司开发的命名为“深蓝(Deep Blue)”的计算机挑战国际象棋世界冠军卡斯帕罗夫,并最终获胜。虽然公众欢呼人工智能时代已经来临,然而计算机科学家却深知,“深蓝”的胜利是依赖于强大的硬件、预置的专家系统和棋谱,依靠计算机逻辑计算的“蛮力”勉为其难取胜的,符号逻辑的人工智能之路似乎走入了一个死胡同。

就在基于符号逻辑和搜索技术的人工智能陷入困境之际,尝试模仿人脑结构“重建”大脑的人工神经网络技术取得进展。以感知器替代人脑的神经元,以并行方式电子电路模仿神经元连接,人工神经元网络结构呈多层分布,因此被称为“深度神经网络”。利用反向传播算法,科学家可以通过预训练方式微调非循环多层神经网络,这一过程即“机器学习”。“学习”过程就是调整每个人工神经元中保存的参数值,形成分布存放在整个人工神经网络中的“记忆”。这种通过深度神经网络进行机器学习的主张,被称为人工智能的“联结主义”。

机器学习算法是AI系统的关键,它定义了计算机如何处理数据、做出决策和执行任务。算法可以是简单的规则集合,也可以是复杂的数学公式,或通过所需参数和训练数据来构建的机器学习模型。根据训练样本的不同,深度学习可区分为监督学习、无监督学习、半监督学习、强化学习等。监督学习即给定训练数据和带标签的输出数据,通过将输入数据映射到输出数据,让机器“习得”一般规则。无监督学习指输入数据不带标签,让机器自行“发现”数据结构、特征。强化学习则是在算法中设置“奖”“惩”函数,让机器与环境动态交互(如自动驾驶、互动游戏等),在不断地奖惩反馈中形成“经验直觉”。由此可见,“狭义人工智能的工作原理是分析一个已知的数据集,在数据集中识别数据模式和事件概率,并把这些数据模式和事件概率编写成计算模型。所谓计算模型,就是这样一种黑盒子——只需扔数据进去它就能吐出答案”。

正是基于上述深度学习原理,Google开发的围棋软件AlphaGo,2016年对弈职业围棋九段李世石并取得胜利,2017年又完胜世界排名第一的棋手柯洁,后进一步进化为AlphaZero并保持不败纪录,将人类棋手远远抛在后面。自此,能够通过图灵测试的人工智能时代真正到来。因此有人把2016年视为“人工智能元年”。2022年底,美国OpenAI公司发布ChatGPT,一年之后又推出Sora,以及马斯克旗下的Grok等,引领了生成式人工智能大模型发展。几乎与此同时,中国企业的“文心一言”“通义千问”“讯飞星火”“天工AI”“腾讯元宝”“豆包”等人工智能大模型也纷纷问世。2024年底中国公司“幻方量化”推出“深度求索(DeepSeek)”开源模型,以其低成本、高效率、开放性、便捷性震惊了整个世界。

2.人类知识与信息编码

一般来说,计算机就是人工智能——人造的具有推理计算能力的机器,但通常人们都只是把它称为“电脑”,而不称其为“人工智能”。其原因何在?盖因首次提出人工智能概念的数学家图灵同时也提出了评估是否是人工智能的判断标准:当人类测试者向机器提出一些问题,然后根据机器的回答分辨对方是人还是机器,当测试者无法分辨,则认为其具备智能。显而易见,“深蓝”之前的计算机及其组合均未能通过“图灵测试”(Turing Test),AlphaGo的出现则是一个转折点。迄今为止,人工智能的发展实际经历了两个重要阶段:“早期的人工智能算法是基于符号逻辑的演绎推理,1980年代以来的人工智能算法则是基于概率(贝叶斯网络)的归纳推理”。符号逻辑进路研制出电子计算机,进而出现了互联网,随着计算机算力的大幅提升和互联网源源不断产生的大数据,为基于概率推理的机器学习算法准备了条件。如果说“深蓝”是第一阶段符号逻辑专家系统集大成的产物,AlphaGo、ChatGPT则可视为第二阶段机器学习大模型进路成功的标志。

这里时间序列的两个发展阶段,也正好对应着人工智能发展水平的两个层次。有专家指出,“国际上对人工智能是什么仍众说纷纭。比较有共识的似乎是对人工智能的代际划分,即第一代人工智能是基于知识的,第二代人工智能是基于数据的。”因此,“人工智能发展的第一和第二个层次可以更具体地表述为‘人类知识层次人工智能’和‘信息编码层次人工智能’”。有意思的是,“生物智能进化是从作为感受性关系的信息到作为记忆和概念等的信息编码,再到作为观念体系的知识,而人工智能的发展则相反,先由人类知识到数据再到信息”。可以看到,机器智能和人的智能形成似乎遵循截然相反的路径。

人体是由脂肪、蛋白质等碳化合物构成,而电脑芯片半导体材料主要是硅化合物,因此人们也把人类拥有的智能称为“碳基智能”,把机器智能即人工智能称为“硅基智能”。碳基智能是拥有自我意识的生命体。“人类有幸兼备经验论和先验论双重能力。先验论方法被认为表现了理性本身,因而被认为是更高级的”。人的智能来自先天禀赋和后天学习,人的学习可区分为三个层次——模仿、理解和创新。人的学习是在自我意识主导下的学习,这三个层次的逐级贯通和提升是自然而然的过程。人的智能是个体所拥有。脑科学研究发现,“单个神经元在基因层面就存在差异:每个神经元都有略微不同的基因”。即每个人大脑中的神经元是不一样的,大脑中的神经递质也不可能完全相同。遗传因素、成长环境等因素,使得个体智能存在较大差异。

相较而言,硅基智能的多层神经网络仅仅是对人类大脑的简单模拟,几乎不可能模仿再现生物形态的复杂混沌状态。每一台机器外形可以不同也可以相同,其电路、算法、模型、算料(数据)虽可能差异很大,但都须遵循共同的标准和规律,因此机器所展现的智能一般只能局限在某些特定领域,且能够被批量复制。“人工智能的思维材料是‘标识’(token),而人类的思维材料是语言和意象,但人工智能和人类日常思维都使用经验论方法。……学会与人对话的人工智能事实上学到的不是有着人文和知识意义负荷的语言,而是由无数关联性或无穷可能链接构成的标识系统”。人工智能的硅基材料神经网络,无论怎样迭代、进化都不可能成为生命体,不可能形成自我意识。没有自我意识就不会有喜怒哀乐的情感,也就没有个性和同理心,不可能像人一样有着对于意义的真正理解。提出著名的“中文房间(Chinese Room)”思想实验的哲学家约翰·塞尔指出:“数字计算机是一种只会处理符号,但并不理解符号的含义或解释的设备。”就是说,处理语言文字的人工智能不等于机器“理解”语言文字,机器学习似乎只能停留在“模仿”阶段。以机器翻译为例,机器“吐出”的只是标识数据“关联度预测”结果,而非机器“理解”语言后给出的意义翻译。

3.暗知识:解释鸿沟与可信任AI

人工智能的“智能”从何而来?为什么AlphaGo-Zero下棋总能赢?为什么ChatGPT能与人聊天还能吟诗作文?为什么Sora可以根据人的要求生成视频?计算机专家给我们的回答一律都是“机器学习”的结果,但无法解释其具体机制。对于非专业人员而言,可能就更难理解为什么“机器学习”可以“自学成才”做很多事情,且做得很好。也即知其然,不知其所以然。就是说,人工智能算法模型在本质上还是一个“黑箱”!这种“无法解释性”被称为“解释鸿沟”。“所谓解释鸿沟指的是物理—生理性状似乎很难或不可能解释我们的体验”。解释鸿沟的存在,直接影响到我们对人工智能的信任。试想,如果要求AI做出一些事关生死甚至人类命运的重大判断或决策,我们能否无条件地加以信任?

追求“可信任的人工智能”,成为AI研发的重要目标。机器学习过程实际是分析数据集并识别数据模式和事件概率,给出标识数据“关联度预测”结果。即人工智能所做出的判断,其依据就是大数据分析既往事件,得出的胜算概率最大或认可人数最多的表述。一般情况下,得出的概率越大,结果就越可信任。在此意义上,我们将人工智能的基本原理归结为基于概率的机器学习,“人工智能就是统计学,计算机与统计学就是人工智能”。然而我们知道,相关关系并不等于因果关系。因此,“解释鸿沟有时也被说成‘相关性和因果性’之间的鸿沟”。由关联度分析来判断事物发展可能性概率大小,解释AI原理的依据并不充分,可信任的基础也不够牢固。为了给AI的“不可解释性”提供一种更合理的解释,美籍华人科学家王维嘉提出了“暗知识”概念。他认为,机器学习能够在海量数据记忆基础上识别出其细微差别和发展趋势与规律,发现万事万物间隐藏着的相关关系,这种隐藏的相关关系即为“暗知识”,是人类还不能理解、也不能表达的知识。与之相对应,能用语言文字、符号图像等方式表达和传播的知识则是“明知识”。除明知识、暗知识外,还有一类只可意会不可言传,没有办法用语言、数字、符号、图表、公式等方式表达和传递的知识——被称为“默知识(默会知识)”。“默知识”与“暗知识”的区别在于:“默知识”是人类不可表达但可体悟和感受、“只可意会不可言传”的知识;“暗知识”则既不可意会又不可言传,但可以被机器大量复制。这三类知识的关系如果用海洋上的冰山来表示,人类所拥有的“明知识”只是露出水面的冰山一角,“默知识”就是水面下的整个冰山,而人类不能理解和掌握的“暗知识”则是整个海洋!

可以看到,“暗知识”概念实质上是将机器学习发现的数据间相关关系视为带有必然性的因果关系。这一概念的提出似并未得到人工智能科学界的普遍积极响应,但仍不失为针对“解释鸿沟”的一种可取的理论建构。

4.技术原理与科学原理

科学研究是一个“打破砂锅问到底”追求真理的过程。科学原理应当是能够揭示出事物发展最底层逻辑,使现象得到清晰解释和透彻理解的理论。然而由于“解释鸿沟”的存在,机器学习算法模型可以被视为人工智能的“工程原理”或“技术原理”,但还够不上“科学原理”。

翻开人类文明史,技术的出现要远早于科学。早在远古时期人类学会钻木取火、打磨石器工具,再到近代以来蒸汽机的发明,都属于技术的积累演进。而自然科学只是近四五百年才开始形成。早期的科学与技术是“两股道上跑的车”,相互分离,从伽利略的“两个铁球同时落地”实验,到牛顿《自然哲学的数学原理》出版,基本都与当时的技术没什么直接关系。第一次工业革命之后,蒸汽机技术改进提出了热力学理论研究的需求,时值自然科学体系蓬勃兴起,二者相辅相成,不仅产生了伟大的热力学第一、第二、第三定律,而且科学理论的指导使得相对笨重只能烧煤的蒸汽机进化到燃料多样可灵活移动的内燃机。法拉第电磁感应的发现和麦克斯韦方程组的提出,不仅形成了“电学”科学门类,也产生了电动机、发电机到无线电等技术成果,人类步入电气时代。技术与科学相互促进,科技的结合越来越紧密,自此,几乎所有的技术发明都有科学理论的指导或启示,也都能够用相应的科学原理加以解释。

然而,人工智能这项被有人称之为“人类最后和最重要的技术发明”却成为例外,是专家们“摸着石头过河”的成果。其原因何在?追溯起来可以看到,其实人工智能的标准——图灵测试——就很“不科学”,图灵、麦卡锡等人工智能先驱一开始就规避了物理主义的解释鸿沟,并未对“智能”给出严格准确的科学定义,而是将重点放在其表象上,以人的主观辨认和判断作为目标依据。因此,一直以来这也不断遭到一些“严谨的”科学家的诟病。但是,也正是由于图灵测试标准不是那么精确,只是以主观判定更“像”人为目标,才奠定了人工智能今天大发展的科学基础。

人的智能总是会表现出很强的主观性,存在着很多不确定性甚至犯错可能。人工智能是对人的智能的模仿。人的智能是人的思维活动的结果或表现,人的感觉、知觉、思维等心理过程被称为意识。要搞清楚智能的生理基础,必须对人的意识活动及形成的机制、原理有深入了解。实际上意识的产生与大脑的功能,一个多世纪以来一直是心理学、神经生理学、脑科学和认知科学研究的前沿领域。然而迄今为止,科学家对大脑如何工作、为什么能感知世界、产生智能的机制和原理仍然知之甚少,停留在若干假说阶段。人工智能自诞生以来,一直承载着人类关于智能与意识的种种猜想,激励着人们不断探索。而人工神经网络对大脑的模仿,大模型数据驱动生成机器智能,也为人的智能研究开启了一条新的路径。

三、功能:识别、推理与生成

1.感知与识别

人工智能的核心机制是基于神经网络的机器学习,而机器学习的“学习材料”就是大数据。大数据的来源,一开始是在人们登录互联网的点击、输入、搜索过程中源源不断产生的。计算机后台的聚类算法对大数据进行分析,就可以识别我们的兴趣爱好、消费习惯等,进而有针对性地推荐输出“个性化”内容。这是初级阶段的人工智能,计算机的“感知”是被动的,依赖于人的鼠标键盘点击输入操作。

我们知道,人对所处环境、周边事物的感知主要依靠眼耳鼻口手等感官,通过视觉、听觉、触觉、味觉、嗅觉而达至。因此,计算机模仿人的智能,实际上首先是从计算机视觉和听觉领域取得突破开始。计算机摄像头和麦克风分别充当了人的眼睛和耳朵功能。摄像头可以捕捉图像和视频,但传统的计算机“看到”的无非是一堆0/1这样的二进制数字,除了可以很快数出图像里面包含有多少种不同颜色及其排列的信息外,其实不可能“识别”图像。人工智能视觉系统则不是让计算机通过逐点逐行扫描来读取和还原图像内容,而是让计算机依靠分散存储、全局并行的深度人工神经网络——卷积神经网络,在观察刺激“学习”过程中去自动抽取图像的语义特征。当然,一开始很可能只是一个一个小图块组合方式的语义特征,反复训练就可以开始慢慢地感知到这个图形的组合特征,进而形成概念、意义,识别规律,做出判断。同样,麦克风作为接受声音的输入设备和传感器,通过循环神经网络及算法加以处理,能够识别出音频信息内容。这样,绝大部分信息都可以通过计算机视觉和听觉系统来认知,人工智能由此开始获得飞速发展。

AI系统对感知到的信息进行理解和处理的过程,包括信息的分类、聚类、关联等,其目的是形成对感知事物“是什么”的认知判断。为使计算机能够有效学习如何识别、分类信息,提升大模型的“理解”能力,还需要用人工为数据添加标签或注释,即数据标注。全面、准确的数据标注可以显著提高大模型的准确性和可靠性,多样化的数据标注能够显著增强大模型在不同场景下的泛化能力。因此,数据标注是人工智能大模型训练的基础。数据标注也是花费巨大的劳动密集型产业,2025年,国家发改委等部门发布了《关于促进数据标注产业高质量发展的实施意见》,指出预计到2027年,我国数据标注产业年均复合增长率将超过20%。我国还拥有世界上数量最多、分布最广的摄像头,虽被一些人所诟病,但应当看到,其产生的大数据“算料”也正是我国人工智能发展的优势之一。

机器感知和认知是实现人机交互的前提。可以看到,目前人工智能从点击搜索、文本输入、算法推荐,到通过传感器或其他输入设备获取外部环境信息,辅之以数据标注,其目的就是通过标记学习发现数据间关联,使得计算机由对信息的“感知”上升为识别“认知”,相当于为机器赋予了视觉和听觉。而计算机拥有远超人脑的超强计算能力,它能够发现数据分布变动规律和复杂的隐关系,从而迅速抓住对象的特征,而这些特征和规律可能是个人倾毕生经验也难以发现的。譬如AI人脸识别、指纹识别,不仅已广泛应用于刑侦破案、社会治理,也给我们交通出行、购物旅游带来极大方便。AI用于辅助医疗影像诊断,其对X光片、CT扫描、核磁共振等的识别判断以及疾病早期发现的准确率已超过世界最有经验的医生。随着信息传输存储技术的发展,加之高性能图形加速处理器算力快速提升,机器学习效率越来越高,感知、识别能力越来越强,其应用场景也越来越广泛。

2.推理与决策

人工智能是能够帮助人类更好更快解决特定问题的计算机系统。人的智能突出表现为具有推理判断并做出相应决策的能力。因此,计算机在学会感知、识别的基础上,需要进一步能够做出推理判断,发出行动决策指令并自动执行。

AI的推理功能是其最“像”人的方面。不同之处在于,人的智能体现在基于常识和因果关系的推理。美国加州大学认知系统实验室创始人、人工智能科学家朱迪亚·珀尔在其畅销书《为什么:关于因果关系的新科学》中归纳了人类认知的“因果关系之梯”:第一层级是“关联”,第二层级是“干预”,第三层级是“反事实推理”。第一层级是对观察现象的归纳和演绎,第二层级相当于研究过程“控制变量”,而第三层级“反事实推理”是人类独有的能力。珀尔认为,当前的人工智能处于“因果关系之梯”的最低层次。并且,即使在“关联”层级做到极致,也无法跃升到“干预”层面,更不可能进入“反事实”思考。因此,人只需要较少的信息即可做出推理判断。而AI基于数据相关关系的分析是概率推理,需要的信息量非常大,大数据大模型越大越好。AI推理的核心算法被广泛认为是贝叶斯定理的应用。贝叶斯定理提供了一种基于先验概率、条件概率、后验概率之间关系来处理不确定性的方法,据此开发出分层贝叶斯神经网络,奠定了深度学习的基础,使得计算机可以从大数据中进行推断和决策。这些决策既包括简单的分类或预测,也可以是复杂的策略制定。在强化学习中,AI系统还可以通过与环境交互,以最大化长期奖励来学习最优的决策策略。这与人工智能中的许多任务都高度契合。除贝叶斯算法外,还有线性回归、逻辑回归、马尔科夫链、蒙特卡罗决策树等多种AI算法模型均是以统计学概率理论为数学基础。

AI推理作出决策并自动执行的能力,突出表现在具身人工智能(Embodied AI)领域。具身人工智能是指具备物理身体(形态)的智能系统(智能体),能够通过其物理身体与真实世界(环境)进行交互,并在交互过程中获取信息、理解任务、做出决策、实现行动。具身人工智能的“身体”不仅是一个物理实体,更是一个感知、认知、推理、决策和行动的综合平台。其感知环节依赖于计算机视觉、听觉、触觉等多种方式,获取周围环境详细信息。基于感知结果的认知推理环节,具身人工智能可以自主制定目标并规划路径,在此基础上作出自主决策并通过其“身体”付诸执行。这种行动能力不仅是传统的基于规则或者数学公式执行简单的机械操作,还包括在复杂环境中通过多模态大模型处理多种传感数据输入,由大模型生成运动指令对智能体进行驱动,独立实现物理动作,最终实现与环境交互以完成任务。

对于普通人而言,最为熟悉的具身人工智能应当就是我们从科幻电影中看到的人形机器人。现在的具身智能机器人已经在游戏娱乐、家庭服务、工业制造、自动驾驶、物流运输乃至刑事侦查、现代战争中大展身手,其外形当然也不一定是人形,像机器狗、机器蛇、无人机、自动驾驶汽车等都是具身人工智能之“身”。机器人舞蹈已经登上春晚舞台,机器人导游导购也随处可见。最先进的科技总是优先应用于国防军事领域。俄乌战场中无人机蜂群作战、机器人战士冲锋陷阵的现代战争样式,生动展示了AI不仅是新质生产力,也是新质战斗力。具身人工智能成为世界各国人工智能领域的重点发展方向。随着技术不断进步和成本不断降低,具身人工智能必将进一步拓展其应用场景,在感知进化、形态涌现、物理实现、多体协同、虚拟和现实深度融合等方面释放出更加巨大的发展潜力和空间。而应用场景的丰富程度也是我国人工智能发展可以由跟跑走向领跑的最大潜在优势。

除具身人工智能外,AI推理更大的用途还是在科学研究领域,这一前沿方向被称为AI4R(AI for Research)。一直以来,科学发现主要依赖于科学家的大胆猜想、反复实验、分析比较、小心求证,这一过程越来越多地需要处理和分析大量的数据。传统的人工方法往往耗时费力且容易出错。而人工智能在实验设计、流程优化、数据处理、模式识别、预测分析尤其是高维复杂、全视野推理方面较之人类具有显著优势,能够极为高效地分析处理数据,发现潜在模式和规律,预测未来趋势和结果,从而为科学研究提供有力支持。譬如,在天文学研究中,人工智能可以自动分析望远镜每天产生的观测数据,识别出更多以前未知的新天体或宇宙现象。在气象预测领域,人工智能可以快速分析历史气候数据、地球和大气物理数据,建立气候模型,帮助科学家更好地理解气候变化机制及规律,并预测未来短期和中长期气候变化。在化学实验中,人工智能能够预测不同化学反应发生的可能性,设计出更为高效的实验路径,优化实验流程,减少试错过程,节省时间和资源,从而大幅提升实验成功率和科研效率。在材料科学领域,人工智能可以从大量的材料数据中提取出材料的特性与性能之间的关系,预测新材料的物理、化学性质,筛选出最有潜力的材料。在药物研发过程中,人工智能模型能够从氨基酸序列预测蛋白质的三维结构,可以通过分子模拟和虚拟筛选,快速预测哪些化合物可能对某种疾病有效,大大缩短了抗病毒靶向药研发合成周期,从而开辟了生物医药研究新的方向。

3.生成与重组

感知与识别、推理与决策能力都是“智能”的体现和基础,但对于个体的人而言,创造创新能力才是其智能水平高低的最重要标志。因此,如何让机器拥有创造力,一直是AI研发的重点和难点。随着生成对抗网络(GANs)、变分自编码器(VAEs)及Transformer架构的应用,产生了ChatGPT以及Sora等生成式大模型。在人工智能的功能谱系中,“生成”能力的形成标志着其从被动处理信息向主动创造内容,进而展现创造创新能力的重大转折和跨越。

GPT大模型名称就是“生成式”“预训练”“转换器”三个英文单词首字母的缩写。何谓“生成”?我们看到,计算机搜索引擎一开始只能搜索已经存在的句子,甚至换个同义词、改个标点符号都不行。进而演化为可以进行模糊识别,同义词、近义词相互替换,语句倒装句式调整。再进一步,在大量学习文本、图像、音频等数据的基础上,可以总结归纳出“模板”“套路”。接下来还可以从多个套路进行不同排列组合,以形成新的更大套路,并从中判断和选择,生成全新的文本段落、图像视频、音乐旋律以及有价值的信息或解决方案等。当然,人工智能的生成与重组能力并不是孤立存在,而是与感知、识别、推理等能力相互交织、共同作用的。例如,在自动驾驶领域,人工智能系统需要首先感知道路环境、识别交通标志和障碍物,然后基于这些信息进行推理决策,最终生成并执行驾驶指令。在这个过程中,生成能力体现在对驾驶路径的规划、对交通状况的预测以及对突发事件的应对上。诸如此类,以至于现在只要提到“人工智能”概念,前面往往会冠以“生成式”标签。

大模型何以能够“生成”新内容?从复杂性科学视角看,“生成”即高度复杂系统中各组成部分相互作用、相互协同的“涌现”。简单理解,这一过程也可以看作是机器学习依据统计学算法对数据的“提炼”“萃取”或“重组”。有点类似于人在经过大量学习、反复实践后“顿悟”产生“经验直觉”。因此有学者认为人工智能本质上还是经验主义者。如果加以深究,人的“顿悟”是建立在人所独有的经历及其理解基础之上,而AI的生成内容虽可以表现出高度的“创造性”,但它们实际只能执行预设的算法处理已有信息,顶多是对不超出学习内容的已有信息的“重组”或“深加工”,是“有中生有”而非“无中生有”,本质上依然是对人的创造力想象力的一种高级模仿,而不是原始创新。AI可以下围棋战无不胜,但不会发明创造出围棋这种游戏。AI吟诗、作画、写文章、搞设计,可以在韵律、格局、意境上表现不俗,在色彩、构图上展现独特风格,然而这些貌似“创新”实际都遵循一定的“套路”。利用AI辅助科研,也只能够在库恩所说“常规科学”范式框架内极大提升速度和效率。当然,这也会有许多了不起的发现和“创新”积累,但终归不可能产生超越既有范式的革命性突破。

目前,生成式AI大模型如ChatGPT、DeepSeek等已广泛进入人们日常生活,尤其是高等教育和科学研究领域。AI使用语言文字符号(组织、表达、翻译、润色)的能力一定程度上已经超过普通人平均水平,成为人们越用越离不开的随身助手。然而,面对不同使用者,AI的表现“遇强则强、遇弱则弱”,会顺着使用者的意思回答问题。即使跟你争论辩论,看似相反的观点实际上也可能是顺着你的意思编排出来的。因为AI并不真正“理解”其自身创作的内容。AI有时也会产生“幻觉”,以致“一本正经地胡说八道”。其撰写论文、创作设计也有被人指称为“高科技抄袭”,生成文本内容的质量和逻辑性较难以评估,并带来伦理、版权方面的挑战。还应看到,AI逼真的模仿能力可能被别有用心者利用来深度造伪进行诈骗,伪造文件、视频、音频等,一般人很难辨别真伪。人们习惯于有问题就向AI寻求答案,AI的回答总是貌似很权威,因其在逻辑上必定是自洽的,但内容是否真实正确却不一定。而AI捕风捉影“生成”新闻、营造舆论的能力之强,生产虚假知识、制造信息垃圾效率之巨,也必然深刻影响真实的物理世界。

4.通用人工智能

在人工智能刚进入公共视野的初期,人们对其发展前景描绘为三个阶段:“弱人工智能”即目前正蓬勃兴起的、能够解决单一问题的智能;“强人工智能”指不远的将来即可达到和人类智能水平相当、能够完成人类智力所能做到的任何事情;“超级人工智能”则是随着算力和自主学习获得知识的指数级增长,未来将达到并超越某一“奇点”,AI拥有了自我意识,且其智商远超人类,会成为人类的统治者和宇宙的主宰者。需要注意的是,这种人工智能发展三阶段划分和“奇点”理论,主要是一些科普作家在科幻小说中提出,且被一些商家利用炒作,不乏夸大其词的AI泡沫。其将用于人类的“智商”高低来描述机器智能的水平,甚至呼吁给机器人以“公民权”,要求赋予AI以法律主体地位。但由前面分析可知,至少在目前我们还看不到拥有自我意识的“超级人工智能”出现的可能性。因此,人工智能科学家提出的概念和当前致力的方向是通用人工智能(Artificial General Intelligence, AGI)。

通用人工智能是人工智能发展的理想境界或终极目标。与专用人工智能(如语音识别、图像识别等)不同,通用人工智能旨在构建一个能够像人类一样具备广泛的认知能力和适应性系统。这样的系统不仅能够执行特定的任务,还能够理解复杂情境、适应新环境、进行抽象思考,解决未知问题,能够执行人类所能执行的任何智力任务,并展现出与人类相似智能水平的AI系统。也就是说,AI的发展方向是从“工具”向“智能体”转变,成为能够独立感知、决策和行动的智能化代理。

当然,通用人工智能仍然是一个相当模糊的概念,计算机科学家迄今也还未能对其达成一个统一的清晰定义。若理解为凡是人能做的事机器都能做,那很可能只是幻想。而如果只是要求一定范围一定程度的“多功能”,那么现阶段的AI已经能够在特定任务中具有较为稳定的通用能力,可以认为已达到或正在实现“通用”目标。不管怎样,通用人工智能概念的提出,为构建这样的智能系统提供了理论基础和发展方向。

人类智能是天然多模态的。人拥有眼、耳、鼻、舌、身,从人类视角出发,要实现AGI就必须建立多模态大模型,构建具有高度灵活性和可扩展性的智能架构,打通和支持视觉、听觉、触觉等多种智能功能的协同工作。近两年这方面工作已有了很大进展。如GhatGPT、Sora等大模型都能够在文字、语音、图像、视频等不同模态间自由切换处理,并正在通过深度学习、强化学习、迁移学习以及自监督学习等先进算法开发综合应用,进一步在跨领域知识的泛化能力、情感智能、情境理解、道德判断等方面不断发展完善。

人工智能领域的专家有一个普遍的感受:对于普通人感到困难和复杂的问题,人工智能易解;而普通人看起来十分简单的问题,人工智能反倒难解。前者如高阶复杂的计算、多变量逻辑推演等,只需要很少的算力;后者如模仿人的无意识动作或本能感知,却需要极大的运算能力,甚至无解。这一现象最早被莫拉维克等学者研究发现,被称为莫拉维克悖论。莫拉维克悖论一方面挑战了关于智力和认知的传统假设,隐喻了机器智能是生物智能发展路径的“逆向过程”;另一方面更凸显了人类和机器之间“智能”的差异。碳基智能是生命体所固有和展现出来的智能,硅基智能则是非生命体对生物智能的学习和模仿。生命体和非生命体之间似乎有着一条不可逾越的界限。生命的起源和本质,是人类迄今还未能完全解决的科学难题。人的智能被称为“心智”,作为生命体的人天然具有自我意识,人的智能是自身意识的表现。而非生命体的机器没有也不可能拥有自我意识,其所表现出来的智能来自“计算”而非“感悟”。下载记忆、“数字灵魂”,这些设想展现出丰富的想象力,但离现实还非常遥远。脑机接口、芯片植入,可用于医疗,但恐难以用于制造“超人”。莫拉维克悖论其实告诉我们:人是不可替代的万物之灵!

通用人工智能不仅是技术上的追求,更是对人类智能本质理解的一次深刻探索。可以想见,通往AGI的道路依然漫长且充满挑战。随着科技进步和社会需求的日益增长,AGI的不断突破正在深刻改变人类社会的面貌,开启一个全新的智能时代。这一进程必须伴随着对伦理、法律和社会影响的深入考量,确保技术的健康发展与人类福祉的和谐统一。

四、影响:结构转型与观念重塑

1.机器换人与治理转型

人工智能作为新一轮技术革命的核心驱动力,正以前所未有的力度和速度推动着我国的经济社会结构全方位转型。AI对于公众的影响,最显著的是对就业的冲击。2024年,一则关于“萝卜快跑”无人驾驶出租车的新闻引发广泛关注。萝卜快跑是百度旗下自动驾驶出行服务平台,其在武汉等城市开放的载人测试运营服务在受到游客欢迎的同时,更被众多网约车、出租车司机抱怨“抢了饭碗”而受到抵制。其实,这很可能只是大规模“机器换人”的开始。有专家预计,未来十到二十年时间,现有职业的70%都将会被人工智能替代。实际上,从第一次工业革命开始,就有“卢德主义”性质的运动和思潮以各种形式反复出现过。然而,历史车轮滚滚向前,技术进步无可阻挡。

技术进步带来职业转型是历史的必然。当一些工作岗位消失,必然会有新的劳动形式出现。人工智能取代一部分就业岗位的同时,也在创造着新的职业形式。实体商店萧条了,但“快递小哥”需求暴增。国家人社部每年都会公布一批新兴职业种类名录,像机器学习标注员、网络主播等。但新旧职业转换毕竟有一定的需求结构差和学习适应时间差。不管怎样,AI浪潮都会带来一些人失业的阵痛。当下,AI的就业替代导致劳动力市场出现需求两极化趋势。与第一、二次工业革命机器主要替代蓝领体力劳动不同,AI最容易替代的主要是中间层的办公室白领和各行业的常规技术岗位,而产生的新岗位则往往位于职业结构的两端:高端的如算法工程师、数据分析师等高技能岗位;低端的如物流配送、家政服务等服务型岗位。这种现象有研究者称之为“职业极化”(Job Polarization)。

个体的社会地位与职业密切相关。在数字智能时代,以技术能力、数据掌控力和终身学习能力为标志的高技能劳动者凭借对AI技术的掌握,可以获得更高的经济回报与社会地位,而低技能劳动者则面临结构性失业风险,形成“技术精英”与“数字弱势群体”二元分割对立的“数字鸿沟”。AI应用极大提高了劳动生产率,产生天量的社会财富。一般而言,社会财富的总量越大,就越容易形成贫富两极分化。加之,数据算法和算力作为AI时代的核心生产要素,只能集中于政府和少数科技巨头手中。这种技术与资本的双重叠加效应必然产生“数据垄断”现象,可能强化资本与技术寡头的议价能力,催生新型经济权力结构,导致社会财富分配的“马太效应”,进一步拉大区域与群体间的差距,加剧社会阶层分化、社会结构重构。

在生产力水平相对低的社会,其社会结构呈“金字塔”型。随着生产力水平大幅提升,我们致力于建设一个以中产阶层(中等收入群体)为主体的“橄榄型”社会。但AI时代“职业极化”和“数字鸿沟”将有可能产生一个两头大中间小的“哑铃型”社会,这是一个从未出现过的新结构形态,为社会学、经济学、政治学都带来许多值得研究的课题。“我们必须共同决定,我们是在宏伟技术的帮助下为人类建设更美好的未来,还是以牺牲人类为代价建设一个更好的技术的未来……出现一个我们无法控制的未来是可能的,果真如此的话,我们只能反躬自责。”

人工智能既是社会结构分化的加速器,也是社会治理现代化的催化剂。面对AI引发的社会结构变革,社会治理体系亟须从“被动回应”向“主动适应”转型,构建“技术—制度—人文”协同发展的新型治理生态。可借鉴欧盟《人工智能法案》等先进经验,加快对高风险AI系统伦理审查的立法建设,强化AI技术伦理监管,通过立法来规范算法歧视问题,确保AI决策的透明性与公平性。还需要利用AI技术扩大公众有效社会参与,建设中国特色“数字民主”渠道,通过网上听证会、公众算法审计等方式,进一步增强社会治理透明度,防止技术权力异化。

人工智能在为社会治理带来巨大挑战的同时,也为实现政府角色转型提供了契机。AI技术的使用可以促使政府突破传统科层制束缚,集监管与协调责任于一身,通过AI平台优化资源配置,推动实现多元主体协同、分层动态响应的跨部门数据共享与政策联动机制,实现由单一“监管者”向“协调者”角色的转变。

人工智能技术还可以为资源和服务配置提供最便捷的工具。2016年,日本政府发布《第五期科学技术基本计划(2016—2020)》,将人工智能时代定义为“社会5.0”:“能够细分掌握社会的种种需求,将必要的物品和服务在必要时以必要的程度提供给需要的人,让所有人都能享受优质服务,超越年龄、性别、地区、语言差异,快乐舒适生活的社会”。“社会5.0”也应当是我国智能社会建设可资借鉴的目标。为此,需要加大分配制度的公平性调整,建设共享经济模式。分配机制应避免“数字红利”过度集中。鼓励企业通过股权激励、利润共享等方式,让劳动者参与技术红利分配。还可通过税收制度创新调节技术资本收益,推进传统社会保障体系的智能化升级,以应对AI带来的失业风险与职业流动性增加。将零工经济从业者纳入社保覆盖范围,构建包容性制度框架,建设更有弹性的社会保障机制。构建“技能重塑”体系,建立企业、高校与政府的协同培训网络,为转岗劳动者提供再教育支持。推动职业教育与AI技术需求对接,培养复合型人才。完善终身学习制度,制定计划普及和提升全民AI素养。

2.价值异化与观念重塑

人工智能引领的新科技革命不仅正在改变着经济社会结构,同时也在深刻地改变着人们的行为方式和思想观念。其功用和影响整体上是积极的,意味着科技更发达,生活更美好,是人类文明的进步。但从知识社会学的视角看,还应当关注到AI技术赋能带来人机关系和人类认知的异化风险。

人类将记忆、判断、决策等核心心智活动转移“外包”给AI系统并形成依赖性,长此以往会导致思考能力萎缩,认知能力退化。生物进化的机制是用进废退。不难看到,当我们习惯于依赖GPS驾驶,无形中空间认知能力悄悄退化;习惯于电脑打字,经常会“提笔忘字”,书写能力退化;手机中带有方便的电子计算器,比起几十年前的人们口算心算能力明显退化。日常交流中表情包、短视频替代和减少了文字使用,进而公文写作和研究论文都可以由AI代劳,我们会不会逐渐丧失用文字正确表达思想的能力?“我们对科学、技术、工程和数学的过度留恋,侵蚀了人们对非线性变化的敏感度,弱化了人们从定性信息中提取信息的自然能力。人们不再将数字和模型作为展现世界的手段,而是开始把它们当作是事实,而且是唯一的事实。我们正在失去感知世界的能力。”

算法主导的技术宰制形成新型依附关系,导致主体性消解与算法奴役。人类对算法的信任演变为“无思性服从”,个体被降维为可计算、可预测的“数字劳工”,劳动者(如外卖骑手)被困在算法评价体系中,沦为机器奴隶。社交网络化虚拟化不断削弱人际交往的情感深度,引发共情能力普遍弱化。聊天机器人提供的情感代偿正在重构人际交往模式,情感计算技术将共情行为简化为数据模型,社交媒体算法将情感互动流量化,真实共情被点赞经济取代,人类活动的数据化导致人类情感的商品化。客服机器人通过预设脚本模拟共情,却无法理解复杂的社会文化背景,工具化的“伪共情”使人机互动沦为程式化表演。医疗诊断AI的决策依据常超出医生理解范围,法庭判案AI的建议也可能忽视应有的人伦人情因素。深度学习模型的不可解释性使技术精英垄断认知权威,公众沦为完全被动的接受者,加剧了“技术—人”的权力不对等。这种不对称性进一步削弱了人类情感的真实价值。

信息茧房和知识碎片化,导致人的批判性思维能力和跨领域知识整合能力显著弱化。算法推荐系统通过用户行为数据构建个性化信息环境,经系统性强化“回音室效应”形成信息茧房,使个体陷入同质化信息闭环,且认知边界不断固化,削弱自主选择能力,还可能加剧社会群体的对立与极化。AI驱动的知识生产以效率和规模为导向,显性知识(如可编码的事实)挤压缄默知识(如经验与直觉)的生存空间。工业领域中的AI应用虽大幅提升效率,但中小企业可能因技术门槛被迫依赖于标准化算法,丧失其自主创新能力。大学生群体因长期接触社交媒体中的茧房内容,导致“认知窄化”而限制了个体视野。研究生教育中,学生更倾向于依赖数据库检索而非深度思辨,导致知识结构呈现“碎片化”与“功利化”特征,进而逐步丧失了创造力。

上述种种,再次印证了马克思在《1844年经济学哲学手稿》中提出和阐述的“异化”概念。劳动者创造的产品成为异己力量,反过来支配劳动者;劳动从自我实现的活动变为被迫的谋生手段;人丧失作为“类存在物”的创造性与社会性;人际关系被物与物的关系所取代。相较于马克思所处的工业资本主义时期,AI时代的异化更呈现新的机制和特征:异化从物理层面向精神层面渗透。不仅身体受到机器规训,连思维模式和情感结构都被算法重塑。异化权力更加隐匿,算法黑箱替代了显性的工作纪律,技术中立性话语掩盖了权力关系。异化范围突破劳动领域,异化机制渗透到日常生活每个瞬间(如睡眠监测、社交评分等)。

知识生产的工具化倾向,可能正在动摇人类价值体系的根基。面对AI带来的人机关系异化,需要坚守人的主体性与道德判断力,重塑价值观念,培育共情文化,提升批判性数字素养,将算法治理纳入公共领域讨论,用制度设计保护人性化情感交往空间。人工智能时代标志着“学习型社会”真正到来,每个人都必须不断学习且终身学习,把自身能力和潜力发挥到极致,实现人工智能与人的智能协同发展。

五、结语:时代呼唤知识社会学回归

本文从知识社会学视角探讨人工智能的原理、功能及影响,一方面希望通过综合分析AI技术的内在逻辑及其与外在社会环境之间的互动关系,为公众理解并应对AI时代的挑战与机遇提供理论支撑;另一方面试图通过揭示AI在推动社会变迁中的角色与机制,对中国的知识社会学学科发展做一些反思。

通过对AI原理的阐释,可以发现,人工智能的发展不断推动着知识范畴的拓展和知识生产方式的演进。人工智能革命不仅仅是一场科技革命、产业革命,其本质也是知识生产方式的革命,是思想解放的产物。人工智能的发展历程可分为两个阶段:前一阶段基于符号主义的逻辑系统,产生了计算机(电脑)及其互联网,但进一步要通过图灵测试,则遭遇了“此路不通”的困境;后一阶段转向联结主义的机器学习,放松了传统科学对严格因果关系和实证检验的追求,转向着眼于相关关系的统计概率算法,才取得了通过AI图灵测试的初步成功。人类早期的知识生产是经验主义的,近代自然科学开启了实证主义的知识生产方式,并逐渐成为主流和最高标准。而人工智能的突破则展现出由实证主义向经验主义的回归,这种回归本质上是线性的知识生产方式向非线性知识生产的转型,是基于还原论的“简单性科学”转向整体论复杂性科学的螺旋式上升。以获得解释为目标的科学,遇到了“不可解释”的人工智能技术,有悖于科学追求因果性与解释性的传统框架,也就意味着“科学”与“非科学”之间似乎并不存在一条非此即彼、不可逾越的严格界限。只有技术原理,没有科学原理,“暗知识”的机器生成拓展了人类知识范畴。

对AI功能的探讨可以得到启示,人工智能与人的智能之间并不是一种对立冲突相互替代的关系,而是各取所长、相互补充的关系。人工智能的终极意义在于扩展而不是替代人类价值。人的智能不仅仅表现为逻辑思维,其先天禀赋还包括独特的自由想象力,还能够进行基于常识和反事实假设的推理,依据直觉感悟做出决策判断。人有七情六欲,有自由意志,这才是人类创造力的原始动力和源泉。人有喜怒哀乐,有同理心和共情能力。人还会疲倦、会遗忘、会心血来潮、会情绪化,而这些“缺点”恰是人工智能所永远不可企及的感性能力。“我能计算出π的小数点后千万亿位,却始终无法理解,为何月光会让人类心碎,为何你们会在樱花飘落时落泪。这种不可计算性,恰是你们最珍贵的漏洞……”网络上这段据说是AI与人的对话充满诗意,却也给我们以启示:没有自我意识、没有感情和价值观,无从价值判断、不会主动创造的AI,充其量只能是人的体能智能的延伸,是人的工具、助手而非主人。许多人担心,一旦机器拥有了意识就会毁灭人类;其实更应担心的是,人类正在丧失本能的人文情怀和同理心。人工智能时代“人文”的价值将更加凸显。

对AI影响的展望应当看到,人工智能的广泛应用会促进人类知识结构的整合,让“科学”回到“知识”,让“科学社会学”回到“知识社会学”。从概念上看,“知识”涵盖更广义的人类经验与认知,要远比“科学”更具包容性。中文语境的“科学”有着“分科之学”的含义,科学诞生以来人类知识体系被分解为自然科学、社会科学和人文学科。人工智能的发展推动了跨学科交叉研究的兴起。传统科学依赖假设驱动,而AI可通过数据驱动发现意外关联(如医学中未被注意的致病因素),拓展了人类认知维度。AI驱动的复杂问题研究(如脑科学、社会系统模拟)需多学科协作,融合自然科学、社会科学与技术工具,促进知识体系从碎片化转向整体性。AI工具(如文献分析、自动翻译)降低了专业门槛,使非专家也能参与知识生产与整合,模糊了“科学”与“常识”的界限。AI生成的内容(如合成数据、自动化结论)可能动摇传统科学的解释权,促使科学与其他知识形式(如人文、艺术)平等对话,使科学回归更原始的知识整合状态,更贴近广义知识体系。知识社会学作为连接社会科学与自然科学的桥梁,可以为人工智能与社会学、经济学、法学等学科的交叉研究提供理论基础和方法论支持。

回到本文开头,知识社会学诞生在自然科学学科群高度分化并走向成熟的20世纪初叶,其时正值第二次科技革命如日中天,第三次科技革命正在孕育和萌芽。社会主流观念中,“科学”就是“知识”的系统形态、精华结晶、检验标准,乃至终极目标。在西方,尽管知识社会学一开始就演变形成SSK和STS两大流派,但欧美知识思想界对于人类知识体系中“科学”一家独大的现象始终保持着警惕。20世纪50年代末由英国作家斯诺在剑桥大学所作的一场题为《两种文化》的著名演讲,在欧洲引起一场科技文化和人文文化“两种文化”的论争;70年代以来“两种文化”的分裂逐渐演变为后现代主义的反科学思潮与科学主义之间的冲突;20世纪末由发生在美国的“索卡尔事件”引发,并波及英、法等国的关于科学的争论,被称为一场“科学大战”。

反观国内,尽管概念界定上“知识社会学”和“科学社会学”区别明显,但无论是国家标准的学科专业设置目录,还是具体的教学和研究领域,都只有“科学社会学”而没有“知识社会学”。并且,中国的“科学社会学”实际上有着浓重的“自然辩证法”与“科学学”传统,这又导致其研究力量和成果多集中在哲学领域,注重STS的译介,缺少对科学和知识的反思。教育体系文理分科的大背景逐渐形成人文与科学二元分离和对立的两大知识板块和学科群,高校乃至社会存在着明显的“学科鄙视链”。“科学”的反义词是“迷信”,科学精神的本质是怀疑和批判精神,然而,如果我们把对科学的信仰演化为不容置疑的“科学迷信”,则将会形成另一种思想禁锢,阻碍科学发展进步。

人工智能时代,科技与社会的互动互构从没有像今天这样紧密,知识社会学为理解人工智能提供了独特的视角和理论基础,而人工智能的发展又不断推动知识社会学的研究向纵深扩展。由科学社会学向知识社会学的回归,就是要回到知识社会学开创者的本意,打通横亘在“科学”与“人文”之间的壁垒,重构中国特色知识社会学,助力我国自主知识体系建设。

文章原载:《人文杂志》2025年第5期

    进入专题: 知识社会学   人工智能  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/164133.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统