近来,人工智能赋能哲学社会科学研究(AI4SS)兴起,既给哲学社会科学研究带来巨大冲击,亦给哲学尤其科技哲学带来诸多理论挑战。从哲学的视角看,究竟应该如何认识AI4SS、定位AI4SS,又应该如何推动AI4SS健康地可持续发展?这是本文试图回答的问题。
一、AI4SS的现状、趋势、问题
鸟瞰AI4SS发展的现状(包括技术基础、应用状况)、问题(或特征),概括出总体的发展趋势,预计AI4SS远期发展的可能性。
可以从研究环节、功能实现、学科门类等不同角度进行总结梳理。应该说,AI4SS的影响已经遍及社会科学研究的各个环节、各个学科门类,主要发挥着5大功能,包括数据处理、模拟实验、内容生成等三大知识生产的内部功能和成果评价、政策运用等两大知识应用的外部功能。
数据处理功能包括相关研究的资料与(多模态)数据的收集、整理/翻译、分类、归纳,文献综述的形成,AI数据处理能力与AI时代的数据丰裕现象相适应、相匹配。
模拟实验指的是用AI模拟社会调查和实验,主要形式是ABM。在个体层面,AI即可以模拟被试,也可以模拟主试。在群体层面,AI可以模拟一定规模的社会运动,最典型的是HAI。模拟实验的目标是生成社会数据和社会事实。
内容生成功能是对社会数据和社会事实进行分析和推理,以完成社会知识的生成,主要包括模式识别、知识推理、生成AIGC内容以及文本输出等。这个功能是如今人文社科杂志最为头疼的功能,主要原因在于无法完全区分个人创作和AI生成。
AI成果评价是将AI用于社会科学评价的各个环节,包括同行评议、期刊评价、科研组织评价和个体评价等。
AI4SS政策运用指的是将AI4SS知识生产的成果应用于社会政策和公共治理领域中,本质上属于智能治理活动的一部分。
二、智能体在认知活动中的定位
从认识论层面反思AI4SS,AI的认识论位置是最为核心的问题。简言之,该问题是:在AI4SS中,AI智能体(AI大模型)是社会科学研究的认识主体吗?
我们的观点是:AI单独不是认识主体,而是与人融合为“混合心智”来作为认识活动的主体,离开人AI非主体。(《非主体:人工智能的定位与治理》《混合心智:AIGC时代认知活动的新主体》)按照这种理解,AI4SS仍然是一种社会科学研究的复杂工具,而非社会科学知识生产的“自动机”——它没有认识的意志、动机和目标。在AI-人组成的混合心智中,人仍然是主体性的根源,AI依附于人之上获得某种随附主体性。
与上述核心问题相关,AI4SS还给哲学认识论提出两个必须回答的挑战:
第一,AI大模型生成的社会科学知识是否是客观的,或者客观性如何?有些人认为,AI4SS知识以大数据技术为基础,掌握海量的社会数据和社会事实——甚至一些人认为,作为AI基础的大数据是“全数据”,能够实现类似自然科学的客观推导,极大地甚至彻底消除传统社会科学的主观性、模糊性的一面。如何看待这种观点?首先,AI4SS并不真正研究社会,而是收集、归纳和整理数据,研究的是“数据中的世界”。把世界等同于数据中的世界,是认识论数据主义最根本的主张。其次,AI4SS出现的错误如AI幻觉,与人类在认识活动中受到主观性干扰出错不同,本质上是统计学预测模式的缺陷,而非类人的主观性干扰。
第二,AI4SS是一种社会科学研究的新范式吗?为什么?如果AI是“另一种主体”,AI4SS必然是新范式。如果AI仅仅是AI-人组成的混合心智,称AI4SS究竟意味着什么?我们归纳针对该问题的看法,认为AI4SS仍然是计算社会科学、数据社会科学发展的新阶段,难以成为库恩意义上的新范式。
与之相关的问题是,AI4SS能实现统一科学的理想吗?即以AI-数据为基础,能否将所有人类科学都变成数据科学?这种想法与逻辑实证主义的统一科学主张有很大的不同。
三、牢记AI4SS方法论的有限性
从方法论层面反思AI4SS,方法论的有限性是最为核心的问题。对AI4SS方法论有限性的分析,意味着划定AI4SS在社会科学知识生产中的边界。
在社会科学知识生产的内部活动中,AI4SS主要作用于数据处理、模拟实验、内容生成三个方面,均存在无法避免的方法论有限性问题。
在数据处理方面,这些问题包括:随机鹦鹉与AI幻觉,数据毒性与质量,数据隔绝与数据孤岛,数据的文化性与地方性(不同文化和地方同一社会现象数据不同,并没有普遍性结论)。
在模拟实验中,社会模拟器有4大有限性:1)模拟实验本身的有限性。AI模拟实验属于数学模型实验的一种,带有模型实验的局限性,AI并没有改变这种情况。2)模拟人的行为主义迷思,即人不可能完全数学模拟;3)环境模拟的不可能性,及环境尤其是文化环境过于复杂,无法完全数字孪生;4)社会实然与应然的复杂关系,即社会模拟器无法解决社会未来应然发展方向的稳定,社会模拟器知识习惯性地维持现状和趋于保守。
AI生成社会科学知识存在的问题包括:AI偏见,AI谄媚,AIGC的意识形态性,知识产权问题等问题。在AI内容生成过程中,大模型会进行数据挖掘(模式或关联性识别)、推理、预测。从数据挖掘、数据推理、数据预测方面,可以分析AI4SS内容生成的有限性。
从本质上说,AIGC是统计学的语元(token)排序,而不是对真实社会的理解或说明。网上所有的社会科学相关数据,是AI4SS内容生成的基础。总体上说,这些数据良莠不齐,各种阴谋论盛行,因此用AI直接生成社会科学知识的质量非常可以。并且,这些网上数据并没有客观性,以它们为基础的AIGC何来客观性呢?
四、警惕AI4SS应用的社会风险
从价值层面反思AI4SS,绕不开AI4SS知识应用的两大外部功能形式,即1)成果评价(即AI用于社会科学评价)和2)政策运用(即AI4SS成果用于社会治理,这属于技术治理中的智能治理),在这两方面都存在不少的价值、伦理和风险问题。
第一,AI用于社会科学评价,对于当前科学社会建制的健康发展非常关键,也牵涉到学术期刊改革、学术道德坚守、社会科学奖励等一系列AI伦理或AI研究(AI Studies)的复杂问题。
大家容易关注的是:1)AI赋能学术成果的同行评议peer review。比如,预评审:筛选与匹配的智能化,包括案头评审,审稿人匹配;评审中:从评分到意见的生产,包括同行评议,元评审;后评审:影响力评估与成果推广,包括影响力分析,推广增强。实际上,AI对社科评价的助力,还可以深入到2)期刊评价3)科研组织评价4)研究个体评价当中去。这些工作以前主要有科学计量学来讨论,AI发展对科学计量学有重要的促进作用,值得深入研究。
第二,在AI4SS政策运用问题中,有两个问题必须讨论:1)HAI的政策运用,涉及到智能治理和超级智能;2)智能决策支持系统IDSS问题,涉及到DSS最新进展。
这两个方法都是决策支持方法,而非决策替代选项。但是,在技治社会中,后者往往发生,导致巨大的风险。换言之,决策者和政策制定者对AI过于相信甚至崇拜,导致各种问题。
DSS是20世纪70、80年代那一波AI热中的拳头产品,主要针对半结构化决策问题而设计。随着GAI的出现,DSS又被赋予新升级的可能。一般而言,DSS由语言系统、问题处理系统和知识系统三个部分组成。GAI起码可以在1)用自然语言人机互动和2)提高更强大的推理能力上提升DSS的能力,使之成为IDSS即智能决策支持系统。
有人认为,DSS能力指标中数据分析能力最为重要,因而数据挖掘技术非常重要。数据挖掘技术涉及数据库、AI、机器学习、神经计算和统计分析等多种技术,是AI的重要基础。基于agent的IDSS也是当前的热点。知识、目标和能力是agent本身的三项最重要指标。
而前者,即HAI的政策应用。我们在多篇文章中进行过深入讨论,如《AI时代人的机器化忧思》《超级智能的超级隐忧》《超级人工智能的科技伦理治理》《智能治理的哲学反思》等论文。相对于AI文明危崖的担心,我个人更为担心的是人的机器化。我认为,AI时代最大的问题不是机器人变成人,而是人变成机器。
五、积极推进AI4SS的健康发展
经过上述分析和讨论,为推动AI4SS健康而可持续地发展,我们可以提出哪些针对性的建议呢?
我们的建议包括理念原则层面的建议,也包括在理念原则指导下的具体措施建议。总的来说,我们的观点属于我们提出的有限人工智能理论的一部分。该理论认为,AI发展有所为、有所不为,应该对AI发展道路进行选择、调整和控制,使之有利于人类福祉和社会进步。为此,有限AI进路主张非主体、去道德的基本主张。
在理念层面上,我们至少认为,1)AI对于社会科学研究而言,始终是有力的新型工具,极大地提高社会科学研究的效率,但并不能统一社会科学的研究范式,或促动社会科学研究范式变革。2)作为社会科学研究的多元进路之一,AI4SS要更好地发挥功能,最重要的在于AI赋能而非替代研究者,即1)区分好人类环节与AI环节的分工,2)融合好人类能力与AI能力,形成人机知识共创的新模式。3)反对AI崇拜与AI4SS迷信,牢记AI4SS的有限性,努力用好AI4SS,为增进社会福祉和人类利益服务。
在上述理念的指导下,结合当前AI4SS发展的现状和趋势,我们将提出一些更为具体的建议。比如,打破学科壁垒,尤其是文理对立,按照问题逻辑来组织社会科学研究和人才培养。
合作者需要把我所有AI4SS相关的言论、论文收集起来仔细研读,系统地把握我的立场和观点,尤其注意以审度的态度看待AI4SS的发展。