赵汀阳:文科知识制度的两个疑问

选择字号:   本文共阅读 3323 次 更新时间:2025-11-23 00:08

进入专题: 文科知识制度  

赵汀阳 (进入专栏)  

 

非常荣幸来参加编委会的会,我想讨论关于文科制度的两个疑问。

首先一个是与编辑工作有关的关于外审制度的疑问。现在刊物都采取外审制度,众所周知,实践效果并不理想,我愿意建议回归编辑主导的制度。但不是完全反对外审制度,而是希望加以改造。理由是这样的:文理科有区别,文科外审制度是对理工科刊物规则的模仿,可是理工科有硬标准的,所谓客观标准,当然不是完全客观,但至少有一个学术共同体普遍承认的略有弹性的标准,大概能够形成共识,总之理工科有着硬标准,所以外审制度对于理工科大概行得通,当然也会有争议,但基本可行。但对于缺乏共识、通用标准和硬标准的文科,外审制度就反而有压制思想学术探索性的倾向。

文科杂志也并不都是走外审道路的。中国刊物的外审制度是对西方的模仿,主要模仿美国,其实欧洲才是更深厚的西方,欧洲许多文科杂志并没有采用外审制度。美国将外审制度引入文科,主要是适应社会科学的发展。美国重视社会科学远超过关心人文,经济学和社会学是美国的特长,这些学科大量引进统计学和数据分析,表面上似乎有了科学性,所以把外审和盲审引入文科,但效果未必好。

可是文科尤其是人文学科并不存在学界共识,更没有通用的硬标准。知识越切分,领地意识就越强,学者的知识态度就越来越倾向于排斥不同的观点来保卫自己的观点。随着知识切分越来越细,专家都只知道一小部分问题和知识,立场分歧也越来越严重,不仅是政治立场的分歧,更多是学派或者是不同思路的分歧,互相看不顺眼。在实际效果上,就是新观点连同新问题,往往都会被抵制。拉封丹讲过一个笑话:一个老婆喜欢拔掉白头发,另一个喜欢拔掉黑头发,很快他们的丈夫就变成秃子了。

我倾向于相信由编辑说了算的传统制度,这种传统制度并非没有毛病,但总体效果很可能好过外审制度。有一点基于观察的感觉,至少对文科来说,外审的偏见似乎大过编辑,因为编辑接触的流派、风格和学者更多,相对容易跳出固定看法。另外,外审的知识广度似乎也小于编辑,甚至,某些外审的专业性未必高过编辑。现在编辑的知识水平提高了,外审专家的专业性优势并不明显,而外审专家反对新观点的积极性远远高于编辑。很大比例的编辑对新观点是有兴趣的,相对而言,编辑可以不在学术学派的竞争中,所以对新观点会更感兴趣。我没有资格向所有刊物提建议,但作为《文史哲》的编委,我会觉得《文史哲》作为一个老牌杂志,是有自主性和主体性的,能不能带头进行一个改革呢?如果不能完全回到以编辑为本的传统,也可以对外审权重有所调整。比如平时由编辑说了算,碰到疑难文章的时候,再找相关专家看,而不是每篇都拿去外审。

第二个疑问是完全不同的另一个问题了。文科知识生产现在面临人工智能的新问题。人工智能来了,而且越来越聪明,传统的复制性的知识至少是逐步失效了。这是知识生产的新局面。

为什么过去需要复制性的知识?在互联网和人工智能之前,人既是知识生产的主体,同时也是收集整理和传播知识的媒介,于是,过去的学者就成为信息和知识的中间人。但是,人工智能正在逐步代替所有中间人的功能,当然目前还远远不充分,但未来非常可能做到。如果说现在的人工智能还不太令人满意,主要不是因为人工智能的能力有限——人工智能在算力上尤其是潜力上没有问题,但运营成本有限度,现在还没有那么多的投资让人工智能获取人类所有知识,还不能收集到所有图书馆和刊物的信息,而且,人工智能运行需要的能量巨大,现在也不能供给人工智能那么大的用电量,在人类解决能源问题之前,还不能让人工智能充分展现它的才华,但其实人工智能目前拥有的算力已经很惊人,比现在在应用中观察到的现象厉害得多。

因此,至少未来的人工智能肯定有能力代替所有中间人的功能,所有复制性的知识都可以归入人工智能的工作,而未来人工智能的能超过人类1万倍都不夸张。在这个意义上,传统的知识生产中依靠劳动量的投入来生产的知识贬值了。以后恐怕只有创新的、开拓性的科学和思想才是有意义的。过去那种好好学习、苦苦坐冷板凳,用几十年积累资料,这种知识方式以后没有前途了,一定会被人工智能所代替。未来的知识人必须要提供先于人工智能一步的新知识,否则就不是知识生产者了。这一点可能对理工科的影响不大,人工智能反过来对科学研究应该有帮助。科学面对的研究对象是问题,而在问题上永远都可以有新的发现和推进。在文科里,人工智能对考古影响也不大,考古总会有新发现,对人类学的影响也不大,人类学永远可以开拓新田野。就是说,凡是研究问题的,永远可以有领先人工智能的新发现。但是以文本为研究对象的二手知识会受到挑战。注经的知识生产以后是没有前途的。

人工智能在文本注经上的能力无穷大,但也会倾向于形成俗见。这里需要解释一下人工智能的技术方法论和算法原则。现在普遍使用的人工智能方法论是贝叶斯概率论,这个方法简单而生动地说,那就是:大胆蛮干,知错就改,逐步修正。是一个动态地不断以后验概率去修正预设概率的经验论方法,与人类的“实践出真知”的经验论高度相似,但更严密、更准确而更优越,这是因为人工智能得益于能够处理巨大数据的运算能力和各种增效算法。

在贝叶斯方法论框架内,不同的人工智能根据不同的需要,会被赋予各种各样有针对性功能的算法——算法就是针对需要解决的具体问题类型的加权运算法,基本上都遵循优选原理。人工智能使用的贝叶斯概率论是非常厉害的,几乎表达了经验论的极致能力,或者说是处理经验数据的最优方法。哲学上有著名的休谟怀疑论问题,大意是:无论积累了多少经验,将以往全部经验加总,也不足以必然推理出未来的情况,即使是明天的经验也推不出来。这个问题的严重性在于,如果思想失去预测能力,就基本上没有什么用了。然而,贝叶斯方法提出了一个优良解决方案,意味着,如果把经验积累理解为一个无限动态通向未来的过程,那么,未来的难题就不再是对未来的必然预测,而被转化为主观的最优选择,就是说,在给定语境和给定数据下去选择那个最显著的可能未来。于是,未来——不确定的未来——就变成了一个集合里的最优可能性。在人工智能的大脑里,未来的问题就变成了“对下一步的最优预测”。人工智能把所有数据都编成它便于分析和操作的标记(token),于是,对人工智能思维来说,所有问题只有一个问题:对下一个token的预测。

一般来说,在数据中频率最高的会被优先考虑;链接最稳定的也给予优先考虑;在链接的长链和多路径链接中更普遍稳定的就更优先考虑;还有,数据越晚近越新,也似乎会被优先考虑——不过这一点似乎有点庸俗倾向,意味着,当下的信息比50年前的信息更容易被优先考虑,即使50年前的成果可能更重要;还有,流行的或教科书式的标准答案会被优先考虑,比如教科书或百科全书或者字典里的答案会被优先考虑。以上这些是属于大众化思维的优选法,在民用人工智能那里确实倾向于产生平庸化的答案。不过,在专业化的人工智能那里有着更高级地专门处理某个领域问题的算法,有着专业化的优选标准,效果就不一样了。总之,就大众使用的人工智能而言,通常问题的答案会选中概率最高的选项,意味着最高限是中庸之道,相当于尽量对齐大众观点的稳妥答案。

因此,就目前在使用中的人工智能而言,人工智能的知识生产很可能会使人类的平均智商略有下降。不过高智商的用户知道如何请人工智能做有价值的辅助工作,因此智力或许反而略有提高。人工智能的智商是“镜像式”的,如果提问比较愚蠢,人工智能的回答也相应比较愚蠢。人工智能可以是愚蠢的玩具,也可以是有用的工具,将来甚至可以成为良好的合作伙伴。可能受到打击的是人数最多的智力中产阶级,他们的知识地位在未来会大大下降,他们的很多工作会被人工智能取代。这种情况类似于当代的金融资本主义和高科技经济造成的贫富分化对中产阶级的打击比较大,将来人工智能同样会打击智力中产阶级。高校有许多文科肯定会萎缩,程序化、模式化、规范化和复制性的知识生产会很大程度上移交给人工智能。在这个情况下,人文社会科学的知识生产以及人文社会科学的杂志恐怕需要主动去选择一些积极的变化,比如更多地开发新问题和新观点,而不是与人工智能比赛劳动量投入,比赛注解文本和收集资料,那样绝对比不过人工智能。这里只是一点参考意见,谢谢。

录音整理 | 陈昊东(经讲者审阅)

进入 赵汀阳 的专栏     进入专题: 文科知识制度  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 爱思想综合 > 学术规范
本文链接:https://www.aisixiang.com/data/169744.html
文章来源:本文转自《文史哲》,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统