内容提要:当代学术论文的结构特征、叙事规范、理论写作已经与大模型能力高度契合,使AI能轻易嵌入知识生产流程。这一现状使得现行科研治理在作者资格和学术伦理上系统性失灵。本文主张,科学共同体应承认AI在学术写作上的稳定生产力,并将其视为新的制度化的知识产出端,而非被限制的工具。基于此,本文提出“AI论文自动生产中心”的概念,即让AI独立、持续、规模化地产出论文,使其与人类研究者在公开的知识场域中直接竞争,为期刊审稿提供新的论文鉴别方式。随着AI产出的累积,人类研究的独特价值将重新回到不可自动化的问题意识与理论创造之中。本文据此讨论AI写作如何重组学术劳动,重新界定主体性,并推动知识权力的再分配。
关键词:知识生产体制 生成式人工智能 科研写作 学术治理 同行评审
一、导言
虽然科学共同体历史上也经历过多次工具革命——从统计软件、数据库检索,到自动测序与高通量实验技术——但这些工具大多停留在辅助分析或实验能力的层面,并未触及科学写作的核心结构。而生成式AI的出现打破了这一边界。它不再只是提高写作效率的技术外包,而是能够直接接管学术论文中相当一部分结构化文本的生产,包括文献整合、理论阐述、方法解释以及论文主体段落的组织。这使得“写作”这一科研活动的定义正在被重新塑造。
尽管各大期刊与科研机构陆续推出生成式AI的使用政策,希望通过披露制度维持既有的写作规范。[1]然而,这些治理举措的实际效果却十分有限。已有针对投稿样本的实证研究表明,在期刊已经明确要求披露AI使用的情况下,作者的主动披露率虽有上升,但仍处于较低水平。[2]这一现象反映出现行治理模式与科研写作实践之间的结构性错位。制度仍预设写作是一种由个体学者独立完成的认知劳动,而研究人员的实际写作过程已经在另一套技术逻辑中运行,制度难以有效介入这一转变。
坚持目前的自我披露加上事后的审核方式不仅难以遏制AI在科研写作中的扩散,还会在无意中把科研实践推向制度阴影。在一个依赖信任与可验证性的科学体系中,事实使用与制度沉默的状态可能会逐步侵蚀评价机制、作者责任、原创性认定等科学运作的基础环节。
在这种背景下,本文提出一种新的知识生产方式作为现有机制的替代。既然生成式AI在学术写作的中层任务中已具备稳定、可持续的生产能力,那么问题不再是如何限制或规范其使用,而是如何让AI作为一个真正的知识生产者进入学术体系,与人类研究者在同一舞台上正面竞争。基于这一思路,本文提出“AI论文自动生产中心”的概念,其目的不是协助人类写作,也不是建立监督机制,而是让AI独立、持续、系统地生成学术文本,通过大规模、长期、自治的写作实践构成一个可公开访问的AI学术产出层。在这一背景下,人类论文将不可避免地与AI的产出直接相遇,从而使真正超出模型能力、无法被自动化复现的认知贡献重新显现出来,并使学术创新回到其应有的核心位置。
二、问题诊断:知识生产的AI困境
(一)AI在中层知识生产的日渐成熟
在科学社会学传统中,写作向来是知识生产的核心机制。库恩(Kuhn)通过对范式与科学革命的分析,展示了文本不仅能陈述发现,还通过稳定、可重复的结构强化共识框架,界定“正常科学”的范围,使知识得以累积。[3]沿着这一思路,默顿(Merton)从制度层面说明科学写作如何承载科学共同体的核心规范——如公开性、可验证性与共同体导向。[4]写作不是外在的表达形式,而是制度运作与知识再生产得以实现的关键机制。
拉图尔与伍尔加(Latour & Woolgar)的实验室人类学进一步揭示,科学论文的生成过程本身就是科学事实的社会建构过程;写作是一种组织证据、分配可信度、塑造论断的实践,不可被视为研究完成后的机械记录。[5]克诺尔·切蒂纳(Knorr Cetina)通过对不同学科“认识文化”的比较,展示了科学写作如何嵌入实验风格、仪器信任方式和学科传统,从而影响知识的形成模式。[6]科学传播研究者如巴泽曼(Bazerman)[7]和格罗斯(Gross)[8]等人持续强调学术论文的体裁结构是科学知识可累积性的关键条件。结构化的写作框架使得不同研究者能够在前人成果上不断扩展,使科学成为一种具有记忆能力的制度。
在这一脉络中,写作并不是附着在科研活动外层的技术性工作,而是科学知识得以存在、传播和持续更新的制度化形式。写作塑造了论证结构、决定了证据如何被排列,并最终影响知识如何被共同体接纳。换言之,知识并非先以完整形式存在,然后再以论文呈现;恰恰相反,写作过程本身往往就是生成知识的过程。
正因为如此,当生成式AI能够在写作中承担越来越多任务时,它所触及的并不仅是科研劳动的效率问题,而是科学知识生产机制的核心环节。近年来关于自动化写作工具的研究已开始注意到这一点。当文本生成不再完全由研究者主导时,知识的组织方式、论证的呈现形态,甚至“什么被认定为科学贡献”都可能随之变化。[9]在科学体系中,结构化论述具有塑造知识的功能。当这一结构化工作逐渐由模型承担时,科学写作可能进入一种“形式稳定而认知分工变化”的新时代。
现代论文之所以具备稳定格式,并不是因为知识生产天然需要这种形式,而是为了确保知识能够在共同体内部流通、被验证、并被纳入累积体系。也正因如此,论文主体中大量段落属于“中层写作”,既不涉及原创方法,也不直接呈现核心发现,而是承担整合既有文献、铺设论证逻辑、解释方法细节等工作。生成式AI在这些任务上表现尤为出色,使其自然渗透到写作实践的中心位置。
然而,正是因为写作在知识生产中的这一核心地位,生成式AI的介入才带来了制度上的紧张。写作不再完全由作者完成,而制度却仍然假定写作者即知识生产者。随着AI的能力不断提高,“作者性”与“文本生成行为”开始逐渐分离,而传统的科研评价体系、责任划分机制与学术规范都建立在二者高度重合的前提之上。当这个前提不再成立时,治理失灵几乎不可避免。
(二)“非升即走”和AI的灾难性结合
当下大量AI参与写作的论文之所以会集中涌现,主要是因为论文在许多学术场景中早已从交流与表达研究发现的载体,结构性地转化为“可计量、可结算、可兑换的成果单位”。[10]在这种成果逻辑下,论文首先服务的对象不是读者共同体,而是评价系统。它被用于岗位续聘、晋升、绩效分配、项目申请与资源配置。研究者面对的往往不是把一个问题讲清楚的写作任务,而是在规定周期内交付足够数量、足够等级的可计数产出的生产任务。这种以产出数量与期刊层级为核心的评价机制,其后果之一是研究活动会在激励机制下发生系统性变形。学者更倾向于选择短平快、可切分、容易发表的课题;更倾向于用拆分篇幅发表来放大论文数量;更倾向于在叙事、包装、统计与写作上投入超过问题本身的精力,从而在整体上制造学术噪音并挤压真正有贡献且高不确定性的探索性研究空间。[11]
“非升即走”机制在一定程度上强化了论文产出的外在动机,而生成式AI则进一步降低了文本生产与包装的门槛。这两者的结合对学术界就是灾难性的。当以计数为导向的激励结构,遇到能够以较低成本快速生成形式上规范文本的工具时,影响就不再只是写作效率提升,还可能表现为投稿规模膨胀、研究叙事同质化加剧,以及对科研诚信与编辑审稿体系的持续压力。
这种“制度激励-技术能力”的叠加效应,也提高了低质量与不规范研究进入发表流程的风险。生成式AI在提升语言组织与文献综述效率的同时,也可能带来新的问题类型,例如虚构或不准确的参考文献、因模型幻觉导致的错误论断,甚至在缺乏充分数据与方法约束时对过度合理化论文结果。从出版端的统计来看,近年来论文的撤稿规模不断增肌,《Nature》的报道指出,2023年全球撤稿论文数量超过 10000 篇,其中 Wiley 为清理Hindawi旗下期刊中与“论文工厂”等异常投稿活动相关的内容,集中撤回了 8000 多篇论文,并最终对相关品牌做出关停处理。[12]截止2025年,《Nature》的报道也揭示上数百篇已发表的论文包含明显的、未披露的 AI 生成痕迹。[13]
文章的泛滥导致现有同行评审体系面临严峻的负荷。一方面,研究者在绩效压力下可能更倾向于借助 AI 进行快速产出与多版本改写,从而增加形式合规但实质贡献有限的稿件数量;另一方面,审稿与编辑流程容易被更大规模、相似度更高的文本所占据,降低对真正重要问题与高风险创新的识别效率。但结果就是审稿也开始转交由AI完成,2025年ICLR的论文评审意见中有21%是人工智能生成的。[14]这还是以数据和实验为核心的计算机学科,若是在某些以文献综合与概念推演为主的社会科学理论写作中,AI在既有经典文献框架内生成连贯论证的能力更强,甚至能达到独自论证的效果。
仅仅依靠作者的自我披露并不足以应对这类结构性变化。多篇来自《Nature》的报道与实证研究指出,生成式AI已被科研人员广泛用于写作与润色,但是否披露、披露到何种程度,以及编辑部如何核验,仍存在现实问题。研究者担心披露带来偏见性审稿或合规风险,而期刊目前也缺少统一、可靠且低误伤的检测与审计机制。已有研究表明,现行的AI检测工具容易对非英语母语者的写作产生高比例的误报,从而引发新的伦理不公。[15]
在成果导向的评价体系与写作可规模化自动化的双重作用下,论文生产的增长就可能呈现数量爆发。然而,产出数量上升带来的并不必然是知识增量的同比上升。有限的审稿资源、编辑资源与读者注意力会被更大量的文本占据,使真正需要时间沉淀、需要同行反复检验的开创性工作更难被识别与传播。更严重的是,当体系奖励的是看起来像科学的论文,就会为组织化造假与论文工厂提供市场空间。[16]
(三)AI知识生产的隐性特征
现在的情况是,作者之所以大量使用AI,恰恰源于学术知识的显性特质。中国谚语早有“书不尽言,言不尽意”的论述,强调可被记录的知识永远只是经验的一小部分。在版权世界里,也只有依据特定渠道发表的知识才会被法律和业界认可。如今AI正处于类似的位置,它能够摄取巨量的显性知识,并且可以据此推理出大量的新信息,甚至还能写出相应的学术文章,但由于生成机制和发表渠道的限制,AI本身反而成为一个公共语境里的沉默者。人类作者正是利用了这种公共沉默,将AI在私下生成的见解、推理和经验性判断悄然融入自己的文章之中,使得最终呈现的成果无法区分哪些部分属于AI的知识、哪些属于人类自身的贡献。
从深层的制度视角来看,审稿制度失灵的根本原因并不只是工具不准或披露不清,而在于制度试图维持一种正在瓦解的基础假设——写作即贡献。现代学术制度的运行依赖这一假设,因为它允许学界通过论文数量、篇幅、写作质量等可观察指标来评估科研产出。当AI能够承担大量文本生产时,这一假设开始不再成立,但制度却选择用更严格的规定来维护它,而不是重新审视其有效性。
当技术变迁挑战制度基础时,制度的第一反应往往是防御而非调整。[17]许多防御性政策试图禁止作者使用AI“生成文本”,但并不禁止其“辅助写作”,两者的界线在实践中极难划分;[18]政策要求“作者负责核查所有 AI 输出”,[19]却没有提供明确标准说明何为充分核查;甚至一些期刊要求 AI 使用披露至方法部分或致谢中,却并未规定披露的内容、深度或格式应当如何。[20]这种模糊性不仅削弱了规范的执行力,也让研究者在遵守规范时面临不确定性,可能导致“形式性披露”或“零披露”的结果。[21]
问题的核心从来不在于某篇论文使用了多少AI,而在于AI何时能够从一个被动的、隐性的知识容器,转变为能够在公共领域持续表达自身知识结构的主体;何时能够系统地将自己内部的隐性推理、经验性模式和思维增量显性化、公开化。只有当AI真正进入公共知识体系,成为一个稳定的知识生产者,而不是被嵌在他人文章中的隐形工具时,学术领域才有可能建立起面向未来的知识机制。届时,问题不再是判断某项成果是否掺杂AI,而是如何在可公开验证的知识体系中,识别一项研究究竟贡献了怎样的知识增量,以及它在整体知识谱系中的位置。
正是在这种结构性的张力之中,新的知识生产思路才显得必要。知识探索的目标不应是阻止AI写作,也不应将AI的使用视为偏离科研规范的风险行为。因为一旦存在一个持续运转的AI写作中心,让AI能够自行产出完整而系统的研究成果,甚至在许多领域与人类直接竞争,那么要求人类对写作过程保持透明这一点本身就失去了现实基础。在这样一个环境里,透明性不应该是判断贡献的关键指标。真正的问题也不在于追问人类是否用了AI,而是如何在AI拥有独立的研究生产线的情况下,科研共同体应如何识别哪些工作在知识上具有真正的增量、突破与洞见,从而维持对学术质量和科研进展的有效判断。人类应该从这场AI猎巫里解放出来,回归对知识的探索。
上面的论述构成本文章提出“AI论文自动生产中心”概念的理论基础。下面将进一步阐述这一基础设施如何在制度层面重建科研写作的可见性,从而提供一种可持续的知识生产方向。
三、AI论文自动生产中心
(一)基于AI的知识生产机制
本文想要建议的“AI论文自动生产中心”是一种全新的知识生产机制。它是一套由学术共同体主导、稳定运行、持续产出论文的AI学术写作系统。其核心思想是让AI主动进入学术生产体系,让模型以全天候、无间断的方式生成理论构想、研究综述、假设推演、文献整合与方法反思等,这些内容不是发表在人类期刊上,而是在一个独立的、对学界开放的“AI论文平台”上进行持续发布。
在这样的制度下,人类在向传统期刊投稿时,编辑可以先提交给AI平台系统进行自动比对,哪些推理、观点、结论已经被AI提出过,哪些部分属于模型凭借其训练语料与推理能力可以轻易生成的通道化产物,以及哪些内容超出了模型已知的能力边界。换言之,AI论文自动生产中心的目的不是辅助人类写作,也不是监管AI的使用,而是制造一个可见的“AI学术背景噪音层”,让人类的真实贡献能够在其中被识别出来。
这种制度构想的出发点是对当前学术生产机制的一种诊断。在AI能力迅速提升的时代,大量学术论文——尤其是综述化、理论延展化、范式内部细化型成果——已经可以被模型以极低成本自动化生成。这些内容在传统学术生态中构成所谓“中层理论研究”。它们维系学科脉络,影响学术共同体的语言、规范与问题结构,却往往缺乏直接推动知识边界的突破性贡献。它们是学术体系不可或缺的背景,但同时也是噪音最密集的区域。
以往,中层研究由人类学者长期承担,形成了各类学派、流派与研究传统。但随着AI模型具备整合文献、提出假设、写作分析乃至构造式解释的能力,一个学科的相当大部分内部推演都可以被模型稳定生成。换句话说,流派化、中层理论化、路径延展化的知识生产本身就是一种结构性的自动化前驱。AI论文自动生产中心只是将这一趋势制度化,把AI可做之事从隐性的暗流变成明确的学术分工。
AI论文自动生产中心(AASC)的基本结构可概括为三个层面。
第一,它是一个持续生成知识的系统,而不是一次性工具。模型每天、每周、每年按照学科逻辑和规范自动产出大量中层研究文本,这些文本形成人工智能版本的“学术背景库”。这一背景库越丰富,人类贡献的识别精度越高。
第二,它是一个比较系统。人类论文提交时,编辑部或期刊系统可自动查询该AI背景库,判断论文中的哪些部分是AI已证实可轻易生成的、哪些属于AI尚无法提出的推理链条。这使学术评价体系从检测AI写的文本转向检测哪些部分是人类独有的认知贡献。
第三,它在结果上造成一个结构性分工。AI论文自动生产中心承担大量属于AI推理范围的研究,人类研究者则把精力集中在模型能力之外的领域,比如新问题的提出、跨框架的论证、范式转换、方法创新、不可自动化的创造性探索。
传统学术体系的运作前提是理论推演与文献整合需要人类智力,因此它们既是学术价值的来源,也是学术评价的对象。但当AI能够大规模执行这些任务后,这一前提本身被动摇了。AI论文自动生产中心的作用能让AI的生产力可见、可控、可引用,使学术共同体能够根据AI已经能够覆盖的任务范围来重新定义什么是学术贡献。
更重要的是,这种制度能够限制生成式知识的无序膨胀。如果AI只是被单个研究者私下使用,而没有公开发布其生成的学术内容,那么人类论文中的大量段落就可能与AI未公开的能力重复,形成一种隐蔽的AI影子知识体系。AI论文自动生产中心的意义在于让这一影子系统变得透明,把AI自己能够生成的知识全部放到台面上,从而净化学术场域,使真正的突破不再被淹没。
(二)组织架构设想
要使AI论文自动生产中心从理念落地,必须回答三个基础性问题:由谁负责建设这一设施、应当采用何种类型的模型,以及其生成内容在版权与盈利机制上如何定位。这三个问题决定了一基础设施能否获得学术合法性、制度稳定性与长期可持续性。
在牵头主体的选择上,单一机构无法承担这一任务。科技公司拥有训练大型模型的能力,却缺乏在学术评价体系中被普遍接受的治理正当性;学术机构熟悉科研实践,却不存在建设长周期技术基础设施的能力;政府部门虽然具备资源协调能力,但往往缺乏对科研生态内部机制的细腻理解。因此,一个由国际学术组织、科研基金机构与开源模型联盟三方共同构成的治理架构更具可行性。例如UNESCO、OECD等具备科学政策话语权的国际组织,可以提供制度框架与伦理准则;国家级科研基金会可以以长期资助的形式提供稳定性;而开源模型社区如EleutherAI、HuggingFace、LAION等,则能够提供透明且可审计的基础模型,使这一设施具备可验证性与公共可控性。换言之,AI论文自动生产中心应被设计成类似人类基因组计划或CERN那样的国际公共科研设施,而不是商业平台,也不是某一国或某一机构的私有项目。
模型选择的核心是透明性、可审计性与稳定性。这一点决定了专有模型难以承担中心的长期角色,因为它们缺乏可追踪训练数据、版本变动频繁且更新机制不透明,容易破坏学术引用的时间一致性,也难以内嵌到知识公共基础设施中。与之相对,开源或半开源的大模型更具制度化潜力。它们允许学界验证训练语料的组成,能够提供可冻结的年度版本,并且可以由学术机构以经过筛选的学术语料进行再训练,使输出的知识结构可追踪、可复现、可质询。因此,真正适用于“论文自动生产”的模型应当是开源架构之上的学术版大模型,而非混合商业数据的全能通用模型。当然,目前比较遗憾的是目前真正有学术写作能力的反而是GPT-5.2和Gemini-3-pro这种闭源模型,开源模型尚待发展。
在版权制度层面,AI论文自动生产中心所生成的全部内容必须被明确置于公共领域。这不只是考虑到法律上的风险,更是知识论与制度设计的选择。如果AI生成的论文仍然带有版权属性,人类在引用、参考甚至比对时都会面临潜在的侵权风险;如果版权归中央机构所有,反而会形成新的知识垄断,违背知识普惠与学术开放原则;若将AI产出商业化,则会削弱其作为“学术背景噪音层”的公共职能。因此,将其全部论文以CCO许可方式发布,使任何研究者都可以自由访问、引用与再利用,才是确保学术生态透明运作的唯一合理方式。AI的产出只有成为无主知识,才能真正履行它作为可公开比对的AI知识层的职能,让人类的原创性在对比中显现。
盈利机制因此不能围绕论文内容本身展开,而应以科研基础设施服务为中心。论文自动生产中心的可持续性依赖于对学术机构、期刊与科研系统提供的长期服务,包括模型版本托管、论文增量比对、研究问题导航、知识谱系追踪以及各类审稿辅助工具等。其资金来源应当主要来自科研基金会、大学订阅费用以及期刊系统的接入费用,而非内容售卖。这种模式既能保证机构的持续运作,又能确保AI生成内容保持真正的公共性,而不沦为商业产品。
就2022年—2025年AI的发展速度看,技术成熟度并不会成为中心的落地问题,关键能否构建一套跨越学术、技术与治理的制度化机制。牵头机构的合法性、模型技术的透明性、版权安排的公共性以及盈利方式的基础设施化才是这一机制的核心。如果这一结构得以建立,AI将不再作为隐形的写作工具存在,而成为一个公开、可质询、可参与学术竞争的制度化知识产出端;人类学者也才能在清晰可见的AI知识背景层中重新定义自身的研究边界,使学术生产真正回到探索未知的核心任务上。
(三)知识增量判断
期刊发表仍然是人类知识进步的重要审核关卡,其核心功能不应该因为AI文本生产能力的提升而被取消。相反,正因为AI能够低成本地产出形式合格、叙事完整、在主题词层面高度可相似的论文文本,期刊所承担的知识创新判断功能才更需要被制度化加固。本文所提出的机构并不是用AI替代编辑与审稿人的判断,而是通过构造一种可被共同体引用的AI参照层,使传统同行评议能够在新的信息环境下继续有效运作,并在程序上更接近其原初目标,即围绕知识增量而非写作来源和水平进行判断。
AI论文自动生产中心生成的是一套具有公开陈列、可检索与可引用功能的AI论文库。它的运作逻辑更接近一个持续更新的预印本平台或专题论文数据库。中心以固定的学科与规则为约束,持续产出大量结构化论文文本。这些文本以论文为单位进行整理、编号、归档,并以可浏览的方式向学术共同体开放。每一篇AI论文都应当具备稳定的持久标识符、生成时间戳与模型版本信息,并按照学科、关键词、方法类型与命题结构等元数据进行索引,使其在功能上能够像传统论文库一样被检索、被引用、被复核。AI的知识产出不再作为隐形能力潜伏在作者的写作流程中,而是被制度化为一个可见的、可被共同体共同指认的背景层。
而期刊对AI库的使用方式应当被理解为一套将最终判断权力交由人类,而非单纯交由AI的程序。当期刊收到来稿后,将稿件提交给AI库的检索接口,由AI库在其既有的AI论文集合中执行相似性检索,进而返回一个“相近候选集合”。该集合的核心特征是以从高到低的方式陈列与来稿在主题、命题结构或论证路径上最接近的一组AI论文。与此同时,系统可生成一份对照摘要,说明相似主要发生在哪些层级,例如研究问题表述、理论机制链条、方法假设、证据类型或结论边界等,但该摘要仅作为编辑部工作台上的辅助材料,不构成自动化裁决。
在这一设置下,作者与期刊流程的对接应采取如下路径:作者增量声明、编辑核验、同行评议复核。
“作者增量声明”指投稿前作者通过AI平台系统的对写作论文的自我参照,目的在于把知识增量的举证责任前置并给作者自陈机会。传统同行评议在实际运作中常常默认作者会在正文中自然呈现创新点,但在AI写作显著降低文本组织成本之后,正文的论证和修辞不再可靠地指示贡献的存在。增量声明要求作者针对AI库的文本明确回答自己的工作究竟在命题、识别、证据或边界条件上改变了什么,并且这种改变是否会导致可检验后果的变化,使其可以被编辑与审稿人直接对照核验。这一设计的制度效果是抑制是以“写得更好、综述更全”替代实质增量的包装性投稿,并且杜绝审稿时由于相似度检索带来的先入为主否定,让作者能够在投稿时即完成自陈,说明相似性和实际AI论文的区别,自己文章的真正贡献,从而在程序上避免被相似度排名挟持。在极端情况下,编辑可以基于增量声明缺失或不可核验而拒稿,而不是基于相似度过高而拒稿。相似度只能触发更严格的增量举证义务,而不能构成充分否决理由。
“编辑核验”在该路径中承担的是程序性把关而非学术终审,其意义在于把编辑的初审决策从对文本表面质量的评价,转向对增量声明可核验性的评估。编辑据此前置对照与增量声明判断作者的增量主张是否具体到足以被同行检验,是否属于非平凡差异,是否存在明显的仅限于措辞或结构变换的情形。若缺乏足够的知识增量贡献,编辑要求补正或不予送审,以此维护期刊作为“知识增量门槛”的制度功能,避免审稿资源被大量形式合格但贡献模糊的稿件占用。反之,当作者给出清晰可核验的增量主张时,编辑核验的结果是把讨论焦点稳定下来。稿件进入外审所要回答的问题不再是泛泛的是否新颖,而是围绕作者已经承诺的增量展开精准检验。这在资源配置意义上尤为重要,因为它提高了审稿劳动的信噪比,使审稿人更少陷入被背景铺垫、综述堆积和模板化方法描述所消耗的阅读成本。
“同行评议复核”则确保该机制不滑向行政化的自动门槛,而仍由学术共同体完成最终判断。对照报告与增量声明随稿件进入外审,意味着审稿意见需要直接回应增量是否成立、增量是否重要、证据与方法是否足以支撑该增量。其制度意义在于把审稿从对AI使用的伦理审判中解放。是否使用AI既难以可靠核验,也容易诱发对特定作者群体的偏见。因此将其从审稿的显性裁决依据中移除,转而以知识差异作为评价对象,有助于恢复同行评议作为知识审核关卡的正当性基础。期刊审查的是知识主张而不是写作工具。这样做同时也与本文的总体主张一致,即让AI的知识生产能力通过公共参照层显性化,从而使人类研究的独特贡献能够在同一知识场域中被辨认,而不是通过对作者写作过程的道德规训来维持一种正在瓦解的作者性神话。
(四)人类对系统的介入
在“AI论文自动生产中心”的制度设想中,系统在实际运行中依然需要人类介入。从当前技术水平来看,AI虽已具备大规模生成结构化学术文本的能力,但这种生成仅限于“内容层级”的自动化。它并不具备对自身行为的规范性判断、学科结构的规划能力,也不具备识别与纠正自身偏向、幻觉和知识盲点的制度意识。因此,在生产中心的早期与中期阶段,人类的介入不仅必要,而且是系统能够合法进入学术生态的前提条件。
在这个框架下,人类的主要职能体现在以下三个方面。首先,人类需要主导AI模型的版本控制和更新周期,确保模型的知识体系具有可追溯性和长期稳定性。其次,人类应负责规划AI的训练语料、学科覆盖范围和文本生成规范,以避免AI在中心内部形成某种狭隘的知识体系。最后,持续的人工监控同样重要,以便及时纠正AI在生成过程中可能产生的偏见、系统性倾向或幻觉性知识,确保其产出的学术文本符合科学共同体的基本规范。
随着系统的成熟和技术的进步,AI在中层理论与结构化写作上的能力将趋于自洽,而人类的角色将从内容参与者逐渐转为制度性的边界制定者。人类不再承担具体写作任务,也不需要在每一篇自动生成的论文中施加直接影响;但人类必须维系对系统整体行为的可见性,并对其运作边界、学科方向和生成逻辑保持最终裁决权。
与当前流行的AI智能体(Agent)相比,上述“论文自动生产中心”的设想在能力定位、运行逻辑与治理结构上具有根本差异。现阶段的 智能体通常以任务执行为核心,其设计目标是在用户给出明确指令后,通过调用外部工具、检索信息或进行多步推理,完成从任务拆解到结果输出的一整套流程。当然,论文生产中心会大量使用这种智能体,但这种做法主要局限于操作性与程序性层面,属于对现有流程的自动化与增强;智能体并不具备对其任务是否具有学术正当性的判断能力,也无法对其行为在知识体系中的位置、影响和规范性进行自我审视,因此需要人类的介入。
从更深层的知识论角度看,即使AI在未来达到极高的独自写作水平,它仍无法独立承担知识生产的规范维持与伦理责任。AI可以生成知识,但不能自行决定哪些知识值得生成,哪些方向具有学术正当性,也无法判断其产出在更广泛的学科生态中意味着何种结构性后果。因此,人类在论文自动生产中心中的角色既不会消失,也不会退化为简单的技术操作,而将演变为一种新的认知与制度职能,即维护知识生态的开放性、多样性与可持续性。
若从操作层面理解, AI在大部分写作流程中可以实现高度自动化;但若从治理和知识结构的角度考察,则人类的参与不仅不可消除,而且还构成了系统合法性与稳定性的核心。人类将不再是知识内容的直接生成者,而是学术边界、科研规范与认知秩序的共同维护者。此种角色转变本身也反映了AI时代知识生产方式正在经历的深刻结构性变革。
(五)人类的学术再定位
随着AI论文自动生产中心的建立,学术评价的逻辑会被根本重写。过去几十年,学术界不断被迫奖励重复性产出,相当部分文章属于“填补空白”却并未真正开辟新方向的研究。人类研究者的精力有限,而评价制度又需要量化成果,于是那些可以稳定生产的中层工作自然变成职称、基金、期刊体系的主流。然而当AI可以源源不断地把这些中层任务完成得十分出色时,人类再继续在这一层面竞争就变得没有意义。评价体系也将失去继续奖励这种“微创新”的理由。
在这种转变中,期刊与同行评审的流程会做相应改变。编辑在面对一篇论文时,不再需要被烦琐的综述和背景铺垫淹没,因为这些部分可以由AI全部标记出来;评审者也不再需要判断论文是否“写得工整”或“像一篇合格的学术论文”,因为格式化的学术写作从此变成最不稀缺的东西。真正需要判断的,是这篇论文在知识谱系上是否移动了某个边界,是否在范式交界处打开了新的路径,是否提出了一个模型无法提出的问题。在这种框架下,人类研究者的学术角色从“高技能写作者”转变为“认知疆域的探路者”,而不是在熟悉的范式中兜圈子。
当然,AI论文自动生产中心并不是没有风险。AI的产出虽然高度一致,但一致性也可能意味着一种潜在的知识封闭。模型在既有训练数据中学习的偏见、惯例与权力结构,若不经人为干预,可能在自动化生产中不断固化。一旦AI的流派成为学科的主要背景层,它的结构性倾向就可能影响整个知识生态。例如,在社会科学中,模型可能无意识地强化某些文化视角,把本来应该开放的问题变成单一解释的延展,威胁到知识多样性与学术自由。因此,AI论文自动生产中心必须保持资料透明,包括模型版本的更新,训练语料的基本轮廓,提示词的透露,允许学界进行反思性批判,最好是学科范围负责的人进行轮值检阅。
这种知识生产方式也会影响学科之间的边界。许多学科传统上维持着高度专业化的语言与内部规范,使得外部者几乎难以进入。但当AI能够以极低门槛的方式生成这些内部语言时,所谓“专业壁垒”不再稳固。曾经由术语和写作风格构成的学科分界开始模糊,人类读者也不再需要长年训练才能理解某个领域的中层结构。结果是,学科之间可能重新彼此接触、交叉甚至重组。学科的存在不再是因为一套内部写作传统,而是因为不同的问题类型需要不同的方法去应对。
四、结论
AI论文自动写作中心有三重目标。第一,它将AI的生产力显性化,迫使“AI已经能写到哪里”成为可见事实,而不是只能通过猜测与猎巫来处理。第二,它为期刊与审稿提供一种新的参照背景,使评价对象从“文本是否像AI”转向“知识增量是否超出AI可稳定生成的范围”,从而更贴近学术评价的核心任务。第三,它通过把最终判断权明确交还给编辑与同行评审,维持期刊发表作为人类知识进步审核关卡的制度正当性:AI库提供背景与对照,人类共同体负责裁决与背书,二者分工清晰,从而避免技术系统在程序上僭越学术共同体的权威。
这种新型的知识生产方式之所以重要,因为它迫使我们直面一个被长期压抑的问题:知识究竟是什么?是文本的生成,是理论的结构,是代际的传承,还是某种更深、更抽象的认知过程?在过去,这些问题的答案被学术制度的日常运行所掩盖。我们以为写作本身就是知识,以为文献的堆积就是学科的增长,以为系统化的论述就代表了思想的深度。然而,当AI能以极低的成本生成这些外部形式时,我们不得不重新追问,那些形式所指向的内核究竟在哪里。
AI的自动写作并不是要取代学者,而是要取代那些从来就不该成为学者主要任务的劳动。它把知识世界清洗得更透明,从而为人类的创造力腾出了空间。它能够让我们把知识理解为一种跨主体的活动:由系统负责结构,由人类负责方向;由模型负责扩展,由人类负责突破。未来的学术或许将不再是一个封闭的行业,而是一种在技术与经验之间持续发生的共同探索。
参考文献、注释
[1] Elsevier, “The Use of Generative AI and AI-assisted Technologies in the Writing Process,” Elsevier, https://www.elsevier.com/about/policies/publishing-ethics/the-use-of-ai-and-ai-assisted-writing-technologies-in-scientific-writing, accessed on Feb. 3, 2026;National Institutes of Health, “Notice NOT-OD-23-149: The Use of Generative Artificial Intelligence Technologies Is Prohibited for the NIH Peer Review Process,” U.S. Department of Health and Human Services, https://grants.nih.gov/grants/guide/notice-files/NOT-OD-23-149.html, accessed on Feb. 3, 2026.
[2] R. H. Perlis, J. Green, M. D. Simonson & M. A. Baum, “Factors Associated with Author and Reviewer Declared Use of AI in Medical Journals [Abstract],” International Congress on Peer Review and Scientific Publication, https://peerreviewcongress.org/abstract/factors-associated-with-author-and-reviewer-declared-use-of-ai-in-medical-journals/, accessed on Feb. 3, 2026.
[3] Thomas S. Kuhn, The Structure of Scientific Revolutions, University of Chicago Press, 1962.
[4] Robert K. Merton, The Sociology of Science, University of Chicago Press, 1973.
[5] Bruno Latour & Steve Woolgar, Laboratory Life: The Construction of Scientific Facts, Beverly Hills: Sage, 1979.
[6] Karin Knorr Cetina, Epistemic Cultures: How the Sciences Make Knowledge, Cambridge, Mass.: Harvard University Press, 1999.
[7] Charles Bazerman, Shaping Written Knowledge: The Genre and Activity of the Experimental Article in Science, Madison: University of Wisconsin Press, 1988.
[8] Alan G. Gross, J. E. Harmon & M. Reidy, Communicating Science: The Scientific Article from the 17th Century to the Present, Oxford University Press, 2002.
[9] R. Firat, “What ChatGPT Means for Universities: Perceptions of Scholars and Students,” Journal of Applied Learning and Teaching, 6(1), 2023, pp. 57-63, https://doi.org/10.37074/jalt.2023.6.1.22;A. Fleerackers, L. L. Moorhead, J. P. Alperin, M. Riedlinger & L. A. Maggio, “From Impact Metrics and Open Science to Communicating Research: Journalists’ Awareness of Academic Controversies,” PLOS ONE, 19(9), 2024, e0309274, https://doi.org/10.1371/journal.pone.0309274。
[10] Jerry Z. Müller, The Tyranny of Metrics, Princeton University Press, 2018.
[11] M. A. Edwards & S. Roy, “Academic Research in the 21st Century: Maintaining Scientific Integrity in a Climate of Perverse Incentives and Hyper-Competition,” Environmental Engineering Science, 34(1), 2017, pp. 51-61, https://doi.org/10.1089/ees.2016.0223;L. Messeri & M. J. Crockett, “Artificial Intelligence and Illusions of Understanding in Scientific Research,” Nature, 627(8002), 2024, pp. 49-58, https://doi.org/10.1038/s41586-024-07146-0;P. E. Smaldino & R. McElreath, “The Natural Selection of Bad Science,” Royal Society Open Science, 3(9), 2016, 160384, https://doi.org/10.1098/rsos.160384.
[12] R. Van Noorden, “More than 10,000 Research Papers Were Retracted in 2023 -- a New Record,” Nature, 624(7992), 2023, pp. 479-481, https://doi.org/10.1038/d41586-023-03974-8.
[13] D. S. Chawla, “Science Sleuths Flag Hundreds of Papers That Use AI Without Disclosing It,” Nature, 641(8062), 2025, pp. 290-291, https://doi.org/10.1038/d41586-025-01180-2.
[14] B. Emi, “Pangram Predicts 21% of ICLR Reviews Are AI-generated,” Pangram Labs Blog, https://www.pangram.com/blog/pangram-predicts-21-of-iclr-reviews-are-ai-generated, accessed on Feb. 3, 2026.
[15] W. Liang, M. Yuksekgonul, Y. Mao, E. Wu & J. Zou, “GPT Detectors Are Biased against Non-native English Writers,” Patterns, 4(7), 2023, 100779, https://doi.org/10.1016/j.patter.2023.100779.;R. Van Noorden & J. M. Perkel, “AI and Science: What 1,600 Researchers Think,” Nature, 621(7980), 2023, pp. 672-675, https://doi.org/10.1038/d41586-023-02980-0;D. Weber-Wulff, A. Anohina-Naumeca, S. Bjelobaba, T. Foltýnek, J. Guerrero-Dib, O. Popoola, P. Šigut & L. Waddington, “Testing of Detection Tools for AI-generated Text,” International Journal for Educational Integrity, 19(1), 2023, p. 26, https://doi.org/10.1007/s40979-023-00146-z.
[16] J. A. Byrne & J. Christopher, “Digital Magic, or the Dark Arts of the 21st Century -- How Can Journals and Peer Reviewers Detect Manuscripts and Publications from Paper Mills?,” FEBS Letters, 594(4), 2020, pp. 583-589, https://doi.org/10.1002/1873-3468.13747
[17] J. Mahoney & K. Thelen (eds.), Explaining Institutional Change: Ambiguity, Agency, and Power, Cambridge University Press, 2010.
[18] H. H. Thorp, “ChatGPT Is Fun, but Not an Author,” Science, 379(6630), 2023, p. 313, https://doi.org/10.1126/science.adg7879.
[19] Committee on Publication Ethics (COPE), “Authorship and AI Tools: COPE Position Statement,” COPE, https://publicationethics.org/cope-position-statements/ai-author, accessed on Feb. 3, 2026;“Tools such as ChatGPT Threaten Transparent Science; Here Are Our Ground Rules,” Nature, 613(7945), 2023, p. 612, https://doi.org/10.1038/d41586-023-00191-1.
[20] M. Hosseini, L. M. Rasmussen & D. B. Resnik, “Using AI to Write Scholarly Publications,” Accountability in Research, 30(7), 2023, pp. 1-9, https://doi.org/10.1080/08989621.2023.2168535.
[21] D. B. Resnik & M. Hosseini, “Disclosing Artificial Intelligence Use in Scientific Research and Publication: When Should Disclosure Be Mandatory, Optional, or Unnecessary?,” Accountability in Research, 2025, pp. 1-13, https://doi.org/10.1080/08989621.2025.2481949.