张耀铭:AI与学术期刊:赋能与祛魅

选择字号:   本文共阅读 5907 次 更新时间:2025-11-08 20:52

进入专题: 人工智能   学术期刊  

张耀铭 (进入专栏)  

摘要:1956年达特茅斯会议标志着人工智能的诞生,符号主义、连接主义与行为主义三大学派共同构建了AI的理论基石。历经70年“两起两落”的技术浪潮,生成式人工智能(GAI)在21世纪实现了从“分析系统”到“生成系统”的范式跃迁,推动人工智能从“模仿人类”走向“协同人类”的“后学派时代”。生成式人工智能对学术生态的影响呈现多维变革:在科研范式维度,催生“第五科研范式”,AlphaFold蛋白质预测、AI辅助定理证明等案例,打破了传统学科壁垒,实现数据驱动与模型驱动的融合;在知识生产维度,从主题构建、文献综述到文本修饰,AI以高效的信息整合能力辅助作者重构创作模式;在编辑审稿维度,学术期刊编辑必须提高识别AI生成论文的能力,从编辑加工角色进化为“人机协作管理者”,通过一次次与AI的合作,实现热点追踪、选题策划、稿件审读、同行评审等工作效率的提升。然而,技术狂飙背后暗藏深层风险:训练数据的版权模糊性、AI生成物的著作权归属争议、“AI幻觉”导致的虚假信息传播,均对现有学术规范与法律体系提出挑战。如何在技术赋能中守护学术本真,在范式变革中坚守人文内核,不仅是学术期刊面临的时代命题,更是整个知识生产领域需要共同书写的答卷。

关键词:生成式人工智能;三大学派;人机协作;AI幻觉;版权侵权;伦理风险

毋庸讳言,1956年注定是在人类历史上留下浓墨重彩一笔的特殊年份。这一年的夏天,美国新罕布什尔州汉诺威镇的达特茅斯学院召开了“人工智能夏季研究项目”会议,先后有约翰·麦卡锡、马文·明斯基、塞尔弗里奇、内森·罗切斯特、克劳德·香农、赫伯特·西蒙和艾伦·纽厄尔等四十多位数学、心理学、神经学、信息科学和计算机科学等方面的专家学者参与了这次暑期会议。在这次会议上麦卡锡非凡地提出,“让机器达到这样的行为,即与人类做同样的行为”可以被称为人工智能(Artificial Intelligence AI)。1956年也就成了人工智能元年。1969年国际人工智能联合会议组织在美国成立,标志着人工智能学科正式确立。人工智能在之后的发展进程中,基本形成了符号主义、连接主义、行为主义三大学派。三大学派研究的侧重点虽然不同,但都丰富了人工智能的理论体系。正如基辛格所言,人工智能有望在人类体验的所有领域都带来变革,“变革的核心将发生在哲学层面,即改变人类理解现实的方式以及我们在其中所扮演的角色。”

近年来随着生成式人工智能技术的广泛应用,正推动知识生产的“范式革命”,重塑论文写作模式。学术期刊作为知识生产内容的重要载体,从内容生产到传播模式,从审稿流程到学术诚信体系,均面临系统性重构。在生成式人工智能应用场景下,人与AI的合作恐怕将成为常态,学术期刊编辑如何认识自身与AI的关系?如何通过人机协作,既提高工作效率又能保持科学精神和人文底线?学术期刊出版业态会被如何重新定义与重构?又会带来哪些版权风险与伦理问题?这些问题都值得学术期刊从业者进行深入思考。本文仅做一些初步探讨,恳请方家不吝赐教。

一、生成式人工智能的技术崛起

从历史维度审视,学术期刊与AI技术的发展呈现出深刻的双向驱动共生关系。这种关系在不同阶段以不同形式展开,既体现为学术期刊对AI技术突破的记录与传播,也表现为AI技术对学术研究范式和出版模式的赋能与革新。20世纪50~60年代是人工智能发展的重要起步阶段,学术期刊在这一时期为早期AI理论的孕育提供了关键支持。早在1950年艾伦·图灵在《心灵》(Mind)发表《计算机器与智能》论文,就“提出了如今人尽皆知的图灵测试理论以及机器学习、遗传算法、强化学习等多种概念”。这篇论文为人工智能研究奠定了重要的理论基础。也是在1950年,克劳德·香农在《哲学杂志》(Philosophical Magazine)发表《为下棋编程计算机》,首次系统地提出了用算法实现计算机下棋的理论框架,为后来人工智能在游戏领域的应用奠定了基础。人工智能的历史与计算机历史相伴,随着冯·诺依曼结构计算机的诞生,人工智能悄然在大学实验室里崭露头角。其实在麦卡锡1956年正式提出人工智能概念之前,“香农早已完成他的三大通信定律,为计算机和信息技术打下基础。明斯基已经造出第一台神经网络计算机(他和同伴用3,000个真空管和一台B-24轰炸机上的自动指示装置来模拟40个神经元组成的网络),不久写出了论文《神经网络和脑模型问题》。这篇论文当时没有太受重视,日后却成为人工智能技术的鼻祖。而图灵早在1950年就提出了如今人尽皆知的图灵测试理论以及机器学习、遗传算法、强化学习等多种概念。”1955年美国西部计算机联合大会在洛杉矶召开,塞弗里奇提供了一篇关于模式识别的论文,代表了企图模拟神经系统的一派观点;纽厄尔则探讨了计算机下棋,试图模拟心智系统的方法。讨论会主持人、美国神经科学家沃尔特·皮茨总结时指出两者殊途同归,这一观点也预示了人工智能后续几十年关于“结构与功能”两条路线的发展态势。经过近70年的发展历程,人工智能研究经历了两起两落,终于在21世纪初迎来了第三次发展浪潮。

1. 人工智能的潮起潮落

(1)人工智能的第一次浪潮(1950~1969)。以英国数学家艾伦·图灵1950年发表论文《计算机与智能》,提出“图灵测试”为标志,符号主义、连接主义和行为主义等人工智能研究的多个分支出现,掀起了人工智能研究的第一次浪潮。1958年麦卡锡开发了LISP编程语言,成为一种通用高级计算机程序语言。1968年爱德华·费根鲍姆使用LISP语言开发了第一个专家系统DENDRAL,标志着符号主义学派逐渐形成。此后符号主义盛行,LISP编程语言更是长期垄断人工智能领域的应用。1958年弗兰克·罗森布拉特在《心理学评论》(Psychological Review)发表论文《感知器:大脑中信息存储与组织的概率模型》,首次系统性地提出了感知器模型,为人工神经网络的发展奠定了基础。1969年马文·明斯基和西摩·帕尔特在著作《感知器》中指出单层感知器无法解决非线性问题,其存在局限无法突破应用瓶颈。这一结论对连接主义学派的神经网络研究产生了重大影响,进而导致了“第一次AI寒冬”的到来。存在局限无法突破应用瓶颈,导致连接主义学派的神经网络研究进入低谷。尽管如此,这段时期仍被后来的研究者称为“黄金时代”。

(2)人工智能的寒冬(1970~1979)。1965年12月,兰德公司顾问休伯特·德雷福斯发布《人工智能与炼金术》的研究报告,对兰德公司主导的人工智能研究提出了严厉的批评:“包括国际象棋中的组合爆炸、启发式方法在机器定理证明中的停滞、10年来投入了1,600万美元的机器翻译面临的上下文歧义问题、模式识别只能做到识别手写的摩尔斯电码和英文字母的水平。”这使得人工智能研究的声望在美国空前下降,很难再从美国国防部高级研究计划局(DARPA)申请到经费资助。1973年,英国科学研究理事会发布了剑桥大学知名物理学家詹姆斯·赖特希尔教授提交的一份关于英国AI研究现状的调查报告。报告的结论是仅支持对神经生理学和心理学过程的计算机模拟,而放弃对机器人和语言处理的资助,这导致科学研究理事会终止了多数大学AI研究的支持。一连串的黑天鹅事件,导致人工智能研究跌入低谷经历至闇时刻。不过寒冬中还是出现了一抹亮色,1970年爱思唯尔创办了《人工智能》(Artificial Intelligence)期刊,成为全球首个专注AI研究的学术阵地,系统收录了符号主义学派的经典成果,并通过同行评审机制筛选出具有突破性的研究,推动AI领域的学术规范形成,促进研究者之间的批判性讨论和思想碰撞,为后续的AI研究提供了可信赖的参考依据。

(3)人工智能的第二次浪潮(1980~1992)。20世纪80年代至90年代初,被认为是人工智能的高速发展时期。第一个标志是“专家系统”的研发,该系统将人类专家的知识和经验以一定的形式存储在计算机中,通过推理机制来解决特定领域的问题,让人工智能从理论研究走向了医疗、气象、地质等领域实际应用。第二个标志是“反向传播算法”的提出与应用,让人工智能神经网络研究再次引起了人们的广泛关注。1986年7月,杰弗里·辛顿与戴维·鲁梅尔哈特等合作在《自然》杂志发表了《反向传导误差的学习表征》论文,提出了反向传播算法。这种算法的核心思想是通过计算每一层的误差,并将这些误差逐层向后传播,进而调整每一层的权重和偏置,使得整个网络的输出误差最小化,这就创造性地解决了多层神经网络无法高效训练的理论难题。第三个标志是“行为式机器人”概念的提出,1986年罗德尼·布鲁克斯批判了传统的符号主义人工智能过于依赖复杂的推理系统,忽视了身体与环境的互动对智能行为的关键性贡献。他强调机器人通过身体与环境的动态交互实现自主学习和进化,其核心在于将感知、行动与认知深度融合。这一理论被视为行为主义学派在人工智能领域的重要代表,为后来的具身智能研究奠定了坚实基础,并对当时的机器人学领域产生了深远影响。但从整体上看,人工智能的第二次浪潮“仍然笼罩着浓厚的学术研究和科学实验色彩,虽然激发了大众的热情,但远没有达到与商业模式、大众需求接轨并稳步发展的地步。”

(4)人工智能的低谷(1993~2005)。人工智能第二次低谷的起点之所以划在1993年,主要考虑五个关键节点:其一,日本第五代计算机研究开发计划,因最终没有突破关键性技术难题宣告失败;其二,基于规则和符号推理的专家系统表现不佳,难以处理不确定性问题风光不在;其三,当时的硬件算力和数据规模无法支撑机器学习(尤其是深度学习)的发展,导致许多理论难以落地;其四,部分AI项目(如语音识别、机器翻译)因商业化失败被诟病,投资信心受挫;其五,“奇点理论”的提出。1993年,美国计算机科学家兼著名科幻作家弗诺·文奇写了《即将到来的技术奇点:后人类时代如何求生》,对人工智能潜在的风险发出警告。论文开头就危言耸听地写道:“在未来30年间,我们将有技术手段来创造超人的智慧。不久后,人类的时代将结束。”弗诺·文奇成为最早的人工智能威胁论的吹哨者。这一年马赛克浏览器的流行,使得覆盖互联网的万维网成为新的连接世界的平台,也引发了硅谷的电子商务革命。“在这种大的背景下,DARPA的新任领导认为人工智能并非‘下一个浪潮’,因此大幅度地削减了资助,AI研究再次遭遇经费危机陷入低谷,并在漫长的寒冬中蛰伏起来。”尽管1997年IBM的超级计算机“深蓝”击败了当时的世界冠军加里·卡斯帕罗夫,2001年保罗·维奥拉和迈克尔·琼斯提出的Viola-Jones算法(人脸检测算法)广泛应用于数码相机和安防监控,但只不过是资本寒冬时期燃放的几朵爆竹烟花。

2. 生成式人工智能技惊世人

2003年约书亚·本吉奥在《机器学习研究杂志》(Journal of Machine Learning Research)发表《神经概率语言模型》论文,其核心贡献在于将分布式表示与概率建模深度融合,不仅显着提升了语言模型的性能,更开创了NLP的深度学习时代,为计算机理解和处理人类语言提供了新的思路和方法,推动了机器翻译和自然语言理解系统的重大转变。2006年杰弗里·辛顿提出具有划时代意义的“深度神经网络”框架和“逐层预训练”方法,解决了深层神经网络训练困难的问题,引发了“深度学习”革命。2024年诺贝尔物理学奬授予杰弗里·辛顿,以表彰他利用人工神经网络进行机器学习的奠基性发现和发明。2014年伊恩·古德费洛提出“生成对抗性网络”概念,创新机器学习算法,在图像生成等领域有了广泛的应用。2017年谷歌与多伦多大学研究团队共同发表论文《注意力满足一切》,提出了Transformer自然语言处理模型,突破传统架构,完全基于注意力机制,大幅提升了并行计算能力和长序列处理效率。2021年理希·博马萨尼等学者共同发表的报告《基础模型的机遇与风险》中将Transformer模型称为“基础模型”。可以说,“大基础模型Transformer已成为这一轮人工智能迭代发展的范式之基。并且,已有诸多实验证明,基础模型规模越大,效果就越好。”

生成式人工智能(Generative Artificial Intelligenc,GAI)是人工智能的重要分支,指一种基于算法、模型和规则生成文本、图像、音频、视频、代码等内容的技术。生成式人工智能与传统AI的数据处理和分析功能不同,其核心技术包括大规模数据集、生成对抗网络、大规模预训练模型和人的存在这个价值尺度。“相较于过往各阶段的人工智能,生成式人工智能的典型特征是运作逻辑的转变,即从分析式系统转向为生成式系统,极大提升了技术的感知易用性和感知有用性,使人类能够更便捷高效地应用先进技术。生成式人工智能通过学习和理解数据的分布,已经具备强大的生成能力、迁移能力和交互能力,展示出类人的感知与认知智能。”生成式人工智能的发展已经突破了“科技”与“人文”的传统边界,例如技术逻辑的人文隐喻、多模态生成的跨学科属性和人机何以价值对齐等问题,其对人类社会的渗透已深度触及人文社会科学的核心议题。因此,生成式人工智能不仅仅是一个科学技术问题,也是一个人文社会科学问题。“伦理与技术同向而行,确保科技向善,人类需要发展对伦理问题的敏感性和负责任的应对能力。”

2022年11月,美国OpenAI公司发布一种大型语言模型ChatGPT3.0,引起了学界和业界的高度关注,被媒体称为“有史以来向公众发布的最佳人工智能聊天机器人”。比尔·盖茨甚至认为,它是一项革命性的技术,其出现的重要性不亚于互联网和个人电脑的诞生。它的面世炒热了人工智能生成内容(AIGC)这一概念,多家科技公司纷纷推出了Bard、Ernie Bot、LLaMA等同类产品。“ChatGPT能够自己读取网络上包括维基百科等在内的海量文本,从中模拟出语言生成模型。ChatGPT在数学计算和数据储存方面,远远超过了真人的大脑,正是因为有这两个超强的能力,自然语言中的词语可以真正被自动标注,实现高维向量化,形成复杂网络关联,人工神经网络可以进行大规模运算得到最佳输出。”ChatGPT能够根据用户需求生成符合要求的文本内容,根据用户输入的问题或疑难,提供个性化的答案和建议。同时,可以处理各种类型的自然语言任务,包括但不限于对话交互、即时问答、文本生成、文字翻译、论文摘要、撰写论文和文学作品等,具有很高的语言自组织能力和内容的再创造能力。

2024年2月,美国OpenAI公司推出的文生视频模型Sora,可以根据文字描述生成高质量、逼真的短视频(最长约60秒)。Sora拥有高度逼真的场景,能模拟物理世界,生成复杂的光影、运动和细节;拥有深入的语言理解能力,能准确解释提示,生成表达丰富情感的角色,更好地理解并忠实反映用户的文本指令;拥有多镜头生成能力,在单个生成视频中创建多个镜头,同时保持角色和视觉风格的一致性;拥有从静态图像生成视频的能力,可以准确地动画化图像内容,或扩展现有视频;拥有物理世界模拟能力,如物体的移动和相互作用,展示了人工智能在理解真实世界场景并与之互动的能力。“Sora作为生成式人工智能在视频生成领域的划时代产物,掀起了一场全新的智能生成革命。围绕Sora产生的技术讨论与技术想像层出不穷,在生成式人工智能的多维话语迷思中,Sora的社会应用与未来前景愈发扑朔迷离。”

2024年12月,中国大语言模型DeepSeek-V3上线并同步开源,凭藉其卓越的性能和显着的成本优势,迅速成为全球瞩目的焦点,被誉为“来自东方的神秘力量”。作为多模态智能系统,DeepSeek支持文本、图像、音频、视频、代码等多种格式输入,具备智能问答、内容生成、数据分析、任务管理和学习助手等核心功能,可应用于日常生活、家庭教育、职场工作等多个领域,能帮助用户写演讲稿、制定旅游攻略、解答学术问题、整理会议纪要等。DeepSeek在生成式人工智能领域的最重要突破,体现在对中文信息的处理更加精准与流畅,鲜明的本土化特征使其能够输出更符合中国文化背景的内容。从处理速度、分析深度和覆盖广度等多个方面,DeepSeek正持续推动着生成式人工智能从辅助工具向知识生产主体的转变,进而对人文社科学术研究范式的解构与重塑产生深远影响。DeepSeek采用开源策略,将模型权重、训练框架及数据渠道全部开源,吸引了大量开发者和研究人员参与,形成活跃的社区,推动了技术的快速迭代和创新。

3. 生成式人工智能对三大学派理论的融合

生成式人工智能(GAI)作为当前人工智能领域的重要分支,其发展深受传统人工智能三大范式——符号主义、连接主义和行为主义的影响。符号主义学派强调逻辑推理,认为人类认知和思维的基本单元是符号,认知过程是在符号表示上的运算。GAI在一定程度上体现了符号主义的思想。如自然语言处理中的文本生成任务,模型会将输入的文本理解为符号序列,通过对符号的处理和组合来生成新的文本。在生成代码、摘要等任务中,模型同样是基于对符号的操作来实现。但是GAI并非单纯的符号处理。传统符号主义面临知识获取瓶颈等问题,而GAI藉助深度学习等技术,能从海量数据中自动学习符号间的关系,无需人工手动编码大量规则,这是对符号主义的发展与突破。

连接主义学派从神经生理学和认知科学出发,强调智能活动是由大量简单单元通过复杂相互连接的人工神经网络并行运行的结果。GAI中的神经网络架构,正是连接主义的具体应用。以图像生成模型为例,模型由众多神经元组成的网络结构,通过对大量图像数据的学习,调整神经元之间的连接权重,从而能够生成逼真的图像。再如GPT-4的思维链技术既需要神经网络的特征提取能力,又依赖符号化的推理步骤。生成式人工智能在训练过程中采用的大规模并行计算方式,也符合连接主义并行运行的理念。它充分利用连接主义的优势,通过不断优化网络结构和训练算法,提升生成内容的质量和多样性。

行为主义认为智能是系统与环境的交互行为,是对外界复杂环境的一种适应。GAI通过引入强化学习人类反馈机制,将行为主义的“试错—反馈”范式融入生成过程。模型根据环境反馈的奖励信号,不断调整自身的生成策略,以更好地适应环境需求。在智能对话系统中,GAI根据用户的输入(环境刺激)生成回复(行为反应),并通过用户的反馈不断优化回复策略,体现了从感知到行动的行为主义模式。

总之,生成式人工智能的发展正在消解传统学派的理论边界,它融合了三大学派的部分理念与技术,在不同领域展现出与各学派的千丝万缕联系,推动了人工智能技术向更智能的方向发展。西方学术期刊对生成式人工智能的贡献,远不止于学术成果展示窗口的表层功能。学术期刊通过构建严谨的学术规范、促进跨学科对话、容纳批判性声音、引导资源流向,推动AI技术从“碎片化创新”走向“系统性突破”的生态系统。从某种意义上说,生成式AI的进化史,就是学术期刊上的理论争鸣与实验室里的技术试错相互滋养的历史;Transformer架构的论文曾因“看似简单”遭遇拒稿,后来却在学术期刊的不断争论中被重新审视;早期扩散模型的数学推导因“复杂晦涩”鲜受关注,却在学术期刊的长期传播中被工程师发现应用价值。当我们惊叹于生成式人工智能的惊艳表现时,不应忘记那些刊载于纸本期刊页面上的公式、图表与争论,这些看似枯燥的文字,正是学术期刊对AI发展最深刻的馈赠。所以,有学者认为GAI标志着人工智能进入后学派时代。

二、人工智能对知识生产的赋能

学术研究与学术期刊是现代学术体系的核心组成部分与关键支柱。学术研究的本质是知识生产、问题回应和学术传承与创新,而学术期刊则通过成果传播、质量筛选、学术对话、知识存档、规范引导履行着学术共同体公认的“知识守门人”的职能。二者深度依存、协同而行,共同支撑着知识的生产、传播、验证与积累。从这个意义出发,AI技术对于学术研究的赋能抑或魅惑都会集中地表现在学术成果——论文之中,而论文要进入主流传播领域,需要顺利通过学术期刊的合规审查和价值判断,所以,AI的赋能或魅惑能否最终实现,实取决于学术期刊。因此,学术期刊能否正确引导学术研究利用AI赋能和实现对AI祛魅,就成为关键。要做到这一点,还在于学术界以及期刊界对AI如何赋能学术生产的看法和认识。

随着人工智能(AI)从技术层面到社会层面的深度渗透,知识生产正在经历前所未有的深刻变革。AI对知识生产赋能的核心是从加速器到认知革命。首先,自然语言处理与海量数据分析能力使人类得以从信息迷雾中提炼洞见,实现知识创造指数级加速。其次,AI以超越人类直觉的模式识别与复杂关联分析能力,突破传统认知边界,揭示隐藏规律,催生跨学科融合的新知识图谱。再次,AI推动知识生产从“人类中心”向“人机协同”跃迁。人类提供批判思维、价值导向与意义追问,AI则贡献强大的计算能力与模式发现,共同编织更复杂深邃的知识网络。AI时代,正加速进入一个自然人、机器人、数字人“三人”共生的新时代。我们“需要注意其技术本身,但是更要关注其次生效应,更要关注其给语言、语言生活和语言治理带来的新问题、新形态和新趋势,关注‘三人’之间的共生、共享、共治和共建。”

1. 知识生产的“范式革命”

1962年,美国科学哲学家托马斯·库恩在其出版的《科学革命的结构》中,第一次提出了“范式”理论并进行了系统性阐述。库恩认为,“科学成就”既吸引了“一批坚定的拥护者”,又为后来者“留下有待解决的种种问题”,具有这两个特征就可以称之为“范式”。库恩强调,尽管“一个范式就是一个科学共同体的成员所共有的东西,而反过来,一个科学共同体由共有一个范式的人组成。”受范式理论的启发,美国科学家、图灵奖获得者吉姆·格雷在2007年发表报告《科学方法的革命》,提出了人类科学研究经历了四种范式的演进:第一种范式为伽利略时代之前的经验观察,第二种范式为牛顿之后的理论建构,第三种范式为计算仿真技术支持的仿真模拟,第四种范式为数据密集型的科学发现。而随着人工智能的发展,有学者提出或将催生出“第五范式”——“在数据密集型范式的基础上引入智能技术,强调人的决策机制与数据分析的融合,将数据科学和计算智能有效结合起来。”

人工智能驱动的科学研究是以生成式为代表的人工智能技术与科学研究深度融合的产物。中国工程院院士李国杰研究员将智能化科研(AI4S)称为第五科研范式。概括它的一系列特征包括:“(1)人工智能(AI)全面融入科学、技术和工程研究,知识自动化,科研全过程的智能化;(2)人机融合,机器涌现的智能成为科研的组成部分,暗知识和机器猜想应运而生;(3)以复杂系统为主要研究对象,有效应对计算复杂性非常高的组合爆炸问题;(4)面向非确定性问题,概率统计模型在科研中发挥更大的作用;(5)跨学科合作成为主流科研方式,实现前4种科研范式的融合,特别是基于第一性原理的模型驱动和数据驱动的融合;(6)科研更加依靠以大模型为特征的科研大平台,科学研究与工程实现密切结合等。”近几年,人工智能技术在国际生物、化学、材料、制药等领域的科学研究中得到广泛应用,催生了大量的AI模型、基础软件和应用。在生命科学领域,DeepMind开发了一款AlphaFold程序,采用深度学习技术,破解了蛋白质结构预测这一长期困扰科学界的难题。在数学领域,2017年以来科学家尝试使用机器学习、ResNet、seq2seq模型等技术求解偏微分方程,获得了更快更准的结果。2021年,DeepMind开发了启发数学家直觉灵感的机器学习框架,帮助数学家和AI研究人员在纽结理论方面发现新定理,并在证明Kazhdan-Lusztig多项式古老猜想上取得了进展。在物理学方面,2022年8月,物理学家通过使用基于多年实验数据的神经网络找到了质子中存在隐性内含粲夸克的证据,这一发现可能会改写量子色动力学的教科书。在材料科学领域,2016年《自然》发布了美国哈弗福德学院和普渡大学的研究成果,科研人员利用机器学习算法,用“失败”的实验数据预测了新材料合成,这启示机器学习等AI技术成为材料科学的重要研究方式。我国2017年启动“新一代人工智能重大科技项目”,开始布局重点领域的相关研究。2022年10月,中国科学技术大学建立数据驱动的AI化学家机器人“小来”。目前,“AI驱动科研范式变革的主要特征体现在嵌入科研全流程、推动科研设施升级、重构科研人员与仪器设备定位及角色分工、促进科研组织治理模式变革4个部分。”中国科学院计算技术研究所就在蛋白质三维结构预测、分子动力学模拟和芯片全自动设计领域,取得三个成功案例。生成式人工智能技术正以惊人的渗透力重塑科研全链条,带来科研管理各环节深层次的变革。

生成式人工智能对哲学、历史、文学、艺术等人文社科学科的冲击较重,为学术研究和知识创新带来前所未有的机遇和挑战。对人文社科研究范式而言,生成式人工智能展现出了独特的能力。在哲学领域,生成式人工智能通过分析经典著作、学术论文等海量哲学文本,学习哲学概念的语义网络、逻辑关联和论证模式,进而模拟人类的哲学思维过程,能够独立完成概念推演。“这些变化不仅体现在人工智能应用会激发出新的哲学问题,如人工智能的道德地位问题、智能驾驶的事故归责问题、数据偏见与隐私保护问题等。更为重要的是,人工智能的出现和发展本身就会改变甚至颠覆传统的哲学观念和视野。在这个意义上,人工智能可以被视为一个‘哲学事件’。因此,当我们在人工智能时代问出‘人是什麽’的问题时,我们不是要回到人文主义的旧图景,而是要在人工智能技术的冲击下重新定义人的独特性和不可替代性。这将成为人工智能时代的哲学母题。”在历史学领域,“历史学家使用人工智能协助标注史料、查询笔记、总结文献主题、史料分类等工作,都是在助力而不是阻碍学术研究。在具体研究实践展开的环节,人工智能同样能够发挥效能,帮助历史学家更充分利用史料,提高研读文献的效率。”生成式人工智能凭藉大规模史料的信息提取与整合、历史脉络的关联性分析与叙事重构、历史文本的校勘与辨伪、跨地域跨时段的历史比较研究等文本挖掘与分析能力,正逐渐成为重构历史认知的重要工具,并还原更接近真相的历史脉络。在文学领域,DeepSeek促进了文学与其他学科的交叉研究。研究者可以将文学与历史学、社会学、政治学等领域的数据结合在一起,通过DeepSeek的分析工具探讨更为复杂的人类行为和历史进程,形成多维度的研究视角,丰富了文学研究的内涵。“DeepSeek对传统诗学的赋能,体现在:第一,创作能力加持;第二,重构学术进路;第三,跨媒介传播。”在艺术领域,“AI技术早就部分参与、辅助并赋能人文研究了。比如,利用生成对抗网络技术,艺术家可以生成山水画、水墨画和花卉等进行艺术创作,并将传统中国画转换为逼真图像;利用深度卷积生成对抗网络技术,研究者可以识别图像的损坏部分并填充缺失部分,修复文化遗产;利用语音生成技术,研究者可以探索古代语言和音乐的声音,促进跨文化沟通与理解。”

总之,“DeepSeek等人工智能的异军突起突破了技术圈层,直抵人文社科学术体系,驱动着传统学术研究范式转向人机协同的创新范式,这一过程引发了知识生产权力的深度迁移,催生了一种新型知识生产方式。构建兼具人文深度与前沿技术的学术新范式已经成为当前人文社科学术研究的新兴理论生长点。”

2. 人机协同写论文

早在2005年,美国麻省理工学院的计算机科学与人工智能实验室的杰里米·斯特里布林等三位研究生联合编写了一个叫做SCIgen的计算机程序,能够自动生成英文科技“论文”,包含摘要、引言、文献综述、实验结果、结论、图片和参考文献等。此后几年用这个神器生成的论文,堂而皇之地出现在世界各地的科技学术会议,有的甚至通过了同行评审,被CSSE杂志录用。2010年,法国约瑟夫·傅立叶大学的计算机科学家西里尔·拉贝,虚拟了一个叫做IkeAntkare的机器人作者,制造了102篇机器生成论文来测试“谷歌学术”是否收录。结果这位机器人成功了,甚至还成为世界上第21位被引用次数最高的“科学家”。15年过去,生成式人工智能“在学术研究中的辅助创新方式是多维度的,贯穿于整个创作流程中,其可能完成的辅助性任务包括翻译、简洁呈现研究结果、文本生成、提炼摘要、上下文理解、数据分析等,其在推理、对话和总结方面的突出表现,可充分满足人们在短时间内低成本获取密集知识的需求”。机器人辅助写稿正在成为常态,人文社会科学研究也将面临生成式人工智能的野蛮敲门。截至2024年10月,我国完成备案并上线为公众提供服务的生成式人工智能大模型近200个,注册用户超6亿。目前国内流行的AI学术工具有很多种,如美国OpenAI公司的ChatGPT、中国深度求索的DeepSeek、抖音有限公司的豆包、腾讯公司的腾讯元宝、阿里巴巴公司的夸克Quark和通义千问、百度公司的文心一言、北京月之暗面公司的Kimi、北京智谱华章公司的智谱清言、上海知否知否公司的包阅等,总体呈现出“垂直化、专业化”趋势。对于人类个体而言,生成式GAI就是一个巨大且持续扩充的知识库,“作为个体的人远不如汇集了集体训练成果的机器系统储存的知识多”。

学术研究的根本目的在于知识生产,就是在总结人类理解宇宙、世界、社会、人生的实践经验的基础上,反思已有的思想、观点和命题,并赋予已有知识体系以新的思想内涵、时代内涵和文明内涵。随着算法不断迭代创新,预训练模型不断优化,多模态能力不断升级,使得社会科学研究也更加重视计算思维、协同思维、跨学科思维和数据驱动,生成式人工智能正悄然重塑论文写作模式。

(1)主题构建。传统论文主题的构建,主要依赖作者的学术经验与知识储备。以ChatGPT、DeepSeek、文心一言、豆包等为代表的大语言模型,在接收到研究者输入的初步研究方向与关键词之后,能够快速扫描海量文献数据库与核心期刊发文规律,通过对大量学术数据的深度挖掘和分析,可以洞察各学科领域的研究热点及其变化趋势,快速列举出目前存在的关键问题和揭示潜在研究空白。研究者通过与GAI的多层次、深维度交互探讨,可以进一步明确研究的核心问题,甚至实现个性化的主题定制,确保论文主题具有针对性与研究价值。不过,“GPT生产的知识确实是没有意向对象的,它形成知识文本的过程是依靠逻辑关系实现的,但人类的参与,却在一定程度上使得人类与GPT一问一答的‘杂合文本’有了某种‘弱意向性’,特别是GPT生产的杂合知识文本若经过人类的深度再加工,其意向性的特质就更加突出。只不过,GPT介入知识生产后,人类也将不得不面对‘杂合知识’急遽扩充的局面。”因此,研究者必须深度融入个人学术见解,创造性重构框架,严格规范使用流程,才可能有效规避风险。

(2)文献综述。传统文献综述,需要研究者手动筛选和阅读图书馆、数据库的大量文献,不仅耗费大量时间与精力,而且容易遗漏重要文献,导致综述的完整性与准确性受到影响。生成式人工智能凭藉其强大的自然语言处理能力,能够理解研究者输入的自然语言查询指令,快速在各类学术数据库中进行精准检索和筛选。不仅能迅速检索出大量相关文献,还能筛选出相关的高影响力研究主题、核心观点、实验结果等关键信息,并且按照主题、时间、研究方法以及与其他文献的差异点等维度进行分类整理与归纳总结,极大地提高了文献筛选的效率。

(3)论文写作。生成式人工智能能够依据研究者给定的论文主题、研究框架、关键词、研究方向等信息,在短时间内生成逻辑连贯、结构完整的论文初稿。论文初稿虽然在专业深度和学术创新方面存在缺陷,但它为研究者提供了一个良好的写作基础。如果研究者已经完成部分论文内容写作,但需要对某些观点进行进一步拓展或深化时,生成式人工智能能够根据已有的观点,通过搜索相关文献,为研究者提供更多支持性证据或不同的学术观点,帮助研究者从多个角度对研究结果进行深入分析和讨论,使论文的内容更加丰富、全面和深入。

(4)观点提炼。生成式人工智能能够快速提炼数千篇论文的核心观点,构建领域研究脉络;能够横向对比多篇论文的观点,对比发现领域未解决问题;能够突破学科壁垒,从聚类结果中提取交叉领域的共识与争议。生成式人工智能对论文观点的提炼,遵循“解构—提取—聚合—验证”的闭环流程,通过结构化分析将碎片化文本转化为系统化知识体系。这一过程不仅依赖文本处理技巧,更需对生成式人工智能的技术本质、应用场景及学术范式有深层理解,最终为学术研究提供清晰的理论参照。

(5)文本修饰。生成式人工智能对论文的文本修饰已形成多维度、系统性的赋能体系,具体体现在语法与用词规范校准、句式多样性与语言流畅度优化、文献引用格式标准化、学术伦理合规提示等方面。不同的学科研究和学术期刊审稿,往往有特定的写作风格和学术规范要求。生成式人工智能可以根据用户指定的规范指南,对论文进行全面的格式化和风格调整。它能够自动设置字体、字号、行距、页边距等文档格式,统一各级标题的样式;按照要求调整参考文献的格式和引用方式,甚至模仿特定学者或学术流派的写作风格,使论文在风格上更加契合目标期刊和研究领域的要求,增强论文的专业性和说服力。总之,生成式人工智能对论文的文本修饰已超越简单的“纠错改字”,已形成从语言表层到逻辑内核的多层级赋能。

(6)生成结论。生成式人工智能具备强大的知识整合能力,通过分析不同研究成果之间的关联和差异,能够帮助研究者从更宏观的视角审视自己的论文,从而使结论更加系统、客观。通过识别文章中的核心观点、重要数据,按照一定的逻辑顺序进行归纳整理,形成更具深度和广度的研究结论,提升论文的学术价值。生成式人工智能的快速突破,使学术研究主体正进化为人机交互的协同模式。“在这一模式中,研究者作为需求提出者和反馈提供者,为研究提供了丰富的语境、价值观和行为特征输入。生成式人工智能不再停留于传统人机交互模式中辅助者的角色,而是承担了包括方案制定者在内的多种角色,凭藉其全域知识和预测能力,帮助研究者突破传统思维局限,为研究者制定更加准确和高效的解决方案。”

综上所述,AI技术对学术研究的赋能,体现在科研效率的指数级提升、跨学科研究的融合加速和数据驱动的范式革命。AI技术对学术研究的魅惑,也会引发研究者认知理解错觉、学术诚信危机和学术主体性消解等深层伦理挑战。当AI既能撰写论文又能生成评审意见,传统的“作者—编辑—读者”三者的关系面临重构。过度依赖AI,可能使研究者沦为“算法操作工”,丧失批判性思维能力。过度依赖AI,可能使编辑逐渐失去职业核心的“主动性、创造性与人文性”,从“内容的把关者”降格为“技术的跟随者”。

三、生成式人工智能正重塑学术期刊出版

随着ChatGPT、DeepSeek等生成式人工智能工具的普及,学术不端行为呈现出新特点与新形态。据《自然》杂志调查,2023年提交至预印本平台的论文中,疑似AI生成的占比达12%。德国蒂宾根大学数据科学家德米特里·科巴克领导的团队,分析了学术数据库PubMed中2010年至2024年6月期间发表的1,400万篇论文摘要。他们估计,2024年上半年,至少有10%的生物医学论文摘要(约7.5万篇)使用了大语言模型(LLM)进行写作。生成式人工智能辅助写作的出现,人们的反应各有不同,恐惧者有之,抵触者有之,拥抱着更有之。2024年11月复旦大学教务处发布了《复旦大学关于在本科毕业论文(设计)中使用AI工具的规定(试行)》。规定中明确提出了“六个禁止”:禁止在研究方案设计、创新性方法设计、论文结构设计等关键环节使用AI工具;禁止使用AI生成或修改原始数据、实验结果和图像;禁止直接使用AI生成的正文文本、致谢等内容;禁止使用AI进行语言润色和翻译;禁止评审专家使用AI工具进行评审;对于涉及保密内容的论文,禁止使用任何AI工具。这一规定,明确划定了人工智能工具在学术写作中的使用边界。此后国内多所高校和学术期刊纷纷出台相关办法与措施,集体抵制AI生成论文,强化审查机制,呼吁守护学术尊严,拒绝技术捷径。但采取的这些防御措施,做出的各种规定,是否又过于简单粗暴,泼脏水容易把孩子一起泼出去。生成式人工智能充满了张力,许多人正在上面做着充满想像力的探索,不妨“让子弹再飞一会”,不要匆忙下结论。

(1)提高识别AI辅助论文的能力

作为学术期刊,当然要重视生成式人工智能辅助写作论文中存在的版权与伦理风险,建立必要的使用标准和规制框架。作为学术期刊编辑,更要结合技术原理、专业知识、学术规范和实践经验提升识别AI生成论文的能力。一是从语言表达特征分析,AI生成的论文过度流畅且显得机械刻板,缺乏人类写作时的口语化表达和个性化措辞。由于对语义的理解存在局限性,AI生成论文会出现词汇搭配不合理或语义前后矛盾的情况。二是从内容逻辑与专业深度考量,AI生成论文只是对已有知识的简单拼凑与复述,缺乏专业作者对学科前沿问题的深入思考与独特见解。此外,AI生成论文在论证时会出现逻辑跳跃,论据与论点之间缺乏紧密联系,难以形成完整的逻辑链条。三是从格式与排版细节观察,AI生成论文存在标题格式不统一、数据与文字描述不符、图表类型选择不当、参考文献不符合规范等。四是数据分析表面化且缺乏情感与人文关怀。AI能生成合理的图表和数据,但分析往往停留在描述层面。对比发现,人类作者即使处理简单数据,也会尝试挖掘潜在模式或提出解释机制,而AI生成的分析常止步于数据表面特征的陈述。五是结论部分泛泛而谈且缺乏针对性。结论未能紧扣研究成果在实际应用中的可行性、局限性以及与其他相关技术的比较优势,没有深入挖掘和讨论研究过程中发现的问题和潜在的改进方向,仅说了一些笼统空洞的大话,没有提出针对性强的对策建议和具体的优化进路,缺乏实际指导意义。六是参考文献引用不规范。首先是引用文献与讨论问题关联性弱,虽然引用的是高被引作者和高被引论文,但与正文讨论内容匹配度很低。其次是存在“幽灵引用”现象,引用的参考文献实际出版物中并不存在。再次参考文献引用存在异常片面特征,有的重要基础性文献集体缺失,有的重要文献引用比例过高,跨学科引用几乎为零。七是有时会“一本正经地胡说八道”。生造晦涩术语、堆砌流行概念,将简单思想包裹成高深理论。比如“ChatGPT给出的综述性文献,虽然很多都不存在,但看起来却能‘无懈可击’;它输出的代码,虽然大多无法使用,却总能给人‘一本正经’的规范感。可以说,ChatGPT在对社会、金融、教育等学科的专业性问题提出建议时,几乎总显得‘真理在握’,即便是应对古典学科的某些‘冷门绝学’问题,它也敢大开脑洞地‘瞎编’。”

(2)人机协作将成为一种常态

在生成式人工智能的应用场景下,学术出版已不再局限于人类内容创作的单一维度,而是向人机协作模式延展;不再局限于传统的期刊与图书,还包括视频、音频、增强现实(AR)和虚拟现实(VR)等多种媒介形式。“学术编辑的定义可以扩展为:基于自身的知识积淀和业务经验积累,合理选用人工智能工具,挖掘发现内容价值,依据学术出版规范对内容进行整理、加工、制作、发行,向读者和用户提供知识服务的行为者。”传统学术期刊编辑仅仅满足于会策划、会组稿、会审稿、会改稿、会校对,显然已经无法适应生成式人工智能应用场景下的岗位要求。单纯的内容加工者转变为多模态内容的整合者和人机协作的管理者,将成为学术期刊编辑的核心竞争力。一个人机协作的编辑,应当是学术前沿的追踪者,应当是问题导向的倡导者,应当是内容质量的把关者,应当是人文价值的发现者,应当是多模态内容的整合者,应当是内容创新的策划者,应当是平台化传播的推动者。“学术期刊的平台化生存,不仅关乎编辑在虚拟空间中的存在,也关乎编辑在现实空间里的生存。因此学术期刊要努力实现从‘数字化’到‘数智化’、从‘内容为王’到‘创新为要’、从‘单一传播’向‘复合传播’、从‘纸媒期刊’向‘媒体平台’的转型。”从一定意义上讲,“编辑这一行当的日常,在今后或许将逐渐演变成与AI的一次次合作。我们需要逐渐习惯使用AI,并掌握与之共同完成创作的本领。”人机协作可以让AI技术在学术期刊选题、审稿、评审、编辑加工、出版发行等各个环节发挥独特作用,与编辑的专业判断形成互补,从而推动学术期刊向更加智能化与专业化的方向迈进。

第一,选题策划。生成式人工智能能够显着增强热点选题的追踪效率。通过对海量学术文献、社交媒体数据以及科研动态信息的实时监测与分析,生成式人工智能可以快速识别出当前学术界的研究热点和潜在趋势。如中国科学院文献情报中心开发的“学术之眼”系统,旨在通过数据挖掘、知识图谱和人工智能技术,帮助编辑用户高效获取学术资源、分析研究趋势、发现潜在作者等,通过深度学习数百万篇已发表论文的语料库,能够提供有价值的选题参考,极大提升了选题策划的科学性、时效性和匹配作者的准确性。

第二,稿件审读。学术期刊的传统工作流程,编辑要面对大量投稿,凭藉专业知识与经验筛选出具有学术价值与创新性的优质稿件,审稿过程耗时费力且主观性比较强。生成式人工智能辅助审稿主要体现在三个方面:一是论文格式规范。利用自然语言处理技术,能够快速检查论文的参考文献格式、图表排版格式等是否规范。二是学术不端检测。通过学术文献数据库进行对比,能够检测稿件中潜在的学术不端风险。三是作者学术水平评估。基于学术数据库统计,对作者的研究方向、过往发表成果、引用情况等进行分析,生成作者学术水平评估报告。编辑可据此了解作者在相关领域的研究能力和影响力,辅助判断稿件的学术价值,提高审稿效率和准确性。

第三,同行评审。在同行评审环节,生成式人工智能可根据稿件的学科领域、研究方向、关键词等信息,从庞大的专家数据库中快速匹配出合适的评审专家。同时,它还能对专家过往评审记录进行分析,评估专家的评审风格、评审效率以及评审质量,为编辑提供更全面的参考,大大缩短了专家邀请周期,提高了同行评审的效率与质量。不过,“生成式人工智能可有效提升学术评价效率,但不宜取代人类评价;可作为有效辅助工具,但必须以人类专家评价为主导;学术评价因技术发展而推陈出新,但评价的人文属性不变。”

第四,编辑加工。在编辑加工环节,生成式人工智能能在语言润色、逻辑结构优化等方面提供有力支持。它可以检查稿件中的语法错误、拼写错误,对语句进行通顺性调整,还能根据学术写作规范,对论文的结构进行分析,提出优化建议,使论文逻辑更加清晰。编辑在此基础上,对稿件的语言规范、逻辑结构、图表格式、观点论证等进行审核完善,大大缩短了编辑加工时间,提升了稿件质量。生成式人工智能已成为编辑加工不可替代的辅助工具,但仍需与人类编辑的专业判断相结合——AI负责“标准化、重复性”工作,人类则聚焦“创新性、人文性”内容的把控。

第五,内容校对。生成式人工智能在学术论文校对中的核心价值,首先体现在语言规范性校验的高效性,可以自动检测语法错误、优化句子结构,提升表达流畅度。其次格式与规范的标准化控制,按期刊要求自动调整参考文献格式、检测图表标注、公式编号、段落缩进等格式的一致性。再次学术严谨性的辅助审查,可以识别逻辑断层、数据表述一致性、预警潜在学术不端等。一些先进的校对软件利用深度学习技术,能够学习不同学科领域的语言风格和专业术语,从而实现更精准的校对。总之,“人机协同并不是指机器完全取代人类,而是指人与机器之间相互配合、互补的关系。在人机协同中,机器的优势在于高速计算、大数据处理和精确性方面,而人类则具有创造性思维、灵活性和情感等优势。因此,人机协同的真正价值在于充分发挥人与机器各自的优势,从而实现更高效、更智能的工作和生活方式。”

四、生成式人工智能带来的版权与伦理风险

生成式人工智能近年来取得的突破性进展,为诸多行业带来了革命性的影响。不过,硬币通常都有两面。在学术出版领域,随着生成式人工智能应用场景不断拓展,在给学者、编辑带来便捷与新奇体验的同时,一种“AI附魅”现象悄然兴起。人们将AI赋予了超越其技术本质的魔力光环,甚至将其神化。美国计算机科学家摩西·瓦迪在2012年发表观点认为,“当前人工智能的发展已经很快,所有人类劳动力都将在未来30年内被废弃。现在,机器正在与人类的大脑角力。机器人兼具大脑和肌肉。我们都正在面对‘被我们的造物完全取代’的未来。”中国学者赵汀阳2022年曾明确表示,“人工智能试图改变智能的本质,这是要创造一种新的存在,所以是一个存在论级别的革命”,而“模仿了人性和人类价值观的人工智能就和人类一样危险”,它们会试图“自主建立游戏规则”,“因此安全的人工智能必须限制在没有反思能力的图灵机水平上”。近年来,新闻媒体更是对ChatGPT、DeepSeekGPT等生成式人工智能给于过度解读与渲染,常冠以“颠覆性革命”或“行业终结者”、“突破人类极限”或“超越人类的文化理解”等附魅之词,不仅影响公众对AI的客观认知,更可能对学术研究和学术期刊出版带来版权与伦理风险。

1. 机器学习使用训练数据侵权

机器学习需要海量数据进行训练优化算法、提升性能,如GPT—3语言模型就需要挖掘1750亿个参数加以支持。这些数据涵盖文本、图像、音频、视频等多种形式,来源广泛,包括互联网上的公开数据、用户生成内容以及企业内部数据等。在数据收集和使用过程中,由于相关法律法规尚不完善,部分企业和开发者为追求效率和降低成本,未经授权擅自使用受版权保护的作品、侵犯个人隐私数据或违反数据使用协议,导致训练数据侵权事件频发。从法律层面看,不同国家和地区的法律规定与司法实践存在很大差异。欧盟在《数字化单一市场版权指令》(2019)中创设了《文本与数据挖掘例外条款》,允许科研机构和文化遗产机构在未经著作权人授权的情况下使用作品进行AI训练,但要求权利人可通过“选择—退出”机制保留控制权。美国尚未通过专门立法确立AI训练的合理使用地位,司法实践倾向于严格解释。在《汤森路透诉罗斯智能案》中,法院明确驳回了AI训练适用合理使用的抗辩,认定未经许可使用Westlaw数据库内容构成侵权。我国《著作权法》第十条规定:复制权是以印刷、复印、拓印、录音、录像、翻拍、数字化等方式将作品制作一份或者多份的权利。机器人在挖掘数据的过程中,无论是将这些数据读入系统还是进行格式转换和数据分析,均涉及受著作权人控制的复制行为。2023年8月国家互联网信息办公室发布《生成式人工智能服务管理暂行办法》第七条要求,生成式人工智能服务提供者应当依法开展预训练、优化训练,增强训练数据的真实性、准确性、客观性和多样性,使用具有合法来源的数据和基础模型。涉及知识产权的,不得侵害他人依法享有的知识产权。涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。这个《暂行办法》仅提出原则性要求,具体如何界定侵权仍需深入探讨。生成式人工智能使用多种来源的海量数据、知识作为训练数据,但这种直接或间接“搬运”,掩盖了原创内容引用的严谨性,会使作者与学术期刊编辑误将模型输出等同于对现象的真正理解,忽略添加注释和参考文献,结果导致涉嫌抄袭或学术不端。

2. 人工智能生成物是否具有可版权性

在人工智能技术蓬勃发展的当下,AI生成的绘画、论文、小说、音乐等作品不断涌现,其是否具有可版权性成为法律界和学术界热议的焦点,主要形成“工具说”与“无版权说”两种对立观点。“工具说”强调人类对工具的主导性。AI生成物当以人为本,不能以机器为本。因为AI生成物的数据准备、特征提取、算法规则、模型训练、标签应用、效果优化等都是由人工完成的。“比工具更重要的是设计工具、制造工具、使用工具的人。”因此,AI生成物的人类创作者可基于其贡献获得版权保护,AI仅被视为高级创作工具。根据《伯尔尼公约》及多数国家版权法,作品要获得版权保护,通常需满足两个条件:一是原创性,作品需体现作者的独立创作,而非简单复制。二是人类作者,传统版权法默认作品需由人类创作。英国1988年发布《版权、外观设计和专利法》,将计算机生成作品的著作权归“创作作品进行必要安排的人”所有。“必要安排的人”被视为作者,可能包括编写人工智能的程序员、人工智能系统或设备投资者、人工智能的最终使用者等主体。2023年美国版权局裁定美国艺术家卡什塔诺娃创作的科幻漫画书Zarya of the Dawn,其中“作者创作的文字和对人工智能生成的作品的选择、协调和安排”可获部分版权,但通过Midjourney生成的图片不受著作权保护。“无版权说”强调“作者必须是自然人”原则。基于这一标准,作品中包含的人工智能成果,统统被排除在版权保护之外。美国版权局2023年3月发布的《版权登记指南:含有人工智能生成材料的作品》指出,在面临涉及人工智能的成果时,需要区分:一种是人类主导、机器辅助的产物,这种客体具有可版权性;一种是主要由机器进行构思与落实的产物,这种客体不具有可版权性。“在确认人工智能生成物的可版权性时,人类作者与创造性,是其中两个最核心的元素。为此,《版权指南》要求申请人在提交注册人工智能作品时,必须解释人类在其中的创造性贡献,以方便识别版权类型。”中国案例为2023年8月“李某与刘某侵害著作权纠纷案”,原告李某起诉称其使用开源软件Stable Diffusion生成涉案图片并发布在小红书平台,后发现被告刘某在百家号文章中使用该图片且截去署名水印。北京互联网法院经审理认为,涉案图片生成过程中原告进行了较多智力投入,如设计人物呈现方式、布局构图、选择提示词、重复调整参数等行为,体现了原告的独特审美、个性化表达,具备“独创性”要件,属于美术作品,原告享有著作权,被告行为构成侵权。“该案将文生图作品定性为人类智力成果,扭转了社会评价中人工智能机械式生成和人类无法控制输出内容的偏见,也蕴含了对于不同AIGC成果施以分级版权保护设计的内涵。”

3. 生成式人工智能对人格权的侵害

人格权是民事主体享有的生命权、身体权、健康权、姓名权、名称权、肖像权、名誉权、荣誉权、隐私权等权利,是民事主体维护其人格尊严和人格自由发展的重要权利基础。而生成式人工智能的运行机制和应用模式,却在多个维度对人格权构成了威胁。首先,直接侵害个人隐私和信息。未经授权生成高度逼真的个人肖像、声音,直接盗用或扭曲他人身份。冒用他人姓名生成虚假言论或行为,导致身份混淆。泄露学者科研成果数据、学术交流隐私、未发表作品内容、个人联系方式,曝光读者阅读偏好、购买记录、个人身份信息等,都严重侵害了他人的隐私权和个人信息权益。其次,人格尊严与名誉损害。生成虚假负面信息,贬损他人社会评价。编造关于学者的虚假学术成果、学术不端行为等,一旦这些虚假信息传播开来,会严重损害学者的学术声誉,对其长期积累的学术成果和人格尊严造成极大伤害。利用生成式人工智能生成与作者风格相似的低俗、违法作品,并将其归为作者名下,会严重玷污作者的创作声誉。再次,侵害肖像权。“利用生成式人工智能自动生成的图像,比深度伪造造成的损害后果更加严重,其不仅会侵害个人的肖像权,甚至可能透过图片、视频扭曲个人的形象,特别是当生成的图片涉嫌性骚扰、猥亵、非法同居等虚假信息后,将会造成对他人的名誉权、隐私权等权益的严重侵害。”

4. 存在AI幻觉现象

生成式人工智能存在“生成与特定来源相关但无意义或不真实的内容的机器幻觉现象,可能导致危险的发生。例如对药品说明书翻译错误会产生严重后果”。AI幻觉林林总总,大致可以归纳为四种主要类型。一是语义层面的幻觉。模型在回答涉及具体数据、历史事件或科学原理的问题时,可能编造不存在的信息;在推理过程中,出现逻辑矛盾、缺乏因果关系的表述。二是感知层面的幻觉。生成式人工智能在处理视觉、听觉等感知任务时,对输入信息产生与实际不符的错误理解或解读,形成类似人类幻觉的认知误判。三是生成式幻觉。生成式人工智能模型在生成内容时,由于数据中的噪声、错误标注或不明确的信息,可能使模型在学习过程中产生混淆,从而在生成内容时出现不准确或虚假内容的情况。四是认知层面的偏见。生成式人工智能在多元行业和领域中大放异彩的同时,伴随而来的偏见问题也变得日益严峻。“人设游戏中的信任诱导陷阱、人机交往中群性迷失陷阱、公共实践中的合法歧视陷阱”以及“技术大众化风险、媒介私密化风险、后真相迂回的挑战”等风险也日渐凸显”。英国科技分析师本尼迪克特·埃文斯“将ChatGPT描述为一个自信的扯淡的家伙,可以写出非常有说服力的废话。其很大的危险在于ChatGPT是错误的或有偏见的,但听起来却像是正确的和权威的。”中国360集团创始人周鸿祎认为,能否胡说八道,恰恰是智能的分水岭,将来很多新的GPT大脑在某种程度上要保留这种幻觉的能力。硬币都有两面,并不是所有的人都能够找到正面。两位的观察不约而同地犀利、独立,既可见对事物本质的深刻洞察,也能感受到字里行间那份不迎合、不盲从的思考。这样的判断,不管是对是错?足以引发更多人对问题的重新审视。

人工智能技术的狂飙突进和知识生产的人机协作,似乎不可阻挡,正极大挑战我们的想像力,也极大冲击现有高度学科化的知识体系和学术传播秩序。学术期刊无疑再次置身于这场变革和挑战的风口浪尖。学术期刊的“祛魅”,始于技术工具理性的反思。《自然》杂志率先建立透明化机制,要求作者明确标注论文中AI参与的环节,将技术工具从幕后推向台前。德国《科学计量学》期刊则让审稿人同时评审人类论文与AI生成论文,在实战中提升专业群体的鉴别力。实践证明破除AI附魅,需要制度约束与认知觉醒的双重驱动。学术期刊的“祛魅”,终于价值重构:回归学术共同体的精神内核。撕掉AI附魅的华丽外衣,我们会发现学术的本质从未改变——它是对知识的创造性生产,亦是思想传承的桥梁,更承担着不可推卸的社会责任。因此,学术期刊“应当保持审慎的认知,即不盲目地媚俗技术,也不因技术的强大而产生畏惧,而是应当在技术的膨胀中,坚守人的主体性,在与技术的良性互动中共同实现人机关系的平衡”。

结语

生成式人工智能对学术期刊的冲击,本质上是一场关于“知识生产权力”的重新分配。当ChatGPT、DeepSeek能在数秒内完成文献综述,当Sora可将研究成果转化为可视化视频,学术期刊的角色正从“内容提供者”转向人机协作的“质量把关者”与“价值整合者”——编辑需以学术洞察力识别AI发现和提出问题的真伪,以学术概括力分析AI总结、凝练问题的优劣,以学术想像力判断AI重组和创新问题的良莠,以学术思辨力考察AI阐释和论证问题的是非。在选题策划中融合AI的热点预测与人类的问题意识,在同行评审中结合算法匹配合适的审稿专家,在学术传播中平衡多模态形式与学术深度。这场变革的深层启示,在于技术理性与人文价值的辩证统一。基辛格曾预言人工智能将“改变人类理解现实的方式”,而这种改变的终极意义,不应是机器对人类的替代,而是通过技术赋能释放人类的创造力。在生成式人工智能重构学术生态的进程中,我们既要拥抱“第五科研范式”带来的效率革新,也要坚守学术研究的本质——对真理的探索、对思想的创新、对人文精神的传承。唯有如此,才能在智能革命的浪潮中,构建一个技术与人文相互滋养的学术新生态,让生成式人工智能成为推动知识进步的工具,而非消解学术价值的威胁。

斯蒂格勒认为,技术是用来弥补人类的原初性缺陷的,爱比米修斯在分配“属性”时,忘记了给人留下一个属性,所以人必须依靠技术来使得自身存在。随着人机对话不断走向人机交往,人机融合程度势必不断加深。不过即使人工智能这样的“技术神话”,也永远无法复制完整的人性,永远不能代替人类进行是非善恶的判断。“人机交往作为一种理想化的未来人机形态,将人人主体交往的问题扩展到人与非人交往的、更为广阔的层面,这或许能够一定程度上减少人类之间的摩擦和内卷,引导人们关注机器和其他非人客体对于人类的影响。”作为AI辅助写作的拥护派,如何在技术赋能中守护学术本真,在范式变革中坚守人文内核,不仅是学术期刊面临的时代命题,更是整个知识生产领域需要共同书写的答卷。

学术期刊与人工智能融合的趋势已经无法阻挡,谁也无法关起门来营造自己的围城。融合,或许不是主动迈出的步伐,而是时代浪潮下必须接纳的现实。不过穿越视见看出辽阔,何尝不是另一番景色?

[原文载于《澳门理工学报(人文社会科学版)》2025年第4期,作者:张耀铭,《新华文摘》原总编辑、编审]

进入 张耀铭 的专栏     进入专题: 人工智能   学术期刊  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 爱思想综合 > 学术规范
本文链接:https://www.aisixiang.com/data/169138.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统