内容提要:生成式人工智能对新闻和传媒业带来变革的同时也制造了麻烦。较为突出和紧迫的问题至少有两个:其一,生成式人工智能输出的内容是否具有版权,其在使用过程中还有哪些需要注意的事项以避免侵犯他人的著作权?其二,如何防范深度伪造、虚假传播及算法偏见对新闻真实性、客观性造成不利冲击?本文将从版权保护与新闻伦理两个方面切入,以期为规范地使用生成式人工智能予以理论上的回应和行动中的指引。
一、引言
生成式人工智能持续成为热议的话题,各类报道迭出、相关研究不断,并且,随着Deepseek的横空出世使其更具昭示意味。在一些学术场合,它被引导着朝“人工智能的中国时刻”方向去思考。另一边,该项技术或所依赖的大语言模型在使用范围和应用场景中也表现出色,它已不仅仅是简单的数据抓取、语义理解、逻辑推理、计算输出,而广泛地参与到文案撰写、影像设计、艺术创作等领域。对此就有学者提出,生成式人工智能将从相对纯粹的“工具属性”大步迈入堪比“人脑功能”的重大创新阶段。而普遍观点认为,人机融合、人机共生将是未来的常态。
在新闻业中,生成式人工智能被引入使用已稀松平常。它在新闻采集、生产、分发的过程中扮演着愈加主动的角色,并展露出冲击与重构传统媒介场域的态势。借由技术辅助,媒体业者的工作效率显著提高,新闻专业主义同时也得以加强。例如,生成式人工智能以其强大的数据收集与分析能力,能通过爬梳网络上相关信息快速整理出事件的焦点、动态与全貌,帮助记者克服过去人力搜集与认知的局限,进而提升对新闻事件的感知度与判断力。这固然是值得称颂的一面,但也有不少研究者敏锐地看到,生成式人工智能对新闻职业边界的模糊化、对新闻生产的“祛魅”或客观性的消解、对内容创作的影响因而引发的焦虑,如此种种不免有一丝从主体性、元问题层面反思的意味,当人工智能逐步而又全面嵌入人类的经济社会生活,其催生的伦理风险危机亟需重视。
在有关生成式人工智能应用前景与潜在隐患的一系列讨论中,绝大多数持辩证且审慎的看法,这符合当前学界的普遍共识。然而,就新闻业实践图景而言,生成式人工智能的渗透带来的不仅仅有协作模式、话语体系和传播策略的变革,也有一些新闻价值传播不当、技术使用安全等弊端。在此之中,有两个问题表现得尤为突出和典型:一是新闻工作者利用生成式人工智能形成的作品在何种情形下具有《著作权法》意义上的可版权性?二是在前述的使用场景中,为确保新闻的品质如真实性、准确性,又有哪些需要遵循的伦理规则?接下来,本文会对其二者分别作出理论上的回应与行动上的指引。
二、人工智能生成内容的版权与侵权争议
人工智能生成的内容是否构成《著作权法》所规定的“作品”、能否得到法律确认与版权保护、其权利归属怎样划分、侵权责任纠纷又如何认定……自ChatGPT、Sora、Claude、豆包、文心一言、DeepSeek等人工智能模型被大量使用后,这些成为了近几年理论界特别是法律学术圈热议度最高的课题集。截至目前,已有太多同类乃至重复的研究成果问世,综合有关文献,国内主流观点认为“作者”主体是自然人或法律拟制的法人,坚持了“以人为本”的身份界定;此外,人工智能生成物是否具有可版权性,归根到底取决于其最终内容呈现有无体现人类智力贡献下的独创性。但要有所区分的是,人类输入指令不能被视为创作,而仅属于思想成分,由此可推导,不论是用户的指令下达系“单次”还是“多次”,人工智能生成的内容都不能被视为作品。除非使用者对提示词的选择和安排具有独创性,在此限定情形下,人工智能模型因仅起到辅助创作的工具作用,人的决定性、控制性和主导性依然存在,将人工智能生成物判定为作品并无不当,反倒符合人机协作时代背景的规制路径。
对于人工智能生成物究竟有无版权、可否享有版权,在事实与价值的判断上学界实则仍存在不小的争议与分歧。但基于人工智能输出的内容,媒体工作者进行“二次加工”包括改写、修订、增添、删减等,从而形成一个有着人为创作痕迹兼具一定独创性的智力成果,依照《著作权法》第3条之规定它便是“作品”。这里有必要重申一点,法律对独创性的要求仅限于最低限度的“有”,而不必苛求程度的强或弱、繁或简,但仍应当以人类创作完成为前置条件,它遵循了著作权法的立法目的和精神。
在围绕著作权能否取得的激烈探讨外,使用生成式人工智能还可能触发两类侵权。一种是数据挖掘与机器学习过程中未经授权地收集和存储了他人的作品,以及根据自身的算法逻辑、推理模型对作品进行加工、汇编等;另一种是人工智能自动生成的内容复制或演绎了他人的作品。就著作权对应权项而言,前述行为视不同情形可能侵犯原作者的复制权、演绎权与信息网络传播权。
事实上,由于生成式人工智能模型的技术原理,其通过对海量数据信息的抓取、收集、运算和自主学习,输出具有仿照人类思维和口吻的信息,其间不可避免地会再现、包含他人享有版权保护的作品。既然如此,要确保合法地使用他人权利作品无非得符合以下三种条件中的某一项,它们分别是:法定许可、获得授权、合理使用。
然而,造成眼下人工智能在使用他人作品时引发争议的根源在于现行《著作权法》并未将其纳入到“法定许可”的范畴内,而绝大多数人工智能服务提供商是通过公开渠道广泛爬取数据,即采集行为系未经授权,长期以来,版权侵犯、隐私侵扰的质疑和谴责不绝于耳,也困扰着语言模型训练的高质量发展。比较来看,以“合理使用”作为规制方法似乎成为一种备受期许的治理路径,可即便如此,国内理论界对究竟能否适用该制度也存在不小的观点分歧。粗略归纳,大致有如下四种看法。
第一种观点认为人工智能训练对他人作品的使用不属于作品性使用,所以合理使用无从谈起;第二种是从促进技术创新、增加公众福祉的角度,建议将大语言模型使用他人作品信息认定为合理使用,当然后者需要予以必要的扩大解释;第三种意见是否认构成合理使用,但提议借助后续立法,增设赋予人工智能训练使用作品行为的权利限制地位;第四种与前一种论点有相似性,但解决办法则寄希望于集体管理组织授权或法定许可制度给予著作权人适当补偿。总之,社会各界尚未就人工智能训练中不得已使用他人作品的行为规制达成一致意见,也未见得有任何一个学理主张占据了主导地位。
有鉴于我国著作权相关立法在对人工智能训练中实施的数据挖掘、信息复制、机器学习等行为的定性与监管仍处于空白,所以法律并不禁止人工智能研发者或服务商在语言模型训练中使用他人作品。对此,也不乏有司法裁判认定此种行为构成合理使用。法院所持观点为生成式人工智能在数据训练阶段使用在先作品,目的是出于学习分析原作的叙事主题、语言风格、写作策略等方面,从中整理、仿照、提炼相应元素,便于后续应用户输入的指令要求转换性创作新的文本。该种使用行为虽然有聚合既有作品的事实,但动机并非是以再现、复制原作品的独创性表达,也未将在先作品不经允许地还原呈现,故而不会影响原作品的正常使用以及损害著作权人的合法权益。
另外,针对生成式人工智能根据用户下达提示词而输出的内容,已有审判案例会根据最终生成物构成对原作品的“实质性相似”从而判定侵权责任成立。诚然该份判决结果对日后大模型训练中使用数据行为埋下了诸多不确定性和巨大法律风险,但它也为一些具有合理性和可行性的治理方案提供了思路,例如有学者就提出“豁免训练端、管住生成端”的构想。按照他的说法,只要人工智能生成的内容不含有他人作品的独创性表达,因此它就是不构成侵权,那么,对于用来训练语言模型的种种作品使用行为也就可以容忍放任了。换言之,不在乎经过,只对结果负责。这样就可以实现人工智能训练所需与著作权人利益保护之间的平衡,且不会对著作权人带来实质性损害。
尽管这项建议真待落地时依然会存产生不少法条衔接与理解适用上的难题,但它至少为模型开发商和使用者两大主体确立了三项基本的规范准则。第一,研发者应采取一些必要和适度的技术性措施,减少向用户直接输出和复制改编他人的作品;第二,建立投诉反馈平台和快速处理机制,负责任地和有成效地执行“通知-删除”制度;第三,用户应当对人工智能生成物的具体使用行为负责,除非仅供个人学习、研究、欣赏或出于教学用途,否则应检视内容是否存在侵权。
三、生成式人工智能的使用规范
生成式人工智能深刻影响乃至重塑人类的信息生产方式其作用力自不待言,但伴随而来的也有一连串高风险、危害性的传播行为。例如,生成式人工智能被用于伪造不实消息和虚假视频,使得整个网络舆论生态出现偏向与错置,尤其要警惕科技平台会挟流量、技术、算法、市场支配地位等非对称优势,操纵和误导网民意见。又如,生成式人工智能源于编码设计所固有的刻板印象、算法偏见,它们正在扩大而不是弥合鸿沟,加重而不是缩减偏见。再比如,生成式人工智能借助爬虫工具自动抓取数据,其中就不免涉及到用户隐私信息的泄露或指纹、人脸等生物性敏感数据的窃取。更为紧要的是,生成式人工智能应用的普及化、平民化和商业化特征,会使得伦理风险凸显放大、叠加的效应。
所以,如何规范地使用生成式人工智能,它不仅仅反映用户的媒介素养,也是于法有据的法定责任。使用者应尽到必要的审慎和注意义务,其形式表现涵盖合成内容须明显标识来源、内容质量审查确保真实合法、提供必要背景信息保障用户知情同意、风险管理与预防避免扩大侵权损害等多个方面。需要说明的是,虽然我国尚未出台针对人工智能使用规范的特别立法,比较直接和专门的法律规范也仅限于部门规章层级的《生成式人工智能服务管理暂行办法》,该办法由国家网信办、国家发展改革委、教育部等七部委于2024年7月联合发布,目标旨在“促进生成式人工智能健康发展和规范应用”。
我国相关立法处于探索阶段,面对实践中亟需因应的有法可据的确不失为一种缺憾,但新闻出版界出于伦理的坚守与规范的自觉,已经在许多场合和场景纷纷推出了颇具前瞻性与示范性的行为指引。例如,有杂志社明令禁止作者在撰写学术论文过程中直接使用生成式人工智能来产出论文内容、核心观点、改写文献、伪造篡改数据等;也有像《历史研究》这样的国内顶尖学刊明确“不接受生成式人工智能工具参与投稿署名”,但允许将工具用于语言润色、文献检索、数据整理与分析、思路开拓等辅助研究环节,同时要求作者必须出具使用人工智能工具的情况说明。还有像中央广播电视总台也及时推出了《人工智能使用规范(试行)》,该文本被视作我国首部媒体人工智能使用规范化标准。
综合来看,从学术界到媒体圈对人们使用生成式人工智能辅助创作总体持有限度的包容态度。有限度意味着一条底线、一个基本、一种坚守。新闻机构或发布平台会允许作者在使用范围上仅限于文本、语法的修改以提升文章的可读性,但不得介入实质内容的生产,例如文本主体的论证、实验结果的推导、研究数据的创建等;另外,在披露方面要求明确列明哪些地方使用了生成式人工智能,否则,将被认定为违反科研诚信或学术伦理。
根据新华社一份调查报告显示,绝大多数受访新闻媒体对使用生成式人工智能持正向、积极的立场,并且有越来越多的组织主动拥抱变革、推广技术应用。与此同时,大部分媒体出于对新闻伦理争议的权衡、对数据安全隐私保护的考量,即使有意愿去创新求变,但多少抱有观望和谨慎的心态。换言之,如何利用生成式人工智能在提升内容产出的智能化、效率化之余保留新闻品质的标准化和专业化,这是未来很长一段时间媒体单位要思考的命题,也是须面对的挑战。而时下当务之急的一项任务,需要尽快重新拟定新闻的采编与发布细则,对其中涉及生成式人工智能的使用应该制定明确的政策框架或行为指引,包括适用范围、参与程度、限制例外、版权归属、责任风险、违规情形等。
四、结语
今天,使用生成式人工智能既是一种流行,也是一种必然。当这项技术应用走进编辑室、融入到创作中,它让所谓“智媒时代”显得更加具体而又充满细节。也许终有一天,科幻想象中的“奇点”会有降临,届时人工智能愈加展现出类人化的特征,具备认知、感知和自我决定的能力。不过就当前应用场景与使用状况而看,人们对生成式人工智能不加节制的滥用、误用乃至恶用,已然催生了多重法律风险与伦理危机。如果说,趁着技术的“潘多拉魔盒”被彻底打开前,政府加大监管、行业加强自律已成为社会各界的共识,那么,每个使用者在版权和伦理维度加深认知、提高注意义务则是科技理性所必需的文明自觉了。
二〇二五年四月七日
评论(0)
请先 后发表评论~