黄河:网络谣言的智能化演变及治理

选择字号:   本文共阅读 15111 次 更新时间:2023-04-17 23:33

进入专题: 网络谣言  

黄河  


众议成林,无翼而飞。“人人都有麦克风”的社交媒体时代给谣言治理带来了新的挑战。当前,媒介技术正在经历新一轮变革。大数据、人工智能、物联网、虚拟现实等技术的广泛应用与日益普及,把信息传播带进了智能化时代,信息内容的采集、生产、加工、分发与消费模式发生着深刻改变。谣言与媒介相生相伴。媒介技术的变化与发展在重构信息环境的同时,也会改变谣言的扩散方式及其社会影响。从谣言的演变看,其以往生成与传播的底层力量是靠人的经验性参与,而如今智能技术已然取代了这一力量并重构着谣言运转的底层机制。这样的变化促使智能时代的网络谣言无论是内容形态还是传播方式都在传统谣言的基础上全面升级,其社会影响与治理导向也应重新加以评估与规划。

从合成事实到伪造舆论:智能技术对网络谣言的全面改造

智能时代,网络信息传播的技术导向进一步增强,智能技术对网络谣言的改造主要表现在前端的内容生产与后端的传播扩散两个方面。

在谣言内容的生产方面,智能技术的应用引领着网络谣言走向精细化乃至定制化。智能内容生产的核心优势,是基于大数据分析技术的内容精准生产与基于人工智能技术的内容自动生产,两者相互叠加能够共同提升网络内容生产的精准度与效率。循此机制,网络谣言的生产模式也将进入智能化阶段,比如借助时下流行的对话式大型语言模型ChatGPT,用户可任意向其提出制造虚假内容的要求,并立即获得大量看似可信但无可靠信源的各类文本。网络谣言还能借助对谣言文本及其传播效果的大数据分析获得“精确制导”的能力,通过对公众认知、情感、心理乃至偏见的把握设定自身的内容主题、叙事方式和话语框架,继而结合传播反馈不断进行修正以达到更好的传播效果。如此一来,面向特定个体、群体或机构进行谣言的定制化生产也将成为可能,网络谣言内容的“精准化”和“精细化”水平将越来越高。

当前,智能技术的异化发展还创造出一种全新的谣言内容,即利用人工智能和机器学习技术实现音频及视频的模拟、合成与伪造的深度伪造(Deepfake)内容。其典型应用实践包括图像和视频“换脸”、操纵视频人物的表情和语音、伪造不存在的人物等。例如,2018年,获得奥斯卡奖的导演乔丹·皮尔和BuzzFeed首席执行官乔纳·佩雷蒂就利用这一技术伪造了美国前总统奥巴马用脏话辱骂时任美国总统特朗普的视频,对社会造成误导;2019年,脸书首席执行官马克·扎克伯格也被制作了一则吹嘘自己“完全控制数十亿人的失窃数据”的深度伪造视频。种种事实告诉我们,如今不论是文字、图片,还是声音、影像,均可轻而易举地被伪造,传播形式已无法成为辨识信息真伪的关键证据。

更具挑战性的是,这种深度伪造的程度还在通过算法的学习和进化持续加深。从技术视角看,深度伪造技术的核心是名为“生成式对抗网络”(Generative Adversarial Networks)的机器学习模型,该模型结合自动化图像识别、机器深度学习与人工智能技术,在生成虚拟图像的过程中借由内部负责合成图像的生成器(generator)和负责甄别真实或合成图像的判别器(discriminator)之间的博弈,来提高输出结果的逼真程度,其目的就是使生成的图片、音频与视频无限接近真实和客观存在的水平,达到以假乱真的效果。目前,深度伪造技术的代码算法已在开源软件中公开,相关应用软件遍布互联网,各类机构、组织乃至普通公众都可便利地利用此类技术生产具有高度欺骗性的谣言信息,并将之通过各类社会化媒体平台传播出去。由此产生的必然后果,就是严重污染网络信息环境,扰乱网络传播秩序,危害公共安全。

在网络谣言的传播扩散方面,智能技术也发挥着推波助澜的作用。一是基于算法的智能化分发在传播效率上远远优于编辑分发与社交分发,因而可以进一步加速网络谣言的蔓延,使其在短时间内完成大规模扩散。在此过程中,智能分发还可同时解决谣言与个体用户间的匹配问题,根据身份特征、心理诉求、关切议题、阅读习惯、媒介偏好等标准寻找到易于被谣言“感染”的用户并向其精准投放,达到事半功倍的成效。《北京青年报》报道,当前基于算法的个性化内容推送已占整个互联网信息内容分发的70%左右。二是直接运用先进且隐匿的自动化程序或社交机器人技术作为谣言信息的“超级传播者”。社交机器人(social bots)指的是社交媒体上由软件操纵的账户,此类账户不仅能通过算法自动发布内容,还会与其他账号互动并介入公众讨论。越来越多的证据表明,社会化媒体上大量内容的真正生产者并非人类用户而是社交机器人。社交机器人对社会化媒体上的谣言泛滥亦有明显的助推作用。具体而言,由代码和算法驱动的社交机器人可以凭借大规模的自动点赞、转发、搜索等行为,以指数级的速度扩大相关问题的流量,用“谎言灌喷”的方式将众多谣言送入网民的视野。显然,这种类型的谣言已不是信息在传播过程中流失导致的谣言,而是人为蓄意制造的谣言。此类利用社交机器人进行传播的谣言,不仅可被制造出在网络上极其流行的假象,甚至还有可能接续形成虚假的意见氛围与舆论环境,挤压和占据真实信息可能传播的时间与空间,以此操纵公众意见,引发舆论动荡。

个体、舆论、观念:智能化谣言传播对信息秩序与社会生态的挑战

智能技术赋予网络谣言新的能量,使其不仅超越了原有形态,以一种高度真实可信的方式进行自我呈现,还使其具备了裂变式扩散的传播力和无孔不入的穿透力,乃至可以通过大规模集中传播实现对网络舆论的操控。作为一种信息的畸变形态,网络谣言“脱胎换骨”式的智能化发展也必将造成更为严重的信息污染与信息失序,引发复杂、持久乃至不可逆的负面社会效应。

第一,相较于普通谣言,智能化谣言可能会带来更为普遍且严重的权利与利益伤害。除了其本身的虚假性使然,对于智能化谣言来说,不论是深度伪造还是定制化内容与精准分发,都要以抓取和运用用户的身份信息、网络行为数据乃至生物性数据为前提,因此往往伴随着对公众隐私权、肖像权、名誉权等个人权利的潜在威胁与直接侵犯。《华尔街日报》报道,2019年一家英国公司的首席执行官在接到母公司首席执行官的语音信息后,按其要求向所谓匈牙利供应商的银行账户转账24.3万美元。但事后证明这则语音由AI制作而成,其惟妙惟肖地模仿出了母公司首席执行官的德国口音与腔调。近两年在美国,总统拜登、国会众议长佩洛西、前总统特朗普和奥巴马等多位政治人物均被制作了深度伪造视频并公开广泛传播,不仅导致他们形象与名誉受损,还多次引发舆论风波。对此,有学者担忧,深度伪造信息极有可能成为煽动恐怖和暴力活动、挑拨国家与社会矛盾的工具。

第二,智能化谣言的传播易对健康的社会舆论环境造成冲击。在智能时代,我们不能再简单地把网络舆论等同于网民的言论和意见,因为通过组织化的信息生产和机器账户的规模化传播,网络舆论在很大程度上已经成为人与机器共同制造的结果。在此语境下审视智能化谣言对社会舆论形成与发展的负面影响,可以发现四个方面的主要挑战:一是以深度伪造内容为代表的智能化谣言鉴别难度更高,并可借由算法分发与用户的关系传播非常隐蔽地在网络中流动,使得网络舆论空间的信息构成更加复杂;二是受到算法与社交分发带来的同质信息重复曝光的“回声室效应”的影响,同类网络谣言的反复传播会令其包含的信息或观点不断在受众脑海中得到加强与放大,加剧受众在认知、意见与情绪上的极化倾向;三是在围绕具体事件的公共讨论中,伴随谣言的出现或破除,网络舆论亦可能随时发生反转,社会舆论的不确定性和不稳定性提高;四是格外需要注意的,智能化谣言的生产者还可通过定制谣言内容、使用算法推送、利用社交机器人渗入信息交互网络等方式有目的地制造网络热点、挑动公众情绪、操纵网络舆论,由此带来的族群对立、社会冲突乃至国家安全风险不容小觑。

第三,在更根本的层面上,智能化谣言的传播还能进一步消解网络社会已然摇摇欲坠的真实观念与真相机制。事实上,在智能化谣言出现之前,社会化媒体就已动摇了公众与大众传媒之间有关提供事实与真相的契约关系。公众一方面批评大众传媒新闻报道的延迟性及其选择性报道背后对真实的操控,另一方面又在社交媒体上海量、分散、残缺、各说各话又不断反转的事实碎片中感到真相的无依。近年流行的“后真相”概念便源于公众对社会化媒体时代“真相”匮乏与伪真相泛滥的焦虑与麻木:当发现可靠的事实如此难以获得时,“真相”或许就不再那么重要。智能化谣言的传播显然会加剧这种对真相界定和真相共识的解构——在技术的完美塑造下,许多谣言可能比事实本身更加“逼真”,铺天盖地且真假难辨的信息最终只能让人逐渐放弃分辨真假,随波逐流;针对常常通过成见、情感或道德伦理来判断事实真假的公众,智能化网络谣言也可以做到比真相更符合他们的“期待”与“兴趣”;面向基于社交关系和人际信任来区分、选择事实的个人,智能化网络谣言还能通过营造外部意见气候对其施加影响。种种情形的最终后果将不只是对公众造成误导与欺骗,令其作出错误的选择与决策,更会从宏观与长远的角度促使公众逐渐习惯一个没有确定性事实的生存方式,乃至彻底丧失对社会信息环境的信心与信任。

技术化规制与系统性信任:智能化网络谣言治理的并行路径

作为一种系统性风险,智能化网络谣言传播会对社会信息生态与社会信任体系产生极大的破坏,这种破坏的消极影响不可低估,加强对智能化网络谣言的治理迫在眉睫。对此,各国政府、科技界及学术界已经展开了探索性研究与实践,所形成的治理对策是以制度构建与技术反制为具体举措的技术化规制。

其中,构建治理智能化网络谣言的相关制度与法律体系由政府机构主导,实施对内对外两手抓。对内是要建立起有关智能化谣言治理的制度体系、法律法规与行动框架,强化针对智能技术的综合治理能力,如从数据复核制度、数据管理制度、数据运用制度等方面设计针对算法治理的相关制度,从源头防范信息的保护和使用问题。对外则是加强国际智能技术交流和治理合作,形成跨国规制智能化网络谣言的制度与规则,限制和规范智能技术在国际传播领域的滥用。而加强对虚假信息的检测与核查技术研发,“以技术反制技术”的举措由平台负责。此处沿袭了过去对网络谣言的传统治理做法,但更强调对算法模型的不断优化以提高识别、控制与更正智能化谣言的能力,提早防止和及时阻断智能化网络谣言的传播与扩散。这需要网络平台及相关企业落实信息内容主体责任,并针对智能化谣言跨平台传播的特点加强平台间在谣言治理上的协同合作。

上述技术化规制路径对智能化谣言治理固然不可或缺,但我们也要意识到其在实践中的局限。比如,是否对深度伪造内容加以标识就能使之不会产生负面传播效果?又如,网络平台对虚假信息的界定及对其有害性的裁度可能存在标准不一的问题,且对智能化网络谣言的处置仍以事后规制为主,在那些有重大影响的谣言信息传播之初,平台常常无法对其进行约束。再如,在技术反制层面,当出现更好的检测技术时,谣言内容也会随之进化,直至让检测技术失效。从这个角度讲,对智能化网络谣言的技术规制实际上是一场没有止境的猫鼠游戏。

显而易见,智能化网络谣言并不是纯粹依靠技术化规制就可以解决的问题。有效治理智能化网络谣言的前提,是对其存在与发展背后各种复杂社会因素——网络传播规律、技术发展趋势、网络用户心理与行为以及尤为关键的社会信任程度等的深刻理解。

当下,城市化的推进、社会结构的转型以及新媒体的发展正在使人类社会在很多方面变得愈发个体化,个体权利的全面扩张挑战着几乎所有传统共同体的权威性。前述公众与大众传媒之间关系的松动即是一例,政府机构频频遭遇公众的质疑亦多源于此。然而,在当前的社会语境中,随着风险性与不确定性因素越来越多,缺乏对“权威”的认同与信任,实际上是让众声喧哗之中包括智能化谣言在内的失实、片面、极端、有害的信息更易进入可靠信息的真空。与此对应,不论对于个人还是社会,寻回信任依然是规避与控制谣言的最简便机制。就像德国社会学家尼古拉斯·卢曼所说:“不管组织与理性计划怎样努力,人们不可能根据对行动后果的可靠预测来指导所有的行动。仍有剩余的不确定性有待处理,也必须有一些角色,其任务就是妥善安排这些不确定因素。”

尽管遭遇权威质疑和信任危机,政府与主流媒体仍然是承担这一角色的关键主体。特别是在中国社会,不论身处何种媒介环境,促使公众在角色选择过程中自发选择相信政府与主流媒体都应是谣言治理的主要方向。这两大主体应当勇于直面新的环境、新的公众与新的挑战,尽快调适自身的运行机制,找到符合新时代公众需求并彼此共同认可的准则与目标来开展行动,通过开放、公正、平等、可靠的交往,增进公众的情绪体验、培养公众的情感认同,创造并积累出新的信任资本。亦如政治学者福山所言:“最有用的社会资本,往往不是在某一传统共同体或群体的权威之下进行运作的能力,而是创造新的联盟以及在新创立的共识条款之下开展合作的能力。”


作者: 中国人民大学新闻学院教授、新闻与社会发展研究中心研究员 黄 河


    进入专题: 网络谣言  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 新闻学 > 新媒体
本文链接:https://www.aisixiang.com/data/141560.html
文章来源:本文转自人民论坛,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统