赵精武:异化的网络评论——再论网络暴力信息的阶段化治理

选择字号:   本文共阅读 5405 次 更新时间:2023-10-13 00:01

进入专题: 网络暴力   网络评论   匿名性心理   群体行为   个人信息保护  

赵精武  

 

【摘要】频发的网络暴力事件正在侵蚀网络信息内容生态和网络舆论安全,甚至造成受害人精神失常和自杀等严重后果。然而,侵害人众多、损害结果难认定、因果证明困难等问题导致网络暴力治理迟迟未能取得预期效果。“法律解释说”和“多元主体共治论”虽然能够在一定程度上预防和惩戒网络暴力的发起者和参与者,但是网络暴力事件是一个群体性、持续发生的社会治理问题,仅仅通过个体层面的法律责任追究并不足以有效阻止网络暴力事件的发生。从信息传播视角来看,在匿名性心理导致的去抑制化效应、“沉默的螺旋”效应以及拟态环境的作用下,网络暴力的形成需要经历“零星负面信息发布—社会热点事件促成观点激化—网络暴力事件发生—个人信息泄露扩大网络暴力事件损害结果”这四个阶段。因此,应当通过降低和控制网络暴力事件形成过程可能导致风险异常的关键环节,形成以基础制度、风险控制机制以及特殊主体义务体系为内容的阶段化治理架构。

【关键字】网络暴力;匿名性心理;群体行为;阶段化治理;个人信息

 

一、问题的提出

在网络空间现代化治理活动中,网络暴力事件始终如蛆附骨、难以根除,并且呈现出愈演愈烈的发展趋势。从最早的“人肉搜索”第一例——陈自瑶事件,到近些年的刘学州网暴事件、粉红发色女孩网暴事件、四川德阳儿科医生泳池网暴事件,被网暴者或是精神崩溃,或是自杀身亡,这无疑是对网络空间治理提出的严峻挑战。特别是2023年武汉学校内遭辗轧致死小学生母亲疑似遭网暴后坠楼事件,引起了社会公众的强烈反响。[1]为了有效遏制网络暴力信息的肆意泛滥,2023年3月,国家互联网信息办公室开展的“清朗”系列专项行动中,其中就包括了“清朗·网络戾气整治”这一与网络暴力治理有关的专项行动。[2]最高人民法院、最高人民检察院以及公安部在2023年6月联合发布《关于依法惩治网络暴力违法犯罪的指导意见(征求意见稿)》,国家互联网信息办公室于同年7月发布《网络暴力信息治理规定(征求意见稿)》,意图在现行立法体系的基础上再次对网络暴力行为的刑事责任以及网络暴力信息治理的主体责任予以明确。2023年8月3日,北京互联网法院召开涉网络暴力案件审理情况新闻通报会,通报该院此类案件的主要特征和裁判思路,并发布了涉网络暴力典型案例,呼吁社会各方共同参与网络暴力治理,加强网络空间人格权益保护,营造风清气正的网络生态。[3]

越来越频发的网络暴力事件已经威胁到整个网络信息内容生态的良性发展。网络暴力治理难题早已有之,但始终未能取得理想的治理效果。其中的原因并非存在法律缺位、立法空白等问题,而是因为网络暴力事件迥异于其他的网络侵权事件,其损害结果往往由不具有事前意思联络的众多网络暴力行为所组成,且实际侵害主体范围不确定。这也意味着个体的刑事责任难以认定,即便借由侵权责任追究部分侵害主体的民事责任,其最终的精神损害赔偿数额也不足以使得网暴者“投鼠忌器”。[4]为此,通过解释既有侮辱诽谤罪的条款,扩大刑法威慑范围的观点成为主流学说之一。然而,网络暴力的复杂性不仅仅表现为入罪困难,同时还表现为刑法自身的谦抑性决定了大部分网暴事件只能由受害者提起民事诉讼。但有限的精神损害赔偿数额无异于杯水车薪,受害者仍然需要花费大量时间才能恢复至原来的生活状态。由此观之,网络暴力治理难题显然无法单独依靠某一类法律责任或单一监管机构就能有效解决,故而多元共治也顺势成为网络暴力治理领域的共识。

但是,多元共治本质上仅仅是一种社会治理理念,部分学者习惯性地将其理解为政府、企业、行业自律组织以及公民各自履行相应的法律义务,忽视了多元共治理念所强调的协同治理特征。网络暴力事件是在一段时间内持续发生并呈现愈演愈烈趋势的社会事件,其治理思路不能简化为个体责任的承担,而是应当依循网络暴力事件的发生规律与形成机制,创设能够层层消解网络暴力风险的责任体系。因此,所谓的协同治理特征应当是以体系化、阶段化治理架构为基础,网络暴力事件治理难题也就转化为了另一个问题,即如何基于网络暴力事件形成机制建构该类事件在不同发展阶段的阶段化治理体系,而相关主体的法律责任问题则转化为在事件发生的不同阶段,各个法律主体应当承担的法律义务以及履行标准如何认定。

二、网络暴力治理的理论学说及其局限性

(一)网络暴力的基本概念与治理的特殊性

在《网络暴力信息治理规定(征求意见稿)》之前,现行立法并没有对网络暴力信息进行专门的概念界定,其被统摄到《网络信息内容生态治理规定》第6、7条所规定的违法信息和不良信息范围内容之中。《网络暴力信息治理规定(征求意见稿)》第2条第2款对网络暴力信息的概念界定包括了三个要件:一是针对个人集中发布,二是具有侮辱谩骂、造谣诽谤、侵犯隐私、道德绑架、贬低歧视以及恶意揣测等特征,三是包括违法信息和不良信息两类。需要注意的是,该概念界定并不是以个别信息为对象,而是强调集中发布的不特定数量信息。其背后的原因在于,有限数量的侮辱谩骂、造谣诽谤等信息难以称得上是网络暴力信息,其能够造成的损害结果与网络暴力信息所造成的损害结果相去甚远。并且,这些有限数量的信息能够明确相应的信息发布主体,相应的法律责任较为容易认定。倘若不对网络暴力信息进行数量层面的限定,则会导致所有的负面网络评论均有可能纳入“网络暴力信息”的概念范畴之中,也会陷入网络舆论监督与网络暴力边界模糊的困境。有意思的是,《网络暴力信息治理规定(征求意见稿)》还将“侮辱谩骂、造谣诽谤、侵犯隐私”与“道德绑架、贬低歧视以及恶意揣测”进行区分,后者还需要满足“严重损害身心健康”这一条件。因为前者具有典型的违法性,也是实践中最容易甄别的网络暴力信息,后者虽然在表达外观上属于合理的发表,实质上却是以恶意攻击他人为目的。

学界对于网络暴力信息概念的探讨也未曾达成共识。原因并非对网络暴力信息概念存有较大争议,而是该类信息是一种规模化、群体性网络信息,难以通过寥寥几句准确概括网络暴力信息的基本特征,主要存在“网络舆论暴力”“网络侵权行为”和“网络失范行为”三种界定倾向。[5]部分学者将学界关于网络暴力的概念界定划分为“基于道德约束的暴力行为”和“言论表达自由的异化”两类学说,[6]前者强调互联网所建构的虚拟空间实为一个公共空间,网络暴力的本质是网民在该公共空间对特定个体进行超限度的道德审判;后者则强调网络暴力本质上是网民以不恰当的方式发表自己的观点,表面上是以“正义”“公平”等作为道德指引,实际上却是非理性的群体指责。[7]此外,也有学者以网络暴力的恶意攻击性为起点,将网络暴力界定为“依托网络平台,兼具实在暴力因素的网络失范行为”。[8]尽管学界有关网络暴力概念的界定表述不尽相同,但普遍承认网络暴力具有四类法律特征:一是群体的无意识规模化攻击,网络暴力的发生通常并非刻意为之,而是一种偶发性的网络群体情绪激化所导致;二是网络暴力的界定包括个体网络信息的负面性和群体网络信息的同一指向性两个评价指标;三是网络暴力通常以道德指责为起点,[9]但是由于网络匿名性、群体无责任感等原因导致网络评论呈现失序状态;四是网络暴力需要满足造成严重损害后果这一结果性要件,既包括人身权益的减损,也包括财产安全的威胁,并且该类行为表现出持续进行的特征。[10]

之所以如此赘述学术界已经近乎探讨完全的概念问题,是因为网络暴力信息本身具有动态发展的特性,相应的网络暴力治理模式也需要根据治理实践进行调整。与早些年的“人肉搜索”事件相比,现阶段的网络暴力事件同时也呈现出全新特征。第一,部分网络暴力事件与个人信息泄露结合,[11]个人信息泄露的范围扩大至姓名、工作单位、联系方式、住址、家庭信息等内容,更容易对受害人的线下生活造成负面影响,社会危害性更为严重。[12]第二,网络黑灰产利用“流量经济”恶意炒作、扭曲社会热点事件,[13]扭曲、删减、替换部分关键事实,引导群体情绪的对立,加剧了网络暴力事件的波及范围。尤其是人工智能技术的发展,利用人工智能批量生成恶意揣测、道德绑架性的网络评论信息,实现对网络舆情的不良诱导。第三,自媒体、意见领袖、网络水军等传播媒介改变了以往单一传播媒介的信息传播效率,加之算法推动化推荐所产生的信息茧房效应,网民在收到大量由自媒体、意见领袖、网络水军二次编辑的非真实信息后,其主观想法可能会跟从这些传播媒介的舆论诱导。可以说,概念层面的网络暴力界定能够明确治理对象和治理范围,但抽象性概念表述并不足以为治理实践提供足够清晰可行的判断标准,故而更需要结合网络暴力事件的基本特征调整网络暴力的治理框架。

(二)网络暴力治理的理论学说

在过去网络暴力治理的学术探讨中,法律空白、法律缺位似乎成为治理效果不佳的直接原因。但随着网络信息内容立法体系的完善,不少学者已经意识到网络暴力治理效果不佳的根源并不是现行立法规范不充分,而是网络暴力事件的特殊性决定了法律所能干预介入的功能作用着实有限。因为网络暴力事件本身是一种持续性事件,零散的网络负面评论和短期内的多数网络不当评论无法构成法律意义上的网络暴力事件。通过强化法律责任控制网络暴力事件的发生,确能化解部分风险,但其仍然以个体层面的责任追究为前提,与网络暴力事件的群体性特征并不相符合。基于这种考量,学界目前延伸出“刑法解释论”和“多元主体共治论”两类治理学说。

在过去,刑法对于网络暴力行为的回应方式大多是以侮辱诽谤罪、寻衅滋事罪、故意传播虚假信息罪等具体罪名为主,但鉴于刑法的谦抑性,仅有极少数造成严重损害结果的网络暴力事件才能纳入刑事责任的范畴,刑法对于网暴行为的威慑功能较为有限。而且,部分网络暴力行为并不涉及侮辱或诽谤性言论,而是以恶意揣测、道德绑架等方式为主,其行为更加难以入罪。因此,部分观点认为在《刑法》中增设专项罪名确有必要,采用既有罪名认定行为人的刑事责任并不利于单独强调网暴行为及其危害结果的特殊性,理应将“人肉搜索行为”“网络语言暴力”和“捏造网络谣言”这三类常见网暴行为纳入刑法规制范围。[14]也有部分观点认为刑法规制的强化方向应当是对入罪条件的扩张解释,真正需要承担刑事责任的网络暴力行为本质上均可在《刑法》中找到直接的法律依据,以网暴行为的特殊性为由增设罪名反而无法解释该行为与其他犯罪行为的实质性区别。在刑事责任领域,网暴事件的难点问题在于其损害结果往往并不构成刑法意义上对特定主体造成的实质损害,并且个体的网暴行为与受害人自杀等结果之间的因果关系认定存在困难,受害人提起自诉的难度较大,故而不妨考虑“适度降低诽谤、侮辱罪的公诉门槛”。[15]此外,针对网络暴力所具有的群体性特征,需要对侮辱诽谤罪中的“情节严重”进行实质性判断。纯粹的点击次数并不能代表具有社会危害性的“情节严重”,因为“只有有效地浏览、点击、转发才会造成实质的危害结果”。换言之,更应当根据发布频次、具体场景、信息内容等要素进行综合认定。[16]不过,刑法学者也普遍承认按照罪责刑相适应原则,承担刑事责任的网暴行为人范围不等于所有参与网暴活动的行为人,需要结合是否存在主观故意等要素加以判断。[17]

“多元主体共治论”则是在充分理解事后法律责任追究无法有效预防网络暴力行为的基础上,以类似“全流程环节治理”“全链条治理”[18]的逻辑主张政府、企业、公民以及行业自律组织共同参与、各自履责的一种治理主张。该学说支持者的结论大多为明确或强化各个治理主体的法律责任:政府应当开展与企业的合作治理,监督网络平台严格落实网络暴力信息筛除工作,打击网络水军等黑灰产恶意炒作网络暴力事件。企业应当采取各类管理制度和技术措施,屏蔽、删除网络暴力信息,提前制定网络暴力事件应对预案,设置显著的投诉、举报渠道。公民应当理性发表网络言论,积极抵制具有人格侮辱性的网络暴力信息。行业自律组织则应当积极开展行业内的网络暴力协同治理活动,以黑名单的方式限制频繁从事网暴行为的用户发表不当言论,禁止从事炒作网络暴力的自媒体账号“更换马甲”重新进行恶意炒作。归根结底,“多元主体共治论”的基本逻辑是将所有能够干预网络暴力事件发生的责任主体统一纳入到治理框架内,借由明确各自法律责任实现层层限制网络暴力信息的发布和传播。此外,该学说所采用的治理工具除了法律之外,还包括伦理性规范,[19]以此实现硬法与软法的协同治理效果。如部分学者主张建构数字公民伦理引导网民形成有理有据的网络舆论环境,以法律作为兜底性的规制手段,全方位约束网民的群体行为。[20]

(三)网暴治理学说的局限性及其调整方式

不论是“刑法解释论”,还是“多元主体共治论”,确实能够在某种程度上降低网络暴力事件的发生风险。不过,需要注意的是,“刑法解释论”的作用范围仅限于刑事领域,诸多非犯罪型网络暴力行为难以囊括在内,即便通过宽严相济原则进行扩张解释,其扩张范围也无法涵盖所有或者大多数网络暴力行为。并且,最终承担刑事责任的行为主体大多存在散布个人信息、线下恶意伤害、短信电话威胁等情节,仅能对网络暴力事件中的个别行为人起到威慑作用,无法对网络暴力事件的所有参与者发挥行为指引作用。“多元主体共治论”可能是现阶段最理想的网络暴力治理模式,但是现有的论述内容似乎将该理论与法律责任分配混为一谈,并且所谓的“明确各个主体的法律责任”本质上并没有超出《网络信息内容生态治理规定》等现行立法所规定的义务体系,故而也有关观点认为“多元主体共治合力羸弱”。[21]究其根源,该理论的核心内容应当是如何实现“共治”,而不是通过增设和分配法律责任实现所有社会主体均参与到社会治理活动中。当然,这并不是否认明确网络平台运营者等社会主体法律义务的合理性,而是强调“多元主体共治论”所对应的治理框架首先应当解决的问题是按照何种治理逻辑实现不同主体之间的协调合作,其次需要解决的问题才是不同主体应当承担的法律责任。

需要承认的是,网络暴力事件的治理并不纯粹是一个法学理论问题,还涉及信息传播理论的适用与解释。第一,在大多数情况下,难以确定网络暴力事件的发起者,并且导致网络负面评论异化为网络暴力事件的原因是群体性的“道德指责”。这意味着无论是民事责任、行政责任,还是刑事责任,均无法对所有网暴参与者的行为进行评价。并且,网暴的致损结果是以群体性网络信息发布和传播为基础,这种群体性活动难以拆解为个体层面的行为原因力。第二,网络暴力是一个持续性的信息传播过程,而非一个具体行为。网暴治理之所以迟迟难起成效,原因之一正是网暴行为的持续性特征使其难以进行界限分明的分割,采用网络暴力信息数量作为认定网暴事件的判断标准缺乏足够的正当性依据。[22]小范围人群的网络暴力信息虽然具有违法性,但从实际损害结果来看,是否构成网络暴力事件仍然难以确定。法律意义上的网络暴力事件除了需要满足“严重的身心健康损害”之外,还需要满足短期频繁地进行网络暴力信息的传播。第三,网络暴力事件的诱因在很大程度上源自用户在接收网络信息时会下意识地将算法频繁推送的信息内容先入为主地认为是事实真相,网络舆情的演进过程具有夸大想象、易轻信等特征,[23]故而在事实尚未澄清的情况下,部分用户就开始进行道德指责或侮辱谩骂。

前述信息传播层面的网暴事件特征也决定了网暴治理的重心应当是事中环节,[24]而非事后的法律责任认定。网络暴力事件的发生具有偶发性和不确定性,任何热点事件或时事新闻均有可能诱发网络暴力信息泛滥,意图在事前阶段精准地进行风险预防并不具有可操作性。并且,事后的责任认定并不足以帮助受害人恢复至原有的人身权益状态,且由于缺乏直接的因果关系,受害人的间接性财产损失难以被认定为网络暴力事件导致的损害结果。实际上,“多元主体共治论”的内在治理逻辑也正是针对网络暴力事件形成过程进行层层干涉,尽可能在不同阶段、不同环节控制网络暴力信息的泛滥。不过现有的学说大多侧重在法律责任认定层面的论证,忽视了对网络暴力事件形成过程的风险因素考察,或者仅仅将这些风险因素作为网络暴力事件的基本特征。因此,网络暴力事件的治理逻辑应当回归到对网络暴力事件形成机制的考察,确认零散网络负面评价信息异化成网络暴力事件这一过程的影响因素,并根据这些影响因素设置相应的制度规范,进而实现风险层层递减的治理效果。

三、信息传播学视角下网络暴力事件的形成机制

(一)匿名性心理的去抑制化效应

在大多数情况下,网络暴力的参与者在线上与线下所表现的行为状态并不一致,线上发布网络暴力信息,但线下并不会从事该类行为。这种差异性的根源在于在网络虚拟空间,参与者往往基于自身身份匿名而不再对自己的言行进行道德约束,在传播学中也被称为“匿名性心理”或“匿名制服效应”。[25]网络暴力行为作为一种集体行为,参与者的个人属性被群体属性所覆盖。在无人知晓参与者姓名、身份的前提下,参与者处于一种摆脱社会规范约束的匿名状态,不再主动承担社会责任和进行自我道德约束,[26]在“群体无责感”的心理动机趋势下,做出迥异于线下行为模式的偏激活动。[27]尽管我国实行的是“前台匿名,后台实名”的网络实名制度,但对于绝大多数网民而言,依然留存了足够的自由身份,他人难以轻易识别其真实身份信息,该制度在实际运行中也被割裂为“前台匿名”和“后台实名”两种不同治理效果。[28]因此,网民所承受的社会压力得到释放,能够进行更自由的网络评论,这也是网络舆论监督与传统线下监督的差异所在。不过,这种自由发表网络评论的状态一旦经由匿名性心理被过度放大,则会使得网民彻底脱离“负责任发言”的理想状态,肆无忌惮地进行非客观的网络评论活动,宣泄负面情绪,[29]并且主动攻击与自己意见相左的他人观点。在这种争议极端化的状态下,原本理性的公共讨论陷入“无规范的真空”状态,[30]网络暴力事件也就愈演愈烈。

值得注意的是,单单匿名性心理所产生的去抑制化效应尚不足以真正放大网络暴力事件的严重程度,其中还离不开部分信息传播媒介的恶意诱导。在网络暴力事件发展初期,匿名性心理的去抑制效应只能导致公共讨论丧失应有的理性客观,并造成网民之间的意见抨击和指责。[31]但是,作为信息接收者的绝大多数网民在短期内所能接收到的信息数量有限,自媒体、网络平台等新兴传播媒介在流量经济、眼球经济的利益驱使下,习惯性地在事件真相尚未明朗之前,以近乎真相的表达方式混淆视听,呈现“信息窄化”的趋势。[32]其结果使原本处于意见相左状态的网民受到传播媒介对事实真相的虚假性陈述影响,转而就受害人个体展开群体性网暴行为,这也是为什么能够在新闻报道中频繁见到“反转”“再反转”的根源所在。此外,匿名性心理的另一个作用是使得原本存在身份、职业差异的网民个体得以在匿名机制的掩护下形成具有同质性心理状态的群体。对于网民个人而言,这种群体趋向使得个人的理性分析和评论无关紧要,重要的是保持群体的一致性。换言之,网民个体很容易被群体行为所“劫持”,[33]在自己对相关事实知之甚少或一无所知时,会选择“无意识的模仿”,跟从激烈的群体情绪进行网络暴力活动,这是由于在高度不确定的情况下,每个人都可能会选择与多数人保持一致,并将之视为最安全的选择。

在网络暴力事件形成机制的分析中,常说的“法不责众助长网络暴力”实际上就是由匿名性心理所导致的。但是想要消解匿名性心理的去抑制化效应,将“前台匿名”变更为“前台实名”显然不具有可操作性,因为即便现在各大平台选择公布IP属地,也不会真正弱化这种去抑制化效应。真正需要解决的问题表现为两个层面:一方面,通过事后的法律责任追究以及现实的司法案例使得网民重新在匿名机制中恢复理性,清楚意识到网络空间的言论信息并不会当然“免责”。当然,这种以案说法的治理效果还需要平台运营者以信息发布之前的事前告知方式予以保障。另一方面,网络空间所形成的群体不同于现实群体,更容易在受到情绪刺激之后聚集起来,这也是勒庞所称的“群氓”。[34]该类群体的基本特征是“自我特征与意识消失,受群体同一律的支配”,[35]极易被第三方将愤怒情绪予以放大,[36]因而就需要通过官方辟谣、信息传播媒介规范信息发布行为、屏蔽或删除部分容易导致群体对立的网络信息等方式淡化这种群体情绪,恢复到原本没有受到情感刺激的状态。因为“群氓”本身是一种临时聚集的松散群体,虽然在特定事件刺激下容易丧失理智并进行攻击行为,而一旦这种刺激消散或群体情绪褪去,该类群体又会直接解散。

(二)“沉默的螺旋”效应

在网络暴力事件中,并不是所有的网民都丧失理智,依然存在部分网民会对已知事实提出合理疑问和信息来源质疑,但是受到网暴群体的意见倾轧,一旦自己发布与网暴群体意见相左的观点,则会被视为与受害人为“同一阵营”,进而被施加类似的网络暴力行为。在传播学上,这也被称为“沉默的螺旋”(thespiralofsilence)理论。即“如果看到赞同的观点有多数人认可,就会果断广泛传播,而对于少数人支持的观点,则为了避免被孤立而选择沉默。依次循环,就会形成不同观点之间此消彼长的螺旋过程”。[37]这种正反意见的螺旋变化主要表现为三种模式:一是优势意见借助大众传播媒介实现“自下而上”的扩散,如在社会热点事件中,个人就社会热点事件发表观点之后,迅速形成群体性优势意见,并对公共机构提出诸多质疑。二是优势意见在新旧信息媒介的层层传播下得到扩散,而碎片化、情绪化意见也能够借由信息媒介得以扩散,这两种意见在此消彼长的过程中加剧了不同群体的情绪对立。三是优势意见在得到广泛扩散之后,其他意见则因为个体为了避免被孤立而趋于沉默,[38]最终形成压倒性的舆论优势。

尤其在网络谣言诱发的网络暴力事件中,网络谣言以模糊性的事实表达方式获得社会公众内心“错误的认同”并选择积极参与信息的传播,网络谣言的传播速度和传播路径也随之扩张,部分社会公众反驳网络谣言的信息则可能会被“群起而攻之”,反对者为了“明哲保身”可能会选择沉默。所以,认同网络谣言的网络群体将越发壮大,反对者则会越发沉默,在从众心理的趋势下,网络谣言所表达的错误信息开始成为社会系统中的“主流信息”。这使得原本就是以“正义自居”的网暴行为更加“有理有据”,网暴行为的参与者更加坚信自己的行为是在合理行使网络监督权利,并不具有违法性,这也导致网络暴力行为对个人的损害后果更加严重。并且,在信息传播媒介多元化的当下,所谓的“微博大V”等作为新兴意见领袖,其所能发挥的舆论引导效应更是加剧了网络暴力发生的可能性。[39]例如在江歌案中,以自媒体“咪蒙”为代表的新媒体意见领袖以其自身的用户流量误导了网络舆情,以至于部分对江歌案真相存在疑问的文章和观点都会招致群攻,“沉默的螺旋”效应越发显著。[40]

然而,在网络新媒体多元化的产业趋势下,“沉默的螺旋”理论也开始受到质疑。“反沉默的螺旋”“沉默的双螺旋”等相关理论也被提出,这些新兴理论在解释网络暴力形成机制层面也具有一定的理论价值。“反沉默的螺旋”是“沉默的螺旋”的相反效应,[41]多元化的信息发布渠道使得部分公众不愿意通过沉默来回应多数意见的攻击,加之信息接收者能够自行选择和表达对不同观点的支持或反对,进而形成“少数人意见转变为多数人意见”的现象。[42]不过,“反沉默的螺旋”也包括理性与非理性两类现象,[43]特别是新媒体意见领袖发表了个人观点,其广泛的信息接收者在认可其观点后,反而会将该少数意见放大成多数意见。在网络暴力事件中,部分新媒体意见领袖过度追求经济效益,滥用其舆论优势地位,恶意放大群体负面情绪,增加了网络暴力的发生可能性。[44]“沉默的双螺旋”(the inter-double spiral of silence)则是两种“沉默的螺旋”相互作用,形成规模更为庞大的意见冲突,最常见的就是恶意引发网民情绪对立,即俗称的“引战”。[45]具体而言,在热点事件发生之后,主流媒体报道形成一条“沉默的螺旋”,特定群体通过新媒体形成另一条“沉默的螺旋”。两者所代表的两种不同观点发生碰撞,彼此之间的意见支持者并无显著差距,进而使观点之间的冲突更加激烈。在网络暴力事件中,导致对特定个人集中发布违法不良信息的原因除了优势意见支持者对受害人的直接攻击之外,还体现在彼此相反立场的群体对另一方群体中的个体进行攻击。例如“饭圈”中的粉丝互撕谩骂、引战,两种不同的意见冲突往往会导致针对一方群体中个体的网络暴力事件。

(三)拟态环境的信息失真效应

网络暴力事件的发生在很大程度上与网络信息生态系统密切相关。在信息大爆炸时代,网民所能接收到的信息数量和类型远超以往,但网民难以针对所有信息进行溯源验真,区分真假信息以及优劣信息。部分网民在接收网络信息内容时可能会秉持质疑态度,然而一旦在短期内重复、频繁接收到同质性信息之后,则会默认此类网络信息内容的真实性与准确性。在社会热点事件发生之后,原本多元化的观点意见不再能够处于公共商谈的范畴之内,传播次数超过一定限度,即便是少数意见,也有可能转变成为符合网络信息环境的多数意见。网络信息环境对网络暴力事件的影响也被归纳为“拟态环境论”(pseudo-environment)。该理论是美国新闻工作者李普曼在1922年提出,[46]原本是用于解释传统媒体通过新闻报道等信息传播活动形成了平行于现实环境的信息环境,而该信息环境并不完全反映现实情况。[47]因为传统媒体会对其传播的信息内容进行有意识的筛选,社会公众出于对传统媒体的信任,对其传播的信息内容深信不疑,并形成了被刻意引导的社会认知。换言之,社会公众会将从媒体获取的信息认定为事实,传统媒体所传达的观点意见也会影响到社会公众。该理论的价值在于发现了有别于现实环境的信息环境,并对传统媒体如何影响和控制信息环境作出了理论解释,而这也成为证成传统媒体充当信息环境的“守门人”角色的依据。[48]

当然,“拟态环境论”的产生背景是以报刊、广播电视为主的传统媒体时代,显然与当下多元化的信息传播媒介不相适应。因此,部分学者主张对“拟态环境论”进行改良,重视自媒体对网络信息环境的塑造作用。[49]“拟态环境论”最初设想的信息环境实际上仅仅是由特定的信息传播主体进行塑造的,社会公众作为信息接收者,并不会直接参与到信息环境的塑造过程中。但是,在自媒体业务模式崛起的当下,信息环境的塑造者使得社会公众既是信息接收者,也是信息发布、传播者。尤其是意见领袖在信息环境塑造过程中的特殊地位,使得其也成为信息传播的重点媒介。在实践中,部分微博大V等意见领袖往往自称具有独家信息渠道,使得其所公布的信息被其粉丝默认为具有一定真实性。这些新兴意见领袖的观点可能并不会直接导致网络暴力的发生,但是可能会激化群体负面情绪,扩大网络暴力的实际损害范围。[50]同时,在新旧传媒纷纷采用算法技术分发网络信息内容之后,算法也对拟态环境的塑造产生直接影响。通俗而言,算法应用的经济目标是发现潜在信息消费热点,越受消费者欢迎的信息内容越会被频繁推送。换言之,“算法也会影响到平台的内容分布与走向”。[51]因此,多元化的信息生产者使得拟态环境的形成过程中往往充斥着各类分歧和争议,意图抢占用户流量,刻意制造话题,而这也是网络暴力发生的潜在诱因。

日益复杂的拟态环境增加了社会公众辨别信息真伪的难度,加之自媒体、短视频博主等新兴媒体通常采用“自述亲身经历”“呈现日常生活状态”等商业营销形式呈现网络信息,“有效降低了用户的不确定性和距离感”,[52]社会公众更加习惯性地默认网络信息所呈现的内容即是事实。在网络暴力事件的早期,偏颇的事件报道、恶意揣测、道德绑架等性质的信息内容并不会百分百导致舆论发酵,但是经由各类信息传播媒介的多次传播,在确认了解到事件真相的心理状态下,网络舆情会立即进行群体性指责。例如,在“7·7杭州女子取快递被造谣事件”中,部分网民在实施网络暴力行为时,通常会默认其所接收的信息为真,并采取情绪化的言论攻击。这一点其实在早期的网络信息活动中也可窥见一二:UC浏览器的文章曾有一段时间习惯性地采用各种噱头性标题吸引用户注意,监管机构曾专门针对类似的业务活动进行整治,原因是这些标题会导致用户产生先入为主的认知观,误以为已经知晓不为人知的真相,反而削弱了拟态环境反映现实环境的可能性。

三、基于网络暴力形成机制的阶段化治理思路

(一)网络暴力事件的形成过程及其风险要素

从前述网络暴力形成机制来看,网络暴力事件的发生过程可以归结为:首先,匿名性心理、“沉默的螺旋”以及拟态环境等信息传播效应仅仅只是在网络暴力事件中发挥助推作用,并不能真正决定网络暴力事件的发生。更确切地说,绝大部分网络暴力事件是以特定事件为导火索,这些事件能够激发社会公众的集体情绪,或是从道德审判的角度进行群体指责,或是基于匿名性心理肆意侮辱谩骂。[53]其次,特定事件发生之后经由广泛传播以及网民评论获得一定的关注度,包括自媒体在内的各类新兴媒体开始针对特定事件进行报道或评论。如果特定事件的事实真相尚未明了,部分新兴媒体可能会进行恶意揣测、失真报道,诱导网络舆情按照非理性的方式发展。此时,在拟态环境下,部分网民坚信自己已经知晓真相,并在匿名性心理的去抑制化作用下,以更为极端化的方式表达自己的意见观点,并抨击其他与其意见相左的观点评论,经由“沉默的螺旋”效应,使得其观点意见成为“优势”意见,进而引发其他网民基于群体无责感的心理状态盲目跟从,诱发网络暴力事件的发生。即便特定事件的真相已经明了,部分新兴媒体为了营销炒作,获取用户流量,以改编、篡改、删减等方式向社会公众呈现恶意加工的网络信息内容。加之算法推送技术频繁推送类似报道,在刻意塑造的拟态环境下,网民确信相应网络信息的真实性,开始进行非理性的道德审判。部分新兴媒体有意通过这些网络信息内容引导不同网络群体之间的情绪对立,这也导致在情绪观点对立的过程中,部分网民失去法律和道德约束,发送和传播网络暴力信息。最后,网络舆情环境呈现一致性或群体对立性两种趋势,这为网络暴力信息提供了舆论激化的基础。所谓的一致性是指网民群体针对特定事件达成一致性的观点意见,而这种“社会共识”在匿名性心理的作用下使得网络评论活动丧失理性,促成自以为“正义审判”的网络暴力信息。所谓的群体对立性则是指网民群体针对特定事件存在彼此不兼容的分歧和争议,一方群体在匿名性心理作用下为了巩固自身观点意见的正确性而恶意攻击另一方群体,激化后的分歧争议更容易促成网络暴力信息。

由此观之,零星的网络负面评论并不是网络暴力治理的重心,关键在于诱导该类事件发生的三类风险因素:第一类风险因素是匿名性心理导致的“群体无责任感”。事实上,在绝大多数网络暴力治理的研究中,学者们均提及了网络暴力行为人对自身行为性质的错误认知。在群体意见的裹挟下,网络暴力行为人认为其发布网络暴力信息属于正常的言论自由范畴,并且在看到其他人与自己意见一致时,确信其网络暴力信息发布行为不会被追究法律责任,因为无人知晓自己的真实身份,法律也不可能追究所有与自己意见一致网民的法律责任。相对应地,此时的风险应对方式既包括限制、屏蔽零星的网络暴力信息,使得潜在的网络暴力行为人无法获得群体归属感,也包括对不特定网络暴力行为人的法律责任追究,打破“法不责众”的错误认知,这种错误认知会“鼓励人们寻找能够获取最大利益而又能免于处罚的方法”。[54]第二类风险因素是“沉默的螺旋”所对应的网络舆论单一化。在“沉默的螺旋”效应下,网民无法就特定事件获取差异化的网络信息,并且,在算法推送服务的技术原理下,平台总会推送网民喜好的同质信息,这无疑加剧了网络舆论的单一化现象,也成为网络暴力事件的群体意见基础。因此,该类风险应对方式主要以网络信息的发布和传播方式为对象,要求平台优化算法推送服务模式,避免完全以用户偏好作为核心技术指标。第三类风险因素是拟态环境中重要信息传播节点的舆情放大效应。在特定事件发生后,部分新兴媒体或公民个人往往会就该事件发布独家新闻或实时时评,但是一旦这些具有广泛信息受众的信息传播节点恶意发布具有诱导性、偏见性或恶意揣测性的网络信息,无疑会放大错误舆情的传播范围,激化潜在的群体对立情绪。[55]故而该类风险的应对方式还是以规范新兴媒体信息发布行为为主,禁止以获取流量为目的的恶意营销、炒作活动。

(二)网络暴力治理活动的基本性质:信息内容治理

客观而言,网络暴力的治理并不是纯粹的法律制度建构的议题,而是涉及伦理规范、法律规范、技术治理、信息传播等要素的议题。法律责任的分配固然能够明确不同主体在网络暴力治理活动中的法律义务,但无法从根源上有效控制网络暴力发生的可能性。这是因为部分网络暴力信息以道德绑架、贬低歧视、恶意揣测等方式出现,而法律文本自身的精简性特征不可能为义务主体规定具体明确的认定标准,网络平台运营者难以精准有效地通过人工或机器识别网络暴力信息。进一步而言,网络暴力治理方式的探讨首先应当明确的是网络信息内容的治理方式,其次才是分配监管机构、平台、平台内的信息发布者、用户个人等主体的法律义务。其中的细微区别在于,倘若以法律责任认定为优先事项,其默认前提显然是认为网络暴力行为的发生是因为义务主体未能履行法定义务所导致。相对地,倘若以网络信息内容治理为优先事项,其默认前提则是网络暴力事件的发生是因为信息传播秩序失衡所导致,进而推导出这种失衡状态的形成是因为部分义务主体未能履行法定义务,致使零星的网络负面信息在短时间内演变为大规模的网络暴力信息。这种默认前提的差异性显然导向了不同的网络暴力治理思路,前者侧重对受害人的权利救济以及网络暴力行为人的惩戒,后者则侧重对网络暴力事件的风险预防与控制。

审视国内现有的网络信息内容治理理论,其基本共识表现为认可网络信息内容治理需采取法律、道德、技术和市场多种治理工具,传统“自上而下”的强监管模式难以在网络信息内容治理领域实现预期效果,故而也延伸出不同的治理方案:一是明确网络违法不良信息的认定标准,包括道德标准、社区标准和公序良俗标准,[56]进而主张平台作为经营者应当建立公序良俗审查机制,并配合行政机关的综合治理与司法机关制定的司法解释,共同落实网络违法不良信息的认定标准。二是明确网络信息内容治理是“一种以负面清单为基础,政府主导、多主体协同的信息质量监管”。[57]在安全与发展两种价值导向下,网络信息内容治理模式分别对应正面清单和负面清单两类模式,但网络信息内容生态体系的特殊性在于无法离开充分活跃的网络信息生产与传播,故而以负面清单的方式更合适当下“以安全促进发展”的治理需求。三是明确网络信息内容生态治理与网络表达权存在“互为表里、相互依存的紧密关系”,网络谣言、网络暴力、“三俗”信息泛滥等问题本质上是“网络表达活动与规范体系冲突而造成网络秩序反常状态”,故而有必要通过内容分级制度协调网络信息内容治理与网络表达权。[58]四是明确引入行业协会或第三方主体参与网络信息内容治理活动。一方面,行业协会能够通过行业治理、行业自律等方面的优势,扩大网络信息综合治理体系;[59]另一方面,第三方主体的审核评估功能能够“部分替代政府行使规制检查权”,也符合平台运营者控制合规成本和减少业务风险的需求。[60]

上述网络信息内容治理方案普遍关注到了网络信息内容生态的实践特征,即持续性的网络信息生产活动与传播活动。在该领域,治理的目的不是为了限制网络信息内容的传递,而是为了保障网络信息能够合理有序生产与传播。因此,相应的治理方案不能完全脱离网络信息内容生产、传播的实践特征,需要结合信息传递过程中各方参与者的具体活动设置具体环节的内容管理机制。同样,网络暴力问题作为网络信息内容生态治理领域的常见问题之一,其治理思路显然也应当贴合网络暴力信息生成的基本规律,针对网络暴力形成过程中存在的风险异常环节,创设相应的信息内容管理制度。在《网络信息内容生态治理规定》等法律法规已经颁布的当下,再去强调政府、平台、用户等主体应当承担何种法律义务并无太大意义。在现行立法已经充分规定了网络信息内容治理相关的基础制度的背景下,网络暴力治理的治理重心显然应当是对这些基础制度的实施方式予以细化,就网络暴力信息的具体认定标准、算法安全审核机制、科技伦理审查机制、网络暴力溯源机制等事项作出细致规定。

(三)基于网络暴力形成机制的阶段化治理思路

在实践中,网络暴力信息和具有网络暴力性质的信息并不是同一概念。因为匿名性心理的作用,即便群体情绪尚未激化,部分行为人也会有意以“寻求自我存在感”等理由恶意侮辱谩骂他人,此时个人所发布的网络信息即是具有网络暴力性质的信息。该类信息发布行为具有明确的侵害人以及侵害事实,故而其治理思路通过侵权责任或刑事责任便可实现充分的权利救济。相对地,网络暴力信息本身的群体性特征则无法单一采用这种个体责任的追究模式,其治理逻辑的关键在于尽可能阻止规模化的违法不良信息聚集,控制针对特定个人的信息集中发布行为。因此,相应的治理思路应当结合网络暴力形成机制予以调整:首先,网络暴力问题普遍存在于全球各国网络空间之中,目前并没有任何一种制度模式或技术方案能够真正彻底解决网络暴力风险。这意味着网络暴力治理目标应当是风险控制,而非风险消除。其次,意欲实现有效的网络暴力风险控制,其实现方式需要结合网络暴力形成过程中的风险要素和形成机制,管控网络信息传播过程中可能导致网络暴力发生概率显著增加的异常环节。然后,针对这些异常环节,明确不同的义务主体可以采取的技术手段和管理措施,如在平台用户短时间私信数量增加异常时,在不触及用户通信秘密的前提下,通过机器自动化审核方式自动识别敏感词并加以屏蔽,同时对于频繁发送违法不良信息的用户则可以选择短期内禁言、风险提示等措施,“优化私信规则是在规则层面保护个人权利”。[61]最后,在网络暴力事件发生之后,及时对网络暴力信息进行屏蔽、删除等处理操作,控制实际损害进一步扩大。此时,根据网络暴力事件的形成过程判断平台、用户等义务主体是否存在未履行法定义务之情形,并根据情节追究相应的法律责任。

在匿名性心理、“沉默的螺旋”效应以及拟态环境的作用下,网络暴力事件的发生并非一蹴而就的,反而呈现出从零散信息传播到规模化信息传播的持续性特征,故而传统的“事前、事中、事后”三阶段治理架构难以适用在网络暴力事件中。从网络暴力风险显著增加的角度来看,可以考虑将网络暴力事件划分为四个阶段(参见下页图)。在第一阶段,零星负面网络言论尚不属于网络暴力信息,其信息发布者也并非网络暴力事件的制造者。但是这些零星负面的网络言论倘若存在恶意编造虚假信息、利用网络诽谤、组织指使网络暴力等情形,即便最终未能导致网络暴力事件,但其行为自身的违法性则可能导致承担刑事责任。在第二阶段,针对特定个人的群体意见正在形成,并且这些群体意见的支持者恶意攻击反对者,产生“沉默的螺旋”效应。此时,平台应当及时介入,对于涉及侮辱谩骂的攻击性言论进行屏蔽、删除,必要时封禁可疑的用户账号。同时,在匿名性心理的作用下,部分用户可能存在肆意辱骂和恐吓的情形,此时则可通过民事侵权责任或刑事责任惩戒其违法行为。在第三阶段,在“沉默的螺旋”效应作用下,群体意见达成统一,并导致相关特定事件成为社会热点事件,标志着网络暴力事件已经发生。此时,网络平台则应当根据用户有效点击量、浏览量判断热评事件可能存在的网络暴力风险,及时采取措施控制网络暴力信息的发布与传播。在第四阶段,部分用户开始发起人肉搜索活动,泄露个人信息,造成网络暴力事件的损害结果从线上言论攻击延伸至线下的恐吓威胁。该阶段风险异常的根源在于个人信息的泄露,故而需要平台及时删除平台内恶意公开的个人信息,同时泄露个人信息的用户需要对受害人的精神失常或自杀承担侵权责任。需要说明的是,实践中的个人信息泄露包括受害人个人信息泄露以及以混淆视听方式故意泄露与自己存在纠纷的第三方个人信息。无论发生何种个人信息泄露,均可按照《个人信息保护法》规定要求相关用户承担侵权责任。

四、基于网络暴力形成机制的阶段化治理架构

(一)阶段化治理架构的基础制度

网络暴力事件的阶段化治理首先需要明确的是包括网络暴力信息识别、网络暴力风险预警机制、个人保护机制在内的基础制度。

第一,网络暴力信息识别机制的建构是为了回应复杂化的网络暴力事件,除了较为典型的侮辱谩骂、侵犯隐私等网络暴力信息之外,恶意引战、恶意揣测、歧视贬低等类型的网络信息是否属于违法不良信息仍然缺乏可操作的具体判断标准。虽然《网络暴力信息治理规定(征求意见稿)》第9条规定“建立健全网络暴力信息分类标准和典型案例样本库”以及“明确网络暴力信息标准”,但是客观而言,平台经营者的业务合规能力并不相同,难以判断介于典型网络暴力信息与网络负面评论之间的网络信息法律性质。诚然,典型案例样本库能够及时跟进网络暴力事件的演进趋势,却需要花费一定的时间和人力建构所谓的“典型案例样本库”。因此,从实践操作层面来看,更加理想的状态是由监管机构、行业协会以及平台运营者共同建立健全网络暴力信息分类标准和典型案例样本库,这样既降低了网络服务提供者的业务合规难度,同时也足以在全行业内推行通用的识别标准和识别案例。除明显属于网络暴力的信息之外,“明确网络暴力信息标准”可以考虑建构“四步识别法”:一是判断是否存在来源不明、明显与事实不符的内容,如采用“据称”“有内部消息称”“抛开事实不谈”以及隐藏关键信息等;二是判断是否存在恶意揣测、恶意挑起敏感话题、恶意指责他人等内容,如制造仇富情绪、编造淫秽性猜测信息等;三是判断是否存在情绪宣泄倾向,如存在大量重复性、同质性信息,不关注事实真相等;四是判断是否一概否定与其不一致的观点意见。只要同时满足上述条件,即可认定该类信息属于网络暴力信息。

图治理核心思路:按照网络暴力形成逻辑进行阶段性、层次化治理

第二,网络暴力风险预警机制的建构是为了在网络暴力事件发生之前及时进行预警,以便监管机构和平台运营者能够尽早介入,避免发生更为严重的网络暴力损害结果。需要说明的是,这种预警机制并不是为了精准识别可能存在的网络暴力信息及其风险程度,而是为了在特定事件转变为社会热点事件之前,提前采取网络暴力预防处置措施。网络暴力事件的发生具有随机性,并且处于一个持续性过程,客观上难以准确预测该类事件是否发生。不过,网络暴力事件的发生往往与社会热点事件有关,并且这类特定事件往往能够引发社会群体情绪。换言之,社会热点事件的出现有相当大的可能性导致网络暴力事件。因此,网络暴力风险预警机制的功能定位在于识别这些社会热点事件是否有可能引发网络暴力事件。对于监管机构而言,需要及时公布和澄清热点事件的调查结果,避免网络谣言传播加剧网络暴力损害范围。对于平台经营者而言,对于短时间内上升的社会热点事件,则需要重点审核该事件的网络评论信息,尤其是对平台自媒体、网络大V所发布的信息内容进行合法性审核,预防以碎片化信息替代完整信息,[62]最大程度控制违法不良信息的传播。

第三,个人保护机制的建构是为了确保在网络暴力事件持续期间,避免受害人遭受更严重的精神损害,同时也为了预防个人信息泄露可能导致的线下滋扰、[63]“社会性死亡”等扩大性损害。尽管网络暴力信息的内容具有多样性,但其侵害形式表现为“密集性私信轰炸”和“评论区重复指责”,故而此时平台应当设置相应的个人保护机制:一方面,如果短时间内同一用户频繁收到海量私信,私信数量与其平时收到的私信数量存在显著差异,那么此时可以判断该用户正在遭受网络暴力伤害。平台可以采取的措施包括暂停私信接收功能,警告、删除、屏蔽包含网络暴力信息的私信内容,封禁频繁发送信息的用户账号部分权限等。另一方面,如果在该平台短时间内出现大量针对特定个人的同质性网络信息内容,平台应当重点对热点信息及其评论内容进行内容审核,判断是否存在显著的网络暴力信息,禁止该热点信息内容出现在平台显著位置或重要环节。

(二)阶段化治理架构的风险控制机制

针对匿名性心理可能导致的网络评论失衡状态,需要确保用户在发布和传播网络信息时知晓其行为的法律性质以及并非真正意义上的完全匿名。为了实现该目标,可以考虑实名制、用户协议载明用户行为守则、法律风险提示弹窗等方式控制用户进行情绪化的信息发布和传播行为。在实名制方面,网络平台应当严格执行网络实名制度,通过手机号码、姓名以及短信验证码确认用户正在以真实身份注册平台账号。同时,平台也应当优化技术管理措施,清理、屏蔽疑似批量注册的可疑账号。在用户协议方面,网络平台应当在用户协议中以显著简明的方式提醒用户理性发言,并告知平台可能会根据监管机构要求提供实名信息,以此限制匿名性心理可能产生的去抑制化效果。在法律风险提示方面,平台可以采取弹窗、评论区加粗字体提示等方式提醒用户理性评论、善意批评,并告知用户进行网络暴力、传播网络谣言可能承担的法律责任。当然,除了前述措施之外,平台也可以采取其他管理措施或技术手段降低匿名性心理的负面效应。只要这些措施能够让用户知晓匿名发布信息同样需要承担相应的法律责任即可,因为匿名性心理往往会让用户在信息发布时存在“不用承担法律责任”的侥幸心理,加之过去部分网络暴力信息发布者依然未受到惩罚,使得用户对于信息发布行为的法律性质存在错误认识。

针对“沉默的螺旋”效应可能导致的群体意见失序状态,既需要平台控制违法不良信息传播,也需要监管机构严格落实执法措施,及时澄清热点事件调查结果。“沉默的螺旋”效应会扩大网络暴力信息的数量和传播范围,但该效应同时可以用来反制网络暴力信息的传播。当然,希冀网络信息内容生态自行限制、清除网络暴力信息不具有操作性,故而需要平台和监管机构介入,通过增加辟谣信息、官方信息、正向价值导向信息的传播频率和范围,减少零散网络违法不良信息的传播,反而能够让信息接收者清楚认识到社会热点事件的真相,放弃做出可能引发、加剧网络暴力的情绪化行为。对于平台而言,应当实时审核网络信息内容的真实性和合法性,删除、屏蔽违法不良信息,标记可疑的网络信息,尤其是针对短期内频繁发布网络暴力信息的用户,可以设置“第一次警告、第二次注销、第三次封禁”的管理机制;避免部分用户以自动化处理的方式批量发布网络暴力信息,同时也要避免这些用户通过重新注册账号“更换马甲”的方式重新发布网络暴力信息。对于监管机构而言,不仅需要及时公布社会热点事件的调查结果,同时也要以合理方式公布相关细节,避免因为公布、澄清信息的不透明、不全面进而再次引发网络暴力事件。

针对拟态环境可能对信息接收者产生的误导效果,则需要网络平台严格落实算法安全保障义务。因为在现阶段,拟态环境的形成在很大程度上与算法推送网络信息内容这一业务模式密切相关,用户的社会认知依赖于算法所推送的信息内容。倘若平台算法频繁推送社会负面新闻,会致使用户产生负面情绪,对新闻报道、官方信息等内容产生不信任感。而这种不信任感在用户接收到具有激化群体情绪的网络信息时可能演变为网络暴力行为,让用户自以为正在以公平正义的方式行使网络舆论监督的权利。事实上,《互联网信息服务算法推荐管理规定》《生成式人工智能服务暂行管理办法》等算法领域的法律法规均有提及具有舆论属性或者社会动员能力的算法推荐服务提供者应当进行备案,其背后的立法原因正是不合理的算法推荐服务可能导致网络舆论秩序失控。因此,网络平台应当确保算法推荐服务至少满足以下三个功能效果:一是短时间内不会频繁推送大量内容相同的网络信息;二是涉及社会热点事件时,优先推送具有可靠来源的网络信息,包括但不限于权威信息、官方信息、新闻媒体点评信息等;三是不能以用户偏好作为唯一的信息推送标准。

(三)阶段化治理架构的特殊主体义务

在网络暴力治理活动中,最有可能并且最有能力干涉网络暴力事件发生的治理主体是平台运营者。相较于监管机构而言,平台运营者能够更早知晓潜在的网络暴力风险以及平台内存在的网络暴力信息,并且平台运营者也能够通过封禁账号,屏蔽、删除信息等方式对网络暴力信息采取直接拦截。相较于网暴受害人而言,平台运营者更能够提前预防网络暴力事件的发生,也能够采取更全面的保障措施保护受害人免受网络暴力伤害。然而,网络平台的义务认定始终存在一个法益权衡的问题:一方面,网络平台并不具有执法能力,无法准确识别所有的网络暴力信息,并且大范围封禁、屏蔽涉及网络暴力信息反而不利于网络信息内容生态的良性发展;另一方面,如果网络平台采取积极的网络暴力治理措施,被错误封禁、屏蔽的用户将会遭受网络舆论监督权的减损,并且也会实质性扩大网络平台控制网络舆情的“平台权力”。解决该法益权衡问题可以从两个环节入手:其一,对被错误封禁、屏蔽的用户而言,网络平台应当设置相应的申诉机制,并在合理期限内告知用户申诉结果以及相应理由。其二,目前平台采取屏蔽、封禁用户账号时,大多以“违反相关法律法规和政策规定”作为法律依据,其表述方式过于笼统模糊。为了预防平台权力的扩张,至少应当说明一项违法事项,如因涉及网络暴力而采取屏蔽、删除信息,封禁用户账号等措施时,可以将“违法网络暴力等相关法律法规和政策规定”作为法律依据。

明确网络平台网络暴力信息治理义务的相关学说主张早已有之,但大多是以具体的义务内容或笼统的“风险预防义务”等类似表述进行论述,鲜有提及网络暴力治理领域平台义务的体系化特征。按照阶段化治理思路,网络平台的网络暴力治理义务可以根据网络暴力事件形成阶段进行体系划分:在网络信息发布阶段,网络平台的治理目标应当是规范用户网络信息发布行为的合法性与合理性,引导用户理性评论与善意批评,相应的平台义务内容则包括信息内容合法性审查义务、法律风险提示义务、用户实名制义务、显著违法信息屏蔽删除义务。在热点事件发生阶段,网络平台的治理目标应当是预防热点事件可能导致的群体情绪激化,增加正向网络信息内容推送频率,降低劣质网络信息内容的推送,相应的平台义务内容则包括算法安全保障义务(如算法备案等)、显著信息重点审核义务、意见领袖网络信息发布审核义务、恶意谩骂攻击网络信息删除义务等。该阶段最容易因为“沉默的螺旋”和拟态环境导致网络暴力事件的发生,故而这些平台义务需要针对可能明显影响网络舆论走向的信息传播媒介进行网络信息内容的重点审核,包括平台显著位置(如首页、头条等)是否存在涉及大量网络暴力的信息内容、自媒体、网络大V是否恶意发布负面信息或诱导舆论信息等。在网络暴力发生阶段,网络平台的治理目标应当包括消除负面影响和保障个体权利两个方面,前者强调平台应当尽可能采取所有有效措施阻止网络暴力信息的泛滥,后者则强调平台应当事先制定处置措施,尽可能控制网络暴力信息对特定个体的实际损害程度。该阶段相对应的平台义务内容包括网络暴力信息删除屏蔽义务、理性评论提示义务、恶意诱导网络暴力的协助调查义务、网络暴力信息发布账号封禁义务、网暴受害人保护义务等。在网络暴力损害扩大阶段,网络平台的治理目标应当是预防和中断任何可能直接导向网暴受害人线下生活的个人信息泄露活动,相应的平台义务内容包括个人信息泄露通知义务、违法网络信息删除义务、违规账号实际使用人黑名单义务等。

五、结语

网络暴力风险预防和权利救济是一项长期性的社会治理活动。在平衡网络舆论监督保障与网络暴力治理的过程中,需要注意到网络暴力信息的性质已经超出合理的信息发布、传播范畴,即便不具有直接的侮辱谩骂、侵犯隐私等内容,意图对受害人实施非理性化的道德指责均有可能属于网络暴力信息。在阶段化治理架构下,法律所能发挥的主要作用是通过强制性法定义务要求所有能够参与治理的社会主体降低或消除网络暴力风险,同时,通过事后的法律责任追究改变匿名性心理导致的情绪化信息发布行为。但是,单纯依靠增加平台义务内容、扩大法律责任承担范围并不能有效控制网络暴力事件的发生风险,网络信息内容生态的治理基础是保障网络信息的有序传播,而非阻止或控制网络信息的传播,故而网络暴力事件的治理框架还应当纳入诸如自动化识别网络暴力信息的技术手段、引导平台用户理性评论和善意批评的公序良俗以及符合社会治理秩序的科技伦理。

 

赵精武,北京航空航天大学法学院副教授,工业和信息化法治战略与管理重点实验室研究员,北京科技创新中心基地研究员。

 

【注释】

[1]参见《武汉校园被撞致死小学生的母亲坠楼身亡此前曾被网友指责衣着》,资料来源于新浪网:https://news.sina.com.cn/s/2023-06-02/doc-imyvxapa8359383.shtml,最后访问时间:2023年8月11日。

[2]参见《网络暴力事件层出不穷技术、法律携手,治理“按键”伤人》,资料来源于新华网:http://www.xinhuanet.com/legal/2023-03/31/c1129481741.htm,最后访问时间:2023年8月1日。

[3]参见《加强网络人格权益保护推进网络空间治理法治化北京互联网法院发布涉网络暴力典型案例》,资料来源于最高人民法院网站:https://www.court.gov.cn/zixun/xiangqing/408302.html,最后访问时间:2023年8月7日。

[4]参见陈堂发:《强化法律适用:网络暴力的法治途径》,载《人民论坛》2022年第9期,第97页。

[5]陈代波:《关于网络暴力概念的辨析》,载《湖北社会科学》2013年第6期,第61—62页。

[6]姜方炳:《“网络暴力”:概念、根源及其应对——基于风险社会的分析视角》,载《浙江学刊》2011年第6期,第182页;敬力嘉、胡隽:《网络暴力法律规制的完善路径》,载《中国人民公安大学学报(社会科学版)》2021年第5期,第143页。

[7]也有部分观点认为,网络暴力是具有群体性、欺凌性和煽动性的新型暴力行为方式,是发生在虚拟网络空间里,通过引导或自发组织的群体性言语欺凌,损害特定对象的隐私权、名誉权,继而对行为对象进行精神折磨的暴力方式。参见石经海、黄亚瑞:《网络暴力刑法规制的困境分析与出路探究》,载《安徽大学学报(哲学社会科学版)》2020年第4期,第80页。

[8]李华君、曾留馨、滕姗姗:《网络暴力的发展研究:内涵类型、现状特征与治理对策——基于2012—2016年30起典型网络暴力事件分析》,载《情报杂志》2017年第9期,第140页。

[9]也有观点认为,在网暴事件中,受害人往往被污名化、标签化,并提出“受害人原罪论”。参见陈琦:《“受害者原罪论”:性侵案网评中的符号暴力与舆论失范》,载《当代传播》2018年第6期,第78—79页。

[10]参见徐颖:《论“网络暴力”致人自杀死亡的刑事责任》,载《政法论坛》2020年第1期,第134页。

[11]陈秋心、年欣:《人肉搜索信息传播机制变迁研究(2001—2021)》,载《新闻记者》2022年第11期,第22—27页。

[12]有学者将基于个人信息泄露的网暴事件分类为两类:一是涉及搜索官员以及公众人物,如“南京九五至尊案”;二是事关社会道德问题,如“虐猫事件”等。参见刘晗:《隐私权、言论自由与中国网民文化:人肉搜索的规制困境》,载《中外法学》2011年第4期,第871页。

[13]刘宪权:《网络黑灰产上游犯罪的刑法规制》,载《国家检察官学院学报》2021年第1期,第5页。

[14]徐才淇:《论网络暴力行为的刑法规制》,载《法律适用》2016年第3期,第107页。

[15]前引[6]敬力嘉、胡隽文,第148页。

[16]于冲:《网络“聚量性”侮辱诽谤行为的刑法评价》,载《中国法律评论》2023年第3期,第95—96页。

[17]刘晓航:《网络暴力的刑法规制困境及应对》,载《北京社会科学》2023年第5期,第114页。

[18]年度网络内容治理研究课题组(方师师、万旋傲、卢篧、唐巧盈):《层层深入与链式共进:2022年中国网络内容治理报告》,载《新闻记者》2023年第2期,第91—92页。

[19]张晓月:《新时代网络社群意见表达的伦理向度与矫治路径》,载《河南师范大学学报(哲学社会科学版)》2019年第2期,第34页。

[20]王静:《数字公民伦理:网络暴力治理的新路径》,载《华东政法大学学报》2022年第4期,第38—39页。

[21]冉连、张曦:《网络信息内容生态治理:内涵、挑战与路径创新》,载《湖北社会科学》2020年第11期,第34—35页。

[22]“网络暴力是一种群体性侵害行为”,“参与者呈现高度的动态性和数量的不确定性”。参见邵登辉:《群体性网络暴力治理——以网络平台风险预防义务为视角》,载《中南民族大学学报(人文社会科学版)》2023年第7期,第97—98页。

[23]李淑娜、郭洪波:《网络舆情演变的情绪机制及干预策略研究》,载《山东社会科学》2022年第8期,第166页。

[24]赵精武:《民法上安全原则的确立与展开:以风险社会治理转型为视角》,载《暨南学报(哲学社会科学版)》2022年第4期,第57页。

[25]叶穗冰:《大学生实施网络道德暴力的探讨》,载《当代青年研究》2014年第5期,第120页。

[26]王爱玲、武文颖:《网络民意的“匿名制服”效应及其有效调控》,载《新闻界》2008年第1期,第17页。

[27]张瑞孺:《“网络暴力”行为主体特质的法理分析》,载《求索》2010年第12期,第142页。

[28]任秀、王咏梅:《全网实名制后的困境与对策研究》,载《湖北社会科学》2020年第4期,第158页。

[29]刘勇、黄杨森:《试论网络群体事件参与者的主客体角色:转换与疏导》,载《求实》2014年第12期,第55页。

[30]熊晓萍:《网络传播中的失范现象分析》,载《江西社会科学》2008年第7期,第223页;肖峰、窦畅宇:《网络失范的哲学分析》,载《理论视野》2016年第1期,第45—46页。

[31]费久浩、洪威雷:《网络民意的现实困境分析》,载《东南学术》2013年第5期,第76—77页。

[32]全燕、杨魁:《社交网络舆论空间的“中国式风险”检视》,载《现代传播(中国传媒大学学报)》2018年第1期,第80—81页。

[33]林爱臖:《网络暴力的伦理追问与秩序重建》,载《暨南学报(哲学社会科学版)》2017年第4期,第113—114页。

[34]陶鹏:《网络围观现象的行为逻辑与现实隐喻》,载《理论与改革》2013年第6期,第49页。

[35]周晓虹:《群氓:勒庞与法国大革命的余悸》,载《中国图书评论》2018年第11期,第55—58页。

[36]张爱军、曹腾飞:《突发事件中网络政治次生舆情形成及纠偏研究》,载《江苏大学学报(社会科学版)》2021年第5期,第8页。

[37]参见[德]伊丽莎白·诺尔-诺依曼:《沉默的螺旋:舆论——我们的社会皮肤》,董璐译,北京大学出版社2012年版,第4—25页。

[38]赵立兵、熊礼洋:《从“沉默的螺旋”到“意见的长尾”:社会结构变迁与舆论形态重构》,载《新闻界》2017年第6期,第15页。

[39]侯俊东、肖人彬:《群体性事件网络舆情结构逆转:内在机理与现实表征》,载《社会科学》2017年第11期,第84—85页。

[40]黄河、康宁:《移动互联网环境下群体极化的特征和生发机制——基于“江歌案”移动端媒体文本和网民评论的内容分析》,载《国际新闻界》2019年第2期,第51—52页。

[41]参见陈丽芳、郭奇文、陈默:《新媒体时代“反沉默螺旋”现象与网络舆论引导研究》,载《出版广角》2019年第22期,第83—84页;丁学君、李临霄:《反沉默螺旋效应下社交媒体谣言传播动力学研究》,载《系统工程理论与实践》2020年第12期,第3151—3152页;孟威:《新媒体语境下对“反沉默螺旋”现象的思考》,载《中国广播电视学刊》2014年第8期,第48页。

[42]前引[41]陈丽芳、郭奇文、陈默文,第84页。

[43]王国华、戴雨露:《网络传播中的“反沉默螺旋”现象研究》,载《北京理工大学学报(社会科学版)》2010年第6期,第117—118页。

[44]顾金喜:《“沉默的螺旋”效应与网络群体性事件应对》,载《中共浙江省委党校学报》2014年第1期,第108—109页。

[45]高宪春、解葳:《从“消极沉默”到“积极互动”:新媒介环境下“沉默的双螺旋”效应》,载《新闻界》2014年第9期,第45页;崔林:《媒介进化:沉默的双螺旋》,载《新闻与传播研究》2009年第3期,第42页。

[46][美]沃尔特·李普曼:《公众舆论》,阎克文译,上海人民出版社2006年版,第11页。

[47]舒刚、王雅蕾:《网络拟态环境的隐性风险及其治理》,载《重庆社会科学》2013年第10期,第115页。

[48]李耀锋:《拟态环境下的媒介传播及其社会治理探析》,载《新疆社会科学》2022年第2期,第143页。

[49]参见前引[48],第143页;靖鸣、张朋华:《自媒体时代“拟态环境”的重构及其对大众传播理论的影响》,载《现代传播(中国传媒大学学报)》2019年第8期,第71—73页。

[50]前引[49]靖鸣、张朋华文,第72页。

[51]彭兰:《新媒体时代拟态环境建构的变化及其影响》,载《中国编辑》2022年第12期,第7页。

[52]汪雅倩:《“新拟态环境”:短视频博主的人格化表达及其对用户的影响研究》,载《中国青年研究》2020年第1期,第71页。

[53]也被部分学者总结为“道德审判和宣泄式攻击”两类网络暴力参与动机。参见侯玉波、李昕琳:《中国网民网络暴力的动机与影响因素分析》,载《北京大学学报(哲学社会科学版)》2017年第1期,第102—104页。

[54]刘硕:《“法不责众”的成因与矫正》,载《东南大学学报(哲学社会科学版)》2016年第18卷增刊,第103页。

[55]彭知辉:《误导性舆情研究:以误导性信息为视角》,载《情报理论与实践》2023年第4期,第59页。

[56]程睿:《治理观视域下网络不良信息内容的法律认定标准》,载《江西社会科学》2022年第6期,第163—167页。

[57]何明升:《网络内容治理:基于负面清单的信息质量监管》,载《新视野》2018年第4期,第109页。

[58]熊文瑾、易有禄:《论网络表达权的边界——以实现网络信息内容生态治理为目的》,载《江西社会科学》2020年第8期,第162页。

[59]陈志斌、朱迪、潘好强:《行业协会治理对平台企业网络信息内容安全责任履行的影响》,载《江苏社会科学》2023年第2期,第156页。

[60]周毅:《第三方主体参与网络信息内容治理及其基本策略研究》,载《情报理论与实践》2023年第7期,第29页。

[61]刘艳红:《理念、逻辑与路径:网络暴力法治化治理研究》,载《江淮论坛》2022年第6期,第22页。

[62]闫臻:《数字化时代网络集体非理性惩罚现象的结构逻辑与个体特征》,载《西安交通大学学报(社会科学版)》2022年第5期,第113页。

[63]个人信息的泄露会直接影响到网暴受害人的线下生活状态,并且在网络暴力事件中,基于社交关系的数据集合往往还可能导致受害人个人信息间接泄露。参见[美]萨洛梅·维尔约恩:《数据治理的关系理论》,赵精武、陆睿、倪欣然译,载《湖湘法学评论》2022年第3期,第136页;周瑞珏、赵精武:《网络安全保险的法理基础与实践路径》,载《湖北社会科学》2023年第4期,第136页;赵精武:《用户标签的法律性质与治理逻辑》,载《现代法学》2022年第6期,第102页。

    进入专题: 网络暴力   网络评论   匿名性心理   群体行为   个人信息保护  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/146633.html
文章来源:本文转自《北方法学》2023年第5期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统