网络暴力的法律规制研究——以旁观者为视角
A Study on the Legal Regulation of Cyber Violence—From the Perspective of Bystanders
DOI: 10.12677/ASS.2023.127512, PDF, HTML, XML, 下载: 175  浏览: 553  科研立项经费支持
作者: 付雨娟, 丁彩培, 龚傲雪, 韦思丝, 王 婷:长江大学法学院,湖北 荆州
关键词: 网络暴力旁观者法律规制Cyber Violence Bystanders Legal Regulations
摘要: 随着互联网发展日臻成熟,网络社会中多元利益诉求交织、多元价值取向杂糅,由此衍生网络社会的失序——网络暴力这一社会现象频发,网络暴力会给受害者带来非虚拟性的伤害。基于降低网络暴力给受害者带来的负面影响的目的,本文重点从旁观者角度来阐述网络暴力的社会现状和法律规制现状,分析其具体原因,尝试提出遏制网络暴力的有效法律规制方法。
Abstract: With the development of the Internet becoming more and more mature, the demands of multiple interests are intertwined and multiple value orientations are mixed in the network society, which leads to the disorder of the network society—network violence, a social phenomenon that occurs frequently, will bring non virtual harm to the victims. Based on the purpose of reducing the nega-tive impact of online violence on victims, this article focuses on explaining the social and legal regulatory status of online violence from the perspective of bystanders, analyzing its specific rea-sons, and attempting to propose effective legal regulatory methods for the phenomenon of online violence.
文章引用:付雨娟, 丁彩培, 龚傲雪, 韦思丝, 王婷. 网络暴力的法律规制研究——以旁观者为视角[J]. 社会科学前沿, 2023, 12(7): 3752-3760. https://doi.org/10.12677/ASS.2023.127512

1. 网络暴力的概述

低欲望时代和精神贪欢的斗争中,衍生了网络社会的失序。虚拟社区打破时间和空间的壁垒,将人们拉入工业4.0时代,每个人手中持“键”,既可以是道德的守护人,也可以是恶意的制裁者。在言论自由的社会,人人都可以是审判家,网络信息传播的失范锋芒指向屏幕前的每一个人。

网络暴力是指网络行为主体利用信息传播实施的极端性、攻击性、反复性,对受害者带来非虚拟性结果的网络集体失范行为。网络暴力事件中,可以将参与者角色分为三类,施暴者、受害者和旁观者。旁观者是指在网络环境中,除受害者和施暴者以外,不关注事件、毫无作为的或促进事件发酵、提高事件关注度的第三方群体。普通的网络事件演变成网络暴力事件,除了施暴者一方在实施暴力以外,旁观者的作为或不作为,都会直接或间接地对事件的发酵发挥作用。根据芬兰学者Salmivalli编制的“参与者角色量表”(Participant Role Scale),他将旁观者划分为四类,分别是欺凌者的强化者、欺凌者的助手、受害者的捍卫者以及局外人 [1] 。这四种角色的不同特征在网络暴力事件中发挥着不同的作用,通过这一维度研究网络暴力事件具有重要意义。基于旁观者人群基数大和调整空间更灵活等特征,本文将重点从旁观者视角展开阐述,从旁观者角度分析网络暴力的系列问题,并试图为正确地引导旁观者,发挥其积极作用提供发展方向。

2. 网络暴力中旁观者的现状及存在的问题

2.1. 网络暴力中旁观者的现状及存在的问题

2.1.1. 旁观者的态度易被网络意见领袖引导

旁观者所处的网络环境多为现实社会网络的延伸,但又不同于现实阶层的固化。在现实生活的社会关系中有较高威望,对社会群体影响力较大的人物被称为意见领袖。与现实生活类似,网络中也存在网络意见领袖。这些人掌握了一定的话语权,其扮演的角色在一定程度上也会影响旁观者的态度。他们在传播易引起争议的信息时,扮演着网络信息传播者的角色,但当他们为网络社会热点发声时,就有可能成为网络风向的引导者。所以在研究网络暴力事件中的旁观者之前,我们首先要厘清影响旁观者态度的重要因素。

在网络中,通过一定方式获得流量,大概率可以成为网络红人。网络意见领袖无疑是网络世界中阶层较高的人物,他们多为一些网络红人或是各自领域内的专业人士。网络意见领袖们掌握着各类最新的、最详细的信息资料,也有着与资本方谈判的能力。但是为了经济和政治的利益,他们也容易与资本沆瀣一气,从而形成“资本 + 流量”体系。这种体系逐渐发展出许多产业链和利益链,网络意见领袖作为链条上的一部分,为了实现自己的利益,就会故意引导普通事件的走向,使之转变为社会公共话题。随着越来越多旁观者的加入,资本会利用旁观者心理效应,引导舆论风向,并不断激化内部矛盾,使舆情冲突加剧。之后资本方再利用产业链的下一环节,如网络水军、网民、平台等网络主体,通过恶意剪辑、恶意引流、发表导向性言论或侮辱谩骂、私信轰炸等方式引起网民讨论。利用普通网民朴素的正义观,以利益共情方式戳中社会痛点,引发共鸣,从而形成网络民意。从先前的多个案例来看,这种网络民意的持续性并不强,但资本的低质走量方式也会给旁观者带来潜移默化的心理影响。经过分析《基于实时社会网络分析的突发舆情事件动态意见领袖识别方法研究——以新疆棉事件为例》一文得出结论 [2] ,长期意见领袖在舆情传播过程中一直处于前列,而短期意见领袖往往只能在发表言论的一段时间内影响舆论。前期意见领袖已经有过发言,但在网络舆论爆发后,他们的声音已经渐渐失去了影响力。后期意见领袖,一般都是在舆论爆发之后,才会发表自己的看法,虽然会对舆论产生一定的影响,但随着舆论的消退,他们的影响力还是难以与长期意见领袖媲美。可见,不同特征的网络意见领袖,在网络舆情扩散中的影响力不同,旁观者也极易受到网络意见领袖的引导。

如今,我国网民呈现出基数大,素质不齐的特点。报告显示,截至2020年12月,初中、高中/中学/技校教育的网民比例分别为40.3%和20.6%;小学及以下网民比例从2020年3月的17.2%升到19.3% [3] 。在多元化的社会中,人们更喜欢与自己价值观相契合的人,这体现了一种思维的聚集效应。据中国司法大数据研究院发布《涉信息网络犯罪特点和趋势(2017.1~2021.12)司法大数据专题报告》显示,在涉信息网络犯罪案件中,18周岁以上未满40周岁的被告人占比最大。18岁至28岁被告人占比在2019年达到最低后又出现上升,存在网络犯罪罪犯年轻化的苗头,29岁及以上被告人占比逐年降低 [4] 。在网络群体中,低学历,低收入群体占多数,部分人对事物缺乏理性判断,极易受到网络情绪的影响。由于这一群体的支持,网络意见领袖被放置在一个较高的发言台上。无论其观点理性与否,都会被庞大数目无限放大,具有较大影响力。

2.1.2. 旁观者缺乏有效监管

对旁观者的监管可分为三个方面:旁观者的自我监管、平台对旁观者的监管、政府对网络环境的监管。这三种监管方式的强制性依次从弱到强。

旁观者的自我监管是三种监管方式中控制力最弱且主观性最强的一种监管,并且由于旁观者的自身素质和经历,其对自身的监管力度也有差异。就目前的现状来看,旁观者自身的监管几乎可以忽略不计。

其次就是平台对旁观者的监管。这种监管主要通过平台警告、禁言、封号等方式对旁观者不良言论进行约束。以微博为例,微博内容审核采用机器审核 + 人工审核,机器将灰色结果推由人工判断,同时人工主要做算法训练和校验,审核人员日以继夜的评测机器审核结果,为深度学习的机器审核提供判据,以此影响审核算法训练过程。微博的机器审核结果应该是各项因子权重累加后比较阈值得出结果。所以经常会有如下经验:一整篇博文,去掉其中A段或B段内容都可以发布,但当A段和B段内容同时存在时便违规不能发送成功了。而A段,B段内容本身也可以单独正常发布。当我们碰到内容拦截的问题,询问微博人工客服时,得到的回答总是“建议重新编辑”,不会给你任何针对性提示。不是不愿,而是很多时候,机器审核的结果是综合每一项审核因素累加得出的结果,很少一票否决,而是无数规则的集体判决。再如图普的系统即通过人工智能对平台内容进行审核检测,其依据海量数据库,选出违规信息的关键词,最后将用户发布信息与违规信息关键词进行相应对比,得出对比相似程度,当大于某一特定值后判定为违规信息进行拦截。在判断违规后会自动打上标签,以便人工复审,而当内容难以判断时,也将会交由人工审核 [5] 。但目前网民数量太过庞大,而监管岗位又有限,监管人员也不能全天无休地进行实时监管。部分岗位没有进行合理细致的划分,导致监管人员的作用难以实现最大化。同时由于监管人员的素质也有高低,部分监管人员不能明辨是非,进行合理监管。

对旁观者的监管,最主要的是采取以政府为主导,立法为手段的监管方式。目前政府监管的职能部门主要是以通信管理部门、互联网新闻宣传管理部门和公安部门,以及文化部门,广播电影电视管理部门和新闻出版部门为代表 [6] ;公安网监网站主要有:网络违法犯罪举报网站、违法和不良信息举报中心、12321网络不良与垃圾信息举报受理中心、中国扫黄打非网、中国信息安全测评中心、国家计算机网络应急技术处理协调中心。而这方面监管的缺陷主要是立法主体多元,但立法层级不高;相关的法律法规内容宽泛但不具体;在网络暴力的定罪、惩治、原则等方面还没有做出明确规定,这些原因导致在惩治网络暴力行为时具有较强的主观性。由于没有一个明确的标准来对照,何种该罚何种不该罚,监管部门在行使职能时很难以法为据。再者,我国网络暴力监管的法律、法规、规章分属不同的法律部门,主管部门之间的职责划分不明确,在网络暴力事件中能够进行监管的部门很多,但是当各个部门工作时,又会因为无法进行有效配合、协商,信息通报不及时导致无法达到预期效果。

对网络主体进行有效且长期的监管是有效管理网络暴力的关键,但由于目前没有对旁观者等网络主体形成事后监管机制和长效监管体制而导致网络暴力监管始终难以达到理想效果。

2.1.3. 行业规范不健全

中央网信办对网络暴力的治理一直保持着高压态势,自2022年开展“清朗”专项活动后,各平台根据自己的实际情况进行了整改,但各平台对网络暴力的判定形式有差异。每个平台总结出的网络暴力判断标准体系各不相同,内容判断的主观差异较大。行业标准不统一,各平台处置网络暴力行为的尺度不同,缺乏权威、统一的依据。因此,各平台在实施处罚措施时,难免受到层层阻碍,难以服众。例如抖音和微博,在大众看来就是娱乐工具。而新浪微博既是普通网民的发声平台,也是政府部门观测和处理舆情的重要窗口,这种内容偏向的差异导致了平台监管和处理方式也有差别。抖音侧重于通过网民自主举报机制来过滤带有网络暴力倾向的言论,这种方法可以归纳为是事后监管;而微博则侧重于通过网络发布评论前的验证方式来识别和干预恶意评论,通过验证可以过滤一些人机的恶意评论,同时微博也会自动隐藏或删除恶意评论。各平台在制定平台监管标准时,往往会带有自己的价值偏好。作为监管主体的平台,在享有权利的同时,也可能会滥用权利。而且,各平台的监管程序的透明度不高,缺乏监督。

技术设置对于网络暴力的治理有一种事前治理措施,克服了法律治理模式的滞后性的弊端 [7] 。但是,技术治理并不是万能的,它往往服务于获利需要。技术设置的内容没有一个统一的标准,缺乏一套“共治规则”。中国信息通信研究院2022年发布的《中国信息消费发展态势报告》显示,在消费群体方面,我国网民规模持续扩大,突破十亿 [8] 。同时,此《报告》也提示警惕数据安全、个人信息泄露等风险。中国互联网络信息中心《第49次中国互联网络发展状况统计报告》显示,截至2021年12月,有22.1%的网民遭遇过个人信息泄露 [9] 。近年来,网络信息泄露情况频发,由此引发的网络暴力事件不计其数。我国当前的网络安全技术虽然有了一定的进步,但是还不能很好地适应当前的网络安全与信息数据保护需要。在网络环境的监管中,人工审核仍然难以被替代,不同个体存在着不同的主观判断差异。在开源技术广泛运用的背景下,行业市场准入门槛低,互联网行业基本规则制定各有标准。因而,建立起统一的行业规范显得尤为重要。

2.2. 网络暴力的法律规制现状及存在的问题

网络暴力行为主要是在网络上对当事人进行猛烈且激进的言论攻击,其危害性不亚于面对面的暴力行为。但是与现实生活中的暴力行为相比,网络暴力行为的处罚会轻很多,这也导致了目前网络暴力行为的治理效果较差。在我国目前的司法实践中,网络暴力实施的主要方式是人肉搜索、发布侮辱、攻击性言论或传播各类谣言三种形式。人肉搜索严重侵害了当事人的个人信息,因此在2021年颁布的《中华人民共和国个人信息保护法》中对个人信息的保护做了明确的规定,并在第六十六条明确规定了违反本法需要承担的法律后果。其余两种主要是语言类的攻击与恶意传播,但《中华人民共和国刑法》对于语言类的攻击的法律较为分散,多为根据侵犯的法益不同来确定罪名 [10] 。在目前的司法实务中,多数的网络暴力案件属于“告诉才处理”案件。事实上,当事人所经历的网络暴力中的言论攻击与谣言传播会比现实生活中的更加严重,这也导致很多人由于经受不住网络暴力的攻击,选择结束自己的生命。并且,网络暴力中当事人处于弱势地位,一个人面对着来自多方的攻击。网络存在隐蔽性,导致当事人维权困难。

因为法律的滞后性,现行的部分法律及有关的司法解释不能对目前的网络暴力行为进行有效的治理。刑事司法对网络暴力行为的规制主要集中于《中华人民共和国刑法》分则部分第四章“侵犯公民人身权利、民主权利”和第六章“妨害社会管理秩序罪”和《最高人民法院、最高人民检察院关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》《最高人民法院、最高人民检察院关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》这两部司法解释中 [11] 。对于网络暴力行为,有的学者认为应该在刑法中做一个明确的法律定义,这在侧面上也反映了国家对打击网络暴力行为的决心。也有一部分学者认为不必在刑法中对网络暴力行为进行定义,但需要在现行的法律中对网络暴力做一个较为清晰的司法解释。“如果可以通过解释路径应对网络犯罪,就没有必要甚至不应当采取立法路径。” [12] 不论是哪种观点,都是为了更好地制止暴力行为的发生。但是根据目前的司法实践来看,仅仅依靠司法解释当中的规定是不够的,这对施暴者的处罚力度较小。一些施暴者并没有意识到网络暴力行为的危害性,这不仅仅不利于治理暴力行为,也在损害司法权威。

3. 网络暴力中旁观者的现状及存在的问题的原因分析

3.1. 经济发展不平衡而引发了旁观者的阶层矛盾

社会经济不平衡导致阶层矛盾,网络意见领袖的出现可以充当社会调节器。当前社会结构不平衡,使得许多社会群体之间矛盾重重。由于现实中没有充足的话语权,越来越多的人选择在互联网上发表言论。网络意见领袖来源于网民群体,因其拥有庞大的粉丝群体而具有一定的网络地位。相较于政府和商业资本,他们则显得更具亲和力,是网络民意的发言人。如果网络意见领袖难以严格约束自身,获得一定流量与关注之后,一味追求如何将流量变现,面对经济公司给出的丰厚条件,一些网络红人便选择了与其合作。这时,他们在公共账号上的发言大多由其背后的团队操纵,只为吸引更多流量,变现为现实中的财富。旁观者不明白其中的逐利真相,在网络意见领袖的煽动之下,出于自身的道德正义观念,便要在网络上伸张正义,滥用自己的话语权,因轻信而形成集体的网络暴力。

3.2. 旁观者素质参差不齐,个人意识过剩

由于网民基数庞大,网络监管很难达到全方位落实,一旦网络暴力发生,便很难控制。截至2022年6月,仅中国网民数量就已达10.51亿,这些网民中不仅有十岁及以下的儿童也有六十岁及以上的老人。由于学历和阅历以及各种复杂因素的影响,不同网民对同一争议性事件会产生不同的看法。他们表达自己看法的方式也有所不同,方式的不同进一步推动旁观者分化为事件的传播者、事件的评论者、事件的无作为者。而当事件的评论者发现自己的评论背离网暴群体价值,并受到攻击后,为了避免成为众矢之的,或放弃表达,或加入群体,网暴的声音会在不断消除异己的过程中发展壮大,从而最终难以遏制。

3.3. 旁观者的网络监管体系不健全

客观来讲,监督体系的不健全也是网络暴力事件层出不穷的原因之一。而监督体系不健全的主要原因在于网络环境准入门槛低,只要有一部能够连上网的电子设备和一张有效身份证就足够在各个平台随意发表言论。这种低准入门槛造成的就是网民泛滥以至监管困难。在这种情况下,面对同一争议性的事件,会涌现出不计其数的观点。目前我国的网络监管体系很难做到惩罚每位施暴者,因此只能对较具社会危害性的行为加以惩治,企图通过“杀鸡儆猴”来达到遏制网暴的目的。

4. 网络暴力的法律规制路径

网络暴力舆论的治理方式主要有法律治理、技术治理、行业自律和社会教育等方式,其中以美国为代表的欧美国家侧重行业自律;以新加坡为代表的亚洲国家偏向法律治理。就近些年我国发生的网络暴力舆论传播事件来看,网络暴力事件呈现出了分工负责,流水化作业的特点;出于谋求暴利或是其他社会目的,不少犯罪分子混入网络热点事件,利用病毒式传播推广方法合作实施网络暴力信息的传播;施暴者可以事先隐藏或修改IP地址,诱导不明真相的网民发帖,利用Facebook,MSN,微博等方式传播,而结果只是能查询到一般网民,难以查清网络群体性事件中的组织者并追究其法律责任 [13] 。网络技术发展,不仅为公安机关治理网络暴力事件提供更多的实现的可能,网络暴力的施暴群体也在不断更新自身实施暴力的方式。他们的反侦察意识也在不断提高,利用虚假IP地址,甚至是利用善意群众作为现实“防火墙”,在操作中,层层加码隐藏痕迹。因此,治理就不能只是单方面的,对于网络暴力事件,要从多维度,综合立体化治理。

4.1. 引导旁观者理性参与网络

大部分网络暴力事件的初期都是某些非理性网民对某个话题的非理性讨论,由于关注度和参与度的攀升,扩散效应不断加剧,才逐渐发展成为一个群体性事件。最根本的问题仍在网民身上,资本世界的裹挟、现实世界的压力、个人智力知识水平的缺乏或是个人主义意识过剩都会引起非理性的过激言论。源头治理与每一个普通民众紧密相关。公民入网时应接受相关法律法规和网络秩序管理条例的教育,自觉遵守《文明上网公约》的约束,网络世界不是法外之地,身处网络社会,同样要保持着和现实社会中同样的道德水准和法律边界。同时我们还应继续有效贯彻落实青少年入网的教育工作,加强青少年思想道德教育。对于不满十八周岁的无民事行为能力人和限制行为能力人,其监护人的监护责任应及于网络世界,监护人要尽到相应的引导和教育义务,以此来防范青少年群体被当作实施暴力的“人形工具”。作为网络热点事件的旁观者,为避免被卷入网络极化,这要求我们要有更高的道德水平和理智水准,网络的利刃指向我们每一个人。

4.2. 加强对旁观者的监管

4.2.1. 发挥网络行为主体积极性

对旁观者行为的监督,离不开个人的自律和网络平台、行政单位的他律。解铃仍需系铃人,把维持网络秩序的责任重新交回网民手中是最终良方。网络事件扩大化离不开旁观者的推波助澜。可以发挥网民志愿监督的作用,引入举报投诉机制。对于网络群体中的侮辱诽谤等言论,网民可以通过举报、投诉等途径,积极检举和制止失范行为的发生。此举可以有效防止网络上直接对骂的情况发生,避免“评论事”转为“攻击人”,使“人人都是评论家”的现象及时转变为“人人都是监督者”的现象。网民的监督作用还可以与基层民众自治组织结合在一起。旁观者容易陷于舆论漩涡。我们可以最初就抢先占据信息优势,将网民监督与自治组织结合,当人们意识到自己可能面临网络舆论风险时,就可以通过自治组织作为发言代表进行澄清,优先掌握主动权。一般而言,一些代表群众利益的组织发言会比个人无休无止的反驳有效得多。结合现实生活中的党群服务,当事人也便于在现实生活中获得相关心理咨询的救济,有过相关经历的人也可以进行经验交流。此外还可以在网络空间中引入网络信用评价机制,通过大数据对公民网络行为进行监管,将公民的网络行为表现也纳入信用管理评价中。这样在发挥公民监督管理责任的同时,也可以对监督权利进行有效制约,防止监督权利膨胀。

4.2.2. 平台的监督责任

大型的网络暴力事件总伴随着资本的注入,黑色产业的组织实施者潜伏在旁观者人群中,通过鼓动言论、煽动民意而掌握事件主导权,再达到自己的非法目的。在互联网黑产中,不法分子窃取网站数据后,需要确认账号对应的密码是否正确,将有价值的数据通过验证的方式筛选出来,这一过程即撞库 [14] 。如果没有验证码的阻碍,黑产就可以使用海量的账号密码去“薅羊毛”,进行垃圾注册等。因此在这种巨大利益的驱动下,“打码平台”这一专业的服务就诞生了。以谷歌为例,他们以歪歪曲曲的字母和数字组成常见的验证码,以此来筛选自动程序,区分人和机器。但随着算法的突破,机器也可以识别图像,这种传统的验证码就变得不那么安全了。过去的防止恶意刷屏的方式多是滑动填充拼图。如今的很多的APP也纷纷推出了多元化的防刷屏措施。例如:《今日校园》通过提供九张图片和相关提示,选择相应要求的图片才能验证成功。百度搜索的做法是提供一个倒置的图片,通过点击、滑动,将倒放的图片恢复正置状态等。在此,我们将借鉴B站经验。为了防止水军恶意刷屏,B站采取了答题参与模式来验证真人参与。答题模式可以更好地筛除大部分的机器操作。旁观者在评论时通常带着个人的情绪而选择在事件中站队。心理学研究表明:人在情绪波动较大时至少需要五秒使自身保持理智。因此我们希望通过设定程序,在发送评论前增加提示框,如:“您确定从发送此条评论吗?”,以此来延长人们评论的周期,给予旁观者更多冷静和思考的时间。从网络暴力发展三阶段的理论来说,平台是进行防控和监管最及时,也是最有效的主体。网络平台的责任具有不可替代性。在网络言论的触发阶段,平台要及时进行监控,认真审核入网信息;在网络舆论的形成阶段,平台的责任是把握事态动向,对已经表现出恶意的激进分子进行平台警告,阻止事态恶化;在网络暴力的实施阶段,平台应对恶意攻击的用户进行封号,删除相关言论,必要时及时通知警方介入。

4.2.3. 建立统一的行业规范

陆宇峰教授认为,“网络公共领域的异化主要不是源于政治权力和社会权力的外部侵蚀,而是源于互联网企业主导的内部技术设置和架构设计。” [15] 互联网的经营者和运营者,有义务维护网络信息安全和网络文明环境。互联网服务行业要建立起统一的行业标准,约定入网需要遵守的行业规范,建设起网络暴力识别二机制。

机制的前端是互联网技术问题,网络信息的暴露,终究需要技术层面解决。网络信息平台要建立起隐私保护和个人监管相统一的网络信息保护模式,建设公安户籍管理系统式的“前台匿名后台实名”的信息保护技术。在网络时代,开源设计的成本更低,因而要提高加密技术,充分保护公民隐私。针对网络侮辱、谩骂,诽谤等现象,要积极发展语言识别技术。现行大部分平台使用的关键词过滤技术能够起到部分过滤筛选作用,但词语置于不同语境的表达多元化使得关键词识别技术“一刀切”的弊端日益凸显。与此同时,互联网造词速度不断加快,除了传统的汉字表达,又出现了各种以缩写和谐音梗为表达方式的新型互联网语言,这也在不断淘汰现行的过滤技术。因此发展人工智能,提高语言自动识别技术显得尤为重要。

识别技术仅能做到部分的筛查,对人肉搜索,网络煽动的制止仍需要发挥工程末端的作用。平台应加强运营管理的监督,提高后台技术管理人员的责任意识。平台应该对热门搜索、动态的转载量和评论热度进行数据监管。借鉴B站个人主页的动态数据管理方式,互联网监管平台也可以利用数学统计模型对网络事件的关注度进行实时监控。在网络环境监管过程中,发现侮辱诽谤等暴力言论、触及他人隐私等过激言论时,网络监管者应及时地删帖,控制局势,防止事态恶化 [16] 。互联网受众的广泛性以及适用年龄段的无分层性会增加网络监管的难度。但台后监管可以在重点时段、重点领域进行监管。大数据可以对时事热点进行预测,及时把握舆论导向;数据统计可以搜集受众言论焦点,及时作出反馈评估。此外延伸出的监管措施还应与广大受众结合,建立网络暴力识别模型的同时发挥网民作用,建设网络危险报警机制,在必要的时候做到“紧急避险”。进而使第三方对旁观者集体不理性行为进行有效管控。

4.2.4. 推进立法规范

网络暴力是个体暴力也是群体暴力。个体暴力的实施是带着恶意的,他知道真相是什么而故意歪曲诬陷。群体暴力是更复杂的维度,有的是基于正义情感的抒发,有的是个人局限认知的表达,这些都极容易超出理性范畴。大多数旁观者也仅仅是一些普通的网民,所以无论从个体还是群体出发,归根结底还是如何规范我国公民的网络行为。从最小维度——公民而言,网络暴力具有违法性,伴随的是民事侵权行为。因而,法律层面的规制是维护公民的民事权利,肃清网络风尚的底线保障。我国现行的法律法规对从事网络信息服务的许可备案制度、创办网站的审批登记制度、网站日常运营管理、信息传播活动管理制度都有较为详细的规定。我们提倡保护公民网络隐私权,这是针对网络生活的平等主体的规范。在管理上落实个人网络准入登记,以此明确网络世界并非匿名且无秩序。从实际出发,我国的现行法律中,关于网络环境治理的都是单行法,且大多数是专门针对某类网络行为的法律法规。从立法层面来看,这些单行法一方面会让法律法规繁杂化甚至会引起法条冲突,另一方面又会导致出现部分立法的空白。从执行层面来看,这些单行法一方面会让各部门依据部门主管领域的单行法规执法时引起冲突,部门之间推诿责任,另一方面,复杂没有主心的法律也不便民众理解和遵守,会在法律和受众中存在不适配现象。因此,一方面,我们要在现行法律基础上对相关法条进行法律解释,使其能适应网络社会发展需要,推动反网络暴力立法;另一方面,我们要积极推动《个人信息保护法》的颁布,在北上广深等网络信息发达地区优先试点推广。我国立法实践中,常常会有实际调研与颁布立法实施阶段存在较大时间差的现象。互联网发展日新月异,因此在设立反网络暴力法律法规时要给予更大的包容性,以便应对现实生活的种种变化。反网络暴力立法还可以与刑事法律行政法规和民事法律相互贯通交织。这样做具有较大优势,一是便于规定对不同层次伤害程度的惩罚措施;二是也能够保持现实中执法司法的执行度;三是不必对当下形成的司法模式有太多改变,便于民众学习遵循。我国对于网络暴力的研究在定性认可上存在着较多争议,因而在当下法院进行司法解释时应多多采纳学者研究,发挥专家智囊的作用,保障解释的科学性。

5. 结语

网络虽然是个虚拟世界,但是目前人们生活中的方方面面都离不开互联网,也正因为网络的互通性,人们可以了解世界各地的信息。但是有些旁观者发布的过激的、不负责的言论严重侵害了当事人的合法权益,因此网络暴力的法律规制尤为重要。网络不是法外之地,健全网络暴力的法律规制不仅能为良好的网络环境提供法律保障,一定程度上也推动着中国的法治进程建设。网络暴力是一种精神上的暴力行为,我们坚决抵制暴力行为的发生与蔓延。

基金项目

此项目受长江大学2022年大学生创新创业训练计划项目基金资助,项目编号为Yz2022082。

参考文献

[1] Salmivalli, C., Lagerspetz, K., Björkqvist, K., Österman, K. and Kaukiainen, A. (1996) Bullying as A Group Process: Participant Roles and Their Relations to Social Status within the Group. Aggressive Behavior, 22, 1-15.
https://doi.org/10.1002/(SICI)1098-2337(1996)22:1<1::AID-AB1>3.0.CO;2-T
[2] 张霁阳, 张鹏, 李思佳, 刘静, 窦云莲, 兰月新. 基于实时社会网络分析的突发舆情事件动态意见领袖识别方法研究——以新疆棉事件为例[J/O]. 情报杂志. https://kns.cnki.net/kcms/detail/61.1167.G3.20230515.1751.006.html, 2023-07-11.
[3] 第47次中国互联网络发展状况统计报告[EB/OL]. 中国互联网络信息中心. http://www.cac.gov.cn/2021-02/03/c_1613923423079314.htm, 2023-01-13.
[4] 涉信息网络犯罪特点和趋势(2017.1-2021.12)司法大数据专题报告[EB/OL]. 中国司法大数据研究院. https://data.court.gov.cn/pages/categoryBrowse.html?keyword, 2023-06-07.
[5] 李莫北. 微博发布的内容 新浪是如何审核的? 一条条审核是不可能的, 但是不审核又不行[EB/OL]. https://www.zhihu.com/question/36413365/answer/2087264352, 2023-08-27.
[6] 李文洁. 论“翻墙”现象与中国的网络监管[D]: [硕士学位论文]. 北京: 中国社会科学院研究生院, 2011.
[7] 郑智航. 网络社会法律治理与技术治理的二元共治[J]. 中国法学, 2018(2): 108-130.
[8] 中国信息消费发展态势报告[EB/OL]. 中国信息通信研究院. http://www.caict.ac.cn/kxyj/qwfb/bps/202203/t20220311_397757.htm, 2023-06-07.
[9] 第49次中国互联网络发展状况统计报告[EB/OL]. 中国互联网络信息中心. https://www.cnnic.net.cn/6/86/88/index.html, 2023-06-17.
[10] 姜军. 网络暴力的界定及刑法规制[J]. 网络空间安全, 2022, 13(5): 20-25.
[11] 窦豆. 刑法学视野下的网络暴力行为规制[J]. 浙江万里学院学报, 2022, 35(5): 47-52.
[12] 张明楷. 网络时代的刑事立法[J]. 法律科学(西北政法大学学报), 2017, 35(3): 69-82.
[13] 林凌. 网络暴力舆论传播原因及法律治理[J]. 当代传播, 2011(3): 76-78+83.
[14] 周正, 文亚飞, 鲍文平. 基于深度学习的人工智能用于识别破解字符型验证码[J]. 通信技术, 2017, 50(11): 2572-2576.
[15] 陆宇峰. 中国网络公共领域: 功能、异化与规制[J]. 现代法学, 2014(4): 25-34.
[16] 殷星辰. 中国社会治理发展报告2013-2014 [M]. 北京: 北京社会科学文献出版社, 2014.