1. 问题的提出
在数字时代,法律上针对网络暴力信息的管理正转向强化平台责任,要求其在识别、预警和处理网络暴力信息方面扮演更积极的角色。2022年起,网信办先后出台了《关于切实加强网络暴力管理的通知》《网络暴力信息治理规定(征求意见稿)》(以下简称《征求意见稿》),细化了平台治理要求,确立其为信息治理的“核心责任体”[1]。但是,《征求意见稿》并未明确具体的义务治理标准,针对网络暴力的现有研究也主要集中于刑法层面,侧重于发挥刑法的事后规制作用[2]。但随着平台治理架构的搭建,网络暴力的治理重心已经从单一的网暴行为扩展至平台的信息生态环境,治理节点也由事后规制转向了事前、事中干预,治理趋向主动性。这一根本性变革表明平台已成为网络暴力治理中不可忽视的要素,原有的研究重心应及时调整。
面对平台在网络暴力犯罪治理中义务的增加,学界近期已有所关注,但相关研究仍集中在“平台守门人”的宏大理论,致力于搭建网络平台普遍义务的理论框架,而对网络暴力信息治理具体情境的分析相对不足。这导致相关义务执行标准仅具备方向性的参考价值,很难发挥出针对性的指导作用。为解决前述问题,应在“网络暴力信息 + 平台内容治理”这一理念的指导之下深化已有研究,具体包括以下几点:其一,纳入平台视角。视网络暴力为数字时代特有的“平台现象”,从网暴信息产生、传播、变异的平台视角重新审视网络暴力现象,及时调整网络暴力治理策略。其二,深化网络暴力信息的独特治理思维。聚焦网络暴力信息的特殊性,理解其在平台环境中生成和扩散的规律,在此基础上明确平台治理义务的规范性原理,以指导平台具体履行信息治理义务,积极回应网络暴力信息这一特殊场景下的治理需求。
必须承认,数字时代相较以往时代具有连接共生、信息爆炸的特点,传统法学对这一时代平台信息产生、传播、变异的探讨尚不足,仅凭法学一己之力难以应对这一复杂挑战。鉴于此,本文旨在将传播学领域的数字媒介理论引入分析框架,聚焦于网络平台作为网络暴力信息传播渠道的特性,并在深入理解其传播机制的基础上进行剖析。首先,运用数字媒介理论,我们将剖析网络平台在网络暴力信息的生成、扩散及演变过程中所扮演的媒介角色;其次,基于这一媒介角色的界定,明确网络平台在网络暴力信息治理中的定位,并重新界定平台治理义务的理论内涵;最后,依据对治理责任的理论认知,探讨平台有效践行其责任的技术路径与实践策略。
2. 数字媒介理论视角下的平台作用
数字媒介理论揭示,平台不仅是推动信息流通的数字基石,更是现实生活空间的数字化拓展,其在潜移默化中构建了内容创作、新闻评议及公众参与的新范式,对网络暴力的萌生与扩散施加了深刻影响。尽管平台宣扬包容、开放的社区理念,但在实际操作中,却可能无意中营造了一个促进极端言论和极端情绪的环境。因此,网络暴力信息的产生并非是“群体无意识”的结果,而是在平台营造的不良媒介环境中逐渐形成的。
2.1. 数字温床:催生极端言论
在当下“内容至上”的网络竞争格局中,各大平台为了占据竞争优势,鼓励用户发表激进、充满争议的话题内容,导致网络暴力信息泛滥化,网民“互喷”、“对骂”呈现一种普遍状态。长此以往,网络讨论环境逐渐背离友好、包容的宗旨[3],引发了媒介公正性的问题,即趋向于鼓励攻击性言论的发表,网络暴力正是在这样的媒介生态环境中诞生的。
一方面,网络内容的产生并非由网民自发合作形成,而是平台为了商业利益精心策划的结果[4]。平台为了吸引广泛的社交媒体用户参与讨论,设计了简便高效的注册流程,用户通过智能手机即可实现一键注册,轻松在各大社交媒体平台上发表言论。然而,这种简化的注册机制也带来了问题。它使得用户的网络身份与其现实生活中的声誉、人格脱节,削弱了他们在发表言论时的社会责任感,“网络喷子”大批出现。但平台对这类行为的限制方式却极为轻缓,多表现为约束发言,其目的在于留住用户,并非有效管控极端言论。另一方面,平台致力于与用户建立情感联系,借助算法向用户推荐其喜爱的话题内容,使得用户很难接触到其他类型的话题[5]。由于长期困在自己的信息茧房中,用户对其他类型话题和不同群体的接纳程度逐渐降低,当其在网络空间相遇时极易产生极端言论和网络暴力。显然,这种针对性的信息推送更易催生敌对性较强的网络交往环境。
2.2. 流量推手:扩散暴力内容
流量变现是互联网的基本商业运营模式,为了吸引更多用户,维持住稳定的收入流,平台会根据流量的多少进行内容投放,这固然可以增加社会热点事件和争议事件的曝光度,但同时也使得网络中最尖锐、最暴力的内容出现在公众视野。当公共讨论发起时,暴力内容所携带的极端情绪将会明显压制理性发言,最终导致热点事件的真相被掩盖。
网络平台的流量导向往往倾向于推广情绪化和攻击性内容,导致理性讨论被边缘化。例如,通过购买流量提升事件热度,可以吸引更多关注,但这也无意中助长了网络暴力。随着事件热度的增加,极端言论和行为如人肉搜索、人身威胁等超出了正常讨论范围。平台通常根据点赞和回复量来验证公众反应,这种市场化机制虽然加快了信息传播,但也使得非理性内容频繁占据显眼位置,而理性声音则被淹没[6]。在流量主导下,极端情绪被突出展示,理性讨论的深度和质量下降,网络暴力信息迅速吸引注意力并占据平台显眼位置,其负面影响随着流量增加而扩大。例如,在“胖猫事件”中,刘某通过在抖音等平台购买流量来提高事件的热度,以此吸引网民的广泛关注。这种流量驱动的内容推广机制,无意中助长了网络暴力的热度。此外,流量导向还促进了网络暴力信息的二次传播,加剧了语言暴力的规模和社会影响,使得网络暴力现象不断升级和恶化。在一些平台上,非理性声音和极端情绪更容易得到传播,导致网络暴力现象不断升级。
2.3. 媒介连结:形成舆论制裁
在网络暴力事件中,受害者所遭受的舆论制裁并非由网民策划发起,而是媒体和平台协同作用的结果。在此过程中,网络平台凭借其展现的媒介效能,构建了一个强有力的群体联盟,但这种通过平台媒介连结而激发出的群体性力量未必代表公正正义,反而可能导致受害者陷入一个权益受损、救济困难的不良媒介环境。诸如私信辱骂等数字化暴力行为,正是媒体不公现象的直接体现。
平台提供的媒介连结看似中立无害,实则可能导致网络暴力的加害者暂时获得对受害者的数字控制权,从而侵犯其人格尊严,剥夺其数字生存空间。随着网络暴力信息的扩散,网络语言暴力似乎在网络空间中获得了广泛的社会认同,这为加害者的行为赋予了一种荒谬的正当性。在由平台搭建、加害者掌权的数字审判席上,加害者能够通过数字身份对受害者进行攻击,剥夺其在线权利,甚至宣告其“社会性死亡”[7]。受害者在复杂的网络信息传递中往往难以获得必要的支持和理解,缺乏纠正伤害的手段。尽管刑法第246条针对侮辱、诽谤行为为受害者提供了自诉的救济途径,但在错综复杂的网络暴力信息传播网络中,被害人难以精确界定每个账户在暴力事件中的具体作用,也难以获取被平台限制、屏蔽或删除的暴力信息,更难以追溯网络暴力的“始作俑者”。此时,面对媒介连结形成的强大舆论制裁,受害者通常无力应对,甚至造成自残、自杀等严重后果。
3. 网络暴力信息治理义务的内涵重塑
如前所述,网络暴力信息的产生、传播和变异凸显了平台在媒介公正性上的不足。基于此,平台在治理网络暴力信息时,不应仅仅停留在宏观层面的监管者角色,而应该重新塑造其媒介角色,力争打造一个优质、理性、友好的媒介环境,使平台作为数字基础设施能够真正促进网络生态优化。因此,平台在履行信息管理义务时,就具有了媒介正义的理论支持。面对媒介不公现象,媒介正义理论在信息形成的不同环节提出了不同的平台治理要求,为平台的网络暴力信息治理义务赋予了深层次的理论内涵。
3.1. 产生环节:平台内容的针对性审查
在《征求意见稿》第三章中,针对网络暴力信息的生成,明确了平台监测、预警的关键职责,包括对暴力信息的数据收集、对涉暴账号的严格管理,以及对暴力信息的监测预警等。面对某些平台催生大量极端言论所引发的媒介不公环境,媒介正义要求平台必须承担起相应的内容质量管理责任,为平台的监测预警义务赋予了新的内涵,即针对性审查。
媒介正义旨在纠正传统媒体在内容生产上的偏颇,即过分强调数量而忽略质量,呼吁平台在激励内容生成和维护网络生态中寻求平衡与发展[8]。针对性审查要求平台根据自身内容业务的特点进行深度整合与梳理,识别可能存在的网络暴力信息类型及风险。目前,我国现行网络法规要求平台全面审核违法犯罪内容,以确保履行审核职责。其中,扩大审核范围,确保非法及不当信息的真实性已成为平台在内容合规和犯罪预防方面的标准操作。但在媒介正义框架下,平台作为数字化媒体应具备自主管理和引导用户的能力,不仅要监测和预警网络暴力数据,还需考虑业务特性、用户特征和交流形式等因素,进一步完善网络暴力信息数据库和案例库,识别重点涉暴账户与相关网络暴力风险,确保平台监测、预警义务的履行能够满足平台内容业务的独特需求。换言之,平台的针对性审查义务在市场化内容运营与高质量内容生态之间构建了直接桥梁,促使平台业务运营朝向既承担社会责任又实现均衡发展的新路径迈进。
3.2. 传播环节:优化平台内容传播机制
《征集意见稿》第四章规定了网络平台在暴力信息扩散环节应履行的事中处置义务,涉及紧急处理措施、敏感话题监管等。为应对网络暴力信息的快速传播,媒介正义理论倡导优化信息传播策略,遏制极端网络舆论在社会热点事件中的蔓延。
在以往的暴力信息治理中,平台主要通过删除、屏蔽措施来履行事中处置义务,旨在迅速制止用户可能存在的违法违规行为。媒介正义理论高度重视信息传播过程中的程序正义,其核心目标是通过平台对网络信息的自主管理与动态优化,纠正平台在暴力信息扩散中的不良媒介角色,鼓励网友在“正义框架”下进行热点事件的讨论,不应滥用媒介权利来诱导公众发出违背社会正义观念的言论[9]。受“流量变现”思维的刺激,平台实际上放大了网络暴力事件的传播和影响,使网民的目光更多聚焦于极端化情绪引导下的言论,而忽视了散落其中的理性发言。媒介程序正义反对平台对流量的过度追求和媒体权力的滥用,提倡强化平台内容监管责任,优化争议事件的网络传播机制,以从极端舆论中提取理性声音,将多元观点呈现在公众面前,从而营造公正理性的讨论环境。在优化传播机制这一新的义务内涵指引下,平台在处理网络暴力信息时,不应仅仅满足于被动地删除和屏蔽,还应积极主动对不同的内容场景进行纵深管理,以改变原本受流量驱动的传播机制。只有通过此种方式,才能让理性讨论重回公众视野。
3.3. 事后环节:倾斜式保护网暴被害人
针对网络暴力事件的事后救济机制,《征求意见稿》第五章提出了一系列具有特色的受害方保护措施,包括对网络暴力信息的屏蔽、私信管理的强化以及对投诉举报的快速响应等方面。由于平台的媒介运行机制可能导致施暴者对受害者形成不平等的数字霸凌,媒介正义原则呼吁平台必须向受害者倾斜,提供相应的保护措施与治理资源,以保障其享有基本的数字生活空间。
媒介分配正义理论致力于平等分配媒介话语权,通过媒介权利重构来关怀数字弱势群体[10]。它要求平台采取倾斜式保护制度,主动且有效地维护其权益。相较于一般网络犯罪治理中的被动响应,倾斜式保护倾斜式保护要求平台为受害者分配必要的媒介资源,尽可能拓宽受害者发声和寻求救济的渠道,以对抗加害人的数字强权,保障受害者基本的网络生存权[11]。如防止私信攻击和人肉搜索等权利滥用行为,确保受害者不受网络暴力和不公正舆论的伤害。在倾斜式保护的义务内涵指引下,平台需建立技术预防机制,如“反欺凌计划”,提供制度支撑和资源支持。同时,平台应主动回应被害人诉求,而非仅依赖监管或执法指令。对于未成年人和老年人等特殊群体,平台保护需体现法律家长主义,主动协助其开启防护机制。平台的这种干预不仅保护了受害者的数字权益,也反映了数字时代对数字化生活重要性的认识,展现了数字文明的进步。总之,倾斜式保护意味着平台需超越不公媒介角色,通过资源倾斜和被害预防,纠正网络暴力中的权力失衡。
4. 网络暴力信息治理义务的法治实现
媒介正义理论为平台的网络暴力信息治理义务赋予了新的理论内涵,但关于平台如何具体履行上述义务及各方责任如何落实,目前仍缺乏具体的技术路径。《征求意见稿》等法律文件赋予了媒介公共权利,占据资源优势的平台则拥有媒介技术权利[12]。平台能否有效治理网络暴力信息,关键在于这两种媒介权利的整合。因此,我们可以探索一条新的技术路径:利用《征求意见稿》等法律文件所赋予的媒介公共权利,引导平台利用其内部的媒介技术力量,主动构建一个合规的网络暴力治理体系,通过国家监管、平台自治的深入对话和有效的协同合作实现治理目标。
4.1. 事前预警义务:精准监测信息内容
由于各个平台的业务定位、信息内容、用户群体存在明显差异,网暴信息治理义务无法苛求平台制定统一的监测预警标准,也无法对平台预警机制的合法性作出直接判断。因此,需另外建立类似产品质量监管的审核机制,对平台监测预警机制的针对性进行质量评估,以外部监管促进平台充分利用媒介技术资源,完善内容合规管理体系。
第一,平台的内容审核机制是否与自身的业务定位一致,能否精准识别平台内部独特的网络暴力风险是构建内容合规管理体系的关键。对此,需关注以下几点:其一是审查流程的适配性。平台是否建立了与业务紧密相关的网络暴力审查流程。例如,B站针对“涉性”暴力风险,发起了专门的女性议题活动,通过风纪委员会人为审核提升识别精准度。其二是内容审核的定期复核和机制更新。随着网络暴力模式的变化,平台应周期性地检查、修订审核规则,并抽取关键数据以保证审核的准确性和针对性。其三是强化对高风险内容场景的审核力度,在内容管理体系中针对高风险内容建立起专门的技术与人工审核标准。
第二,平台的用户账号管理是否与内容创作门槛相匹配。平台设定的内容发布门槛直接影响用户创作生态的健康程度。因此,合规的账号管理应以内容创作门槛为基石,并依据不同的创作环境制定相应用户管理规范。在创作自由度较高的平台上,管理重点应放在新注册及僵尸账号上,以有效阻止其传播网络暴力信息。例如,小红书通过分析账号的活动频率和浏览时长来识别并限制僵尸号或水军账号的曝光。相对而言,在内容创作门槛较高的平台上,鉴于用户需经过严格的认证与测试流程,新注册账号及僵尸账号发布暴力信息的风险显著降低。因此,这类平台在账号管理方面的责任可适当减轻,仅需在特定领域和话题中,对具有较大影响力的意见领袖进行动态监控和管理。
4.2. 事中处置义务:有效引导网暴舆情
在处理极端网暴舆情时,平台需构建一个旨在促进争议事件理性化讨论的议程框架与秩序体系,以切实履行事中处置义务,有效遏制网络暴力信息的扩散。考虑到各个平台在内容运营策略、话题群组构建以及社区文化氛围上的显著差异,履行事中处置义务时不宜采用统一标准。相反,应当提供一个宏观的议程设置指导框架,使各平台需结合自身业务特性,制定针对性的网络暴力信息应对策略。
在网络舆情的初步引导阶段,平台应建立以“降温”为核心的应急机制,以控制网络暴力信息在争议事件讨论中的主导地位。平台需设立专门的板块处理网络暴力舆情,重点关注争议事件的冲突点和关键人物,及时发现并标记、分类网络暴力信息,采取删除、限流等措施以抑制其传播。在网络暴力的分类、应对策略、团队职责和操作规范等方面,平台应有自主权进行灵活多样的探索,而监管机构应减少干预,以促进平台根据自身情况制定有效的应对措施[13]。
在深化关联话题的管理层面,平台需构建一套以“解耦”为核心理念的网络暴力舆情管理框架,旨在阻断网络暴力舆情与普遍争议话题之间的不当联结,防止二次关联效应的产生。此框架强调平台需深入剖析网络暴力舆情背后的社会舆论根源,迅速捕捉并辨析网络暴力信息中隐含的偏见元素及对立议题。在践行“解耦”策略时,平台可探索多元化的内容合规手段,包括但不限于网络暴力风险预警系统的建立、恶意话题的即时阻断机制、意见领袖言论的严密监控,以及通过算法调整降低相关话题热度等。同时,鉴于“解耦”操作可能对用户创作活动产生一定影响,平台需构建健全的申诉与救济体系,优化内容发布前的审核流程,并强化意见领袖的自律发言规范,以避免过度干预。
4.3. 倾斜保护义务:主动反制网络暴徒
平台在履行倾斜保护义务时应将救济受害者置于首要地位。当大规模的暴力信息涌现时,受害者将面临数字身份被剥夺及身心遭受重创的风险,此时平台应当即刻采取紧急保护举措,最大限度地减轻受害者因此而遭受的广泛伤害。同时,应当提升被害人保护的执行标准、强化网信部门的监管效能、以及增加平台事后整治的成本。上述措施不仅可以借助外部媒介公共权力的力量,促使平台将更多资源投入到网络暴力信息的事前、事中预防中,还能够推动预防性治理向现代化治理目标迈进。
第一,在受害者信息保护和私信管理方面,平台需实施“屏蔽 + 过滤”的双重防护机制。其中,“屏蔽”要求平台提供私信管理规则,允许用户选择仅接收好友私信或屏蔽全部私信,从而维护其数字隐私不受侵犯。例如,在小红书的私信管理功能中,允许用户在未回复陌生人私信的情况下阻止其继续发送,且已发送的私信不会直接展示在用户界面中。“过滤”机制指平台应部署自动检测机制,以有效识别私信及评论中的暴力内容。例如,抖音和Instagram等平台会通过“发文警示”和“违禁词识别”等技术,应对用户的语言暴力及不友善行为。随着内容反制技术的不断发展,针对网络暴力的预防措施将更加侧重于施暴者,基于过滤技术的主动反制手段将在网络暴力信息治理中占据重要位置。
第二,在受害者救济途径方面,平台需建立一个方便快捷、受理高效的举报响应机制。所谓举报的便利性,即平台需提供批量举报功能以降低用户维权的难度。例如,豆瓣推出了一键提交证据功能,允许用户批量举报私信;抖音则允许用户针对特定时间段内的私信攻击进行一键举报。而处理的高效性,即平台应在规定时间内(通常为24至48小时内)对举报内容作出反馈并迅速采取行动。根据国家互联网信息办公室2023年9月发布的指导意见,对于可能对举报人造成重大影响的侵权信息,平台应迅速采取隐私保护措施,阻断信息传播。作为受害者寻求法律救济的主要途径,平台应谨慎处理举报,只有在用户反复提交无合理依据的举报时,才可适当减少回复和审核的频率,以合理利用平台资源。
5. 结语
《征求意见稿》的发布标志着网络暴力信息治理义务的扩充,不仅彰显了数字时代网络暴力治理与信息数字化传播之间的制度联结,还凸显了网络暴力法律治理的跨学科性质[14]。深入理解并尊重平台内容运营的内在逻辑及其特殊运作机制,已成为数字时代探讨网络暴力议题不可或缺的前提[15]。鉴于法律规制模式的转变与网络内容治理的紧密交织,仅依赖法学内部的逻辑推演,难以在错综复杂的网络传播机制中确定平台义务的实践节点。因此,引入跨学科视角尤为必要,即通过法学与传播学的深度对话与相互审视,为网络暴力信息治理义务所面临的问题探索出一条科学、合理的解决路径。同时,在此过程中实现媒介权力的优化整合,推动网络信息内容治理向法治轨道迈进。