1. 引言
算法推荐技术的持续嵌入正在深刻重构社交媒体的运行逻辑。作为一种基于数据驱动的内容分发机制,算法推荐系统通过收集用户的浏览行为、停留时长、互动偏好等信息,自动生成个性化内容,从而在技术层面重塑未成年人的信息接触方式与媒介使用结构。算法沉迷指的是平台利用算法推荐,通过精准推送、持续刺激和行为操控,让用户在不自觉中长时间停留在平台上,形成类似成瘾的依赖性使用模式。
截至2022年,中国未成年互联网用户数达到约1.93亿,互联网在未成年人中的渗透率达约97.2%1。这表明中国未成年人几乎全面接触互联网,社交媒体沉迷及其衍生的隐私与健康风险具有广泛的社会基础和紧迫的治理需求。对于青少年而言,算法推荐在改变使用模式的同时,也塑造了新的信息接触习惯与社交方式。据《未成年人互联网使用情况第五次全国调查报告》显示,55.9%的未成年网民通过抖音、快手和哔哩哔哩等视频平台获取新闻或重要信息,这反映出短视频平台正在取代传统渠道,成为青少年认知与交流的重要场域。算法驱动的内容分发机制,使社交媒体呈现出更强的个性化和沉浸式的特征,越来越多的青少年用户在信息获取的过程中日益依赖平台推送而非独立搜索[1]。这一技术演进在提升了用户体验与平台黏性的同时也引发了青少年网络沉迷问题。
从心理学的视角分析,现有研究表明,由于算法推荐强调及时满足注意力捕捉机制,容易造成青少年的注意力涣散、情绪波动明显以及时间感知障碍等问题。这将诱发不同程度的沉迷乃至成瘾行为[2]。法律层面则聚焦于算法机制带来的权力与责任的失衡问题,即社交平台通过个性化推荐塑造和引导用户行为,但尚未建立与其影响力相匹配的法律责任框架。尤其在未成年人保护领域,平台责任边界模糊、监管规则滞后、权利救济路径缺失等问题仍普遍存在。此外,该问题的核心在于算法机制所带来的权力与责任失衡。社交平台通过个性化推荐在事实上塑造、引导并强化用户行为,却尚未建立与其影响力相匹配的法律责任框架。正如Lessig提出的“代码即法律”(Code is Law)理论。该理论指出,在数字平台中,真正具有规范作用的往往不是传统意义上的法律条文而是“代码”。代码决定用户能够看到什么、下载什么、是否可以停下来或者关闭推荐流。从这个角度考虑,“代码”的实际规范力与可执行性甚至强于法律本身。
本研究之所以聚焦于青少年群体,是因为以下三种考量:首先,青少年处于心理认知尚未成熟,价值观易受外界影响的关键阶段,较成年人更易受到算法推荐所营造的信息茧房与沉浸式环境的影响。其次,青少年在元认知(metacognition)及数字媒介素养(digital media literacy)方面的发育尚未成熟,其在面对算法推送所形成的沉浸式使用情境,类似“无限上滑”“推送上瘾”等机制时,往往缺乏足够的判断能力与行为节制能力[3]。最后,现有法律制度在未成年人数据权益保护、使用时间管理及平台责任划分等方面仍存在明显空白,亟需在理论与实务层面展开回应。
因此,有必要在法治框架下深入探讨算法推荐机制在青少年媒介沉迷中的作用及其潜在法律风险,厘清平台应承担的社会义务,并通过立法完善、监管强化与多元共治的路径,构建兼顾技术创新与未成年人权利保障的制度秩序。
2. 社交媒体平台的沉迷机制与风险类型
社交媒体平台之所以对未成年人具有极强的吸引力,根源在于其背后的算法推荐机制。这些算法根据用户的点击、停留时间、互动频率等数据不断调整推送内容,以最大化用户粘性与平台停留时长。对于尚处于认知发育期、情绪调控能力较弱的青少年而言,算法推荐构建起一种技术诱导的沉浸机制,其风险表现多元,主要可归纳为以下四类:首先是时间管理失控与心理成瘾。当今主流平台普遍采用“无限滚动”(infinite scroll)、“自动播放”(auto-play)与“即时通知”等机制,打破了传统信息消费中“开始–结束”的边界,使用户在不知不觉中被动接受内容推送,难以主动中止使用。对青少年用户而言,他们在课余或睡前往往长时间沉浸于社交媒体,逐渐对点赞、评论及推送反馈形成心理依赖,并表现出类似的行为成瘾(behavioral addiction)。这不仅表现为时间管理与作息规律的紊乱,还可能进一步削弱未成年人的现实社交参与度,并对其学业专注力产生不利影响。
其次是商业化诱导与经济风险。平台在通过算法识别用户兴趣与消费倾向后,往往向未成年人精准推送虚拟商品广告、短视频带货内容以及打赏接口,从而诱导其进行充值或购买。由于部分平台缺乏有效的支付限制机制,未成年人进行大额打赏主播、购买游戏皮肤或盲盒等情形屡见不鲜,进而引发家庭财务争议与法律责任纠纷。北京互联网法院介绍,近三年该院共审结涉未成年人游戏充值和直播打赏退款纠纷近700件,单案最高标的额达310万元,个别案件中,未成年人为抽取游戏“盲盒皮肤”一晚充值4万余元,还有未成年人轻信主播“打赏送礼”,一场直播即打赏8万元。在更极端的个案中,16岁男孩在短短3个月内向女主播打赏158万元,家中为此背负沉重债务,最终经法院调解由平台全额返还,该案被最高人民法院列为未成年人网络打赏典型案例,明确未成年人未经监护人追认的打赏行为可请求返还[4]。同时,平台广泛使用诸如“错过就没机会”“限时秒杀”等暗示性消费话术,进一步强化了青少年的从众心理与非理性消费冲动。
第三是内容分发风险与负面认知影响。为追求点击率与用户停留黏性,算法往往优先推送情绪激烈、视觉刺激性强的内容,其中不乏暴力画面、厌食导向、美颜焦虑与自残挑战等问题信息。在极端情形下,这类算法放大效应甚至会与“自残挑战”等灰暗文化相互勾连。“蓝鲸游戏”等早年通过社交平台扩散的自杀挑战,曾在俄罗斯及多国青少年群体中引发连锁模仿事件,参与者在数十天内被要求观看恐怖视频、自残打卡,直至完成自杀指令,引起各国警方和教育部门的紧急干预,也暴露出平台算法在放大高风险内容方面的隐患[5]。
此外,社交平台聚焦的“高颜值滤镜”和“精致生活”,本质上是商业逻辑与算法偏好的产物。青少年在这种内容环境中,将“美丽”与“成功”理解为单一化、量化的指标,从而更易陷入自我贬抑与社会比较的恶性循环。这不仅加剧青少年心理健康风险,也在文化层面削弱了多元价值的可能性,使青年一代的社会认知被压缩在狭隘的符号体系中。
最后是社交风险与同龄压力(peer pressure)。社交平台强化了“公开展示–互动反馈–数字排名”的机制逻辑,使青少年在点赞数、关注量、转发量中建立虚拟身份评价体系,形成强烈的同龄压力。根据联合国儿童基金会(UNICEF) 2021年关于青少年数字生活的研究,约37%的青少年因社交媒体的比较机制产生自我否定情绪,而频繁使用短视频与图片类平台的青少年出现“外貌焦虑”“成就焦虑”的比例更高[6]。而未获得足够回应的青少年用户可能产生孤独感、自卑感,甚至陷入“社交回避”或“网络过度依赖”。同时,网络霸凌现象在青少年群体中更易蔓延,算法推荐又往往放大这种攻击性言论的可见度,使受害者二次伤害风险上升。
综上,社交媒体平台基于算法的个性化分发机制,虽然提升了内容推送效率与用户黏性,但也在客观上构建出系统性沉迷路径,令未成年人在心理、行为、财务与认知等多方面面临复杂且交织的法律与社会风险。这一沉迷现象的背后,反映出平台设计逻辑、商业盈利模式与监管机制之间的深层结构性张力。
3. 我国未成年人网络社交媒体法律保护的现状
2021年修订的《中华人民共和国未成年人保护法》具有里程碑式意义,它首次在法律层面系统规定了网络服务提供者在未成年人保护中的义务,标志着未成年人保护制度正式延伸至网络空间。基于此,抖音、快手、微博等社交平台推出“青少年模式”,该模式对访问内容、使用时间、互动功能等进行一定限制。同年《中华人民共和国个人信息保护法》颁布,该法确立了对未成年人个人信息的“特别保护”原则。第31条明确规定,处理未满十四周岁未成年人的个人信息的,应当取得其父母或者其他监护人的同意,并采取专门的保护措施。作为配套细化依据,国家互联网信息办公室发布的《儿童个人信息网络保护规定》将“儿童”界定为不满14周岁,并具体规定了监护人同意与告知义务的操作要求。该规定为限制平台利用未成年人数据进行个性化推送与定向广告等商业行为提供了法律依据。然而,在实践中“青少年模式”存在被一键绕过、提示信息不明显等问题,这削弱了法律规定的约束力,显示出法律条文与平台执行之间仍存在落差。同时,《儿童个人信息网络保护规定》虽然设立了“特别保护原则”,但在执行过程中,平台对数据收集范围、算法决策逻辑等方面披露不足,致使监护人往往难以及时察觉并阻止不当使用,削弱法律保护效果。
2023年9月,国务院通过《未成年人网络保护条例》,进一步推进中国网络空间治理的法治化进程,这充分彰显了数字化时代中国式现代化治理在未成年人网络保护领域的制度优势。该《条例》针对未成年人网络使用的特点,在《网络安全法》《个人信息保护法》《未成年人保护法》等法律的基础上细化了有关未成年人网络保护的规定,是中国“第一部专门性的未成年人网络保护综合立法”。这不仅弥补了中国未成年人网络保护领域的制度空白,也标志着未成年人保护进入了全面、专门和法治化的新阶段。
总体而言,我国在未成年人社交媒体保护方面的法律体系已经初步建立,但仍存在明显困境:首先是事后干预多,事前预防弱。现有机制主要依赖用户或家长举报、事后平台整改,而缺乏对算法设计本身的前置性审查。其次是平台责任不够细化。虽然法律规定平台应履行保护义务,但缺少具体的技术标准与合规指标,使平台往往以形式化措施应付。再次是监管缺乏系统性。网信办虽有监管职能,但在日常执法中更多依赖平台自查与社会监督,监管力度与覆盖范围有限。我国在未成年人保护与算法沉迷上的规制目前主要停留在理论层面,而执行机制、责任细化与监管工具上仍存在不足,未来需要在平台设计责任、算法透明度和未成年人数字权益保障等领域进一步细化规则。
4. 域外未成年人社交媒体保护制度经验及启示
澳大利亚在未成年人网络保护领域采取了较为前沿且严格的法律与监管路径。其制度核心首先体现在《Online Safety Act 2021》中,该法案明确定义了“有害内容”(harmful content),并赋予电子安全专员办公室(eSafety Commissioner)广泛的监管权限,包括要求平台在24小时内下架有害信息、发出整改通知及处以高额罚款[7]。值得注意的是,该机制适用于所有为澳用户提供服务的社交媒体平台,不论其服务器是否位于澳大利亚境内,该法都要求其履行相应的义务,体现出一种类似于欧盟《GDPR》的“长臂管辖”的域外思路[8]。
在隐私保护方面,澳大利亚正着手推动《Privacy Act 1988》的改革,拟通过引入“儿童数据不可商用”原则以及设立《Children’s Online Privacy Code》,确立未成年人个人信息不得被用于广告定向或商业画像的规则[9]。这一方向与欧盟《GDPR》的儿童数据条款相呼应,体现了澳大利亚在与国际标准接轨的同时,更加强调“儿童优先”的监管价值取向。
在具体执法与平台整改方面已有若干实际案例。例如在eSafety Commissioner的压力下,TikTok澳大利亚推出“休息提醒”机制,定期提醒未成年用户暂停使用,以缓解沉迷问题;而Meta公司则因Instagram的广告定向涉及未成年人而受到调查,成为落实儿童隐私保护的典型案例[10]。
在此基础上,2024年11月澳大利亚国会正式通过《Online Safety Amendment (Social Media Minimum Age) Bill 2024》,明确禁止16岁以下未成年人使用社交媒体平台。这一修正案被视为对《Online Safety Act 2021》的补充和升级,其制度设计包括:赋予电子安全专员进一步的监督与执法权;要求平台采取“合理措施”防止未成年人注册,并设置高额罚款作为惩戒;同时为了平衡隐私保护和年龄识别的冲突,禁止平台以政府签发的身份证件作为强制验证方式[11]。
总体来看,澳大利亚的法律与监管机制呈现出强监管、儿童优先与案例驱动三大特征。这体现了澳大利亚政府一种刚柔并济的治理思路,用强立法和惩罚性规定强制平台遵守规则,又通过过渡期、规范和试点降低实施阻力,确保法律的平稳运行。
5. 我国未成年人社交媒体保护制度的完善路径
目前,我国未成年人网络保护制度主要采取内容治理与事后干预为基础的路径。《未成年人保护法》《网络安全法》《个人信息保护法》等法律已对平台内容审核、青少年模式设置和防沉迷系统提出要求,但总体仍以内容过滤、行为限制与监护责任提示为主。该模式在限制不良信息传播和保障基本安全方面发挥了积极作用,但在源头风险预防、平台前置责任、儿童数据特别保护等方面仍有优化空间。
与此同时,澳大利亚等国家通过“适龄设计”“事前防护义务”“专门监管机构与高额罚责”等模式推动系统化治理,逐渐形成以“儿童利益优先”为核心的数字政策方向。这种制度趋势表明,数字时代的未成年人保护更需要将“内容审核”与“架构性保护”结合,通过法律直接干预产品设计、算法逻辑与平台治理机制,实现从“事后安全”向“前置安全”转变。对我国而言,可在本土制度框架基础上,借鉴相关经验并逐步深化制度建设。
为更好应对算法沉迷与未成年人数字风险,我国可从以下几方面推进制度完善:
首先,应引入“社交沉迷预警系统”并设定法定上线时间上限。目前我国虽然已有“青少年模式”,但主要依赖平台自律,缺乏强制性要求。未来可通过立法明确规定社交平台必须设置自动化的沉迷监测与提醒机制,并对未成年人每日累计使用时间设定法定上限,以法律刚性提升制度可执行性[12]。具体而言,立法可要求平台设置自动化沉迷识别算法,对连续长时间使用、深夜使用、重复进入平台等行为自动触发预警,并强制实施“降刺激、限功能、锁时段”等干预措施。同时,可设置未成年人每日累计使用平台的法定上限(如40~60分钟),并要求平台采取技术手段确保不可绕过,以法律刚性提升制度的可执行性与问责力度。除此之外,为提高该建议的落地性,政府可对“社交沉迷预警系统”构建具体责任清单、操作路径与认定标准,使制度具备可落地性和可审查性。
其次,需要强化平台算法透明度,并建立“对未成年人默认限流”机制。社交平台应在法律要求下披露其推荐算法的基本逻辑,并对未成年人群体实施“限流默认值”,例如默认关闭个性化推送、推荐强度设限,只有在家长明确同意下才可调整。这一做法能够从源头上减少算法强化沉迷与消费冲动的风险[13]。
第三,建议明确平台的“数字监护义务”,实现责任前移与责任实化。目前中国法律多将监护责任主要归于家庭与学校,如《未成年人保护法》《家庭教育促进法》均强调家庭监护与学校教育的主导地位。然而在高度数字化的网络环境中,平台作为内容分发者与使用场景的组织者,与未成年人之间形成了事实上的“准监护关系”。具体而言,平台直接影响未成年人的接触内容、行为路径及风险暴露程度,因此理应承担更具体化、可审查的“数字监护”法律义务。
此外,立法应考虑将平台的抽象注意义务转化为可执行的前置合规要求。例如:在用户进入平台之前,应通过技术手段完成年龄识别。在内容推荐过程中,应设定适龄过滤机制。在风险行为出现前,应提供显性提示或自动阻断。并通过审计机制确保上述义务可被持续监督。这一模式可使平台责任从“事后补救”转向“事前预防”,从“原则性条文”转向“可量化标准”,从而提高监管的精确度和可问责性。
第四,应建立全国性的“未成年人社交平台执法协调机制”。目前中国未成年人网络保护涉及网信办、工信部、教育部等多个部门,存在职责分散、协调不足的潜在风险。可考虑设立由国家层面统一领导、各部门共同参与的执法协调机制,形成常态化的联合监管与信息共享,确保跨平台、跨地区案件得到快速高效的处理[14]。
最后,我国可借鉴澳大利亚做法,在《个人信息保护法》框架下制定儿童数据合规准则。例如,可以通过确立儿童数据“不得商业化使用”的原则,明确禁止其被用于定向广告、精准推送和画像建模,并辅以年龄核验、最小必要、默认高保护等前置性合规义务。该制度安排既能够与国际通行规则保持一致,也契合社会对于未成年人隐私保护和身心健康的核心关切。总体而言,我国未来的改革应当逐步从单一的“内容治理”转向更全面的“系统治理”,突出制度设计的前置性与平台的法定义务,同时在执行层面设立专门监管机构并推动跨部门协调,从而在数字时代为未成年人的权益提供更加稳固的法治保障。
NOTES
1https://digital.gmw.cn/2024-02/27/content_37168320.htm.