1. 引言
在数字经济时代,以机器学习为核心的算法推荐机制已取代了传统的人工编辑的推送模式,成为短视频、电商平台等信息呈现的主导力量。这种技术通过对海量用户数据的捕捉和分析,能够建立起精准的兴趣模型,从而进行高度个性化的信息推送,在提升用户体验、有效解决“信息过载”困境的同时,也极大地提高了平台获取商业利润的效率。然而,这种基于“投其所好”的效率逻辑,其另一面却是用户被困于同质化信息的圈层,即“信息茧房”(Information Cocoons)效应的不断加剧。信息茧房不仅是传播学上的一个现象,更是一个重大的法学难题。它潜移默化地固化了用户的认知结构,削弱了公民接触多元观点的机会以及进行批判性思维的基础,对个体自主性、公共理性乃至社会民主机制构成了隐性威胁,迫切需要法律机制的介入与规制。这种规制,不仅是对个人私权的维护,更是对数字社会信息生态和公共秩序的维护。本文立足中国本土法治实践,借鉴中国《个人信息保护法》(2021年)和《互联网信息服务算法推荐管理规定》(2022年)等立法实践,旨在为算法规制提供更具操作性的理论框架[1] [2]。
2. “信息茧房”的定义与法学定位
2.1. “信息茧房”的定义与危害
根据美国学者桑斯坦在《信息乌托邦:众人如何生产知识》中的论述,“信息茧房”(Information Cocoons)指的是:公众在获取信息时,其需求往往受自身兴趣引导,这导致他们的认知和生活如同作茧自缚般,被禁锢在一个单一、封闭的信息世界里[3]。在桑斯坦看来,人们之所以会陷入信息茧房,是因为对信息进行了选择与“过滤”。算法通过对用户兴趣的反复强化和对不符偏好的信息进行排除,最终导致个体信息接收的窄化和极化[4]。
然而,在法学视角下,其核心危害在于算法的非中立性和对用户隐性干预的常态化。算法并非中立的技术工具,而是服从于平台商业利益最大化目标的筛选器,这种逐利性使得信息过滤机制失去了应有的客观性与公平性,法律必须认识到这种技术手段对公民权利的深层渗透。举例而言,在抖音平台上,若一位用户持续接收到特定政治观点的短视频推送,而对立观点被算法系统性排除,这不仅扭曲用户对社会事件的判断,还可能强化极端化认知,影响民主参与。在电商场景如淘宝中,潜在投资者持续接收到鼓吹某一新兴行业高回报的片面内容,而风险提示信息被过滤,其投资决策便可能建立于严重失真的认知基础之上,直接侵害其合法财产权益。这种危害在短视频平台上强度更高,因为其碎片化内容更易强化即时偏好,而在电商平台上则更侧重经济权益侵蚀。传播学研究表明,这种效应已导致社会极化加剧,削弱公共讨论空间。
2.2. “信息茧房”的法学定位
本文将“信息茧房”定位为两种性质的结合,以确立其规制的法理基础。首先,它是一种新型的社会风险与信息市场失灵。算法并非完全中立,平台基于商业利益而非公共利益来设计算法目标,导致用户无法获取信息市场应有的广度和多样性。这种对信息市场竞争机制的架空,使得用户在信息获取上处于被动和劣势地位。这种失灵本质上是一种认知上的不公平,即公民的信息公平权受到损害[5] [6]。法律规制应着眼于纠正这种市场失灵,恢复信息生态的多样性。
其次,它体现了平台对用户自主权的潜在侵犯,具有典型的私权力特征。大型互联网平台通过算法掌握了对用户信息的塑造能力,这种基于数据和技术形成的支配力,使得平台拥有了事实上的“信息支配权”。这种支配权已超出了传统的民事权利范畴,而具有了需要被法律规制的私权力属性[7]。
3. “信息茧房”现象侵犯的法律权益及理论归因
3.1. “信息茧房”现象侵犯的法律权益
“信息茧房”对用户权益的侵犯具有隐蔽性和结构性,是对公民基本权利和民事权利的隐性削弱,其危害性不容忽视[8]。在传统的消费法领域,知情权要求经营者公开商品或服务的性质、价格等关键信息(《消费者权益保护法》第8条)。在算法语境下,用户作为信息消费者,其知情权应延伸至对信息的筛选机制。然而,现行权益的适用性有限:知情权虽可适用于算法披露,但缺乏具体操作规范,导致平台如微信朋友圈推送中,用户无法知悉过滤规则,难以主张权利[9]。选择权的局限性在于,用户虽可“关闭推荐”,但平台往往设置复杂路径,变相阻碍行使[10]。
3.2. “信息茧房”现象的理论归因
“信息茧房”难以规制的深层理论原因,在于算法和平台的特殊属性所导致的问责体系失灵和权力规制真空。
3.2.1. 算法的“不透明性”(黑箱)对归责体系的挑战
算法的复杂性和商业保密性使其成为难以穿透的“黑箱”。这种不透明性对法律的归责体系构成了严峻挑战。首先,侵权责任难以追究。在缺乏算法逻辑披露的情况下,用户难以证明其所受的损害(如认知固化、信息不公)与平台特定的算法设计存在直接的因果关系,这使得受害者在民事侵权法框架下几乎无法完成举证责任。其次,法律监督困难。监管机构难以对算法的公正性、合规性和社会风险进行有效审查,传统的事后监管模式在此失效。因此,法律必须从传统的结果导向(发生损害后进行救济)转向过程规制(在算法运行中进行干预),才能实现有效的法律治理[11]。
3.2.2. 平台的“准公共权力”属性与公法理论的介入
大型平台已超越传统企业的范畴,其信息分发和连接能力使其拥有对社会资源的支配性权力,即“平台权力”[7]。这种权力具有技术优势、数据垄断和资本驱动的特点,使得平台行为具有典型的外部性。因此,平台作为具有社会公共服务属性的优势主体,其权力应当借鉴公法理论的约束机制。公法理论介入的理由在于:平台权力已膨胀至足以影响社会基本秩序和公民基本权利的程度,必须将其行为纳入公法理论的审视范围。对“信息茧房”的规制,正是公法理论介入规制数字私权力、保障数字公民权利的体现,要求平台在行使权力时,必须遵循正当程序原则和比例原则。在本土语境下,中国学者将平台权力界定为“准公共权力”,认为腾讯、字节跳动等头部平台已具备社会基础设施属性,其权力虽源于私主体,却因垄断数据资源、深度塑造公共话语而具有显著公共性,需纳入公法约束。其核心依据在于平台的双重身份:既是市场竞争主体,又是事实上的公共服务提供者;算法推荐机制在提升商业效率的同时,主导信息流动、侵蚀个体自主性并放大社会分化,易导致信息茧房与认知极化[12]-[15]。
4. “信息茧房”现象法律规制的理论路径与制度构建
法律规制的目标并非“消灭”算法技术,而是要实现“算法的公正性”和“个人的可控性”,最终为数字时代的平台权力设置合法性边界,构建一个风险–责任协同的治理模式[4]。
4.1. 法律规制的理论路径
4.1.1. “算法可解释性”原则的引入与分层要求
为有效规制算法权力,必须在法学理论上确立算法可解释性原则。可解释性是打破“算法黑箱”、实现有效问责的首要前提。这并非要求平台公开核心算法代码(这涉及商业秘密保护),而是一种强制性的信息披露义务,其要求应采取分层形式:
首先,面向用户的可解释性(结果解释)。平台应以清晰易懂的方式,告知用户特定推荐结果的主要影响因素和个性化程度,使用户了解其信息环境是如何被塑造的,从而恢复用户的程序性知情权。例如,平台应提示用户此内容推送是基于“您最近的浏览记录和相似用户的购买行为”等因素。
其次,面向监管者的可解释性(机制解释)。平台应向监管机构提供算法的设计目标、数据源、关键参数和风险控制机制的详细说明,便于监管机构进行技术审计和合规性审查。可解释性原则的引入,是对传统技术中立论的理论反驳,也是实现算法问责和保障用户知情权在数字时代得以落实的关键。
4.1.2. “算法公正性”的价值重塑与法律嵌入
“算法公正性”应成为算法设计的内在伦理要求和强制性法律义务,其具体内涵包括中立性(避免偏见)、平等性(保护弱势群体)和透明性(披露逻辑)。法律应要求平台在算法设计时,将公共利益和用户多元信息获取的价值目标纳入其中,防止算法的偏见和歧视,例如“大数据杀熟”或排斥特定观点的行为。现行权益如平等权(《宪法》第33条)的适用性在于可追究歧视,但局限在于证明难度,故需嵌入算法影响评估。
为此,应确立“设计公正原则”。这要求平台在算法投入运行之前,就必须进行算法影响评估,证明算法在技术设计上能够最大限度地遵循中立、平等和透明的价值取向,尤其要对少数意见和社会弱势群体的权利给予程序性保障。只有将公正性作为强制性法律义务嵌入设计流程,才能从源头上约束算法的逐利本能,确保算法技术服从于社会公正的价值。与美国《算法责任法案》(草案)比较,本土路径可强调国家网信办的审查机制。
4.2. 法律规制的制度构建
4.2.1. “信息均衡”义务的构建与理论基础
针对信息茧房对公共讨论空间的损害,可借鉴媒体法中的公共服务义务与信息多元化原则,要求平台承担“信息均衡义务”[5]。该义务旨在矫正商业逻辑导致的信息失衡,确保用户接触多元观点。其核心要求是强制平台维持内容多样性,主要路径包括算法调整(强制插入异质信息)、定期第三方审计及多样性指标披露。实施虽可能降低商业效率,但符合比例原则,且与德国《网络执行法》中的内容多样化要求相类似,具有较强的域外可借鉴性。
首先,设置非个性化入口是基础保障。法律应强制要求平台在显著位置提供“关闭个性化推荐”或“非定向推荐”的选项,保障用户的信息主权。这种选项应易于查找和操作,不得以复杂程序阻碍用户的选择。
其次,平台应承担促进信息多样性的最低限度反哺义务。理论上要求平台通过机制设计(如随机推送、定期推送“反向”或“非热点”信息),确保用户能接触到一定比例的异质性信息。这不仅是履行信息公平的义务,也是维护数字公共领域健康发展的必要理论措施,对抗认知固化。
4.2.2. 用户“反向推荐权”与“算法干预权”的赋予
为实现用户对信息环境的真实可控性,必须赋予其新型程序性数字权利,以直接制衡平台私权力。该权利的核心在于将选择主动权交还个体,主要包括两项具体制度设计:
首先,强化“退出权”的实质保障。用户有权随时、一键关闭个性化推荐,切换至非个性化信息流;平台不得以降低服务质量、限制功能等方式惩罚或变相阻碍。
其次,创设“反向推荐权”(或称“算法干预权”)。用户可主动要求平台调整推荐偏好(如“增加严肃新闻”“减少娱乐内容”),或就单次推荐提出异议并获得快速人工复核。该权利弥补了算法单向赋权的结构性失衡,与欧盟《通用数据保护条例》数据可移植权、可解释权形成呼应,具有较强的本土化可操作性。虽可能增加平台合规成本,但通过设置合理申诉阈值与滥用惩戒机制即可有效防控风险,符合比例原则。
5. 结论
算法推荐导致的“信息茧房”,本质上是平台私权力失控所引发的新型认知风险与权利侵蚀,构成数字时代对法治与社会公正的重大挑战。破解这一难题,需实现从“事后侵权救济”到“事前过程规制”的范式转换,将“信息茧房”定性为信息市场失灵与私权力滥用的共同产物,为公权力正当介入提供法理依据。这不仅是法律对技术的被动应对,更是主动塑造公正信息秩序、维护人的主体性的必然要求。
本文提出的以“算法可解释性与公正性”为核心、以“信息均衡义务”和“反向推荐权”为支柱的规制框架,旨在将算法黑箱变为可审查的透明盒子,使公民从被动的信息消费者转变为信息环境的能动参与者,重申其认知自主与信息公平的宪法地位,同时防范公共讨论空间极化。
这一框架的意义超越“信息茧房”本身。它直接关乎数字法治社会的根基:健康的信息生态是公民理性、公共审议与社会共识的前提。放任算法权力无序扩张,终将导致个体权利受损与民主机制退化,对平台算法权力的有效规制,已成为数字文明时代法治的奠基工程与必须完成的历史使命。