算法推荐中的消费者信息弱势地位及其法律救济
The Vulnerable Position of Consumers in Algorithmic Recommendations and Legal Remedies
摘要: 在数字经济的浪潮下,算法推荐技术已广泛应用于电商平台。平台凭借数据垄断和算法黑箱的优势,使消费者陷入“信息茧房”,消费者面临“大数据杀熟”、知情权与选择权受损等问题。本文通过分析消费者信息弱势的成因,包括技术与资本驱动的数据垄断、算法操纵,以及由此导致的消费者在算法决策中的被动地位。同时,探讨现行法律体系在应对算法推荐挑战时的不足,如规则模糊、救济乏力、技术治理困境等。针对这些问题,提出“赋权 + 共治”的双向救济体系,旨在通过法律赋权和技术治理,平衡平台与消费者之间的信息不对称和权力失衡。具体措施包括细化算法解释权、引入数据可携带权、要求平台备案核心算法、实施动态监测、利用隐私计算技术优化模型,以及开发算法透明度工具等。强调多元共治的重要性,鼓励消费者参与维权、推动平台自律与政策激励相结合。
Abstract: Under the wave of digital economy, algorithmic recommendation technology has been widely used in e-commerce platforms. Relying on the advantages of data monopoly and algorithmic black box, the platform has made consumers fall into an “information cocoon”, and consumers are faced with problems such as “big data killing”, and the right to know and the right to choose are impaired. This paper analyzes the causes of consumer information weakness, including data monopoly driven by technology and capital, algorithmic manipulation, and the resulting passive position of consumers in algorithmic decision-making. At the same time, this paper discusses the shortcomings of the current legal system in coping with the challenges of algorithmic recommendation, such as vague rules, lack of relief, and technical governance dilemmas. In view of these problems, a two-way relief system of “empowerment + co-governance” is proposed, which aims to balance the information asymmetry and power imbalance between platforms and consumers through legal empowerment and technical governance. Specific measures include refining the right to interpret algorithms, introducing the right to data portability, requiring platforms to record core algorithms, implementing dynamic monitoring, using privacy-preserving computing technology to optimize models, and developing algorithm transparency tools. It emphasizes the importance of pluralistic co-governance, encourages consumers to participate in rights protection, and promotes the combination of platform self-discipline and policy incentives.
文章引用:刘瑜. 算法推荐中的消费者信息弱势地位及其法律救济[J]. 电子商务评论, 2025, 14(5): 3124-3129. https://doi.org/10.12677/ecl.2025.1451625

1. 问题的提出

随着数字经济的发展,算法推荐技术的广泛应用改变了消费者的信息获取与决策的方式。电商平台依据消费者的浏览记录、购买历史,运用算法技术精准推送商品信息;社交媒体平台根据用户的兴趣偏好,过滤并推荐特定内容。然而,该技术应用在一定程度上加剧了消费者的信息弱势地位。平台企业凭借其对大数据的掌控,形成数据垄断,使得消费者只能接触平台筛选后的内容,陷入“信息茧房”,无法全面了解市场信息。算法的复杂性和不透明性导致消费者难以知晓其运行逻辑与决策依据,面临“黑箱定价”等问题,难以判断所获信息的真实性与公正性。“大数据杀熟”现象屡见不鲜,老用户反而遭遇高价;部分平台为提升商家形象,人为覆盖差评信息,损害消费者的知情权与选择权。

算法技术凭借强大的数据处理能力和自主学习机制,系统性地削弱消费者信息地位。平台通过收集海量用户数据,训练算法模型,精准预测消费者行为偏好,进而实现对信息的精准控制与操纵引导。消费者在算法构建的“信息茧房”中,接触的信息日益片面,被围困在平台设定的信息范围中,无法进行充分的市场比较和理性判断。同时,算法的不透明性使得消费者无法全面了解其决策过程,难以识别信息的真实性与公正性。在算法技术深度嵌入商业活动的背景下,法律应如何有效干预以矫正技术赋权失衡,是亟待解决的关键问题。

2. 消费者信息弱势的生成机制与法律基础

2.1. 消费者信息弱势的生成机制

在算法推荐场景下,消费者信息弱势地位由技术与资本驱动的数据垄断与算法操纵造成。尚未形成“万物互联”的社会结构中,消费者的信息来源取决于经营者的自觉披露,即使法律规定了强制披露的范围,但经营者在披露方式、披露内容上仍有自主决定的空间,消费者处于被动接受信息和被动消费状态。在信息占有上的普遍劣势。成为消费者群体的身份标识[1]。平台收集用户行为数据,形成“单向透明”的信息控制权,使消费者对自身数据流向和用途缺乏一定的知情权,导致数据权力结构性失衡。同时,算法技术本身具有中立性,受资本的逐利性影响其局限性更凸显。一方面,平台以“商业秘密”为由拒绝公开算法逻辑,加剧算法黑箱化,消费者以获取信息的局限性无法理解平台定价和推荐机制。另一方面,算法推荐系统通过“算法利维坦”效应,操纵消费者与网络服务提供者。“算法利维坦”是“利维坦”的智能技术形态,即在社会治理过程中算法逐渐成为建构人们生存环境的重要甚至决定性力量,人们逐渐成为算法的附庸,臣服于算法程序监控之下[2]。在网购下,算法推荐系统利用“算法利维坦”效应,强化网络购物平台的垄断地位,导致技术权力异化,使消费者与商家被算法规则牵制,主张合法权益的难度增加。

2.2. 消费者信息弱势的法律依据

现行法律体系虽为消费者信息弱势的救济提供了一定的基础,但仍需进一步完善。《消费者权益保护法》第8条1和第9条2明确了消费者的知情权与选择权,但未细化算法场景下的实施标准;《个人信息保护法》第24条3赋予了消费者拒绝仅通过自动化决策而作出交易决定的权利,实践中平台却常以“技术复杂性”为借口规避解释义务;北京市《网络交易平台经营者服务协议和交易规则合规指引》[3]要求平台明确告知算法推荐情况并提供关闭选项,但缺乏全国性统一标准。因此,目前消费者在算法技术面前处于结构性弱势的地位,需通过法律赋权打破平台数据垄断;加强“算法正义”原则,强调技术设计的公平性,例如欧盟《数字服务法案》要求平台公开算法逻辑并接受备案审查,分类分级确定数字服务提供商的义务,针对超大型网络平台作出对应的特殊规定,统一平台对非法内容和虚假信息传播控制的责任标准[4],为我国算法透明度立法提供了借鉴。

3. 算法推荐下消费者权益保护的现实困境

3.1. 法律规制不足

我国相关法律在算法推荐领域的规制存在明显不足,与欧盟《数字服务法案》(DSA)相比,立法空白尤为突出。《消费者权益保护法》保障消费者的知情权与选择权,但未明确“算法解释权”的具体操作标准。例如,消费者要求平台解释个性化定价逻辑时,平台提供的是一个概括的说明,不够详细明确,难以满足消费者实质性的知情需求。而欧盟DSA要求平台提高透明度,用户可质疑平台内容审核决定,并有权获取算法推荐和定向广告的透明信息。尽管《电子商务法》保障用户评价权,但未明晰平台算法操纵评价的法律责任,导致实践中平台通过算法折叠差评、提升虚假好评权重的行为层出不穷,缺乏直接性的法律性约束。反观欧盟DSA,其规定了平台在内容审核和算法推荐方面的透明度义务,用户可自主选择关闭算法推荐或改变参数排序,为我国立法提供了有效的借鉴。

消费者在遭遇算法相关侵害时面临举证成本高昂和诉讼动力不足的难题,救济方法单一。由于算法黑箱与数据垄断,消费者难以获取定价逻辑中原始数据,如复旦大学调研显示滴滴打车存在“老用户价格更高”现象[5],但个体消费者难以复现完整的证据链。欧盟DSA要求平台定期进行风险评估,并采取措施降低风险,这为消费者提供了更有力的保护。此外,根据南京法院数据,2024年网络消费纠纷案件中,仅29.11%通过诉前调解解决,多数消费者因维权成本过高而放弃诉讼[6]。因此我国应借鉴欧盟DSA的先进经验,尽快填补算法推荐领域的立法空白,明确算法解释权细则,加强平台责任,完善消费者救济机制。

3.2. 技术治理困境

算法技术的复杂性与平台的数据控制地位增加了治理难度。首先,算法黑箱问题日益突出,平台常以“商业秘密”为由拒绝公开算法逻辑,使消费者难以知悉计算方法背后的技术逻辑。例如,某外卖平台配送费用计算规则不透明,导致消费者无法理解相同距离订单费用差异显著的问题,侵犯消费者的公平交易权。虽然现行《互联网信息服务算法推荐管理规定》要求平台公示算法基本原理,但未强制公开核心参数,消费者仍处于“知情但不理解”的被动状态。深度学习模型的不可解释性是算法黑箱问题的技术根源之一。深度学习模型依赖于数据,在学习过程中模型可能会有意或无意的偏向某个群体或个人,从而导致模型中存在偏见[7]。这些模型从输入到输出的转换过程高度抽象,即使是开发者也难以彻底理解模型的具体决策过程。这种不可解释性使得监管机构和用户难以验证算法决策的合法性和合理性,增加了公众对算法的信任危机。其次,数据垄断固化问题日益严重。平台通过算法收集用户日常行为数据,形成“单向透明”,消费者无法迁移或操纵自身数据。例如,头部电商平台通过用户画像实施“一级价格歧视”,最大化攫取消费者剩余,而中小平台因数据资源匮乏难以竞争,形成“算法利维坦”。同时我国《个人信息保护法》尚未明确数据可携带权,导致消费者难以打破平台数据壁垒,进一步加剧了数据垄断。

3.3. 治理效能割裂

政策执行存在落地偏差。2024年“清朗·算法治理”专项行动要求平台增强透明度,但部分企业仅形式化公开非核心算法,实质性规则仍隐蔽操作[8]。例如,某短视频平台声称“优化推荐多样性”,实则通过隐性标签继续强化信息茧房。同时,某电商平台利用“暗标签”操纵推荐结果,优先展示与平台利益相关的商品,而非基于用户真实需求,进一步加剧了市场的不公平竞争。此外,用户协议的权利让渡、政府公权力的默许或授权以及技术先占中的自我赋权构成平台私权力扩张[9],平台自治权扩张形成“私权力”体系,使得平台在制定规则是缺乏外部监督机制。平台利用算法制定规则,如降低差评展示权重、竞价排名机制,使得消费者与商家均受制于平台规则。例如,某电商平台以“优化体验”为由折叠差评,消费者申诉时需自证评论真实性,陷入“自证困境”,其合法权益难以得到有效保护。这种政策执行与平台自治的失衡,导致治理效能割裂,影响了消费者权益的保护和市场的公平竞争。

4. 算法推荐下消费者权益保护的完善路径

4.1. 法律赋权的路径

现行《个人信息保护法》第24条虽赋予用户算法决策的知情权,但未明确解释的程度与形式。可借鉴《互联网信息服务算法推荐管理规定》第16条4,强调平台公示算法基本原理与权重参数,如差评展示的排序逻辑,避免以“商业秘密”为由逃避责任。《个人信息保护合规审计管理办法》明确了个人信息处理者的合规审计义务,规范了审计流程和专业机构管理,细化了审计重点,推动了个人信息保护合规水平的提升。其次建议增设并完善算法的可审计权,要求平台定期提交算法合规报告。可以参考欧盟《数字服务法案》(DSA)的“透明化清单”制度,要求平台针对关键算法,如定价、推荐排序,对消费者提供“可理解的解释”。例如,当用户遭遇“大数据杀熟”时,平台需提供拒绝价格差异的简要理由。欧盟《数字服务法案》(DSA)还规定了超大型平台进行风险管控的义务,包括对其风险管理措施进行独立审计。欧盟《通用数据保护条例》(GDPR)强调数据主体同意以知情为前提,依据该规定可以排除黑暗模式下平台经营者利用算法消费者认知偏误所取得同意的有效性[10],允许用户迁移个人数据至其他平台,但我国《个人信息保护法》尚未明确规定。还可以在电商领域试点数据可携带权,允许消费者导出行为数据,打破平台数据垄断格局。比如用户可以将淘宝购物数据迁移至京东,促进平台间竞争,减少信息不对称。

4.2. 技术治理的机制

通过技术制衡,引入“联邦学习”技术打破数据垄断,推动跨平台数据协作。联邦学习通过在本地设备上进行模型训练,仅将模型的更新参数进行聚合,从而避免了集中式数据存储和传输[11]。在允许各参与方在不共享原始数据的前提下,通过安全交换模型参数更新进行协同建模,从而在保障数据隐私的同时实现多方数据价值的联合挖掘。针对算法黑箱问题,可要求平台向监管部门备案核心算法模型,并引入第三方技术机构进行合规性审计。借鉴欧盟《数字市场法》的“守门人”制度,整合数字单一市场,以化解监管碎片化趋势[12]。对头部电商平台进行算法实施动态监测,确保其满足公平性原则的要求。同时,利用隐私计算技术实现“数据可用不可见”,在保护用户隐私的前提下优化算法模型。例如,蚂蚁集团通过隐私计算分析用户消费行为[13],既避免数据泄露风险,又提升服务精准度。同时,开发算法透明度可视化插件,帮助消费者识别算法操纵行为。比如利用价格波动追踪器以实时显示商品历史价格曲线,揭露“虚构原价”等虚假促销;推荐真实性评分以基于区块链技术验证评价是否为真实用户撰写,识别“刷好评”行为,帮助消费者识别有效信息。

4.3. 多元共治的框架

多元共治是应对算法治理复杂问题的有效模式,能够充分发挥政府、平台和用户等多方主体的协同作用。政府负责制定规则和监督执行,提供政策支持和法律保障;平台作为技术开发者和应用者,掌握算法运行的核心技术和数据资源,是治理的关键环节;用户作为直接受益者和受害者,其反馈对改进算法设计和服务质量至关重要。因此,构建“政府–平台–用户”三元共治框架,明确各方权责,是实现算法治理的重要路径。成立由技术专家、法律学者、消费者代表组成的“算法伦理审查委员会”,对平台算法进行伦理评估。北京数字经济与数字治理法治研究会提出的“算法透明度与数据互操作性”原则[14],可参考作为审查标准。同时,鼓励消费者通过集体诉讼与公益诉讼维护权益。2024年国家金融监督管理总局推动的“金融消费者保护服务平台”,允许用户一键提交算法侵权证据,联动监管部门快速响应。可借鉴“可信时间戳”电子证据服务,减少用户举证成本,提升维权效率。对主动公开算法逻辑、建立用户申诉通道的平台,给予政策倾斜。例如,某外卖平台推出“算法透明周报”,公示配送费计算规则与差评处理流程[15],获得市场监管部门表彰。

5. 结语

算法推荐技术在为消费者提供个性化服务的同时,加剧消费者的信息弱势地位,导致其在交易中面临诸多不平等的问题。通过“权利扩张 + 技术制衡”,能够有效重塑公平交易环境,保障消费者合法权益。未来,随着生成式AI等新技术的快速发展,消费者权益保护将迎来新的挑战与机遇。应持续关注新技术对消费者权益的影响,推动相关法律体系不断完善,将算法问责等条款纳入其中,以适应飞速发展的数字环境,为消费者创造更加公平、透明、安全的消费生态。

NOTES

1《消费者权益保护法》第八条:消费者享有知悉其购买、使用的商品或者接受的服务的真实情况的权利。

消费者有权根据商品或者服务的不同情况,要求经营者提供商品的价格、产地、生产者、用途、性能、规格、等级、主要成份、生产日期、有效期限、检验合格证明、使用方法说明书、售后服务,或者服务的内容、规格、费用等有关情况。

2《消费者权益保护法》第九条:消费者享有自主选择商品或者服务的权利。

消费者有权自主选择提供商品或者服务的经营者,自主选择商品品种或者服务方式,自主决定购买或者不购买任何一种商品、接受或者不接受任何一项服务。

消费者在自主选择商品或者服务时,有权进行比较、鉴别和挑选。

3《个人信息保护法》第二十四条:个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。

通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。

通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

4《互联网信息服务算法推荐管理规定》第十六条:算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。

参考文献

[1] 陈婉玲, 胡莹莹. 场景消费时代我国消费者保护法的功能拓展——从弱者倾斜保护到能力提升激励[J]. 浙江社会科学, 2022(10): 64-73.
[2] 张爱军. “算法利维坦”的风险及其规制[J]. 探索与争鸣, 2021(1): 95-102.
[3] 北京市市场监督管理局. 《网络交易平台经营者服务协议与交易规则、信息公示与披露、禁限售商品管理等系列合规指引的公告》[EB/OL].
https://scjgj.beijing.gov.cn/zwxx/2024zcwj/202502/t20250213_4009331.html, 2025-02-11.
[4] 陈珍妮. 欧盟《数字服务法案》探析及对我国的启示[J]. 知识产权, 2022(6): 110-126.
[5] 孙金云. 复旦教授打车800余次发现手机越贵打车越贵, 记者测试了一下[EB/OL].
https://www.163.com/dy/article/G485S6L90530SBFB.html, 2025-03-04.
[6] 腾讯新闻. 2024年南京法院新收涉消费者权益保护纠纷一审案件6662件, 同比下降1.77% [EB/OL].
https://news.qq.com/rain/a/20250314A08ILG00, 2025-03-04.
[7] 王昱颖, 张敏, 杨晶然, 等. 深度学习模型中的公平性研究[J]. 软件学报, 2023, 34(9): 4037-4055.
[8] 中央网络安全和信息化委员会办公室秘书局等四部门, 北京市网络舆情和举报中心. 关于开展“清朗·网络平台算法典型问题治理”专项行动的通知[EB/OL].
https://www.bjjubao.org.cn/2024-11/25/content_46395.html, 2024-11-25.
[9] 马治国, 占妮. 数字社会背景下超级平台私权力的法律规制[J]. 北京工业大学学报(社会科学版), 2023, 23(2): 115-131.
[10] 刘颖, 刘佳璇. 数字经济中黑暗模式的法律规制: 基本原理、域外方案与本土路径[J]. 上海财经大学学报(哲学社会科学版), 2024, 26(5): 122-138.
[11] 何泽平, 许建, 戴华, 等. 联邦学习应用技术研究综述[J]. 信息网络安全, 2024(12): 1831-1844.
[12] 陈菲, 蒲文杰. 《数字市场法》: 欧盟规制数字“守门人”的制度路径[J]. 欧洲研究, 2024, 42(1): 23-56.
[13] 周靖人. 面向开放智能, 蚂蚁集团揭秘隐私计算框架[EB/OL].
https://m.thepaper.cn/baijiahao_13867757, 2021-07-08.
[14] 吴泽南. 完善数字经济监管体系 规范算法定价秩序[EB/OL].
https://m.thepaper.cn/baijiahao_30432553, 2025-03-18.
[15] 饿了么成立即时配送算法专家委员会 持续全局优化算法[EB/OL].
https://baijiahao.baidu.com/s?id=1825898447823812397&wfr=spider&for=pc, 2025-03-06.