1. 引言
在人工智能技术与互联网深度融合的发展背景下,AI推荐算法已成为电商平台的核心运行机制,我国淘宝、拼多多、抖音等主流电商平台均广泛应用该技术。AI推荐算法通过分析用户浏览记录、购买历史、地理位置、社交关系等多维数据精准构建用户画像,依托机器学习模型实现商品与服务的个性化推送,其中协同过滤、基于内容推荐等经典算法凭借强大的数据处理与模式识别能力,能够精准捕捉并引导用户消费偏好[1]。根据中国互联网络信息中心(CNNIC)第56次《中国互联网络发展状况统计报告》显示,截至2025年6月,我国网络购物用户规模达9.76亿人,占网民整体的86.9% [2]。在此背景下,AI推荐算法已从单纯的后台技术工具,转变为影响电商平台运营与用户消费决策的重要机制,助力电商平台在市场竞争中形成流量优势。
然而,当AI推荐算法被过度商业化,其优化目标从提升效率、满足用户真实需求逐渐异化为最大化平台利润,由此催生了诸多用户权益侵害乱象:“算法黑箱”导致信息不透明,“信息茧房”限制用户自主选择权,“大数据杀熟”损害消费者的公平交易权,个人信息被过度采集与滥用等等。这些乱象不仅直接侵害用户的合法权益,还对市场公平竞争秩序、网络信息服务环境造成负面影响,2024年11月,国家网信办等四部门联合开展“清朗·网络平台算法典型问题治理”专项行动,针对算法侵害用户合法权益的突出问题开展整治,彰显了算法治理的紧迫性与重要性[3]。面对技术发展带来的新型治理挑战,传统法律规制范式的适配性不足,因此,如何在激发算法技术创新力的同时,有效防范其对用户权益的侵害,构建一套契合数字时代特征的法律规制体系,已成为法学理论界与实务界亟待解决的重要课题。
2. AI推荐算法对用户权益的多维侵害
2.1. 侵害用户隐私权
AI推荐算法的运行以海量用户数据为基础,个人偏好、消费习惯、浏览记录等相关的数据,而个人偏好数据往往与个人隐私密切相关,若平台未经合法授权搜集、使用此类数据,将构成对个人隐私权的侵害。目前,电商平台AI推荐算法对用户隐私权的侵害主要有两个方面,一是过度采集用户个人信息。平台通过APP权限申请、隐性跟踪等方式,不仅采集用户的姓名、手机号等基本信息,还大量采集用户的浏览记录、停留时长、地理位置、设备信息等敏感信息。部分平台甚至在未获得用户明确授权的情况下,采集用户的社交关系数据与消费记录,超出了实现算法推荐功能所必需的范围。二是滥用用户个人信息,平台将采集的用户个人信息用于算法训练与精准推送的同时,还存在向第三方泄露、非法出售用户个人信息的行为,导致用户遭受垃圾短信、骚扰电话的困扰,甚至面临电信网络诈骗的风险[4]。
可见,传统隐私权保护框架在算法时代面临着巨大的挑战。如果对电商平台收集用户信息的行为不加以限制,AI推荐算法将为信息监控提供便利,甚至成为大规模远程监控的工具[5],让用户个人隐私空间的边界不断缩小,用户隐私权难以得到有效保障。
2.2. 侵害用户自主决定权
AI推荐算法正潜移默化地影响用户的选择自由,接受AI算法推荐意味着让渡对个体自主性、获取和处理信息的自我决定权,代表着接受AI推荐算法替个人决策“看什么和不看什么”,“多看什么少看什么”[6],这干扰了用户意思自主的形成,妨碍了用户的自主决定。AI推荐算法基于历史行为不断强化同类推荐,使用户陷入“回音室效应”,难以接触多元商品,用户看似拥有海量选择,实则被限制在算法划定的范围中,最终做出的选择并非出自其内心的真实意思。甚至部分电商APP打开后,会自动弹出弹窗广告,用户无法关闭或需要繁琐的操作才能关闭,这类强制推送与诱导消费的行为,也严重侵害了用户的自主选择权。
《互联网信息服务算法推荐管理规定》第17条规定,平台应当向用户提供关闭算法推荐服务的选项或不针对其个人特征的选项。但事实上,依然有大部分电商平台的关闭AI推荐功能与其他算法选项层层内嵌,用户难以找到并关闭,即使成功关闭推荐服务,平台的热搜榜单、搜索结果等仍存在“千人千面”的现象,用户无法获得客观、统一的信息内容。
2.3. 侵害用户知情权
知情权指知悉、获取信息的自由与权利,包括对所征集的个人信息及基于这些信息加工的征信产品享有知情权[7]。根据《互联网信息服务算法推荐管理规定》第16条规定,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并公示算法的基本原理、目的意图和主要运行机制。但实践中,多数平台未充分履行告知义务,仅在用户协议中以模糊、晦涩的语言提及算法推荐,用户难以知晓算法的具体运行规则与数据使用方式。
AI推荐算法对知情权的威胁一方面体现在算法推送形成的信息壁垒导致用户信息获取范围窄化,用户难以接触到算法推荐范围外的商品与服务信息,无法全面知悉市场整体情况;另一方面体现在个人信息在用户不知晓的状态被采集和使用和“技术黑箱”的部分不可知上。AI推荐算法加工和选择机制并不完全被普通的平台用户所熟知,其如何过滤和排序信息对绝大部分用户而言是一个“技术黑箱”[8],这造成传播地位的严重不对等,有些甚至对“算法推荐”的存在也浑然不知。
2.4. 侵害用户公平交易权
AI推荐算法会生成针对特殊个体的个性化规则,这种规则会突破一般的法律秩序,产生“马太效应”,进而侵害个体的平等权,应当引起学界的关注[6]。平台的AI算法推荐通过分析用户画像实现精准推送,但其数据采集与模型训练过程中常隐含系统性偏见。对不同用户实施差异化的交易待遇,侵害了用户的公平交易权。
AI推荐算法对用户公平交易权的侵害主要体现在算法歧视上,包含着对不同消费群体的不同歧视。基于历史消费数据的“马太效应”会导致算法向高消费群体倾斜优质资源,而对低频用户实施隐性歧视。2025年《电商平台商品推荐算法行业市场发展现状及前景趋势》报告指出,超60%的社交电商平台存在基于用户消费能力的分级定价现象,同类商品对不同消费能力用户的推荐价格差异可达20%~30% [9]。这种差异化定价策略虽被平台解释为“动态营销”,实则构成对低收入群体的经济排斥。更严重的是,AI推荐算法可能基于性别、地域等敏感属性进行歧视性推荐。例如通过分析用户地理位置,向三四线城市用户推送高价低质商品,而一线城市用户则优先获得品牌正品推荐[10]。此类行为不仅违反《个人信息保护法》第24条“禁止自动化决策歧视”的规定,还加剧了城乡消费权益的分化。此外,还存在对消费能力强、价格敏感度低的用户的歧视,具体表现为老用户、高消费群体反而会支付更高的价格,2021年携程平台就被曝光存在“大数据杀熟”的行为,同一酒店房间,老用户登录显示的价格比新用户高出几十甚至上百元。这些算法歧视现象形成的同时,不仅严重侵害了用户的公平交易权,还可能加剧社会不公,引发社会矛盾。
3. 不同类型AI推荐算法的法律归责差异
AI推荐算法是基于大数据技术、人工智能技术,通过收集、分析用户的个人信息、消费行为、浏览记录等数据,挖掘用户消费需求,向用户推送符合其偏好的商品、服务或信息的算法模型。AI推荐算法的核心类型主要包括基于内容的推荐算法、协同过滤推荐算法、混合推荐算法三种不同类型的AI推荐算法,其技术原理、数据依赖、运行逻辑存在显著差异,这种差异直接导致其侵害用户权益的方式、程度及法律归责存在不同,因此,明确区分电商平台AI推荐算法的核心类型,分析其运行机制与法律归责差异,是实现精准法律规制的前提。
3.1. 基于内容的推荐算法
基于内容的推荐算法以物品本身为核心,其核心逻辑是通过解析物品的内容特征,如文本关键词、视频标签、商品属性等,与用户过往的点击、收藏等历史偏好进行同类匹配,实现“用户喜欢什么就推送什么”的精准匹配。这种算法的数据依赖度较低,主要依赖商品自身的内容特征和用户的历史消费、浏览记录,无需收集大量用户个人隐私信息;且推荐逻辑相对简单,可解释性较强,用户能够大致理解算法推送的依据[11];基于内容的推荐算法针对性较强,能够精准匹配用户的具体偏好,但存在“同质化推送”的缺陷,容易导致用户视野受限。
因此,这种算法隐私泄露风险较低,其可能引发的权益侵害主要表现为同质化推送导致的用户知情权受限、推送虚假信息来诱导消费等等。在法律归责方面,由于算法可解释性强,因果关系容易认定,若发生权益侵害行为,平台能够明确说明推荐依据,因此,平台的过错主要表现为未尽到合理的审核义务,归责原则主要适用过错责任原则,即用户需举证证明平台存在过错,才能要求平台承担侵权责任。
3.2. 协同过滤推荐算法
协同过滤推荐算法是当前电商平台应用最广泛、最核心的推荐算法,其核心假设是“具有相似行为的用户会喜欢相似的内容”、“喜欢某类内容的用户也会喜欢相关联的内容”。算法通过分析大量用户的消费行为、偏好数据,找到与目标用户偏好相似的用户,将该用户喜欢但目标用户未接触过的商品或服务,推荐给目标用户;同时,也会基于商品的被浏览、购买频率,将热门商品推荐给有相似偏好的用户。该算法又可分为基于用户的协同过滤、基于物品的协同过滤两种类型,其中基于物品的协同过滤在电商平台中应用更为广泛,如淘宝的“猜你喜欢”、京东的“为你推荐”等功能[12]。
协调过滤推荐算法数据依赖广泛且可解释性弱,推荐结果由群体行为数据的关联分析决定,因果链模糊,呈现“黑箱”特征,平台难以清晰说明推荐结果的具体成因,无法直接干预单个推荐结果的生成,仅能通过调整算法参数间接影响推荐效果。因此用户隐私泄露、算法歧视的风险也较高,其权益侵害行为的隐蔽性较强,用户难以知晓侵害行为的发生及具体原因。在法律归责方面,由于算法黑箱导致因果关系认定困难,用户难以举证证明平台存在过错,若适用过错责任原则,会导致用户维权困难,因此,应适用过错推定责任原则,即推定平台存在过错,平台需举证证明其已履行合理的注意义务,否则需承担侵权责任。
3.3. 混合推荐算法
混合推荐算法是结合基于内容的推荐算法与协同过滤推荐算法的优势,融合两种或多种算法的运行逻辑形成的推荐算法。其核心原理是通过整合不同算法的优点,弥补单一算法的缺陷,提升推荐的准确性与多样性。该类型算法技术复杂度高,算法黑箱特性更为突出,解释难度更大;数据依赖度较高,既需要收集商品内容特征数据,也需要收集大量用户行为数据,隐私泄露与算法歧视的风险并存;但是推荐效果最优,能够兼顾精准性与多样性。
混合推荐算法侵害行为往往具有综合性,如同时存在隐私泄露与算法歧视,因果关系认定难度最大。平台还需同时履行两种算法的注意义务:一方面,需对内容特征进行主动审查,防范违法违规内容传播;另一方面,需对群体用户数据尽到安全保障义务,履行“通知–删除”机制。在法律归责方面,应适用无过错责任原则,即无论平台是否存在过错,只要其算法应用行为导致用户权益受到侵害,就应承担侵权责任,但平台能够证明侵害行为是由用户自身过错、不可抗力等原因造成的,可减轻或免除责任。这种归责原则能够最大限度地保护用户权益,使平台规范算法的应用。
4. 电商平台AI推荐算法的规制困境及完善路径
AI算法推荐技术在给人们带来效益的同时,也对用户的权益造成了侵害,因此亟需法律对算法导致的权益侵害进行必要的干预与规制,使其在法治的框架内运行。全球范围内,一些国家和国际组织纷纷立法以引导AI推荐算法的良性使用。例如,欧盟出台《一般数据保护条例》(GDPR),赋予公民个体数据权利以对抗算法滥用。美国公布的《算法问责法》草案通过对算法使用者进行问责的方式以规制算法的应用。我国对AI推荐算法的法律规制则采取“行业立法 + 技术标准”的双轨制模式,针对具体应用场景出台专项法规[13]。例如,2022年实施的《互联网信息服务算法推荐管理规定》明确要求平台公示算法基本原理、提供关闭推荐选项,并禁止利用算法诱导沉迷消费。2023年发布的《生成式人工智能服务管理暂行办法》则聚焦AIGC技术,要求生成内容需标识并建立安全评估机制。但这些规定的相关条款过于原则,缺乏可操作性,虽有涉及推荐算法的规定,但未触碰到AI推荐算法的核心。
4.1. 法律规范存在空白与模糊地带
尽管我国已出台一系列与算法治理、个人信息保护相关的法律法规,但针对电商平台AI推荐算法的技术特征与应用场景特殊性,法律规范仍存在诸多空白与模糊地带。首先是算法透明度与可解释性的规范不明确,《互联网信息服务算法推荐管理规定》要求平台公示算法的基本原理与运行机制,但未明确公示的具体标准与范围,导致实践中平台的公示内容流于形式,用户难以真正了解AI推荐算法的决策逻辑。其次是“大数据杀熟”的认定标准不清晰,现行法律虽禁止“大数据杀熟”,但对于如何界定“不合理的差别待遇”,缺乏具体的判断标准,导致司法实践中难以认定平台的行为是否构成“大数据杀熟”[14]。最后,从当前我国的法律规范来看,个人数据权并未被独立界定[4]。当前,法律规范更多地聚焦于通过行政手段对个人信息进行保护,而鲜有直接针对数据本身的详尽条款。在学术探讨中,对待数据的处理上也与信息别无二致。这种等同化处理使得数据面临法律调整的灰色地带[15]。
面对这一困境,立法机关应当尽快填补立法规范空白,明确规制标准。首先立法机关应在《互联网信息服务算法推荐管理规定》的基础上,细化算法透明度与可解释性规则,结合协同过滤、基于内容的推荐等不同类型推荐算法的技术特征,明确平台公示算法信息的具体标准、范围、形式与更新机制,要求平台开发并采用能够提供清晰决策解释的算法模型,并以通俗易懂的方式,向用户解释算法决策的依据、过程与结果。平台应建立分级分类的披露标准,根据算法的风险等级、影响范围,确定不同的公示要求,实现精准规制。具体可将电商平台AI推荐算法分为高风险、中风险、低风险三个等级,高风险算法主要包括涉及用户重大权益的算法,如差异化定价算法、信用评价推荐算法、消费信贷推荐算法等,此类算法直接影响用户的财产安全、消费权益,应采用全面披露标准,不仅需要公示算法的核心运行信息、决策逻辑,还需公示算法的风险提示、异议处理方式,同时接受监管机构的重点监管,定期提交算法合规报告;中风险算法主要包括普通商品推荐算法、优惠券推荐算法等,此类算法对用户权益的影响相对有限,应采用中等披露标准,公示算法的基本原理、数据来源、推荐逻辑等核心信息,保障用户的基本知情权;低风险算法主要包括辅助性推荐算法,如商品分类推荐、热门商品展示算法等,此类算法风险较低,可采用简化披露标准,仅公示算法的基本功能与运行原则,降低平台合规成本。其次,应明确“大数据杀熟”的认定标准与法律责任,将“基于用户画像的不合理差别待遇”界定为“大数据杀熟”的核心构成要件,明确“不合理差别待遇”的判断标准,如是否基于成本差异、是否具有正当商业理由等。
4.2. 平台主体责任落实不到位
电商平台作为算法推荐的运行主体,其主体责任落实不到位是算法侵害用户权益问题频发的重要原因。尤其值得注意的是,大部分电商平台存在选择性履行义务,往往在商业利益驱动下倾向于规避实质性合规的问题。
为了规范算法平台对用户个人信息及数据的合理使用,“授权同意”机制成为当前普遍适用的原则。这一机制要求在收集和使用用户个人信息之前,必须确保用户对此过程有充分的知情,并明确表示同意[16]。然而在实际操作中,用户的“同意”往往难以体现真实意愿,“授权同意机制”正面临实质性失效困境,现实中用户往往只能在“全盘接受”或“放弃服务”之间做出非此即彼的选择,缺乏真正的协商空间。此外,在平台的隐私政策中,含有大量关于用户个人信息利用的免责声明和宽泛的条款,冗长的条款往往导致用户因时间成本过高而放弃阅读,最后这些条款往往沦为算法平台规避法律责任的有力工具。
因此,应当强化平台的主体责任,提高平台的注意义务,在传统责任模式下,平台依据《民法典》第1195条确立的“避风港”规则在未主动干预或不知晓侵权内容存在的情况下得以免责。然而,在面对当前算法驱动内容分发的互联网平台时,其适用的合理性受到挑战。考虑到平台利用AI算法对推荐内容的主动干预性,对平台注意义务的调整应将侧重点放在主动预防损害,而非仅仅被动地回应损害,这意味着平台不仅要对算法的输出内容负责,更要对其算法系统的设计、开发、部署及其持续的社会影响承担责任。
事前,平台应当提升信息安全管理体系,建立健全违法和不良信息识别的特征库,在此基础上,可以借鉴域外经验引入算法风险影响评估制度,平台在算法系统部署前及运行过程中,常态化地开展评估。事中,应施以技术干预,具备预先过滤、发现以及阻断违法、不良信息传播的手段[17],对推送行为中可能存在的侵权行为持续监控,并在发现侵权内容时,及时采取措施。事后,在涉及侵权责任认定方面,应将平台过错的判断从“是否应知、明知侵权信息”转移到“是否主动采取合理措施来预防和控制侵权风险”。若无法证明平台主动履行注意义务,则推定其存在过错[18]。
4.3. AI推荐算法侵权的举证不能
电商平台AI算法推荐相关纠纷的责任认定面临诸多困难,导致用户维权成本居高不下。作为与平台签订服务协议的一方,用户往往仅处于协议关系的表面。平台和用户信息不对称的状态,使得用户在数据保护方面处于弱势地位,难以有效维护自身的合法权益[8]。每当用户的个人隐私或者个人信息受到侵害时,他们往往难以准确识别并确定侵权主体,尽管可能明确了侵权主体,数据的易复制性使得用户在证实侵权行为的因果关系时仍遭遇诸多困境。近年来,数据泄露事件频发,鲜有用户能够通过法律途径成功维权,法院通常以无法证明因果关系为由,驳回用户的诉讼请求,这一现象体现出AI算法推荐服务中用户数据保护的困境,亟待通过法律手段加以规范和解决。
在算法推荐相关侵权纠纷中,应完善举证责任分配规则,减轻用户的举证负担。实行举证责任倒置,由平台承担证明其算法推荐行为合法、无过错的举证责任,对于平台掌握的算法运行数据、决策逻辑等证据,要求平台在诉讼中予以提交,拒不提交的,承担不利的法律后果。但为避免用户滥用举证责任倒置制度,导致平台陷入不必要的诉讼负担、浪费司法资源,需明确举证责任倒置的启动门槛,即用户需明确证明自身权益受损的具体数额、具体表现,不得主张模糊的“潜在损害”、“精神不适”(除明确构成人格权侵权的情形外);其次用户需证明平台的算法推荐行为存在明显的差异化对待或异常性,且该差异化、异常性无法通过正当商业逻辑解释;最后用户需举证证明,自身权益受损并非由自身过错导致,也并非由第三方行为造成,在满足这三个启动门槛后,再启动举证责任倒置。同时,建立证据保全制度,允许用户在诉讼前申请法院对平台的算法相关证据进行保全,保障用户的举证能力[19]。
建立多元化纠纷解决机制,畅通用户的维权途径。鼓励通过协商、调解、仲裁等非诉讼方式解决算法推荐相关纠纷,降低用户的维权成本。设立专门的算法纠纷调解机构,配备专业的调解人员,为用户与平台提供便捷的调解服务。完善公益诉讼制度,允许检察机关、消费者协会等主体针对侵害众多用户合法权益的算法推荐行为提起公益诉讼,维护社会公共利益。
5. 结语
AI推荐算法作为数字时代的核心驱动力,深刻重塑了信息传播、商业逻辑与社会互动方式。其在提升效率与体验的同时,亦如一把双刃剑,对用户的隐私权、自主决定权、知情权、公平交易权造成了一定程度上的侵害。本文通过剖析算法权力对个体权利的侵蚀机制,并指出我国现行法律规制体系在规范空白、平台责任虚化、用户举证不能等方面的结构性困境。
面对这一复杂局面,零敲碎打的修补已难以为继。未来的法律规制路径,必须超越对数据表层的管控,深入算法运行的内核,为实现技术创新与权益保护的平衡,应从完善立法、强化平台责任、保障权利救济三个维度构建全方位、多层次的法律规制体系。执法者以更专业和敏捷的能力穿透技术壁垒,司法者以更灵活的证据规则和归责原则回应新型侵权,而平台则需从“技术中立”的避风港中走出,真正承担起一定的社会责任。
唯有如此,方能在技术创新的浪潮中筑牢权利保护的堤坝,确保AI推荐算法的发展始终服务于人和社会公共利益,而非成为操控、歧视与剥削的工具。这不仅是法治回应数字时代挑战的必然要求,更是构建一个公平、可信、以人为本的智能社会的根本所在。