1. 问题的提出
大数据时代下电商行业正蓬勃生长,电商平台的商品呈现丰富性的态势,如何帮助用户在海量商品中精准筛选并购买到需求商品,已成为各大电商平台在客户服务和商品推荐中的重心。个性化推荐服务凭借精准匹配、降本增效的独特优势,不仅能显著优化用户购物体验,更能有效强化用户与电商平台的使用黏性[1]。因而,目前绝大多数电商平台均已将个性化推荐服务作为满足用户精准需求、提升平台竞争力的基本配置。电商平台个性化算法推荐,特指电商平台基于用户的历史购买、兴趣偏好、页面停留、消费金额等数据,通过算法分析建立用户画像,根据用户画像进行商品、服务推荐,实现用户与商品、服务精准匹配与分发的自动化决策。电商平台个性化算法推荐一方面显著提升交易效率,另一方面也因算法技术的复杂性、隐秘性及平台逐利性,产生诸多法律风险,损害用户个人信息保护,侵害消费者权益甚至造成电商市场秩序失衡。尽管《个人信息保护法》等法律已做出规定,但仍存在规制滞后、责任模糊、监管乏力等问题,如何权衡个性化算法推荐危害与权益保护,构建科学有效的监管体系,已成为保障电商行业健康发展的迫切命题。
2. 电商平台个性化算法推荐的运行机理
电商平台个性化算法推荐以大数据技术为核心,运行围绕数据收集、用户画像构建及个性化推荐三个核心阶段展开。数据收集阶段,电商平台依托用户注册、浏览行为、交易记录、设备信息等渠道持续获取用户个人基本信息、消费偏好、价格敏感度等海量数据,甚至通过与第三方合作平台获取用户在其他平台的行为轨迹后共同形成数据池。获取大量用户信息后电,商平台将通过算法对数据池信息开展清洗、分析与建模工作,提炼出用户消费习惯、商品偏好、购买力等特征并生成“高消费能力用户”“价格敏感型用户”等用户标签,以此完成用户画像构建。电商平台依据用户画像从商品库筛选匹配商品,以“猜你喜欢”“个性化首页”“定向优惠券”等形式进行个性化推送,同时根据用户点击、购买等行为实时调整推荐策略,最终形成数据收集、画像更新、精准推送的完整闭环。
从电商平台个性化推荐的实现来看,核心是依托机器学习技术,关键技术路径可归纳为协同过滤、基于内容推荐、深度学习及混合推荐系统四大类,各类技术依托大数据处理能力呈现出差异化[2]。协同过滤通过对比不同用户的行为模式,进而推送契合其兴趣的物品,分为基于用户与基于物品两类类型,前者以“与你相似的人也买了……”为典型应用,后者对应“买了此商品的人还买了……”的推荐场景。基于内容的推荐则通过解析用户历史偏好物品的核心特征,如购买的商品品类、标签、价格区间等,实现相似特征新物品的精准推送。深度学习技术能够精准捕捉用户行为中的复杂关联模式,基于用户的多个细微行为,进行用户画像的构建,进而显著提升个性化推荐的精准度,但决策逻辑极其复杂,难以理解和解释,这就削弱算法透明度。而混合推荐系统通过融合上述多种技术路径,有效规避单一算法的局限性,已成为当前主流电商平台的首选方案。
3. 电商平台个性化算法推荐的法律风险
3.1. 用户信息自决权和隐私权侵害风险
3.1.1. 用户信息自决权侵害风险
信息自决权作为个人信息保护的核心权能,其核心要义在于自然人对自身信息的收集范围、使用方式、流转路径享有自主决定权与支配权。电商平台个性化算法推荐的“数据依赖”特性,正通过“同意异化–知情缺失–救济失灵”的全链条侵权模式,对该权利造成系统性侵蚀。电商平台想获取、使用与处理用户的个人信息,会将用户同意作为其行为的正当性基础和免责事由,但在个性化算法推荐背景下,这种同意权的异化却成了用户信息自决权受损的起点[3]。平台往往将生物识别数据、消费情况、健康诊断记录、精准地理位置等信息纳入收集清单,把信息收集与购物结算、售后服务等核心服务强制绑定,再借助“概括性授权条款”“服务捆绑策略”“默认勾选同意”等多重手段规避法律规定的“明确同意”义务,迫使用户陷入“要么放弃服务、要么同意平台收集信息”的两难困境,这种缺乏真实意思表示的“形式同意”本质上是平台对用户信息支配权的公然剥夺。
在个性化算法推荐场景下,用户的知情权同样遭受虚置,进一步瓦解了信息自决权的行使基础。根据《个人信息保护法》第17条规定,用户有权知晓其个人信息处理的目的、方式、范围以及数据共享对象、流转边界等核心内容,同时也规定,收集个人信息应限于实现处理目的的最小范围,但算法黑箱与平台的“模糊告知”的存在就形成双重障碍,导致知情权沦为空壳。实践中,平台隐私政策多存在“模糊化表述”“专业术语堆砌”等问题,普通用户失去阅读兴趣同时难以理解平台规则。个性化算法推荐又依赖用户数据用以构建精准画像,平台常以“优化推荐”、“提升服务质量”为名,行过度收集信息或与第三方共享数据之实,导致用户信息在非必要范围内被广泛采集与流转。在“王某诉深圳市腾讯计算机系统有限公司个人信息保护纠纷案”中,争议的核心正与知情同意和必要性原则直接相关,在一审与二审中,两审人民法院最大的分歧在于微视APP (腾讯公司产品)收集、使用其微信好友信息等行为是否构成对个人信息权益的侵害1。最终,二审法院认定案涉个人信息并非微视APP提供基本服务所必需,其收集与处理行为未满足《个人信息保护法》所规定的必要性原则。此判决清晰地表明,平台以“提升服务”为借口进行的许多信息处理活动,其必要性正受到司法的严格审视,这从侧面揭示了平台告知内容的不实与用户知情同意的虚化。
就算用户自愿让渡个人数据给平台用于自动化决策,用户仍不清楚平台如何处理自己的数据、是否与第三方共享了浏览轨迹、是否参考了其线下消费记录等情况,进而进行个性化推荐[4]。这种形式上的“告知”让用户难以判断自身信息是否被平台不当收集与利用,本是个人信息主体的用户在个性化算法推荐过程中,彻底由“权利主体”沦为信息收集与算法运算的“数据客体”。
作为信息主体可以通过行使同意撤回权,禁止信息控制者对其个人信息进行处理[5]。同意撤回是指个人信息主体依其自主意志,撤销此前做出的允许信息处理者处理其个人信息的授权之意思表示。作为事后矫正的关键权利,撤回同意权并未得到有效保障,且在复杂的技术操作作用下形同虚设。在前面所述的“王某诉深圳市腾讯计算机系统有限公司个人信息保护纠纷案”中就存在个人信息权利人撤回授权后,个人信息处理者仍未终止个人信息收集与使用的情形。而根据上海消保委在2022年6~12月对10款主流APP (含淘宝、京东等电商平台)开展个性化推荐关闭操作专项测评,结果显示这些平台的个性化推荐关闭路径普遍层级较深、步骤偏多,其中京东关闭个性化内容推荐需6步、关闭个性化广告推荐需7步,淘宝对应的操作步骤为5步和6步,这些操作多分布在“设置–隐私–个性化推荐”等菜单中,刻意提高了用户行使权利的成本[6]。即便用户成功操作,平台仍会通过地域标签、设备类型、IP地址等“非个性化信息”持续进行推送,甚至保留已收集的敏感信息用于算法模型训练。
3.1.2. 隐私权侵害风险
隐私权作为基本人格权之一,其核心价值在于确保个人私密空间与生活安宁免受非法侵扰,而个性化推荐服务以用户数据为支撑,其中用户个人偏好相关的数据常与隐私高度关联,个性化推荐服务在对这类信息进行收集与处理时,若存在不当便可能侵犯公民个人的隐私权。
收集用户数据时,平台的采集范围已明显超出合理必要边界,表现出过度收集与隐性采集的特征。平台常以“优化推荐”为由,收集除必要的姓名、手机号、收货地址等基础信息外的非购物必要的用户隐私数据,在用户使用电商APP时,平台通过Cookie、热力图等技术追踪用户每一次的点击、商品停留时长、页面跳转路径,甚至记录用户删除购物车商品的操作等,这些零散的行为被量化为数据,被实时捕捉后会被整合构建出包含用户消费心理、支付能力、购物习惯的“消费隐私图谱”,而用户对此类全方位的跟踪、监测与分析往往毫不知情。更值得关注的是,相较于姓名等基础具有识别性的信息,通过Cookie等技术收集的用户行为信息,不仅更易精准识别具体个体,而且对用户权益产生的实质影响更为深远[7]。
个性化推荐依赖多主体数据共享,直接扩大了隐私信息的流动范围,甚至可能引发隐私彻底失控。用户信息从一级处理者流向二级处理者,形成链条,一级处理者即直接收集信息平台,二级处理者即通过数据共享获得一级处理者处理后信息的第三方合作平台,有时二者身份会进行调换[8]。电商平台作为一级处理者,会将用户的商品搜索记录、购物车添加与删除操作、订单历史等隐私数据,共享给第三方广告公司这类二级处理者,这些广告公司便会在视频、资讯类APP中定向推送关联商品广告,让用户的消费隐私突破购物场景边界。有时候人们在京东上购买一件商品,可能在打开其他网页时会收到类似商品的广告,这就是一级处理者与二级处理者之间的信息共享。在数据流通过程中,用户不仅难以知晓自己的隐私数据已流入共享池,更无法阻止算法通过碎片拼接突破隐私边界。分散在不同平台的隐私碎片被算法串联成完整的个人画像,这些画像不仅包含用户主动暴露的信息,还涵盖算法推断出的隐性隐私,且完全可能在数据共享中被公共获取或不当利用,最终导致隐私在多次流转的叠加作用下,彻底脱离用户控制。一旦海量用户数据与日趋精准的用户画像遭遇网络攻击或出现数据泄露,极易被恶意主体滥用,进而对用户隐私权及个人信息安全构成严重威胁[9]。
3.2. 消费者权益侵害风险
电商平台个性化算法推荐凭借精准匹配效率重塑了消费场景,消费者看似精准找到符合其需求的商品,并基于其意志自由进行购买,其实不然,消费者的权益在平台逐利性与算法黑箱特性下遭受侵害风险,其中知情权、自主选择权与公平交易权受侵最为突出。
消费者做出理性决策的核心前提是知情权,唯有充分知晓商品信息、推荐逻辑及潜在干预因素,消费者才能基于真实需求做出符合自身利益的选择,但该权利在算法推荐场景中正遭遇侵蚀。平台常将个性化算法推荐运行的核心逻辑隐藏在冗长晦涩的用户协议或隐私政策中,消费者即便勾选“同意”也难以真正知晓个人信息数据的具体分析维度、推荐结果的生成依据以及商业推广与自然推荐的区分标准。平台对算法的动态调整从不主动告知,这种行为更为隐蔽,无论是推荐权重的修改、商业合作参数的植入,还是数据使用范围的扩张,消费者均无知情权,消费者既无法预判推荐结果的变化逻辑,也难以辨别推荐内容是否掺杂付费推广、竞价排名等商业干预因素。当某款商品被优先推送时,消费者无法区分其源于自身需求匹配还是平台与商家的合作约定,这种信息不对称让消费者始终处于被动接收信息的弱势地位,无法对推荐内容的真实性、客观性做出判断,理性决策的基础也因此被严重削弱。
消费者拥有的自主选择权应当包含两个方面,其一,消费者需拥有自由意志与自主选择空间,其购买行为需出于自身真实意愿,实现其自身利益最优;其二,消费者的消费行为需排除他人不正当干预,即消费者的购买决策不受我、外力不当或不合理影响。在个性化算法推荐背景下,自主选择权被实质弱化体现为“算法主导下的伪选择自由”,用户看似有点击、跳过等权限,实则陷入算法决策闭环。平台通过精准拟合用户偏好,根据用户画像持续向消费者推送符合画像特征的内容与商品,营造内容高度同质化的环境,不断压缩其接触多元商品信息的空间,逐渐形成“信息茧房”。消费者长期沉浸于这种信息环境中,认知边界被固化,自主选择的广度与深度被大幅限制,看似拥有自主选择权进行购物,实则是被个性化算法推荐操控的结果。平台中的“猜你喜欢”页面,看似为用户提供了便捷的筛选服务,实则个性化算法推荐替代了消费者的自主探索,进一步削弱了消费者主动获取信息和自主筛选对比能力。平台通过个性化算法推荐持续强化消费者的既有偏好,消费者在无意识中被引导,自主的选择被预设了方向,间接干涉了消费者对商品或服务的正常选择,影响了消费者的自主选择权[10]。
公平交易权则要求消费者在交易中获得公平待遇,不受歧视性对待与不合理定价。利用算法不透明的特点实施“大数据杀熟”差别定价,导致消费者支出的费用与获得利益不对等,这种行为既违背交易实质公平也直接侵害消费者的公平交易权[11]。所谓“大数据杀熟”,是电商平台利用个性化推荐算法,基于用户消费能力、消费频率、价格敏感度等标签进行用户分层,对同一商品或服务向不同用户收取差异化价格的行为,本质是算法赋能下的价格歧视。平台通过用户画像精准评估消费者支付意愿与替代选择空间,对价格敏感度低、消费频次高的“忠诚用户”抬高价格,对新用户或价格敏感用户提供优惠以实现利润最大化。这种歧视极具隐蔽性,平台常以定向优惠券、会员专属价等形式掩盖价格差异,同一酒店房间高频预订老用户价格可能高于新用户,同款商品高端设备用户标价可能高于普通设备用户,部分平台还通过动态调整价格参数、隐藏历史价格加大比价难度,让消费者在信息不对称中被迫接受不合理定价。2021年引发广泛关注的“胡女士诉上海携程商务有限公司侵权责任纠纷案”即是典型,胡女士作为携程钻石贵宾客户,预订酒店房间时支付了2889元,然退房时发现酒店实际收取的房费仅为1377.63元。经法院查明,该订单系第三方代理商捷锐公司通过携程平台“代理”渠道发布,而携程作为平台方,既未以显著方式区分“自营”与“代理”渠道,也未向胡女士披露代理商加价事实,更未履行价格监管义务2。二审法院虽未直接认定携程构成“大数据杀熟”,但明确认可胡女士的疑虑具有合理性,且判定携程因未履行信息披露与价格监管义务构成欺诈,需退还差价并支付三倍赔偿,这一裁判结果实则间接否定了平台利用算法实施差别定价的合法性。
除“大数据杀熟”外,平台还通过其他方式侵害消费者的公平交易权。平台与入驻商家间存在约定,优先推送商家付费推广和高佣金商品而非性价比最优的选项,消费者在不知情的情况下购买不符合预期的商品。平台还可能基于年龄、地域等标签对弱势群体进行隐性歧视,主要采取降低服务质量或提高定价等措施,使消费者遭受到不公平待遇,这明显与公平交易权要求消费者在交易中获得公平待遇、不受歧视性对待与不合理定价的核心内涵相违背。
3.3. 公平竞争秩序破坏风险
个性化算法推荐下的不正当竞争行为更具隐蔽性与迷惑性,算法技术的复杂性与数据处理的不透明性,使其摆脱了传统不正当竞争的特征,难以被监管部门与市场主体察觉。部分平台借助算法合谋达成隐性价格同盟,通过个性化推荐的差异化展示功能为同一类商品制定统一底价,表面维持“千人千面”的定价假象,在规避反垄断监管的同时剥夺消费者议价空间与扼杀市场竞争活力。一些平台还利用算法虚构交易数据、进行刷量控评,人为抬高商品热度与口碑,再借助个性化算法推荐将这些“人造爆款”精准推送至潜在消费者,一方面误导消费者做出非理性决策,另一方面以虚假的流量优势大幅挤压诚信商家生存空间。
算法歧视现象同样突出,严重破坏市场公平竞争。平台凭借对算法与流量的绝对控制权,通过个性化推荐算法实施自我优待策略,将流量向自有品牌或支付高额佣金的合作商家倾斜,不仅优先置顶其商品,还通过优化推荐标签、提高搜索权重等方式强化曝光优势。亚马逊“自我优待”案便是最具代表性的例证,亚马逊通过“黄金购物车”算法向自营商品倾斜,优先展示自营商品,并违规使用第三方卖家的敏感销售数据优化自身定价与策略强化其曝光优势,扭曲了市场竞争秩序[12]。反观中小商家即便商品品质优秀、定价合理也会因缺乏流量被排挤至推荐页面边缘,难以获得同等展示机会,这种差异化流量分配直接造成市场优胜劣汰规则失效,中小商家因曝光不足,利润不够逐步退出市场,市场集中度持续攀升。
平台还会更进一步利用算法技术爬取并深度分析竞争对手的定价策略、营销方案、客户群体特征乃至供应链的布局,通过针对性调整推荐权重、设置搜索壁垒、限制第三方链接跳转等打压手段削弱对手竞争力。此外,头部平台凭借先发优势构建起坚固的数据壁垒,以“商业秘密”“数据安全”为由,拒绝向竞争对手开放必要的用户行为数据、行业趋势数据等核心资源,新进入者因缺乏数据支撑,难以优化个性化算法推荐的精准度,无法匹配客户的需求,有效吸引用户,形成“强者恒强”的马太效应,平台这种利用数据优势巩固市场支配地位的行为,本质是借助数字经济特性强化垄断格局,会进一步加剧竞争失衡。
这种由算法歧视、数据垄断叠加形成的竞争失衡,不仅直接挤压中小商家与新进入者的生存空间,更扼杀行业创新活力,平台将资源投入流量争夺而非技术研发与服务升级,最终导致商品种类同质化、价格弹性降低。消费者看似短期享受便捷推荐服务,长远来看却会因市场缺乏有效竞争而丧失更多选择机会与议价空间,其根本利益遭到损害,数字经济健康发展的生态基础也被严重破坏[13]。
4. 电商平台个性化算法推荐的法律规制
4.1. 完善用户权利保障
4.1.1. 强化知情权的实质落地
无论是收集用户信息阶段,还是在个性化算法推荐中,知情权需突破“形式告知”局限,确保用户作为信息主体信息自决权和作为消费者的知情权的真正落到实处并获得双重保障。在算法黑箱下,用户与平台之间存在明显的信息不对称与技术认知鸿沟,由此形成的地位不平等,对平台提出了更高的告知义务要求。
在收集信息时,可从形式与内容上优化隐私政策的知情同意机制,以提升告知实效与用户接受度。形式上,应采用醒目直观的形式,通过醒目字体与色彩标注关键条款,以加粗醒目字体与对比色标注信息收集范围、第三方共享等关键条款,摒弃一次性堆砌冗长文本的做法,设计分步骤授权流程,在用户使用APP时通过分层弹窗依次公示隐私政策核心要点,待用户明确确认后再推进操作,避免默认勾选、强制捆绑等变相剥夺选择权。内容上,需恪守简明易懂原则,用通俗语言明确告知用户信息收集范围、具体类型、使用路径及潜在风险,摒弃专业术语与模糊表述。例如,在APP显著位置列明个性化推荐相关信息类型及处理逻辑,以流程图、信息卡片等可视化形式直观呈现数据从收集、分析到推送的全流程,增设常见问题解答模块针对性回应“数据是否共享”“能否撤回同意”等用户高频疑问,辅助用户快速理解政策要点,确保用户在充分知晓信息处理的目的、方式、风险与自身权益后,自主做出真实有效的抉择。
对于个性化算法推荐的运行阶段,平台需突破“形式告知”局限,并与算法技术特性相结合。对于基于内容的推荐等可解释性较强的技术,平台应充分利用其优势,以直观方式向用户说明推荐逻辑,如推荐某类品牌商品时,告知用户“这是您经常购买的品牌”。而对于协同过滤、深度学习等“黑箱”特性显著的技术,平台不能以技术复杂为由回避告知义务,反而应承担更高的解释责任,该点将在下文进行详细阐述。同时,为了保障用户知情权实质落地,在个性化算法推荐的运行阶段还需构建全流程透明化告知体系,平台在用户首次使用推荐服务时需通过弹窗、短视频等直观形式简明告知算法推荐的基本原理、数据收集范围(含自身采集与第三方共享数据)及推荐结果的核心影响因素,让用户快速掌握关键信息。
在定价推荐、流量分配等高风险场景中,平台应负担强制披露义务,告知用户商业推广与自然推荐的区分标准,可在商品图片中添加显著图标标识“推广”“广告”,同时在商品详情页清晰说明定向优惠券、会员价等差异化待遇的适用条件,确保用户清晰知晓推荐结果的形成逻辑与商业干预因素,避免被隐性差别对待。当平台修改推荐权重、数据使用规则等关键内容,可能影响商品推荐结果或用户权益时,需提前7个工作日通过APP弹窗推送、短信直达等方式通知用户,明确告知调整内容与可能产生的影响,赋予用户合理的适应与决策时间,通过确立算法动态调整告知义务,保障用户的预期知情权与自主选择权。
4.1.2. 保障选择权的自主行使
保障用户算法选择权需破除“同意绑架”与“关闭障碍”,平台需将个性化推荐设为可独立选择的附加服务,用户注册时该功能默认关闭且关闭后不影响购物结算、售后服务等核心服务的正常使用。即使用户同意平台进行个性化推荐,用户也应被赋予偏好管理权限,APP内需设置“算法推荐管理中心”,允许用户自主删除特定行为数据、调整推荐偏好标签或选择“多样性推荐模式”,避免算法过度拟合形成信息茧房。
电商平台的个性化算法推荐还应为未成年人与老年人设立“最低保护标准”限度,确保两类群体在算法推荐场景中免受技术门槛与信息不对称的权益损害。未成年人往往不具备权衡个性化算法推荐服务利弊的认知水平与决策能力,这类群体极易被诱导[14]。究其原因,未成年人的心智仍处于发育阶段,不仅对新鲜事物抱有强烈的好奇心,同时对未知事物缺乏足够的辨别与防范意识,极易沉迷于算法营造的信息茧房环境中,可能固化其认知边界,还可能接触暴力、过度消费等不良导向内容,为避免未成年人受到个性化推荐算法的不良干扰,法律有必要对面向该群体的算法设计做出直接约束。而老年人数字素养普遍偏低,算法逻辑的复杂性与操作界面的繁琐性使其难以明晰推荐机制,信息不对称下更易遭遇误导性推荐甚至算法相关诈骗,这两类群体的权利保障需求决定了特殊保护的现实必要。未成年人模式下需默认关闭个性化推荐功能且仅推送适配其认知能力的教育及益智类商品,同时设置使用时长限制与不良内容过滤机制。老年人模式下应简化算法推荐逻辑并以“大字版”“语音提示”优化交互体验,且强制保留24小时人工客服干预通道以便利其咨询推荐疑问或投诉侵权行为。
4.2. 电商平台合规治理的规制
4.2.1. 强化算法解释机制
强化算法解释机制核心是算法解释权,通过法律强制平台向用户及监管机构说明算法基本原理、决策逻辑与结果影响,以此缓解信息不对称问题,确保用户信息知情权。欧盟《通用数据保护条例》(GDPR)第22条明确赋予数据主体针对自动化决策的“解释权”,我国《个人信息保护法》第24条确立了算法决策的透明度原则,蕴含了解释说明义务,要求个人信息处理者需就自动化决策结果予以解释,实践中算法解释却面临技术黑箱、商业秘密保护与用户认知门槛等多重挑战。
个性化推荐平台通过采取算法解释措施来提高透明度,让用户清楚地了解其个人信息如何被使用[15]。可借鉴美国《算法正义与在线平台透明度法案》要求,开发可解释人工智能(XAI)技术,该技术通过“事前设计”和“事后解释”两类技术工具,通过生成人类能理解的解释来“照亮”算法决策的黑箱过程[16]。在事前设计层面,平台可增设推荐设置选项,在该选项列出“用户历史行为(浏览/加购/购买)”“商品关联性(搭配适配/品类匹配)”“市场热度(销量/好评率)”“广告投放权重”“地域/时效适配(同城/新品)”等参数,用户可自主进行关键参数设置和调整,决定决策输出的依据,无需公开核心源代码,以此兼顾用户知情权与平台商业秘密保护的平衡。
在事后解释层面,针对不同复杂度的推荐模型,可采取差异化的可解释性技术路径。对于基于内容的推荐等相对简单的模型,可采用“局部解释”的方法,局部解释更聚焦于单个的主题,只为特定输出结果作解释。在电商平台中,当系统向用户推荐某款商品时,不再是模糊的“猜你喜欢”,而是提供更具体的推荐理由,诸如“因为您浏览过A品牌”、“与您购买过的B商品功能相似”或“您所在区域的畅销商品”等具体标签。对于基于协同过滤、深度学习和混合推荐模型等复杂“黑箱”模型,采用全局解释,量化“用户历史行为、商品关联性、市场热度”等特征对推荐结果的整体贡献占比,例如向用户公示“您的浏览记录对推荐影响占比45%,同偏好用户购买行为占比30%”,以此让用户掌握算法决策的整体逻辑。同时通过结合因果解耦逻辑,向用户或监管机构拆分驱动推荐的关键动因,如采用DISC (因果解耦推荐算法),该算法模型将驱动用户行为的因素拆解为内在偏好、商品显式度、从众效应三个维度,通过构建结构化因果图与潜在变量模型,精准分离不同因素对用户行为的影响,电商平台引入该模型,解释三个维度在推荐中的作用边界,明确个性化算法推荐未过度依赖广告投放或爆款数据,保障推荐公平性与合规性[17]。
4.2.2. 完善算法备案制度
我国《互联网信息服务算法推荐管理规定》第24条要求具有舆论属性或社会动员能力的算法服务提供者履行备案手续,提交算法类型、应用场景、自评估报告等信息。然而,现行备案制度仍存在覆盖范围有限、备案内容笼统、动态更新不足等问题。完善的备案制度需从三方面优化:
第一,电商平台的备案必须扩展备案范围,应覆盖所有高风险算法如定价推荐、信用评估、流量分配算法,并提交算法设计目的、数据来源、风险评估报告及应急预案,确保算法的使用符合法律法规,维护市场的公平竞争和用户的合法权益[18]。
第二,建立分级分类备案机制,参照欧盟《人工智能法案》风险分级框架将算法划分为高、中、低三级,进行不同程度的审查。对于广泛采用深度学习技术进行用户画像建模和定价推荐的系统,因“黑箱”问题突出、潜在歧视风险高,应划分为高风险等级,需提交第三方合规审计报告经监管机构实质性审查后方可上线,对于主要采用基于内容的推荐技术,且应用场景风险较低的,可实行中低风险备案,以形式审查为主,以平衡合规成本与监管效能。
第三,要求平台每季度更新算法运行情况,以强化备案信息动态管理,备案信息脱敏后向公众部分公开数据偏差事件、用户投诉处理结果等内容接受社会监督,国家网信办建立的算法备案系统可设置公开查询模块供社会监督,平台修改算法核心参数、应用场景或对算法进行重大技术迭代,如从协同过滤升级为深度学习模型时,需在7个工作日内完成备案更新否则视为违规运行。
4.2.3. 建立平台周期保障框架
明确平台在算法设计、运行与退出全生命周期的义务,构建全流程合规治理框架,实现权利保护与产业发展的动态平衡。算法设计阶段,平台应承担算法伦理审查义务以确保个性化算法推荐运行符合公平透明等要求,法律可强制要求平台建立由技术专家、法律学者、消费者代表组成的算法伦理审查委员会,其中消费者代表占比不低于三分之一,保障审查视角的多元性与公正性。新上线算法需经该委员会开展公平性与安全性审查,重点排查是否存在性别、地域、消费能力等歧视性参数,审查结果作为算法备案的必备材料,未通过审查的算法不得上线运行。
算法运行阶段,平台应部署实时风险监控系统,对价差异常、推荐同质化、用户投诉激增等风险信号自动触发预警并在24小时内启动内部核查,发现违规倾向需立即采取暂停服务、调整参数等干预措施再同步向监管机构报告,且7个工作日内提交书面解释说明问题成因与整改方案。同时还需建立人工干预机制为高风险决策提供人工复核通道,针对“大数据杀熟”、算法歧视等高风险场景设置人工审核节点,以避免算法自主决策的失控风险。
当用户不愿继续被电商平台收集使用其个人信息时,应保障其同意撤回权,在退出阶段,平台需严履行数据清理义务,用户注销账号或算法停止运行时,需彻底删除相关个人数据及算法画像,不得留存用于后续推荐或数据交易,并出具加盖公章的数据销毁证明供用户核验。此外,平台需建立数据销毁台账,详细记录销毁时间、方式与责任人,确保数据清理全流程可追溯,从源头防范个人信息被违规利用的风险。
4.3. 算法监管规制
我国APP个性化推荐领域现行监管体系,核心问题在于监管权责划分不明。当前该领域以网信部门为主导开展监管,市场监管部门、消费者保护组织等机构协同配合,但各监管主体的职能边界未明确界定,存在较多交叉重叠区域。构建协同共治机制的首要前提是厘清各部门权责边界,避免权责交叉与监管空白,应建立以“职能适配、权责对等”为主要原则的算法监管权责清单。
网信部门负责算法服务的源头合规管控,牵头开展算法备案管理与数据安全监管,依据《互联网信息服务算法推荐管理规定》审查备案材料并进行算法安全评估,确定实现“透明度”和“公平性”的最低技术安全标准。同时监督平台在数据收集、存储及第三方共享环节的合规性,从初始阶段筑牢算法安全基础,防范因备案疏漏或数据泄露导致的后续。
市场监管部门负责自动化决策中的消费者权益保护与市场竞争秩序维护,主导查处电商平台个性化推荐中的“大数据杀熟”、基于地域或消费能力的差异化定价等算法歧视行为,以及算法共谋、流量劫持等不正当竞争现象,并依托投诉举报机制及时响应用户需求,弥补算法侵权事后执法响应不足的监管缺口。
司法部门应承担裁判标准统一与纠纷终局解决的职责,通过发布算法歧视、误导推荐侵权等典型案例及出台针对性司法解释,明确算法侵权案件中责任主体认定、因果关系判定、损害赔偿计算等司法难点,避免裁判尺度不一损耗监管公信力,为协同共治提供司法保障。
工信部门需要提供算法监管的技术规范,制定包括推荐结果多样性、定价透明度等算法公平性评估指标,以及用户画像数据的最小必要原则等数据处理合规标准,为其他部门的监管工作提供可操作的技术依据,解决监管措施缺乏技术抓手的问题。通过跨部门协同共治的监管措施,不仅能够促进算法的健康发展,还能够为社会公众创造一个更加公正、透明和安全的电商环境。
5. 结语
个性化推荐服务的深度渗透既为用户打造高效便捷的信息获取与消费渠道也为互联网产业构筑核心竞争力,其“技术赋能”的双赢表象下用户信息自决权弱化、隐私权风险加剧、信息茧房固化认知、算法歧视隐性蔓延等问题正持续侵蚀个体权益冲击数字社会公平秩序,我们无法脱离这一技术范式却必须遏制其无序发展带来的风险扩散,算法规制的本质并非抑制技术创新而是通过制度设计划定合规边界实现技术发展与权益保护的动态平衡,强化用户知情权与选择权的实质落地、构建平台全生命周期合规义务、厘清多部门监管权责边界可形成全方位规制合力,用户权利的精细化保障是核心基础、平台的责任履行是关键环节、跨部门协同共治是重要保障,三者相互衔接层层递进方能破解算法黑箱带来的权责模糊监管乏力等难题。
NOTES
1王某诉深圳市腾讯计算机系统有限公司个人信息保护纠纷案,广东省深圳市中级人民法院(2021)粤03民终9583号民事二审判决书,2021年12月17日。
2胡红芳诉上海携程商务有限公司侵权责任纠纷案,浙江省绍兴市中级人民法院(2021)浙06民终3129号二审民事判决书,2021年12月31日。