算法凝视下的容貌规训:电商平台个性化推荐对用户身体意向的影响研究
Appearance Discipline under the Gaze of Algorithms: A Study on the Impact of Personalized Recommendations of E-Commerce Platforms on Users’ Body Intentions
DOI: 10.12677/ecl.2025.1472454, PDF, HTML, XML,   
作者: 李凌凌:贵州大学公共管理学院,贵州 贵阳
关键词: 算法凝视容貌规训个性化推荐Algorithmic Gaze Appearance Discipline Personalized Recommendation
摘要: 本研究依据福柯的身体理论展开,对电商平台个性化推荐算法针对用户身体意向的规训机制进行剖析,研究得出,算法系统地收集用户行为轨迹以及生物特征,构建起全景式的身体数据库,此种数据化方式重塑了用户对自身身体的认知,还极大地改变了其消费实践,这种规训机制所产生的社会效应进一步体现为审美资本的阶层分化。深入剖析这一现象,研究说明其本质是一种“柔性控制”,用户在享受个性化服务带来的舒适体验之时,将算法的规训力量进行了内化,最终致使用户的主体性解构、身体异化。
Abstract: This study draws on Foucault’s theory of the body to examine the disciplinary mechanism of the personalized recommendation algorithms employed by e-commerce platforms in shaping users’ body intentions. The research demonstrates that these algorithms systematically aggregate users’ behavioral trajectories and biometric characteristics to construct a panoptic body database. This data-driven approach has not only reconfigured users’ perceptions of their own bodies but also profoundly transformed their consumption practices. The social effects emanating from these disciplinary mechanisms at both the technical and user behavior levels are further manifested as the stratification of aesthetic capital. A deeper analysis of this phenomenon reveals that its essence lies in a form of “flexible control”. While users derive comfort from the personalized services provided, they simultaneously internalize the disciplinary power of the algorithm, leading ultimately to the deconstruction of user subjectivity and the alienation of their bodies.
文章引用:李凌凌. 算法凝视下的容貌规训:电商平台个性化推荐对用户身体意向的影响研究[J]. 电子商务评论, 2025, 14(7): 2457-2463. https://doi.org/10.12677/ecl.2025.1472454

1. 引言

随着我国改革开放进程的加快以及科学技术的发展,电商经济发展迅速。从20世纪90年代以来阿里巴巴的创建标志着电商交易平台服务企业的出现[1]到现在发展到多领域、多产业、跨国融合发展的电商经济,我国的电商经济已经迈入了一个新的阶段。基于用户行为数据的预测性定向投放机制[2],亚马逊利用集成人工智能技术的广告算法实现了广告资源的精准配置。通过使用个性化推荐技术,电商平台能够更好地根据用户日常使用数据如购物车商品、收藏商品等信息进行差异化信息推荐服务,从而使得电商经济“更上一层楼”。但在此过程当中,给作为信息接收方的消费者来说,带来了一定程度上的“信息过载”问题[3],这些推荐信息长期推送给消费者,在信息接收的交互作用当中,消费者很容易会陷入其中从而引发购买行为。

本文依据福柯的身体理论(the theory of body),从技术与社会实践相互作用的维度,探讨电商平台个性化推荐机制对用户身体意向的潜在影响,此理论视角能帮助理解算法技术隐蔽的规训力量[4]如何作用于个体身体感知与行为,为相关研究奠定了基础,本文引入身体实践作为算法环境中的行动主体,对技术规训的分析框架进行了重构。电商平台个性化推荐机制不再仅仅被看作信息分发工具,而是成为可重塑身体意向的动态装置,当数据驱动的推荐系统持续输出定制化内容时,用户的消费行为以及自我呈现方式正在发生根本性的转变,借助分析,本文尝试揭示算法推荐如何依靠影响用户的身体意向,重构其消费实践,为理解数字技术时代身体与社会权力关系的动态变化提供新的理论视角。

2. 算法规训机制

2.1. 算法凝视的技术建构维度:数据化身体规训

首先,电商平台通过记录用户在平台上的浏览轨迹,包括页面停留时长等数据,能够分析出用户对不同产品类别的兴趣程度[5]。分析电商用户的个人基本信息以及使用产品时的行为轨迹,像浏览、点赞、加入购物车、下单、使用支付方式等,据此形成标签体系来对不同用户群体分层,以此提高流量分发效率。平台在打造个性化推荐服务的同时,还会不知不觉地引导用户的消费行为,让其朝着预设模式发展,这种技术规训具有双重渗透性。从表面来看,个性化推荐提升了购物体验,能使用户在海量信息里迅速找到目标商品,然而深入剖析会发现,平台借助数据反馈循环构建了自我实现的预言机制,用户越是依赖推荐系统,其消费行为就越接近算法预设的“理想模型”[6],而且用户的交互行为、生物特征数据以及社交网络画像,会向平台传递出更强烈的需求信号。以AR试妆数据为典型的生物特征,能特别精准地抓取用户身体细节,生物特征数据与消费记录相互验证,能让平台精准判断用户对特定商品的情感反应,甚至在用户自我认知形成之前,就已完成对其审美偏好的定向培育。

最终,身体被转化为可量化、可优化的技术客体。电商平台不再满足于记录消费行为,而是通过持续的数据注入,将用户的身体感知阈限纳入算法调控范围。当用户在虚拟试衣间反复调整尺寸参数时,平台正在重新定义“完美身形”的参数边界。这种规训的影响早已超越商业范畴,悄然重塑着个体与社会互动的底层逻辑——用户的自我认知不再是纯粹的生理体验,而是算法与身体数据持续对话的产物。

2.2. 用户行为反馈维度:消费程式化与身体实践异化

从用户行为演化路径进行考察可以发现,算法系统如今已演变成了消费场域中的结构性媒介,它依靠复杂的机器学习模型以及大数据分析技术,重构了传统消费行为范式中的认知–决策机制,在需求识别阶段呈现出了干预效应。在商品匹配方面,推荐系统已发展成为动态演进的技术生态。基于协同过滤与深度神经网络构建的推荐架构,借助多臂老虎机等强化学习算法[7]来持续优化展示策略,这种实时反馈机制如同拉图尔行动者网络理论框架的具体体现,把用户行为数据、商品属性特征以及平台运营逻辑编织成了共生性关联网络。再看行为干预层面,算法正运用A/B测试、点击率预测等技术手段来重构消费决策路径,将消费流程分解为可量化的“刺激–响应”条件反射链。这种操作化规训过程与福柯的“自我技术”(technologies of the self)理论展开了跨时空对话,使得消费行为渐渐偏离理性决策的轨道,演变成了一种近乎无意识的程序化实践[8]。这种算法驱动的消费程式化现象,反映了数字资本主义下“效率崇拜”的新型异化形态。平台资本通过算法黑箱实现了对消费时空的殖民化[9],将马克思所揭示的“商品拜物教”推进至“算法拜物教”的新阶段。在此过程中,消费者的主体性被重新配置为数据流中的节点,其决策自主权在界面友好性的包裹下遭遇系统性削弱。

在消费社会的数字化重构进程中,算法推荐机制深度介入美妆与医美领域的消费实践。通过构建用户消费时序模型,精确预测产品消耗周期与关联需求,消费行为模式正经历着从偶发性到规律性、系统化的结构性转变。这种转变不仅暴露出数字技术对日常消费惯习的隐性规训,更折射出当代身体管理范式向量化管理逻辑的转向。大数据能够分析客户的皮肤状况、美容历史、个人偏好等多维度数据,生成个性化的美容方案,其中包括皮肤分析、产品推荐、美容疗程等内容。

当美妆产品的使用周期与医美服务的间隔时长被编码为可计算的运维参数,身体维护便异化为需要精密调控的持续性项目。以祛斑产品的消费链路为例,系统基于皮肤代谢周期参数,在用户首次购买后自动触发防晒修复方案的定向推送,这种消费逻辑推动个体将身体管理从审美实践重构为资本积累的长期投资[10],使福柯笔下“自我技术”在数字资本时代获得技术具身——身体成为需要持续优化的项目组合,消费行为则演变为资本增值的微观操作单元。

在颜值经济精细化运营的时代,美妆行业与医美行业发展繁荣。连锁医美机构以CDP (Customer Data Platform)为核心搭建数据中台,针对不同客户精准定位,个性化定制方案,在数据中台搭建“内容–咨询–转化–服务”闭环模型,针对医美长周期决策优化。当美妆产品所有的使用周期以及医美服务所存在的间隔时长都被转变成为可进行量化的数据指标之时,身体维护这一行为便会转变成为一种需要进行精确计算的“项目管理”工程。这种消费逻辑促使个体将身体管理从单纯的审美实践升维为资本积累的长期投资。英国社会学家福柯提出的“自我技术”概念在数字时代表现为身体逐渐成为需要持续优化的项目组合,这种“数字规训”,使得个体被数据与算法驱动的审美标准所束缚。

在算法凝视下的审美场域中,协同过滤与计算机视觉技术的融合正改变着人们的视觉认知。化妆品巨头通过广告暗示“白皙等于纯净”,医美机构渲染“幼态等于竞争力”,健身产业鼓吹“纤瘦等于自律”,形成三位一体的洗脑矩阵。平台通过高频曝光特定医美案例的术前术后对比图,将“高鼻梁”“直角肩”等具象特征编码为当代审美范式的标准答案。这种审美编码的强制植入过程,恰如布尔迪厄批判的“符号暴力”机制——当美妆广告和医美机构将美标准化单一化,暴力已经转化为无形的符号权力网络[11],个体的审美判断力在潜移默化中遭遇结构性驯化。

3. 个性化推荐对用户身体意向的影响

电商平台通过用户画像技术,持续追踪用户的浏览轨迹、停留时长、购买记录等行为数据,形成对用户审美偏好的精准画像。这种监控机制不仅具备极强的隐蔽性,更通过个性化推荐机制构建起“以用户为中心”的规训网络——消费者看似拥有选择商品的自由权,实则早已被算法预设的审美坐标系悄然锚定。

值得注意的是,算法推荐逻辑蕴含着“富者愈富”的马太效应。当“A4腰”“精灵耳”等审美标签获得初始流量青睐时,算法会进一步强化此类内容的曝光度,形成审美趋势的自我强化循环[12]。这种循环机制不仅导致审美文化的同质化危机,更通过社交媒体的点赞进一步强化,迫使个体在审美竞争中主动向算法标准靠拢。算法的背后实际是消费文化的影响,它所倡导的“美”是一种不断变化且难以达到的标准。每一次的改变似乎都无法完全满足人们对“完美”的期待,反而让他们发现更多的“缺陷”,从而更加恐慌。这种不断追求“完美”的过程,不仅无法真正解决外貌焦虑,反而会进一步加剧这种焦虑,使人们在追求“美”的道路上越走越远,却始终无法到达终点。

电商平台通过算法实现规训的核心逻辑是将商业目标转化为技术设计原则,进而通过个性化推荐系统渗透至用户认知与行为层面。而面对平台资本的算法规训,用户主体性并非完全被动,而是呈现为规训与抵抗的动态博弈。平台是围绕受众展开规划、进行内容创作的,用户可以在一定程度上利用人的能动性来改变算法的运作规则。用户对平台算法的抵抗有多种行为表现,如拒绝平台相关产品的使用、关闭个性化推荐、使用隐私保护工具等方式抵抗算法监控。另外,也有用户通过加入“大码穿搭”“素颜主义”等亚文化社群,构建抵抗算法同质化的审美话语空间。尽管用户存在抵抗行为,但平台资本在权力博弈中仍占据主导地位。平台资本与用户主体性的权力博弈导致三重社会后果——身体美学的资本化、主体性的解构与重构以及社会不平等的加剧。

之前我们已对身体美学的资本化以及主体性的解构展开了相关分析,在此基础上,我们探讨社会不平等加剧这一现象,算法规训所带来的审美标准化,强化了社会阶层差异。个性化推荐算法借助协同过滤机制,把高收入群体的审美偏好,比如抗衰医美、轻奢服饰等标记为“优质内容”,并优先推送给潜在用户,实际上是在复制现实社会的阶层分化轨迹。算法凭借将奢侈品牌符号与“精致生活”话语体系紧密相连,构建起以消费能力为区分标准的审美准入机制,而平价替代品的传播途径则遭遇系统性压制,形成数字资本对审美资源的阶层化配置,这种配置机制不仅使低收入群体长期处于超越其经济承受力的消费环境之中,更通过智能推荐系统将身体资本纳入隐性社会分层体系。在部分企业招聘过程中,面试者的外貌形象已成为算法筛选简历的潜在标准,这使得缺乏审美资本的低收入群体在就业竞争中可能处于不利地位,无形之中削弱了教育、技能等传统流动路径的有效性。

为了获得算法推荐的“认可”,平台用户不得不投入大量时间与金钱进行审美改造,形成了一种新型的数字劳动形式。高收入群体往往将这种审美劳动外包,购买形象管理课程或医美套餐;与之相对,低收入群体则需自行承担成本,依赖节食或廉价护肤品,甚至可能因过度医美而承受更高的健康风险。这种按阶层分配的审美劳动,本质上构成了资本对用户身体与时间的又一轮系统性剥削。

4. 挑战

4.1. 加剧平台信任与伦理危机

平台为了精准推送护肤品、化妆品、服饰乃至医美信息等构建的商品与服务,必须持续、大量地收集并分析用户的个人数据。我们在注册时提供的个人信息、我们在平台上发布的内容以及我们的行为数据,都成为平台用来定向广告、提供个性化服务的重要资源。平台通过混合采集模式实现数据捕获,其中既包括用户主动提供的姓名、地址等结构化信息,同时也涵盖设备指纹、位置轨迹等被动生成的元数据,更延伸至社交媒体互动中的情感倾向分析等衍生数据。值得注意的是医疗健康领域的数据滥用,某健康管理APP因未脱敏处理用户诊疗记录,导致慢性病患者群体遭受保险歧视,揭示了技术中立原则在商业实践中的脆弱性。这种数据采集的“全视之眼”效应,使得个体在数字空间失去了对私人领域的控制权。

4.2. 侵蚀用户主体性

更关键的是,用于训练推荐模型的庞大数据集往往内嵌着现实社会固有的审美偏见。算法在“学习”这些数据时,无意识地识别、放大并固化着这些偏见,用户被持续暴露于高度相似、不断强化单一标准的身体形象中,减少了接触多元、异质审美标准的机会。这不仅规训个体,长远看可能侵蚀社会关于身体美的公共讨论空间和标准多样性,使特定算法偏好的审美成为隐性的、难以挑战的“新标准”。数据样本收集的有限性和人类社会偏见的顽固性导致算法歧视具有必然性,而对连带歧视应指出的是,我们不仅需要对个体的敏感特征信息进行保护,同时也要警惕中性的数据信息带来算法歧视扩大化的可能性。

在算法构建的视觉规训场域中,用户持续暴露于经过精准投放的“理想化身体图式”数据流,依据具身化认知理论,这种高强度、选择性的信息暴露会通过神经可塑性机制重塑个体的身体意象表征。青少年群体因发育未完全,更易在社交比较中产生认知同化,将算法编码的审美标准内化为自我评价的参照系。这种持续的、无处不在的“算法凝视”会显著加剧用户(尤其是青少年和易感人群)的身体焦虑、不满与扭曲的自我认知,诱发或恶化低自尊、抑郁情绪,甚至导致饮食障碍等严重心理问题。当个性化推荐机制与容貌规训相结合时,其技术中立性便转化为结构性规训机制,其伦理困境的核心在于技术力量对个体身体自主权与心理健康带来的系统性、隐蔽性侵害。

4.3. 影响算法技术的发展方向

用户与算法推荐系统之间呈现出一种持续的、充满张力的双向动态。一方面,用户并非全然被动,其可能通过一系列策略性实践尝试“驯化”算法,例如主动点击“不感兴趣”标记、刻意搜索或浏览多元化审美内容、调整隐私设置以限制数据追踪等。这种能动性体现了用户对算法主导信息流的抵抗意图与主体性实践。然而,另一方面,算法的“规训”力量具有其内在的结构性刚性。基于海量历史行为数据训练而成的模型,其推荐逻辑往往存在显著的路径依赖和自我强化反馈循环。更关键的是,用户旨在“驯化”算法的抵抗行为本身,其数据痕迹亦可能被系统捕获、分析并重新纳入模型优化的输入,导致抵抗的意图在无形中被消解或收编,反而强化了系统对用户行为可预测性的认知。这种用户“驯化”算法与算法“规训”用户之间复杂的、持续演化的博弈,其结果充满了深刻的不确定性,使得精确评估规训的普遍效力与边界变得异常复杂。用户与算法之间“驯化–规训”的双向动态,远非一种健康、平衡的互动。其核心的不确定性和结构性权力失衡,可能会扭曲算法技术本身的发展方向,使其陷入追求效率与控制而忽视人文关怀与社会责任的歧途。理解这些深刻的坏处,是批判性审视平台化社会中权力关系、推动算法治理和构建更健康人机交互的关键起点。

5. 治理建议

为应对算法推荐系统在容貌规训中引发的伦理风险,本研究提出以下关键治理路径,旨在打破单向度的“算法凝视”,重塑用户对身体意向的自主权。

5.1. 平台透明公开

推动算法透明化与可解释性推荐系统建设是基础[13]。平台应超越“黑箱”运作模式,向用户及监管机构提供关于容貌相关推荐逻辑的清晰解释[14]。算法作为数字时代的“把关人”,通过信息筛选和推荐机制塑造公众的认知框架。然而,传统算法的“黑箱”特性使得平台掌握绝对的信息分发权,用户被动接受信息茧房效应下的内容。表面上看,人们在数字智能社会中似乎可以操控自我意志,进出自由、选择自由、言论自由,实质上,这种自由是虚幻的自由,是背后操纵者所赋予的相对自由,游戏规则完全由数字技术设计者和利益操控者所掌控[15]。平台需打破“黑箱”运作模式,主动向用户及监管机构披露容貌相关算法的运作逻辑,包括数据采集的完整图谱(如具体采集的身体特征维度及分析模型)、审美标准量化的内在机制以及个性化推荐生成的完整逻辑链。当用户能清晰追溯“系统为何推送该内容”的决策轨迹时,潜在的算法偏见便无所遁形,技术中立性的社会监督才成为可能。

5.2. 法律强化监督

引入并强化法律监督平台的职能。针对当前互联网平台及相关企业在隐私政策方面存在的不足,亟须对其进行优化改进,以确保用户算法知情同意权的实质性行使。通过系统性的审查、评估和督促,推动相关主体对其隐私政策进行实质性的优化与改进。另外,还须明确算法设计者、数据投喂者、算法服务提供者、社会治理者和用户的责任承担原则和实施细则。在制度设计时,应当保障在由人工智能算法参与下的法律关系中,人类作为唯一的法律主体,是侵权责任的最终承担者。

5.3. 重构用户主体性

在技术透明化的基础上,我们需要重构用户主体性。平台应建立多维度的用户赋权体系,通过交互界面革新赋予用户对信息流的实质性控制权。可以开发智能化的审美偏好调节器,通过多模态交互界面允许用户自主设定审美参数阈值。同时,部署基于批判性算法素养的智能过滤系统,支持用户对“显瘦”“抗衰”等关键词实施分级屏蔽,甚至通过机器学习自动识别并降权传播容貌焦虑的推荐内容。这种用户–算法协同赋权框架,实质是构建数字身体的反规训技术路径,既通过技术可供性拓展个体的审美认知边界,更在算法层面对抗身体资本的再生产逻辑,为破解数字资本主义语境下的审美不平等提供物质性基础。

唯有当推荐系统从规训工具变为赋能工具、当技术逻辑与人文价值形成深度共鸣时,才能真正实现工具理性与价值理性的有机统一。这场变革不仅关乎算法伦理的重构,更预示着数字时代主体性重建的重大转向。

6. 结论与展望

本研究揭示了电商平台算法推荐系统在用户容貌认知重构中的隐性规训机制。这是一种突破传统规训范式的“数据化柔性控制”——算法并非通过强制手段塑造身体意象,而是依托用户行为数据勾勒出“理想化”身体标准,继而以精准推送机制将商品、内容与社群信息编织成一张无形的审美网络。用户在看似自主选择和个性化满足的体验中,潜移默化地接受并内化特定的审美标准。平台通过满足用户对“完美身体”的想象实现商业闭环,而用户的身体感知、消费行为乃至自我价值判断,都在数据流的循环中经历着结构性重塑。这种规训机制以个性化体验为载体,构建起一种具有无痛感、强渗透性和高度自我内化特征的新型权力技术,使容貌规训从外在强制转化为用户主动拥抱的认知框架,最终在数字界面中形成算法与主体性的复杂关系。

面向未来的研究图景,本文给出两个关键方向,其一聚焦跨文化比较,在不同文明语境里,身体审美范式、技术接受阈值以及主体性认知有着差异,这便需要系统考察算法推荐和本土文化基因的交互机制,当技术逻辑碰到文化传统,怎样催生出带有地域独特性的“理想身体”建构模式?其二是用户主体性觉醒的算法抵抗策略。算法编织的“柔性控制”网络并非毫无破绽,用户正借由多维实践解构技术霸权,他们有的主动构建多元化信息茧房来打破审美闭环,有的以批判性视角拆解算法逻辑,有的借助虚拟社群发起身体多元性倡议,甚至创造性地利用平台规则实施“反数据驯化”,实际上,算法抵抗从积极方面讲也是一种积极的“断连接”和“反连接”策略,在普遍处于“存在性焦虑”的当下,主动逃离算法驯化,反向驯化算法,可使人们回归现实社交的本质,主动掌握在技术面前的主动权,推动技术向善。

未来研究亟需建立用户抵抗行为的分类学体系,系统评估各类策略对算法权力结构的削弱程度,为构建更具包容性的算法生态提供参考。唯有穿透技术表象,既揭示算法权力的隐秘运作机制,又激活用户主体的能动性潜能,才能在数字时代为身体认知的健康发展开辟理论与实践的双重进路。

参考文献

[1] 张洁. 中国电子商务服务业产业结构及发展历程探索[J]. 商业经济研究, 2016(2): 171-173.
[2] 洪亮, 任秋圜, 梁树贤. 国内电子商务网站推荐系统信息服务质量比较研究——以淘宝、京东、亚马逊为例[J]. 图书情报工作, 2016, 60(23): 97-110.
[3] 暴琳, 朱志宇, 孙晓燕, 等. 面向多源异构数据的个性化搜索和推荐算法综述[J]. 控制理论与应用, 2024, 41(2): 189-209.
[4] (法)福柯. 规训与惩罚[M]. 刘北成, 杨远婴, 译. 北京: 三联书店, 1999.
[5] 田冰洁, 姚洋. 电商直播平台个性化推荐、用户感知价值与消费者购买意愿[J]. 商业经济研究, 2024(21): 70-74.
[6] (美)罗伯特∙K∙默顿. 社会研究与社会政策[M]. 林聚任, 李一松, 陈大红, 等, 译. 上海: 三联书店, 2001.
[7] 高文, 钱德沛, 朱美芳, 等. 智能算网的基础理论与核心技术[J]. 中国科学基金, 2025, 39(2): 194-207.
[8] (法)福柯. 自我技术[M]. 汪民安, 编. 北京: 北京大学出版社, 2015.
[9] 张婷. 数字资本驱动下消费主义的现实挑战及应对策略[J]. 思想教育研究, 2022(11): 117-124.
[10] 刘子曦, 李荣誉. 身体资本: 消费社会的身体观[J]. 社会科学辑刊, 2024(3): 150-157.
[11] 毕芙蓉. 文化资本与符号暴力——论布迪厄的知识社会学[J]. 理论探讨, 2015(1): 53-56.
[12] 程恩富, 余晓爽. 数据资本视域下的消费异化: 现实表现、生成逻辑与解蔽之径[J]. 理论月刊, 2025(3): 79-86.
[13] 魏娟玲. 统筹发展和安全的算法治理逻辑及机制创新[J]. 山西大学学报(哲学社会科学版), 2025, 48(3): 113-123.
[14] 倪春乐, 钟瑜. 国家安全视阈下算法推荐的认知安全风险及应对[J/OL]. 情报杂志: 1-7.
https://link.cnki.net/urlid/61.1167.G3.20250522.1101.004, 2025-06-01.
[15] 苗青, 曹洪军. 数字智能社会人的主体性发展的伦理困境及应对方略[J]. 理论导刊, 2023(9): 81-87.