1. 引言
当前,人工智能技术与电商直播的深度融合正重塑商业形态,却也让传统法律规制体系陷入系统性挑战。据“电数宝”电商大数据库显示,2024年直播电商用户规模达6.2亿人,同比增长14.81%,用户规模的持续扩大与规制体系的滞后性形成鲜明反差,主体认定模糊、平台监管缺位等法律问题愈发突出,工业时代建立的法律框架与数字商业新范式之间的规制裂痕不断扩大。仅2025年上半年,浙江省消保委组织共受理电商网购投诉8586件,其中短视频带货引发的投诉呈增长态势,消费者反映的问题包括AI深度伪造技术滥用、诱导场外交易造成维权难、商品实际与宣传严重不符等1。
2025年6月,北京市海淀区市场监管局查处了某公司利用AI技术冒用央视知名主持人名义和形象的虚假广告案。某公司通过AI技术伪造央视主持人形象,利用央视信誉宣传其销售的“深海多烯鱼油”能够治疗多种疾病。经查明,该公司销售的深海多烯鱼油产品,实际执行标准为糖果,属于普通食品,不具备疾病治疗功能,涉嫌虚假宣传2。AIGC生成的超现实营销内容以假乱真,传统监管手段难以有效识别。这些现象共同指向一个根本性问题:当人工智能从工具性存在转变为生态构建者时,建立于人类行为中心主义的法律规制体系正面临系统性失灵。问题的复杂性在于,这种失灵不是局部性的,而是涉及主体认定、行为监管、权利救济和监管能力等多个维度的系统性危机。
然而,现有研究虽在传统电商直播规制方面取得丰硕成果,但在应对人工智能引发的范式变革时仍显不足。具体而言,现有研究存在三个明显局限:首先,对虚拟主体法律地位的研究众说纷纭,缺乏对人工智能生成内容责任归属的系统分析;其次,对算法决策引发的责任分配问题探讨不够深入,特别是平台责任与算法自主性之间的张力未能充分展开;第三,对AIGC内容的规制路径缺乏系统建构,现有研究多停留在技术层面,未能与法律规制体系有效衔接。这种理论研究的滞后,直接制约了规制实践的创新发展。
正因如此,本研究不仅具有重要的理论价值,能够丰富和发展网络法与科技法的理论体系,更具有紧迫的现实意义,为应对数字时代规制挑战提供系统性解决方案。随着人工智能技术向通用人工智能演进,这一研究的前瞻性价值将愈发凸显。从更广阔的视角来看,电商直播领域的规制经验,对于构建整个数字经济的法律治理体系都具有重要的参考意义。
2. 人工智能时代电商直播的业态演进
2.1. 技术驱动下的直播生态重构
人工智能技术在电商直播内容生产环节引发了根本性变革。AIGC技术在电商直播内容生成环节得到广泛应用,头部平台的内容生产模式正在从人工主导向人机协同转变。然而,这种技术革新也带来新的法律问题。在司法实践中,已出现多起因人工智能生成的营销话术夸大产品功效而引发的消费者投诉案件,由于内容生成过程的自动化和智能化,使得责任主体认定陷入困境。
与此同时,电商直播的流量分配机制已完成从人工编辑到算法主导的深度变革。推荐算法通过分析多维度用户行为特征,实现直播内容的精准匹配。这种算法驱动的分发机制虽然提升了商业效率,但也带来严重的信息茧房效应。算法推荐限制了消费者的选择范围,且无法理解平台的推荐逻辑。其更深层次的问题在于,这些核心算法的黑箱特性使得监管面临技术性障碍,算法的公平性和透明度缺乏有效保障。
此外,智能技术在交易履约环节的应用正重塑着传统的电商服务模式。智能客服系统目前已承担电商平台大部分售前咨询工作。然而,这种智能化转型也带来新的法律挑战。近年来,智能客服相关的投诉量显著增长,其中相当比例的投诉涉及智能客服的误导性回复。同样地,在商品审核环节,人工智能鉴伪系统虽然提升了审核效率,但其误判导致的商家损失救济机制尚不完善。司法实践中已出现多起由于人工智能系统误判导致商家权益受损的案例,维权过程往往耗时较长。
2.2. 数据驱动下的营销模式变革
一方面,大数据分析技术的深度应用使得用户行为预测达到前所未有的精准程度。头部电商平台通过分析多维度用户行为特征,构建出精准的用户画像系统。这种基于大数据的精准营销虽然提升了转化率,但也引发个人信息保护和消费者自主决策权的担忧。
另一方面,机器学习算法在价格策略中的应用正在改变传统的市场竞争格局。电商平台的动态定价算法可能在无人为干预的情况下形成协同定价,这种算法共谋现象对现行反垄断法构成直接挑战。不同平台的同类商品价格波动呈现高度相关性,但由于算法决策的复杂性,难以适用传统的垄断协议认定标准。更值得关注的是,个性化定价算法的普及使得价格歧视行为更加隐蔽,在司法案例中已出现同一商品在不同用户端存在显著价格差异的情况。
2.3. 法律关系主体的多元化发展
首先,直播平台、产品销售的商家和电商主播共同构成了网络直播链条体系中的多元主体[1]。而随着人工智能技术的应用,虚拟主播、智能客服等新型市场主体涌现,其法律地位亟待明确。虚拟主播市场规模持续扩大,但相关法律规制严重滞后。在司法实践中,虚拟主播的法律地位认定存在明显分歧。有的法院将其界定为“电子工具”,而有的案件则认定为“新型营销主体”。这种法律定位的不明确导致责任认定困难,消费者维权面临诸多障碍。
其次,电商平台通过算法深度介入商品推荐、价格形成等核心环节,其角色定位发生根本性变化。智能推荐系统在平台交易额中占据重要比重,算法定价系统覆盖大量商品品类。这种深度参与使得传统的技术中立原则受到挑战。在司法实践中,平台往往援引“避风港原则”寻求免责,但其通过算法获得实质性控制力的现状,使得这种免责主张的合理性受到质疑。
最后,人工智能系统的自主性增强使得责任认定面临前所未有的技术难题。司法实践中,涉及人工智能侵权的案件审理周期往往较长,其中大量时间耗费在技术事实查明上。在智能客服纠纷案例中,由于对话内容完全由人工智能自主生成,且系统具有持续学习能力,导致责任追溯异常困难。更复杂的是,一些人工智能系统在运行过程中会产生超出开发者预期的行为,这种行为的技术归因和法律归责之间存在显著落差。这些问题的出现,充分说明了构建适应人工智能技术特点的法律责任体系的紧迫性和必要性。
3. 人工智能时代电商直播平台法律规制的现实困境
3.1. 主体认定困境
3.1.1. 虚拟主体的法律地位缺失
在人工智能大模型的加持下,批量化、产业化、定制化的数字人制作生产线开始出现,数字人成为了互联网巨头和新兴企业的重要布局方向之一[2]。这些智能系统通过深度学习算法实现了与用户的高度互动,但其法律地位却处于传统法律体系的灰色地带,虚拟主播、智能客服等新型主体的法律定位问题日益凸显。从民法视角来看,虚拟主体既不符合自然人的主体资格要求,也难以完全归入法人的范畴。具体而言,在司法实践中,当虚拟主播在直播过程中因算法自主决策产生虚假宣传等问题时,往往会出现责任主体认定的困境。从法律理论层面分析,虚拟主体的法律地位问题涉及到民事主体理论的现代化转型。传统民法建立在“自然人–法人”的二元主体结构基础上,而人工智能主体的出现则要求我们重新思考主体理论的基本框架。有学者提出“电子人格”的概念,建议赋予具备自主决策能力的智能系统特定的法律地位。然而,这种理论创新又面临着如何与传统法律体系衔接的难题。在现行法律框架下,虚拟主播等人工智能应用更多地被视为产品或者工具,但其实际运行中表现出的自主性又超出了传统产品的范畴。这种理论滞后直接导致司法实践中的裁判标准不统一,有的法院将责任归于技术开发者,有的则倾向于认定运营方承担责任,这种分歧严重损害了法律适用的统一性和可预期性。
3.1.2. 平台责任的重构挑战
电商平台通过算法系统深度参与交易过程,其角色定位已从单纯的技术服务提供者转变为市场的组织者和构建者。这种转变对传统平台责任理论提出了严峻挑战。在传统电子商务法律关系中,平台主要承担网络服务提供者的责任,适用“通知–删除”规则。但随着人工智能技术的应用,平台通过算法推荐、智能定价、自动匹配等功能,实质上深度介入了交易的核心环节。在“AI仿冒主持人案”中,平台算法若对该虚假宣传直播进行了精准推荐和流量扶持,平台是否还能仅以“技术中立”或“通道服务”为由免责?其通过算法获得的实质性控制力与所承担责任之间的失衡问题暴露无遗。
目前,国内许多学者已经开始重构平台责任体系,将大型电商平台定位为“守门人”,并赋予其更高标准的注意义务[3]。这种立法趋势反映了对平台角色重新定位的共识。在某些情况下,平台通过算法系统对商品进行智能排序和推荐,但当推荐商品出现质量问题时,平台却援引“技术中立”原则寻求免责。这种权责失衡的现象凸显出现行法律规则在应对技术革新时的系统性滞后。因此,亟需重新审视平台在人工智能时代的功能定位,构建与其实际影响力相匹配的责任体系。
3.2. 行为监管困境
3.2.1. 算法歧视的隐蔽性难题
算法歧视问题是人工智能时代电商直播平台面临的最为棘手的监管难题之一。与传统价格歧视不同,算法歧视作为算法滥用的典型形式之一,在各类互联网平台中屡见不鲜,诸如“大数据杀熟”“个性化定价”“定制化评论区”等现象不断刷新公众的认知,同时也扰乱了正常的市场竞争秩序[4]。电商平台通过机器学习算法分析海量用户数据,建立复杂的预测模型,实现个性化定价和差异化服务。这种技术应用虽然在提升交易效率方面具有积极意义,但也可能在不经意间产生歧视性后果。例如,基于用户消费能力、地理位置、设备类型等多维度的定价策略,可能构成变相的价格歧视,但由于算法决策过程的黑箱特性,使得这种歧视行为难以被及时发现和证明。
从法律规制角度看,算法歧视对现行反歧视法律体系构成严峻挑战。首先,在行为认定层面,由于算法模型的复杂性,很难确定是否存在歧视的主观故意。其次,在举证责任方面,消费者往往无法获取算法决策的相关证据,导致维权困难。再次,在监管层面,监管部门缺乏有效的技术手段来检测和证明算法歧视的存在。这种困境在某电商平台价格歧视案中表现得尤为明显,消费者质疑平台基于用户画像实施差异化定价,但由于无法获取算法决策的逻辑和依据,最终难以获得司法救济。这表明,亟需创新监管范式,建立算法审计、透明度要求等新型监管工具。
3.2.2. AIGC虚假宣传的规制困境
生成式人工智能在电商直播领域的应用,使得虚假宣传行为呈现出智能化、个性化和隐蔽化的新特点。部分直播营销人员在推荐商品时,对商品的描述“扬长避短”,夸大宣传产品的功效,隐瞒商品瑕疵,误导消费[5]。具体而言,AIGC技术可以生成高度逼真的商品展示内容,包括虚拟试用效果、合成用户评价等,这些内容往往难以通过传统手段进行真伪鉴别。“AI仿冒主持人案”即是AIGC虚假宣传的典型案例:利用AI生成的逼真主持人形象和权威背书话术,将普通食品宣传为具有疾病治疗功效的产品,其欺骗性和隐蔽性远超传统虚假广告。这种新型虚假宣传行为对现行广告监管制度提出了全新挑战。
从证据法角度分析,AIGC虚假宣传案件的取证工作面临特殊困难。在“AI仿冒主持人案”中,如何固定AI生成内容的证据、如何鉴定其真伪、如何追溯内容生成与传播的全链条责任主体,均成为执法难点。首先,AIGC内容具有可动态调整的特性,证据固定难度较大。其次,真伪鉴定需要专业的技术支持,而目前司法鉴定机构在这方面的能力尚显不足。再次,AIGC内容的生成过程涉及多个技术环节,责任主体认定复杂。此外,在行政执法层面,监管部门现有的技术手段难以应对AIGC内容的快速演化,传统的基于关键词和固定模式的监测系统已经失效。这些困境要求我们必须从技术监管、标准制定、责任分配等多个维度构建全新的治理体系。
3.3. 权利救济困境
3.3.1. 知情权与选择权的虚置
在算法主导的电商直播环境中,消费者的知情权和选择权面临被架空的危险。平台通过个性化推荐算法构建的信息环境,使得消费者实际上处于信息茧房之中,其获取的信息范围和质量完全受制于算法决策。电商平台的推荐系统通过用户画像和行为预测,向消费者展示算法认为合适的商品信息,这种信息过滤机制实质上剥夺了消费者的全面知情权。以“AI仿冒主持人案”为例,消费者在观看直播时,很可能因算法推荐而接触到该虚假内容,却无从知晓其推荐逻辑,更难以辨别AI生成形象的真伪,知情权与选择权在此情境下形同虚设。从消费者保护法理论看,这种隐性的信息控制与传统的信息不对称问题有着本质区别,其危害性更加隐蔽且系统化。
从法律实施效果来看,现行《消费者权益保护法》对知情权的保护机制在算法环境下显得力不从心。首先,传统的披露要求难以应对算法推荐的复杂性。其次,消费者即使获得形式上的信息,也难以理解算法决策的逻辑和依据。再次,平台通过“个性化”、“精准推荐”等名义,使得信息控制行为获得了正当性外衣。在某群体性诉讼案件中,消费者指控平台通过算法推荐限制其选择范围,但由于难以证明平台存在明显过错,维权诉求未能获得法院支持。这表明,亟需重构消费者知情权的内涵和保护机制,建立算法透明度要求,确保消费者在人工智能时代能够真正享有知情权和选择权。
3.3.2. 举证责任分配的失衡
在人工智能技术赋能的电商直播领域,消费者维权面临举证困难的系统性困境。由于算法系统的复杂性和平台的信息优势,消费者在诉讼中往往处于极其不利的地位。在算法歧视案件中,消费者需要证明平台通过算法实施差别待遇,但这要求消费者能够获取并解析平台的算法逻辑和数据使用情况,这在实际操作中几乎不可能实现。这种举证困境使得消费者权益保护在人工智能时代面临严峻挑战。试想,若消费者因观看“AI仿冒主持人案”中的直播而购买产品并受损,其如何证明自己受到了AI生成内容的欺骗?又如何证明平台算法在扩大损害中的作用?举证责任的巨大失衡使得消费者维权步履维艰。
从诉讼法理论角度分析,现行举证责任分配规则在应对人工智能侵权案件时表现出明显的不适应性。传统的“谁主张,谁举证”原则建立在当事人举证能力相对均衡的假设基础上,但在算法侵权案件中,这种假设已不复存在。虽然《最高人民法院关于审理网络消费纠纷案件适用法律若干问题的规定》在特定情形下规定了举证责任倒置,但其适用范围有限,难以覆盖人工智能技术带来的新型侵权形态。在某算法价格歧视案中,消费者因无法提供算法歧视的证据而败诉,这凸显出现行举证规则改革的紧迫性。因此,有必要针对人工智能侵权案件的特点,建立特殊的举证责任分配规则,适当减轻消费者的举证负担。
4. 人工智能时代电商直播平台法律规制的出路构建
4.1. 制度完善:构建分层分类的规制体系
4.1.1. 明确主体责任认定规则
构建清晰的责任认定规则是应对人工智能规制挑战的基础性工作。针对虚拟主播等新型主体,应当建立以“实际控制”为核心的责任认定体系。具体而言,可以借鉴产品责任法的原理,将人工智能系统视为特殊产品,其开发者、部署者、使用者按照各自的法律地位和行为作用承担相应责任。对于具有较高自主性的智能系统,可以考虑引入算法托管制度,要求平台设立专门的算法治理机构,对算法运行过程进行监督和控制。
在司法实践中,应当完善证据规则和证明标准,适当减轻消费者的举证负担。例如,在算法歧视案件中,可以实行举证责任倒置,要求平台证明其算法决策的公平性和合理性。同时,要强化平台的信息披露义务,要求其以可理解的方式向消费者说明算法决策的基本逻辑和主要依据。此外,还可以考虑建立人工智能专项保险制度,通过风险分散机制保障消费者权益。这些制度创新需要立法、司法、执法的协同推进,形成系统化的责任认定和追究机制。
4.1.2. 创新平台责任配置机制
针对平台角色定位的深刻变化,国内外理论界与实务界逐步形成了关于平台“守门人”责任的系统论述。欧盟通过《数字服务法》(DSA)与《数字市场法》(DMA)确立了较为严格的“守门人”制度,要求具有重大网络影响的大型平台承担主动识别、评估和缓解系统性风险的义务,包括进行定期风险评估、接受独立审计及遵守特定行为准则。美国的相关讨论则更多围绕《通信规范法》第230条展开,焦点在于第230条责任豁免的更合理方法[6],虽有主张引入合理注意义务的“谨慎标准”,但整体上仍倾向于通过事后追责与司法演进调整责任边界。在我国,学术研究亦深入探讨了“守门人”理论的本土化路径。王承堂明确指出,大型电商平台已具备市场基础设施属性,应赋予其更高标准的注意义务和管理责任。综合观之,主流观点正超越传统的“技术中立”与“避风港原则”,转向基于平台规模、市场力量及其对交易环境实际控制力的差异化责任配置[3]。
在系统梳理国内外主流观点的基础上,本文认为,对平台“守门人”责任的构建,应立足于其在人工智能时代所获得的“实质性控制力”。这种控制力体现在三个方面:其一,对信息分发渠道的控制,例如通过推荐算法决定内容的可见性;其二,对交易核心条款的影响;其三,对平台内生态规则的制定与执行。基于此控制力,平台责任的配置应遵循“权责一致”原则。根据平台规模、技术能力和市场影响力等因素,建立差异化的责任配置机制。对于达到特定规模、具有市场支配地位或对关键交易环节拥有实质性控制力的大型平台,应当赋予其“守门人”义务,要求其承担更高标准的注意责任和管理责任。具体包括建立算法伦理委员会、设立独立的风险管理部门、定期开展算法审计等。例如,可以要求大型平台对其推荐算法,特别是可能推送类似“AI仿冒主持人案”中虚假内容的算法,进行定期的、强制性的第三方审计,并将审计结果向监管部门报告。平台不能仅以算法自主性为由免除其对算法输出结果的整体性监督责任。此外,大型数字平台企业规模大,在全球范围活动,内部组织结构复杂,关联企业隐蔽性强,商业模式创新快,平台上的交易者众多,交易量巨大,交易内容和形态多样且变化迅速。平台的这些特点决定了外部监管者难以对平台上每次交易进行主动监管或者依举报监管[7]。因此,要完善平台内部治理机制,建立覆盖算法设计、部署、运行、评估全过程的合规管理体系,从内部建立起消费者权益的强大保护体系。
4.1.3. 制定专门规制标准
针对人工智能技术在电商直播领域的具体应用场景,制定专门的规制标准和技术规范。例如,直播带货中的虚假宣传等违法问题相较于线下交易具有复杂性和特殊性,许多法规在适用时需要根据不同情境进行具体分析,必要时应进行相应的司法解释[8]。具体而言,要建立AIGC内容标识制度,要求平台对人工智能生成的内容进行显著标识,保障消费者的知情权。标识要求应当具体明确,包括标识的位置、大小、持续时间等技术要求。其次,要制定算法透明度标准,要求平台以可理解的方式披露算法决策的基本逻辑和主要依据。透明度标准应当区分不同应用场景,兼顾商业机密保护和消费者知情权保障。
在标准制定过程中,要充分吸收行业专家、技术专家、法律专家的意见,确保标准的科学性和可行性。同时,要建立标准的动态更新机制,根据技术发展及时调整和完善。此外,还要加强标准的实施监督,建立标准符合性认证制度,对符合标准的企业给予一定的政策激励。这些专门标准的制定和实施,将为人工智能技术在电商直播领域的健康发展提供明确指引,也为监管执法提供技术依据。
4.2. 工具创新:发展技术赋能型监管
一方面,要发展算法审计制度。算法审计是应对算法黑箱挑战的重要监管工具。应当建立强制性的算法审计制度,要求平台定期对其核心算法进行独立审计。审计内容应当包括算法的公平性、透明度、可问责性等多个维度。例如,对于推荐算法,要审计其是否存在不当歧视;对于定价算法,要审计其是否构成隐性共谋。审计结果应当作为监管执法的重要依据,对于审计发现的问题,监管部门可以要求平台限期整改。在审计实施层面,要培育专业的算法审计机构,建立审计人员资质认证制度。审计机构应当具备必要的技术能力和独立性,能够客观公正地开展审计工作。同时,要开发标准化的审计工具和方法,提高审计的效率和准确性。此外,还可以考虑建立算法审计数据库,收集和分析审计数据,为监管决策提供支持。算法审计制度的建立和完善,将有助于提升算法系统的可靠性和可信度,防范算法滥用风险。
另一方面,科技监管的发展为提升监管效能提供了新的可能。科技监管是指监管机构通过运用新兴技术手段促进监管要求落实的数字化监管模式[9]。监管部门应当积极运用大数据、人工智能、区块链等技术手段,构建智能监管平台。例如,可以开发AIGC内容检测系统,利用数字水印、内容指纹等技术识别人工智能生成的内容。还可以建立算法风险监测平台,对电商直播平台的算法应用进行实时监测和分析。在监管科技应用过程中,要注重数据治理和隐私保护。监管数据的收集和使用应当遵循合法、正当、必要的原则,严格保护个人隐私和商业机密。同时,要加强与科研机构、科技企业的合作,共同研发监管科技工具。此外,还要重视监管科技人才的培养,建设既懂技术又懂法律的复合型监管队伍。监管科技的应用将显著提升监管的精准性和效率,帮助监管部门跟上技术发展的步伐。
4.3. 机制优化:强化多元协同治理
平台内部治理是规制体系的重要组成部分,应当推动平台建立完善的内部治理结构,包括设立算法伦理委员会、建立合规管理制度、设置用户权益保护机构等。算法伦理委员会应当由技术专家、法律专家、伦理专家等组成,负责评估算法应用的伦理风险,提供决策建议。合规管理制度应当覆盖算法全生命周期,确保合规要求嵌入业务运营的各个环节。在治理机制方面,要建立有效的内部监督和问责机制。平台应当明确算法相关人员的责任,建立责任追究制度。同时,要完善内部举报机制,鼓励员工举报违法违规行为。此外,平台还应当定期发布治理报告,向社会公开其内部治理情况和改进措施。这些内部治理机制的完善,将有助于平台自觉防范风险,降低监管成本,提高治理效能。
构建多元共治的社会监督体系是提升规制效果的重要途径。算法伦理价值的实现,需要平台企业、各类社群、用户共同参与[10]。首先,要发挥行业协会的自律作用,推动制定行业标准和行为准则。行业协会可以组织会员企业开展自律检查,建立行业信用评价体系。其次,要鼓励平台企业、专业机构参与监督,例如可以授权第三方机构开展算法认证和评估工作。再次,要完善用户参与机制,通过举报奖励等方式动员社会力量参与监督。在监督方式上,要注重运用现代信息技术手段。例如,可以开发消费者维权辅助工具,帮助消费者识别违法违规行为。还可以建立社会监督数据平台,整合各方监督信息,形成监督合力。此外,媒体监督也是社会监督的重要形式,应当支持新闻媒体依法开展舆论监督。这些社会监督机制的健全,将形成政府监管、行业自律、社会监督互为补充的治理格局。
完善的权利救济机制是保障消费者权益的最后防线。针对人工智能技术特点,应当创新救济方式和程序。首先,要优化举证责任分配,在算法侵权等案件中实行有条件的举证责任转移。其次,要拓展消费民事公益诉讼适用范围,允许法律规定的组织针对系统性、规模化的侵权行为提起诉讼。再次,要完善在线纠纷解决机制,运用区块链、智能合约等技术提高纠纷处理效率。在救济措施方面,要建立多元化的救济渠道。除了传统的诉讼和仲裁外,还可以探索建立专项赔偿基金、快速调解程序等替代性救济机制。同时,要加强跨区域、跨部门的协作配合,形成救济合力。此外,还要重视预防性救济措施的运用,通过禁令制度等方式及时制止侵权行为。这些救济机制的创新和完善,将确保消费者在人工智能时代的合法权益得到有效保障。
5. 结语
人工智能与电商直播的深度融合,在激发商业新活力的同时,也对传统法律规制体系构成了系统性挑战。本文系统分析了人工智能时代电商直播平台在法律规制上面临的主体认定模糊、行为监管缺位、权利救济困难以及监管能力不足等多重困境,并从制度完善、工具创新与机制优化三个层面提出了体系化的出路:通过构建分层分类的规制体系,明确主体责任、创新平台责任配置并制定专门规制标准;通过发展技术赋能型监管,推广算法审计与监管科技应用;通过强化多元协同治理,推动平台自律、行业规范与社会监督共同发力。这些路径并非孤立存在,而是相互支撑、协同作用的有机整体。
展望未来,随着生成式人工智能、通用人工智能等技术持续演进,电商直播的形态与法律关系还将进一步复杂化。法律规制体系必须保持动态性与前瞻性,在坚守公平、透明、责权一致等核心法治价值的基础上,积极探索技术治理与法治原则的深度融合。唯有如此,才能在技术赋能与风险防范之间找到平衡,构建既鼓励创新又保障权益、既包容发展又规范有序的数字商业新秩序。
NOTES
1数据来源于浙江消保委:短视频带货投诉增长,有主播用AI“换脸”名人,澎湃新闻,2025年7月14日,
https://www.thepaper.cn/newsDetail_forward_31176416。
2央视主持人遭AI仿冒带货,官方通报,极目新闻,2025年10月16日,http://www.ctdsb.net/c1716_202510/2566909.html。