1. 引言
算法推荐技术蓬勃发展,让电商短视频平台迅速崛起,成为商业营销与内容传播的新阵地。海量短视频借助算法精准推送,极大提升了商品推广效率与用户购物体验。然而,这一繁荣景象背后,版权治理问题日益凸显。传统版权治理框架在应对电商短视频平台时,于角色定位、技术协同、制度适配等方面力不从心,规模化侵权屡禁不止,商业利益冲突不断,立法滞后难题亟待破解。如何重构版权治理制度,平衡平台责任与创作自由,成为行业可持续发展的关键所在。
2. 问题的提出
2.1. 平台角色转型:从信息媒介到内容治理主体的权责失衡
根据《中国网络视听发展研究报告(2025)》数据显示,截至2024年12月,我国短视频用户规模达10.4亿,日均使用时长长达156分钟,平台通过算法推荐技术实现的个性化推送占比也逐渐增多,显著改变了信息传播的底层逻辑。在算法推荐技术的深度赋能下,算法推荐影响内容分发最终引导着内容走向,虽然算法技术本身是中立的,但技术的运用往往服务于平台的营利目的[1]。这种技术赋能使平台不再局限于被动传输内容,而是通过用户画像分析、热度加权算法、协同过滤机制等智能技术手段,深度介入内容分发链条。因此平台已从技术中立者转变为网络空间秩序塑造者,电商短视频平台已突破传统“技术中立”的管道定位,演变为具有主动内容治理能力的核心主体。
平台算法对侵权内容的放大效应,本质上已构成对内容生态的主动塑造。算法通过流量倾斜、榜单设置、精准推送等机制,使特定内容的传播范围与速度呈指数级增长。例如,算法对热播影视剧集的切条内容实施“热榜加权”,将其置于信息流顶端,导致相关侵权视频直接冲击正版内容的流量变现渠道。这种技术干预能力与商业利益的深度绑定,使得平台在内容治理中呈现出显著的逐利性特征。当算法推荐带来的流量收益远超版权合规成本时,平台往往会通过模糊化“技术中立”边界来规避责任,例如以“算法黑箱”为由拒绝披露推荐逻辑,或以“技术不能”抗辩过滤义务。
司法实践已明确否定这种抗辩路径。如2019年“延禧攻略”[2]等案件判决中,法院明确提出了与不使用算法推荐的平台相比,使用算法推荐的电商短视频平台应承担更高的注意义务。平台通过算法推荐获取了更多的商业利益以及更高的用户粘合度,理应承担更大的责任。这种技术干预的商业本质,使得平台难以再以“中立技术提供者”自居,其内容治理行为已具备可归责性。法院也通过“红旗标准”与“应知推定”规则,将平台算法推荐能力与注意义务直接挂钩,要求其承担与商业利益相匹配的版权过滤责任。
2.2. 三维冲突:技术赋能、商业驱动与制度规制的协同困境
算法推荐时代的版权治理面临技术赋能、商业驱动与制度规制的三维冲突,这些冲突在效率、利益及速度层面形成系统性矛盾。
2.2.1. 规模化侵权与被动治理的效率冲突
算法驱动的规模化侵权与平台被动治理模式之间存在根本性效率冲突。当下,电商短视频领域规模侵权问题愈发凸显,呈现出普遍化与复杂化态势。侵权形式多样,涵盖直接搬运、剪辑拼接、二次创作越界等。侵权行为在各类电商短视频平台广泛存在,严重损害原创者权益,扰乱行业健康生态。然而,我国《信息网络传播权保护条例》第四条所确立的“通知-删除”规则,在实践中客观上导致网络服务提供者形成了对被动审查模式的路径依赖,倾向于仅在收到权利人明确通知后才采取删除措施,而缺乏主动审查与预防侵权的内在动力。这种制度设计使得平台在面对海量内容时,往往选择以最低成本履行形式合规义务,而非积极承担与其技术能力和商业利益相匹配的注意义务,进而削弱了版权保护的实际效果。与此同时,平台经济不断崛起,电商短视频平台从著作权人的作品获得了巨大的经济利益,若技术条件已具备时其仍然固守被动的事后审查角色,相当于放任侵权行为的发生,从侵权短视频中获取经济利益是建立在损害权利人利益的基础上,违背了诚实信用原则的基本要求,偏离了“善良管理者”的角色定位[3]。
2.2.2. 商业利益与版权保护的利益冲突
在数字内容产业高歌猛进的时代背景下,算法权力异化现象愈发成为制约行业健康发展的关键性掣肘因素,其不仅加剧了平台与创作者之间的利益博弈张力,更将商业利益诉求与版权保护诉求之间的深层矛盾以尖锐形式呈现于公众视野。作为平台内容生态的核心调控机制,算法通过流量分配权的集中行使,实质性重构了平台内部的权力运行架构,形成了对内容传播渠道的绝对支配地位。以MCN机构为代表的专业化内容生产体系,在流量变现逻辑的驱动下,逐步将短视频异化为具有明确商品属性的数字产品,其内容生产模式高度依赖剪辑、模仿、搬运等低成本策略,并通过直播带货、广告植入、电商导流等路径实现商业价值转化。这种以流量导向为核心的内容生产范式,在算法权力的加持下,催生出系统性侵权行为。算法通过流量分配权重构平台权力格局,创作者为获取曝光被迫采取“侵权优先”策略。头部平台热门视频中存在众多未授权的二次创作、缩减、混编等行为[4]。这种算法激励下的逐利行为,实质是“科斯定理”在数字空间的失效——当侵权收益远超预期成本时,理性主体必然选择违规路径[5]。平台方在流量增长与合规成本的两难抉择中,倾向于通过算法设计对侵权内容进行技术性包容,这种选择性注意义务的履行方式,不仅削弱了版权保护的法律威慑力,更在客观上形成了对侵权行为的算法庇护效应。
2.2.3. 制度供给与技术发展的速度冲突
我国《互联网信息服务算法推荐管理规定》虽为电商短视频平台算法推荐的法律规制提供了基础框架,但其制度供给速度仍滞后于技术迭代节奏,导致执行保障存在显著缺口。当前,算法技术已从单一推荐功能向深度合成、生成式AI等复杂形态演进,例如电商短视频平台通过多模态算法实现内容精准推送与流量操控,而现有规制方案仍停留在“避风港规则”“红旗标准”等基础层面,对技术中立性、数据偏见、内容操纵等深层次问题的规制工具供给不足。这种制度滞后性导致行政机关在监管中常面临“技术看不懂、风险抓不准”的困境,而平台则可能以“技术复杂”“商业秘密”为由规避义务,最终使得技术失控引发的系统性风险进一步加剧。
3. 电商短视频平台版权治理框架失效逻辑与机理解构
3.1. 法律规制层面的滞后性
3.1.1. “避风港原则”的适用困境
美国1998年颁布的《千禧年数字版权法》(DMCA)第512条首次确立了网络信息存储空间服务领域的避风港规则。通过构建“通知–移除”机制与多重免责要件,为互联网产业划定了责任边界——当服务提供者未直接参与内容创作、不知悉侵权事实存在,且在收到权利人有效通知后及时采取删除或断开链接等措施时,可免于承担间接侵权赔偿责任。
我国网络版权保护领域的法律规范经历了渐进式发展,逐步构建起更具适应性的责任规则体系。《信息网络传播权保护条例》明确要求其在收到权利人侵权通知后,须立即通过“删除”“屏蔽”或“断开链接”等方式移除涉案内容,此举奠定了“通知–删除”规则的实践基础。2009年《侵权责任法》第三十六条第三款突破性引入“必要措施”概念,将义务范围从单一删除行为扩展至包括限制访问、暂停服务、终止账号等多元化处置手段,为网络服务提供者履行责任提供了更具弹性的法律框架。2021年《民法典》第一千一百九十七条进一步细化规则,明确网络服务提供者在“应当知道”用户实施侵权行为时,亦需主动采取必要措施,否则将承担连带责任。这一立法演进标志着我国网络版权保护机制从“事后补救”的“通知–删除”模式,向“事前预防与事中控制”相结合的“通知–必要措施”模式转型,体现了法律对数字技术发展下侵权形态复杂化的积极回应。
如今传统“避风港原则”在算法推荐时代面临适用困境。“通知–删除”机制滞后于算法驱动的持续侵权,权利人需承担繁重的举证责任。从举证可能性来看,在“通知–删除”模式下,即便平台在处理权利人通知时展现出迟缓响应或是对重复侵权账户采取放任态度,权利人仍保有在平台内部自主搜集证据的空间;随着“通知–必要措施”模式的施行,由于权利人需要承担“必要措施”是否有效、是否匹配的证明责任,需要结合网络平台的网络服务特性、网络平台技术能力与技术特点等具有较强专业性和“黑箱”特征的事实,这要求权利人不仅需要查明技术事实,也需要熟知各个网络平台规则,权利人需要证明平台之不作为系出于故意规避责任之“视而不见”,而非因“能力不足”所致的过失,但鉴于网络平台技术能力的具体状况仅由平台自身掌握,举证责任的分配与网络平台技术算法黑箱之间的矛盾,进一步加剧了权利人权益保护的复杂性[6]。
3.1.2. 过滤义务的立法缺失
中国现行法律未明确平台算法过滤义务,与欧盟《数字化单一市场版权指令》形成鲜明对比。该指令第17条要求平台对重复侵权账号“终止服务”,并尽最大努力防止侵权内容再次上传。而中国《信息网络传播权保护条例》仅规定“通知–删除”义务,未涉及算法过滤。然而在实践中,谷歌于2007年为视频门户网站YouTube打造的内容识别系统(Content ID)是最早开发的版权内容过滤技术,如今,所有上传到YouTube的视频均会通过版权所有者提交的音视频内容数据库进行扫描,若存在Content ID匹配项时,会根据版权人的设置进行自动屏蔽等操作[7]。在中国,几乎各大电商短视频平台以及长视频平台均配备了版权内容智能识别系统,如搜狐视频的“视频基因比对技术”、北京抖音信息服务有限公司研发的“灵识系统”等[8]。上述实践表明,技术提供者已具备通过机器学习算法实现内容精准过滤的能力,其技术成熟度足以支持版权侵权内容的自动化识别。
然而,我国《信息网络传播权保护条例》及《民法典》相关条款仅规定平台在“知道或应当知道”侵权行为时承担连带责任,未明确要求其采取主动过滤措施。这种“被动响应”模式与算法技术发展水平已产生脱节。从权利义务对等原则出发,若算法服务提供者能够通过技术手段预防侵权行为发生,则应承担与其技术能力相适应的注意义务。因此,若将版权过滤义务在著作权法体系中确定下来,算法服务提供者仅需在现有的内容识别和自动过滤系统中加入版权影响因子,即可从源头大规模清理平台侵权内容,基于边际成本递减效应,并不会不合理地增加算法服务平台的运营成本,就技术成本而言,赋予算法服务提供者版权过滤义务具有可行性[9]。
3.2. 平台治理层面的利益冲突
在平台治理层面,网络服务商与著作权人之间的利益冲突呈现多维度的博弈特征。从成本收益结构来看,技术过滤措施的开发与部署需投入实质性资源,包括算法研发、算力支持及运维成本,而服务商缺乏向著作权人转嫁成本的稳定商业模式。尽管理论上可通过授权费分摊成本,但在缺乏法律明确背书的情况下,社会对“付费过滤”的接受度较低,导致服务商难以构建可持续的盈利模型。更关键的是,部分服务商存在“盗版红利”的内在激励——即使需履行“通知–删除”义务,其通过用户流量变现、广告收入及数据沉淀获得的收益,仍可能超过合规成本。例如在《老九门》短视频著作权侵权一案[10]中,快手APP通过算法设置“老九门”话题版块,并配以剧照、剧情简介等,吸引用户关注。至2021年11月8日,该话题下视频达2.2万个,播放量高达7.9亿次。快手APP还利用智能聚合工具,根据视频内容标题相似度、标签等因素,快速聚合相关搜索结果,进一步推荐侵权视频。其中用户名“小易影视剪辑”发布的《合集•老九门》点击播放量达374.2万次。这些算法推荐行为,使得侵权视频获得远超正常范围的曝光和传播,充分展示了算法推荐机制对特定类型侵权内容传播的放大效应。这种利益驱动下,具有网络效应优势的大型平台在谈判中往往占据主导地位,可能通过策略性议价攫取合作剩余的大部分份额,形成“著作权人收益被压缩,服务商垄断版权利益”的非均衡分配格局。
进一步而言,平台治理面临“集体行动困境”与“先发劣势”的双重制约[11]。在法律未明确界定注意义务边界时,率先部署技术过滤的服务商可能因用户体验受损(如内容误删、访问延迟)导致用户流失,形成“合规者吃亏”的逆向激励。这种“观望博弈”使得服务商倾向于等待竞争对手先行行动,而非主动承担治理成本。与此同时,著作权人群体存在显著的“集体行动难题”:个体权利人资源分散、议价能力薄弱,难以通过单边游说或费用支付说服服务商采取过滤措施。尤其是中小权利人,其诉求往往被平台忽视,进一步加剧了版权治理中的权力失衡。在此背景下,法律干预的缺失不仅导致谈判僵局与利益分配不公,更可能引发“劣币驱逐良币”的市场失序——合规平台因成本压力退出竞争,而纵容盗版的平台通过低价策略占据市场,最终损害整个内容生态的创新活力。
3.3. 用户基本权益保护的困境
当前,用户权益保护在数字技术治理下面临多重困境,集中体现为算法对用户合理使用短视频行为的过度限制,以及对隐私权的潜在侵犯,实质上侵害了用户的信息自由、表达自由、言论自由及隐私权。著作权法作为调整有限排他性权利的法律规范,其立法核心在于平衡创作者权益与公众表达权之间的冲突。短视频合理使用制度不仅承载着保障公众获取信息资源的公共价值,更是推动短视频行业生态良性发展、遏制著作权人权利过度扩张的重要制度安排。我国《著作权法》第24条明确规定,为学习、研究、评论等特定目的而进行的合理使用行为不构成侵权,这一制度设计体现了对信息自由与公共利益的双重保障。然而,平台算法在执行过程中,不仅通过“一刀切”的删除策略导致大量符合合理使用标准的短视频被不当移除,抑制了用户的表达空间与言论自由,更在数据收集、处理环节存在隐私信息过度采集与滥用风险,直接威胁用户隐私权保护。
算法治理的双重困境在国际层面亦有印证。2019年欧盟通过的《单一数字市场版权指令》第17条“版权过滤义务”条款引发争议,波兰政府即以其违反《欧盟基本权利宪章》中的言论自由保障为由,向欧盟法院提出撤销请求,反映出算法干预与基本权利保障之间的深刻冲突[12]。与此同时,算法对用户行为数据的深度挖掘与画像分析,虽提升了内容推荐效率,却也导致用户隐私边界模糊化,形成“技术便利”与“权利让渡”的失衡。在数字技术深度介入内容治理的当下,如何构建兼顾权利保护与技术创新的治理框架,平衡著作权保护、用户表达权及隐私权保障的多维诉求,已成为亟待解决的重要命题。若算法治理模式不加以规范,用户的多项基本权利将持续受损,最终影响数字内容产业的可持续发展。
4. 我国电商短视频版权治理制度重构路径
4.1. 制度建立:网络平台过滤义务的基本制度构建
我国在建立网络内容过滤制度以应对版权侵权问题时,可合理借鉴欧盟《数字单一市场版权指令》第17条有关版权过滤的相关立法经验,在构建算法服务提供者的版权过滤义务体系时,需从主体范围、识别与屏蔽机制、过滤标准三个层面进行精细化规制。
首先,应严格限定承担版权过滤义务的主体为提供信息存储空间服务且公开向公众提供内容的算法服务提供者。依据《信息网络传播权保护条例》,我国网络服务提供者可分为接入传输、系统缓存、信息存储、搜索链接四类,而《版权指令》中的“在线内容分享服务提供者”虽无直接对应概念,但其通过服务器存储并公开传播用户内容的本质,决定了其信息存储服务属性。具体到算法服务领域,生成合成类、个性化推送类、排序精选类、检索过滤类、深度合成类等五类算法技术因兼具存储与公开传播功能,需承担过滤义务;而调度决策类算法因不涉及内容存储,可免除此项责任。这种主体限缩既符合技术能力与风险管控的匹配原则,也避免了过滤义务的泛化对信息流通自由的干扰。
其次,在版权过滤机制的具体运行中,应构建以权利人主动参与为核心、平台技术过滤为支撑、责任分配为保障的协同体系。在平台履行过滤义务前权利人需承担基础性配合义务,通过向平台上传作品关键词、特征码、数字指纹等权源性信息,配合构建精准化的版权识别数据库。此举既能提升过滤算法的识别效率,也可避免平台因信息缺失导致的过滤失灵。同时为平衡平台运营成本,可允许平台向权利人收取合理的技术服务费用,该费用应基于过滤系统的研发投入、数据存储成本及运维支出等因素综合确定,并通过行业协议或监管指导形成标准化计价模式。在责任分配层面,若平台已依权利人提供的信息实施过滤但仍出现漏检情形,应参照“通知–必要措施”规则处理,即权利人发现侵权后需向平台发出有效通知,平台在接到通知后及时采取删除、屏蔽等必要措施,此时平台不承担赔偿责任;反之,若权利人未履行信息上传义务,导致平台因缺乏识别依据而未能过滤的侵权内容,则适用“红旗标准”,即当侵权事实已如“红旗般明显”时,平台若未主动采取措施,需与用户承担连带责任。此外,需建立动态更新的版权数据库,要求权利人定期补充新作品信息,平台同步优化算法模型,形成“信息上传–算法训练–效果反馈–数据修正”的闭环机制。这一体系既通过权利人参与解决了过滤技术的信息瓶颈问题,又以费用分担机制缓解了平台的运营压力,同时通过差异化责任规则实现了过错与责任的匹配,最终推动版权过滤机制向精准化、可持续化方向发展。
最后,过滤标准的设定需在版权人、用户与平台三方利益间寻求动态平衡。学界提出的“绝对数量”与“相对比例”量化维度虽具参考价值,但具体标准应通过司法博弈确定。过度宽松的标准会削弱过滤机制效率,迫使权利人依赖“通知–删除”规则;而过度严苛的标准则可能错误屏蔽合法内容,损害用户言论自由。为此,可借鉴德国最低限度条款作为侵权例外标准,构建双重事前标记机制即“用户主动标记与平台自动识别”机制,并配套全面的事后申诉救济途径。这一框架通过灵活博弈规则,在著作权侵权认定与合理使用判断间建立动态调适机制,既保障版权保护效能,又维护信息传播秩序与用户表达自由。过滤技术标准与实施路径。
4.2. 制度完善:司法行政协同的规制体系
司法与行政携手应对平台版权侵权问题,需在制度构建、监管执行与司法保障层面深度融合。行政方面,可依托信息规制工具,要求平台建立透明化的信息披露机制,如强制公开算法推荐的基本逻辑、数据来源及权重分配规则,并定期提交版权侵权风险自查报告;同时制定产出标准,明确平台推荐内容的侵权概率阈值,对超标平台采取警告、限期整改等梯度化行政措施。司法层面则需强化目标标准的应用,通过典型案例确立“算法可解释性”的司法审查框架,例如要求平台在侵权诉讼中提供算法决策的关键参数与影响因子,对无法解释推荐逻辑导致侵权扩大的情形,认定其未尽合理注意义务并承担相应责任。
在执行层面,行政机关可与法院建立数据共享与联合惩戒机制:行政处罚信息实时同步至司法系统,作为侵权诉讼中平台主观过错的认定依据;司法判决中认定的算法缺陷或管理漏洞,则反馈至行政监管部门,推动其修订行业技术标准或出台专项治理指南。例如,针对电商短视频平台频繁出现的音乐版权侵权问题,行政方可要求平台在推荐页面显著标注音乐授权信息,司法则通过判决明确“未标注即侵权”的归责原则,切实提升平台版权合规水平。
4.3. 权利救济:版权过滤中事后申诉救济体系
为有效化解版权过滤机制对言论自由构成的潜在威胁,需建立合理的内容过滤标准并配套必要的人工干预机制。欧盟《版权指令》确立的争议解决框架具有借鉴意义,其通过三种路径保障权益平衡:一是要求在线内容分享平台构建高效快捷的投诉与救济通道;二是设置庭外纠纷解决机制作为前置程序;三是明确司法救济的最终性保障。德国《版权服务提供者法案》与奥地利《版权法》修正案在此基础上进一步拓展,赋予用户组织参与诉讼的主体资格,形成多维度的权利救济体系。结合我国著作权法律制度特征、司法架构特点及算法技术运行规律,应当构建包含三个层级的申诉救济机制。
具体而言,第一层级为优化后的“通知–删除/恢复”双轨规则。算法平台完成内容过滤后,若权利人主张存在遗漏侵权内容,可沿用“避风港规则”启动通知删除程序;若用户认为合法内容被误删,则通过“通知–恢复”渠道提出异议。平台须在法定时限内完成人工复核并作出处理。第二层级设立用户与权利人双向诉讼通道,允许对平台人工审查结果持有异议的主体,直接就单次内容处理行为提起诉讼,该程序不以前置申诉为必要条件,但需严格限制用户个人对过滤机制本身的司法审查请求,防止滥诉发生。第三层级构建团体性救济机制,当用户组织认为过滤标准过度限制表达自由时,既可申请行政主管部门介入审查标准合理性,亦能就技术模型合法性提起公益诉讼。此处“用户团体”[1]包括经法定程序登记的消费者权益保护组织及达到法定人数的用户联合体,通过集体行动机制实现权利救济的规模化与专业化。
5. 结语
算法推荐时代,电商短视频平台版权治理已突破传统法律规制的适应性边界,其核心矛盾在于技术赋能的规模化侵权与制度回应的滞后性之间的张力。本文通过系统解构法律、平台、技术三重治理维度的内在冲突,揭示了单纯依赖“通知–必要措施”规则的治理范式难以应对算法驱动的侵权生态。制度重构的关键在于建立与平台技术能力相匹配的责任体系:通过明确电商短视频平台“合理注意义务”下的过滤责任,既避免过度规制抑制创新活力,又防止责任缺位纵容侵权行为;通过行政与司法的协同配合,实现技术治理的可问责性;通过完善事后申诉救济机制,保障用户与创作者的程序性权利。唯有构建法律规制、行政监管、权利救济的协同治理框架,方能在算法技术迭代与版权保护需求之间寻求动态平衡,最终形成兼顾产业创新与权利保障的短视频生态治理范式。