1. 引言
在网络平台侵权领域中,避风港原则已被广泛接受[1]。该原则框架下,平台仅在接到权利人通知后负有采取删除等必要措施的义务,故也被称为“通知–删除”规则。近年来,以小红书、抖音、B 站为代表的自媒体平台迅速崛起,它们在为用户提供内容上传、链接分享、付费订阅及推广服务的同时,依托海量用户创作积累流量、获取分成收益,扩大市场。然而算法推荐技术的快速迭代,使得现有“通知–删除”规则在应对网络侵权时逐渐捉襟见肘。以时效性极强的直播为例,某部新剧首播当日,若多个账号同步盗播,平台算法因点击量激增而主动推流;即便权利人及时投诉,侵权直播虽关停,但关键剧情已在社交媒体病毒式传播,导致版权方会员转化率遭重创。在此场景下,“通知–删除”这种事后机械响应机制已难以为权利人提供有效保护,无法充分回应当下版权治理的需要。
2. “通知–删除”规则概述
(一) 制度溯源
我国“通知–删除”规则脱胎于1998年美国《数字千年版权法案》(DMCA)1所确立的避风港原则。当时美国正处于互联网商业化初期,关于网络服务提供者的责任难以界定:若要求平台对用户上传内容进行全面前置审查,过高的合规成本将直接扼杀互联网产业的创新活力;但若完全放任平台免责,则可能使得侵权内容泛滥。为兼顾侵权治理与新兴产业发展,避风港原则应运而生:网络服务提供者在接到权利人明确的侵权通知后,及时移除通知所提及的侵权内容,就进入了“避风港”,受到法律的保护,无须承担侵权责任。这一原则既降低了平台的合规门槛,又为权利人提供了便捷的救济路径,成为全球网络版权保护的标杆。
(二) 本土化演进
我国对“通知–删除”规则的引入与完善历经了数次修订。2006年公布的行政法规《信息网络传播权保护条例》中首次引入了该规则,并确立了“通知–删除–反通知–恢复”的运作流程。2009年公布的原《侵权责任法》第三十六条也延续了该规则,但只有通知权,没有规定反通知权[2]。2018年公布的《电子商务法》第四十二条至第四十五条延续了信网条例关于“通知–删除”规则的原有规定,但在不侵权反通知转送后的处理上,增设了十五日的屏蔽期。而2020年公布的《民法典》第一千一百九十五至一千一百九十七条进一步整合现有规定,将必要措施从单一的“删除”扩展为“删除、屏蔽、断开链接”等,将《电子商务法》的十五日“等待期”改为更具弹性的“合理期限”,并规定平台未及时履职或履职不当,则需与直接侵权人承担连带责任。
3. 算法推荐对既有规则的挑战
(一) 权利人维权成本攀升
依托用户画像、标签匹配等技术手段,算法推荐实现了自动化精准分发,推动内容传播朝着规模化、即时化方向发展,侵权内容的发现与定位难度也随之大幅提升。“通知–删除”规则要求以权利人先发现侵权内容再提交通知作为启动条件,但算法推荐机制下侵权内容具有隐蔽性与分散性,权利人难以全面、及时发现侵权线索。与此同时,权利人还需投入大量时间与人力成本,完成跨平台检索、精准定位和内容比对,并承担逐件发送通知、完成证据保全等程序性负担,在海量侵权面前往往因不堪重负而放弃维权。
(二) 救济滞后甚至失灵
现行规则下被动响应的救济模式与算法推荐的传播逻辑存在天然冲突。算法依托数据算力实现侵权内容的裂变式扩散,能够在数分钟内触及数以万计的用户;但侵权处理需经历权利人整理线索、提交材料、平台审核、内容定位并执行删除等流程,即便效率再高也存在数小时乃至数天的时间差。传播速度大于处理速度,使救济滞后成为常态:即便平台后续介入删除,版权作品的首发收益已被侵占、品牌声誉因侵权内容扩散受损,这些损害往往不可逆。
不少侵权者利用“变链”(频繁更换内容的访问地址,使平台已标记的侵权链接失效)、“秒传”等技术规避平台监管,导致“通知–删除”规则的救济机制濒于崩溃。以抖音平台的盗版包直播为例,直播间被平台封禁后,侵权者以“新账号”身份又能迅速重新开播,继续兜售侵权商品。权利人与平台陷入“打地鼠”式消耗战,前者反复针对新账号取证、提交通知,后者则需不断响应新的投诉线索开展核查,双方耗费大量人力物力却难以根治问题。
(三) 责任划分失衡
部分平台为吸引流量、扩大用户规模,进而实现广告、打赏等商业变现,对站内明显的侵权行为往往采取放任式管理,事后再消极作为。其做法将避风港异化为保护伞,享受算法技术带来的红利,却将版权风险完全转嫁到权利人身上,权责错配明显。这种现象已引发广泛关注,美国版权局发布的关于《数字千年版权法案》的报告就指出,当前有关避风港规则的司法实践曲解了美国国会的立法原意,过分扩张平台自治空间。
避风港原则诞生于互联网计算萌芽时期,彼时受限于硬件算力不足等不可抗力,网络服务提供者难以对平台内容实现有效管控。但随着算法技术的迭代赋能,平台已从单纯的信息通道转变为内容分发的主导者,深度介入用户内容编辑,若继续纵容平台以技术不能得到豁免,将实质架空“红旗原则”。该原则在我国立法主要体现于《民法典》第一千一百九十七条规定的“知道或者应当知道”条款,是平台责任豁免的例外规定。当侵权行为像“红旗”一样显而易见时,即便未收到权利人通知,网络服务提供者也应主动采取制止措施。此处合理注意义务的边界,应结合平台技术能力、内容传播特征等客观标准判断,比如对于平台热门推荐位上的盗版影视资源、百万博主发布的侵权文案,平台不得以不知情推诿。
4. 平台过滤义务的理论证成
(一) 域外经验借鉴
2019年3月,欧盟通过的《数字化单一市场版权指令》(以下简称欧盟指令)第十七条,要求平台须“尽最大努力”确保侵权内容不可访问,并主动寻求权利人授权、对权利人已提供关键参照信息的作品采取预防措施、在收到有效通知后迅速移除并防止重复上传。该条款在全球首次以成文法形式将上传过滤确立为网络服务提供者的法定义务,将“通知–删除”规则变为“通知–筛除”规则[3]。
与欧盟的公法强制矫正不同,美国未在立法规定平台过滤义务,但其国内已有众多互联网巨头自愿采用过滤措施进行版权保护。例如YouTube研发指纹比对技术建立Content ID系统,允许版权人在上传其作品参考文件后,对平台新上传内容进行全量筛查并自动处置(包括拦截、获利或追踪);Facebook、Instagram等平台紧跟其后。这种“自愿”转向既是为了规避“红旗原则”下的间接侵权责任风险,避免像早年Napster那样遭遇毁灭性诉讼;也有利于将版权审核转化为竞争优势,通过正版化运营吸引优质广告主,构建合规品牌溢价。
(二) 现行规则框架下的解释空间
关于“必要措施”的解释边界,学界存在“扩张论–限缩论–折中论”三派。限缩论认为,必要措施应仅限于列举的几种;若普遍引入主动审查义务,等于对平台增设立法未规定的积极作为义务,属于“司法造法”。但其实,主动过滤义务的构建并非对既有规则的颠覆,而是合理延伸。最高人民法院2020年《关于审理涉电子商务平台知识产权民事案件的指导意见》第九条明确,平台可采取“删除、屏蔽、断开链接、终止交易和服务等必要措施”。《民法典》第一千一百九十五条延续了这种开放性表述,为司法续造预留了解释空间[4]。在算法时代,仅采取被动删除措施已不足以有效遏制侵权,将主动过滤涉嫌侵权内容认定为“与侵权行为的性质、程度相适应的必要措施”,完全契合立法本意与实践需求。
许多司法裁判也印证了上述观点。以全国首例网盘服务提供商因怠于采取屏蔽措施制止用户侵权而被判赔的“优酷公司诉百度公司”2案为例,一审法院通过对“屏蔽”作扩大解释,将技术过滤纳入必要措施的范畴。其认为网络服务提供者应采取的必要措施应包括基于其所提供服务的性质、方式、引发侵权可能性的大小以及其所具备的信息管理能力,通过MD5值校验、视频指纹比对等技术识别侵权后采取的屏蔽措施。百度因未限制用户传播电视剧《三生三世十里桃花》,被判赔偿优酷经济损失100万元和合理开支3万元,双方均上诉,最终二审北京知识产权法院维持原判。还有快手公司与快乐阳光娱乐公司侵权纠纷案3中,二审法院也强调快手公司在收到通知后,未及时对视频内容及用户名称等关键词进行筛选审查,放任用户重复、持续传播侵权作品,且客观上从上述侵权行为获利,仅采取断开链接不能免责。
(三) 算法时代侵权治理的必然要求
无论是个体创作者、小工作室,还是中小短剧制作方,在与掌握流量入口和技术优势的网络服务提供者协商时,都天然缺乏议价能力。当作品被大量盗版传播时,他们既无力要求平台启动大规模筛查,也难以通过谈判、诉讼获得合理赔偿,因此必须强制要求服务商一视同仁地运用过滤机制制止侵权内容的传播[5]。该义务的设定并非对平台的过度约束,而是对技术权力的必要规制。以投“抖+”功能为例,在用户支付一定投放金额的条件下,抖音公司能够根据用户设定智能推荐人数、期望提升目标、预计播放量提升、潜在兴趣用户特征等具体要求,在24小时内完成相应的平台推荐。这表明,实践中网络平台依然对算法推荐技术具有很强的控制与支配能力。每一个看似由算法技术客观独立完成的推荐行为,实际上都离不开网络平台幕后的“操纵”。算法推荐系统通过用户画像、行为预测等技术,主动将侵权内容推送至精准受众,网络服务提供者从“信息通道”转变为“内容守门人”,难以适用技术中立原则[6]。其次,从治理效能来看,由平台主动筛查涉嫌侵权内容具有明显比较优势;作为内容传播的中枢节点,平台不仅掌握平台内侵权内容的发布场景、传播路径的第一手信息,更能依托实时数据监测侵权形态的动态变化[7]。在用户通过短链生成工具、实时改链等方式频繁更换侵权直播入口的场景下,权利人往往维权无门,而平台仅需依托算法分析域名特征、跳转规律、关联账号的设备信息与行为轨迹等数据,就可以实现对变异链接的动态识别与全域拦截。正如国家版权局“剑网行动”所强调的,只有压实平台主体责任,才能从传播端遏制侵权行为。由平台进行主动治理,既是对技术与责任关系的重新校准,也是破解规则救济失灵的关键。
(四) 技术可行性与成本效益分析
以百度、字节跳动、腾讯为代表的国内头部平台均已部署大规模内容审核系统,日均处理亿级内容条目,验证了关于涉嫌侵权内容的过滤已具备成熟的技术基础。针对文本侵权,深度语义理解模型可突破传统关键词匹配的局限,实现上下文敏感的智能筛查,精准识别洗稿、拼凑等隐蔽性侵权行为;针对图片与视频侵权,哈希比对技术即便面对裁剪、滤镜、变速等二次加工手段,仍能高效锁定侵权内容;针对音频侵权,声纹识别与音频指纹技术可实现跨平台溯源。
同时,过滤系统的前期固定投入(包括侵权识别模型的训练与优化、专用服务器集群等基础设施搭建、技术团队的研发与调试等),可通过全平台多元化业务的资源复用实现成本摊薄。尤其对于百度、字节跳动、腾讯等头部平台而言,其庞大的内容处理规模将大幅放大技术复用效应,单条内容的边际过滤成本会随处理量级的提升持续降低,甚至趋近于零。而随着技术逐渐成熟,即便对于中腰部平台,也可通过采购成熟的第三方过滤技术服务、接入行业共享的侵权特征数据库等方式,规避自主研发的高额成本。
从长远来看,平台主动过滤的显性成本远小于被动守法的侵权涉诉的隐性风险。2025年腾讯起诉快手《德云笑斗社》4著作权侵权案就充分证明了这一点。法院审理查明,快手在腾讯多次发布预警和告知函的前提下,依然放纵用户上传涉案节目片段,还主动创建话题、添加合集,引诱用户购买流量推广侵权视频,符合“应知”标准。最终该案由广东高院作出终审判决,全额支持了腾讯6000万元的惩罚性赔偿。可见,平台部署主动过滤系统的成本远低于侵权诉讼可能带来的经济损失与品牌损害。同时,系统自动生成的监测日志、侵权证据链还能在潜在诉讼中为平台提供有力支撑,进一步降低平台法律风险。
5. 过滤机制的具体构建
为防止主动过滤义务异化为过度审查,以及侵犯用户言论自由与创作自由,应从规范层面明确过滤机制的边界。
(一) 平台资质门槛
考虑到成本问题与技术能力,不宜对所有平台都设置主动过滤义务。可以参考《欧盟版权指令》第十七条第六款在前期豁免符合条件的中小平台,等到实践成熟成本降低时再考虑将其纳入。欧盟引入强制性过滤机制条款,原本是为了规制诸如YouTube、Facebook等互联网巨头的行为。因此应将义务主体限定为具备履行能力的大型平台,以平衡不同规模平台的合规压力。平台资质的界定标准可从三个维度综合考量:一是技术实力,平台需具备自主研发或引入侵权内容过滤技术的能力,拥有专业的技术研发与运营团队,普遍认为仅提供搜索、存储服务的服务商不应被纳入;二是用户规模,平台的注册用户数、日均活跃用户数达到一定标准,比如以千万级以上用户规模为参考,这类平台的算法推荐影响力更大,侵权风险也更高;三是管理能力,平台需具备完善的内容治理体系,包括健全的版权保护规则、专业的审核团队、有效的投诉处理机制等。
(二) 机制触发条件
主动过滤不代表权利人就不需要通知了,该机制的触发仍应遵循“权利人通知–平台采取必要措施”的原则,以防止平台过度审查以及避免其承担无限制的监控义务。只是出于时效的考虑,可以参考国家版权局从2014年开始进行的重点作品版权保护预警名单机制;由平台开放渠道让权利人主动提前申报,权利人提交身份证明、权利凭证、特征描述(如作品关键词、特征片段、哈希值)等信息。平台收到申请后,应在合理期限内(如7个工作日)对申请材料进行实质审查,重点核查权利人的权利合法性与过滤请求的合理性;审查通过后,将材料上传至过滤系统作为侵权比对的参考内容,启动主动过滤程序,对平台内符合特征描述的内容进行筛查与处理。这一设计,也能有效避免一些已经进入公共领域的作品被系统错误识别为侵权内容。同时,平台还可针对合理使用情形(如教学、新闻报道)建立动态白名单机制,允许用户提交不构成侵权的证明材料,经平台审核后豁免过滤,从而在强化版权保护的同时,兼顾信息自由流通与公众合理表达权的平衡。
(三) 权利人分担成本
在构建平台主动过滤机制的过程中,不宜将过滤技术的研发、运行、维护等成本完全转嫁至平台一方,建议要求申请过滤的权利人按合理比例分担部分费用[8]。这一方面,可减轻平台负担,实现利益平衡;另一方面,适度的成本门槛可一定程度上防范部分主体出于恶意竞争等随意批量提交过滤申请,对过滤系统运行和合法内容传播造成不当干扰。从可行性角度看,平台内泛滥的重复侵权作品的权利人多为具备相当经济实力的影视公司、版权代理机构,与事后个案维权所需承担的高昂诉讼费、律师费及时间成本相比,主动过滤机制下的成本分摊并不会给其造成过重的资金压力,完全符合权利人的长远利益。
(四) 配套救济机制
不可否认,当前的算法技术远未成熟,尤其在衍生作品的合理使用场景下有系统性缺陷[9]。衍生作品的本质是对原作的创造性转化,其合理使用边界依赖于语境、目的、比例、受众感知等多重主观要素的综合权衡;而现有过滤模型仅能通过特征匹配、相似度阈值等进行判断,部分合法二次创作易被标记为“侵权”从而被限流、下架。更棘手的是,算法决策过程缺乏透明度与可解释性,存在“算法黑箱”;上传者收到下架通知时,只能获得“相似度92%”之类的极简数值,既无法知晓具体比对片段,也难以自证清白。其次,训练数据往往偏向主流影视、流行音乐,导致对小众方言、地下音乐、亚文化梗的误判率仍然偏高。
为最大程度降低过滤机制的误判率、保障平台用户的合法表达与创作自由,建议建立“算法预审+人工复核 + 异议救济”的三级分层处理机制。具体而言,可由算法对疑似侵权内容进行初步风险评估,仅对匹配度超过高风险阈值的内容采取临时性限流或屏蔽措施,避免对合法内容的“误伤”。同时,设置透明的人工复核通道,允许用户对过滤结果提出异议[10];收到异议后,平台应在合理期限内(建议24至36小时)完成人工复审并作出终局处置,防止临时措施无限期悬置。在此过程中,平台有权要求权利人履行必要的协助义务,例如在复核阶段及时提供补充权利凭证、侵权比对的技术说明等必要支持。如果因权利人提交的特征信息存在明显错误、过度宽泛或恶意误导,导致过滤系统错误移除合法内容并造成用户损失的,权利人应承担相应的赔偿责任,以此倒逼权利人审慎地行使过滤申请权,形成权责对等的制度闭环。
6. 结语
我国现有的移植自美国避风港原则的“通知–删除”规则,已难以适配算法主导下的内容推荐生态,暴露出相当的滞后性与局限性。为破解规则适用困境,建议给网络服务平台设立主动过滤义务。这一主张并非对避风港原则的颠覆,而是基于现实需要与权责相称的适应性改良。避风港原则的核心要义是在权利人与平台之间划定合理的责任边界,而主动过滤义务的增设,本质上是在算法技术赋予平台更强内容管控能力的前提下,对这一责任边界的动态校准。
为防止此项义务被异化为过重的合规负担,还需同步构建系统化的配套制衡机制:一方面,前期将义务主体限定在技术能力、市场规模与审核资源达标的头部平台;另一方面,要求权利方分担成本、提供协助、损害赔偿,同时建立申诉通道,避免对产业创新与表达自由造成过度压制,造成寒蝉效应。
展望未来,为推动网络著作权侵权治理实现从“事后救济”到“事前预防”的革新,建议最高人民法院在修订网络侵权相关司法解释时,将主动过滤义务作为《民法典》第一千一百九十五条“通知–删除”规则项下“必要措施”的特别类型予以明确,为司法实践提供明确统一的指引。
NOTES
1Online Copyright Infringement Liability Limitation Act, Title II of Digital Millennium Copyright Act, Public Law No.105-304, § §201-02, 112 Stat.2860, 2877(1998).
2参见北京市海淀区人民法院(2020)京0108民初15648号民事判决书。
3参见湖南省长沙市中级人民法院(2021)湘01民终10636号民事判决书。
4参见广东省高级人民法院(2024)粤民终5088号民事判决书。