1. 引言
随着网络用户数量的迅速增长,算法推荐技术应运而生。该技术依托强大的数据处理能力和先进的算法模型,能够高效地从海量信息中挖掘出用户潜在感兴趣的内容,并根据其个性化偏好进行智能筛选与排序,从而提供精准的推荐服务。然而,信息技术的飞速发展也带来了版权侵权风险,侵权案件频发,数字技术与互联网的进步在法律上存在空白,亟需完善相关的法律体系,尤其是版权主体的权利义务配置。2019年3月,欧洲议会通过的《数字单一市场版权指令》第17条引发了广泛争议[1]。尽管欧盟官方澄清该条款并不要求网络服务提供者履行普遍的内容监控义务,实际执行中,服务提供者为了满足该要求不得不部署上传内容过滤机制。美国对此持保守立场,2020年,参议院司法委员会知识产权分委会主席汤姆・蒂利斯在《美国数字千年版权法案》更新问题听证会上指出,全球版权所有者均在适用DMCA第512(d)条的通知—删除条款,美国正着力构建针对搜索引擎的“通知–删除”全球机制,现阶段不宜引入强制性过滤义务。
我国的司法实践中,部分法院坚持“通知–删除”原则作为认定网络服务提供者侵权责任的主要依据。平台在收到侵权通知后,如能迅速移除或屏蔽侵权内容链接,即视为已履行合理的注意义务。例如,在腾讯与微播视界公司的侵权案件中,法院认为平台无需承担事前审查的法定义务,原告要求平台逐一筛查视频内容的请求不仅加重了平台的运营成本,还可能因错误通知导致不合理的损害赔偿责任,违反了公平原则。相反,部分法院认为平台应主动采取先进的技术手段,积极履行社会责任,防止侵权行为的发生。在快手与华艺汇龙的侵权纠纷中,法院认为平台不仅应及时断开侵权链接,还应基于服务性质与技术能力采取封禁用户账户、严格审核上传内容等措施。理论界对平台是否应承担强制版权过滤义务亦存在争议。有学者认为现阶段不宜过度要求平台承担强制性的版权过滤义务,应当着眼于行业的可持续发展[2];也有学者认为平台的信息管控能力不断提升,应当承担与其能力相匹配的审核与过滤职责[3]。
网络服务提供者是否因应用算法推荐服务承担版权过滤义务?我国现阶段引入版权过滤义务是否具有可行性?随着过滤技术的不断发展,若网络服务提供者需要承担版权过滤义务,该如何承担?本文拟围绕上述三个问题就网络服务提供者设定强制性版权过滤义务展开深入探讨并提出建议,认为伴随过滤技术的提升,我国网络服务提供者具有承担过滤义务的可行性,但该过滤义务需为有限制、附条件的过滤义务。
2. 网络服务提供者的版权过滤义务来源
2.1. 法定来源:基于《民法典》1197条的延申
网络服务提供者的版权过滤义务不应归源于《民法典》第1195条,而应建立在第1197条所设定的“明知或应知”下的必要措施基础之上。部分学者认为过滤义务源于《民法典》第1195条,网络服务提供者在收到权利人通知后,应从传统的封闭性措施转向“根据构成侵权的初步证据和服务类型采取必要措施”的开放化规则,使“必要措施”具备弹性解释空间[4]。最高检也持有相同的观点,认为可用于充当过滤机制的法律依据是第1195条第1款中的必要措施[5]。
《民法典》第1195条明确列举了“删除”、“屏蔽”、“断开链接”等具体行为,这些措施主要是针对侵权行为发生后的事后救济手段,具有补救性和事后性特征。基于同类解释规则,第1195条所指的“必要措施”应被限定为事后补救措施[6]。“过滤”作为网络服务提供者主动采取的预防性措施,属于对侵权可能性进行前端控制,与第1195条所规定的事后补救措施在实施阶段、行为性质上存在本质差异,已经超出了第1195条通过列举方式限定的“必要措施”含义范畴。
相比之下,《民法典》第1197条明确规定了在未受到权利人通知的情形下,网络服务提供者应当基于“明知或应知”采取“必要措施”。这一规定具备事前预防性特征,与“过滤义务”所要求的前端风险防控相契合。因此,第1197条关于“明知或应知”状态下的必要措施,为网络服务提供者承担过滤义务提供了直接的法律依据[7]。
2.2. 技术来源:信息技术迭代的驱动
随着信息技术的持续演进,我国网络服务提供者的技术能力已显著增强,众多平台已能够借助先进的内容识别与过滤技术,为强化平台责任、提升治理效能开辟了更多技术路径。
以冠勇科技开发的“易犬”版权开放平台为例,该平台充分运用自然语言理解技术,深入解析文本语义与意图,实现对海量数据的精准识别与分析。同时,其融合声音波形比对与画面帧级数字指纹技术,对音视频内容开展高效比对,准确识别内容重复或相似片段[8]。此类技术不仅有助于发现盗版内容,亦可有效遏制侵权信息的传播,从而保障版权方权益得到及时维护。
此外,随着大数据、机器学习与人工智能等关键技术的日益成熟,短视频平台得以运用更为高效和精准的手段识别潜在的侵权内容。例如,数字指纹技术已广泛应用于视频内容的自动识别中,通过为每段内容生成唯一标识符,平台能够迅速完成内容比对与重复检测。关键帧识别技术则可自动提取视频关键画面,辅助识别可能涉及侵权的片段,实现事前过滤与拦截。图像内容分析技术则通过对视频画面进行深度解析,有效识别传统关键词筛查难以发现的侵权行为。这些技术进展不仅显著提升了短视频平台的版权内容过滤能力,也为平台履行版权过滤义务提供了可靠的技术保障。
2.3. 司法来源:基于现有裁判规则的确立
关于网络服务提供者是否应承担版权过滤义务,学术界存在明显分歧。支持方主张,平台已具备相应内容筛查能力,引入过滤义务再保护著作权同时又可应对大规模侵权,从而实现版权保护与数字经济发展的平衡。反对方则担忧,严格的过滤义务可能侵犯用户言论自由和隐私权,并因技术门槛高而加剧大小平台间的竞争不公平。尽管学术界仍存在争议,实践中的司法案例却逐渐明确了平台应当承担一定的版权过滤义务,在多个案件中法院要求平台采取有效的技术措施来防止侵权行为的发生,见表1。
Table 1. Case analysis of copyright filtering obligations
表1. 版权过滤相关案例
案号 |
裁判要点 |
(2021)渝01行保1号 |
原裁定微播视界公司“立即采取有效措施过滤和拦截用户上传和传播侵害《斗罗大陆》动漫作品信息网络传播权的视频”并无不当。 |
(2023)粤03民初4121号 |
结合涉案侵权规模及快手公司的技术能力,认定该措施是遏制侵权蔓延的必要手段,同时也可通过现有技术实现,故需采取过滤、拦截措施。 |
(2025)渝民终62号 |
应当判令快手公司立即停止涉案著作权侵权行为,即采取包括但不限于过滤、拦截等有效措施。 |
(2022)浙01民终3098号 |
权利人的预警通知中附有具体侵权短视频的筛选范围和筛选标准等具体要求的,网络服务提供者可采取对应的过滤拦截等事前防范措施。 |
学界关于是否应当引入版权过滤义务的争论虽然充满理性,但这些理论性的讨论已经滞后于司法实践的实际需求。现实中的司法裁判显示,平台的责任逐渐从被动的事后删除扩展到主动的前端预防。当前讨论应当转向如何科学地构建符合中国国情的版权过滤义务规则,而不是继续在“是否引入”这一问题上争论不休[9]。
2.4. 算法推荐技术应用与法律后果的关系
在探讨平台责任时,必须对“算法推荐技术”本身与其具体应用场景及所产生的法律后果进行细致的区分。算法推荐作为一种技术工具,其自身并不具有主动性或意图,因此不应自动被视为法律上的过错或可归责性。换言之,算法推荐技术是否承担法律责任取决于平台如何使用该技术,及其使用方式对版权侵权的法律后果是否产生了实质性影响。
随着信息技术的发展,尤其是算法推荐技术的普及,平台的行为性质和责任范围发生了变化。当平台仅被动提供信息存储空间服务,其责任认定通常遵循“通知–删除”规则。如果平台利用算法技术对侵权内容进行针对性的推荐与推送,其行为性质就可能发生变化。此时,平台可能因对特定内容的主动干预而被认定为“应知”侵权风险,进而触发采取更积极措施的义务。因此,义务的触发点并非算法推荐技术本身,而是平台对该技术的应用方式及其所产生的助长侵权的客观后果。
3. 版权过滤义务引入的合理性与现实困境
3.1. 版权过滤义务引入的合理性
3.1.1. 网络服务提供者的侵权防控能力优势
从技术实施条件来看,网络服务提供者相较于版权内容权利人,具有显著的技术与资源优势。作为信息传播的基础设施与核心中介,网络服务平台掌握着内容上传、存储、分发等关键环节的底层架构控制权,具备在技术层面对信息流通进行干预与治理的能力。依托自动化内容识别与过滤系统,平台能够在用户上传内容的实时节点启动侵权识别机制,通过哈希值比对、数字指纹检测、特征库匹配等智能算法手段,对疑似侵权材料进行即时识别与拦截,从传播源头有效阻断侵权内容的扩散路径。这种“前置化”的技术治理模式,使平台在防控版权侵权方面具备天然的制度与技术优势。
从版权保护的时效性与范围来看,版权内容权利人的监测能力存在天然局限。权利人往往只能对已经完成上传流程的内容进行追踪与取证,难以实现对平台内部实时生成与动态更新内容的全时段、全领域监控,从而在版权保护中形成时效性缺口。相比之下,网络服务提供者作为信息流通的枢纽,能够通过持续运行的自动识别系统,在侵权行为发生的初始阶段即介入处理,从而显著提升版权保护的及时性与覆盖面。
从规模化治理效应来看,现行版权保护制度主要建立在个体权利人“各自为战”的权利行使机制之上,导致维权成本高昂、效率低下。而网络服务提供者凭借统一运行的内容过滤与识别系统,可通过标准化流程同时处理多个权利人的版权保护请求,实现多主体、多作品的集中式治理,以更高的经济效率完成版权保护与侵权防控。这种“平台化治理”模式在实质上降低了社会整体的版权执法成本。
3.1.2. 知识产权的属性加剧了维权成本负担
知识产权尤其是著作权具有鲜明的时效性与市场依附性,其经济价值往往随着时间推移、同类内容更新或公众注意力转移而迅速衰减。在传统的“通知–删除”治理模式下,版权内容的救济机制存在显著的程序性滞后。权利人自发现侵权内容到向网络服务提供者发出删除通知,再到平台完成审查与下架的全过程,往往需要数日甚至更长时间。在此期间,侵权内容可能已被广泛传播,其对正版内容市场价值造成的损害已无法逆转。而当侵权内容最终被删除时,其商业价值由于时间滞延和市场消耗,往往已趋近于消失。
高额的维权成本与低效的救济机制,使得权利人陷入“维权投入与实际收益严重不对称”的困境,进一步削弱了权利人主张权利的意愿与能力。整个版权保护体系在实践中呈现出“高成本、低产出”的特征,难以形成有效的威慑与防护机制。
3.1.3. “通知–删除”规则的适用循环
现行法律框架下确立的“通知–必要措施”规则,实质上是一种事后救济机制,其治理逻辑依赖于侵权行为的事后发现与响应。这一制度设计虽然在早期信息网络环境中具有合理性,但在短视频等高频、碎片化传播生态中,却陷入了典型的“西西弗斯式困境”[10]。
版权保护的实践常呈现出“侵权发生–通知删除–重复上传–再行通知”的循环状态。当侵权用户通过改变文件格式、重新剪辑片段、切换账号或更换封面等方式规避技术审查与删除措施时,权利人不得不针对同一侵权作品的多次上传重复发出通知并启动维权程序。这种循环模式不仅造成了权利人资源的反复消耗,也使平台的治理效能陷入“形式上不断执行、实质上难以根治”的恶性循环。
因此,在算法推荐与智能传播机制高度渗透的语境下,现有“通知–必要措施”制度显然无法应对侵权行为的高频化与变异化特征。权利救济长期停留于事后反应层面,缺乏前置性、持续性和系统化的防控机制,从而使得版权保护陷入“制度疲劳”的状态,难以实现真正意义上的侵权遏制与权利保障。
3.2. 版权过滤义务引入的现实困境
3.2.1. 合理使用难以被识别
合理使用的界定向来是著作权法中的复杂问题。在具体司法案例中,法官需综合考量作品性质、使用用途、使用量以及对原作品的影响等多方面因素进行评估与判断,对法官的综合能力与法律素养构成较大考验[11]。尽管现代技术已经取得了显著的进步,算法在区分侵权内容与合理使用时依然面临巨大困难。以YouTube的Content ID为代表,其在大规模识别与管理已登记的版权素材方面展现出显著效能,在应对“合理使用”、变形化改编、剪辑等情形时存在系统性盲点。
英国视频创作者哈里·布鲁伊斯在YouTube上传批评动画《RWBY》的视频时,遭遇Content ID的多次误判。该视频主要通过引用原作片段进行批评性评论,符合合理使用范畴。然而,YouTube算法在上传检测中不断触发版权匹配,布鲁伊斯不得不多次重新剪辑上传,耗时逾一周并支出约1000美元法律咨询费。问题的核心在于,版权方Rooster Teeth公司将《RWBY》素材录入Content ID系统,系统自动判定匹配片段为侵权并将广告收益转移至权利人账户,即使创作者的使用具有批评和评论目的。由于YouTube的申诉程序仍由权利人最终裁定,创作者在程序上缺乏实质性救济[12]。
3.2.2. 过滤系统的成本过高
算法版权过滤技术面临着市场成本过高的难题,在短时间内难以在网络服务提供者群体中实现产业化应用,尽管版权内容过滤机制搭建完成并投入使用,持续的维护和管理费用也居高不下。过滤义务的门槛将导致市场进一步集中,大型平台因资本与技术优势而受益,而中小平台则可能因此退出竞争。
根据欧盟委员会于2018年委托的行业咨询报告,一套集成音视频识别的自动化过滤系统,初期研发成本通常介于500万至1亿欧元之间,后续维护与人工复核的年支出约占总成本的20%~30%。对于大型科技企业而言,过滤系统的高昂投入可通过广告收益与数据变现实现成本摊销。例如,Google自2007年起投资超过6000万美元建设并维护Content ID系统,其数据库涵盖超过8000万条版权指纹,算法迭代由上百名工程师持续维护。对中小型平台而言,部署此类过滤机制几乎不可承受。欧盟委员会对部分音视频分享平台的调查显示,若使用第三方指纹识别系统,如Audible Magic,其月度许可费介于1万至5万美元;若进行多媒体内容(视频、音频与图像)综合比对,单月成本可高达10万欧元。此外,平台还需承担与权利人数据库的接口开发、误判纠错机制维护、人工申诉通道运行以及服务器扩容等间接成本[13]。
从长远视角观察,高额的过滤系统成本不仅削弱中小平台的生存与创新空间,也可能导致内容市场的集中化与文化多样性的萎缩。若未充分评估过滤义务的经济可承受性,可能在强化版权保护的同时,反而重塑出不利于创新生态的垄断结构。
3.2.3. 大规模过滤侵犯言论自由
内容过滤技术另一个诟病在于其更倾向于满足权利人的保护需求和网络内容服务平台的管理要求[14]。一方面,内容过滤技术在处理用户在社交网络上生成的信息时会进行识别和分析,这些个人数据能够用于识别用户身份、用户的隐私偏好、行为模式等,对这些数据的不当处理可能对用户的隐私权和个人信息安全构成威胁[15]。另一方面,过滤算法容易受到人为操纵,为了避免法律纠纷和诉讼风险,平台可能会倾向于设定更为严格的过滤标准,并采取更为激进的过滤手段。有时出于商业保护的目的,一些平台可能故意利用版权过滤技术作为竞争策略的一部分,通过针对竞争对手的合法内容进行过滤,以维护自身的市场优势和经济利益。
4. 算法推荐服务提供者版权过滤义务的设计
在算法推荐主导的网络内容传播体系中,版权侵权的生成与扩散呈现出高频、隐蔽与碎片化的特征。传统以“通知–删除”为核心的治理模式已难以满足实时监管的需要。在此背景下,版权过滤义务已成为算法推荐平台责任体系的重要组成部分。然而,过滤义务并非单一技术命令,而是涉及主体划分、标准设置、对象识别与救济机制的系统性安排。
4.1. 过滤义务适用主体
关于版权过滤义务的适用主体,应在制度设计层面充分考虑不同类型网络服务提供者在技术能力、市场地位及内容控制力方面的差异,防止以统一标准施加刚性义务,从而导致中小型平台因合规成本过高而被排除出市场竞争。过滤义务的承担范围与强度,应以平台的控制能力与经济承受力为核心考量变量,在比例原则与竞争中立原则之间寻求平衡。
欧盟《数字单一市场版权指令》第17条即确立了差别化模式,将“在线内容共享服务提供者”作为主要的义务承担主体,并对初创型平台设置了豁免条款:凡成立未满三年、年营业额低于1000万欧元且月访问量低于500万的服务商,可暂免“采取一切合理措施防止侵权内容上传”的前置过滤义务[16]。该制度安排旨在防止合规成本演化为技术性准入门槛,从而维持数字内容市场的开放性与多元性。
从我国法治语境出发,借鉴欧盟差别化模式具有现实意义。立法上可在《信息网络传播权保护条例》或《民法典》配套司法解释中引入“中小平台豁免机制”,通过规模、技术能力与内容干预程度等指标对过滤义务进行层级化划分。对于具备雄厚技术实力与广泛用户基础的大型内容平台,其算法推荐机制在内容分发链条中具有实质性控制力,客观上强化了其对侵权传播的可预见性与可防控性。此类平台如抖音、快手、哔哩哔哩等,应承担更高强度的过滤责任。相较之下,搜索引擎或链接聚合类平台仅提供信息索引与路径指向服务,缺乏对具体作品内容的实质接触与控制能力,其过滤义务宜限于在确认重复侵权链接后采取屏蔽、断链等必要措施。此种差异化的义务分配模式符合控制力与责任强度相匹配的基本逻辑。
4.2. 过滤义务的判断标准
版权内容过滤标准的宽松严格程度是设置版权过滤义务中最为重要的内容,由于现在的算法过滤技术无法识别合理使用和侵权内容,过滤机制应当以“明显侵权”作为基本判别标准, 网络服务提供者采取了与其技术水平、专业程度相匹配的内容识别、关键词过滤等技术措施识别出“明显侵权”行为即达到该义务标准,对于潜在的一般侵权内容,则应倾向于推定为合法[17]。而在判断“明显侵权”时,可以从“绝对数量”与“相对比例”这两个角度进行量化评估,以确保筛选过程的科学性和准确性[18]。还可以依据不同作品类型的技术特征与传播属性设定相应的量化识别参数:对于视听作品,当系统检测到连续重合时长达到或超过30秒,或整体内容重合比例高于70%时,可推定为具备明显侵权特征;对于图像作品,若像素匹配度超过80%或相似特征点数量达到50个以上,则应视为触及版权过滤阈值;对于文字作品,鉴于语言表达的高度可替代性与引用的复杂性,宜采取更为审慎的标准,当重合字数超过1000字或重合比例达到50%时,应自动触发人工复核程序,以防算法过度过滤合理引用内容;至于音频作品,则可通过声纹比对与波形分析确定相似度,当音频指纹匹配率不低于85%且重叠时长超过20秒时,可作为自动过滤的启用条件。例如,在引用型使用中,创作者于影评视频中引用影视片段约10秒,并配以口述分析与字幕评论。系统在检测到画面重合率高达80%后触发侵权预警,但进一步的语音轨迹与语义层分析表明,该片段与原作品在内容表达与价值指向上存在显著差异。经综合判断,算法将其标记为“高相似–低侵权风险”类别,并自动纳入人工复核队列以防止误判。
4.3. 过滤对象识别机制
在面对数量庞大且更新频繁的作品库时,若要求网络服务提供者对所有上传内容均实施全面的版权过滤,无疑将造成巨大的时间与资源负担。为在版权保护与平台运营效率之间取得平衡,过滤义务的设计可依据对象来源实行分类治理。具体而言,可将过滤策略划分为“白名单机制”与“黑名单机制”两类:前者主要包括基于版权人主动申请生成的名单和系统自动识别的热门作品名单[19]。版权人可通过正式请求或预警通知的方式,将其作品纳入白名单,以获得更高强度的版权保护;同时,平台应基于播放量、转载次数等核心数据指标,对热门影视、音乐等作品进行自动识别并列入重点保护范围,从而实现对高传播度内容的精准过滤。相对应地,“黑名单机制”则针对存在重复侵权行为的作品或用户而设。当平台接收到合法有效的侵权通知后,应立即采取包括删除侵权内容、限制账号权限等在内的防范性措施,以阻断侵权的再传播。
此外,算法治理中可引入用户信用体系机制。该机制的核心在于建立“内容创作者信用分级模型”,通过对用户的上传记录、侵权历史及申诉结果进行持续追踪与量化评估,动态生成信用等级。信用等级较高的用户,因其过往行为表现出较强的合规意识和版权尊重度,其上传内容在算法识别环节中可适当降低过滤权重,以减少误判造成的创作障碍,提升系统运行效率。相反,对于屡次上传侵权内容、滥用申诉机制或存在恶意传播行为的用户,应当纳入重点监测与限流名单,通过提高内容审查强度、延长发布审核周期或限制推荐权重等方式,形成有效的行为约束机制。
4.4. 过滤救济机制设计
经过算法过滤后,需要人工复核的内容相较于作品原始数量已经有了显著缩减,但相较于将这部分人工成本全部转移给网络服务提供者,将其分散至仅需关注特定作品的权利人更加经济高效。依据我国《民法典》的相关规定,用户在接到涉嫌侵权的通知后,有权向网络服务提供者提交否认侵权声明,由平台转交版权所有人,并同时告知其可选择向行政机构申诉或依法提起诉讼。在算法过滤出现误判的情况下,用户亦可依照“反通知”机制,向网络内容分享平台提交关于错误过滤的异议申请。平台在接收申请后,应当依据异议理由启动人工复核程序,并在合理期限内向用户反馈复核结果。若用户或版权所有人对复核结论不服,仍可依法向主管部门投诉或向法院提起诉讼;若在法定期限内未采取进一步行动,则视为接受平台的复核决定[20]。该制度设计在程序上实现了自动化与人工干预的衔接,在权利保障与效率优化之间达成平衡,同时为错误过滤提供了制度化的救济途径。
5. 结论
在当今数字化浪潮的席卷下,网络已成为信息传播与交流的核心。算法推荐技术在精准满足用户个性化内容需求的同时,也使得版权侵权风险的显著攀升,网络服务提供者的版权过滤义务问题成为法律难题。版权过滤义务作为网络服务供应商的一项特定注意义务,只有当版权所有者明确提出对特定作品的过滤需求时,网络服务供应商才会采取相应的措施。此外,本文还对版权过滤义务的具体应用规则进行探讨,明确界定了哪些主体应当承担版权过滤义务以及该义务所涵盖的具体范围,详细阐述了作品过滤的具体准则,在救济途径方面,结合实际情况提出相应建议,期望版权过滤义务能够实现网络服务供应商与版权所有者之间利益的再平衡,推动我国网络版权事业的健康发展,为全球数字经济的繁荣贡献中国智慧与方案。
致 谢
感谢所有在学术道路上给予我启发与帮助的人士。每一份指点与鼓励,都是我完成本论文的重要力量。若本文的研究能对算法推荐时代的版权治理问题提供一丝启示,亦是对所有关心与帮助过我的人最好的回馈。