1. UGC平台对版权的保护与用户隐私权冲突的表现形式
UGC平台对于版权的保护是指面对沉重的网络盗版压力,著作权法要求信息存储与发布服务商采取版权内容过滤措施,预防用户的直接侵权行为,除了版权过滤措施以外,利用自然语言处理技术对文本内容进行版权分析,通过关键词提取、语义理解等,判断文本作品是否与已存在的版权作品有相似之处。在利用上述技术手段进行版权审查外,还有人工审查进行兜底,即平台的专门审核团队通过技术手段筛选出的疑似侵权作品,或者对一些难以通过算法判断的复杂情况进行深入审查。用户隐私权,是指公民享有的私人生活安宁与私人信息依法受到保护,不被他人非法侵扰、知悉、搜集、利用和公开等的一种人格权。它赋予权利人对私人生活的控制权,包括防御他人窃取个人隐私与是否向他人公开隐私及公开范围的决定权。在传统法学理论视域下,个人隐私与个人信息的法律边界本应存在界分。然而,在Web2.0技术范式主导的数字时代,隐私权的权利属性与边界范畴发生显著嬗变:其权利内涵已突破传统理论中“私生活不受侵扰”的消极防御型人格权定位,演化为兼具人格权与财产权双重属性的积极权能,即权利人对个人信息享有自主控制、自主决定的新型权利形态。所以,在互联网上的用户隐私权是指在互联网上享有的私人生活安宁与私人信息依法受到保护,不被他人非法侵犯、知悉、搜集、复制、公开和利用的权利,包括个人数据信息的知情权、选择权、安全权、支配权以及索赔权。UGC平台在进行版权的保护时,不可避免地会与网络用户的隐私权产生冲突,下文将介绍具体的冲突表现。
1.1. 版权保护对于隐私的风险
1.1.1. 内容审查中侵犯隐私权的风险
在UGC平台的生态中,内容审查作为版权保护的关键环节,与用户隐私权保护存在显著内在张力。在UGC的模式下,用户在平台上传内容时,兼具“版权主体”和“数据主体的身份”。首先,“版权主体”意味着需授权平台对内容进行初步审查以保护权利,作为“数据主体”,其内容中的隐私信息受法律严格保护,未经用户的许可不得进行未经同意的允许。这种身份重叠导致审查行为天然具有“保护一项权利而限制另一项权利”的矛盾性。平台在进行内容审查时,无论是出于故意还是过失,会对用户的信息在必要范围之外进行或多或少地获取。《中华人民共和国个人信息保护法》第六条规定了“最小必要原则”,即收集的信息应限于实现处理目的的最小范围之内。例如,抖音短视频平台旗下的app“爱剪辑”曾被曝光在内容审核中,收集用户手机相册内的所有图片信息,即便这些图片与用户上传内容毫无关联,这种行为严重超出了版权保护的合理需求,引发用户对隐私安全的强烈担忧。该类数据与用户实际上传内容关联性的相关性并不大,已构成对用户隐私权的侵害。同时,在利用自动化审查技术进行版权审核,在提升内容审核效能的同时,算法决策过程的不透明性,即“算法黑箱”现象,导致用户难以依据知情权行使数据主体权利,导致用户知情权受损,无法有效监督个人隐私数据的处理逻辑与流向,这种信息不对称进一步加剧了数字环境下的隐私脆弱性[1]。
1.1.2. 用户授权后的个人信息的失控
在UGC平台中,用户协议与默示许可机制共同构成了平台获取用户个人信息处理权限的“形式合法性”基础。然而,这一机制也催生了隐私授权领域的法律边界模糊问题,其核心矛盾在于:平台往往通过单方拟定的格式条款,以“一揽子同意”或“默示授权”等方式,将用户个人数据的深度分析与处理行为嵌入版权管理功能之中。用户为使用平台服务,通常只能选择整体同意协议,缺乏就具体条款进行协商的能力,从而导致其在信息不对称和地位显著弱势的情境下,实质上非自愿地让渡了对自身线上数据的自主权。由此,形式上的意思自治掩盖了实质上的意思不自治,进而引发隐私权保护范围与用户协议授权边界之间的规范。冲突。UGC平台为构建版权过滤与内容识别系统,通常在用户协议中设置条款,授权平台对用户上传的内容及其相关元数据进行扫描、分析甚至复制。这一过程不仅涉及对作品内容的处理,更本质上触及用户的通信信息与个人信息,构成对隐私权益的潜在干预。宽泛的表述为平台将用户数据用于超出合理预期的用途如算法训练、商业分析乃至第三方合作提供了空间,从而导致授权范围的显著不确定性,并进一步削弱用户对其个人信息的控制能力[2]。
1.2. 隐私保护对于版权的限制
隐私权与版权在现代法律体系中分别承载着不同价值取向。隐私权作为人格权核心组成部分,其本质在于保障个人私域自治,防止私人信息、空间及活动被非法公开或侵扰。相比之下,版权作为《著作权法》保护的客体,本质上是一种兼具人身与财产属性的专有权利,旨在通过赋予创作者一定期限的垄断权来激励知识创新与文化传播。版权保护的核心在于平衡创作者权益与社会公共利益。隐私保护对版权的限制本质上是《民法典》第1032条“隐私权”与《著作权法》第1条“激励创作”立法目的的价值冲突。
1.2.1. 立法方面的限制
基于基本权利限制理论及宪法的立法授权原理,立法机关通过制定法律保护隐私权并对其他权利进行合理克减,具有法理上的正当性基础。从我国宪法规范体系的视角来看,《宪法》第33条对人格尊严的保护无疑是隐私权的规范基础所在。人格尊严在宪法层面的确认,为隐私权的存在奠定了基石。当版权人进行维权时,《个人信息保护法》《网络安全法》的相关规定对版权维权有着诸多限制。当版权人追踪网络侵权行为时,他们只能获取那些与侵权主体认定直接相关的必要信息。比如说侵权账号注册IP,这一信息对于确定侵权主体至关重要,是符合“最小必要原则”的信息类型。《个人信息保护法》第13条规定,个人信息处理需要取得主体同意。这一规则对版权人通过UGC平台获取侵权用户信息形成了限制。具体而言,UGC平台在向版权人提供用户注册信息之前,必须先获得用户单独同意。在当前的立法的背景下,对于版权的限制是毋庸置疑的。如果对于隐私权进行过度的保护,其必定会对版权的正当行使造成影响。
1.2.2. 政策方面的限制
是否通过适度限制版权以强化隐私保护,本质上属于公共政策的价值权衡范畴。决策者需在保护个人隐私所带来的社会边际福利增量与版权限制引发的边际福利损失之间进行量化比较,同时还需在多元合法权益的此消彼长中寻求动态平衡。从全球治理实践来看,为维护网络秩序而实施内容审查与行为监控,已成为各国政府的共同选择。即便是美国,亦通过联邦与州立法构建监管体系,授权政府监控违法内容、要求UGC平台披露用户信息等。我国国务院《“十四五”数字经济发展规划》明确提出“在数据安全、隐私保护前提下促进数字内容创新”,要求版权保护政策不得阻碍数据要素流通,凸显了权利协调的治理导向。
在UGC模式下,版权问题的复杂性已超越传统知识产权范畴,其既涉及个人数据隐私的管制逻辑,又关联数据效能挖掘与价值实现的经济维度。在当前我国互联网技术发展与个人隐私保护实践,政策设计仍存在明显的路径依赖:局限于个体权利救济的治理范式,虽体现了对个人权益的保护初衷,但未能充分认知隐私与版权保护的潜在协同性。事实上,二者并非零和博弈关系,若能通过制度创新实现协同治理,将释放巨大的社会治理效能。
如果通过过度隐私保护规定或约束,为作品的创作戴上沉重的限制,也将束缚人们创作自由的手脚,与著作权法激励人们创作的内涵相悖,将阻碍文化和政治、经济的发展。在大数据时代下,应该如何隐私权自由与版权保护的内在张力,如何使创作自由和隐私权益的保护应时进入国家大数据战略实施之法治保障的场域,又如何在整体上建构版权保护与隐私保护相协同的新范式。是接下来要解决的重点问题。
2. UGC平台对版权的保护与用户隐私权冲突的成因
在UGC平台的生态环境下,版权保护的强化趋势与用户隐私保护需求之间的矛盾日益凸显。版权扩张旨在保障权利人的合法权益,激励创作;而隐私限制则是为了维护个人信息安全与人格尊严。二者在目标与实现路径上的差异,导致了激烈的对抗,给UGC平台的健康发展与用户权益保障带来诸多挑战。平台不仅是法律义务的承担者,更是以数据为核心生产要素、以流量变现为目标的商业实体。这一根本属性深刻塑造了其在版权保护与隐私保护之间的实际行为策略,也是冲突激化的深层经济动因。如前文所述,由于UGC平台已经脱离了纯粹的技术中立的角色,所以其对于用户上传作品版权审核的必要性和正当性是毋庸置疑的。版权审核系统(尤其是主动过滤技术)为平台提供了一个“合法且必要”的接口,用以系统性地扫描、分析用户上传的全部内容及其元数据。这一过程在技术上很难完全局限于仅识别版权侵权,它天然地成为了平台进一步丰富其用户数据仓库的契机。例如,在分析视频内容以识别侵权片段时,算法也可能同时识别出场景、物体、人脸、语音文字等信息,这些数据均可被用于优化平台的推荐模型或广告系统。版权保护义务在某种程度上被工具化,为其数据收集行为提供了表面上的正当性。认识到UGC平台数据驱动的商业本质,意味着任何协调版权与隐私冲突的监管建议,都不能仅停留在抽象的权利平衡教义上,而必须直面并约束平台的经济激励,使其内部成本收益计算与外部社会法律要求相一致。具体问题如下所述:
2.1. UGC平台审核义务的内容及程序法规不完善
由于现行立法尚未构建完备的审核程序规范体系,用户内容审核机制有可能变为数据滥用的风险端口。审核程序本身缺乏明确、统一的法定标准。法律并未对平台应采取何种性质、何种强度的审核机制,如事先审查还是事后追责作出清晰界定,也未规定审核的具体流程、时限与标准。这导致平台在实践中享有过宽的自主裁量空间,其审核行为可能因标准不一、随意性大而侵害用户的合法表达,也可能因故意不作为而构成对侵权内容的纵容。在实践场景中,基于用户与网络平台之间天然存在的信息不对称性,平台在实施内容审核活动时,存在逾越必要限度处理非关联性数据的潜在风险,而用户作为数据主体往往难以察觉此类数据处理行为[3]。当内容被处置时,用户往往难以知晓其具体违规原因,也无法有效质疑自动化决策的公正性。这种不透明性使得《个人信息保护法》所要求的透明度原则与程序正义难以实现。在此情境下,审核行为的合法性要件及数据利用的目的正当性均缺乏有效的法律监督与审查机制。若未能通过立法形式对内容审核的边界与范围予以明确界定,将不可避免地导致UGC平台审核权力的扩张,这种权力扩张最终将集中表现为对用户隐私权的系统性侵害,进而加剧平台内容审核义务与用户隐私权之间的权利冲突。从法律层面审视,审核程序法定性的缺失,使得平台数据处理行为脱离了必要的法律规制框架,客观上形成并加剧了两种法益之间的对立关系。
2.2. 知情同意原则的制度性缺失
UGC平台主动进行版权审核的过程中,必然会触及到用户信息。用户的知情就变得很重要。“知情同意原则”就是指信息管理者在收集个人信息之时,应当对信息主体就有关个人信息被收集、处理和利用的情况进行充分告知,并征得信息主体明确同意的原则。其理想是赋予个人对其信息控制的自决权[4]。知情同意被普遍作为个人信息处理正当性的黄金规则,是个人信息处理行为最重要的合法性基础在具体的实践中,大多数网络运营者会使用隐私政策来贯彻这一原则,隐私政策以文字条款的方式列出网络运营者所收集、储存、使用、共享的用户信息,来保障用户的知情权,同时征得用户的同意与接受,以保障公民对自身信息的自决权。作为个人信息处理的核心合法性基础,“知情–同意”原则在UGC场景下面临挑战。隐私政策通常冗长晦涩,用户难以真正理解;同意机制多为“捆绑式”一键授权,缺乏真正的自愿性与选择性。这种形式化的同意无法构成用户对其个人信息用于特定版权审核的实质性授权,导致原则的初衷落空。但在UGC平台的实际审核运作中,这一原则的制度性贯彻存在显著缺陷。一方面,同意的“自愿性”要件面临消解:平台通过“捆绑同意”策略,将数据审核所需的信息处理权限与核心服务使用强制绑定,用户若拒绝授权则无法使用平台服务。“不同意即退出”将同意机制形塑成用户的被动防御工具,这种模式很可能是一种诡计,用来扩大用户有信息自决权的错误信念。在这种的架构中,用户即使“同意”,也只是一种无奈之举,很难完全符合用户的真实意思表示。
根据《移动互联网应用安全统计分析报告(2024)》发布的报告显示,存在“超范围收集个人信息”的APP应用占比27.11%;存在“APP频繁自启动和关联启动”的占比19.51%;存在“违规收集个人信息”的占比为15.09%。造成这种现象的原因是各平台在执行隐私策略时,不严格遵守规定,而是一味地追求数据利益,在大数据时代的背景下,数据利益就意味着经济效益。创造了巨大的商业价值。
2.3. 网络用户隐私权边界模糊
在UGC平台的版权审核中,网络用户隐私权的边界模糊性构成了权利冲突的困境。造成这种困境的原因,是数字时代人格权客体扩张与技术处理范式变革共同作用带来的产物。如前文所讲,用户隐私权与个人信息权并不是对立存在的关系,而应该是包含重叠的共生关系。在实践中,很难将隐私权与个人信息权加以明确区分,实际上在法学理论界以及实际立法上,并未对二者进行清晰界定。这种模糊性不仅体现在法律概念的界定上,也反映在司法实践中的适用难题。隐私权作为一项历史悠久的人格权,其保护范围和方式具有一定的传统性,而个人信息权则随着大数据、云计算等技术的发展而不断扩展,其保护对象和手段也呈现出新的特点。德国“领域理论”将个人生活划分为私密、隐私与个人领域,视私密领域为隐私权核心保护范围,强调其在信息权体系中的最高层级;美国“个人信息控制理论”从信息控制权出发,强调个体对自身信息的公开决定权,隐私权历经从侵权法到宪法的发展,成为涵盖个人信息的广泛权利,在信息权体系中居核心地位。从比较法视角下,德美理论虽出发点不同,但均强调隐私权在个人信息保护中的核心地位。在我国的实践中,虽然《网络安全法》和《民法典》均涉及信息方面的定义与保护,但是对用户的隐私权的详细内容进行规范。在实践中,在司法实践中难以准确判断隐私权的保护层级。这种法律上的模糊性,使得隐私权的保护层级难以在个案中得到统一适用。用户隐私权与用户信息权的边界模糊性在UGC平台的版权审核义务具体应用场景中,以二者之间的冲突形式表现出来。
在UGC平台履行版权审核义务时,平台依据用户协议,有权对用户上传的内容进行审核,从而进入用户信息的审查范围。然而,用户信息内容中涉及的隐私权部分,应当受到严格限制并予以保留。实际上,在UGC平台的版权审核场景中,用户隐私权的内容范围相较于其他应用场景会被一定程度地限缩,但其边界仍需明确界定。正是由于用户隐私权的理论边界存在模糊性,导致其在具体应用场景中的限缩界定缺乏清晰标准,使得UGC平台在履行审核义务过程中,可能对用户隐私权造成侵犯的数据搜集与使用行为难以得到有效规制,从而引发与用户隐私权的冲突。这种冲突不仅影响平台合规性,也对用户隐私权的保护构成挑战。因此,在平台治理与用户隐私权之间寻求平衡,明确隐私权在版权审核场景中的适用边界,已成为当前亟需解决的问题。
3. UGC平台版权审核义务与用户隐私权保护的平衡路径
根据前文分析,UGC平台版权审核义务与用户隐私权保护间的冲突虽具客观必然性,但通过对二者冲突成因的系统性剖析,可从根源性问题入手实施“对症下药”。具体而言,可在厘清冲突本质的基础上,凝练出兼具理论指导性与实践意义的宏观原则,继而构建具有现实适配性的微观操作路径,这一过程需要将成因分析的理论认知转化为可操作的规范指引,通过原则建构与路径设计的双重维度,实现版权保护与隐私权的平衡。
3.1. UGC平台版权保护与用户隐私权平衡的基本原则
3.1.1. 合法原则
UGC平台对用户上传内容实施预先审核,本质上是数字时代版权保护的合理制度安排。我国司法实践已明确该类审核行为的合规性,在相关典型案例中,法院指出视频分享平台通过技术过滤与人工复核相结合的方式防范侵权,属于合理且必要的版权管理措施。为了保证UGC平台的权利不被滥用,继而保障用户隐私权,有必要对此合理的行为进行一定程度的法律规制,因此合法性原则应当是平衡版权保护和用户隐私权中的最主要的原则。合法性原则包括以下三点。其一,平台对于用户上传内容审核的根据合法,平台对于内容的审核应当有正当合法的法律依据,需加强平台主动审核的相关立法并对其内容范围进行明确。其二,平台对于用户上传内容审核的措施合法。UGC平台对于用户上传内容进行审核的方式具有多样性,例如利用人工智能技术和算法对用户上传的内容进行初步筛选,建立正版作品数据库进行过滤,人工审核等。相比于人工审核,平台应采用算法过滤预防侵权,但必须辅以规则框架保护用户隐私。实现版权保护和用户隐私的平衡[5]。其三,平台对于用户上传内容审核的程序合法。平台的审核流程应当具备高度的透明性与规范性。平台需向用户公开内容审核的具体流程和判定标准,使用户充分理解其发布内容将如何被审核,以及版权侵权的界定条件。在内容审核过程中,平台不可避免地会收集和处理大量用户数据。这些数据的处理必须严格遵循相关数据保护法律法规,贯彻目的明确、数据最小化和合法合规原则。
3.1.2. 合目的性原则
UGC平台对用户上传内容进行审核的目的在于对于如今网络时代的盗版以及版权侵权行为进行有针对性的预防,以“预防侵权、维护创作秩序”为核心进行科学的管理,进而实现
创作自由和隐私保护的平衡,所以合目的性原则是内容审核义务中应当遵循的实质性原则。其一,合目的性原则中的“目的”应当是具体的目的,而不能宽泛地以维护版权的说法来解释合目的性原则中的“目的”,因为保护版权的内涵和外延太过宽泛,简单地保护版权无法对平台的内容审核行为进行约束和限制,进而无法有效平衡UGC平台的内容审核义务与用户隐私权保护的冲突。其二,用户上传的内容应当在该具体目的的指导下得到平台合理地审核。对于平台审核内容无关的数据或者目的用途不明确的数据,平台没有必须要进行使用的必要性。审核措施需符合《著作权法》《个人信息保护法》的立法目的,排除“以审核为名行垄断之实”等不正当目的。在对用户隐私权边界明确界定的前提下,通过对合目的性原则,可以排除绝大多数与用户隐私权冲突的“非必要”审核内容,也可以防止UGC平台利用不对称的地位向用户请求与审核内容不相关数据的行为。所以合目的性原则是平台进行版权内容审核的实质性原则。
3.1.3. 合理性原则
合理性原则的意义,本质上是要求平台在履行版权审核义务时,其审核行为必须在目的和手段之间具有适当性和平衡性,避免为实现合法目的和采取过度手段导致用户的隐私权被侵犯。在UGC平台场景中,该原则表现为双重规范要求:版权审核义务的履行需符合“预防侵权的合理期待”,隐私保护措施需满足“人格尊严的合理维护”。审核中对隐私的限制需选择侵害最小的手段。能通过关键词屏蔽处理用户上传的侵权内容时,不得对全部的内容进行解析。同时,法律对隐私的保护并非绝对,需在权利冲突时进行利益衡量。是否符合用户对其隐私的合理期待[6]。需要在不同的场景进行分析,例如用户是否明确要求内容私密平台性质、用户协议是否提示公开性等。因此,在平衡UGC平台内容审核义务与用户隐私权冲突时应以合理性原则为校准性原则,在法律没有明确规定的情况下,以保护用户隐私权为理念,对UGC平台对于内容的审核及数据收集予以合理限制,进而平衡二者的冲突。
3.2. UGC平台数据内容审核义务与用户隐私权平衡的具体建议
3.2.1. 不断细化内容审核的范围
用户隐私权保护与UGC平台内容审核义务的冲突焦点在于,UGC平台对于用户上传的内容往往没有具体明确的范围。这就导致在实际版权审查中,UGC平台容易超过审查需求的必要性和维护版权的目的性,导致用户隐私泄漏风险的提高。用户上传内容的审核范围应当以UGC平台对于版权保护的最小限度为衡量并且加以约束,依据具体化的版权保护的目的明确UGC平台的审核范围,为UGC平台对于用户上传内容的处理提供一般规则,为网络用户隐私权保障提供基本的法律依据。在遵循UGC平台内容审核义务一般边界的基础上,划定对不同内容的不一样的审核范围。针对不同领域的用户生成内容,平台需要收集的信息的类型和数量存在差异,此时UGC平台审核的内容也应有所不同范围。结合行业标准与技术发展,将新兴的深度伪造、算法偏见等衍生风险纳入审核范畴,建立动态更新的审核类目清单。同时,依据内容传播特性与风险程度,对不同类型、流量级别的内容实施分级分类审核,以此提升内容审核的精准性与有效性。在此基础上,基于著作权法、个人信息保护法等法律法规,明确划分侵犯著作权、泄露隐私等侵权内容边界。此外,应该设置UGC平台内容审核范围的“负面清单”,禁止收集与版权无关的用户私人生活内容以及其他数据。《个人信息保护法》28条规定了敏感信息,包括生物识别、宗教信仰、特定身份、医疗健康、金融账户、行踪轨迹等信息,以及不满十四周岁未成年人的个人信息。敏感个人信息一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害。我国应构建UGC平台内容审核的“负面清单”制度,将上述提到的隐私内容纳入其中,限制UGC平台收集类似的内容,从而将UCG平台保护版权的目的与造成用户隐私权控制在最小损害的平衡范围内,为用户隐私权提供更加有力的保障。
3.2.2. 完善告知同意规则的适用
UGC平台中的隐私政策是由网络服务提供者定义和提供,它描述了公民个人信息的收集、使用、存储、共享和转移等内容,通常以页面显示或网页链接的形式,明示地呈现给用户,要求用户同意,方能使用其应用软件,对UGC平台本身和公民的权利义务都作出相应规定。为实现版权保护与隐私权的实质平衡,必须对“告知–同意”规则进行操作性重构,核心在于将其从形式化的点击行为,转变为实质性的用户控制过程。首先,实施“分层授权”机制,实现同意的颗粒化与场景化。首先,仅为请求提供网络接入、基础内容上传与播放等核心功能所绝对必要的个人信息。用户必须同意此层,方能使用平台基本服务。然后,将为实现特定功能所需的数据收集进行单独分组,并逐一获取明确同意。其中,“用于版权侵权检测与防范”应作为一个独立的授权模块。在此模块中,平台需清晰说明为履行版权审核义务,将可能对上传内容进行技术分析,并列举可能因此被处理的相关数据类型,同时明确承诺不超出此目的范围进行深度内容分析或收集无关元数据[7]。最后,将与广告推送、个性化内容推荐、算法训练等商业化利用相关的数据收集与处理进行单独授权。将“告知–同意”规则具体化为“分层授权 + 即时提示 + 可撤销设计”的组合方案,是从程序正义和用户赋能角度化解冲突的关键。这一方案不仅具有法律与技术的双重可行性,更能实质性地改变用户在数据关系中的弱势地位,迫使平台将数据收集行为约束在用户明确预期和可控的范围内,从而在源头减少因版权审核而引发的过度隐私侵犯,为版权保护与隐私权的平衡奠定坚实的实践基础。“告知 + 同意”规则,旨在确保个体知道他们的数据被用来做什么,而后根据自己所知的情况选择是否以及如何使用这些数据。鉴于“告知 + 同意”规则完全取决于个体,是一种自主行为,在具体实施过程中,该规则产生了告知不充分、同意失灵、条文晦涩难懂等问题。为了进一步使版权保护和用户隐私之间达到平衡,应在肯定“告知同意”规则的积极作用的基础上,将规则修正为“充分告知 + 实质同意 + 同意例外和撤回”。充分告知,指的是隐私政策全文理应全面、规范、明确。但将用户的全面知情纳入考量范围,应在个人信息分级的基础上,优化隐私政策的内容叙述,可采取全文版与精简版双版本的隐私政策,精简版应着力将全文版的重点以简明、易懂的方式呈现用户,让受众可在最短时间内明了自己的信息被收集、使用的情况,这种分层呈现的方式已被全球范围内大部分主流网络运营者所采用。
3.2.3. 厘清用户隐私权内容与边界
UGC平台版权审核义务与用户隐私权冲突的减轻乃至达到平衡必然涉及解决二者的边界问题。UGC平台审核义务的边界当然有界定的必要,但同时也需要明确,用户隐私权的内容和边界同样不能无限放大,即使在合理性原则的指导下,对用户隐私权的保护也不应是无限制的,因此需要厘清用户隐私权内容和边界。尽管学术界对于个人数据权利属性的界定尚未达成共识,需依据具体应用场景、识别主体以及识别难度等因素加以综合区分,但对于处于最高保护层级的用户隐私权而言,其涉及的核心数据明确权利属性十分必要。以我国《中华人民共和国个人信息保护法》为例,便对“生物识别、宗教信仰、特定身份、医疗健康、金融账户、行踪轨迹等信息,以及不满十四周岁未成年人的个人信息这类敏感个人信息作出专门规定”。这类数据处于用户信息保护的核心地带,即便应用场景发生变化,其权利属性也不应改变。个人的隐私利益仍然是个人信息保护利益衡量的重要内容。在web2.0的时代下,现行匿名化技术体系已难以确保数据的去身份化追溯安全,用户隐私权的权利内涵与外延会随着具体场景的不同而处于不断的变化之中[8]。法律因固有的滞后性特征,难以单独完成对这一动态边界的精准调控。在此背景下,亟需将代码与算法纳入规制范畴,通过技术规则的前置性设定,构建起用户个人信息保护动态边界的界定路径。此外,尤为关键的是,用户隐私权的权利内涵与边界范围不应设定得过宽。若对此缺乏合理的设置,不仅会导致UGC平台的版权审核义务陷入“纸上谈兵”的状态,还会使合目的性原则与合理性原则的制度价值难以得到实现。通过强化用户对数据的实质控制能力,既能够有效促进版权保护目标的实现,又能确保技术创新始终在权利保障的轨道上有序发展,最终推动构建一个既尊重创作又保护隐私的数字生态。