摘要: 本研究首先讨论了我国现行《民法典》对于声音侵权的界定,在了解现有法律对于声音权的保护情况的基础上,结合人工智能技术飞速发展这一时代背景,分别阐述了声音的伪造与合成、声音的拼接与篡改、声音未经许可的商业使用以及其它声音侵权行为类型。人工智能时代声音侵权行为日益普遍,不仅因为声音的商业价值日益凸显、公众对于声音权的认知不充分,关键在于法律对于声音权的保护不到位。针对上述问题,本研究提出了人工智能时代声音侵权的法律规制路径,即完善声音权的相关立法、明确声音数据使用的合法限度、制定声音AI的伦理和技术标准,最后在声音权保护与我国现代化法治建设之间的关系上,强调了人工智能时代保护声音权、遏止声音侵权的重要性。
Abstract: This study first discusses the definition of voice infringement in current Civil Code of China. On the basis of understanding the protection of voice rights in existing laws, combined with the background of the rapid development of artificial intelligence technology, it expounds the forgery and synthesis of sound, splicing and tampering of voice, unauthorized commercial use of voice, and other types of voice infringement. In the era of artificial intelligence, voice infringement is becoming increasingly common, not only due to the increasingly prominent commercial value of voice and insufficient public awareness of voice rights, but also because of the inadequate legal protection of voice rights. In response to the above problems, the study finally proposed a legal regulation path for voice infringement in the era of artificial intelligence, that is, improving relevant legislation on voice rights, clarifying legal limits on the use of voice data, and formulating ethical and technical standards for voice AI. In terms of the relationship between the protection of voice rights and the construction of the rule of law, it emphasizes the importance of protecting voice rights and curbing voice infringement in the era of artificial intelligence.
1. 《民法典》对于声音侵权的界定
在《民法典》颁布以前,我国对于声音权的保护并非处于缺位状态。依据声音的传播内容和表现形式,我国法律从以下三种途径对自然人的声音进行保护:声音商标(《商标法》)、表演者权(《著作权法》)、反不正当竞争(《反不正当竞争法》) [1]。随着我国娱乐产业的发展、声音编写技术的迭代和人工智能技术的涌现,以上法律途径不再能够满足人们日益增长的声音保护需求,因此,《民法典》的问世一定程度上补充了有关规制声音侵权现象的内容。值得注意的是,《民法典》第1023条第1款和第2款均采用了“参照适用”的表述,即关于肖像权的法律规定不能直接套用在对于声音权的保护中[2],这一表述为界定声音侵权提供了基本方法:参照《民法典》第1019条关于保护肖像权之规定,无论是否征得声音权人同意,任何组织和个人通过各种手段处理声音权人的声音,损害声音权人的人格尊严的,均构成侵权;未经声音权人同意,以复制、出版、展播等方式使用或公开声音权人的声音,也构成侵权——哪怕声音作品权利人行使其声音作品著作权,亦不得违反其与声音权人的约定。简而言之,无端干涉自然人依法制作、使用、公开或者许可他人使用自己声音的行为均属声音侵权。
2. 人工智能时代声音侵权的主要类型
2.1. 声音的伪造与合成
当前,人工智能技术已然可以仅凭少量的声音样本,实现对于自然人语调、语音节奏、语言习惯的精准模拟,从而转化、输出为一段全新的语音数据,克隆出与自然人极为类似的声音。相较于文字、图片等表现形式,这类经过伪造和合成的声音片段更具迷惑性,产生“以假乱真”的误导效果,大大增加了声音侵权的界定难度[3]。声音的伪造与合成无视了权利主体的人身专属性,一些不法分子利用这项技术进行网络诽谤、电信诈骗和其他犯罪活动,并诱发其它情节更为严重、性质更为恶劣的声音侵权行为,对声音权主体利益和社会秩序造成侵害。
2.2. 声音的拼接与篡改
声音拼接是指从语段中提取出相应的语音参数重新进行排列组合为一个新的音频文件;声音篡改是指对声音的音色、音调等原始特征或声音主体输出的具体内容进行修改,以达到歪曲原意和事实的目的[4]。2016年,美国歌手坎耶·韦斯特拼接、篡改了与泰勒·斯威夫特的通话内容,致使泰勒遭受了长达三年的舆论暴力和公众误解[5]。可见,这类声音侵权行为严重损害声音主体的人格利益,进而污染社会舆论环境、扰乱社会秩序,尤其在司法实践中,录音资料作为一种重要的证据形式,其真实性和合法性直接关系到案件审理,声音的拼接与篡改无疑是对于司法公正性的公然挑战。
2.3. 声音未经许可的商业使用
作为一种人格标识,声音的使用权完全归属于自然人本身,任何未经授权的使用都可能构成侵权,人工智能技术的发展使这类侵权现象蔓延到商业领域,对声音权主体的合法权益造成了严重威胁。近年来,一些互联网公司在捕获大量声音材料后,通过分析样本特点,合成具有商业利用价值的声音,非法应用于产品的功能塑造、广告营销等活动,严重侵害了与该声音相关联的特定自然人的声音权益。这类侵权行为包括以下几种情形:一是资本方未经权利人同意擅自使用声音;二是资本方超出权利人许可的范围使用声音;三是资本方与权利人签订合同到期后继续使用权利人声音。
2.4. 其它声音侵权行为
除上述声音侵权行为的主要类型之外,依据《个人信息保护法》,任何组织或个人在处理敏感个人信息时,必须取得个人单独同意,否则将承担法律责任,而自然人的声音包含音色、音调等生物学特征的个人信息,这些信息属于敏感个人信息的法律范畴,因此,构成声音侵权的违法行为往往也涉及个人信息的窃取。另外,随着AI歌手风靡网络平台,学界对于声音作品的著作权问题展开思考:录音制品的著作权并不意味着对于声音AI化不加节制的无限授权,超越原有著作权范围的AI模仿是对于声音主体权利的侵犯,同样构成声音侵权行为。
3. 人工智能时代声音侵权的诱因分析
3.1. 声音的商业价值日益凸显
人工智能时代,声音不仅只是个体交流的工具,还转变为一种具有商业价值的财产,因此,自然人可以通过授权他人使用自己的声音而从中获得收益[6]。当前,许多企业经常在未经权利主体同意和授权的情况下,利用语音合成、声音克隆等先进技术手段,模仿或再现特定个人的声音,用于制作音频广告并在短视频平台上展示、播放,从而吸引消费者并获得经济利益,这类侵权行为以往常常发生在明星和公众人物身上。随着AI技术的进步和声音市场需求的扩大,未经许可的声音滥用现象日益普遍,平民大众受到的声音侵权风险不容忽视。例如,某个强识别性的笑声、口头禅或特定词句,一旦应用于商业活动中并取得了一定效益,同样涉及声音侵权这一法律议题。
3.2. 公众对于声音权的认知不充分
尽管声音能够作为个人标识的重要部分,但大多数人对于声音权的保护仍然缺乏足够的认知。当侵权行为发生时,权利主体更倾向于关注隐私权、名誉权而忽略声音权的存在,从而使声音的人格标识功能愈渐淡化。可见,声音权的法律保护尚未深入人心,人们可能没有意识到声音享有法律赋予的保护权,这种认知层面的匮乏一定程度上助长了声音侵权行为的猖獗。另外,人工智能在声音收集过程中呈现出隐蔽性的特点,加之网络环境的拟态化趋势,导致声音权主体更容易在无法察觉的状态下遭受侵害,例如,智能设备通过语音识别功能在不经意间对用户的声音进行录制,这些声音中的部分信息经过筛选、捕捉,最终成为训练人工智能模型的声音数据,而用户通常对冗长复杂的服务条款一扫而过,甚至不了解自己默认了这些数据的使用,这也是公众对于声音权的认知不够充分的体现。
3.3. 法律对于声音权的保护不到位
《民法典》第1023条为声音权的保护提供了明确的法律依据,对于保护声音权主体的精神利益和财产利益具有重要价值,但是,该条文无法涵盖有关声音权具体内容的规定,导致现行法律难以对人工智能时代的声音侵权行为进行高效有力的制裁,在司法实践中的可操作性不强。首先,声音权的法律属性不够清晰,且与其他权利边界不够明确。从当前立法来看,《民法典》中对于声音权保护多次提及的“参照适用”原则,实际上是将其作为肖像权的延展规定[7]。人工智能时代,声音侵权的行为方式各不相同,一味援引肖像权的相关规定,容易造成“同案不同判”的导向和“侵权标准”上的不统一,进而影响司法判决的公信力[8]。其次,对人工智能时代声音侵权行为的界定不够完善。当前,各类AI工具的广泛应用催生了新的声音侵权方式。例如,深度伪造音频利用“自编码工具”和“逆产生网络”进行识别和培训,通过对说话人的语调、语速、说话习惯等特征进行分析,得到一组无法区分的音频,这类音频的仿真性和迷惑性远超经过同等技术处理下的视频文件,因此无法完全参照肖像权的保护规定对声音侵权行为进行类推。最后,欠缺专门的声音权损害赔偿标准和赔偿方案。在过去的民法时代,《侵权责任法》将填平原则作为损害赔偿的主要依据,即受害人获得的赔偿应与其遭受的损失相持平,使其损失得以弥补。这一原则的核心在于财产有形性的判定,故对“损害”的评价往往也是通过有形财产的损失进行[9]。由于声音的无形特质,难以对其适用“恢复原状”的补救措施,有关声音权的损害赔偿问题尚未得到法律的回应和解答。
法律对于声音权保护的不到位,不仅体现在与声音权直接相关的立法问题上,还间接反映于以下两个方面:一方面,对于具有声音数据使用权限的服务商而言,现行法律并未明确其使用的合理限度。无论是通过手机发送语音消息,还是使用语音命令控制智能家电,抑或将自己的歌声和配音上传到社交平台,这一系列过程看似是用户主动掌握和管理自己的声音信息,实际上,在点击“发送”按钮的那一刻,使用声音数据的主动权就已然转移到了网络平台等服务商手中。当个人的声音信息发布到网络上后,用户便失去了对于该信息后续传播的控制能力,也就难以干涉他人以录音或其他方式进行保存,即便用户尝试删除已发布的信息,原始数据仍可能残留在服务器中[10],这实际上已经逾越了服务商对声音数据使用的限度。另一方面,现行法律并未对声音AI的伦理和技术标准作出规定。AI技术一旦进入“超人工智能”阶段,机器可能开始具备自主意识,不再受底层算法逻辑控制,这可能导致人类与机器的关系发生根本性变化,甚至呈现“主体异化”的风险导向,从而使得其预设的“增进人类福祉”的价值目标难以实现。为规避声音AI滥用可能导致的社会危害,我国法律应当提供前瞻性的应对举措,但现行《新一代人工智能伦理规范》中的“避免偏见歧视”“提倡善意使用”等表述存在进一步解释的空间。
4. 人工智能时代声音侵权的法律规制路径
4.1. 完善声音权的相关立法
面对社会上屡见不鲜的声音滥用、声音利益被剥夺以及声音权遭受恶意侵害的行为,完善声音权的相关立法是回应社会关切的有效手段,既有利于加强对于声音权的尊重与保护,还能有效提升司法审判工作的公正性[11]。
具体而言,我国应当从以下三个方面补充和完善声音权的相关立法工作:第一,明确声音权的法律属性,厘清声音权与其他权利的法律边界,不再过度依赖“参照适用”等表述,对声音权的主体、客体和权利内容等关键内容作出详细阐释,强调声音权应有的法律地位;第二,结合当前人工智能快速发展的时代背景,对常见的声音侵权现象进行归类、总结,在此基础上进一步列举声音侵权的行为类型,对人工智能时代声音侵权行为作出全面具体的界定,从而确保相关案件有法可依,为相关司法实践工作的开展提供坚实有力的法律支撑;第三,制定专门的声音权损害赔偿标准和赔偿方案,依照现行《民法典》第1182条人身权益遭受侵害后的经济损害赔偿方法,在确定受害人的损失数额或侵权人的获利数额时,可以事先限定法官的自由裁量权,结合案发地的平均收入水平、当事人职业、市场行情等实际情况,对案件中的合同价金额和市场价格等不同因素作出参考[12],确保赔偿方案的公正性和合法性,有效保障受害人的合法权益。
4.2. 明确声音数据使用的合法限度
通过上述网络服务商过度使用声音数据构成的声音侵权行为,我们可以进一步推断:以明文规定的形式对声音数据使用的合法限度作出司法解释,是规制声音侵权行为的现实之需。鉴于此,我国法律应当明确规定服务商在处理用户声音数据时的权利与责任。首先,服务商应当让渡一部分控制权予以用户,确保用户能够自主决定其声音数据的使用方式。比如,服务商可以主动告知用户在使用相关声音服务时应注意的事项,包括数据收集、存储意图和使用期限等;其次,服务商在获取用户许可的前提下,以合法的方式使用其声音信息,这意味着任何超出用户授权范围的使用都应当令行禁止,除非获得法律特许或用户的二次授权[11]。同时,服务商必须采取强有力的保护措施,以保证声音数据的安全和保密,这包括但不限于加密传输、匿名化处理、访问控制等技术手段和管理措施,以防止数据泄露、篡改或丢失。通过构建这种双向的责任和权利机制,可以预防自然人的语音信息的非法泄露,进而遏制人们在使用智能产品和服务过程中发生的声音侵权行为,这不仅有助于保护个人隐私和人格权益,也是营造安全的、可信的人工智能技术生态的有效之举。
4.3. 制定声音AI的伦理和技术标准
针对一系列声音AI技术,一部分法律条文间接解释了声音权面临的潜在侵权风险:参照《民法典》中关于肖像权侵权的相关规定,我们基本确定了该技术遵循的总原则,即对于“利用信息技术伪造”这一行为,AI技术的创造者和管理者应当是责任主体,一旦他们未经许可擅自模仿他人声音,就会形成侵犯他人声音权的行为。随着声音AI技术的不断更新和迭代,各类声音侵权行为层出不穷,为了保证相关机关作出及时的、精准的司法应对,还需要建立专门的监管机构,制定声音AI应用的伦理与技术标准,指导并监督该技术的研发与应用[13]。具体而言,首先,应当遵循公平、透明、可控等基本的人工智能原则,确保声音AI技术在应用过程中满足伦理道德层面的合理性,防止其造成信息混乱乃至社会恐慌等危害社会的行为。其次,应当完善与声音AI相关的技术标准,对技术方法和数据质量等要素作出严格规范,建立相应的质量检测和评估机制,强化声音AI系统的可控制性、可信赖性、可解释性等,使其能够正确的、合法的理解和处理声音数据[14]。最后,如果声音AI技术的应用目的不在于侵犯他人声音,而是以此为手段进行诈骗,那么将构成诈骗罪,具体案情需交由刑法进行处理。
5. 结语
声音是一种文化现象,也是社会行为中一个不可或缺的组成部分,随着人工智能技术的飞速发展,声音在人们生产生活中的重要性日益凸显,我们应当对声音权给予更多的法律关注,这事关民众的合法权利,事关社会秩序的安定,事关现代化法治建设的推进。尽管《民法典》以“参照适用”原则对声音权益的保护作出了初步规定,但在现实生活中,声音和肖像之间客观存在着不同之处,自然人的声音所能表达的内容比肖像更加宽泛,仅凭“参照适用”这一规定并不能解决所有声音侵权问题。鉴于此,相关研究一定要与时俱进,唤醒民众的声音权保护意识,借鉴其他国家声音权保护的有益经验,并结合我国现实国情,制定出人工智能时代声音侵权的法律规制方案,为今后声音权保护的立法工作提供导引。