人工智能生成内容著作权侵权认定问题研究
Research on Copyright Infringement Issues of AI-Generated Content
摘要: 随着人工智能生成内容(AIGC)在创作与传播领域的深度渗透,其对传统著作权法律体系的冲击日益凸显。文章围绕AIGC生成与传播链条,系统剖析著作权侵权风险、主体认定及责任分配规则。研究发现:AIGC运作前端(数据输入与算法训练)存在未经授权的数字化复制风险,后端(内容输出与传播)则面临复制权、信息网络传播权及演绎权等多元侵权风险,Getty Images诉Stability AI等司法案例已暴露训练数据侵权的现实争议。在主体认定方面,人工智能本身不具备法律主体资格,AIGC服务提供者作为技术开发与商业运营主体,构成著作权侵权的核心责任主体,而网络用户仅在刻意引导生成侵权内容时承担过错责任。责任分配上,应突破“可版权性前置”逻辑,以《著作权法》第五十二条为基准,聚焦是否侵害在先作品独创性表达;服务提供者适用以“现有技术水平”为标准的过错责任原则,可援引“发展风险抗辩”,网络用户则遵循“通知–删除”规则承担有限连带责任。研究最终提出,需在技术创新与权利保护间构建动态平衡机制,为AIGC产业规范化发展提供法律路径参考。
Abstract: With the deep penetration of artificial intelligence-generated content (AIGC) in the fields of creation and dissemination, its impact on the traditional copyright legal system has become increasingly prominent. This article systematically analyzes the copyright infringement risks, subject determination, and liability allocation rules along the AIGC generation and dissemination chain. The research finds that the front end of AIGC operation (data input and algorithm training) poses the risk of unauthorized digital reproduction, while the back end (content output and dissemination) faces multiple infringement risks such as reproduction rights, information network dissemination rights, and adaptation rights. Judicial cases like Getty Images v. Stability AI have exposed the real disputes over the infringement of training data. In terms of subject determination, artificial intelligence itself does not have legal subject status. AIGC service providers, as the technical development and commercial operation subjects, constitute the core liability subjects for copyright infringement, while network users only bear fault liability when they deliberately guide the generation of infringing content. In liability allocation, the “precondition of copyrightability” logic should be broken, and the focus should be on whether the originality expression of prior works is infringed based on Article 52 of the Copyright Law. Service providers should apply the fault liability principle based on the “existing technical level” standard and can invoke the “development risk defense”, while network users should follow the “notice-takedown” rule and bear limited joint liability. The research ultimately proposes that a dynamic balance mechanism should be established between technological innovation and rights protection to provide legal path references for the standardized development of the AIGC industry.
文章引用:李梦菲. 人工智能生成内容著作权侵权认定问题研究[J]. 社会科学前沿, 2025, 14(12): 297-305. https://doi.org/10.12677/ass.2025.14121093

1. 问题的提出

在人工智能生成内容(AIGC)深度融入创作与传播生态的当下,从文学创作、艺术绘画到音乐制作,AIGC以前所未有的规模与速度重塑内容生产格局,同时也对传统著作权法律体系形成强烈冲击。AIGC生成与传播链条涉及数据采集、算法训练、模型输出、平台分发等多个环节,每个环节都潜藏著作权侵权风险,创作主体模糊性、权利归属复杂性、侵权判定标准不确定性等问题在该链条中被进一步放大,导致传统“作者中心主义”的侵权认定逻辑难以直接适用。随着司法实践中AIGC著作权侵权纠纷案件频发,类案不同判现象凸显——例如2023年“奥特曼案”(即“原告某动漫公司诉某AI平台及用户著作权侵权案”)与2024年“腾讯诉字节跳动AI绘画侵权案”,两案在“用户指令是否构成刻意引导”“服务提供者技术防控义务边界”等侵权主体认定维度的裁判思路差异,暴露出法律适用的模糊性。《生成式人工智能服务管理暂行办法》虽为行业发展提供规范指引,但在侵权责任分配等关键问题上仍存在适用空白。本文将围绕AIGC生成和传播链条,深入剖析其所涉著作权侵权风险及其成因,结合典型案例判决逻辑与《中国AIGC产业版权合规报告(2024)》中“83% AIGC企业训练数据未完成授权”“67%企业存在侵权图库使用”等行业数据,就如何合理分配AIGC著作权侵权责任展开探究,力求在维护著作权人合法权益与推动中国人工智能产业高质量发展之间寻求平衡。

2. 人工智能产品运作产生的著作权侵权风险分析

2.1. 人工智能产品内容生成前的著作权侵权风险

从人工智能产品运作层面看,可以分为前端、中端、后端三个阶段,前端为数据输入阶段,中端为机器学习阶段,后端为内容输出阶段。人工智能产品运作前端和中端的著作权侵权风险主要在于数字化复制已有作品。人工智能产品在数据输入阶段和机器学习阶段处于深度学习和强化训练状态,需要研发者事先汇总输入海量数据,并在自然语言处理系统中形成数据副本,由算法驱动人工智能利用数据副本进行反复训练。如果人工智能产品研发者在数据输入阶段输入大量未经著作权人授权使用的符合作品特征的数字作品或是受到著作权法保护的数据库,则构成作品复制权侵权。而在机器学习阶段自然语言处理系统处理数据形成副本的过程也构成了对数据的复制。这些侵权问题在实践中已经发生,例如2023年5月,全球领先的图库内容供应商Getty Images已向伦敦高等法院提起诉讼,对Stability AI指控其在未经授权的情况下,擅自使用其平台所载大量图片作为人工智能绘画模型的训练数据,涉嫌构成著作权及其他相关权利的侵害。

2.2. 人工智能产品内容输出和传播的著作权侵权风险

人工智能产品运作后端即内容输出阶段,涉及的著作权侵权风险种类则更加多样化。首先是作品复制权侵权。与前端与中端的复制权侵权有所不同,内容输出阶段的作品复制权侵权不是对已有作品的直接复制,而是对已有作品独创性表达的再现,即使前端没有输入已有作品的数据,在内容输出阶段也存在输出与已有作品独创性表达相同或者相似内容的可能性。有两种原因,一是人类的干预。即人工智能输入数据中不含有某个具有著作权的作品数据,然而通过人工智能运作中“人类的干预”使最终产生的输出数据与该著作权的作品数据吻合的情形,其本质是通过人的意志与选择来干预人工智能输出数据的结果。二是算法原理导致的共性输出。通过构建多层神经网络,深度学习模型对庞大体量的文本数据进行学习,从而掌握语言的内在模式。当进行内容输出时,即使没有输入特定的某部文学作品,但由于遵循通用的语言规则和语义模式,可能会生成与已有作品在表达上相似的语句或段落。在图像生成领域,模型通过生成器和判别器的对抗训练,学习数据分布的特征。当训练数据包含了大量关于太阳的图像,模型学习到太阳的基本形状、颜色、光芒等特征。在没有输入特定某幅描绘太阳的艺术作品数据时,模型输出的太阳图像可能会与历史上某些描绘太阳的绘画作品在视觉元素上呈现相似性,因为这些视觉元素在相关数据中是普遍存在的,模型基于对普遍性特征的学习产生了类似的输出。其次是信息网络传播权侵权。当网络用户得以在其选定的时间与地点,通过计算机系统输入指令以获取AIGC时,该过程即构成受信息网络传播权规制的“交互式传播”。若该AIGC的主旨文本源自并再现了在先作品中具备独创性的表达,则此生成与传播行为便涉嫌构成对信息网络传播权的侵害。当用户获取的AIGC包含对在先作品独创性表达的实质性再现,且未经著作权人许可进行传播时,便破坏了著作权人对作品网络传播的专有控制。例如,AI绘画工具生成与某知名画作构图、色彩等核心表达高度相似的图像,一旦权利人将作品在信息网络中进行分享,构成对信息网络传播权的直接侵害。最后是演绎权侵权。当人工智能生成内容在保留在先作品基本表达的基础上,呈现出一定的独创性时,其性质便可能向演绎作品靠拢。从创作逻辑来看,AIGC的生成过程虽依托算法与数据,但仍可能实质触及演绎权的保护范围。例如,某AI写作平台基于经典小说的核心情节框架,通过改写人物设定和叙事风格生成新故事,既保留了原著的故事脉络等基本表达,又融入了新的情节元素,这种内容符合演绎作品的构成要件。若人工智能产品研发者或AIGC服务提供者未经在先作品权利人授权,擅自将此类内容进行传播或商业利用,便同时赋予该生成内容侵权作品的属性。因为演绎权作为著作权人的专有权利,未经许可的演绎创作及后续利用行为,无疑侵害了著作权人对作品演绎衍生的控制权,违背了著作权法保护权利人合法权益的立法初衷。

2.3. 两阶段侵权风险差异分析

由此可见,以公众是否接触为标准,可以将人工智能产品运作过程细分为AIGC生成前阶段与AIGC输出传播阶段。两个阶段均涉及著作权侵权的风险,但是学界对两个阶段的关注点有所不同。第一个阶段主要聚焦于人工智能研究者输入大量数据进行机器学习构不构成合理使用。第一种观点认为是“非作品性使用”,主张人工智能训练对作品的使用不属于著作权法意义上对作品的“使用”,未经许可使用他人作品不构成侵权[1]。第二种观点认为,人工智能训练对作品的使用属于合理使用,因此,未经许可使用他人作品不存在著作权侵权问题[2]。第三种观点是人工智能进行大规模数据训练属于“临时复制”,没有讨论合理使用的必要。从法律定性上看,对AI训练中的“临时复制”行为进行分析,需解决两个层次的问题:首先是侵权认定,即该行为是否落入复制权的规制范围;其次才是侵权阻却,即该行为能否援引“合理使用”进行抗辩。鉴于我国立法目前未将“临时复制”视为复制权所控制的复制行为,其在第一层次即不构成侵权,因此,作为第二层次的“合理使用”问题便失去了讨论的逻辑前提[3]。第四种观点指出,AI训练行为难以被认定为“合理使用”。故而,应探索通过著作权集体管理组织授权或设定法定许可,向著作权人支付适当补偿。此方案旨在为AI产业提供清晰的法律路径,同时保障权利人的基本权益[4]。第二个阶段在人工智能生成内容(AIGC)的著作权研究领域,学界目前将大量精力聚焦于AIGC的可版权性及其权利归属问题,却在一定程度上忽视了AIGC著作权侵权责任分配的研究。这一现象的产生,源于部分学者认为AIGC的可版权性及其权利归属是AIGC著作权问题的核心与基础,只有明确了AIGC是否具有可版权性,以及权利应归属于谁,才能进一步探讨侵权责任的认定与分配。这种观点从传统著作权理论出发,强调权利主体和权利范围的确定是侵权判定的逻辑前提。然而,AIGC著作权侵权问题具有其独特的独立性。从法律逻辑角度看,判断AIGC是否构成著作权侵权,核心在于行为是否侵犯了他人受法律保护的著作权,而不在于AIGC本身是否具有可版权性或权利归属何处。即便AIGC不被认定具有可版权性,但其在生成过程中未经许可使用了他人作品的独创性表达,导致著作权人权益受损,依然构成侵权。

3. 人工智能生产内容著作权侵权主体的认定

受技术发展水平和现行法律体系的双重制约,人工智能生成内容(AIGC)著作权侵权风险不仅客观存在,且在当前环境下难以完全规避。从技术层面来看,AIGC生成依赖于对海量数据的学习与分析,在数据采集、算法训练过程中,极易因技术漏洞或不当设置导致对受保护作品的侵权使用;在法律层面,现行著作权法规在应对AIGC这一新兴产物时存在滞后性,使得侵权行为的界定、责任划分缺乏清晰明确的标准。因此,深入探究AIGC著作权侵权主体认定和责任分配问题,成为完善知识产权保护体系、平衡技术创新与权利保护的关键所在。

3.1. 传统网络著作权侵权主体认定

网络侵权责任属于民法中的特殊责任形态之一,旨在处理和调整网络服务提供者与被侵权人、网络服务提供者与实际侵权人之间的法律关系[5]。传统网络著作权侵权已形成较为成熟的责任认定体系。在《中华人民共和国民法典》构建的网络侵权责任框架下,该责任机制明确区分了两种责任:一是网络用户为直接侵权责任主体。二是网络服务提供者承担的是间接责任,其归责基础是“过错”。具体而言,通过“通知–必要措施”规则(即“避风港规则”)来判定其过错:若其未尽到合理注意义务或收到通知后未及时采取必要措施,则需就损害扩大部分承担连带责任。整个体系以“过错责任原则”为核心,清晰界定了各方责任。

网络侵权责任条款是认定网络著作权共同责任的根本依据。无论是传统侵权形态,还是算法推荐等新型问题,其责任分配均应遵循该条款确立的基本框架[6]。算法推荐模式的兴起,深刻重塑了网络服务提供者的法律角色:其从一个被动的“信息传输通道”,转变为一个通过算法积极干预内容分发的“风险开启者”与“风险维系者”。这一转变的本质在于,其行为模式从技术中立转向积极作为,旨在精准满足用户需求并提升自身市场竞争力[7]。在互联网技术发展进程中,算法推荐技术的广泛应用对网络服务提供者“技术中立者”的传统定位形成了有力冲击。不同于以往仅提供数据存储、传输等基础服务的被动角色,算法推荐使网络服务提供者能够基于用户数据与算法模型,主动筛选、排序并推送内容。这种“主动干预”特性使得网络服务提供者对侵权内容的传播路径和范围具备更强的控制力,在一定程度上削弱了“技术中立”的抗辩基础,使其面临更高的侵权责任风险。然而,算法推荐行为的实施本质上仍依赖网络用户在服务器上传侵权内容作为“原始素材”。以短视频平台为例,即便算法通过用户偏好分析精准推送侵权视频,但侵权内容的源头仍是用户未经授权的上传行为。网络服务提供者在此过程中,虽借助算法技术改变了内容传播方式,但其行为仍未脱离技术辅助的范畴,未直接参与侵权内容的创作或实质性传播。基于此,在网络著作权侵权责任的认定逻辑中,网络服务提供者作为间接侵权主体的角色并未发生根本性转变。

这一传统规则框架在应对算法推荐行为引发的著作权侵权时,虽面临技术环境变化的挑战,但仍能通过适度提高网络服务提供者的注意义务,维持“网络用户直接侵权、网络服务提供者间接侵权”的责任分配逻辑。然而,当面对人工智能生成内容(AIGC)引发的著作权侵权时,传统规则的适用困境则全面凸显。

3.2. AIGC著作权侵权主体的确定

3.2.1. 人工智能产品或智能算法的非主体性

对于人工智能法律主体资格的界定,有学者倡导赋予人工智能完全法律主体资格,主张人工智能机器人虽然缺乏类似于人类的外表,但是却越来越能够与其所在环境进行自主互动,从而在行为方式上表现出类似于人类应对环境的能力。当智能机器人有朝一日通过了图灵测试时,也就拥有了像人类一样的所有属性,就能够成为宪法意义上的主体[8]。也有观点支持有限主体资格理论,认为可在特定领域或场景下,通过法律拟制赋予人工智能部分权利能力与行为能力,以适应技术发展带来的新型法律关系,效仿公司法人的设立机制,赋予智能机器人一定程度的法律主体资格,才能有效解决应用智能机器人带来的法律挑战[9]。与此同时,更多学者秉持无主体资格论,强调人工智能本质上仍是人类创造的工具,不具备独立的意思表示和责任承担能力,不应突破现有法律主体框架。

本文认为,从法律主体的传统定义出发,其需具备权利能力与行为能力,能够独立参与法律关系并承担相应责任。而人工智能产品,无论其智能化程度多高,本质上仍是人类设计、制造并操控的工具。在权利能力方面,人工智能产品无法像自然人或法人那样,天然或依法享有生命权、名誉权等基本权利,也不具备获取权利的内在需求与逻辑起点。在行为能力上,其所谓的“行为”仅仅是对程序指令的机械执行,不具有法律意义上可归责的自主行为能力。从责任承担角度审视,赋予人工智能产品主体资格面临着难以逾越的障碍。当人工智能产品造成损害时,很难将责任归咎于人工智能产品本身,由于其不拥有独立财产,无法实际承担赔偿等法律责任,这无疑使责任追究流于形式。在现伦理道德层面,赋予人工智能产品主体资格冲击着人类社会长期秉持的价值观。人类社会的伦理道德体系构建在人类独特的情感、意识与理性之上,人工智能产品缺乏这些本质特征。倘若赋予其主体资格,可能模糊人与机器的界限,引发一系列伦理困境。

3.2.2. 网络用户的角色分析

AIGC依托生成式人工智能产品,在网络用户与AIGC服务提供者的协同作用下得以产出。网络用户虽为指令发起者,但作为产品使用者,通常对AIGC侵权内容的生成并无主观过错。从双方法律关系分析,网络用户与AIGC服务提供者形成“承揽合同关系”:前者以“定作人”身份定制服务,后者按要求完成工作,前者接受成果并支付报酬,构成明确的契约与对价关系。基于此合同约定,网络用户有权信赖服务方交付无知识产权瑕疵的内容。若AIGC内容涉及著作权纠纷,应由服务提供者承担违约责任,因其未能完整履行合同义务。在该法律框架下,网络用户作为守约方享有信赖利益。由于其既无法预见AIGC生成的具体内容,也缺乏专业能力判断侵权属性,且不负有主动审查侵权内容的法定义务,故在侵权责任认定时,不宜将其界定为直接侵权主体。网络用户基于对产品的信任使用、传播AIGC内容,一般不应过度苛责。不过,若用户接触在先作品后,通过重复指令刻意引导人工智能生成与在先作品高度相似的内容,则可认定其存在主观侵权故意,需承担相应法律责任。

3.2.3. AIGC服务提供者的风险制造者角色

人工智能产品设计者专注于从无到有构建AIGC产品的架构、功能与交互逻辑,运用专业知识,将复杂的算法、模型进行整合与优化,使其能生成满足特定需求的内容。而AIGC服务提供者的核心任务则是将已设计成型的AIGC产品推向市场,为用户提供使用该产品的渠道与服务。产品设计者通常处于产业链上游,其工作成果是一个具备潜在功能的AIGC产品“毛坯”,后续需经过服务提供者的一系列运作,才得以触达终端用户。AIGC侵权内容归根到底是人为干预乃至人为操控下的结果,即人工智能产品设计者为AIGC侵权内容的生成提供了技术基础,AIGC服务提供者以人工智能产品为媒介将侵权内容提供给公众,由网络用户触发侵权内容的生成机制[6]。从实践视角分析,ChatGPT、文心一言等主流生成式AI产品多符合著作权法中“雇佣作品”的法律界定。AIGC服务提供者作为这类产品的设计主体,不仅为技术开发提供资金支撑,还为机器学习及算法创作活动构建数据与技术底座,同时面向社会公众提供商业化服务,是著作权侵权的风险制造者。从法律因果关系看,AIGC侵权内容生成与服务提供者的技术支持、数据供给及运营服务存在直接关联。作为算法模型构建者与商业场景搭建者,服务提供者实质性促成侵权内容产生,其行为与侵权结果间的可归责因果链,决定了AIGC著作权侵权的直接责任主体应追溯至服务提供者。基于这一认知,作为著作权侵权风险的制造者,AIGC服务提供者将人工智能产品投入产业应用之前,必须具备相应的风险管控能力,承担损害预见义务和损害防止义务[10]。若服务提供者已采取技术与管理措施防控侵权风险(如关键词过滤、投诉机制、标识义务),则可能免责;反之,若因疏忽未履行义务,可能被认定为帮助侵权或直接侵权。

4. 人工智能生成内容著作权侵权责任的分配

4.1. 侵权责任分配的独立性

学界对于AIGC能否作为作品受到著作权法保护问题讨论较多,有学者认为可版权性是讨论人工智能生成内容著作权侵权的前置条件。作者不赞同此种观点,著作权侵权的核心在于是否侵害现有权利,而非侵权内容本身是否享有版权。可版权性解决的是“AIGC生成内容能否成为版权法保护的作品”,其判断标准为独创性,若AIGC内容不具备可版权性,则其本身无法成为版权客体,但这并不影响其作为“侵权工具”的法律定性。根据《著作权法》第五十二条,侵权行为的认定核心是“是否未经许可使用了原作品的独创性表达”,与侵权内容是否受保护无关。著作权法的核心目的是保护创作者权益。当AIGC实质性利用现有作品的独创性表达,无论AIGC内容是否可版权,均已损害原著作权人的“排他权”,需承担侵权责任。

从比较法的视角看,美国Thaler诉版权局案,原告Stephen Thaler开发的AI系统“Creativity Machine”生成一幅名为《A Recent Entrance to Paradise》的画作,Thaler以“机器所有者”身份申请版权被拒,遂起诉美国版权局。法院明确“人类作者身份”是版权前提,AI生成内容因缺乏人类智力投入,不构成受保护作品,判决还特别指出,若AI生成过程中未经许可使用了受保护作品的元素,仍可能构成侵权。国内也有案例表明,例如“全球AIGC平台侵权第一案”法院并未纠结于AIGC生成的奥特曼形象本身是否具有可版权性,也未深入探讨其权利归属,而是紧紧围绕被告的行为是否符合侵权行为的构成要件展开审理,法院经审理认定:第一,案涉“奥特曼”作品具有较高知名度,可于爱奇艺等主流平台公开获取,在被告未举出反证的情况下,应认定其具备接触该作品的可能性。第二,原告通过Tab网站生成的图片部分或全部复制了“奥特曼”形象中的独创性表达,被告未经许可实施该行为,侵害了原告的复制权。第三,案涉生成图片在保留原作核心独创性表达的基础上融入了新元素,构成改编行为,被告未经许可进行改编,亦侵犯了原告的改编权。

4.2. AIGC服务提供者承担过错责任

2024年8月1日,欧盟《人工智能法》(Artificial Intelligence Act,以下简称AIA)正式生效[11]。目前,我国还没有以“人工智能”为名的部门法,欧盟的《人工智能法》对我国有积极的借鉴意义。AIA规定生成式人工智能模型的设计与开发需确保符合欧盟法律及基本权利框架,尤其应保障表达自由等基本权利。在此基础上,欧盟监管机制依据风险等级对生成式人工智能实施分级管控。对于高风险级别的人工智能系统,须遵循更为严格的合规要求,包括设立风险缓解机制、采用高质量数据集、保持系统操作活动日志记录等义务。划分风险等级对归责原则也给予启示。我国已有学者提出按风险原则区分责任主体,对高风险AI适用无过错责任,有限风险AI适用过错推定责任,低风险AI适用过错责任,以实现风险与归责的动态平衡[12]。细分到生成式人工智能领域,学界对其侵权责任目前有三种思路:思路一:将生成式AI提供者视为网络服务提供者(ISP/ICP),适用过错责任及“通知–删除”规则[13]。思路二:将生成式AI视为“产品”,适用产品责任(严格责任),但学界担忧责任过重阻碍技术发展[14]。思路三:作为一种新型社会性风险的制造者,AIGC服务提供者适用无过错责任承担著作权侵权损害赔偿责任,相较于过错责任原则更为适宜[6]

笔者虽认可将生成式AI视为“产品”,适用产品责任存在一定合理性,却仍持审慎态度。在生成式人工智能因自身缺陷输出虚假信息引发侵权纠纷时,将ChatGPT等同类技术简单等同于产品,并直接套用产品责任归责原则,这一做法值得深入探讨。产品责任领域采用严格责任归责原则,其立法初衷在于筑牢对生命权、健康权等核心权益的保护屏障,而生成式人工智能与传统意义上的产品有着本质差异。尽管这类技术同样可能存在设计漏洞,但其造成的损害主要聚焦于人格权、著作权等领域,鲜少对生命健康构成直接威胁。基于此,严格责任原则在此类侵权场景中难以完全适用。而对于AIGC服务提供者适用无过错责任,在笔者看来生成式人工智能并不属于高风险AI,例如医疗、交通等领域可能对人的生命健康或者公共领域造成重大损害的AI产品,为平衡权益保护与技术创新,应构建以过错责任为核心的AIGC服务提供者侵权责任体系。其过错的认定,需采用主客观相结合的标准:主观上考量其是否尽到审慎管理人的注意义务;客观上则以行为发生时“行业通用技术水平”作为判断其预防措施是否合理的准据。若服务提供者已充分履行与该技术水平相适应的义务,则侵权内容的生成可被视为其尽到必要注意后仍无法避免的“发展风险”,其责任应得以豁免。这实质上是将技术可行性纳入过错要件的考量,构成一种基于技术中立的“合规抗辩”,以排除其过错责任。这种认定方式既符合技术发展的客观规律,也能在保障权利人权益的同时,为人工智能技术的创新发展预留合理空间。

援引产品责任法中“现有技术水平”的核心内涵,结合网络安全法对技术防护标准的要求,本文所指“现有技术水平”是指侵权行为发生时,AIGC行业内普遍采用、技术上成熟稳定、具备商业化应用条件的技术标准与防护手段,既包括公开可获取的通用技术,也涵盖行业头部企业普遍践行的专有防护技术,且该技术水平需经行业协会认可、具备可验证的技术效果。“现有技术水平”作为标准认定服务提供者是否存在过错在生成式人工智能致害情况下具有多方面积极作用,具体如下:1) 鼓励和促进技术创新:生成式人工智能产生虚假信息的原因具有多元性,且当前技术尚处于发展阶段,存在难以避免的技术缺陷。若要求服务提供者在现有技术条件下已尽最大努力仍需承担全部责任,会使其负担过重,严重影响技术创新。以现有技术水平为标准,只要服务提供者采取了符合行业现有技术的预防措施,即便造成损害也可不承担责任,这为技术创新预留了空间。2) 鼓励企业投资创业:不能仅依据损害结果认定服务提供者责任,而应根据其在现有技术条件下是否尽到损害预防义务来判断。该过错认定标准为生成式人工智能领域的创新提供了法律责任的“避风港”,避免企业因担心承担过重法律风险而不敢投资,从而有利于激励企业在该领域创新。3) 符合生成式人工智能致害责任的特点:从责任属性看,生成式人工智能的致害责任可归入产品责任体系,故理应承袭其中“现有技术抗辩”这一免责事由。尤其考虑到其风险控制难度远高于一般产品,确立技术发展抗辩规则更具必要性与正当性。

4.3. 网络用户的侵权责任与免责事由

在数字技术深度重塑创作生态的背景下,网络用户涉及AIGC著作权侵权的责任认定呈现新型法律关系特征。此类责任体系主要涵盖停止侵害与过错责任下的损害赔偿两大核心维度。其中,停止侵害作为绝对权请求权的典型救济方式,基于著作权的绝对权属性,赋予权利人在侵权行为发生时,要求侵权人即刻终止侵权内容的利用与传播行为。网络用户一旦知悉所涉AIGC内容构成侵权,便负有法定的停止侵害义务。

首先,损害赔偿责任的认定则遵循过错责任原则,需结合网络用户在AIGC“生成–传播”全链条中的参与程度与主观过错进行个案判断。在内容生成环节,通常网络用户基于对服务提供商的合理信赖使用AIGC产品,无主观过错情形下无需承担损害赔偿责任。但当用户输入具有明确创作指向性的具体指令,大幅限缩人工智能自由创作空间,且生成内容包含侵权要素时,由于该内容的独创性表达实质来源于用户意志,此时应认定用户存在过错并承担侵权赔偿责任[15]。同理,对经反复修正或后期加工形成的侵权AIGC内容,若体现用户特定创作意图,亦构成责任承担要件。在侵权内容的利用与传播阶段,网络用户若在明知侵权事实后仍持续使用或扩散相关内容,未及时采取删除、屏蔽等必要措施防止损害扩大,则可认定存在故意或重大过失,需就损害扩大部分与服务提供者承担连带责任。该责任判定可援引《民法典》第1165条一般过错责任条款,或参照第1195条网络侵权责任规则予以适用。

其次,关于免责事由的认定,应充分考量AIGC技术应用场景的特殊性。网络用户基于合同信赖关系使用AIGC产品时,通常缺乏主动审查内容版权合规性的能力与义务。在此情形下,用户可援引合法来源抗辩,主张侵权内容系由人工智能系统生成,以此免除损害赔偿责任,但需履行及时通知平台、反馈侵权线索等义务以阻断侵权内容传播。此外,传统网络侵权领域的“避风港规则”在符合构成要件时,同样可为网络用户提供免责抗辩依据。

5. 结论

在人工智能技术与内容产业深度融合的当下,AIGC著作权侵权认定已超越传统法律框架的范畴,成为技术伦理、法律规制与产业发展交织的复杂命题。本文通过解构AIGC生成传播链条的侵权风险,明确服务提供者作为“风险制造者”的过错责任原则,揭示出著作权法在应对技术变革时需兼顾“权利保护”与“创新激励”的双重价值。从司法实践看,Getty Images案与爱奇艺案暴露的训练数据侵权争议,以及“全球AIGC平台侵权第一案”对演绎权的认定,均表明现行法律在技术细节(如算法共性输出的侵权界定)与责任分配(如多主体因果关系划分)上仍存在适用空白。

未来研究可从三方面深化:其一,结合《生成式人工智能服务管理暂行办法》的实施效果,探索“行业技术标准”与法律规则的衔接机制;其二,借鉴欧盟《人工智能法》的风险分级思路,构建符合中国国情的AIGC侵权责任梯度体系;其三,推动跨学科研究,将算法原理、数据伦理纳入法律分析框架,为AIGC著作权保护提供兼具理论深度与实践可行性的解决方案。唯有在技术创新与法律规制的动态平衡中寻求突破,才能既守护创作者权益,又为人工智能产业的高质量发展筑牢制度基石。

参考文献

[1] 刘晓春. 生成式人工智能数据训练中的“非作品性使用”及其合法性证成[J]. 法学论坛, 2024, 39(3): 67-78.
[2] 张吉豫, 汪赛飞. 大模型数据训练中的著作权合理使用研究[J]. 华东政法大学学报, 2024, 27(4): 20-33.
[3] 王立梅, 王迁, 陶乾, 等. 人工智能语料库建设的法律问题[J]. 数字法治, 2024(5): 28-46.
[4] 蔡元臻. 机器学习著作权法定许可的适用基础与规则构建[J]. 知识产权, 2024(11): 77-93.
[5] 焦和平. 人工智能创作中数据获取与利用的著作权风险及化解路径[J]. 当代法学, 20223, 6(4): 128-140.
[6] 刘云开. 人工智能生成内容的著作权侵权风险与侵权责任分配[J]. 西安交通大学学报(社会科学版), 2024, 44(6): 166-177.
[7] 杨莹莹. 算法透明的法律实现与限定——基于商业秘密保护的视角[J]. 电子知识产权, 2023(11): 64-81.
[8] Solum, L.B. (1992) Legal Personhood for Artificial Intelligences. North Carlina Law Review, 70, 1231-1287.
[9] Beck, S. (2015) The Problem of Ascribing Legal Responsibility in the Case of Robotics. AI &Society, 31, 473-481. [Google Scholar] [CrossRef
[10] 屈茂辉. 论民法上的注意义务[J]. 北方法学, 2007, 2(1): 22-34.
[11] 新华社. 欧盟《人工智能法案》正式生效[EB/OL]. 2024-10-06.
https://baijiahao.baidu.com/s?id=1806194742875668048&wfr=spider&for=pc, 2024-08-01.
[12] 郑志峰. 人工智能应用责任的主体识别与归责设计[J]. 法学评论, 2024, 42(4): 123-137.
[13] 王若冰. 论生成式人工智能侵权中服务提供者过错的认定——以“现有技术水平”为标准[J]. 比较法研究, 2023(5): 20-33.
[14] 李雅男. 生成式人工智能的法律定位与侵权归责路径[J/OL]. 比较法研究: 1-17.
http://kns.cnki.net/kcms/detail/11.3171.d.20250616.1510.002.html, 2025-06-18.
[15] 黄玉烨, 刘云开. ChatGPT热背后的冷思考[N]. 中国知识产权报, 2023-03-31(11).