论生成式人工智能的侵权责任认定——基于全国“AI首案”的判例实证研究
On the Tort Liability Determination of Generative Artificial Intelligence—An Empirical Study Based on the “First AI Cases” Nationwide
摘要: 随着生成式人工智能技术的广泛应用,其在著作权、人格权及不正当竞争等领域引发的侵权争议日益增多,传统侵权责任体系面临挑战。本文以十余起“首例”生成式人工智能侵权司法判例为基础,系统梳理生成式人工智能侵权责任认定的关键标准,包括行为构成、主观过错、因果关系与免责事由,并归纳分析责任主体结构及裁判中适用的法律规范。在此基础上,提出应围绕责任归属、划分与豁免机制,构建以技术介入程度与控制能力为核心的责任认定体系,以实现权利保护与产业发展的有机平衡。
Abstract: With the widespread application of generative artificial intelligence (GAI) technologies, infringement disputes have increasingly emerged in areas such as copyright, personality rights, and unfair competition, posing challenges to the traditional tort liability framework. Based on over a dozen pioneering judicial cases involving GAI-related infringement, this paper systematically examines the key standards for tort liability determination, including conduct identification, subjective fault, causation, and grounds for exemption. It further analyzes the structure of liable parties and the legal provisions applied in relevant rulings. On this basis, the paper proposes constructing a new liability determination system centered on the degree of technological intervention and control capability, aiming to achieve a balance between rights protection and industrial development.
文章引用:汪亿佳. 论生成式人工智能的侵权责任认定——基于全国“AI首案”的判例实证研究[J]. 社会科学前沿, 2025, 14(6): 386-392. https://doi.org/10.12677/ass.2025.146517

1. 引言

“我的语言的诸界限意味着我的世界的诸界限”[1]。维特根斯坦的这句话揭示了语言与认知、技术与社会之间深刻的边界关系。生成式人工智能(Generative AI)作为基于算法和模型生成文本、图像、音频、视频等内容的技术,正在重新塑造信息生成与传播的方式[2]。不同于以往以识别与分类为主的人工智能系统,生成式人工智能能自主学习现有数据的模式与分布,实现具有创作性的内容生成,标志着信息内容生产的深层革命[3]。然而,这一进步也带来了诸多挑战,如责任模糊、数据滥用、隐私侵害等,构成对现行法律制度的多维度冲击[4]。2023年,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能的定义、适用范围、责任主体等问题进行了系统规制,体现了我国在法治与技术协同治理方面的前瞻姿态[2]。本文将以生成式人工智能侵权引发的司法实践为研究对象,聚焦法院在著作权侵权案件中的认定标准与责任分配机制,兼顾人格权、商标权与不正当竞争纠纷的相关裁判。通过对裁判文书的整理与归纳,分析司法机关对生成式人工智能侵权的行为属性、归责原则、豁免原则等问题的回应路径,旨在探讨生成式人工智能侵权责任的司法适用逻辑,并为未来制度完善提供实证参考与理论支持。

2. 生成式人工智能侵权责任现状考察

2.1. 关于生成式人工智能侵权的认定标准分析

本文以司法判决中涉及生成式人工智能侵权责任的裁判要素为分析变量,从样本案例中归纳归责原则、平台责任认定、免责条款适用等数据指标,以反映和评估现行司法实践对生成式人工智能侵权问题的规范化处理路径。

2.1.1. 行为认定

从样本中的典型案件看,生成式人工智能相关侵权的行为类型主要包括:未经许可使用他人作品训练AI模型(如上海某文化公司诉杭州某科技公司著作权侵权案1)、提供含有侵权内容的AI生成服务(如腾讯诉度加软件著作权及不正当竞争案2)、将他人声音用于AI语音合成开发(如殷某诉北京某智能科技公司人格权侵权案3)等。在13例具有明确判决结果的案件中,12例被法院认定为构成侵权,行为表现涉及复制、改编、传播、虚假宣传等多种维度,显示出法院对于AI生成内容背后的侵权行为认定标准日趋清晰,尤其强调平台在“明知或应知”前提下未尽合理注意义务的情形。

2.1.2. 主观故意认定

传统过错责任原则依然是生成式人工智能侵权案件的主导归责逻辑。在平台运营方的责任认定中,法院普遍采用“是否尽到合理注意义务”作为判断平台主观过错的核心标准。例如,在上海某文化公司诉杭州某科技公司著作权侵权案4中,尽管平台未直接传播侵权内容,但因其未对用户上传的LoRA模型生成行为进行必要审查,被认定构成帮助侵权。此外,技术中立原则在部分案件中被引入作为平台免责的抗辩依据,如殷某诉北京某智能科技公司人格权侵权案中,被告平台因未参与声音训练开发,被认定不具备主观过错而免责。这反映出法院在判断AI平台责任时,倾向于细化其在数据输入、模型开发、结果输出各阶段的实际控制力,从而分层认定其责任归属。

2.1.3. 因果关系认定

生成式人工智能平台的侵权因果关系认定日益呈现复合化趋势。一方面,AI生成内容的自动化与用户操作之间存在高度嵌套性,平台的不作为是否足以引发损害,成为认定因果关系的核心问题。另一方面,平台对训练数据与生成内容的审查义务被明确规定于《民法典》《人工智能服务管理办法(试行)》等法律规范之中,未履行义务即可能构成相当因果性[5]。在上海新创华文化发展有限公司诉AI公司案5中,法院即从平台在训练阶段的素材使用行为与用户在使用阶段的生成请求行为出发,审慎认定平台在整个侵权链条中所起作用,对平台责任的认定则突出其未尽审查义务与侵权结果之间的相当因果关系。平台在明知训练素材具有高度侵权风险的前提下,仍向用户开放生成渠道,未设有效过滤机制,构成对侵权结果的可预见与可避免。因此,平台的不作为被认为在技术链条中发挥了实质性促成作用,足以构成法律意义上的因果联系。

2.2. 关于责任主体结构的分析

生成式人工智能侵权样本案例中,案由类型与诉争结构呈现出一定复杂性。在案件起因上既有权利人直接维权提起诉讼的情况,也有经营者或平台之间因业务、竞争关系而引发的纠纷,初步可归纳为以下几类:(1) 当AI平台作为内容生成或传播的直接实施者时,出现权利人直接针对平台提起的侵权之诉(约占7.7%),以及平台合作开发者或内容提供方对平台提起的责任分配类诉讼(约占15.4%);(2) 当平台作为中介或服务提供方时,主要出现以下诉讼类型:权利人对使用AI模型生成内容的用户(包括企业、开发者)提起诉讼(约占46.2%)、平台对上传或传播侵权生成内容的用户发起诉讼(约占7.7%)、平台间因AI内容造成市场混淆或不正当竞争提起的诉讼(约占15.4%)、以及合作方之间因训练数据权属或内容使用范围发生的合同类诉讼(约占7.7%)。其中,直接由权利人对AI平台提起的侵权责任诉讼可视为生成式人工智能直接侵权行为的纠纷表现,而其他主体(如平台用户或竞争平台)引发的间接诉讼,则主要涉及AI内容生产链条中的协同义务与风险转移机制。这类区分对于厘清AI行为主体与法律责任主体之间的界限具有重要意义。

2.3. 裁判文书适用法律规范条款的分析

在生成式人工智能相关侵权纠纷中,法院所援引的法律条文主要包括:《中华人民共和国著作权法》第三条、第九条、第十条、第十一条、第十二条、第十七条、第四十七条、第四十八条、第四十九条、第五十二条、第五十三条、第五十四条等,《中华人民共和国反不正当竞争法》第二条、第八条,《中华人民共和国民法典》第一千零二十三条、第一千一百六十五条、第一千一百六十八条,《著作权法实施条例》第二条、第三条、第四条,《中华人民共和国侵权责任法》第十五条,《生成式人工智能服务管理暂行办法》第七条、第十四条、第二十二条,以及《最高人民法院关于审理著作权民事纠纷案件适用法律若干问题的解释》《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》等司法解释条款。从条文引用频次排序来看,《著作权法》第五十四条被引用8次,第三条、第四十九条、第十条第一款第十二项均出现4次,第十一条、第四十八条出现4次,第五十三条和第五十二条等条文也被多次引用,说明法院在认定人工智能生成内容的侵权行为时,仍大量依赖传统著作权体系中的权利构成与责任判断逻辑。

可以发现,法院在处理生成式人工智能侵权纠纷中,仍秉持相对谨慎包容的态度,在尊重著作权人权利与鼓励平台发展之间寻求平衡。一方面,司法实践仍倾向于运用既有的著作权条款与反不正当竞争法框架解决新型争议,例如将大模型生成内容的传播责任归入“信息网络传播权”与“权利内容的合理使用”分析框架;另一方面,面对AI产业尚处于技术突破与标准缺位并存的阶段,法院亦展现出对于平台义务边界的克制判断。例如在部分平台类案件中,法院认为“AI服务提供者基于用户输入自动生成内容,系算法自动决策流程,平台是否构成侵权仍需结合其管理义务与主观过错具体认定。”可见,传统规则虽具备可供援引的路径基础,但在面对AI生成内容引发的新型权利边界问题时,仍难以完全适应技术发展的挑战,法律的稳定性与社会关系的动态演进之间,必然存在适法张力。

3. 生成式人工智能侵权责任认定的适用问题分析

3.1. 作品认定阶段:生成内容的独创性判断与责任归属

生成式人工智能依赖于海量数据训练和模型优化,可在简洁指令下自动生成具备特定表达的内容,其自动性和相对独立性使生成结果的权利归属问题愈加复杂。根据现行法律,著作权主体限于自然人、法人或非法人组织,人工智能既不具备民事主体资格,亦未被司法实践赋予法律人格。在李某与刘某侵害作品署名权案6中,法院明确指出生成式人工智能模型不具备自由意志,不能成为法律主体,进而否定其生成内容的作品属性。由此可见,判断生成内容是否构成著作权意义上的“作品”,仍应回归“独创性”与“表达”两项基本标准。操作者输入的提示语是否具有表达性、是否体现创作性智力投入,是判断其生成结果是否受法律保护的核心[5]。若将生成式人工智能视为创作工具,则仍需审查人类在“控制—创作”链条中所发挥的实质作用。学界普遍否定将人工智能拟制为作者的可行性,认为著作权制度以激励创作为核心,只有具备回应激励能力的主体才能享有权利[6]。与此同时,有学者提醒,不应将版权法视为调节生成式人工智能所涉所有问题的万能工具。经过精细训练与人为干预的生成式模型,通常更符合“非表达性使用”标准,是合理使用的重要候选。然而这并非合理使用认定的终点。若该使用破坏了著作权所维护的激励机制,法院仍可能在第四项合理使用因素下引入公平性考量[7]。因此,生成内容是否构成侵权,关键在于操作者是否具备实质性创作控制,以及生成结果是否构成受保护作品,现行体系对此尚缺乏系统回应。

3.2. 责任划分阶段:平台技术介入对责任划分的影响

既然生成式人工智能不具有民事主体资格,责任归属必然落于服务提供者。平台既是技术的开发者,也是内容的生成者和管理者,因此理应承担相应的审核和安保义务[5]。在现有责任认定框架中,平台对生成过程的控制力成为判断责任的核心。控制程度越高,平台的责任可能越重;反之,若控制有限,其责任就可能被弱化。广州互联网法院和杭州中级人民法院的两起奥特曼案,其实代表了法院处理生成式AI平台侵权问题的两种典型思路。前者是上海新创华文化发展有限公司诉AI公司案7 (又称“广州奥特曼案”),用户只需输入提示词,系统就能生成与奥特曼极为相似的图像。平台不仅提供了素材库,还对生成过程起到了关键推动作用。广州互联网法院据此认为平台深度参与了内容的形成,应承担侵权责任,理由是平台未建立相应的审查机制。后者是上海某文化公司诉杭州某科技公司著作权侵权案8 (又称“杭州奥特曼案”),平台提供的是一种“定向”训练服务。虽然技术上有所支持,但用户需要自行上传素材并完成训练步骤,平台并未直接干预内容生成。杭州中级人民法院因此强调,用户的自主选择是关键变量,平台无需承担直接侵权责任。这两起判决传达出一个比较清晰的信号。判断AI平台是否应当承担侵权责任,不能只看平台是不是直接传播了内容。也不能只看平台是不是技术提供方。法院更看重的是平台有没有控制能力。有没有实质参与。有没有采取应对侵权的措施。平台越是深度参与生成逻辑,比如设置提示词模板、提供训练数据、指导用户操作,它就越像是一个内容参与者。这时候就不能再用工具中立来免责。相反,如果平台只是提供了一套通用工具,而没有对具体内容进行引导和干预,那它的角色就更像传统意义上的信息中介。这个时候可以考虑适用避风港规则。根据前面的两个案例我们能看出,法院在处理AI平台责任问题时,已经开始从“有没有控制力”的角度入手,而不是简单套用直接或间接侵权的分类。这种判断方式,也许更能回应生成式AI带来的新问题。

3.3. 责任豁免阶段:“避风港”规则的适用限度

从《民法典》第1194到1197条来看,网络侵权责任被划分为两类:一种是平台因自身行为承担的直接侵权责任,一种是因用户行为承担的间接侵权责任。如果平台在模型训练、参数调整、微调等环节中主动处理数据并引发侵权,属于平台自身的行为,应认定为直接侵权,适用一般侵权责任规则,不能主张“避风港”规则下的责任豁免。如果侵权源于用户输入或生成内容,而平台又未尽审核、识别义务,这种情形下构成的是间接侵权。此时是否能适用“合理使用”或“避风港”规则,则需要进一步评估[5]。目前的司法实践中,还没有完全适用“避风港原则”的生成式人工智能侵权案例。这说明在AI场景下,传统的免责路径已经出现了适用上的困难。“通知–删除”机制原本建立在用户行为清晰可辨、平台职责相对被动的前提下。但生成式AI的输出,融合了用户输入和模型算法的综合运算,平台已不再是中立的技术通道。在模型训练和优化阶段,它往往具有主导性和实质控制力[8]。如果平台在数据处理阶段就已经介入侵权内容的形成,那就难以再获得“避风港”保护。即使是间接侵权,要想免责,也必须履行更严格的注意义务和技术义务,比如设立识别机制、优化生成路径、预防同类侵权反复出现[9]。从现有裁判思路来看,法院已逐步强化平台的“安保义务”。但传统避风港规则在生成式AI语境下,暴露出责任边界不清、免责条件不完整等问题。考虑到这一规则对于技术发展环境的正面价值,也应尽快推动责任划分更清晰、标准更合理的避风港新规则体系建设。

4. 完善生成式人工智能侵权责任制度的路径思考

4.1. 生成式人工智能侵权责任的归属原则

著作权制度的设计基础在于激励机制,而缺乏回应激励的能力便难以构成权利主体[6]。生成式人工智能不具备法律人格,它的输出内容也无法被认定为法律意义上的“作者”。这一点在学术界和司法实务中已经被普遍接受。但只要生成内容造成侵权,责任怎么归属仍是个难题。现在主要有两种路径:一种认为AI只是工具,关键在于人类使用者是否具备创作性控制力,只要操作者能主导生成过程,就适用传统的归责逻辑;另一种则认为,仅把AI当工具不够,它介入更深、运行更复杂,必须设计更细致的责任结构,才能回应责任认定中的灰区。《民法典》第1195条9和第998条10为这一问题提供了基础框架。尤其是第998条,提出了多元评价维度,比如行为人的职业属性、行为目的、影响范围、过错程度和结果后果,这些因素适用于判断AI生成内容所引发的民事责任。在AI无法作为主体的前提下,仅能通过人的控制程度与主观过错划分责任。在殷某某诉北京某智能科技公司等人格权侵权案11中,法院针对AI生成声音的不同使用主体进行责任区分:上游的数据收集与训练方若未经自然人授权使用其声音,应认定存在明显过错,构成侵权;而下游使用者若基于合理信赖、未参与技术加工,且无证据证明其明知数据非法来源,则不承担责任。该案表明,在生成式人工智能的侵权责任认定中,法院倾向于采“过错责任原则”为主,同时结合主体行为的客观可控性与主观注意义务进行层级划分[10]。因此,在构建AI生成内容侵权的责任体系时,应采“工具性 + 控制力”双维度分析路径:一方面将AI视为工具,审查人类行为人是否实质介入并控制内容生成;另一方面则对AI服务链条中的不同参与者设定分层责任标准,赋予平台合理信赖的空间,强化开发方的数据合规义务,以此实现侵权治理与产业发展的动态平衡。

4.2. 生成式人工智能侵权责任的划分体系

面对技术迭代与立法滞后的矛盾,当前的优先任务不应是仓促创设全新的责任体系,而是应当通过解释路径,对现有规则进行具体化和层次化处理[11]。一种更具可操作性的做法,是在现有“网络服务提供者”责任框架下,以“是否实质介入内容生成”为核心变量,划分平台行为的性质。若平台仅提供中立性工具,未参与模型预设、提示词引导或生成内容筛选,应维持“避风港规则”的适用。但若平台通过具体的参数设置或语料组织行为,影响生成结果走向,应视为主动参与内容生产,其“中立性”即被打破,责任也应相应上升,适用直接侵权规则或施加更高程度的注意义务。建议最高人民法院通过典型案例或司法解释,提供“实质控制力”的判定标准。例如,可从平台是否具备模型修改权、是否提供预设提示词、是否通过算法干预输出内容等方面,判断其是否对生成行为具备主动介入能力。平台“必要措施”不应限于传统的事后删除,更应包括模型结构优化、提示词过滤、内容标识等前置性技术干预,从而有效防范系统性重复侵权风险[9]。法院可结合技术可行性、行业惯例与内容风险等级,判断平台是否构成过错。在平台方面,为实现责任归属与监管成本的动态平衡,平台也应主动提升操作透明度,通过提示机制与技术可追溯系统标注模型版本、提示词来源与生成机制,辅助厘清侵权链条,降低司法查明成本,为责任形式的认定提供更加坚实的事实基础。

4.3. 生成式人工智能平台责任的豁免规则

传统“避风港规则”强调平台在接到权利人通知后,及时删除侵权内容即可免责,其根本目的在于减轻平台对用户上传行为的直接责任。这一规则源自《民法典》第1195条,是我国长期以来处理平台责任的重要工具。美国作为互联网产业长期强势的国家,亦是“避风港”规则的创设之地,理应细化针对网络服务提供者的立法,然而其至今却始终坚持通过扩大解释存储空间服务来吸纳新兴互联网商业模式。从P2P软件分享平台、电子商务平台到“用户生成内容”平台,都先后通过法院判决类推适用信息存储空间服务提供者的规范,延续了“避风港”规则中的“通知–删除”义务。欧盟则采取不同思路。《数字单一市场版权指令(Directive on Copyright in the Digital Single Market, DCDSM)》第17条明确要求平台在删除侵权内容的同时,还应尽最大努力防止其再上传。德国联邦法院更在eBay案中确立“面向未来的审查义务”,要求平台在发现违法行为后主动采取措施预防同类侵权。两种路径一松一紧,各有利弊。美国更重视鼓励创新,欧盟则更关注权利保护。在生成式人工智能的运行过程中,侵权行为的来源并不单一。部分问题出现在训练阶段,语料库中含有未经授权的作品、个人隐私甚至诽谤内容。也有一些风险来自生成环节,即便用户输入合法,模型输出的内容也可能侵犯他人权益。面对这些情形,原有的“通知—删除”机制显然难以一概而论。平台承担的责任,需要根据其在不同环节中的控制能力加以区分,因此我国可以部分引入欧盟的“面向未来的审查义务”。它要求平台在发现侵权内容后,不仅要及时删除,还应通过技术手段进行筛查与预防,避免同类内容再次出现。这种模式从“删除”扩展到了“预防”,比传统避风港更进一步。相比之下,对于算法生成内容中偶发性的侵权,仍可以适用传统的删除免责机制,只要平台能在合理时间内进行处理,便不应承担不必要的法律责任。例如,在用户通过模型生成含有隐私或诽谤信息的内容后,平台发现问题并及时删除,这种响应可以被视为履行法定义务,有助于免责。在责任豁免类型化的基础上,应进一步厘清平台的合理注意义务边界,一方面保障著作权和人格权等基本权益,另一方面也要为人工智能的创新和试错提供适度的空间[12]

5. 结语

随着生成式人工智能日益深度嵌入社会生活,其引发的侵权争议已成为亟待回应的法律课题。法律制度不仅承担着规范新兴技术的基本职能,也在规制过程中反向塑造技术的发展方向。在索尼案中,美国最高法院认为若某项技术具备广泛的非侵权用途,其制造商不应因个别用户的侵权行为而承担责任[13]。我国应在既有人工智能治理优势基础上,进一步完善基础性立法,更新技术规制逻辑,并在司法实践中保持对裁判价值中立性的高度警惕[14],从而构建兼具前瞻性与包容性的责任认定规则体系,在保障权利人与促进技术发展之间实现良性平衡。

NOTES

1杭州中级人民法院(2024)浙01民终10332号民事判决书。

2长沙中级人民法院(2024)湘01民终18114号民事判决书。

3北京互联网法院(2023)京0491民初12142号民事判决书。

4杭州中级人民法院(2024)浙01民终10332号民事判决书。

5广州互联网法院(2024)粤0192民初113号民事判决书。

6北京互联网法院(2023)京0491民初11279号民事判决书。

7广州互联网法院(2024)粤0192民初113号民事判决书。

8杭州中级人民法院(2024)浙01民终10332号民事判决书。

9《民法典》第一千一百九十五条:网络用户利用网络服务实施侵权行为的,权利人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施。通知应当包括构成侵权的初步证据及权利人的真实身份信息。网络服务提供者接到通知后,应当及时将该通知转送相关网络用户,并根据构成侵权的初步证据和服务类型采取必要措施;未及时采取必要措施的,对损害的扩大部分与该网络用户承担连带责任。权利人因错误通知造成网络用户或者网络服务提供者损害的,应当承担侵权责任。法律另有规定的,依照其规定。

10《民法典》第九百九十八条:认定行为人承担侵害除生命权、身体权和健康权外的人格权的民事责任,应当考虑行为人和受害人的职业、影响范围、过错程度,以及行为的目的、方式、后果等因素。

11北京互联网法院(2023)京0491民初12142号民事判决书。

参考文献

[1] 维特根斯坦. 逻辑哲学论[M]. 韩林, 译. 北京: 商务印书馆, 2019: 92.
[2] 毕文轩. 生成式人工智能的风险规制困境及其化解: 以ChatGPT的规制为视角[J]. 比较法研究, 2023(3): 155-172.
[3] 支振锋. 生成式人工智能大模型的信息内容治理[J]. 政法论坛, 2023, 41(4): 34-48.
[4] 袁曾. 生成式人工智能的责任能力研究[J]. 东方法学, 2023(3): 18-33.
[5] 杨显滨. 生成式人工智能服务提供者间接侵权责任的承担与限制[J]. 法学家, 2024(3): 46-60+191-192.
[6] 王迁. 再论人工智能生成的内容在著作权法中的定性[J]. 政法论坛, 2023, 41(4): 16-33.
[7] Sag, M. (2024) Fairness and Fair Use in Generative AI. Fordham Law Review, 92, 1-36.
[8] 周学峰. 生成式人工智能侵权责任探析[J]. 比较法研究, 2023(4): 117-131.
[9] 熊琦. 生成式人工智能平台的著作权侵权责任[J]. 环球法律评论, 2025, 47(2): 23-37.
[10] 北京互联网法院课题组. AI生成声音侵害声音权益的法律认定——以殷某某诉北京某智能科技公司等人格权侵权案为例[J]. 法律适用, 2024(9): 123-133.
[11] 张伟君. 论大模型训练中使用数据的著作权规制路径[J]. 东方法学, 2025(2): 79-92.
[12] 赵精武. 论交互对话式人工智能服务提供者的注意义务[J]. 法律适用, 2025(4): 119-134.
[13] Murray, M.D. (2023) Generative AI Art: Copyright Infringement and Fair Use. SMU Science and Technology Law Review, 26, Article 259.
https://doi.org/10.25172/smustlr.26.2.4
[14] 周维栋. 生成式人工智能类案裁判的标准及价值边界[J]. 东方法学, 2023(3): 47-60.