工具论的重构与超越:论AIGC的梯度法律保护体系
Reconstruction and Transcendence of Utilitarianism: On the Gradient Legal Protection System of AIGC
DOI: 10.12677/ojls.2025.1310331, PDF, HTML, XML,    科研立项经费支持
作者: 杨 可:武汉工程大学法商学院知识产权学院,湖北 武汉
关键词: 人工智能生成内容工具论梯度保护Artificial Intelligence Generate Content Instrumentalism Gradient Protection
摘要: 随着人工智能在实践中的广泛应用,其自动生成特性与传统以“人类智力创作”为核心的著作权制度产生根本冲突,导致法律定性陷入“全有或全无”的二元困境,既可能过度保护非独创性内容,又可能忽视投资者的正当权益,亟需构建更为精细的法律保护机制。为回应这一现实问题,本文主张重构著作权法中的“工具论”,提出以“实质性人类干预”为核心标准,建立区分不同干预程度的梯度法律保护体系。通过设立“独创性贡献分级认定制度”和“人工智能生成物邻接权”,对不同层级的人类干预赋予差异化法律保护,并辅以技术性认定工具与侵权过滤机制,从而实现保护投资、激励创新与维护公共利益之间的多元平衡。
Abstract: With the widespread application of artificial intelligence in practice, its automatic generation characteristics fundamentally conflict with the traditional copyright system centered on “human intellectual creation”, leading to a binary dilemma of “all or nothing” in legal characterization. It may overprotect non original content or ignore the legitimate rights and interests of investors, and there is an urgent need to build a more refined legal protection mechanism. To address this practical issue, this article advocates for the reconstruction of the “instrumentalism” in copyright law, proposing the establishment of a gradient legal protection system that distinguishes different levels of intervention based on the core standard of “substantial human intervention”. By establishing a “graded recognition system for originality contributions” and “adjacency rights for artificial intelligence generated products”, differentiated legal protection is granted to human interventions at different levels, supplemented by technical recognition tools and infringement filtering mechanisms, thus achieving a diversified balance between protecting investment, stimulating innovation, and maintaining public interests.
文章引用:杨可. 工具论的重构与超越:论AIGC的梯度法律保护体系[J]. 法学, 2025, 13(10): 2413-2420. https://doi.org/10.12677/ojls.2025.1310331

1. 引言

人工智能凭借其高效、自动化的内容生成能力,广泛应用于文学、艺术等领域,呈现出与人类作品高度相似的外在表现形式。但是,其生成机制本质上缺乏人类作者的创造性干预,动摇了以“人类智力创作”为基石的著作权制度,导致法律定性陷入“全有或全无”的二元困境。学界与实务界围绕其版权性问题存在显著争议。否定说坚守“人类作者中心主义”;肯定说则主张其已具备作品实质且应予保护以激励创新。然而,既有研究多局限于作品属性的二元争论,未能充分回应“用户不同程度干预”这一现实情境,亦未体系化构建符合AIGC的技术特征与法律伦理的分层保护模式[1]。司法实践仍缺乏统一、可操作的认定框架,导致裁判结果面临不确定性。因此,系统研究AI生成内容的法律保护路径,不仅关乎著作权法体系的逻辑自洽,更对平衡技术创新、投资者权益与公共利益具有重大现实意义。

本文拟跳出传统理论,提出以“实质性人类干预”为核心标准,对著作权法中的“工具论”进行重构与超越,构建一套区分干预程度的梯度法律保护体系。既延续了著作权法以人类为中心的基本法理,又通过制度创新实现法律规制与技术发展的良性互动。首先解构AIGC的概念与特征,厘清其与人类创作的本质区别;进而从技术原理与法律伦理双重视角,论证人工智能作为工具的法律属性及其内在限度;在此基础上构建以“人类干预梯度”为核心的分级保护机制,并辅以技术性认定工具与侵权过滤机制以保障制度落地。根据用户干预的实质性程度,对AIGC予以差异化法律保护,以此实现激励创新、保障投资与维护公共领域开放之间的多元价值协调。

2. AIGC对著作权法的挑战

() AIGC的概念与特征

AIGC (Artificial Intelligence-Generated Content, AIGC)是指由人工智能系统基于算法模型,在未经人类对表达形式进行实质性参与或仅凭简单指令输入的情形下,自动生成的文字、图像、音乐等表达形式[2]。其核心特征在于创作过程的非人类主导性,即内容的构思、选择与表达均由机器自主完成,人类未对作品的独创性要素施加决定性影响。WIPO在知识产权与人工智能政策对话中的界定,“人工智能生成的”与“人工智能自主创造的”可作为同义表述使用,但仍强调产出系“在缺乏人类直接干预的情况下由人工智能系统独立生成”[3]。从技术层面观之,AIGC系AI模型通过对海量训练数据的学习与概率统计分析,在用户输入提示的引导下,依既定算法逻辑进行数据重组与模式模拟,最终输出具有表层创造性特征的内容。

() 现有的争议与局限

在AIGC的法律定性问题上,学界存在以下主张:否定观点认为AIGC本质上是算法、预设规则与数据模板的运算产物,其生成过程不涉及人类对表达形式的构思与决策,不构成作品[4],也不具备作者个性之体现个性[5]。著作权法以“人类作者中心主义”为基石,强调作品应反映创作者的思想、情感与人格特征。而人工智能作为技术系统,无法拥有意识、意志或人格利益[6],其“创作”行为实为程序执行,不具精神活动属性,不应纳入著作权保护范畴。此外,从独创性标准审视,人工智能的生成机制系对训练数据的统计建模与模式复制,缺乏“独立创作”过程,难以达到“最低限度创造性”的法律门槛[7]。肯定说则主张AIGC具备可版权性。人工智能自主生成的独创性内容在表现形式与实质价值上,与著作权法所保护的作品具有同质性[8]。该内容不仅符合文字、美术等法定作品类型的形式要求,其独创性造诣甚至超越人类创作水准,部分内容已脱离人类主观意识的直接控制,形成了独立的表达价值。从实用主义视角看,AIGC已实质性介入创作领域,其与人类作品在使用需求与价值属性上无本质差异,承认其可版权性符合著作权法的激励功能[9]。然而,肯定说在法理上仍面临结构性困境:用户对AI指令、参数的调整是否构成“创作性投入”,尚不明确;且该类干预往往局限于技术性操作,难以证明其与最终表达之间存在充分的因果关联。

AIGC是否构成“作品”,关键在于其是否满足“独创性”要件,尤其是“是否存在可归责于人类的创造性智力投入”[10]。从潜在“不构成作品”的情形看,可分为三类:其一,无人类干预的自动生成情形。即用户仅触发AI生成指令,未输入具体创作指令、参数设定或内容引导,生成过程完全依赖算法预设逻辑与训练数据自动运行,因缺乏个性化表达,此类内容易被认定为缺乏创作本质要素,排除于作品范畴之外。其二,形式性修改情形。即用户仅对AI输出内容进行字体、排版等非实质性调整,未达到“最低限度创造性”标准,难以构成新作品,通常仅视为原生成物的复制或简单变体。其三,实质性相似情形。若AIGC与在先作品在表达层面构成“实质性相似”,且无法举证生成过程具有独立来源,可能因“思想表达二分法”及“接触 + 实质性相似”侵权判定规则,被认定为侵害在先著作权,而非独立作品。在“菲林律师事务所诉百度案”中1,法院认定分析报告因缺乏“智力创作”而不构成作品。尽管该案系无用户干预的自动化生成场景,与用户参与性生成存在差异,但法院坚守“人类作者中心主义”,强调创作行为须体现人类个性选择与创造性劳动,即便技术参与度提升,若人类创造性贡献不足,仍无法满足作品法定要件。然而,现有理论与判例多局限于“全有或全无”的二元判断,不能回应用户不同程度干预下的现实复杂性。

3. 解构与重构人工智能的角色

() 为何仍是“工具”:技术原理与法律伦理的双重视角

AIGC因缺乏人类实质参与,而不应构成作品。然而,AIGC系人类运用预设算法、规则与模板的技术产物,其生成机制类似于使用工具进行表达[11],与传统创作中纸笔等工具无异[12],应将其视为创作工具。

从技术原理出发,人工智能旨在构建模拟人类智能行为的系统,通过算法设计与数据训练,使机器具备感知、学习、推理及解决问题的能力,最终实现对人类任务的执行。传统人工智能依托预定义规则推导逻辑,模仿人脑神经元网络构建概率模型,并通过试错与奖励机制优化行为策略;现代人工智能则以深度学习为核心,借助多层神经网络自动从数据中提取高阶特征[13]。无论技术形态如何演进,人工智能的运行逻辑均需以人类主观意志为基础,本质是人类将自身思维逻辑、价值判断与“合理性”标准赋予机器的过程[14],类似通过修整管道设施引导水流方向,最终输出效果始终受人类预设意图约束[15]。美国版权作品委员会将人工智能类比于照相机、打印机等传统创作工具,强调“工具使用者而非工具本身”的法律主体地位[16]。如计算机程序仅能执行预设指令,其“创作”行为完全依赖人类操作者的指令输入[17],计算机程序是使用者进行创作时所使用的工具[16]。如此而言,人工智能通过算法执行人类设定的学习目标,其输出内容受训练数据与提示词双重约束,符合“工具-使用者”法律关系特征。人工智能不具备自主创作意图,其生成内容的社会效果完全取决于人类使用目的,其本质是使用者借助这一工具进行创作,生成的内容是由人的意志决定的[18]

从法律伦理出发,人工智能的工具属性具有双重法理支撑,但无法突破“人类中心主义”的法律与伦理边界。在法律层面,人工智能不具备自然人的生物属性,亦缺乏法人所需的权利能力、行为能力及独立财产基础,无法独立承担法律责任,不符合法律主体的法定要件,人工智能无法通过法律拟制获得主体地位。在伦理层面,人工智能虽具有功能上的“拟主体性”[19],但本质是算法驱动的机械模仿,因缺乏意识能动性而不具有理解自身行为的伦理意义,其价值需通过人类赋予得以体现,故无法获得主体地位,仅能作为客体工具存在。当前众多国家将其定性为工具,既可以有效避免伦理风险,也符合法律核心保护立场2

() 为何不止于“工具”:生成过程的不确定性与司法实践的启示

人工智能生成过程具有极大不确定性。若将其视为与手机、相机或传统计算机程序等“创作工具”,主张仅在技术形式上存在差异而本质属性相同,存在明显法理缺陷,无法回应人工智能生成机制所固有的不确定性问题[20]。传统创作工具的功能在于对客观现实的机械性记录或再现,输出结果具有可重复性与可预期性。然而,人工智能的运行机制与此有本质区别,其生成过程依赖于深度学习模型对海量训练数据的概率性建模与非线性推演,即便两次输入完全相同的提示词与参数配置,由于模型内部的随机性、采样策略及权重波动等因素,输出结果往往呈现显著差异,甚至在语义表达、风格特征或结构安排上产生实质性变化。该不确定性表明,使用者对生成内容的控制力极为有限,难以实现对表达形式的精准预测。生成结果不仅受用户输入影响,更深度依赖于算法自身的“黑箱”运作逻辑与训练数据的隐性偏见。因此,人工智能并非传统意义上的被动工具,其生成过程具有高度的自主性与不可控性,体现出显著的不确定性特征。该特性从根本上动摇了“工具论”在AIGC法律定性中的适用基础,亦对著作权法所要求的“独创性”与“人类控制”提出了严峻挑战。

2023年“春风送来了温柔”案中3,被告未经许可将原告的美术作品用作网络文学配图,原告主张其著作权受到侵害。该案争议焦点在于涉案图片是否构成《著作权法》意义上的“作品”,法院依据《著作权法》关于作品的法定定义展开系统审查。首先,法院认定涉案图片在表现形式上具备可视化的艺术表达,其画面构图、色彩搭配与视觉风格均符合美术作品的外观特征,属于艺术领域内的表达,满足“能以一定形式表现”的要件。其次,在判断其是否构成“智力成果”并具备“独创性”时,重点考察了原告在生成过程中的创造性投入。原告在使用Stable Diffusion模型时,对提示词进行了精心设计,对生成参数进行了反复调试与选择,并对多轮输出结果进行筛选与再编辑,体现了个性化的智力判断与审美安排。法院据此认定,该生成过程并非简单的技术操作或机械复制,而是融入了使用者的创造性意图。此外,法院指出Stable Diffusion模型基于海量互联网图像及其文本描述进行训练,其运行机制具有类人学习特征,并非对预设模板的机械调用。尽管人工智能生成具有一定的随机性,但用户通过差异化输入仍可实现对输出内容的实质性引导。因此,涉案图片系人类智力活动与技术工具协同作用的成果,具备独创性,应受著作权法保护。

() 工具论边界的法理界定:实质性人类干预标准

“实质性人类干预”是界定人工智能生成内容可版权性及保护程度的核心标尺,指用户在生成过程中施加的、体现个性化智力选择与创造性判断的干预行为,该行为对最终表达的形式与内容具有决定性影响,且能使生成结果区别于单纯算法自动输出物。如同摄影作品保护需摄影师对构图、光线等元素作独创性选择,著作权法保护的作品本质是创作者通过独特智力活动赋予个性化表达。若用户仅输入简单指令,由人工智能自主完成全部表达细节,其行为类似机械操作,未参与作品表达形式塑造,未超越“机械触发”范畴,不符合工具论适用条件。进而言之,工具论在人工智能生成内容场景中的成立,需要用户切实参与到表达形式塑造,而非仅启动人工智能程序。

判断是否构成“实质性人类干预”,应重点考察用户是否通过其行为赋予了生成内容区别于算法自动产出的个性化表达,其干预是否体现了著作权法所要求的“独创性”智力活动。从正面情形看,构成“实质性人类干预”,首先是创造性提示词工程,即用户输入包含具体风格、叙事结构、情感基调等高度细化且体现创作意图的提示词;其次是迭代优化与参数微调,指用户基于初始输出,通过多轮针对性提示词修改、参数调整等引导模型逼近预设目标;再者是选择性编排与结构性重组,即用户依据审美或逻辑标准,对大量生成内容筛选组合形成具有新颖结构与独特意义的整体;最后是后期实质性修改与融合创作,即用户将生成物作为素材进行深度修改或融合,融入独创性表达。从反面情形而言,不构成“实质性人类干预”的情形,则是浅显触发程序的操作,如仅输入“生成风景画”等未体现个性化选择的简单指令;仅机械触发生成或进行字体更换等不改变内容实质的格式微调;完全依赖模型默认参数获取输出等。

“实质性人类干预”是界定AIGC保护程度的核心标尺,需考察用户行为是否赋予生成内容个性化表达、体现著作权法要求的“独创性”智力活动,其构成与否可通过正反情形明确区分。鉴于此,应以该标准为核心,构建区分不同干预程度的梯度法律保护体系,使干预深度、创造性程度与法律保护力度相匹配,既契合著作权法立法宗旨,也为AIGC领域版权保护提供清晰、可操作的规则指引。

4. 构建与展开:以“人类干预”为核心的梯度保护体系

() 独创性贡献分级认定制度

基于以上研究,主张构建以“人类智力投入”为核心的梯度认定标准,通过独创性贡献分级制度与技术性认定工具,明确不同干预层级下AIGC的可保护性边界。既能在理论上延续著作权法“人类中心主义”的底层逻辑,将“独创性”判断锚定于人类对表达形式的实质性控制;同时又通过梯度标准弥合法律规范与技术实践的鸿沟,避免因AIGC的特殊性动摇著作权体系根基。

1、独创性贡献分级制度

(1) 基础层级(无独创性):若用户仅输入类似“生成一篇法律文书”等简单指令,由人工智能独立完成全部表达形式,则该生成内容应视为“纯人工智能生成物”。由于此类生成内容缺乏人类智力活动的直接体现,不符合著作权法对作品的要求,不构成作品。为保障使用者在数据投入与传播方面的合法权益,可参照欧盟《数据库指令》第7条对“非独创性数据集合”的保护模式,赋予使用者邻接权。能够确保使用者在数据收集、整理和传播过程中的投入得到合理回报,同时也避免了对公共领域资源的过度垄断。

(2) 进阶层级(有限独创性):若用户通过多轮提示词调整、参数优化或生成结果筛选,形成具有连贯性的表达,则可赋予有限著作权。此时,为确保权利的正当性,需适用举证责任倒置,要求用户提交操作日志、版本迭代记录等,以证明其对创作过程进行了创造性控制。通过材料证据清晰展示用户在创作过程中的智力投入和创造性贡献,为权利认定提供坚实依据。

(3) 高阶层级(完全独创性):若用户将AIGC作为素材进行二次创作或深度参与生成逻辑设计,则生成内容可以直接适用《著作权法》第3条进行保护。但是,为防止侵权行为的发生,需引入侵权风险排除机制,即要求使用者证明生成内容未实质性复制训练数据中的受版权保护表达,确保创作的独立性和合法性。

2、技术性认定工具

即开发一个技术认定工具,建立数字化评判标准。积极推动司法机关与科技企业合作,开发“干预度评估算法”,通过指标衡量,量化人类智力投入占比。如借助自然语言处理技术解析指令的语义密度,量化分析提示词的复杂度;通过版本控制系统记录迭代频次,统计修改的次数;运用比对多次生成内容的特征向量距离等技术手段,衡量输出结果的差异性等,为司法裁判提供技术辅助。

() 创设“人工智能生成物邻接权”

人工智能生成物邻接权的创设,旨在填补因AIGC不符合独创性要求而导致的法益保护真空,其法理基础源于对“非独创性劳动成果所蕴含之实质性投资与传播价值”的法律认可。与传统邻接权相比,二者均以“投资保护”为核心法理,但传统邻接权侧重于对人类传播活动中专业性劳动与资金投入的保护,而人工智能生成物邻接权则聚焦于数据训练、算法优化与内容生成过程中凝结的资本投入、技术劳动及传播价值,其客体并非人类智力创作之表达,而是人工智能基于大量数据与算法生成的“非作品性内容”。

在权利主体方面,该权利应赋予对AIGC生成做出实质性投入的开发者、投资者与使用者,根据贡献类型通过合同约定或法律规定明确权利归属,形成以“投资者为主、多方参与分配”的主体结构。权利内容主要包括传播收益权与署名声明义务,具体如下:

1、传播收益权,赋予使用者对AIGC的首次发表权与传播收益分配权,作为使用者在AIGC传播过程中所付出努力和投入的合理回报。考虑到人工智能技术的快速发展以及避免权利过度垄断,可以对该项权利设定一定的期限。建议参照欧盟《数据库指令》第10条对非独创性数据库15年保护期的规定,并结合我国实际情况综合设定。相较于《著作权法》第21条规定的作者终身加50年的保护期限,该期限能够在保障使用者权益的同时,促进信息的快速流通与文化的多元发展。

2、署名声明义务,为保障公众的知情权和市场秩序的稳定,应强制要求使用者在发布AIGC时履行署名声明义务,即标注“人工智能生成”标识及模型名称。若使用者未履行该义务,则可参照《民法典》第1194条对网络用户虚假标识的责任规定,承担相应的民事赔偿责任。通过这种方式,确保消费者能够准确识别信息来源,维护市场的诚信环境。

该权利独立于著作权而存在,不以独创性为前提,其设立并不意味着对AIGC可版权性的承认,而是通过邻接权制度实现对产业投资的合理回报与权益平衡。在权利行使过程中,须恪守《著作权法》第24条等合理使用制度,禁止挤占原有作品的利用空间,并需与著作权过滤机制、数据溯源义务相结合,防范侵权风险。

() 构建以比例原则为指导的AIGC侵权过滤体系

在AIGC侵权过滤体系构建中,单纯依赖技术手段实现侵权内容的精准识别与拦截,受当前技术水平所限,尚面临算法误判、语义理解偏差、跨模态比对障碍等现实困境。为此,有必要引入比例原则作为核心指引,以平衡技术可行性、法律合规性与多元主体利益,合理划定注意义务与责任边界,避免向开发者、使用者施加过重或不具可行性的技术负担。

比例原则的适用需贯穿体系构建全过程,具体体现在三方面:其一是适当性原则,要求所采取的技术措施需具备防范侵权风险的基本可行性与实效性;其二是必要性原则,强调在多种技术方案中,应优先选择对主体权益限制最小、实施成本最低的方式;其三是均衡性原则,需确保版权保护等公共利益与对使用自由、技术创新的限制程度相匹配。基于此,应按主体类型分层设定技术注意义务:普通用户仅需履行使用内置过滤器、初步审查生成结果等一般义务,符合条件时可适用“避风港原则”;专业用户及商业机构需承担更高义务,包括采用高级过滤工具、留存生成日志等;AI开发者与平台则应履行最高标准义务,涵盖内置基础过滤机制、提供增强过滤插件、公开训练数据来源及建立侵权投诉快速响应机制等。

同时,需结合技术现实设定责任边界,允许采用主流可靠技术的过滤系统存在合理误差率,引入“实质性努力”标准,对已采取合理措施者免除个别侵权结果的责任。建立“技术安全港”制度,对采用认证过滤技术的主体推定已尽义务,除非权利人证明其存在过错或恶意。此外,还需完善技术标准认证、侵权投诉下架、责任保险及补偿基金等配套机制,最终实现各方利益的平衡协调。

5. 结论

本文旨在回应AIGC对传统著作权制度带来的挑战。当前AIGC在形式上与人类作品高度相似,但其非人类主导的生成机制动摇了以“人类智力创作”为核心的著作权法根基,导致学界与实务界陷入“全有或全无”的二元论困境,亟需新的理论框架与制度设计。

文章首先剖析了AIGC的概念及其引发的法律争议,指出传统“作品/非作品”的二元划分已难以应对现实复杂性;进而对著作权法中的“工具论”进行了法理上的解构与重构,论证了人工智能既在本质上仍属于人类运用的工具,又因其生成过程的不确定性而超越了传统工具的范畴。在此基础上,文章的核心是构建了一个以“实质性人类干预”为标准的梯度法律保护体系,根据用户干预程度的不同,将其区分为无独创性、有限独创性与完全独创性三个层级,并分别配以邻接权保护、有限著作权与完全著作权的差异化法律规制。此外,还提出了创设“人工智能生成物邻接权”、建立侵权过滤机制等具体制度构想。本文的核心观点是,不能简单地将人工智能认定为创作工具而一概赋予版权,也不应因其非人类创作而一概不予保护,而应依据人类干预的实质性程度,建立一个精细化的梯度保护模式,以实现激励技术创新、保障投资者权益与维护文化生态平衡之间的多元价值协调。

基金项目

1) 湖北省武汉工程大学教育创新基金项目(项目编号:CX2024375),名称“生成式人工智能训练数据的合理使用;

2) 湖北省教育厅项目(项目编号:005487),名称“三权分置下商业数据的知识产权保护研究”。

NOTES

1参见北京互联网法院(2018)京0491民初239号。

22015年《科学》杂志的公开信,2017年的《阿西洛马人工智能原则》,2018年欧洲科学与新技术伦理组织的声明以及中国发布的《人工智能创新发展道德伦理宣言》都致力于建立伦理规范与机制,将人工智能的伦理地位限定为工具。

3参见北京互联网法院(2023)京0491民初11279号。

参考文献

[1] 吴汉东. 论AIGC的可版权性: 实务、法理与制度[J]. 中国法律评论, 2024(3): 113-129.
[2] 黄城. 论人工智能作品的独创性及其著作权归属——对现今和未来人工智能形态的思考[J]. 新媒体与社会, 2023(1): 169-190.
[3] World Intellectual Property Organization (2023) Wipo Conversation on Intellectual Property (IP) and Artificial Intelligence (AI).
https://www.wipo.int/edocs/mdocs/mdocs/en/wipo_ip_ai_2_ge_20/wipo_ip_ai_2_ge_20_1_rev.pdf
[4] 王迁. 论人工智能生成的内容在著作权法中的定性[J]. 法律科学(西北政法大学学报), 2017, 35(5): 148-155.
[5] 李扬. 应从哲学高度探讨人工智能生成物著作权问题[J]. 中国出版, 2019(1): 1.
[6] 徐小奔. 论算法创作物的可版权性与著作权归属[J]. 东方法学, 2021(3): 41-55.
[7] 刘银良. 论人工智能作品的著作权法地位[J]. 政治与法律, 2020(3): 2-13.
[8] 谢桂山, 逯达. 生成式人工智能创作物的作品属性、权利主体及制度构建研究[J]. 广西政法管理干部学院学报, 2025, 40(1): 12-21.
[9] 黄云平. AIGC的可版权性问题辨析[J]. 浙江大学学报(人文社会科学版), 2024, 54(2): 75-90.
[10] 蒋舸. 论AIGC的可版权性: 以用户的独创性表达为视角[J]. 知识产权, 2024(1): 36-67.
[11] 王迁. 三论人工智能生成的内容在著作权法中的定位[J]. 法商研究, 2024, 41(3): 182-200.
[12] 丛立先, 李泳霖. 生成式AI的作品认定与版权归属——以ChatGPT的作品应用场景为例[J]. 山东大学学报(哲学社会科学版), 2023(4): 171-181.
[13] 贲可荣, 张彦铎, 编著. 人工智能[M]. 第3版. 北京: 清华大学出版社, 2018: 348.
[14] 孙正樑. AIGC的著作权问题探析[J]. 清华法学, 2019, 13(6): 190-204.
[15] 李开复, 王咏刚. 人工智能[M]. 北京: 文化发展出版社, 2017: 83-86.
[16] National Commission on New Technology Uses of Copyrighted Works (1978) Final Report on New Technological Uses of Copyrighted Works.
http://digital-law-online.info/CONTU/PDF/Chapter3.pdf
[17] Jackson, J.C. (1993) Legal Aspects of Computer Art. Rutgers Computer & Technology Law Journal, 19, 495-516.
[18] 丛立先, 李泳霖. 生成式AI的作品认定与版权归属——以ChatGPT的作品应用场景为例[J]. 山东大学学报(哲学社会科学版), 2023(4): 171-181.
[19] 段伟文. 人工智能时代的价值审度与伦理调适[J]. 中国人民大学学报, 2017,3 1(6): 98-108.
[20] 王迁. 再论人工智能生成的内容在著作权法中的定性[J]. 政法论坛, 2023, 41(4): 16-33.