1. 引言
随着大型语言模型如ChatGPT等的兴起,人工智能生成物与著作权作品的概念日益接近,引发学界对人工智能生成物著作权保护的广泛讨论。本文旨在探讨人工智能生成物是否具有著作权、能否成为权利主体、权利归属等关键问题,并提出立法建议,以期在保护创作者权益的同时,促进人工智能技术的健康发展,使技术进步与法律秩序相协调。
2. 著作权视角下人工智能生成物的属性判定
根据《著作权法》的规定,作品的独创性和智力成果是获得保护的关键要素。在英美国家,对作品的独创性要求较低,但这些国家强调作者的人身权,因此人工智能生成物在这些国家也难以得到保护。然而,本文认为,人工智能生成物仍不能完全脱离人类,在目前的著作权法体系下,人工智能机器人创作的作品仍需依附于人类。在此,本文将着重研讨创造性的哲学问题,并从知识产权法哲学的角度分析人工智能生成物的独创性,从而确立了符合著作权保护标准的人工智能作品及其独创性标准。
2.1. 著作权法中的作品
大部分国家的著作权法要求作品需具备独创性和具体表现形式以获得保护,而人工智能生成的作品尽管在文学、艺术等领域展现出创意和表现力,但因著作权法强调作品背后的人身属性,其独创性和智力成果是否符合保护条件存疑,且这些作品在生成过程中依赖人类的智力投入和审美影响,故在当前法律框架下,人工智能作品被视为人类智力活动的产物,而非独立的创作主体。
创造性概念复杂且难以直接分析,其研究跨越心理学与知识产权法哲学等领域。一种理论认为创造是个性化过程,强调个人理性和独立性;另一种观点则视个人在从属地位,认为创造依赖团体和客观力量。然而,这两种观点都忽略了传统和社会对个人创造力的影响。事实上,创作者的作品深受所处时代和文化的影响,同时他们也可能成为规则的破坏者或新规则的创立者。人工智能的创作虽基于人类智慧,但也能无限制地吸收和整合知识,转化为产品。因此,创造性理论应承认个人主动创造能力,并考虑个人与团体互动的重要性。
《伯尔尼公约》定义了“独创作品”并强调其背后需有自然人存在。欧洲与英美法系在著作权法上存在差异,但欧盟在人工智能创作物的著作权保护上持积极态度,其最高法院提出“智力创作”标准。美国则逐渐采用“最低独创性”标准保护人工智能生成物。《欧盟人工智能知识产权立法报告》建议保护人工智能技术产生的新创作,以激励创作并考虑所有形式的创作品。随着人工智能生成物进入市场,著作权法保护变得必要,以避免公共领域侵占和保障权利人权益,同时鼓励技术创新。尽管有人担忧人的主体地位,但现有知识产权体系并未构成威胁。
2.2. 人工智能生成物的属性判定
在学术界,关于人工智能生成物的属性,存在以下三个主要观点:1) 英美国家普遍采用的方法是,如果人工智能生成物在客观上达到最低限度创造性的标准,那么它可以被视为可以受到著作权保护的作品;2) 尽管人工智能生成物在外观上可能与人类创作的作品无异,但它们本质上是在程序设计者的协助下,基于大量吸收的外界已有作品生成的,并不体现任何人类创作者的独立个性,因此将其认定为作品在法律上没有依据;3) 人工智能生成物是应受到著作权保护的作品,还是应被归入公共领域,更像是一个政策层面的选择问题,各国应根据自身国情,充分权衡这部分创作物进入市场后可能引发的财产纠纷的利弊,以作出决定[1]。
随着人工智能技术的发展,英美法系和大陆法系在著作权法中对独创性的要求经历了变化,从强调自然人的独创性逐渐转变为对作品客观独创性的要求。这种转变使得作品只要在客观上符合最低程度的独创性要求,就可以获得著作权保护。在2009年的美国Schrock V. Learning Curve案例中1,法院采用了最低独创性的判断标准,认为只要新作品与公有领域或其他现有作品相比,体现出了足够有表现力的变化,就能够满足“最低创造性”的要求,从而获得版权保护。然而,有人反对将著作权赋予人工智能生成物,认为人工智能缺乏人类作者的灵魂和精神,而著作权所保护的作品内涵在于人类独特的思想。但实际上,著作权也保护了计算机软件等科学领域的成果,这些作品的特点就是不会体现作者的人格、灵魂或审美特征,但其背后的法人和组织依旧也受到著作权的保护。此外,主观个性在独创性中的表现往往模糊不清,难以界定。因此应选择更客观的标准来判断作品的独创性。
3. 人工智能创作行为的主体性分析
现行法律禁止将人工智能视为著作权主体。但随着人工智能的算法和学习能力显著提高,其在创作过程中的作用越来越大,人类在其中的创造性贡献相对减少。因此,在确定著作权归属时,可以考虑人工智能在创作中的实际参与程度,并探讨在人类参与极小的情况下,是否可以赋予人工智能著作权意义上的主体资格。
3.1. 人工智能人格肯定说
肯定观点认为,若人工智能在互动能力、学识、认知、意向性和创意等方面达到一定水平,它们功能上可接近人类,因此有可能作为法律主体。历史上,法律主体资格曾随着社会发展而扩大,如奴隶、黑人和女性的权利变化,因此应以发展眼光看待人工智能的法律地位。赋予人工智能法律主体地位可能对社会发展有所反应,但需深入分析其必要性和可能性。此观点认为人工智能的创作能力对社会有益,应受版权保护,承认其法律地位有助于吸引投资和增强国际竞争力,并且现行法律需适应人工智能时代的挑战,若法人可为作品作者,智能机器人也应享类似权利。主要代表学说有以下几种:1) 电子人格说:主张为高级人工智能创设“电子人格”法律地位,使其能对损害负责。此学说区分强人工智能和弱人工智能,前者具电子人格,后者保持“物”的法律地位。欧盟和日本在立法上支持此概念;2) 人格拟制说:通过法律技术手段将人工智能视为具有法律主体资格的实体,类似法人和胎儿。这种拟制使人工智能获得与其他法律主体相等的权利能力;3) 代理人说:认为人工智能可作为所有者的代理人。此观点在《欧盟机器人民事责任法律规则》中得到探讨,提出“非人类的代理人”概念。当人工智能达到类人层级时,应视为具有平等主体地位;4) 有限人格说:主张人工智能在一定程度上拥有独立法律人格,但其权利能力与自然人和法人不同,不具备承担完全责任的能力。此学说试图在赋予法律主体地位和完全否定之间找到中间点[2]。
3.2. 人工智能人格否定说
在考虑AI的法律地位时,必须考虑法律的本质是服务人,法律的更新和迭代要满足社会发展要求和立法目的。AI与法人在本质上有显著区别,AI依赖于实体的储存、计算、输出方式,而法人则是法律实体,其行为背后有明确且相对固定的可追责自然人。《欧盟人工智能知识产权立法报告》与《欧盟机器人民事责任法律规则》存在着明显的冲突。报告强调保护人类权益,鼓励人类利用AI进行创作,否定AI的主体资格,而《法律规则》则认为达到人类级别的AI应具有法律主体资格,能在一些领域完全替代人类工作[3]。对这一问题我们需要综合考虑,对于AI的法律地位和知识产权的赋予,应在鼓励创新和保护人类权益之间找到平衡,同时考虑到AI的发展对社会结构和经济的影响。
本文认为人工智能在著作权领域面临权利归属、法律地位、责任承担三大核心议题。尽管存在关于人工智能生成物与现有法律兼容性及责任划分的讨论,但分析表明最终责任和权利仍归属于人类。因此,无需通过授予人工智能法律主体地位来解决这些问题,可通过合同等方式约定权利归属。同时,从实用主义角度看,赋予人工智能主体资格面临复杂问题,且当前人工智能的自我认知和能力尚未超越人类。根据《欧盟机器人民事责任法律规则》,应强调人类在自主人工智能中的参与度。综上所述,当前无需赋予人工智能法律人格,知识产权法律政策应寻求平衡以促进创新[4]。并且,当前人工智能的艺术创作虽与人类作品难以分辨,但其创作过程基于算法和模型训练,缺乏独创性和自主延伸性。艺术作品中的细节、典故和情感等是人工智能难以理解和传承的。因此,人工智能在法律上不具备主体地位,赋予其著作权主体地位可能导致实践问题。法学界在应对科技发展时应避免过于保守或轻率,应在现有著作权法基础上,结构化分析人工智能创作物的权益判定,保护相关法益,并限制人工智能作品的权益。
4. 人工智能创作物权属分析——以使用者为原则
如果人工智能的算法简单,程序员可能是作品的实际作者,因为操作者的主观选择不足以构成独立的创作。然而,如果人工智能能够自主重写代码,其创作可能不再完全由人类编码,而是部分由自身编码决定,这使得作者身份的确定变得复杂。本文认为,在确定人工智能作品的著作权归属时,应考虑谁在创作过程中做出了“必要安排”[5]。解决这一问题,首先需要区分输入编程的程序员和提供相关含有智力性创造的指令的使用者,而认定人工智能生成物的核心就在于找到生成物独创性的来源。
4.1. 学界观点
在判断人工智能生成物的著作权归属时,存在多种观点。一些学者认为应赋予所有者著作权,因为人工智能的创作过程类似于法人作品,所有者投入了大量资源并应有机会回收投资。另一些学者则从劳动和人格理论出发,主张程序员应享有著作权,因为他们是人工智能程序的创造者和智力劳动的承担者,且赋予程序员著作权可以激励其继续研发。洛克的劳动创造理论也支持这一观点,认为程序员在创造复杂的人工智能程序时投入了大量时间和精力,应享有相应的著作权。然而,由于人工智能具有自我编程能力,仅将著作权归于程序员可能造成法律空白,因此有必要扩大权利归属范围,包括投资者或项目负责人等其他角色。
投资者作为人工智能的所有者,通常通过雇佣合同确保对人工智能的权益,并可能原始取得其知识产权及收益。但有观点认为,最终操作者可能更接近于孳息原客体的所有者,因为操作者通过具体操作赋予了作品独特的创新性。此外,还有学者建议使用邻接权来保护人工智能生成物的著作权,认为最终使用者通过技术处理、筛选、训练和利用,产生了人工智能创作物,应享有邻接权。这些观点展示了在人工智能生成物著作权归属问题上的复杂性和多样性[6]。
4.2. 本文观点
本文认为,对于不同类别的人工智能,其著作权确权方式应有所区别,但总体上来说,本文认为,使用者应拥有人工智能生成物的著作权。首先要明确的一点是,这里所说的使用者并非等同于用户,二者的使用目的和地位有明显不同。例如,当用户基于创作或交流需求与人工智能互动,并对输出结果产生影响时,用户应自然获得所有权。而在服务场景中,如教育服务,提供服务的机构应拥有服务方案的著作权。设计者可拥有署名权,投资者根据合同获得所有权和收益权。
此外,还可以通过合同来明确分配著作权,以避免法律纠纷,例如本文通过不同的人工智能应用实例来说明著作权确权的复杂性,并强调了通过合同明确著作权分配的重要性。例如:微软通过合同声明其人工智能系统新必应生成的作品著作权归微软所有。这显示了大型公司如何通过合同约定来确保其对人工智能生成内容的所有权;而其他AI工具,如Midjourney和Grammarly,因其提供付费服务的商业模式,声明愿意放弃自己的著作权[7]。可见,不同的商业模式会导致不同的著作权分配策略。由此可见,通过明确的合同条款来约定输出内容的著作权归属,是避免产权纠纷的有效方法。
5. 人工智能生成物的侵权保护及对策建议
5.1. 侵权保护
在探讨人工智能创造物权利归属后,明确人工智能非法律主体,无法享有权利或担责。其自主性虽强,但依赖于环境交互,可能引发法律责任归属的新问题。在创作过程中,人工智能可能侵犯著作权,尽管有法律支持非营利性科学研究,但侵权问题仍难以察觉,对创作者权益保护构成挑战。过度保护会限制人工智能学习集,影响技术发展;而保护不足则可能打击创作积极性。著作权系统通过二分法、限制例外和合理使用机制保障创作空间,但存在侵权作品使用和原作者维权困难的问题[8]。因此,人工智能作品满足著作权标准不应无条件授予市场通行证,过度保护无助于深度学习目标和市场多样性。商业使用的人工智能应通过合法途径获取数据,著作权保护应针对人类创作。为适应技术发展和市场创新,需制定新规则。
5.2. 对策建议
5.2.1. 建立网络作品标志码
本文认为,为规范市场、保护原作者权益并避免误导公众,应对人工智能创作的作品进行明确标识,包括作品类型、创作日期、是否由可信人工智能创作及是否含虚构成分。此建议旨在解决人工智能作品难以追踪原始来源、影响人类作者创作积极性的问题。对于人工智能作品,建议结合分级制度设定标志码,如可信作品加绿色标志框,直接输出文档明确标注,而人类与AI助手交流产生的文本则无需标注[9]。同时,应限制AI未经许可使用非公有领域人类作品进行自我训练,鼓励优先使用公有领域作品。网络作品标志码的应用有助于管理、追溯作品,提高用户信任度和认可度,维护版权、促进创新,并增强公众对AI生成内容的信任。
5.2.2. 建立可识别的人工智能注册系统
除了建立作品标志码来维护人类作者的权益,还可以通过人工智能的注册登记机制来保护作者权益。人工智能注册系统在医疗、情感依赖等领域有重要作用,能追踪数据使用和影响,保护弱势群体。在著作权领域,注册系统有助于防止侵权行为,提升维权可操作性,确保人工智能的可审计性。完备的注册系统有助于建立分层管理机制,促进道德和法律合规的人工智能发展,增加公众信任[10]。注册系统还有助于划分公有领域,促进公共利益和知识共享。此机制不仅有助于知识产权领域的人工智能管理,也有利于管理无人驾驶、人脸识别等功能的人工智能。
5.2.3. 建立人工智能分级制度
人工智能系统日益复杂,能自我进化并创作出与人类作品难以区分的新作品,因此建立人工智能分级制度刻不容缓。该制度旨在给予受信任的人工智能更多市场通行权和法律政策支持,同时减少不受信任者的市场空间。欧洲在推动可信人工智能方面领先,提出了关键要求,如人类监督、技术稳健性、隐私保护等[11]。建议将人工智能分为“一般信赖”、“受怀疑”和“禁止”等级,确保训练数据的合法性,特别是避免侵犯著作权和个人隐私。随着人工智能技术应用的广泛,潜在的侵权问题日益凸显,如侵犯肖像权、姓名权和名誉权等。建立人工智能分级制度可以确保合法训练和使用,防止隐私泄露和数据侵权,保护作品观赏者和创作者的权益,促进数据空间的安全和信任,维护文化市场秩序,并促进数据的合理共享和利用。
6. 结语
本文从人工智能生成物的著作权问题入手,分析了作品认定、著作权归属原则,并提出处理建议。著作权法旨在促进生产力和社会利益,应接纳人工智能生成物为新作品类型。目前人工智能不能成为独立权利主体,实际使用人应视为权利主体并享有除署名权外的著作权。由于人工智能是新兴领域,相关法律实践和理论研究尚处于起步阶段,无需根本性法律变革,调整现行著作权法制度即可应对需求。应以发展眼光看待人工智能生成物的法律保护问题,适应未来科技发展。希望为相关领域研究提供参考。
NOTES
1Schrock V. Learning Curve Int'l, Inc., 586 F.3d 513,516-17 (7th Cir. 2009).