1. 问题的提出
生成式人工智能自问世以来,得到飞速发展,用户数量也呈现井喷式增长。在2024年Apple公司发布的iPhone16官网介绍中提到,“Apple智能是深植于iPhone中的个人化智能系统,能根据你的个人情境为你在写作、表达自我、处理各种事务上提供协助,让一切更简单轻松。”将AI植入个人手机,一方面为手机用户带来便捷,另一方面也会带来潜在侵权风险。AI大模型的生成内容会根据用户个人的喜好进行不同程度的变化,这会涉及到AI模型对用户个人信息的读取和利用。由此产生一系列人工智能侵权问题,既不利于个人信息的保护,也会阻碍数字经济的健康和高质量发展。
生成式人工智能侵权有别于现有的侵权责任体系,首先最关键的是侵权主体的确定,学界的争议在于能否将生成式人工智能作为侵权主体,还是刺破面纱,将生成式人工智能服务提供者作为侵权主体。其次,生成式人工智能依靠算法等算力运行,其造成的侵权行为和损害后果较为隐蔽,也带来因果关系认定的困难。最后,在归责原则上,传统的过错侵权和无过错侵权不能排他适用,进一步为此类侵权纠纷的解决带来障碍。本文将对生成式人工智能的法律主体地位进行分析,进一步分析生成式人工智能侵权的构成要件,以期为生成式人工智能侵权纠纷提供实用路径。
2. 生成式人工智能服务提供者侵权责任主体之证成
(一) 生成式人工智能侵权主体之否认
对于生成式人工智能能否成为民法典中的侵权责任主体也即成为法律主体,学界存有争议。学界对其持否定态度的为多数,比如赵万一学者认为“机器人就其生成机理来说不可能产生生命和生命权,也没有作为责任承担主体所必备的道德、良心、良知、伦理、宗教、规矩和习惯”[1]。杨立新教授认为“对于人工智能机器人的法律地位,应当界定其具有人工类人格,仍然是物、是动产、是产品”[2]。另有持肯定态度的学者,如“人工智能与法人类似,法人可以获得法律主体地位,人工智能应当可以”。也有学者持折衷说,例如陈吉栋认为“在现阶段,在坚持人工智能为客体的原则下,运用拟制的法律技术,将特定情形下的人工智能认定为法律主体,从而为应对、引领未来人工智能的发展,奠定法律主体基础”[3]。从以上学者们的观点可以看出,否认人工智能法律主体地位的观点占主流。本文认为,在当下,应将人工智能尤其是生成式人工智能认定为法律客体。现阶段,数字经济的发展尚未成熟,表现之一是规范数字经济的法律法规尚不健全甚至存在法律空白。世界各国除一些超级大国外,生产力水平仍处于不发达阶段,因而不具备将生成式人工智能认定为法律主体的生产力条件。未来科学技术的发展无法科学精准预测,现阶段对生成式人工智能法律地位的认定必然受到现有技术水平的局限。因此,在现阶段,将生成式人工智能认定为法律关系客体,能够使其成为法律关系主体满足自身利益的工具,进一步促进生产力的解放。
(二) 生成式人工智能服务提供者侵权主体之证成
1、服务提供者控制并筛选生成式人工智能数据
生成式人工智能的典型代表是ChatGPT,它是美国人工智能公司OpenAI推出的对话机器人。该应用自问世以来,几经迭代,其内容体系也越发完善。而根据国家互联网信息办公室联合多部门发布的《生成式人工智能服务管理暂行办法》第七条可知,以ChatGPT为代表的生成式人工智能的运行机理是对各种数据开展预训练、优化训练等训练数据处理活动从而根据用户需要生成内容。对数据筛选成为生成式人工智能服务提供者首要的任务,不同服务提供者理念不同,对数据的需求也不尽相同,“这也就意味着,在一定程度上对于数据的垄断和控制就拥有了确定‘个人偏好标准’的权力”[4]。因此,生成式人工智能服务提供者应当负有确保数据来源合法的义务。
生成式人工智能服务提供者获取数据的来源有三种,即公共数据授权、企业数据授权和个人数据授权。本文认为,服务提供者在获取和使用以上数据过程中造成的侵权行为,均应当由其承担直接的侵权责任。首先是对于公共数据授权。公共数据是全民所共享的一种数据资源,“本质上属于全体公民共同所有的财产”[5]。公共数据为全民共有,对这些数据的存储和维护需要巨大成本,因而可由国家代为行使这些数据的存储与使用。对于公共数据的授权、加工和使用均应有所限制,对于一些依法予以保密的公共数据以及依法未公开的原始数据,服务提供者不能进行各种方式的获取和加工利用。在获取到真实合法的公共数据后,服务提供者要对数据的加工利用负有高度注意义务,防止数据处理失真,否则就应当承担不良后果。
企业数据是“各类市场主体在生产经营活动中采集加工的不涉及个人信息和公共利益的数据”。企业在运行过程中会产生核心数据和非核心数据,核心数据中的商业秘密构成企业生产的重要资产。企业数据授权可采用合同方式。企业与服务提供者通过订立合同,约定哪些企业数据可以授权,哪些数据应当作为商业秘密进而不能随意加工利用。服务提供者在对企业数据加工过程中,一是要注意不能泄露企业核心数据如商业秘密,二是不能侵犯到个人数据和公共利益。因对企业数据筛选和利用不当造成的对企业本身、个人和公共利益的侵害,生成式人工智能服务提供者就应当承担侵权责任。个人数据属于个人信息的一部分,服务提供者在获取和利用个人数据的过程中,必须征得用户的同意,而不能以各种隐蔽方式大肆侵犯个人数据。服务提供者在征得个人数据授权时会出现很大困难,会出现“知情同意原则与促进生成式人工智能大模型的开发之间存在矛盾之处”[5]。数据提供者收集、筛选、加工利用个人数据过程中对个人的侵权要负责任。
2、服务提供者设计并主导生成式人工智能算法
生成式人工智能运行的实质是代码的运行,代码的生产与运行依靠服务提供者自身操作,“ChatGPT采用‘大数据 + 大算力 + 大算法 = 智能模型’的逻辑”[6],在获取数据后,服务提供者就会依靠算法和算力进行数据加工,最终面向客户端生成具体的内容。在具体内容生产中,服务提供者掌握着算法和算力的规则,这一规则往往为服务提供者所隐蔽,在发生具体侵权案件时,被侵权人往往难以穿透算法本质,这为纠纷的解决加大难度。尽管,我国对算法服务提供者施加提供算法运行规则和逻辑的要求,这些要求也常是抽象性的,具体的披露义务有待进一步根据实践情况落实。由此会带来算法服务提供者的注意义务的提高。
服务提供者在使用算法与算力过程中,会出现两个大问题,即算法歧视与算法滥用。第一,算法歧视风险,现今平台经济发展过程中,“大数据杀熟”问题常常引发关注。在生成式人工智能运行中,算法歧视风险更大,其原因在于算法开发者会有很强的主观意图以及算法自主学习后的偏见,此外还有算法运行依赖的数据不全面等原因。第二,算法滥用风险,如果不对生成式人工智能进行合法和合理的监管,它就会成为服务提供者和其他主体通谋侵权的工具。
综上所述,生成式人工智能服务提供者对生成式人工智能拥有强劲的控制力,在现有技术水平条件下,由生成式人工智能引发的侵权案件中,服务提供者应当成为侵权责任主体。
3. 生成式人工智能服务提供者侵权认定困境
(一) 侵权行为难证明
具体而言,以ChatGPT为代表的生成式人工智能在面向用户生成内容时会经历训练阶段、生成阶段和移除阶段[7]。训练阶段的服务提供者在面向企业和个人收集数据时,可能会因为深度收集侵犯个人信息权,也可能未经权利人同意搜集权利人享有著作权的数据,因此可以适用传统侵权责任认定方式进行责任分配。在生成阶段,由于算法本身存在一定的学习能力,加之生成内容也会有生成式人工智能使用者及用户们的参与,这一阶段的侵权行为更为复杂,往往涉及多个主体,对侵权行为的认定也只能通过输出结果来分析。生成式人工智能侵权的鉴别较为容易,但是对侵权行为的证明存在困难。它所依赖的算法及运行取决于服务提供者的设计,如若要证明服务提供者存在侵权行为,需要对服务提供者设计运行算法过程进行审阅以判断其违法性。但是服务提供者的算法设计和运行一则涉及其本身的商业秘密保护,二则被侵权人往往不具备相关知识,其侵权行为的证明更是难上加难。这就形成一种侵权行为很明显,却因无法获取充分证据证明的尴尬境地。
(二) 侵权结果更隐蔽
如前所述,生成式人工智能依靠算法输出内容,算法运行容易导致算法歧视和算法滥用。用户端在使用生成式人工智能服务时,每个人由于使用服务的工具不同喜好不同、知识背景不同等等,会使算法通过自我学习针对不同用户输出不同内容。以算法歧视为例,现阶段已存在安卓系统和苹果iOS系统下的应用面对同一商品做出不同定价,也存在根据性别、年龄推送不同内容。针对每一个个体的“杀熟”需要很多个个体的对比才能判断是否存在侵权,而私人间通过对比发现侵权结果时早已为时已晚,且他们诉权的成本巨大,进一步助长服务提供者侵权意图也进一步加剧侵权结果的隐蔽。
(三) 因果关系解释难
对生成式人工智能侵权行为追究侵权责任,要明确服务提供者承担的是何种义务。在传统网络侵权过程中,能够较容易判断侵权主体违反的是“作为”还是“不作为”义务。而在生成式人工智能场合,对违反什么义务的判断就较困难。如前所述,生成式人工智能具有自主学习的算法能力,这种学习能力不容易被人理解甚至服务提供者也无法破解自主学习后的运算机理,这种不确定性和无法预测使得侵权场合无法准确判断侵权行为“究竟是因为服务提供者不当的行为而导致,抑或仅仅是一场人所无法控制的意外”[8],因此,因果关系的判断更加困难。
(四) 主观过错认定难
对服务提供者主观过错的认定困难在两方面,一方面,在发生侵权行为时,服务提供者往往会将责任推给生成式人工智能本身,称这是一种“技术错误”。现今,科学技术突飞猛进,各种人工智能应用也层出不穷,更新迭代速度更快。“技术错误”成了服务提供者天然的接口和“避风港”。另一方面是因果关系认定困难带来的归责原则难确定。由于生成式人工智能发展迅速,缺乏普遍适用的法律法规,对服务提供者施加的注意义务没有明确的范围,而对注意义务范围的界定取决于对服务提供者法律地位的界定。服务提供者是否属于网络内容服务提供者,还是属于搜索链接服务提供者,亦或是新型网络服务提供者都会影响其注意义务范围的界定,进一步加剧对服务提供者侵权时主观过错判断的困难。
4. 生成式人工智能服务提供者侵权认定路径
(一) 认定生成式人工智能服务提供者为新型网络服务提供者
在现阶段,生成式人工智能从数据收集筛选到算法设计运行再到面向用户的应用,均是围绕着服务提供者展开的。如上所述,服务提供者应被确认为侵权责任承担的主体,还需进一步确定的是其法律地位。本文认为生成式人工智能服务提供者的法律地位是新型网络服务提供者。其理由阐释如下。
第一,根据《信息网络传播权保护条例》(下文称《条例》)可知,网络服务提供者包括网络自动接入和自动传输服务提供者、网络自动存储服务提供者、网络信息存储空间服务提供者和搜索链接服务提供者。生成式人工智能服务依靠数据和算法最后生成内容,因此不属于前三种类型服务提供者。其是否属于搜索链接服务提供者,则存有争议。从具体运作过程的方式看,二者具有一定的相同之处,他们都是在使用者输入关键词、问题等指令后,算法根据指令内容搜索并呈现最佳结果,“虽然二者的算法技术有巨大差异,但在追求最佳匹配结果的算法目标上一致”[9]。另一个相似性是两者都为用户提供或生成用户查询的问题。尽管存在上述相似性,在法律角度上,二者的差异十分明显。搜索链接服务提供者只是根据用户输入的关键词提供相关链接,由用户根据链接与关键词的关联程度再次进行点击浏览;在具体的侵权行为中,搜索链接服务提供者仅仅是作为一个链接罗列平台,它既不能精准判断所提供的链接是否属于具有侵权性质的链接,也没有主动参与到带有侵权性质链接的生成过程,仅仅是根据关键词匹配进而呈现。在生成式人工智能的场景下,服务提供者作为算法的设计者,掌控算法运行的机理,自然对算法生产的内容有决定性影响。可以说服务提供者能够参与到具有侵权性质链接的生成过程中。显而易见的是,一个是参与了侵权过程,一个未参与侵权过程,很难将未参与侵权过程的搜索链接服务提供者的规则适用于参与侵权过程的服务提供者。因此,生成式人工智能服务提供者不属于搜索链接服务提供者。
第二,从形式上看,网络内容服务提供者的概念可以包含生成式人工智能服务提供者的概念,因为形式上二者都是向用户提供自动生成的内容。但是在实质上,则不能如此认定。其一是,这两类服务提供者对各自提供或生成的内容具有不同强度的控制力。网络内容服务提供者将内容直接上传和提供给用户,其对提供的内容具有强控制力,可以控制提供哪种内容。生成式人工智能服务依赖于服务提供者设计的算法大模型,在生成和呈现内容时,服务提供者对服务生成的内容不能完全掌握,是一种弱控制力。因此,从实质意义上讲,生成式人工智能服务提供者不具备成为网络内容服务提供者所要求的强控制力。其二是,我国现行立法规制网络内容服务提供者的规制不多,原因在于“法律关于网络内容服务提供者侵权行为的规定过于简略,相关侵权责任问题通过适用传统侵权规则便可有效解决”[10]。既然如此,不必将生成式人工智能服务提供者归为网络内容服务提供者行列,将其单独列出,方便传统侵权规则在生成式人工智能侵权场景下的有效性检验。其三是生成式人工智能服务提供者归类为网络内容服务提供者会给后者的理论体系带来较大冲击。既然网络内容服务提供者对内容具有决定控制力,这类提供者就要在产品上市前进行内容审查,在产品上市后发生侵权时删除具有侵权性质的内容。如果生成式人工智能服务提供者可以被看做网络服务提供者,在原有的网络服务侵权体系内部就要根据控制力的大小分为控制力强和控制力弱两方。对这两方又要适用不同的规则,这会给被侵权人寻求纠纷解决带来规则选择的障碍。
综上所述,生成式人工智能机理与搜索链接服务机理还有网络内容服务机理在形式上有相同之处,但后两者的规则在实质上无法适用于前者,或者说将前者认定为后两者之一会对后两者带来冲击,故应当将生成式人工智能服务提供者认定为新型网络服务提供者,以便在司法实践中,通过对大量生成式人工智能服务提供者侵权案件的判决总结出适用于新型网络服务提供者的侵权责任法律规则。
(二) 生成式人工智能服务提供者归责原则的阶段性确定
生成式人工智能服务提供者侵权的归责原则的确定一方面要考虑发生侵权诉讼时被侵权人举证难易程度,另一方面要考虑归责原则对生成式人工智能这类科技创新的影响。针对服务提供者适用何种归责原则,需要根据生成式人工智能服务的不同阶段进行确定。
首先对于训练阶段,这一阶段是服务提供者对数据进行收集、筛选的阶段。因此时尚处于数据的收集、筛选过程,侵权风险较小。发生在这一阶段的侵权类似于个人信息侵权。如对其采取过错责任原则,将举证责任配置给被侵权人,会产生举证困难现象。原因在于生成式人工智能服务提供者运用自行设计的数据收集系统进行数据收集和筛选,被侵权人通常无法获取服务提供者收集数据的机制,其就会因为举证困难而无法得到诉求的合理解决,过错责任丧失用武之地。而采用过错推定原则将主观过错的证明倒置给服务提供者,就会减轻被侵权人的举证困难程度,维持纠纷双方间地位的平衡。
其次,生成阶段的侵权,这一阶段的侵权最为核心也最为复杂。这一阶段“可进一步将生成式人工智能侵权区分为使用者的合法行为促发致害内容与使用者的诱导行为促发致害内容”[11]。由于本文探讨的是服务提供者的侵权责任,而由使用者诱导行为产生的侵权因涉及第三方责任承担,故本文仅探讨因使用者的合法行为引发侵权的归责原则。这一阶段的归责原则确定仍要考虑被侵权人的举证难易和对数字经济创新的保障。综合考量,生成阶段的侵权归责应当采用无过错原则。从保护被侵权人角度看,这一阶段的侵权容易产生服务提供者和被侵权人都无法预见的情况,“在当事人对损害的发生均没有过错的情形下,如果要苛加行为人任何赔偿责任,由于不能以过错作为正当性基础,只能尝试诉诸风险分配的价值取向”[12]。发生侵权行为且该侵权行为双方都无法预见,就需要在二者间选择一个“更无辜者”进行保护。由于生成式人工智能服务提供者的服务大多为收费服务,由其承担责任体现对“无辜者”使用者的保护。此外,从技术方面看,服务提供者未能采取各种措施使生成式人工智能算法更加精进,也应当承担由此带来的侵权损失。这样,采用无过错原则更加保护被侵权人的利益。从促进科技创新角度看,科技创新不能没有限制,人类不能对自己无法掌握的事物不加以限制。生成式人工智能尚处于发展的初步阶段,人类无法预知其发展带来的危险,故应当对其加以必要的限制,使生成式人工智能的创新在有限范围内进行。对服务提供者适用无过错责任原则体现对高风险科技创新的关注,也会减少科技创新带来的科技伦理问题。
最后,移除阶段,应当适用过错侵权责任。服务提供者负有发生侵权行为时的移除义务。这种义务主要指的是服务提供者知道或应当知道生成式人工智能侵权后,采取必要措施防止或避免损害再次发生。这一阶段的风险更多是因为侵权人没有适当履行移除侵权内容的义务导致的,因此在没有特别规定的情形下,适用一般侵权责任归责原则,也即过错责任原则。
(三) 生成式人工智能服务提供者侵权因果关系认定
生成式人工智能服务提供者侵权场景下是对“不作为”义务的违反。服务提供者提供的服务事前必然经过合规检测,也经过科技伦理审查,自然是在获得批准后才能上市。且服务提供者没有故意去侵犯使用者用户的理由。因此,侵权行为发生是由于侵权人对其所设计的人工智能算法及通过算法生成的内容没有尽到合法性审阅的义务。其具有防范侵权发生的义务,若不履行审查算法和生成内容的义务,属于对“不作为”义务的违反。
服务提供者的侵权因果关系应从事实因果关系和法律因果关系两方面判断。一般发生侵权行为和侵权后果后,很容易得知存在事实因果关系。问题在于法律因果关系如何认定。本文认为,对服务提供者侵权行为因果关系的认定应采用相当因果关系规则。理由在于,生成式人工智能侵权往往不是仅涉及双方主体,还会有各种第三方主体参与侵权,这使得因果关系的认定无法迅速确定。相当因果关系有三种学说,一是主观说,二是客观说,三是折衷说,主观说从侵权人的主观状态出发认定,客观说从法官对侵权发生时的客观情况出发认定。本文赞成折衷说,即以行为时的一般社会经验和智识水平作为判断标准。明显的服务提供者对生成式人工智能拥有高于一般社会经验的知识。因此,适用折衷说的相当因果关系说更有助于实现公平原则和对受害人的倾斜保护。
(四) 对服务提供者的保护措施
服务提供者侵权场景下,不能一概只求保护被侵权人而加重服务提供者责任,仍需要在合理保护被侵权人利益前提下,保护服务提供者。服务提供者侵权免责事由和减责事由有助于保护服务提供者利益。对于免责事由,受害人故意和不可抗力可作为服务提供者主张的理由,不管何种阶段适用何种归责原则,服务提供者仅需证明侵权发生是受害人故意和不可抗力即能够实现免责。对服务提供者的减责事由,生成阶段适用无过错归责原则时,使用者的重大过失是减轻侵权人责任的理由。若侵权人没有过错,因无过错归责原则的原理,无过错不影响责任承担,但可参照监护人尽到监护职责可减轻责任的规定,审阅服务提供者是否尽到注意义务进而考虑减轻其责任。