摘要: 人工智能侵权行为难以避免,但现行的一般侵权责任与产品责任却未能有效应对,面临责任主体及归责原则不明确等挑战。因此,应当增加责任主体范畴,即算法设计者、数据提供者及使用者。对于因算法设计缺陷、数据瑕疵问题或不当使用人工智能而导致的侵权行为,采取过错推定原则予以归责,以此强化生成式人工智能领域的法律责任体系。
Abstract: Artificial intelligence infringement is hard to avoid, but the current general tort liability and product liability have not been effectively addressed, facing challenges such as unclear liability subjects and liability principles. Therefore, the scope of responsibility should be increased, namely, the algorithm designer, the data provider and the user. For the infringement caused by algorithm design defects, data defects or improper use of artificial intelligence, the principle of fault presumption is adopted to assign responsibility, so as to strengthen the legal liability system in the field of generative artificial intelligence.
1. 引言
在2023年12月13日,美国杂志《Nature》发布了2023年度十大影响力人物,ChatGPT位列其中,并指出:“生成式人工智能革命已经开始,且没有回头路。”这标志着生成式人工智能革命趋势已势不可挡。因此,各式各样的生成式人工智能技术和产品逐步渗透到社会经济的各个领域。
人工智能技术大致可分为两大类别:一类是将先进的人工智能算法与专门设计的硬件系统相结合,即软件和硬件的结合,如自动驾驶机动车、医疗人工智能、智能机器人等;另一类则是专注于软件层面的人工智能系统,如生成式人工智能,这类系统侧重于通过算法模型生成内容,而不一定绑定特定的物理设备。而我国主要集中关注自动驾驶、医疗人工智能等领域的研究;对于生成式人工智能的研究主要侧重在风险防范规制方面,如在2023年国家互联网信息办等七部门联合发布的《生成式人工智能服务管理暂行办法》(简称“《暂行办法》”)。虽然《暂行办法》第九条规定,“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务”,但现有的法律规定对生成式人工智能责任主体范围不明确、侵权责任适用不明确。鉴于此,本文以生成式人工智能产品作为研究对象,致力于探索生成式人工智能产品的责任主体和归责原则,以填补该领域的法律认知空白。
2. 生成式人工智能侵权责任适用中面临的问题
(一) 生成式人工智能侵权中责任主体尚未明确
根据《民法典》第1203条之规定,传统产品责任的责任承担主体明确为生产者、销售者。那么传统产品责任的责任主体在成生式人工智能领域的侵权责任主体要求上能否实现全面契合?就是说生成式人工智能产品侵权责任由谁承担?初步考量,除了生产者、销售者之外,人们往往会指向使用者。使用者通过指定主题引导这类人工智能在网络空间中进行搜集数据与信息,并依据软件预设程序对其进行处理,从而创造出符合使用者特定需求的成果或作品。虽然这个成果或作品,从一开始直至最终产出,都与使用者有联系;然而,生成式人工智能软件及其运作方式,包括数据抓取策略、处理范围与能力,实为算法设计者决定的,此为核心技术设计[1],并非使用者所能左右。因此,一个生成式人工智能产品背后,实际上蕴含着复杂的责任网,不仅有使用者,还要有算法设计者作为责任主体。
同时,在人工智能时代的背景下,除了算法,数据也是被公认为推动人工智能技术不断前进的核心要素之一。人工智能的发展高度依赖于数据的支撑,是人工智能进步的“肥料”。人工智能的独特之处在于其能通过自主学习实现自我进化,这核心动态深受所摄入的数据的量和质所影响,这是算法设计者无法预知的,因此,生成式人工智能因数据瑕疵而造成侵权的,应由数据提供者作为责任主体。
(二) 生成式人工智能侵权责任的归责原则尚未明确
在一般侵权的法律框架下,让生成式人工智能单一适用过错原则没有实际意义,主要是由于:一是人工智能的开放、应用涉及多个环节,包括但不限于设计者、使用者等多方面主体。而过错责任原则要求行为人有具体过错,但在人工智能侵权案件中,责任链条长而且存在交织,难以清晰界定哪个环节或哪一方存在直接过错。二是过错责任原则的实施,实际上为受害者设置了高门槛,因人工智能系统的“黑箱效应”,其内部运作逻辑对外界而言近乎不可透视,受害者难以获取充足证据证明人工智能的行为缺陷,故全面采用过错责任原则显得不尽合理。即便比照产品责任采取无过错责任原则,该归责原则在人工智能侵权情境下同样显现其局限性。根据《民法典》的界定,产品责任的直接承担者为生产者与销售者,然而人工智能的创造过程既繁复又精细,其设计者作为顶层架构的掌控者,扮演着关键角色并拥有显著的影响力,却得以免责,形成责任归属的盲区;另一方面,生成式人工智能侵权生硬地被适用无过错原则,这可能会抑制技术发展,因为创新和进步是不可避免伴随着未知风险的。法律需要保护受害者的权益,也需要鼓励技术创新,因此需要在这两者之间找到平衡点,无过错原则并不是最优的原则。因此,简单地套用无过错责任原则亦非妥善之策。
3. 完善生成式人工智能侵权责任制度的建议
(一) 界定人工智能侵权中的责任主体范畴
第一,在探讨生成式人工智能侵权责任时,除了生产者需要向受害者承担责任外,需要考量的责任主体有算法设计者。鉴于算法设计者对生成式人工智能系统的功能和行为具有根本性的塑造能力,其能直接影响着生成式人工智能是否能够安全、合规地运行,因此,将算法设计者纳入侵权责任主体范畴显得尤为必要。算法设计者通过编程和算法设定,对生成式人工智能的运行逻辑施加了极强的操控力,一旦因算法设计缺陷导致侵权事件发生,算法设计者理应成为侵权的责任承担者。另一种更为直接且长远的解决方式是,提议对《民法典》相关条款,尤其是第1202条等涉及产品责任的规定进行修订或增补,明确将设计者列为独立的责任主体,确保生成式人工智能产品因设计缺陷引发侵权时,算法设计者应当承担责任。
第二,生成式人工智能需要大量的数据形成数据库,在正式运营之后是不断收集使用者的个人信息[2]。数据提供者应当成为生成式人工智能侵权的责任主体,理由如下:一是让数据提供者对其提供的数据负责,可以有效预防数据侵权行为的发生,鼓励数据提供者在收集和分享数据时更加谨慎,从而保护原创内容和用户隐私,维护良好的数据生态。二是数据作为人工智能学习和决策的基础,其合法性直接影响输出结果。侵权行为的发生,往往从源头的非法或不当行为导致的。因此可见,从因果关系角度看,数据提供者的侵权行为与最终损害结果之间存在着直接关联性。
此外,使用者作为生成式人工智能的直接操作者,若因使用者操作不当、未能履行谨慎使用而导致侵权事件,使用者也应承担相应的法律责任。这强调了在享受科技便利的同时,使用者应具备基本的法律责任意识和道德约束力,共同维护社会秩序和公众利益。
综上所述,为了全面构建人工智能时代的侵权责任体系,应将算法设计者、数据提供者和使用者纳入生成式人工智能侵权责任主体的范围之内,形成一个多维度的责任机制。这样的制度设计既能有效追溯侵权源头,共同促进人工智能技术的健康发展和社会安全。
(二) 优化人工智能侵权的归责原则
对于人工智能侵权所导致的归责原则,有学者认为人工智能产品的设计者应当独立承担过错责任:“人工智能设计者过错责任侧重于设计师是否能在设计中谨慎行事,该分析采用合理标准来确定设计师是否合理地设计产品,如果设计师行为不合理,法院会认定为疏忽[3]。”对此,笔者认为,生成式人工智能算法设计者应当承担过错推定责任,主要原因有以下两点,第一是算法设计者在开发过程中做出了一系列关键性,包括算法架构、训练方法等,这些直接影响到生成式人工智能系统的性能和行为。如果生成式人工智能系统出现错误或造成损害,往往根源于设计初期的决策失误或疏忽,因此设计者应当为其决策承担责任。第二是将过错推定责任归于算法设计者,可以使其更加注重伦理道德和社会责任,在设计和测试阶段采取更加严谨的态度,采用最佳实践来减少潜在的负面影响,从而促进人工智能技术的健康发展。第三是适用过错推定责任原则可以促使算法设计者在设计时,考虑算法的透明度和可解释性,以便在出现问题时能够追溯原因,判断是否存在设计缺陷或过失,这对于建立公众对算法技术的信任至关重要。
对于数据侵权责任归责的界定,对于自动化数据处理的数据,学者们的观点存在分歧。一种观点主张实施三元责任分配体系:即公务机关在采用数据自动化处理技术实施的信息侵权时,应采纳无过错责任原则;非公务机关在使用同类技术时,则采取过错推定责任;而对于未运用自动化数据处理技术的数据提供者,则遵循一般过错责任原则[4]。另一种观点则提倡构建二元责任框架,建议对采用自动化数据处理技术的主体统一适用过错推定责任,而未采纳该技术的主体,则依据一般过错责任[5]。由此可以看出,这两种观点都提及是否使用自动化处理技术。自动化数据处理是指依据计算机自动化装置或系统,在没有人类直接参与的情况下对数据进行采集、存储、加工、检索、传输和变换等过程。自动化数据处理(Automatic Data Processing, ADP)是指利用计算机系统和相关软件在无需或极少需要人工干预的情况下,完成数据的收集、存储、管理和处理的过程。自动化数据处理技术虽极大地促进了效率,但其技术的复杂性和封闭性构建起一道屏障,使得一般人难以跟踪自动化处理过程中数据的精细操作步骤。因此,若要求受害者证明数据提供者存在过错,是存在举证困难的情况,因为相比受害者,数据提供者凭借技术手段,具备数据永久存储、即时检索和调用的天然便利,自然而然在举证问题上占据优势,鉴于此,数据提供者适宜采用过错推定原则。
对于使用者而言,同样适用过错推定原则而非一般过错原则或无过错责任原则,有着深刻的原因和实际考量,旨在平衡各方利益,确保法律的公平与效率。基于以下方面的原因:一是减轻被侵权人的举证难度。过错推定原则意味着一旦发生侵权,法律首先假设使用者存在过错,除非使用者能证明自己已经采取了合理的预防措施并尽到妥善管理的义务。这显著降低了受害者在诉讼中证明对方过错的难度,有利于保护弱势一方的权益,确保他们能够获得有效的救济。二是强化使用者的责任意识,由于使用者需要承担证明自己无过错的责任,这种制度设计促使他们在使用人工智能系统前和过程中更加重视合规性和安全性,主动采取措施防止侵权行为的发生。这不仅增强了使用者的责任感,也促进了人工智能技术的健康发展。
4. 结语
人工智能侵权行为通常源自多方主体的引起的,涌现法律未曾规定的新责任担当者——如算法设计者因其设计缺陷,或数据提供者因提供瑕疵数据,或使用者不当使用人工智能而引发的侵权行为,这些主体应当承受相应的责任后果。针对生成式人工智能领域,其新的责任担当者的责任归属原则,与传统的侵权责任原则及产品责任归责原则不一样,其适用过错推定原则。鉴于文章篇幅的局限性,我们仅对生成式人工智能中责任主体的类别及其责任归责原则进行了简要的初步分析。对于尚存的诸多的未解议题,我们拟在后续的深入研究中给予更全面、细致的探究。