1. 人工智能或动物为什么不能是民法上的主体
1.1. 从权利角度分析
法律运行的整个过程就是围绕权利和义务这两个核心内容展开的,“确定权利和义务的界限,安排权利和义务的分配,处理权利和义务的纷争,保障权利和义务的实现,是法律最基本的任务[1]。”
从权利的构成分析:权利的构成包括伦理、规范、基础、本体四个根本要素,分别对应的是社会评价的正当性、社会规范的认同和保障、主体的肯定性利益能力以及主体的行为意志自由。
主要以构成中的本体要素为例,付子堂曾做过这样的表述,“主体的行为意志自由是权利的本体即本质要素。自由是权利的核心部分,主体的利益、权能必须通过权利主体的自由行为来实现。”权利是法律所规定的,而法律在主体角度来讲,是主体在自由意志的指导下,对自身行为的规范与遵循,只有可以自由选择控制自己的行为,才能有效地遵循法律的指引,才能充分地享受法律所带来的权利。而人与动物的最大差别就是是否有意志,可否进行独立的思考,动物很容易被排除在外,但是,就其本质而言,人工智能是对人的思维信息过程的模拟。
人类思维模拟有两条路径:结构模拟,即仿造人脑机制制造类脑机器;功能模拟,即从人脑功能过程入手。现代计算机是对人脑思维信息过程的功能模拟,可见人工智能并非人的智能[2]。目前而言,它只是对人类思维的模拟与复现,是模仿品而非创造者;或许科技是指数型成长的,未来的人工智能可以突破瓶颈,完全拥有自己的思维,但对人工智能的限制的呼声却是历久弥新,早在20世纪俄罗斯著名科幻小说家阿西莫夫就提出了著名的机器人三原则即:第一法则,机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害。第二法则,除非违背第一法则,机器人必须服从人类的命令。第三法则,在不违背第一及第二法则下,机器人必须保护自己。第零法则,机器人不得伤害人类这族群,或因不作为(袖手旁观)使人类这族群受到伤害。在此基础上又延伸出了人工智能三大原则,虽然三大原则各不相同,但总体来说还是大同小异,基本内涵就是要保护人类利益,要保持透明度,这里保护人类的利益既包括不主动伤害人类,更包括不被动的压缩人类生存空间等行为,如过度抢占人类劳动岗位等,诸如此类限制,很难确保未来人工智能可以有完全的自主思考能力,更何谈自由享有权利[3]。
些许反对者可能认为,一些民法上的没有行为能力的自然人如:如幼儿、痴呆患者、植物人和精神病人,仍然享有法律人格,仍然是权利主体,而在与人沟通方面,人工智能或某些动物的表现不逊于以上自然人。因此,尽管动物可能缺乏意志能力和行为能力,但许多国家的法律已经认识到这一点,并通过制定保护法规来确保动物享有权利,如英国、瑞士和法国等国家的动物保护法。但需要注意的是,这类自然人通常是有法定的或其他方式确定的代理人,来作为自己行为的执行者,利益的守护者,社会上与他们的代理人,对于他们的利益也是普遍认可的,他们自身也可以在一定程度上对利益做出反应。而且,法律是人制定的,只要是属于人类的范畴都应当平等地受到保护,这也是民法上平等原则的体现。
因为权利与义务是对等的,没有纯粹的权利,也没有单纯的义务,既然在权利方面已经排除在外,义务问题便不再讨论。
1.2. 基于现行主体地位视角对人工智能地位之探讨
针对关于智能机器人,特别是类人智能机器人是否具有法律人格以及可能具备何种法律人格的问题,学术界和法律界进行了深入探讨。,需对上述有关人格的基础概念展开比较分析,使其与相关概念相契合,方可化解该问题。
其一,智能机器人不具备自然人格,亦不具备法人的拟制人格。这是由于智能机器人既非自然人,亦非法人或非法人组织,故而无法运用自然人格和拟制人格来明确其在民法中的地位。
其二,虚拟人格并非一个严谨的民法概念。同时,虚拟人格具有特定指向,即指自然人于网络虚拟空间开展隐名活动时所虚拟的人格,这种虚拟人格是自然人格在网络虚拟空间的延伸,人工智能显然不具备此类属性。
其三,电子人格是欧盟委员会法律事务委员会所提出的概念,旨在确保智能自主机器人受到法律约束。该委员会建议,将最先进的自动化机器人的身份定位为“电子人”,并赋予它们特定的权利与义务。此外,建议为这些智能自动化机器人设立一个登记册,以便它们能够开展纳税、缴费等公民活动,并为法律责任开设资金账户。然而,这在我国并不具有现实可行性,且在外国也未得到政府及多数人的认可。
在民法社会中,尽管民事权利的主体和客体是构成法律关系的两大基本要素,但它们之间存在着明确的界限[4]。主体指的是能够参与民事法律关系、享有权利和承担义务的自然人、法人及其他组织,而客体则是指民事权利和义务所共同指向的对象,如物、行为、智力成果和人身利益等。凡是人以外不具备精神、意识的生物均归属于物,属于权利的客体。尽管当代主客体之间的这种不可逾越的界限正在发生动摇,但智能机器人并非具有生命的自然人,也不同于具有独立意志且作为自然人集合体的法人、非法人组织,甚至也并非不具备精神、意识的其他生物。因此,认可其享有法律主体资格仍不切实际。
2. 人工智能在诉讼中可能存在的问题
2.1. 人工智能侵权责任主体的分配
人工智能的责任分配相较于其他的物件致人损害,有一个特点,便是责任的承担主体呈现多元化且彼此对立的趋势,在一般情形下,工厂中,如果发生用工纠纷,可以按照用工责任来分配,在交通事故中也有一套相对健全的追责体系,但随着人工智能的加入,我们就要做多重考虑,是否事故的引起是因为人为的操作事故,还是人工智能生产厂家的程序问题抑或是政府规章、行业规范不健全造成管理乱象,造成了损失的发生;人工智能的另一大特点,即自主学习能力也是我们要考虑到重要标准,人工智能模型一旦建立联网,就可以自主地结合网络进行学习,机器人自主学习而做出反应,损害他人利益后,是否可以脱离生产公司而完全独立,由使用者承担责任[5]。
除此之外,人工智能又有生成式人工智能这一类别:生成式人工智能不会对用户的生命权、身体权或者健康权造成严重损害,也不会给用户造成重大财产损失,因此与传统侵权法中的产品责任不同。生成式人工智能与网络侵权并不完全相同,一般人工智能所生成的内容除使用者主动外,不会进行网络传播,但人工智能很有可能根据使用者所提供的侵犯他人权益的信息来生成结果,或者生成的结果会侵害他人合法权益,如深度生成(deepfake)就是对现实的真实模拟,甚至可以达到以假乱真的地步。这种情形下,侵权具有隐蔽性,侵害程度也难以证实,都给责任的承担与分配带来问题。
总体来说,人工智能侵权责任仍然适用侵权责任,虽然行为实施者是人工智能,但其所代表的背后的开发者与生产商却是民法上实在的主体,人工智能的侵权实际仍是人的侵权,即智能机器人的人工类人格不是法律意义上的人格,因而为智能机器人设置的民事责任就不是机器人的责任,而是智能机器人致人损害时的背后的人的责任。在侵权的场合中,我们有了另外一种请求权,即要求人工智能生产方承担产品责任,其余的责任追偿方式不变。
2.2. 人工智能侵权责任归责原则
上文中我们讨论了在人工智能侵权案件中可能涉及的主体,包括智能使用或所有人,智能开发者以及政府等。不同的主体也应该对应不同的追责方式,才能满足人工智能时代下,追偿的多样化需求,能更加及时地解决诉讼纠纷。
涉及人工智能的侵权,相较于其他侵权类型,多了一个可追偿主体,即人工智能的生产方。基于上文讨论,我们仍将其定性为产品侵权责任,因此归责原则为无过错责任,这是最为严苛的责任类型[6]。产品责任适用无过错责任原则,即只要产品存在缺陷并造成损害,无论设计者、生产者或销售者是否存在过错,均应承担损害赔偿责任。这种归责方式的优点在于,具备更高赔付能力的公司能够提升纠纷解决效率,同时避免其他主体因赔付陷入经济困境,还能督促人工智能生产方严格自律,确保产品在投放市场前经过严格把控。
2.3. 人工智能侵权发生后生产方责任承担主体
依据《中华人民共和国侵权责任法》(注:现为《民法典》侵权责任编)相关规定,产品责任的责任主体明确为生产者与销售者,这一核心规则同样适用于人工智能机器人这类特殊产品。但人工智能作为高科技成果,具备高度专业性与技术复杂性,其系统设计环节的重要性显著凸显,由此引发疑问:人工智能系统的设计者是否应成为独立的外部责任主体?
结合实践逻辑与法律原理,责任归属需依据问题出现的具体环节精准判定,但必须明确区分企业外部侵权责任与内部追偿权:若问题出现在设计、组装等生产环节,外部侵权责任应由生产者统一承担,而非个体设计师;若问题产生于运输或销售阶段,则由销售者对外承担相应责任。对于人工智能的架构缺陷或自主学习引发的损害,表面看似与设计环节直接相关,但在公司化运营背景下,设计师的设计行为属于职务行为,其劳动成果归属于企业,相应的风险与责任也应由企业(生产者)对外承担,个体设计师不应直接成为受害人主张权利的对象,仅在开源算法等独立开发者场景下,独立开发者才需作为外部责任主体承担过错责任。
尽管人工智能具备自主学习能力,部分损害可能超出最初设计的预期范围,但这并不改变责任归属的核心逻辑:生产者作为产品责任的法定主体,理应在产品研发阶段建立完善的风险防控机制,要求设计团队对人工智能的进化边界、安全阈值进行充分预判与限制(如设置禁止性指令),若因设计环节的疏漏导致损害,生产者需先向受害人承担全部赔偿责任,之后可依据内部管理约定或设计师的过错程度,向设计师行使内部追偿权。这种“外部统一担责 + 内部过错追偿”的模式,既符合《民法典》关于职务行为责任归属的基本规则,也能避免因设计师赔付能力不足导致受害人权益无法实现,同时通过内部追偿倒逼设计团队尽到审慎注意义务。
实践中存在特殊情形需单独考量,例如韩国某机器人伤人事件[7]:某机器人制造企业的技术人员在庆尚南道一农产品中心检查起重机器人传感器时,机器人因故障误将其识别为货物并夹伤,最终导致该技术人员抢救无效离世。此案中,若机械臂故障源于设计缺陷或企业未履行定期维护义务,从外部责任来看,技术人员或其近亲属可依据产品侵权向企业主张赔偿(企业既是生产者也是用人单位);同时,技术人员在工作时间、工作场所因工作原因受伤,符合工伤认定条件,可依法享受工伤保险待遇,两种救济路径并行不悖。但无论何种救济方式,均无需个体设计师直接对外承担责任,企业承担赔偿责任后,若查明故障确因设计疏漏导致,可向内部设计团队行使追偿权;若因企业未履行维护义务导致,则由企业自行承担全部责任。
2.4. 人工智能侵权后的责任形态
对于人工智能侵权,我们就要考虑,侵权形态如何,是与当事人加害一方共同承担责任,还是由制造商单独承担责任,抑或是承担不真正的连带责任,先有方便受害方追偿的一方进行赔付后,再由加害人与生产者之间追偿,在上文中,我们已经讨论了生产商还可以再细化为三个主体,人工智能的侵权是可以不归咎于加害人,而由人工智能设计师来承担责任的,这就说明,人工智能的侵权实则是可以套用一般产品责任来解决,主要责任形态是不真正连带责任,依据《中华人民共和国民法典》第一千二百零三条,被侵权人可向生产者或销售者索赔。生产者造成缺陷的,销售者赔偿后可追偿;销售者过错导致缺陷的,生产者赔偿后可追偿。人工智能侵权与之唯一的不同便是在销售者与生产者之间,加入了一个新的责任主体,即设计师。
但是,鉴于设计师一般受雇于生产者,对生产者具有人身依附性,笔者认为,此时的设计师应为再追偿主体,是在销售者或者生产者完成赔付后,由销售者或者生产者进行追究,而不应该纳入受害者的追偿对象之中,原因在于,设计者一般是受雇于生产公司,如何雇佣、工作形式与团队协作安排均属于公司内部事务,一般不会对外公开,具有隐蔽性;其次,设计师赔付能力相较于公司一般会有较大差距,受害人要找到准确设计者并完成追偿,难度更大。将设计师置于前端的目的,更多的是表示性意义,标志着人工智能就是一般“产品”[8]。
2.5. 人工智能侵权的免责事由
在上述篇幅的叙述中,我们已经得到了将人工智能侵权拟制为一般产品责任这一规定,既然是一般侵权就必然存在着免责事由,那么作为拟制的产品责任,是否也存在着产品责任特有的免责事由,即发展风险原则:生产者能够证明将产品投入流通时的科学技术水平尚不能发现缺陷存在的,可以免除责任。一般来说,人工智能产品已经适用了大量的产品责任的规定,而其本质也相当于一般产品,适用发展风险原则也是应有之义,但是,并不是说我们可以不加以防范,对人工智能未来发展做出详尽模拟,并对可能出现的问题进行规范与限制,购买商业保险,对未来可能发生的风险提供充足保障,人工智能不同于一般实体产品销售后很难再追踪服务,人工智能是软件与物结合作业,在保护使用者隐私的前提下,开发者可以在后台实时关注人工智能发展情况,并及时修复问题或更新版本,以提供更好的保障。
3. AI产品与动物危险源的归责逻辑异同分析
二者归责逻辑在核心原则、责任主体等方面存在共性,却因“产品属性”与“危险源属性”的本质差异,在归责细节、免责事由等方面呈现明显不同。
3.1. 归责逻辑的共性
核心归责原则一致,均以无过错责任为基础。AI作为产品,适用产品责任的无过错原则,只要产品存在缺陷并造成损害,生产者、销售者无论有无过错均需担责;动物作为危险源,饲养人或管理人承担无过错责任,无需证明自身存在疏忽,只要动物致人损害即需负责,这一逻辑均契合“风险控制者担责”的公平理念。
责任主体均指向“实际管控者”。AI侵权的核心责任主体是生产者、销售者,他们对产品的设计、生产、流通全程具有管控能力;动物侵权的责任主体是饲养人或管理人,他们直接掌控动物的饲养、照料与管束,二者均未将AI或动物本身列为责任主体[9]。
均认可第三人过错的责任转移。若损害完全因第三人行为导致(如第三人恶意改装AI、故意挑逗动物),且核心责任主体已尽到合理管控义务,可由第三人承担主要或全部责任,核心责任主体无需担责或减轻责任。
3.2. 归责逻辑的差异
1. 归责原则的适用范围与特殊情形
AI产品责任:以无过错责任为绝对主导,仅在设计缺陷、警示缺陷等特殊情形下,部分国家会结合过错因素调整,但我国法律明确产品责任统一适用无过错责任,无额外特殊归责例外。
动物致害责任:以无过错责任为一般规则,同时存在明确特殊情形:禁止饲养的烈性犬等危险动物致害,适用更严格的绝对责任(受害人过错亦不免责);动物园动物致害则适用过错推定责任,动物园需自证已尽管理职责方可免责。
2. 责任主体的层级与追偿链条
AI产品责任:责任主体呈现多元化层级,外部有生产者、销售者承担不真正连带责任,被侵权人可任选其一索赔;内部存在生产者向设计者、零部件供应商的追偿链条,且设计者仅作为内部责任主体,不直接对受害人负责。
动物致害责任:责任主体相对单一,仅饲养人或管理人作为直接责任主体,不存在多层级外部责任主体,也无复杂的内部追偿关系,责任承担更为直接。
3. 免责事由的具体适用
AI产品责任:核心免责事由是“发展风险”,即投入流通时的科技水平无法发现缺陷,但需同时证明已建立产品追踪、监测机制;此外,受害人故意破解安全防护系统、违反明确警示操作,可减轻或免除责任。
动物致害责任:主要免责事由是受害人故意或重大过失(如故意挑逗、私自闯入饲养区域),且免责适用更为直接,无需附加额外举证义务;第三人过错导致损害时,饲养人或管理人在证明自身无过错后即可完全免责[10]。
4. 损害发生的因果关系认定
AI产品责任:因果关系认定复杂,需证明损害与产品缺陷直接相关,而AI的自主学习、算法黑箱等特性可能导致缺陷追溯困难,因果关系链条更隐蔽。
动物致害责任:因果关系认定简单直接,通常以动物的攻击、惊吓等行为与损害结果之间的直接关联为依据,无需复杂技术鉴定即可确认。
综上,AI产品责任与动物致害责任的归责逻辑,均围绕“风险管控”核心构建,通过无过错责任实现对受害人的充分保护。但AI的“人造产品属性”使其责任体系更注重多层级风险分担与技术特性适配,而动物的“自然危险源属性”使其责任规则更侧重直接管控者的义务与特殊风险的加重责任。
4. “特殊物”定性下AI侵权责任的特殊规则设计
将AI定性为“特殊物”,核心在于其兼具“产品的人造属性”与“自主学习的动态属性”,既区别于传统动产与不动产,也与普通产品存在本质差异。基于《民法典》侵权责任编的现有框架,需针对AI的特殊性设计专属免责事由与赔偿范围规则,既保障技术创新空间,又实现对受害人权益的全面保护,契合“特殊物特殊规制”的法理逻辑[11]。
4.1. AI侵权的特殊免责事由设计
免责事由的核心功能是平衡责任主体的风险负担与社会公共利益,AI作为“特殊物”,其免责事由需兼顾技术发展的不确定性与责任主体的管控义务,避免“过度追责抑制创新”或“责任空缺损害公平”的双重困境[12]。
1. 发展风险抗辩的限制性适用
发展风险是产品责任中经典的免责事由,指产品投入流通时,依当时的科学技术水平无法发现缺陷存在,生产者可据此免除责任。但AI作为“软件 + 硬件”结合的特殊物,具有可升级、可追踪、自主学习的特性,若完全适用传统发展风险抗辩,可能纵容生产者怠于履行技术监测与风险防范义务,因此需设置三重限制条件:
一是技术预见义务举证要求,生产者需证明产品投入流通时自身已尽行业普遍认可的技术检测义务,且整个行业技术水平未达发现该缺陷的程度,“技术水平”结合行业标准、学术研究成果、权威技术机构鉴定意见判断,如某AI诊疗设备投入流通时已有相关学术论文指出类似风险或同行业其他企业已防控,则不得主张免责;二是持续管控义务附加要求,因AI产品投入流通后缺陷可能因自主学习、数据交互产生或显现,生产者需建立完善的实时监测、风险预警与版本更新机制,包括在保护隐私前提下追踪运行状态与算法迭代、制定应急预案、履行合理期限技术支持义务,未履行则不得主张免责;三是风险分担配套要求,为避免受害人求偿无门,生产者需通过商业保险、风险基金等建立风险分担机制,主张免责时需证明已为产品投保或向风险基金缴费,以保障受害人获救济,此要求兼顾生产者抗辩权与受害人权益保护。
2. 受害人过错的具体认定规则
受害人过错是侵权责任的通用免责事由,但AI作为“特殊物”,其操作具有专业性、交互具有复杂性,需明确受害人过错的具体情形与认定标准,避免责任主体滥用该事由规避责任:
受害人故意的界定:受害人故意是完全免责事由,需限定为明知行为会导致AI侵权损害仍追求或放任结果发生。包括故意破解AI安全系统、篡改程序数据致其失控,或违反禁止规定实施危险操作且与损害有直接因果关系[13]。例如非法改装自动驾驶汽车突破限速导致事故,属受害人故意,生产者可免责。
受害人重大过失的认定:受害人重大过失指其未尽普通人注意义务且过失是损害主因,可减轻责任。认定需结合产品警示、操作难度和用户认知:一是忽视说明书或明确警示而进行危险操作;二是在收到风险预警后未采取补救措施。例如,操作人员未按规定佩戴防护装备致伤可认定重大过失。但若产品警示模糊或设计存在安全隐患,即使受害人有过失也不得减轻责任。
3. 第三人单独过错的免责适用
第三人过错是指因第三人的独立行为导致AI侵权损害,责任主体在证明自身无过错且已尽到合理管控义务后,可完全免责。AI作为“特殊物”,其第三人过错主要表现为第三人的恶意攻击、非法改装、数据污染等行为,具体适用需满足以下条件:
一是第三人行为具备独立性,即损害完全由第三人故意或重大过失导致,与AI产品缺陷及责任主体管控义务履行情况无关,如第三人用黑客技术侵入AI智能家居系统致火灾,若生产者有标准防护措施且事后协助调查可免责;二是责任主体要证明无过错,需证明其已尽合理安全保障义务,涵盖设置安全防护技术、定期检测修复漏洞、开展用户安全使用培训等,若未履行则需与第三人担连带责任;三是救济路径要明确,责任主体主张免责时需向受害人提供第三人信息与证据,若故意隐瞒或阻碍维权,即便有第三人过错也不得免责。
4.2. AI侵权的特殊赔偿范围界定
AI作为“特殊物”,其损害后果具有“技术关联性、损失隐形化、影响扩大化”的特点,传统侵权赔偿的“填平性原则”已难以全面覆盖受害人损失。需在《民法典》第一千一百八十二条至第一千一百八十四条的基础上,拓展赔偿范围,细化计算标准,实现对受害人的充分救济。
1. 直接损失的拓展与认定
直接损失是指因AI侵权直接导致的财产减少或人身损害,需结合AI的技术特性,将以下两类损失纳入直接赔偿范围:
一是数字资产损失属直接损失,包括基于AI产生的原始数据资产(如企业采集分析的客户、生产数据,赔偿按数据采集、存储成本及商业利用价值综合计算)、依托AI运行的虚拟财产(如游戏账号、数字藏品、虚拟货币等,赔偿参照市场交易价或评估鉴定意见)、AI产品本身价值损失(含硬件维修、软件修复升级费用,无法修复则赔偿重置费用)。二是人身损害的特殊延伸损失指AI侵权致人身损害时,除常规赔偿外的两类损失,一为技术依赖型损失(如依赖AI辅助生活的残疾人因故障聘请护理人员的费用),二为数据隐私泄露衍生的人身损害损失(如生物信息泄露引发的身份冒用损失、精神困扰治疗费用等,结合信息敏感程度、传播范围和实际影响认定) [14]。
2. 间接损失的明确与量化
间接损失是指因AI侵权导致的可得利益减少,AI的广泛应用性与高效性使得间接损失往往大于直接损失,需明确其赔偿范围与量化标准:
企业用户因AI侵权可能遭受经营利益和信赖利益损失,责任主体应予以赔偿。经营利益损失包括生产经营中断、商业机会丧失等,如AI生产设备故障致工厂停工,损失按停工期间平均营业收入、生产成本、预期利润综合算;AI营销系统缺陷致推广失败,损失参照同类活动平均收益或合同违约金定。经营利益损失赔偿以“可预见性”为前提,损失金额需财务数据、行业标准佐证。信赖利益损失指用户因信赖AI输出结果,AI缺陷提供错误信息或建议致其受损,如AI投资顾问建议错误致用户亏损,按合理投资回报率与实际亏损差额算赔偿;AI诊疗设备误诊致患者延误治疗,结合正确诊断治疗效果、患者预期寿命、收入水平定损失。信赖利益损失认定需用户对AI信赖合理,AI宣传有相应智能服务能力且用户尽注意义务,且损失与AI缺陷有直接因果关系,排除其他干扰因素。
3. 精神损害赔偿的特殊适用
AI作为“特殊物”,其侵权行为可能通过技术手段对受害人的人格权造成特殊侵害,进而引发精神损害,需明确精神损害赔偿的适用情形与计算标准:
适用情形界定:一是AI伪造不雅视频或虚假言论侵害肖像权、名誉权,造成严重精神损害;二是AI泄露私密照片、医疗记录等隐私,导致受害人社会评价降低或心理压力过大;三是AI设备缺陷损毁家庭重要影像等情感载体,引发情感痛苦。精神损害赔偿需以严重精神损害为前提。
计算标准考量:确定赔偿金额需综合判断:一是侵权行为恶劣程度,如伪造内容传播范围或隐私敏感度;二是责任主体过错程度,如明知缺陷未补救或故意隐瞒;三是受害人个体差异,如社会地位、心理承受能力及损害影响;四是当地经济水平,确保赔偿合理且符合实际。
4. 惩罚性赔偿的有限适用
惩罚性赔偿的功能在于惩戒严重侵权行为、预防类似行为发生,AI作为“特殊物”,其潜在风险较大,需有限适用惩罚性赔偿,以强化对责任主体的约束:
AI侵权适用惩罚性赔偿需满足三个条件:一是责任主体存在故意或重大过失;二是造成严重损害后果;三是行为具有违法性,违反相关法律强制性规定。
惩罚性赔偿金额设定需平衡惩戒效果与责任主体承受能力。可参考标准:以直接与间接损失总和为基数,按过错程度确定1~5倍赔偿比例;设置最高限额,参照销售额、注册资本或净资产,避免破产影响行业发展;惩罚性赔偿与补偿性赔偿并行,确保受害人损失充分弥补。
4.3. 规则适用的衔接与保障机制
1. 与《民法典》侵权责任编现有规则的衔接
AI侵权的特殊免责事由与赔偿范围规则,并非脱离《民法典》侵权责任编的独立规则,而是在现有框架下的补充与细化:一是特殊免责事由需以《民法典》第一千一百七十三条(受害人过错)、第一千一百七十四条(第三人过错)为基础,针对AI的特殊性增设限制性条件,不得与基本原则冲突;二是赔偿范围需在《民法典》第一千一百八十二条至第一千一百八十四条的基础上拓展,确保直接损失、间接损失、精神损害赔偿的认定与现有规则保持逻辑一致;三是惩罚性赔偿需严格遵循《民法典》第一千一百八十五条的立法精神,仅适用于法律明确规定的情形,不得任意扩大适用范围。
2. 配套保障机制的构建
为应对AI侵权问题,需构建多维度机制。一是技术鉴定机制,鉴于AI侵权专业性强,缺陷认定、因果关系判断和损失量化依赖专业技术鉴定,应建立由计算机科学、法学、经济学等多领域专家组成的专门AI侵权技术鉴定机构,制定统一鉴定标准与流程,保障鉴定意见客观权威。二是证据保全机制,因AI算法黑箱、数据易篡改等特性可能致证据灭失,受害人可在诉前向法院申请证据保全,法院责令责任主体提交算法文档、运行日志、数据备份等关键证据,并明确责任主体不得删除、篡改,否则担责。三是风险分担机制,鼓励责任主体投保AI产品责任保险,扩大保险覆盖范围至数字资产损失、间接损失等;政府引导设立AI侵权赔偿基金,对无法获充分救济的受害人补充补偿,形成“保险 + 基金”双重风险分担机制[15]。
综上所述,将AI定性为“特殊物”后,《民法典》侵权责任编的特殊规则设计需围绕其“动态性、技术性、关联性”的核心特征展开。在免责事由方面,通过对发展风险抗辩的限制性适用、受害人过错与第三人过错的明确认定,平衡技术创新与风险管控的关系;在赔偿范围方面,拓展直接损失至数字资产与特殊人身延伸损失,明确间接损失的量化标准,规范精神损害赔偿与惩罚性赔偿的适用,实现对受害人权益的全面保护。同时,通过与现有规则的衔接及配套保障机制的构建,确保特殊规则能够落地实施,为AI技术的健康发展提供坚实的法律保障。