1. 引言
伴随着科技的持续进步,人工智能的聪明才智、独立思考和创新精神得到了更深层次的增强,这对现代社会的政策架构、商业方法以及文化领域等都产生了深远的影响。在这场大变革的背景下,法学领域受到了极大的冲击,传统法学理论受到了极大的影响,其中对法律主体地位理论的冲击最为显著[1]。马长山学者在文章中表明,当前社会正在经历一场彻底的信息革命,工业经济正在迅速地向信息经济转变,这包括了人机共处环境下,由于人机协同生产和生活所引发的传统法律中的“理性的人”向信息化和数据化的“微粒化的人”的转变[2]。在2017年,《国务院关于发布新一代人工智能发展计划的通知》(国发[2017]35号)明确提出,为了推动人工智能的应用进步,必须解决人工智能的法律地位问题,明确其权利、义务和责任的具体内容,并为其提供法律制度的保障。对于法理学与各个领域的法学研究,关于法律主体的地位的讨论始终是重要的,而由于人工智能引发的各种法律难题,最终也会被纳入这个讨论的范畴。
人工智能的名称来源于雨果·德·加里斯的著作,1956年,约翰麦卡锡(John McCarthy)在达特矛斯会议(Dartmouth Conference)上首次提出了这一观点:“人工智能”,昭示了人工智能领域研究的伊始,时至今日已经逐渐发展为一个独立的研究分支,无论在理论还是实践上都已形成一个完整的系统。
人工智能可被分类为三种主要类型:窄域人工智能(Narrow AI)、广域人工智能(General AI)和超级人工智能(Superintelligent AI)。窄域人工智能,也被称为弱人工智能,主要是为了解决特定任务或者有限的问题而设计的。它们在某些方面拥有超越人类的学习技巧,但并不具备更广泛的学习能力和常识,也无法根据各种环境自行运用已经学习过的知识。广域人工智能即强人工智能,指的是和人类具有相当学习和认知能力的AI,可以执行更复杂的任务,并且在没有预设编程的情况下可以自主学习和应用新的知识,这类AI是目前研究者追求的目标,尚未真实存在社会中。而超人工智能则是一个假定的概念,有着超越最聪明的人类大脑的智慧,是一种远超人类智慧的存在。
在中国国际高新技术成果交易会上,“小胖”在没有收到指令的情况下打破了玻璃,对参展者造成伤害;Deepmind公司研制的AlphaGo战胜了李世石与柯洁;“微软小冰”发布了诗歌《阳光失去了窗户》;2017年,沙特首次展示了被授予公民地位的智能机器人“索菲亚”;一辆自动驾驶的汽车导致了一名乘客的丧生。在人工智能快速发展的背景下,如何对其造成的损害进行责任划分以及是否应该赋予其法律主体的地位,已经成为未来人工智能发展的关键议题。
2. 何为人工智能
(一) 人工智能的定义
早在古希腊和埃及的手稿中就提到过“人工智能”的相关术语。希腊神话中的神Hephaestus为所有神制造“智能武器”,他们认为,人工智能的目标是帮助人们实现某种目标,能够自动运行并预先编程以根据情况采用不同的方式作出对应的反应。而在学科意义上,人工智能是科学的一个分支,它能创建智能系统——智能指“有生命的个体习得知识或技能、并将其应用于完成任务或逻辑上得出结论的能力”[3]。所以我们可以将ai (Artificial Intelligence)这个词汇进行定义,它是以人为核心而展开的,通过模拟人的学习方式教会自身理论、技术、方法以及实际应用的科学技术。
“具备智能”是人工智能和常规机械的显著差异,“智能”的核心是它具备独立的学习技巧,这让“机械”可以转化为“机械人”。这种自主能力来自对海量数据的深度学习、云计算能力与“神经网络”的模拟构造[4]。神经网络在技术架构上借鉴了人脑的神经系统——氨基酸控制蛋白质的形态和特征,基因则引导蛋白质的进步路径,这些组件共同组合出一个神经节点。同时,神经节点的布局和化学信息的交流,也影响着我们的思维和心理进步[4]。人造神经网络的构建源于众多的处理部件通过广泛的联接形成的,其中的每一个部件都被称为人造神经元。通过模拟人脑的神经结构并结合大数据技术,机器展现出与人类相似的智慧。利用神经网络技术,人工智能有能力对问题进行深入的学习,从而构建出特定的逻辑模型,并利用新的知识来修复这些逻辑模型中的缺陷,从而实现类比、模仿乃至完全的自主操作。
(二) 人工智能的分类
人工智能的发展阶段可以被划分为三个主要的层次:弱人工智能(ANI)、强人工智能(AGI)以及超人工智能(ASI) [5]。弱人工智能无法实际地进行逻辑分析和处理问题,缺乏和人类相同的思维和联想技巧,无法实现真实的智慧,同时也缺乏独立的认知。关于高级的人工智能,一种观点是它们实际上具备逻辑分析与处理问题的能力,同时,它们也应该具备感知、自主性,具备独立思维,设计出最佳的解决策略,从而形成属于自身的价值取向与全球视角。强大的人工智能拥有与生命体相似的多种基础属性,例如对于生活和保障的需要,这在一定程度上被视为一种创新的文化。超级人工智能在所有领域都大大超过了人的智慧,但目前尚不清楚人工智能是否真的可以进展到这个阶段,就像库兹韦尔在他的著名理论“奇点理论“中所提出的那样。科技的进步是遵循幂律分布的,初期发展较慢,但随着时间的推移,速度会逐渐加快,直到达到顶峰,人工智能的发展或许也需要积攒到一个量变临界点。
(三) 人工智能的自主性与意思自治的根本区别
讨论是否赋予人工智能法律主体地位的重要原因是人工智能可能发展出的自主性,这种自主性使人工智能的行为无法被开发者、操控者或所有人等类似的角色预测,仿佛有了自己的“意思自治”。但人工智能的“自主性”与法律意义上的“意思自治”看似相似,实则存在本质区别。深入辨析这两个概念,是厘清人工智能法律主体地位的关键前提。
在法律层面,“意思自治”是法律行为的核心要素,包含内心意图和外部表示两个基本维度,并强调二者的一致性。意思自治不仅关注行为本身,更关注行为背后的主观状态,这是归责的基础。在法律行为理论中,意思表示的效力取决于行为人的行为能力、意思表示的真实性、合法性等要件。人工智能的“自主性”则表现为对环境刺激的程序化回应。当前人工智能的行为“基于概率模型的数据输出或行为反馈”,不存在真正的意图形成过程。以智能法律行为为例,其意思表示呈现“复合”特点:既非AI自己意思,亦非人类意思镜像,更非开发设计者、制造者、运营者、使用者的单一意思,而是多方意思的叠加。这种复合性导致传统意思表示理论难以适用,也使得效力要件认定陷入困境。
在责任承担方面,意思自治主体在基于自由意志作出选择的同时,必须承担相应法律后果。这种责任能力建立在主体对行为的认知、控制和预见可能性基础上。而人工智能的“自主性”与责任承担是脱节的,结合我国目前的法律框架和司法实践,人工智能还未被赋予“创作者”的身份,仅作为人类的“工具的延伸”。也就是说目前AI尚未成为法律意义上的主体,其所有的创作后果都由相关人来承担。这种责任脱节现象在自动驾驶、医疗诊断等高风险领域尤为突出。当人工智能系统通过自主学习产生超出设计者预见的行为时,其“自主性”反而导致责任归属的困境。具身智能体表现出的环境自适应能力已超越传统工具被动属性,形成具有涌现特征的行为模式,这种技术特性要求法律框架必须突破简单归责逻辑。
3. 人工智能法律主体地位的相关学说
关于人工智能法律主体地位的观点现主要分为肯定说、否定说和折中说,肯定说中的主要学说为代理人说、电子人格说、有限人格说和人格拟制说;否定说中主要有工具说、软件代理说、道德能力缺乏说。
(一) 法律人格肯定说
代理人理论主张,人工智能在代理关系中扮演着被代理人和代理人的角色,代理人需要对其行为负责,被代理人则需要承担最终的责任。该学说承认人工智能在法律关系中的主导地位,将人工智能看作是独立于其操纵者的主体。在现代社会中,这一理论也得到了法律和实践的支持。《欧盟机器人民事责任法律规则》第52条明确提出了“非人类的代理人”的定义;在俄罗斯的法律体系里,“机器人”和“代理人”被定义为法律上的人工智能,它们对财产拥有独立的权利,并且有责任对自己的债务负责;《统一计算机信息交易法》和《统一电子交易法》对电子代理人有明确的定义。依据人工智能与人类的代理关系,可以确认人工智能拥有主体地位是建立在一定的制度基础上的。由于代理法律的要求,代理者和受托者必须具备相同的个性,并且受托者有权利自行执行受托者所布置的职责。随着AI技术的持续使用和进步,其表现的核心特质和受托者的确认标准已经在相当大的范围内相符[1]。
郭少飞学者在文章《“电子人”法律主体论》提出了电子人格说,认为人工智能时代下的人工智能体,已经具备“电子人”式的法律主体资格,电子人主体拥有的自主性是其本质属性,本身的规范性是其制度上的属性,在当下的社会中拥有普遍的实践基础和法史基础,理应承认人工智能的电子人主体资格[6]。支撑“电子人”身份的理论认为,人工智能拥有的法定身份被称作“电子人”。2017年,欧盟议会法律事务委员会在其所呈递的有关报告里明确指出,要想给予人工智能一个持久的法律身份,至少需要对拥有“自主权”的机器人赋予“电子化”的身份,并让它们负有与其行动属性匹配的伤害补偿义务。“自主性”的含义在于,由人工智能独立做出的决策或者其行为特征与之相似的情况所触发的事件。这意味着“主体的定义已经超越了生物学上的人,物种差异也不再被视为获取主体地位的法律障碍”[6]。该理念可以说是较为前卫,为人工智能的长足发展奠定较好的法律概念基础的。
有限法律人格理论认为,虽然人工智能的核心属性在于工具,但它拥有完全的自我决策权,因此我们需要对它进行一定的法律身份的定义,并采纳一些专门的法律条款[7]。鉴于对AI的执行能力的需求是有限的,因此,在确定其对损失的赔偿时,我们需要采取专门的法律条款。如果是其创造者是容易识别的个体的情况,我们可以采取“揭开AI面纱”的原则来帮助进行赔偿,也就追溯至人工智能的真正运营者和制造商。有限人格说并没有将开发商、生产商的责任摒除在外,而是将人工智能纳入法律归责范畴,更符合公众的传统法律观念。
人格拟制理论在赋予人工智能法律主体地位中是具有相当分量的学说,该学说通过模拟制定,赋予人工智能法律主体地位。彭中礼学者在通过对人工智能从技术语境到能力语境的学理考察后得出了承认有限度的人工智能主体拟制的结论[8]。吴高臣学者认为法律拟制才是非自然人法律主体的判断基础,人工智能有潜力成为法律拟制的主体[9]。就像胎儿通过身份拟制的方式可以获得继承和遗嘱的权益保障一样,对人工智能进行法律拟制,也能够保护物体的权益。然而,在没有相关法律明确规定的情况下,人工智能的法律主体地位并未被确定在现有的法律框架中。学者杨清望、张磊支持法律人格拟制说的主张,认为:人工智能有被赋予法律人格的必要性:其一,人工智能已经是一种真实存在的、自主的实体;其二,人工智能拥有自我决策的技巧和负责任的态度;其三,为了有效地防范和应对人工智能的潜在危害,我们需要建立其合法的法律身份。其四,为了保护人类的自身权益,人工智能应被赋予法律身份[10]。
(二) 法律人格否定说
支持工具说的观点认为,人工智能是一门用于服务人类生产和社会生活的技术,目的是为人类提供服务,其不能成为法律关系主体,不承认智能机器人具有独立的法律人格。该学说认为,无论人工智能发展到何种程度,其始终不能做出富有理性、具有道德色彩的判断。由于人工智能的知识与技术来源于开创者的编写的计算机程序,它并无法主动从外部获得这些信息与技术,因此它缺少一种逻辑推理的才华,这是一种被用来进行人为操作与管理的设备。尽管“人类智能”的仿真与拓宽型机器人拥有一定的智慧,然而它们并未拥有人类的精神特质与独特魅力。这就意味着当案件涉及模棱两可需要灵活适用时,或条约并非一目了然而是具有模糊性时,人工智能无法理性地适用条款,发挥辩证思维能力。然而,该学说在面对已获得公民资格的机器人以及强人工智能等已出现的超出“工具说”范畴的情况时,具有一定的局限性。
道德能力缺乏说将人工智能类比拥有法律主体资格的人类,认为其必须类人具有道德认知能力,才能具有法律主体资格。而事实上这是对法律主体的认知存在误区,“道德主体肯定是法律主体,但法律主体却不一定是道德主体”[11]如果在未来的发展中人工智能可能出现“自主意识”,那么道德是否能被算法归于人工智能的运行系统之中,亦是难以预料,届时大的能力便不再是将其排除在法律主体地位之外的因素了。
(三) 法律人格折中说
折中说认为人工智能在法律资格上不具有完整性,但事实上对人工智能取得法律主体地位是一种积极的肯定态度,只是虽然在“质”上对其持认可的倾向,对“量”上的缺失仍呈保留态度。该学说认为区分是否赋予人工智能法律人格,取决于其为强人工智能还是弱人工智能,弱人工智能则继续适用法律客体地位,强人工智能则赋予法律主体地位。
4. 人工智能的法律主体地位确认
观上文所述人工智能法律主体地位相关学说可知,肯定说与否定说的讨论核心是三个基本点的两个方面:其一是人工智能能否具有“独立意识”和“自主意识”;其二是人工智能是否有能力独立作出行为和责任能力;其三是确定人工智能的法律主体地位是为了在其作出损害时更好地归责,进而减少人工智能的风险产生。
(一) 对法律人格肯定说的肯定
反对人工智能作为法律主体的重要原因之一是人工智能不具备“人”的生物要素,将其认定为法律上的主体,有违人的伦常认知。但法律人格的本质,是一种法律上对个体资格的认可,这种资格并不因为个体并非自然生命体而完全被法律所否定。例如,法律给予了作为个体的一组特殊的联系称作虚构的个体,同时也设立了这些个体的权益和责任。对于那些被授予法定身份的个体,无论是自然人还是非自然人,他们都根据在法律中的“个体”地位,拥有了相应的权益和责任,从而有可能把他们的行动变成有关的权益和责任[12]。在法律实践中,也已经出现了类似的案例,旺格努伊河,位于新西兰,已经成为全球首条具备与人类相同合法地位的河流。两个人被委派来维护旺格努伊河的权益:一个是政府的官员,另一个是一位毛利族部落的成员。同样,根据英国网站somerset live的报道,在环保团体的推动下,英国的弗洛姆河也将获得与英国公民同等的法人身份,这样可以让当地居民和机构更好地代表河流进行权益保护[13]。印度也赋予恒河和其支流亚穆纳河为生物实体,享有和人类一样的权利。据此对于法律主体地位的授予并非天马行空不可实践。
人工智能具有“独立意识”和“自主意识”。人工智能在制造的初期确实是根据预定的算法运行的,在现实生活中人们大多数可以接触到的人工智能似乎也较为机械地按照算法预定的轨迹执行任务。然而事实上,随着科学技术的发展,部分人工智能已经有了深度学习的功能,这一技术突破意味着人工智能不仅有瀚如烟海的知识库储备、大数据后台,还有根据机器自主学习、深度分析的能力,在此过程中形成自己的逻辑链条,出现类似“直觉”的存在,都是极有可能的。在此种情境下,人工智能参与更复杂的人类活动中所作出的行为和判断就不是初始的算法可以预计的了,人工智能所作出的行为即其“独立意识”和“自主意志”的体现,据此赋予其独立的法律主体地位,应是顺应发展潮流的举措。
关于人工智能是否有独立的行为和责任能力,有不少观点认为,人工智能即使有独立行为的能力,但人工智能没有财产,在损害行为发生时无法承担赔偿责任,因此不具有独立的责任能力。实际上,应对此类难题的策略并不是没有预案。设置智能机器人赔付基金或者加入强制性的保险规定,来保障算法服务的购买者获取公正的赔付,已经被大多数领域所接纳,创建互联互通的ai注册平台,以及搭建清楚的责任追踪系统是当务之急[14]。
最后,人工智能作为新兴事物从出现在人们的视野中,到现在渗透到人工作生活的各个领域,并没有经过太久的时间。面对人工智能的迅速发展,制定起配套的法律制度和措施,完善其关于法律主体资格的认证和规范其侵权责任归责方式已然成为重要任务。对于新兴事物及时作出规制,才能为其后续的长足发展保驾护航。
(二) 对法律人格否定说的反驳
一些反对人工智能被赋予法律人格的专家的观点,认为人工智能并未拥有“自我意识”或“自我决策”,也就是说,它无法自我决策并解决问题。赋予人工智能与“人”相同的法律地位,会破坏现行法律制度的平衡和稳定。尽管如此,从实际状况来看,这个观点已经不再适宜。因为在现实生活中,人工智能的各个领域的运用已经显示出它的高度智能、独立和创新,它能够对周围的数据信息进行智能处理,并通过程序算法的运算,对数据信息背后的行为进行优劣分析,从而做出合理的决定。在这个意义上,人工智能甚至可以超越人类的“理性”[15]。
关于人工智能的独立的行为和责任能力,否定观的持有者认为,人工智能的行为是其设计者、生产者、销售者或使用者授意的,人工智能本身是归属于人的“物”,其本身也不具备财产用以侵权责任赔偿。换句话说,人工智能是其使用者借助的工具,是其主体行动的扩展[16]。但一味地将损害责任归责于其设计者、生产者、销售者或使用者确实是科学合理的吗?以美国自动驾驶汽车致人死亡的案件为例,自动驾驶汽车在没有使用人授意的情况下撞向前面的卡车,造成驾驶人死亡。对于自动驾驶汽车的“自杀”行为,初始算法并没有授意,将责任全权归于设计者、生产者、销售者,将对有关公司将来对人工智能的研究产生消极作用,让使用者自己承担更是有失公允。因此赋予人工智能独立的法律主体地位,并一并完善其补偿基金或强制保险制度,在此基础上再对设计者、生产者、销售者和使用者进行不同程度的归责,会更适宜该领域今后的长足发展。在新事物的产生中,我们需要根据其发展,调整和修订传统的法律制度中关于责任能力的条款。
(三) 人工智能的法律主体地位确认的必然性
在当今大数据的时代背景之下,人工智能的大数据整合能力是促进发展必不可少的一环,人工智能也将更深入到人类社会的各个领域。介于对人工智能法律人格肯定说观点的认可和现实制度可行性的认同,以笔者之拙见,应当赋予人工智能法律主体地位,让其成为承担法律责任的主体。
人工智能依据理论基础、能力属性、应用领域等综合因素来划分其类型,主要可分为四类:第一类是机器学习,例如模式学习,对图像和音频的理解和处理。第二类是掌握大数据的相关技能,如统计分析与处理、数据挖掘以及深度学习等;第三类是识别能力和智能设备的紧密融合,通过体验技术和人机互动构建了行业级的应用;第四类是利用生物科技、身体感知识别、人与机器的互动等创新理念,将成为未来个体的主流[17]。目前,第一类别的人工智能已经相当完善,然而,当前科技领域的主要趋势是赋予人工智能进行统计分析、处理、数据挖掘以及深度学习等功能,尚不能脱离人类指令自由交往,并形成自主财产关系,属于“弱人工智能”的应用[18]。在这个阶段,人工智能产生的文学、艺术等作品的版权归属问题以及对人造成损害的侵权责任的确定问题,是涉及到人工智能法律主体资格认定的一个相当重要的问题。吴汉东教授以“著作权”的归属问题为例,主张应根据著作权法对职务作品或雇佣作品的条款,让创造机器的“人”来享有和执行权利[19]。但是,那些创造机器的“人”在人工智能作品的创作中并没有直接投入到体力或智力工作中。用“职务”和“雇佣关系”来定义这两者之间的关系是有很大差异的,因此,由创造机器的“人”来行使权利和承担义务与实际情况和本质是不一致的。因此,由人工智能机器人作为实际的“权利享有人”,并通过“权利代理人”去代为行使权利也并无不可。例如上文已经提及的“微软小冰”著作的诗集《阳光失了玻璃窗》正式出版,对于诗集的版权归属问题究竟是归属于“小冰”的开发公司还是“小冰”自己,各方众说纷纭。按照传统意义上的法律主体地位确认,将著作权归于开发公司,但开发公司本身并没有直接参与诗集的创作,此种归属又显得不甚合理。综合上文观点,笔者认为,将人工智能定位为“代理人”属性,在法律上赋予其民事权利和民事义务是可行之策。
一个法律主体以具备某种认知作为先决条件,在特定的领域,人工智能已经较人类有了更高水平的认知能力,只是在认知的宽度和广度上,与自主学习和没有领域限制的人类有着差距。在一定的时间和空间里,人的认知是有限的,即使有群体的智慧作为其广度的扩充,也是极其有限的,但是理性主义的认知要求主体不仅要意识到客观世界的存在,也要意识到自身的存在。有人会认为人工智能无法认知到自己的存在,但是相较于患有精神疾病的人类可能无法认识客观事物的存在,甚至无法控制自己的行动,以及法律的拟制主体法人,更难认为其有自主的意识,人工智能或许更有资格称之为“具备认知能力”的法律主体。
人工智能具有意思能力可以表达自由意志。人工智能可以自主地作出意思表示,这一点不同于与人类联系同样密切的动物。人工智能虽然是按照预先设定好的算法和程序作出行动,但算法的选择和程序的确定是人工智能自主选择进行的,即使是人工智能的设计者、生产者,也不能完全预估人工智能的每一个决定。未来技术发展,模拟人脑神经系统的技术进一步发展,人工智能将具备更复杂、更贴近“人”的“思考模式”,更加自主地作出“思考”、“选择”、“运动”等,因此在一定范围内允许人工智能拥有法律主体地位、承担损害责任是合理的。也就是说,人工智能可以在一定程度和特定领域内作出决策,但是并不意味完全具备完全的民事责任能力,因此仅具有有限的法律人格[20]。人工智能在意义能力方面的应用范围相对有限,因此在财产处置和参与法律诉讼的过程中,应当由其所有者来代为行使相关权利。这与民法中限制民事行为能力的人有相似之处,但这并不会对其作为民事法律主体的资格产生影响[21]。
现实中已然出现人工智能损害归责和法律主体地位确认的问题。案件一,发生在2018年3月,涉及到美国亚利桑纳州坦贝市的一辆优步自动驾驶测试车导致了一名乘客的死亡。本案中的安全测试员在即将撞车前没有收到安全系统的任何提示,全程并未减速,直达碰撞才发现事故。本案中若能为自动驾驶车辆设置独立的法律人格,对于案件的归责会更加显示公允。同时,没有一味地将责任归于生产者、创造者等主体上,亦是对相关人工智能公司今后研发的鼓励,是对人工智能行业永续发展的法律支持。案件二,在2020年1月,广东省深圳市南山区人民法院对原告深圳市腾讯计算机系统有限公司与被告上海盈某科技有限公司的著作权侵权和不公平竞争纠纷进行了一审判决,裁定人工智能产生的文章为作品。此案系全国首例认定人工智能生成的文章构成作品案件。本案中认定人工智能生成的文章是作品,对将来类似案件具有借鉴意义。还有诸如沙特承认第一位合法公民“索菲亚”,美国承认宠物机器人的法律地位等。诸多已然发生的人工智能与现行法律制度的纠纷,无不显示着人工智能的法律主体地位确认之必然性。
5. 人工智能法律主体地位拟制的风险与替代治理路径
(一) 赋予法律主体地位的潜在负面影响与伦理挑战
当前支持AI法律主体化的论点,多基于功利主义效率考量或法律拟制传统的延伸。然而,这一路径若贸然推行,可能引发一系列颠覆性的风险,其核心矛盾在于可能动摇以“人”为根本的法秩序与伦理基石。
法律的主体制度,其伦理根基在于对“人之尊严”的承认与捍卫。赋予AI法律主体地位,本质上是在法律层面将“工具”提升至与“自我”相近的地位,可能导致人类中心主义伦理观的淡化和人类独特价值的模糊。这种消解在实践中可能导致两种趋势:其一,责任主体的混淆与人类责任的逃逸。当AI被认定为独立责任主体时,其背后的设计者、开发者、使用者可能借此推诿本应承担的绝对责任,导致“有组织的不负责任”状态,形成巨大的“责任鸿沟”[22]。其二,价值评判的倒置。若AI因其“智能”或“效用”获得主体地位,将可能助长一种纯粹基于能力或效率的伦理评判标准,削弱对生命、尊严等内在价值的坚守,违背科技发展应服务于“增进人类福祉”的根本原则[22]。
归责体系面临瓦解与司法困境。传统刑法与侵权法建立在行为人的主观过错(故意、过失)与客观因果联系之上。AI的“自主性”决策,尤其是在深度学习产生的不可预测行为介入时,将严重冲击这一体系[23]。如果AI是主体,那么其“过失”或“故意”如何认定?其“可罚性”与“受刑能力”基础何在?刑罚的威慑、教育功能对一段代码有何意义?这些基本问题在法理上难以自圆。实践中,已发生自动驾驶汽车致人死亡却无法直接归责于车辆的条件,最终仍需回溯至人类责任者,这暴露了主体化在解决归责问题上的无力。
(二) 超越“主体化”的替代解决方案构思
鉴于直接赋予AI法律主体地位存在显著风险,学界与实务界均有对多种替代性治理框架的探索。这些方案不改变AI在法律上的客体属性,而是通过强化对人类责任方的规制、创新监管工具和机制,来应对AI带来的挑战。
方案一:完善与拓展严格责任、过错责任体系。此方案主张在现有侵权法与产品责任法框架内进行调适,对AI造成的损害,根据场景明确责任主体(开发者、生产者、销售者、使用者)并适用更严格的责任标准。例如,对于高风险AI系统(如自动驾驶、医疗诊断),可对生产者适用无过错责任或严格责任,迫使其将安全成本内部化,激励其投入最高标准的安全设计与测试。明确开发者的安全注意义务,要求其承担算法设计、数据选择、风险测试等方面的勤勉责任[22]。在刑事领域,坚守“工具论”,将利用AI实施的犯罪行为,通过解释或有限立法,纳入“间接正犯”、“过失犯罪”等现有理论中处理[23]。
方案二:建立强制保险与赔偿基金制度。该方案通过风险社会化分散机制,为AI事故提供及时救济,同时倒逼安全标准的提升。对特定类型的AI产品(如服务机器人、自动驾驶汽车)强制推行责任保险,作为市场准入前提。建立行业性或公共性的AI损害赔偿基金,用于在责任方不明或无力赔偿时,对受害人进行基本补偿。
6. 结语
学者张文显曾经表述过:“我们需要擅长运用法律这一人类最伟大的创新去管理人工智能等科技发明,引领不断进步的网络信息科技在与时代同步的法治轨道上为人类社会带来福祉”。人工智能在的发展无论在技术创新还是伦理常识方面都给人类社会带来巨大的冲击,人工智能也已经渗透在人类社会的各个方面,对于其法律主体地位、侵权归责认定等法律问题尚无定论,法律制度的不完善必将对其未来的发展造成不利影响。在本文中,笔者从人工智能的定义和分类出发,再从人工智能法律主体地位的相关学说入手,对应当赋予人工智能法律主体地位进行了浅析。人工智能是新时代的法律制度中不可忽视的一部分,对其进行研究、分析并完善规制,才能助力其未来的长足发展。在人工智能的时代背景下,调整社会关系的法律框架,我们更多地抱有期望而非担忧和疑虑。