1. 引言
生成式人工智能的发展迅速,OpenAI旗下的人工智能语言大模型ChatGPT已经迭代至第五代、人工智能文生视频大模型Sora也更新至第二代。我国境内包括深度求索(DeepSeek)、腾讯元宝在内的各类人工智能层出不穷,2024年宇树科技公司发布了Unitree G1人形智能体……这些科技进步必然带来人类社会的巨大变革,身处变革之中,人类必须厘定自身与人工智能机器人之间的关系。面对人工智能的超强学习和适应能力这一客观现实,最具争议的还是人工智能是否享有与人类一样的“人格”?在法学领域,具体指人工智能是否具有法律主体地位。本文拟从以下几个部分探讨这一问题:首先,从“人”之定义出发确定人之主体地位;其次,通过横向比较的方法将人工智能与法人、动物的法律地位进行类比,并同时采取纵向对比的方法将人工智能与各类限制行为能力或责任能力者进行比较;再次,基于以上讨论,从功能主义的角度分析人工智能机器人的有限法律地位并兼谈人类中心主义的伦理定位;最后,展望人工智能机器人在发展出自我认知并成为特殊种群时的人类应对。
2. 法律视角中的“人”
在讨论人工智能机器人是否具备法律资格前,我们先要想这样一个问题——人工智能机器人到底具不具备法律上的作为“人”的资格?我们现行的所有法律都是规制人类的社会活动的制度,人类的权利与义务都以法律为载体,如果机器人具备法律主体资格,那么人类享有的权利与应该履行的义务机器人都要一并继受呢?这都是我们需要研究的问题。
“人”在日常生活中通常指的是生物意义上的人(human being),生物人具有特定的生理和心理特质,具有“感觉”和“意愿”。这是自然科学层面对“人”的定义,除此之外,我们还可以从社会科学层面对“人”下定义。例如,从哲学角度看,“人”是一种具有道德意志的主体;从社会学角度看,“人”是社会关系的主体。同样,从法律规范的角度出发,“人”是一种具备法律人格的主体[1]。显然,法律意义上的“人”的范围要小于生物学意义上的“人”。在特定的时期或者是特殊情况下,生物上的“人”并不具有法律主体资格。例如,奴隶社会中的奴隶相对于自由人来说就不具法律人格,因为在当时的社会观念中,奴隶只是“会说话的工具”,更不必说享有权利或履行义务;在特殊情况下,比如植物人或者精神病人,在生物学上是“人”是毫无疑问的,但是这两者都无法正常行使权利和履行义务,或者说他们都没有自己的独立意志,因此他们也不具有法律人格。法律是一种人类行为秩序,它要调整人类的行为[2]。法律是通过权利与义务的范畴来调整人类的行为的,法律的主体——“人”,则是权利与义务的承载者。义务就是法律规定的人应该做的或不应该做的一些事,而权利就是当有人不履行义务或者违反了法律时,人为了保障自己的生命财产安全或幸福状态不受侵犯的一种行为。法律对“人”的界定与权利、义务相关,这意味着法律上的“人”受制于法律权利和法律义务[3]。法律人格就是享有权利义务的法律主体资格,法律主体即拥有这些资格的实体,各个法律主体之间产生的权利义务关系就是法律关系。因此,法律关系只能是“人”与“人”之间的关系,不能是“人”与“物”之间的关系。举个例子,在日常生活中,甲的狗将路人乙咬伤,路人乙如果请求赔偿,只能向甲索赔而不能向甲的狗索赔。换句话说,在这个法律关系中甲与乙才是法律关系的主体,而狗只能算是客体。这体现的便是主体享有的法律人格——权利义务能力,是法律主体资格的条件之一。
另外,法律根本上是一种人类行为秩序,要调整人类的行为,所以法律规范创设的权利与义务要得到实质上的体现,其承载者必须具备“自由意志”能力。这里的“自由意志”是指能够自我思考和根据实际情况调整自身行为的一种能力。自由意志同时也是“人”与其他生物的根本区别,一个具有法律意义的行为的产生,既要有客观的法律规范作为依据,也要有人的意志行为作为基础。如前文所说,在特殊情况下,如植物人与精神病患者就是不具有自由意志的情形,这些群体在实质上是不具备法律人格的或者说是法律人格的减等。更极端的可以拿人与动物做比较,动物是没有思考的能力的,他们的一切行为只是作为生物本能的驱使,因此也不具有法律人格。
综上所述,从法理论上来说,法律主体必须具备权利义务能力和自由意志能力,唯有如此才能成为受法律认可的“人”,而不仅仅是类似于“物”的客体。从性质上讲,前者属于规范条件,而后者属于事实条件。在逻辑上,事实条件构成了规范条件的前提,因为“行为若要取向于应当,则必须在自然条件下是可能的”[4]。换句话说,只有具有自由意志的实体,法律才应当赋予其主体资格。但是,这种前提只是必要而不充分的,即不一定对所有拥有自由意志能力的实体法律都必须赋予其主体资格,其中还需考虑到具体的社会制度和法律制度。仍沿用上文的例子,在奴隶社会中,奴隶并非不具备事实条件,而是未满足规范条件,这取决于其所处的具体法律制度。所以,在检验一类实体是不是法律上的“人”时,应当依次检验事实条件和规范条件,同时还应当考虑当时所处的具体社会、法律制度,只有同时具备这两个条件时,才能赋予其法律人格。
3. 人工智能的行为能力的渐进式获取
在谈论人工智能的法律主体资格时,相对直观的论证是与其他事物进行比较,通过其他参照系确立来安放自身。一种比较是与法人、动物等存在进行横向比较,另一种是与人类中的限制行为能力人进行比较。
3.1. 横向比较:人工智能与法律拟制人格、物的比较
首先,与法人作比较。法人具有法律主体资格是一种法律拟制的结果[5],他是自然人的集合体。在日常的生产经营中,为了方便各个团体之间的交易活动,组成这些团体的自然人将自己的权利和义务都归于一个“人造人”之上,代替自己实现权利和履行义务。当然,这些权利和义务就变成了该“人造人”的,与组成该团体的每个自然人就没有直接的关系了,即使这些权利和义务与他们息息相关。团体通过章程来建立自己的规范性秩序,它规定由个人来行使特定的功能,这些个人是为了实现这些功能以团体章程规定的方式所任命的,比如法人代表。假如这些个人依据章程规定的内容来采取行动,那么这些行为就可以归为作为法人团体的行为。法人并不是某种实际存在的物或者实体,而是一种为了简化和更直观地展示复杂法律事实而由法学建构出来的思维工具或辅助性概念[2]。由此可见,法人满足了法律主体的事实条件和规范条件,因此法人是具有法律人格的。
其次,与动物作比较。动物与人类的相同点是,都是具有生命的自然生物,经过训练可以做出一些条件反射性的动作,也可以做出一些基于本能的行为。目前,世界各国都没有对动物的法律地位给予认可,但是一些动物保护主义者一直以来试图在“动物权利”的名义下赋予动物以自然人一样的法律主体地位[6]。同样,还是根据其是否具有事实条件和规范条件来判断动物是否是法律主体。因为动物的行为要么是经过训练,要么是出于原始本能,也就是动物不具备自我思考,自我学习和适应周围环境的能力,因此可以判断动物是不具备自由意志的;另外,迄今为止,没有一部法律是专门针对动物的权利与义务所制定的,主流观点并不认为动物应该享有和人类平等的地位。基于这两点可以知道,动物既不具备事实条件也不具备规范条件,也就不具有法律主体资格。
3.2. 纵向比较:人工智能与婴儿、精神障碍者的比较
首先,人工智能相对于人类整体而言,无论是在出现的历史维度还是对信息的原初创造层面来讲都算是“婴儿”。在发展出认知科学意义上的“自我意识”之前,人工智能就如同人类刚出生的婴儿一样,都需要后天的学习和适应对周遭世界逐渐产生认知,并与世界产生联系。婴儿在不同国家的法律地位不尽相同,我国《中华人民共和国民法典》对胎儿的财产权规定只限于继承权,婴儿为无行为能力人,但是具有权利能力,即享有基本权利(包括生命权、健康权、人格尊严、人身自由等等)。由此可见婴儿相对于成年人来讲属于特殊阶段的特殊主体。人工智能机器人能否获取类似婴儿的法律地位,还需要从人工智能的功能来讲。人工智能的优势在于,获取信息的方式是单向的、获取信息的内容是多样甚至驳杂的(当然与开发者以及使用者的偏好有关)、获取信息的强度是不受限制的(只要有电能和其他硬件设施,人工智能几乎可以无限制地输入)。这些都说明了人工智能机器人的功能性价值。而有学者认为法律主体资格与主体资格并不能完全等同,“主体”是“原始事实”,而“法律主体”是“社会事实”[7]。
其次,人工智能相对于精神障碍者来讲,在法律上的地位看似没有可比性,实际上存在相似性。精神障碍者的特殊之处在于他们的认知和意识出现了一定程度的病变,这种病变甚至会产生“躯体化”现象。精神障碍者对自身行为的认知和控制能力不足,导致他们对自身的行为很难说是出于自身的意志做出的,因而此类人群的行为能力和责任能力都受到不同程度的削减。人工智能在这个意义上与精神障碍者类似,人工智能机器人的行为都是受到开发者、使用者的指令做出的,即使是所谓全自动人工智能也是受到前置性算法完成各种行为的。
综上,从横向比较来看,人工智能机器人与法人和动物相比其实更接近动物,因为就目前来看,人类把人工智能和动物都归为“物”一类,而法人是法律拟制的“人”。事实上,有学者认为,与公司的拟制人格不同,智能机器人并不是拟制实体,基于该类主体的利益与其他主体的利益,需要赋予这类主体法律人格[8]。机器人是否是“人”,这在法理上涉及民法体系中的主客体二分法的问题。前面已经说过法律主体的概念,而凡是人以外的不具有精神、意志的生物归属于“物”,是权利的客体。如果赋予人工智能法律主体地位,会使这种不可逾越的鸿沟发生动摇[9]。从基因时代到智能时代的一个重要变化是,传统民法的主、客体框架正在被打破,人的遗传基因不能简单作为客体物看待,而没有生命但是具有人工智能的机器人也有可能被赋予法律人格。但是,将人工智能机器人看作是“人”在现有的民法中难以得到合理的解释。与其说人工智能机器人可以被赋予法律人格,不如说人工智能机器人具有工具型人格。“由于智能机器人不仅具有有限的法律人格,因此智能机器人的本质是为了人类生产生活服务的工具(即以人为本),这就是智能机器人发展的首要原则,也是建立智能机器人监管整体框架的首要指导原则。”[10]从纵向比较来看,婴儿和精神障碍者都具有不同程度的不完整的法律人格,这种梯度式的法律人格代替了以往的“意志论”法律人格,将哲学层面的主体与法律层面的法律主体相区分,因此在这个意义上,人工智能机器人或可在有限的范围内享有梯度性法律主体资格。
4. 人工智能的民事和刑事法律地位
人工智能分为三种形态,即弱人工智能、强人工智能和超人工智能[11]。弱人工智能是指由人类程序员事先制定算法规则,由人工智能系统依照预定的规则来处理相关问题。弱人工智能的典型是专家系统模拟法律活动中与规则相关的某些内容[12]。基于规则的系统,计算机程序要做的是将复数的规则以相应的权重联系在一起。只要在输入端事先确立了这套规则系统,且根据个案的情况输入参数,那么原则上就可以得出清晰的结论。与之不同的是,强人工智能是一种“合成智能”,它能综合运用机器学习、神经网络、大数据、认知系统、演进算法等要素,有可能突破程序员编排它做的事的局限[13]。它有深度学习的能力,能够根据数据库中给定的数据样本总结归纳出普遍性的特征,并以此来辨别新的样本。弱、强人工智能的运作基础都是“基于规则的逻辑”,只不过前者的规则是由人类事先规定的,而后者的规则是由智能系统根据经验样本自行“创设”的。超人工智能则已经超越了具体规则的层面,而能够在整体层面进行决策和思考。它产生了和人类完全不一样的知觉和意识,使用和人类完全不一样的推理方式,但是在处理问题的能力上不低于人类甚至超出人类水平,因而也就不必完全服从于人类的指令而可以自主运行。超人工智能不仅在哲学上存在巨大的争论,涉及思维与意识等根本问题的讨论,在技术上的研究也具有极大的挑战性。迄今为止的人工智能系统都处于弱人工智能或者强人工智能的阶段,即只能实现特定功能的专用智能。美国私营部门的专家及国家科技委员会比较支持的观点是,超人工智能至少在未来几十年内难以实现[14]。基于超人工智能的“缥缈性”,在此处不作讨论;弱人工智能的知识、算法等都是人类事先设定好的,其得出的结果也是人类的意识活动导致,而不是它自己的“意识”导致,因此弱人工智能不具有法律地位,它仍然是“物”(目前大部分人工智能处于此阶段),在此也不作过多的讨论;强人工智能相对于弱人工智能最大的区别就是它可以深度学习,根据自己的意志“创设”一些新的算法或者知识,在一定程度上具有了“自由意志”,具有讨论的必要性。
强人工智能被认为具有五个特征:与他人交流的能力、内部知识(关于自身的知识)、外部或外部世界的知识、某种程度上的意向性(达成特定的目标)和创造性[15]。基于这五大特征,有学者建议为机器人创造出“准人格”或者“临界地位”[16]概念,因为它们只会享有部分权利和义务,例如只是赋予它们工具型的人格。智能机器人的工具型法律人格其实依旧是以人类为中心所创设的,毕竟它归根结底是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定智能机器人的发展必须遵循“以人为本”价值原则,以保护、不侵犯人类权利为基本底线。著名科幻作家阿西莫夫(Isaac Asimov)提出的机器人学三大原则是:第一,机器人不得伤害人类,或坐视人类受到伤害而袖手旁观。第二,除非违背第一法则,机器人必须服从人类的命令。第三,在不违背第一法则及第二法则的前提下,机器人必须保护自己[17]。因此,智能机器人的发展不能凌驾于人类之上,甚至不可能与人类价值齐平,立法者和执法者应当确保智能机器人不被滥用,法律必须在公民权利与新兴技术发展之间寻求平衡[18]。一般而论,人工智能机器人法律人格的有限性主要体现在:其一,行为能力的有限性,工具性人格首先意味着人工智能机器人的行为能力是有限的,其行为应当受到使用或者占有者的最终控制。其二,权利义务的有限性,人工智能机器人作为工具性主体并不享有伦理性人格或身份权,而是享有经济性的财产权利以及承担义务。例如,人工智能机器人可以签订合同,对某种物品享有所有权等。其三,责任能力的有限性,人工智能机器人的责任能力与自然人、法人、非法人组织的独立责任能力不同,虽然其可以独立参与到民事活动中来,例如,智能机器人工智能机器人可以独立参与到公司管理、签订合同等司法实践中,但是其承担的责任却是有限的,这就表明人工智能机器人只具备有限的责任能力。
根据以上三种权利,我们可以讨论一下,强人工智能是否享有著作权。目前还没有强人工智能的存在,为达到比较直观的效果,我还是以近现的事件为例。2017年微软小冰“创作”的诗歌集《阳光失了玻璃窗》,虽然根据微软公司的说法是“人工智能创造的产物,须能成为具有独立知识产权的作品,而不仅仅是某种技术中间状态的成果”,但实际上,微软小冰的创作是基于它的创造者在前期对其进行的数据、知识、算法等要素的灌输和设置和对已有的艺术作品的集合进行学习,微软小冰的创作并非其自身意志的体现,而是一种大数据的应用,虽然在一定程度上具有“独创性”,但不具有“主观能动性”。微软小冰目前仍然只能模仿人类,还是属于弱人工智能的范畴,因此不能享有法律主体地位,也无法享有著作权。关于微软小冰这种人工智能是否享有著作权问题,吴汉东教授指出可以参照职务作品等已有制度的规定[19],我认为此说法仍然值得商榷,因为如果将人工智能类比为单位职工,那么就变相地赋予其独立的法律人格,这显然与事实不符。2025年,美国版权局发布了《关于生成式人工智能输出的可版权性报告》,该报告第二部分(《可版权性报告》)的核心内容是,版权局对生成式AI产品(生成式AI)的输出结果是否具有版权特性持总体怀疑态度,因为其缺乏足够的人类表达控制。然而,随着科技继续发展,出现强人工智能,它具有独立的外部知识,可以像人类一样以自己的意志进行创作,虽然它的行为能力具有有限性,但是它可以享有著作权中的财产性权利和有限的精神性权利,其法律责任根据其享有的权利的有限性也将是有限的,具体是怎样的逻辑构架以及有限性的“边界”在何处,这就需要在以后的若干时间里总结实践经验,通过立法来规制。
人工智能的民事行为能力受到限制,那么其刑事责任能力又如何呢?以智能无人驾驶汽车为例,如果发生对自然人的碰撞等交通事故,谁该对由此产生的刑事责任负责呢?我认为出现这种事故时,不能单纯地将责任归于机器的制造者或者机器人本身。强人工智能机器人是具备独立的意识的,也就是说是脱离了人的控制的。虽然其软件是由其制造者开发的,但制造者不应该对机器人的行为承担刑事责任,除非有充足的证据证明该事故的发生是由于软件自身的错误(过错责任原则)。然而这样便产生了问题,也就是说我们只是以客体的思维或者逻辑解决未知领域存在的问题,存在严重的理论缺陷以及实践不足。机器人有限性的人格虽然会使它拥有一定的财产,但是仍然不足以让它承担刑事责任。具体的解决机制需要机器人的制造商与政府、社会之间建立一种保险和信托制度,即当严重的刑事案件发生时,受害人可以获得一定的赔偿。除此之外,可以通过加大对人工智能方面的开发力度,研发出有效防止智能系统的人格精神要素受到其他自然人或外界的有害妨害的技术[20],从而可以从源头上防止人工智能刑事犯罪。2021年5月,德国联邦议院和联邦参议院批准通过《自动驾驶法》(Gesetz zum autonomen Fahren),在《道路交通法》与《机动车强制保险法》的基础上修订新增L4等级自动驾驶,并明确了相应的责任和义务。
5. 结语
赋予机器人法律主体资格,看似是打破了严格区分主客体的现代民法体系,其实是一种以法律的视角对未来的科技发展的一种客观的态度。随着人类社会从基因时代迈向智能时代,昭示着主体制度迎来了跨时代的转变,即人的遗传基因不能作为简单的客体物看待,没有生命但具有“智能”的机器人也应当被赋予有限的法律人格。不否认现在提出这种主张会对主流学说和社会的传统观念产生强烈冲击,但是人类历史上经常有某些种族或人群被排除在某些权利之外,在相关群体争取到他们的某些权利之前,人们同样觉得给他们相应的权利是不应该的。法律在它被制定出来的那一刻就已经落后于时代了,现在做的这种看似超前性、前瞻性极强的研究也许就会在未来得到实现。在未知的未来,我们人类应该在保持自己中心地位的同时,欢迎和接纳机器人这个新“族群”。需要补充的一点是,人工智能的发展不仅大面积应用于民用科技,各国之间的人工智能也早就参与到了国防和军事领域。人工智能“自主武器”(LAWS)的出现要求各国应当开展对话、合作,一起参与到人工智能安全治理的行动中来。我国在2022年向联合国提交了《中国关于“致命性自主武器系统”问题的工作文件》,其中详细说明了我国的立场和具体举措以及相关建议,彰显了大国风范。