1. 引言
多年来,人工智能发展经历了“从寒冬到野蛮的生长”。伴随着庞大的信息量、云计算、物联网的涌现,接入网络的数字终端和传感器层出不穷,人机交互的多样化生活场景等新兴事物接踵而至,对人类社会产生了颠覆式的影响。人工智能的高质量发展,逐渐呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,引发了一系列的经济、社会、法律、道德伦理问题。2023年,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,指出提供人工智能产品或服务应当遵守法律的要求,不得含有侵犯知识产权等内容。为此,在人工智能已被广泛化规模化运用的背景下,在探讨解决由人工智能引发的一系列诸如著作权归属不明、隐私泄露、民事侵权、刑事责任不明等法律问题时,关于确定人工智能法律主体地位的研究刻不容缓,确立其是否具有民事法律地位,方能进一步对由人工智能引发的法律问题进行责任归属、应对措施的构思。探究人工智能是否具有法律主体地位的问题就是探究人工智能是否具有法律关系中享有权利、承担义务与责任的资格问题。
2. 人工智能法律主体地位现有理论
现阶段学界中就是否赋予人工智能法律主体地位这个问题各持己见,众说纷纭,呈现出严重的分歧和对立的状况,主流观点包括:“主体说”、“客体说”、“折中说”,下面分别对其进行归纳整合,梳理总结。
2.1. 主体说
持“主体说”的学者认为,人工智能技术的逐步发展会使其逐渐具有“自我意识”,而不仅仅遵循开发者、操控者赋予它的算法程序、执行命令等,拒绝承认人工智能具有法律主体地位,会带来人工智能行为边界与道德边界界限不明、人工智能知识产权归属不明、人工智能民事侵权、犯罪刑事责任认定不明等一系列的问题无法解决。“人工智能具备法律主体地位既是权利发展的内在规律,也是社会发展的必然趋势 [1] 。”主要代表学说包括有限主体说,拟制主体说。
2.1.1. 有限主体说
该学说认为人工智能享有的民事权利、承担的民事义务、负担的民事责任是有限的,即不具有完全独立承担民事责任的能力,人工智能的法律主体地位是有限的,区别于自然人主体以及法律拟制主体。
袁曾从人工智能的法律主体规制缺位这个角度,结合域外人工智能立法经验,有层次递进的指出人工智能应该具有有限的民事法律主体地位,并明确“刺破人工智能面纱”的归责原则,提出相应的监管措施,认为人工智能权利主体应是背后的控制人,人工智能仅具有有限的权利义务,更应适用特殊的法律规制标准 [2] 。许中缘认为法律工具主义为中心的权利与义务应是认定民事主体的法律标准,从实践基础与理论需求两方面指出赋予有限性人工智能法律主体地位的必要性,论证人工智能的法律主体的有限性体现在三方面:其一,行为能力的有限性;其二,权利义务有限性;其三,责任能力有限性,进一步明确人工智能的法律化构建路径,建立特殊的责任承担机制 [3] 。
由此可见,支持有限主体说的学者虽然认为人工智能具有法律主体地位,但这种主体资格是有限的,其合理性在于从人工智能的工具属性出发做出该论断,人工智能归根结底是人类创造出方便美好生活的工具,人类自身的权利优于人工智能,又为后续人工智能的立法构思、权责分配等问题留下了可扩大空间。
2.1.2. 拟制主体说
该学说认为人工智能具有类似于人类思维的自主意识,可以运用“拟制主体”的法律技术,像民法中赋予胎儿和法人那样,赋予人工智能拟制主体地位,以法律拟制的技术为出发点,解决人类社会中产生的各种关系,自古罗马以来,就是法律人不可或缺的技术之一。拟制主体的人工智能权利相比自然人主体会被限缩,但仍有自身的权利与义务,并承担相应的责任。
马驰从法律主体的理论出发,将法律主体资格划分为权利能力、行为能力、义务能力三类要素,认为人工智能可以成为像法人那样的拟制主体,不是作为实体而是作为某种说法,在法律思维中承担某些最终指向生物人的权利义务 [4] 。
杨清望、张磊从责任归结的角度,四方面论证了赋予人工智能拟制法律地位的必要性,包括:人工智能已作为一种“独立、真实”的存在;人工智能具有独立自主的行为能力和责任能力;赋予人工智能拟制法律主体地位是有效管控风险的必要手段,亦是基于人类对自我权利保障的需要。进一步提出运用法律拟制技术赋予人工智能拟制法律主体地位的要求:其一,应将涉及人工智能的法律关系纳入民法调整范围当中;其二,应当明确人工智能的拟制法律主体地位;其三,民法应当设置与人工智能有关的专门章节对有关人工智能的应用伦理等具体内容加以规定 [5] 。范进学认为,无论是弱人工智能或强人工智能,都具有某种程度或方面的法律主体资格,只有明确其法律主体资格,才能寻求其相关权利、义务和责任等问题的解决方案,从而为现在乃至未来人工智能体的发展提供解决之道 [6] 。
可以看出,拟制主体说支持以法律拟制的技术,赋予人工智能一定的法律主体资格,建立特殊的责任承担制度,为人工智能的发展提供法律主体基础。
2.2. 客体说
持客体说观点的学者认为,就当前社会的发展情况而言,赋予人工智能法律主体地位是不应当也没有必要的,认为人工智能只是一种“有用的工具”,人工智能只能作为民事法律关系的客体存在,而不是主体。主要代表学说主要有:工具说,特殊物说,软件代理说。
2.2.1. 工具说
工具说认为,人工智能归根结底不过是人类创造的智能工具,目的在于方便人类生活,以人类权利为中心,服从于人类的指令和安排,作为附属物、法律关系中的客体而存在。
吴汉东认为,人工智能的实质是“让机器从事需要人的智能工作”,是不具有实质生命的自然人主体,也区别于具有自己独立意志并作为自然人集合体的法人,与人类有意识,有目标的实施行为截然不同,机器人实施的行为不具备人的意识和思维,所以人工智能还不足以获得独立的民事法律主体地位 [7] 。刘练军指出:法律主体是必须且需要由法律调整的,是人从自然人变为社会人的必然产物,调整的是人与人、人与社会之间的关系,法律主体应该具有目的性、意志性、自律性。将并不具备这些特征的人工智能法律主体化,基于后果主义原理,该行为势必带来无法估量的严重后果给人类 [8] 。张驰从目的论的角度,探讨目前的人工智能尚不满足被赋予民事法律主体地位的条件,无法获得法律主体地位,但是考虑到其特殊性,应当作为特殊的法律客体,对症下药有针对性的制定法律保护和规制措施 [9] 。
基于上述内容,可以看出对赋予人工智能法律主体地位持反对意见的学者,大多是采取“技术工具论的策略”,认为人工智能仅仅作为技术类智能工具存在,在法律上予以特殊法律客体对待,而拒绝赋予其民事法律地位。
2.2.2. 特殊物说
特殊物说认为,人工智能与一般的物不同,鉴于其在智能上具有的类似人的属性,应当将人工智能界定为法律客体中的特殊物,进行特殊的法律规制。
刘洪华借鉴康德关于“人是目的”的价值判断理论出发,认为社会发展当下的人工智能尚没有发展出理性的意识,不能在民法上获得类似于自然人的法律主体资格,赋予其法律主体地位的原因不充分,应将其界定为法律客体中的特殊物 [10] 。杨立新从构成民法上的主体所必备的要素出发,认为构成民法上的主体,应当不仅具有人体和人脑的生理学要素、意识能力和独立意志的心理学要素,还应当具备独立社会角色的社会学要素,二者相结合。虽然人工智能具备一定程度上的意志因素和意识,投入到一定的社会关系中,但由于其不具备人体的机能和自主思考的意识形态之人脑,因此人工智能不应当具有法律上的主体资格 [11] 。
人工智能由于其不具备人体的机能和人脑,特殊物说将其拒之赋予民法上法律主体地位的门外,又因其具有“类人”属性,而将其作为民法上的特殊的物对待。
2.2.3. 软件代理说
该观点认为人工智能只作为一个媒介,承担信息传递和交流的功能,是软件代理,不具备成为法律主体地位的理由。彭诚信等认为,究其本质,人工智能的本质是算法,可以将其界定为软件,人工智能体则是人工智能系统与其载体相结合的产物,比如机械手、自动驾驶汽车等可能构成民法上的“物” [12] 。
2.3. 折中说
“折中说”认为是否赋予人工智能法律主体地位需要区分人工智能的强弱程度而决定,对于弱人工智能的法律主体地位应与法律客体相匹配,而对于强人工智能应当赋予其民法上的主体资格。
朱凌柯认为,“折衷说”的观点是从客观上考量人工智能行为与人类行为的差异性,对于弱人工智能,在现有法律的框架内可以有解决之法;对于强人工智能,应当从人工智能拟制权利的法律保留、道德权利的限度、行为效力的限度等方面分析赋予人工智能主体地位的限度问题 [13] 。
3. 现有研究评析
3.1. 现有观点比较分析
不论是“主体说”、“客体说”、“折中说”,学者们大多从三个方面对人工智能的法律地位进行论述。第一,人工智能是否可以独立;第二,人工智能是否具有自主独立的民事行为能力和责任能力;第三,确定人工智能法律主体地位是对人工智能风险进行控制的必要手段,进而提出相应的法律规制与构想。各个学说之间各有其合理性与不足之处。
持“主体说”观点的合理性在于,看到了社会的前进与人工智能的高强度发展趋势,人工智能由弱到强发展是一种显而易见且不可逆转的趋势,逐步具有自我意识和可能的行为能力,为了适应社会现实与经济法发展的需要,必须承认人工智能具有民事法律主体地位,赋予人工智能一定的民法上的权利,为之后的人工智能立法、权责归属问题提供了可解释的空间。其不足之处在于,提出的法律构思与路径有与当下社会现实脱节之嫌,在当下法律框架内能够解决人工智能带来的种种问题,是否还有赋予人工智能民事法律主体地位的必要性?
持“客体说”观点的合理性在于遵循“以人为本”的价值判断,充分保障人类的权利中心和法律结构、法律制度的稳定,认为人工智能只是为了方便人类更好生活的工具,而拒绝赋予人工智能民法上的法律主体地位。但该观点长远看来,不利于人工智能的长远发展,可能会大大限制人工智能科技的创造力,直接否定人工智能的法律主体地位,作为上层建筑的法律或缺乏对于人工智能立法的前瞻性和法律弹性。
持“折中说”的观点的合理性在于区分了人工智能的不同阶段,依据其智能水平从低到高可分类为弱人工智能与强人工智能。存在的不足在于对于是否赋予人工智能主体地位,在何种情形、何种范围、何种限度内赋予人工智能的法律主体地位,现有立法如何拟制路径与限度回应人工智能带来的风险问题,现有的理论与实践尚欠缺应有的回应。
3.2. 现有研究存在的问题
综上所述,通过梳理现有研究和文献,毋庸置疑,各位学者的上述研究成果对于厘清人工智能法律主体地位研究现状的问题有着重要非凡的意义,有助于发现该研究领域尚未涉猎或是研究欠缺的地方,总结、反思、分析从而激励下一步的研究。文章认为,现有关于民法视角下人工智能法律主体地位的研究存在的不足主要有以下三方面:
其一,研究对象不明。部分文献在认定民法上是否应当赋予人工智能法律主体地位的问题时,多针对人工智能法律主体问题泛泛而论,没有区分人工智能的水平,未明确所研究的对象是什么,人工智能研究应当包括强弱研究之分,在弱人工智能阶段,人工智能是否具有法律主体资格以及具有何种程度的法律地位需要研究;而在强人工智能阶段,人工智能的法律主体资格也将会是一个极其重要的议题;
其二,论证不充分。在论证人工智能是否成为法律主体时,多从思维意识、意志能力、行为能力方面,忽略了对权利和责任方面的论述,成为民事法律主体,不仅是具备民事法律资格的主体,还是享有权利、承担义务与责任的主体;
其三,法律规制欠缺理论与实践性。就是否赋予人工智能法律主体地位的问题提出的法律规制限度不明,缺乏一定的理论性与实践性,对于人工智能法律地位赋予到何种程度,拟制权利的法律保留、道德权利的限度、行为效力的限度等方面还欠缺。
4. 人工智能的法律主体地位
人工智能发展到如今已具备“类人”属性,其由弱到强的发展趋势已是不可逆转,尤其以ChatGPT为代表的生成式人工智能的出现,标志着人工智能技术的发展逐渐进入到强人工智能阶段。人工智能专家威尔齐格表示:“一代机器人正在迅速成长,一种能看能读、能说会道、能学会用甚至有感觉情绪的机器人即将问世 [14] 。”毫无疑问,在强人工智能时代,人工智能的法律主体资格问题是关于人工智能研究中不可回避的核心问题。综合对现有研究的梳理总结以及评述分析,文章认为现行法律框架以及制度设计足以规制弱人工智能,而对于强人工智能,则应当赋予其有限民事法律主体地位。下面通过:赋予强人工智能有限民事主体地位必要性、民事权利能力有限性、民事行为能力有限性、民事责任能力有限性四个方面,论证从民法上赋予强人工智能有限法律主体地位的合理性。
4.1. 赋予强人工智能有限民事主体地位必要性
当前人工智能的飞速发展,极大提高生产力水平,解放人类双手的同时,相应的也被应用到越来越多的领域,自动驾驶领域,医疗器械领域,物流服务领域,金融领域,个人助理领域等随处可见人工智能的影子,甚至由人工智能引发了一系列棘手的法律问题无从下手。可以预见到,以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境,从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境 [15] 。现行法律未对该类强人工智能法律地位做出规定,且缺乏相应的监管措施与归责体系,法治威严面临挑战。因此,赋予强人工智能有限民事主体地位有其必要性,厘定法律地位的问题之后,方能接下来进一步讨论责任归属的问题,更有利直接追责,保护受害者权利,促进公平与正义,找到人与人工智能之间的平衡状态。
4.2. 民事权利能力有限性
强人工智能的出现使得人工智能不仅仅是作为方便人类生活的工具存在,而是能够根据人类给出的设定以及程序,在该设定与程序的框架内进行思考和工作,部分独立的做出意思表示、控制行为。其所具有的“意志能力”是一种基于算法和程序的意志,区别于人大脑的思维活动。德国民法学家罗尔夫.克尼佩尔指出:“只有人格人是法律主体,人并非必然是法律主体” [16] 。
因此,法律资格的具备与否并非是要求能够具有自然人的意志,像自然人大脑一样思考,参考法律拟制主体——法人组织。法人组织是社会经济发展到一定阶段的产物,赋予法人以法律上的主体地位更有利于权利和责任的分配。人类必须跳出以人类自身为权力中心的认知体系,认真辩证地对待那些非自然人实体,承认未来强人工智能具备有限的民事权利能力。强人工智能民事权利的有限性体现在,它不能享有专属于自然人的某些权利,如:生命权、健康权、身体权;以性别、身份、亲属关系作为法律关系客体的权利,如:亲属权、配偶权等,但其可以享有名称权、名誉权、荣誉权等民事权利。
4.3. 民事行为能力有限性
生成式人工智能在实践中已起到了替代人类职业的作用,通过快速化决策的能力,已开始替代人工处理保险理赔、小病看诊、剪辑视频等重复性劳动 [17] 。尽管相对于自然人而言,强人工智能非碳基生命,亦非血肉之身,从本质上说是算法与程序的集合体,行为能力偏技术性,是人类智力的延伸,不能够摆脱人类给其设定的算法和规则,不能完全脱离人类的控制独立做出意思表示,否则将后患无穷。但同时强人工智能是基于算法与程序接收信息,经过加工处理,自主独立思考,运行程序,控制指挥自身行为,具备相当的认知能力与实践能力,能够不受自然人的完全支配而部分独立做出意思表示,法律应当承认其拥有有限的民事行为能力。
强人工智能所具备的这种部分独立做出意思表示、控制行为的属性决定了从民法上对其民事主体地位的认定只能是有限的,强人工智能只能具备部分享有权利、承担义务的能力,类似于法人与非法人组织。法人与非法人组织通过公司章程进行规制与做出意思表示,强人工智能通过算法程序规制自身并做出意思表示,如同刘云所言:“人工智能法律人格是智能社会发展中新型治理模式的选项,可以借用公司或财产法人等方式,设立新的法律主体,回应人工智能带来的法律问题和挑战” [18] 。强人工智能应当成为有限民事法律主体,具备相应的民事行为能力,有限度的享有民事权利,承担民事义务。
4.4. 民事责任能力有限性
基于上述对强人工智能民事权利能力、行为能力有限性的分析,可以得出其承担民事责任的能力也应是有限的,面对强人工智能带来的挑战,应当对其设立特殊的监管体系与责任承担方式,明确人工智能权利的边界以及法律保留事项。1950年著名“机器学人之父”阿西莫夫提出当机器人作为责任主体时所必须遵守的三项准则:1) 机器人不得伤害人类个体;2) 机器人必须服从人类的指令;3) 在不违反第一项、第二项准则的前提下,机器人须尽力保护自己 [19] 。
实际上,赋予强人工智能以民事主体地位就是为了其能更好承担民事法律责任而设立的,由于人工智能不像自然人一样拥有实质肉体与大脑思维,民法上的一些侵权责任承担方式,诸如赔偿损失、赔礼道歉等,对人工智能来说不具备实质意义。因此,对于强人工智能可以确立以责任分配为基础的侵权体系,由于人工智能承担责任能力的有限性,最终承担责任的主体应是其背后的设计者、生产者、操纵者,而对于人工智能本身规定一些特殊的责任承担方式,如重造程序、数据永久删除等,积极进行人工智能信息披露,建立覆盖全研发过程的严格监管体系,使得人工智能的发展始终在人类的可控范围内。
5. 结论与展望
人工智能的向前发展是社会进步、经济提升的必然产物,给人类生活、经济发展带来便利的同时也提出了难题,作为上层建筑的法律应当对其进行回应和规制。基于现实和强人工智能本身情况的考量,法律应当赋予其有限民事法律主体地位,使得人工智能有限享有权利、负有义务,更能有限度的承担责任,简化法律关系,守护无过错者的权利。这既是技术发展带给人类的冲击,也是人类更好维护自身安全的屏障。人类应当跳出以自身为权利中心的认知体系,以开放包容的姿态迎接新鲜事物,方能推动人类文明生生不息!