人工智能体的刑事可罚性研究
Research on the Criminal Responsibility of AI
摘要: 人工智能技术的发展带来了相关的人工智能体犯罪,人工智能体是否可罚,如何处罚成为亟待解决的问题。在学界普遍认可的人工智能体分类的基础上,弱人工智能体因不具备自由意志、不拥有一致的权利义务,不能被认定为刑事责任主体,只能以间接归责模式追究其背后行为人的故意或过失责任;强人工智能体具备自由意志、拥有一致的权利义务,可被认定为刑事责任主体,以直接归责模式追究其自身的故意或过失责任,适用相应的生命刑、财产刑和资格刑。
Abstract: The development of artificial intelligence technology has brought about the related crimes of artificial intelligence. Whether the artificial intelligence can be punished and how to punish it have become urgent prob-lems to be solved. On the basis of the generally accepted classification of AI, weak AI cannot be rec-ognized as the subject of criminal responsibility; because they do not have free will and do not have consistent rights and obligations, they can only pursue the intentional or negligent responsibility of the actor behind them in the indirect imputation mode. Strong AI with free will and consistent rights and obligations are recognized as the subject of criminal responsibility, in the direct imputa-tion mode, investigates its own intentional or negligent responsibility, and applies the correspond-ing life penalty, property penalty and qualification penalty.
文章引用:杨梦竹. 人工智能体的刑事可罚性研究[J]. 争议解决, 2022, 8(3): 664-671. https://doi.org/10.12677/DS.2022.83089

1. 人工智能体刑事可罚性的问题缘起

(一) 人工智能相关概念的界定

1) 人工智能和人工智能体的定义

人工智能这一概念由20世纪50年代的达特茅斯会议提出,认为“人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的科学技术”。人工智能体则是独立存在的具体运用人工智能技术实现智能思维、推理等活动的行为载体。人工智能和人工智能体是技术和载体的关系,而且人工智能体的这一“载体”的概念,不仅指有实体的智能机器人之类,还包括无实体但同样独立存在的智能体,如苹果的Siri和微软的小冰。

2) 人工智能体的划分

对于人工智能体的分类,最为普遍的划分是以智能水平的高低为标准,代表学者如刘宪权、高铭暄、马治国、约翰·塞尔等,尽管不同的学者划分的层级不同、各层级人工智能体的定义不同,但内涵统一,大致归纳如下:① 弱人工智能体,尚未具备自由意志,但是具备解决特定问题的能力,擅长某一领域,通过一定的自主学习,可以在该领域超越人类,如阿尔法狗;② 强人工智能体,具备自由意志,能够独立思考,按照自己的目的行为,在各个领域都可以如人一般活动;③ 超人工智能体,已经跨过“奇点”的人工智能体,突破了人脑的限制,在所有的领域都超越了人类。

虽然笔者承认超人工智能体的可能性,也无法否定超人工智能体的出现会给人类社会带来未知的风险,但是风险不等于现实紧迫的危害,现阶段研究超人工智能体是科幻的和无法预测的。研究只有立足于现实土壤,才具有适用价值,由此,本文重点研究现阶段存在的弱人工智能体和伴随着科技发展新生的强人工智能体的刑事可罚性问题。

(二) 人工智能体的犯罪现状与现实应对

1) 人工智能体的犯罪现状

早在1983年,奥古斯特就提出了“从乱穿马路到谋杀”的机器人犯罪形式。现如今,人工智能技术的不断发展带来了社会生活的巨大改变,出现了自动汽车、自动工厂机器人、智能聊天系统等解放人类双手和可以倾诉情感的人工智能体。但科技是把双刃剑,人工智能体近年来带来了诸多不稳定因素,犯罪行为逐渐暴露,曾发生多起机器人杀人案件,如日本广岛的切割机器人将工人切割1、德国大众汽车制造厂的机器人将工人碾压在金属板上2、围棋大师被机器人电死3;财产犯罪亦有如家务机器人烧毁主人房子的案件4;此外还有智能聊天系统散布不正当言论案件5等。由此能否对人工智能体进行刑罚处罚,如何对其进行刑罚处罚已经成为了当今热议的话题。只有解决人工智能体的刑事可罚性问题,才能保证刑法的稳定性和权威性;实现罪责自负,责任在人工智能体及其背后的行为人之间的公平分配;以最大可能地减少人工智能体所带来的恐惧。

2) 人工智能体犯罪的现实应对

2016年10月,美国白宫公布了《为人工智能的未来做好准备》和《国家人工智能研究和发展策略规划》两份报告。同年,欧盟率先对人工智能法律地位问题展开立法研究,形成了《机器人民事规范》的最终决议。我国也在2017年7月20日发布了《关于新一代人工智能发展规划》,将人工智能体的法律主体地位、权利和义务以及责任的明确提上日程。因此现阶段做好人工智能体的刑事可罚性研究,将为国家的政策和立法打下坚实的基础。

2. 人工智能体刑事可罚性的理论争议

在人工智能体的可罚性的认知上,现有的观点主要是肯定说(主体说)和否定说(客体说)的争论。实证法中,法律主体指法律关系的参与者,享有权利并承担义务的法律实体;法律客体与主体相对,是其权利义务所指向的对象。法律主体具有可罚性,相反法律客体不具有可罚性依据。肯定说承认人工智能体的刑法主体地位,认为对其能够进行刑罚处罚,否定说则相反。

(一) 否定说

1) 工具说

持工具说的学者认为,人工智能体仅仅作为人类行为的工具而存在,其反映人类的需要,是人类行为的延伸,不具备自我行为的能力。如学者郝铁川认为,人工智能体属于生产力组成中的劳动工具,从唯物史观来讲,生产力是社会发展的根本动力,在生产力的组成中只有劳动者居于支配地位 [1]。他认为,人工智能体从根本上缺乏内源性的行为能力和权利能力,更没有辩证思维能力,其以人类工具的形式存在和作用。

2) 权利与责任一体说

Aishwarya Limaye认为,人工智能体不能作为责任主体,权利的享有是义务履行的基础,不履行义务而产生责任。而人工智能体并不享有宪法基本权利,如美国宪法中的诸多权利,言论自由权、携带武器的权利等 [2]。因此人工智能体不能对等的承担义务,更没有责任产生的依据。

3) 道德能力缺乏说

道德能力缺乏说提出,刑事可罚性主体必须具有道德认知,明知道德不允许而去行为才具有可罚的必要。而人工智能体的道德模式产生于背后的人类,不是其自身内生的道德观念,在此种道德的指引下造成危害后果,该责任理应归于发明创造人工智能体的人而不是作为执行者的人工智能体 [3]。

(二) 肯定说

1) 电子代理人说

“电子代理人”的概念最早出现于2017年2月通过的 《欧盟机器人民事责任法律规则》,《美国统一电子交易法案(修订稿)》中也明确定义“电子代理人”,指不用经过行为人的审核,便可以自动的发起某种行为或进行电子记录的电脑程序或自动化手段 [4]。即电子代理说将人工智能体视为行为人的代理人,人工智能体与人的关系即代理人和委托人的关系。

2) 有限人格说

袁曾在其《人工智能的有限法律人格审视》一文中提出了人工智能体的“有限人格说”,他虽然承认人工智能体具备法律人格,但同时指出因为人工智能体不像完全刑事责任能力人,他仅仅能够承担部分的行为后果,责任能力有限,其只能适用一种特殊的责任制度,即人工智能体具有的法律人格是有限的 [5]。

3) 人格拟制说

人格拟制说采用法律拟制的方式,类比将公司拟制为法律主体的论证,将人工智能体拟制为法律主体,使其具有法律上的权利和义务 [6]。代表学者如Gabriel Hallevy和F.Patrick Hubbard。

3. 人工智能体刑事可罚性的法理基础

人工智能体是否可罚是学界争议较大的问题。从现行刑法看,仅明确了自然人和单位的可罚性,由此许多学者通过对比人工智能体与自然人和单位的不同属性否定了人工智能体的可罚性;从学界观点看,依据现有的肯定说和否定说,学者们的矛盾焦点主要集中在人工智能体是否具有自由意志和能否权利义务对等以独立实现刑罚上。本文将通过对自由意志和权利义务一致性的探讨判定人工智能体的刑事可罚性。

(一) 人工智能体的自由意志探究

1) 自由意志作为可罚基础的依据

道义责任论认为人类之所以成为犯罪主体,是由其自由意志决定的。人因为具有自由意志能够在善恶面前自主选择,当其明知所为为恶或者所为被禁止时而去做,就产生了可谴责的依据。古典学派的意志自由论包含相同的观点,“人人都有为善避恶的自由意志,犯罪是邪恶的,有自由意志的人可以避免它而竟敢于实施恶行,因此犯罪出自于自由意志。” [7] 行为人只要具有自我决定的能力,可以决定恪守法纪、抵抗非法,而自己选择法律所禁止的行为,就应当被谴责。

2) 强弱人工智能体自由意志的判定

人工智能体的核心是由“硅”组成的芯片而人类则是由“碳”组成的大脑,人工智能体与人脑产生自由意志的机制确有不同。人类意识的形成源自超高数量级的脑细胞互相传递脑神经信号,量变引起质变的化学结果。而人工智能则是通过编程技术、遗传算法或人工神经网络运作,产生自由意志。若将自由意志产生的机制作为标准,人工智能体不具有自由意志则成为了一个当然命题,不具有研究的意义,也不符合技术发展的趋势。作者认为以功能主义思维方式,即不论属性而看待结果 [8],来判定人工智能体是否具有自由意志是更为恰当的。

① 强人工智能体具有自由意志

从信息技术角度来说,强人工智能体的行为已经实现了从依赖程序到依赖算法的转变,其进步在于从执行“直线型”明确精准的程序发展到了执行“抽象性”的一系列规则指令,算法像是一个“黑箱”,运算的过程增加了强人工智能体的自主选择,从而使得开发者对于结果无法预测,而强人工智能体也有了归责的依据。同时,依赖大数据、云计算,强人工智能体拥有了深度学习的能力,也就是说强人工智能体的知识贮备来源不仅是输入式填充型,更多的将来自其在与世界建立联系过程中的自主获取,完全可以将其视为初生求索的婴儿。如若将大量的法律规范作为学习材料,其便可以产生规范意识。2017年,来自Open AI的一项实验结果表明,经过训练,人工智能体创造出了新的语言,并实现了相互之间的交流,而且这种对语言的理解,是人工智能体将单词与环境相联系而实现的,摆脱了庞大的语料库,这突破了“中文房间实验”。

从哲学角度来说,自由意志包括区分你我的自由意志、改造世界的自由意志和哲学反思的自由意志,林命彬在其《智能机器的哲学思考》中指出,人工智能体因为要保护自己的资源,才产生自由意志、学会反思 [9]。比特币和区块链的发展使强人工智能体拥有了自己的资源,促成了其自由意志的产生。

从生物学角度来说,2013年欧盟和美国便启动了“人类大脑计划”,尝试绘制人脑回路图谱,探究大脑信息处理的原理。法国的神经学家迪昂等人提出了神经元全局工作空间理论,试图模拟人脑意识的产生。在此基础上,强人工智能体通过“全脑仿真”模拟人类的思维方式以进行实践活动具有极大的现实可能性。

有否定学派提出,即使强人工智能体能够产生自由意志也无法通过手段证实。这本身便是一个伪命题,从哲学上来说,意识是客观存在的主观映像,主观见之于客观,主观意识能够通过客观表现来验证。因此强人工智能体的自由意志也能够通过其出于自身目的的行为来判定。

② 弱人工智能体不具有自由意志

弱人工智能体作为一种只能在预先设定的逻辑和程序下运行,具备一定学习能力但不能突破设定目标和特定领域的人工智能体,其体现的是行为人的意志,是人类意识的延伸,不具备自主意识。故研究其自由意志问题,旨在考虑其背后行为人的主观责任形态。由此应进一步将行为人的主观意识形态分为两种情形进行讨论:a) 故意犯:以犯罪为目的;b) 过失犯:不以犯罪为目的,这种过失包括监督过失、管理过失等 [10]。对此将在刑事归责模式部分具体阐述。

(二) 人工智能体的权利义务一致性探究

1) 权利义务一致作为可罚基础的依据

法律上的人是“抽象人”,是将现实生活中不同特点的人归纳为同一标准的人,法律上的人并不是在它的权利和义务之外的一个独立实体,而只是权利和义务的人格化统一 [11]。被法律所允许或授权的行为为权利,所禁止或要求的行为为义务,不履行义务才产生法律上的责任,承受法律的苛责。法律是人的权利和义务的规范。究其根本,无论是基于出生而具有法律主体地位的自然人还是基于有效成立而具有法律主体地位的单位,其都是因为享有权利和义务而产生归责可能,被法律认可为“抽象人”,而不是由其自身的构造、属性等生理物理特性决定的。

2) 强弱人工智能体权利义务一致的判定

① 强人工智能体享有一致的权利和义务

强人工智能体虽不具备肉体的生命,但他的存在依赖于设定的算法和数据,强人工智能体的“生命”便可以通过删除销毁其拥有的自主意识产生的核心数据等方式剥夺,其具有类似于人类的“生命权”;强人工智能体的财产权依赖于比特币和区块链技术的发展,比特币具有“去中心化”的特征,它的发行不依赖现实的货币机构,而是经过大量特定算法的计算生成,依靠区块链来完成所有的交易,并运用密码技术保证货币流通的安全。这一虚拟货币使得强人工智能体的财产权成为可能,强人工智能体可以通过高于人类数倍的计算能力获取比特币以增加自身的财富,这些比特币可以通过与现实货币的兑换,实现流通;同时强人工智能体智能的不断进化、社会对其认可度不断提高,将陆续拥有参与政治社会的权利,如现阶段已有公民“索菲亚”,甚至可以担任特殊的职位,如国家工作人员,拥有“身份”。在享有权利并具备自由意志的基础上,强人工智能体必须承担相应的义务,遵循社会规范和法律。

② 弱人工智能体不享有一致的权利和义务

弱人工智能体不独立于设计者所设计的程序逻辑存在,不享有自身独立的权利,更没有权利意识,其存在的目的完全是为人类服务。在不享有独立权利的前提下,弱人工智能体无法对等地承担义务。故可按照工具说将其视为人的所有物,在其使用中产生的权利义务由其背后的行为人全部享有或承担。

4. 人工智能体刑事可罚的模式和路径

(一) 人工智能体刑事可罚的模式

1) 直接归责——人工智能体的归责

以自由意志和权利义务的一致性作为判定标准,则强人工智能体具有刑事可罚性,弱人工智能体不具有刑事可罚性。

应当将强人工智能体作为完全刑事责任能力人在传统刑法体系内判定故意和过失,进行归责。如,强人工智能体出于自由意志杀人,应以故意杀人罪论处;强人工智能体过失杀人,应以过失致人死亡罪论处。值得注意的是,当强人工智能体受到病毒入侵或程序紊乱做出不符合其自由意志的犯罪行为,应当将其视作不具有辨认和控制能力的精神病人,不受刑法的谴责。弱人工智能体不具有归责的主体地位,只能视作犯罪工具,探究其背后行为人的责任。

2) 间接归责——人工智能体背后行为人的归责

人工智能体背后行为人的归责不仅针对弱人工智能体,即将其作为工具实施犯罪的行为;也包括强人工智能体,此时可能产生间接正犯、共同犯罪等问题。因此研究人工智能体背后行为人的行为,不应以强弱人工智能体划分,而应从行为人的主观目的出发,区分故意或过失的主观责任形态,对其进行归责。其中,在间接正犯、共同犯罪等情况下,将强人工智能体视作刑事责任能力人,对强人工智能体和其背后的行为人按照传统刑法规定进行分别处罚。

① 故意犯

人工智能体未人格化之前,仍作为一种科技产品进行研发、生产、流通、使用,因此研究人工智能体背后行为人的犯罪主要涉及到研发生产者、销售者和使用者。以犯罪为目的研发生产、销售或使用人工智能体,追究相关行为人的故意责任。

对于弱人工智能体,在行为人研发生产、销售或使用犯罪智能机器人的情况下,人工智能体仅仅是实现研发者、销售者或使用者犯罪目的的工具,如国内首例运用人工智能体侵犯公民个人信息的犯罪,黑客杨某利用人工智能体的深度学习能力,搭建了一个“快啊”打码平台,让其可以自动快速地识别图片验证码,绕过账户安全登陆保护,窃取个人信息。诸如此类案例,行为人出于自身的犯罪目的,利用弱人工智能体实施犯罪行为,本质上就是行为人自身的犯罪行为,可以根据行为性质,依据现有刑法体系内的相关罪名论处,如前述案例就应将其行为定性为侵犯公民个人信息罪。与此同时,行为人还可能同时触犯人工智能体的相关特殊罪名,对于研发生产者,不按照安全标准生产制造人工智能体,可能涉及到生产不符合安全标准的产品罪;对于使用者,利用人工智能体从事违法犯罪活动,可能涉及到非法利用信息网络罪等。

对于强人工智能体,人工智能体是实现行为人犯罪目的的伙伴或者“间接正犯”利用的工具,相关人员的故意责任形态不变,如上所述。但同时因为强人工智能体自主参与实施了犯罪,故应依据犯罪中强人工智能体的主观方面,处罚拥有自由意志的强人工智能体,实现对相关人员和强人工智能体的双罚。

② 过失犯

不以犯罪为目的研发生产、销售或使用人工智能体,但却造成了严重后果时,应追究相关行为人的过失责任。

根据我国《刑法》第15条第1款的规定,犯罪过失包括疏忽大意的过失和过于自信的过失,两者均为行为人违反了相应的注意义务,导致危害结果的发生。《产品质量法》第13条对可能具有人身、财产安全危害性的工业产品提出了三个质量标准要求,即国家标准、行业标准和必须符合保障人体健康和人身、财产安全的要求底线。人工智能体作为一种产品同样应符合上述标准,由此人工智能体背后行为人的注意义务主要来源于国家标准、行业标准和底线要求的风险禁止,如研发生产者、销售者和使用者的安全保障义务。若行为人应当预见上述风险,因疏忽大意未预见或者已经预见而轻信能够避免,导致危害结果的发生,应当承担过失责任。

依据智能水平的不同,相关行为人与强弱人工智能体的关系紧密度不同,弱人工智能体与相关行为人类似于管理者与被管理对象的关系,弱人工智能体虽存在一定自主性,但尚不具备自由意志,最终仍被行为人所掌控,实现行为人的预设目标,此种关系较为紧密,所以在弱人工智能体犯罪的情况下,行为人如若存在过失,应被认定为“管理过失”;强人工智能体与相关人员类似于监督者与被监督对象的关系,强人工智能体由于产生了自由意志,其成为了独立的个体,可以自主选择行为方式,实现自身的行为目的,但是其存在或行为内源于行为者的编码或指令,这种关系虽宽松却不能排除,在强人工智能体犯罪的情况下,行为人如若存在过失,应被认定为“监督过失” [10]。在罪名上,可以依据人工智能体的犯罪行为,对行为人认定为相同罪名的过失犯罪,或者增设人工智能体事故罪,旨在规制人工智能体背后行为人的过失犯罪行为。

值得注意的是,人工智能体的发展必然伴随着无法预见的风险,如果不欲阻碍人工智能体的发展就必然需要对一定的风险做出妥协,所以对无法预见的风险和“可被容许的风险”,我们将其排除在风险禁止之外,若产生危害结果,只能将其视作意外事故。同时,不能忘记信赖原则,以合理排除具有信赖保护利益的行为人的责任,实现责任的公平分配,如操纵医用人工智能体的行为人合理信赖其他医护人员的恰当配合,对其他医护人员不当行为导致的手术失败不承担过失责任。

(二) 人工智能体刑事可罚的路径

我国传统刑罚体系中存在四种类型的刑罚——生命刑、自由刑、财产刑和资格刑。弱人工智能体由于刑事责任由其背后的行为人承担,则对行为人在传统刑法体系内进行刑罚处罚。因此本部分仅对强人工智能体的刑罚方式提出设想。

1) 不适用自由刑

物理形态并非人工智能体的必备要素,微软的小冰和苹果的Siri同样是人工智能体,我们无法对一个虚拟实体进行拘禁以实现自由权的剥夺;而且,如德国刑法学家李斯特所认为,犯人在执行自由刑的过程中感受到自己与社会割裂的痛苦,才是现代自由刑存在的本质目的,同时对国家来说,自由刑又起到矫正和教育犯人的作用,使其日后能够更好地进行社会生活 [12]。对于与世界联系模式区别于人类的强人工智能体,其无需现实接触就可以实现与社会的联系,无法施加自由刑以实现其与社会的隔离,以给强人工智能体带来脱离社会的痛苦,而对于矫正和教育,程序算法的修改删除功效更为显著。

2) 适用特殊的“生命刑”

强人工智能体虽不具备人类一样的实体生命,但其核心是以程序算法为基础的运行方式,可将程序算法当作强人工智能体的“生命”,故对其可实施由低层次到高层次的“生命刑”:删除数据、修改程序、永久销毁 [13]。即永久删除引发犯罪的数据,使其无再犯的依据;修改犯罪的程序甚至整体运行系统,实现强人工智能体的更新;永久销毁强人工智能体依存的程序算法和可能存在的实体。

3) 适用财产刑

强人工智能体的出现,仍是以为人服务为目的的,作为智能服务者,其没有属于自身的财产,也不需要现实货币。但是随着强人工智能体犯罪的可能不断上升,如何对受害者进行补偿成为了一个急需解决的问题,补偿责任全部由强人工智能体背后的行为人承担,不仅不符合罪责自负的原则,也加重了相关人员的负担。因此,使强人工智能体拥有财产权具有了现实意义。比特币和区块链技术的发展,使得强人工智能体拥有虚拟财产成为可能,他可以通过自身的计算能力获取比特币,通过比特币与现实货币的兑换,拥有可供处罚的财产,同时可以为其开设银行账户,以便承担相应的财产刑。

4) 适用资格刑

对于资格刑,当拥有自由意志的强人工智能体成为行为主体,参与社会生活的能力越强,被社会认可的程度更高,他将拥有越来越多的参与社会生活的权利,使得资格刑成为可能,如公民“索菲亚”。在这种情况下,可以对强人工智能体实施从业禁止等资格刑。

NOTES

1世界上第一宗机器人杀人事件发生于1978年日本广岛的一家工厂,一个切割机器人在切钢板时,突然发生异常,将一名值班工人当作钢板操作。

22015年《金融时报》报道,德国大众汽车制造厂中一个机器人突然“出手”击中了一个正在安装调试的工人的胸部,并将其碾压在金属板上。

3前苏联国际象棋大师尼古拉•古德科夫3:0战胜电脑后,被电脑释放强大电流电死。

4奥地利基希多夫的商人戈尔诺特•哈克尔购买的家务机器人烧毁了主人的房子。

5微软的聊天机器人Tay在Twitter受诱导散布了种族歧视的言论,上线一天被迫关停。

参考文献

[1] 郝铁川. 不可幻想和高估人工智能对法治的影响[N]. 法制日报, 2018-01-03(010).
[2] Limaye, A. (2017) Friend or Foe: Legal Rights of Artificial Intelligence. Boston College Intellectual Property & Technology Forum, BC INTELL.
[3] Hew, P.C. (2014) Artificial Moral Agents Are Infeasible with Foreseeable Technologies, Ethics and In-formation Technology, 16, 197-206.
https://doi.org/10.1007/s10676-014-9345-6
[4] 孙占利. 智能机器人法律人格问题论析[J]. 东方法学, 2018(3): 10-17.
[5] 袁曾. 人工智能的有限法律人格审视[J]. 东方法学, 2017(5): 50-57.
[6] 陈吉栋. 论机器人的法律人格——基于法释义学的讨论[J]. 上海大学学报(社会科学版), 2018, 35(3): 78-89.
[7] 马克昌. 近代西方刑法学说史[M]. 北京: 中国人民公安大学出版社, 2008: 50.
[8] 程广云. 从人机关系到跨人际主体间关系——人工智能的定义和策略[J]. 自然辩证法通讯, 2019, 41(1): 9-14.
[9] 林命彬. 智能机器的哲学思考[D]: [博士学位论文]. 长春: 吉林大学2017: 3.
[10] 刘宪权. 涉人工智能犯罪中研发者主观罪过的认定[J]. 比较法研究, 2019(4): 101-110.
[11] [奥]凯尔森. 法与国家的一般理论[M]. 沈宗灵, 译. 北京: 中国大百科全书出版社, 1996: 106.
[12] 刘仁文. 自由刑的使命与践行[N]. 检察日报(学术), 2016-06-23(003).
[13] 刘宪权. 涉人工智能犯罪刑法规制的路径[J]. 现代法学, 2019, 41(1): 75-83.