1. 引言
现如今,人工智能早已渗透在我们日常生活的方方面面。我们可以命令手机中的智能助手来打开软件,可以用扫地机器人来做家务,还可以用智能机器人来帮助饭店服务员上菜。人工智能的出现进一步解放了我们的双手,它们可以代替我们做许多繁琐的工作,为我们的生活带来许多便利。但是,近年来,人们对人工智能的态度逐渐由乐观转向了担忧。2016年,举世瞩目的“人机大战”中,韩国围棋选手李世石以1:4的成绩输给了AlphaGo [1]。同年,谷歌公司研发的无人驾驶汽车在进行路测时,由于定位导航故障与其他车辆发生了碰撞[2]。2023年初,火爆全网的生成式人工智能ChatGPT横空出世,一瞬间引起了全球学者的关注。但是,有些学生却利用其来撰写学术论文,引发了学术剽窃的问题[3]。由此可见,人工智能在给人类社会带来便利的同时,也带来了许多潜在的社会风险。
不仅如此,许多犯罪分子还利用人工智能实施一系列犯罪行为。人工智能在运行的过程中也会失去控制,从而对他人的人身安全和财产安全造成损害。而目前的刑法学界,对于涉人工智能犯罪的刑事责任主体还未厘清,相关的责任分配也不明确。因此,亟需进一步研究涉人工智能犯罪的相关问题,以解决科技发展带来的新型案件和问题。
2. 涉人工智能犯罪概述
分析涉人工智能犯罪,首先要明确人工智能的概念、特征及分类。其次,要明确涉人工智能犯罪的定义,了解涉人工智能犯罪的情形。最后,要分析学界对于涉人工智能犯罪的看法,了解不同观点之间的争议焦点。
2.1. 人工智能的概述
2.1.1. 人工智能的概念
关于人工智能的概念,最早可以追溯到二十世纪五十年代在美国达特茅斯学院举办的一次会议。在此次会议中约翰·麦卡锡提出:“人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。”[4]此后,虽然人工智能不断发展壮大,给我们日常生活中的一系列工作带来了巨大帮助,但是其定义仍未达成共识。有些学者从人工智能产生方式的角度为其下定义,还有些学者从其模仿人类思考的角度来下定义。结合各国学者的研究成果和个人的思考,笔者认为人工智能是由人类发明和创造,并按照一定的程序进行活动的程序或实体。
2.1.2. 人工智能的特征
近年来各式各样的人工智能不断地出现在我们的日常生活中,但归根结底人工智能具有以下几个特征:1) 人工智能究其根本是由人类设计的、以实现其一定目的的程序或实体。尽管人工智能以不同的形式出现在我们的生活中,但其本质上还是为人类服务、受人类的控制。2) 人工智能本质上是在模拟人的思维方式和行为。其之所以被称为“人工智能”,就是因为在一定程度上与人类具有相似性。判断人工智能的先进程度,就是要看其类人化的程度高不高。3) 随着科技的不断发展,人工智能具有一定的学习能力,甚至可以独立做出判断[5]。人工智能可以根据程序设定,主动学习数据库中的知识,这便是ChatGPT能够写出学术论文、AlphaGo能够打败李世石的原因。
2.1.3. 人工智能的分类
根据人工智能的自主性程度,我们可以将人工智能划分为辅助型人工智能、半操控型人工智能、自主型人工智能和强人工智能[6]。其中,辅助型人工智能、半操控型人工智能和自主型人工智能均可以被人类所控制,属于弱人工智能的范畴。而强人工智能则与它们不同,具有独立的意识,不受人类的控制。
辅助型人工智能是指能够辅助人类完成任务,能够完全受人类控制的人工智能。该类型的人工智能相当于一种“工具”,可以帮助人类从事复杂、高难度的工作。
半操控型人工智能是指在人类的帮助和控制下,能够具有一定自主性的人工智能。例如,扫地机器人、全自动洗碗机等。
自主型人工智能是指可以自主进行工作的人工智能体,其可以不受人类的帮助,但可以被人类控制。典型的自主型人工智能就是L3级自动驾驶汽车。
强人工智能具有独立的意识,可以在计算机设定的程序之外实施某些行为。在《黑客帝国》《2001太空漫游》等电影中,我们可以看到这类人工智能的智力已完全不输人类,完全可以按照自己的意识来进行活动。
2.2. 涉人工智能犯罪的定义与理论探讨
2.2.1. 涉人工智能犯罪的定义
涉人工智能犯罪主要是指与人工智能相关,利用人工智能进行犯罪、以人工智能为对象进行犯罪或人工智能失控从而引发犯罪的行为。既包括与弱人工智能相关的犯罪行为,又包括与强人工智能相关的犯罪行为。
根据目前的司法现状,涉人工智能犯罪发生的频率越来越高。有利用人工智能实现违法目的的行为,以人工智能为犯罪对象进行破坏的行为,还有人工智能失控后侵害他人人身和财产的行为。但是,由于人工智能的自主性程度不同,其参与人类决策的程度也不同。故涉人工智能犯罪的责任主体及责任分配较难厘清,给司法实践带来了新的困境。
2.2.2. 理论探讨
目前,学界对于涉人工智能犯罪的刑法规制,主要呈两派观点:
第一,不承认弱人工智能犯罪的刑事责任主体地位,但承认强人工智能的刑事责任主体地位。有学者提出,在弱人工智能时代,智能机器人在设计和编制的程序范围内实施严重危害社会的行为,实际上是研发者或使用者行为的延伸,应当由研发者或使用者承担刑事责任。但是,伴随着人工智能技术的成熟,未来的强人工智能与自然人相比,具有极高的相似性。它们可以像人类一样思考,具有独立的意识,可以自己做出决定,还可以通过不断地学习来适应人类社会的生活。因此,智能机器人在自主意识和意志的支配下超出设计和编制的程序范围实施严重危害社会的行为时,应将其作为刑事责任主体进行刑罚处罚[7]。
第二,完全不承认人工智能的刑事责任主体地位。首先,人工智能不具有辨认和控制能力,不具有意志自由。随着科技不断的发展,也许未来的人工智能将在辨认能力方面能够达到甚至超过人类水平,但就控制能力而言,人工智能将永远处于“零”的状态,因为其既不能外在强行地输入“意识”,也不能内在自发地生成“意识”[8]。其次,承认人工智能的刑事责任主体地位,会使得部分主体利用人工智能摆脱责任。人工智能体刑事责任主体地位一旦形成,将极大鼓励“有组织不负责任”现象的产生并导致归责的缺憾[9]。最后,人工智能本质上是人类的工具,没有必要讨论其刑事责任主体资格。无论是当下的弱人工智能或是设想中的强人工智能,智能技术的使命是服务于人类生产与生活,其刑事责任主体资格的设想不具有现实可行性[10]。
综上,两派观点在“弱人工智能不具有刑事责任主体地位”这一点上没有太大的分歧。但是在涉强人工智能犯罪中,是否承认强人工智能的刑事责任主体地位成为了争议焦点。此外,对于涉弱人工智能犯罪中刑事责任的具体分配和划分也没有太多的提及,有待进一步研究。
3. 涉人工智能犯罪的刑事责任主体之厘清
如前所述,对于涉人工智能犯罪的刑事责任主体,学界还尚未形成定论。笔者认为,根据人工智能自主性程度的不同,我们应当对不同类型的人工智能进行分析,从而判断相应的刑事责任主体。自主性程度的不同,代表着人工智能参与人类决策的程度的不同,从而相应的刑事责任主体也不同。
3.1. 涉辅助型人工智能犯罪的刑事责任主体
这类人工智能实际上可以看做是一种“工具”,其本身并不具有独立的意识。因此,辅助型人工智能的研发者和使用者需要承担合理的注意义务,其在研发和使用的过程中应当遵守相关的产品质量标准和使用守则。
近年来,利用人工智能进行犯罪的案件屡见不鲜,最典型的便是全国首例“AI外挂”案[11]。在该案中,被告人先后组织多人编写AI外挂程序并向外出售,以此来牟取巨大的利益。其利用AI外挂中“cvcheat”等程序对多款游戏中游戏画面数据进行了未授权获取,对游戏中的多项指令和功能进行修改,破坏了游戏的规则和公平性,干扰计算机信息系统的正常运行,因此被告被判处提供侵入、非法控制计算机信息系统程序、工具罪。此外,人工智能在医疗领域的应用也越来也广泛。例如,手术机器人凭借其机械臂的精准度,可以在手术时帮助医生提高手术精度,使创口更小。但是,在使用手术机器人的过程中,如果机器出现故障且造成了医疗事故,那么相应的刑事责任由谁来承担便成了问题。
从以上两个案例来看,辅助型人工智能作为人类的一种工具,其本身不应当具有刑事责任主体地位,不应当承担相应的刑事责任。在笔者看来,辅助型人工智能的使用者对人工智能的运行具有合理的注意义务,应当承担主要的责任。例如,在AI外挂案中,被告人使用外挂程序来侵入游戏系统,破坏游戏的运行,以此来牟利,其本身就具有非法的目的。在手术机器人运行的过程中,医生及其他医护人员应当密切关注手术机器人的“一举一动”,防止其运行出现偏离和故障,以此来保障患者的人身安全。但是,人工智能的研发者如果有过错,也应当承担相应的刑事责任。例如,在AI外挂案中,编写AI外挂程序的研发者与被告人之间具有共同的破坏游戏运行的故意,可以构成共同犯罪,也应当承担相应的刑事责任。在手术机器人造成医疗事故的案例中,如果手术机器人的研发者存在重大过失,导致手术机器人本身存在缺陷从而引发医疗事故的,研发者同样也要承担相应的刑事责任。总而言之,对于涉辅助型人工智能犯罪,应当由使用者承担主要的刑事责任,研发者若有过错,也要承担相应的刑事责任。
3.2. 涉半操控型人工智能犯罪的刑事责任主体
半操控型人工智能需要在人类的帮助下运行,自主性较弱。家用的扫地机器人便是最典型的例子。扫地机器人在运行之前,使用者需要提前设置好扫地机器人的运行范围、清扫方式和清扫力度等,在运行过程中扫地机器人如果遇到了路障和台阶,会主动发出警报向使用者求助,使用者对该警报必须做出回应。因此,该类人工智能虽然具有一定的自主性,但其仍然需要使用者的帮助。故半操控型人工智能的研发者和使用者,同样需要履行合理的注意义务,遵守相关的准则。
实务中,已经发生过扫地机器人自燃的案件。2022年11月,刘某在某电子商务公司经营的某品牌扫地机器人专卖店购买了一款扫地机器人。2023年6月,刘某家中突发火灾,造成重大财产损失。经查,是由扫地机器人自燃引发的火灾。刘某遂起诉该电子商务公司,要求赔偿其财产损失。后经法庭调解,电子商务公司赔偿了刘某的财产损失[12]。显然,该案最终是由扫地机器人的销售方承担了相应责任,这也符合我国《民法典》第1203条有关产品质量责任的规定。但该案毕竟只是民事案件,试想一下,如果扫地机器人自燃导致人员伤亡或重大财产损失,则会产生有关刑事责任的问题。笔者认为,若要追究刑事责任,则不能由销售方承担,应当由扫地机器人的研发者或生产者承担。销售方毕竟只负责商品的销售,对商品质量只具有形式的审查义务。如果由其承担刑事责任,则对销售方太过严苛,违反罪刑相适应的原则。而扫地机器人的研发者或生产者对于产品的质量具有审慎的注意义务,在产品出厂前应当对产品进行反复测试、反复试验。扫地机器人自燃从而引发火灾,很大程度上是研发者或生产者的过错导致的,故研发者或生产者理应承担刑事责任。
但上述案例具有一定的特殊性,即使用者在该案中没有任何的过错,故不承担责任。但扫地机器人在运行过程中,如果与人发生碰撞致使人摔伤,或者碰撞后损坏数额巨大的财产,那么将如何追究刑事责任呢?笔者认为,应当分析研发者、生产者和使用者是否有过错,然后按过错来确定相应的刑事责任主体。若扫地机器人本身存在产品质量缺陷,且使用者也没有遵守相应的准则,则研发者和生产者要承担主要的刑事责任,使用者要承担次要的刑事责任,但如果使用者过错较小,也可只承担民事赔偿责任;若扫地机器人只是因产品质量缺陷而发生事故,则只由研发者或生产者承担刑事责任;若扫地机器人只是因使用不当而发生事故,则只由使用者承担刑事责任。
总而言之,对于涉半操控型人工智能犯罪,应当根据研发者、生产者和使用者的过错来分担刑事责任。过错大的一方承担主要的刑事责任,过错小的一方承担次要的刑事责任。
3.3. 涉自主型人工智能犯罪的刑事责任主体
自主型人工智能是指可以自主进行工作的人工智能体,其可以不受人类的帮助,但可以被人类控制。典型的自主型人工智能就是L3级自动驾驶汽车。根据我国工业和信息化部最新发布的《汽车驾驶自动化分级》推荐性国家标准,基于驾驶自动化系统能够执行动态驾驶任务的程度,可以将驾驶自动化分成0至5级。L3级自动驾驶汽车中,车辆运行和目标探测都由系统来完成,但驾驶员需要监视车辆运行情况并随时准备代替无人驾驶,这正符合自主型人工智能的特点。
L3级自动驾驶汽车在驾驶过程中,如果发生了交通事故,造成人员伤亡或重大财产损失,那么刑事责任如何厘清就成为了亟待解决的问题。自动驾驶汽车在运行过程中,驾驶人只需要设定一个目的地,剩余的车辆运行和目标探测都由系统来自动完成,而系统的运行则主要依赖于研发者和生产者。因此,笔者认为自动驾驶汽车引发的交通事故中,研发者和生产者要承担主要的刑事责任。自动驾驶汽车的研发者和生产者对于汽车应承担产品质量责任,确保汽车在出厂前符合相应的生产标准,以避免交通事故的发生。之所以有交通事故的发生,很大程度上是因为研发者和生产者在设计和制造汽车时存在着纰漏,没有发现汽车存在的风险和漏洞,没有尽到合理的注意义务。
但是,自动驾驶汽车从研发到生产到使用,是一个漫长的过程。这一过程中任何一个环节出现问题,都有可能会引发交通事故。所以,不能仅追究研发者和生产者的刑事责任,还应考虑到使用者和第三者的责任。如果自动驾驶汽车的使用者恶意干扰无人驾驶系统的操作[13],而导致汽车失控从而引发交通事故,那么使用者要承担相应的刑事责任。不仅如此,使用者对自动驾驶汽车还有保养和维修的义务。若因保养和维修不善而引发事故,也应当由使用者承担刑事责任。此外,自动驾驶汽车还有可能会受到第三方的破坏或干扰。在此情形下,理应由第三方来承担相应的刑事责任。
总而言之,涉自主型人工智能犯罪主要由研发者和生产者来承担刑事责任。但是,使用者或第三方存在明显过错的,应当由使用者和第三方承担相应的刑事责任。
3.4. 涉强人工智能犯罪的刑事责任主体
如前所述,强人工智能主要是指有自我意识的人工智能,这种人工智能已不受人类控制,具有独立的意识。由于目前仍处于弱人工智能时代,我们对于强人工智能会如何运行、会产生怎样的法律后果均不得而知,只能通过理论上的推断来构想涉强人工智能犯罪的形态。
根据现有理论和概念,强人工智能具有强大的学习能力,具有独立于人类的意识,那么其一旦实施违反刑法的行为,后果将不堪设想。正如许多学者所提出的“技术异化”的概念一样,由于算法具有自主学习和预测的能力,其设计者都很难解释人工智能得出的结论,也无法预测最终可能带来的后果[14]。此外,AI算法与算法设计者会有分离的风险,算法设计者设计的算法越完美,AI就越可能背离其创造者,并极为可能成为设计者的敌对力量[15]。
因此,笔者认为,规制涉强人工智能犯罪最好的方法是加强事前预防。人工智能技术的初衷是为了服务于人类,让人类摆脱重复性和高度危险性的劳动。如果任由人工智能技术肆意发展,其很有可能会反过来控制人类,甚至会伤害人类,这与发明人工智能技术的初衷就背道而驰。所以,为了避免这种困境的出现,人工智能的研发者应当承担起责任,保证人类对于人工智能的控制权,制止人工智能技术的异化。此外,国家也要注意到人工智能技术异化的风险,制定人工智能领域的相关法律法规,严格限制或禁止相关主体和单位制造强人工智能体。只有这样,人工智能技术才能不违背社会伦理,真正得服务于人类。
4. 涉人工智能犯罪的法律应对
由于涉人工智能犯罪的刑事责任主体以及责任分配都难以厘清,给刑法和其他法律都带来了较大的冲击,也带来了新的社会风险。因此,面对该类犯罪,一方面应当加强“事前预防”,避免人工智能技术异化,预防风险的发生。另一方面,现行的法律法规也应当适时做出调整,以适应涉人工智能犯罪。
4.1. 推动专门的人工智能立法
人工智能风险是世界性的问题,引起了世界各国的广泛关注。近年来,美国、英国、德国等国家相继出台一系列“倡议”“计划”等文件来规制人工智能所引发的风险。2021年4月21日,欧盟发布了《人工智能法案》,该法案为全球范围内首部人工智能综合性法案,旨在从国家法律层面限制AI技术发展带来的潜在风险和不良影响。
目前,我国在人工智能领域内的专门立法仅有《上海市促进人工智能产业发展条例》 《深圳经济特区人工智能产业促进条例》《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》《天津市促进智能制造发展条例》等地方性法规[16]。这些法规较为分散、且内容也不完全一致,难以适应日益复杂的涉人工智能犯罪。因此,应当尽快制定专门的人工智能法,对于人工智能研发、设计、生产、使用等事项做出统一的规定,明确人工智能事故发生后的责任主体及责任分配。只有这样,才能够实现“事前预防”的效果,避免人工智能技术的发展偏离社会伦理和法律规范。
4.2. 刑法应适时增加新的罪名
4.2.1. 增设非法研发、制造人工智能罪
人工智能作为新兴的技术,其背后的设计原理和制造流程都较为复杂,并非任何企业都能驾驭这项技术。因此,研发和制造人工智能的主体必须经过国家有关部门的许可,具备一定的资质。任何单位或个人未经许可私自研究开发、设计制造、部署应用人工智能的,应当追究相关责任人的刑事责任。
此外,尤其要警惕强人工智能的设计与发明。强人工智能具有独立的意识,并且具有强大的学习能力。它的出现对于整个社会的秩序和伦理将会产生重大的冲击,甚至会危及公众的人身安全和财产安全。因此,未经国家有关部门的特别许可,绝不可设计和制造强人工智能体,以此来防止技术异化带来的社会风险。
4.2.2. 增设滥用人工智能罪
滥用人工智能罪主要是防止人工智能研发者、使用者或第三人利用人工智能实施犯罪活动,对他人的人身安全或公私财产造成重大损害的行为[17]。
首先,在人工智能时代,滥用人工智能会侵犯到人类社会的安全。现如今,传统犯罪活动的危害性在人工智能的介入下,可能会呈大幅度的增长且难以控制。然而,在规制滥用人工智能行为的方面,我国刑法还不完善。因此,为了杜绝这种现象的产生,刑法应当对这些行为进行制止。
其次,只有刑法的介入才能真正减少滥用人工智能的行为。刑法以外的其他法律法规无法真正对犯罪分子起到威慑作用。目前,我国虽然颁布了《数据安全法》并建立了互联网信息服务算法备案系统,但这些措施的威慑力还不强,无法完全规制涉人工智能的犯罪行为。而刑罚措施具有严厉性,在其介入下,必然能够对社会起到警示作用。人工智能的研发者在设计人工智能时一定会尤其谨慎,避免其触犯法律法规和社会秩序。相应的,对于人工智能的监管过程也会变得更加严格,从而相应的社会风险也会随之降低。
4.2.3. 增设人工智能事故罪
人工智能事故罪主要是为了防止人工智能的研发者、生产者、部署应用者以及使用者等在研究开发、制造、部署应用或使用人工智能的过程中,未尽到相应的管理义务或注意义务,进而导致人工智能实行危害社会的违法行为。人工智能事故罪的增加,不仅明确了人工智能事故的责任主体,而且在一定程度上督促人工智能研发者、生产者和使用者等尽到合理的注意义务,防止人工智能技术的异化。
第一,研发者和生产者要保证人工智能受控于人类,不会实施危害他人和社会的违法行为。人工智能具有自我学习的能力,一旦脱离人类控制,很有可能实施违法行为。所以,研发者和生产者一定要具有对人工智能的控制权,防止人工智能失控。
第二,人工智能的部署应用者和使用者在部署应用或使用人工智能过程中,也要尽到合理的监管义务。在使用人工智能前,要了解人工智能的运行方式,不得随意使用。在发现人工智能失去控制或实施违法行为后,应当采取相应的措施予以制止,不得坐视不管。
5. 结语
总而言之,人工智能技术的快速发展给人类带来了诸多便利,但也带来了新的社会风险。面对新的社会风险,刑法及其他部门法也要做出相应的调整,这样才符合法律的社会性特征。基于人工智能自主性程度的不同,分别确立相关的刑事责任主体,有利于司法机关处理新型的人工智能案件,也填补了司法上的漏洞。因此,立法机关和司法机关需要具有前瞻性,不断发现新的社会风险,积极研究新型的司法案件,回应社会关切。只有这样,才能保证刑法与社会发展相适应,达到惩罚犯罪和保护法益的目的。