1. 引言
随着人工智能技术的飞速发展,人工智能辅助驾驶技术从实验室走向实际道路应用,传统的人工驾驶逐渐向自动驾驶转变。自动驾驶的出现,无疑为提升交通出行的安全性和效率带来了新的希望。然而,技术的进步也伴随着新的法律问题,这些新问题往往会挑战传统法律体系,如果不调整或增加法律规定新的社会问题将难以解决,同时也会阻碍无人驾驶技术的发展。国务院在《新一代人工智能发展规划》中明确强调,需重点强化人工智能领域法律、伦理及社会问题的系统性研究:一方面,要围绕人工智能应用过程中紧密关联的民事与刑事责任认定、隐私及产权保护、信息安全利用等核心法律议题开展深度探索,通过构建健全的追溯与问责机制,清晰界定人工智能的法律主体资格,以及该主体所对应的权利范围、义务边界与责任归属;另一方面,针对自动驾驶、服务机器人等应用基础已相对扎实的细分领域,应进一步加快相关安全管理法规的研究与制定进程,为人工智能新技术的快速推广应用筑牢坚实的法律保障,确保其在合法合规的框架内高效推进,进而推动人工智能产业与社会发展实现协同共进。当前我国对无人驾驶汽车交通肇事案件的法律规制呈现“民事有依、刑事无据”的失衡状态。在民事侵权领域,可通过多部现行法律构建责任认定与赔偿体系:依据《道路交通安全法》第七十六条,可初步划分事故各方的过错责任;援引《民法典》侵权责任编中第一千二百零二条至第一千二百零七条的“产品责任”条款,若事故因车辆设计、制造缺陷导致,受害者可要求制造商承担无过错责任;结合《产品质量法》第四十一条,进一步明确生产者对产品缺陷造成的损害需承担赔偿责任,形成相对完善的民事救济路径。
然而,刑事领域的规制却存在明显空白。现行《刑法》中与交通相关的罪名,如第一百三十三条交通肇事罪、第一百三十四条重大责任事故罪等,均以“自然人故意或过失”为核心构成要件,未考虑无人驾驶场景下“非人类主体决策”的特殊性。一旦无人驾驶汽车发生重大交通事故,若造成人员重伤或死亡,将面临多重刑事规制难题。其一,责任主体难以锚定,若驾驶员完全脱离驾驶任务,无法依据交通肇事罪认定其刑事责任,而制造商、研发者是否构成刑事过失,现行法律无明确依据;其二,责任范围划分缺乏标准,硬件故障、算法缺陷、数据错误等不同致害因素对应的责任比例,刑法未作出界定;其三,惩罚措施难以适配,针对企业主体的刑事处罚与针对自然人的刑罚如何选择。这种“民事可赔、刑事难罚”的现状,既无法实现刑法的惩戒与预防功能,也难以切实保障公共安全,凸显刑事立法完善的紧迫性。
2. 自动驾驶汽车定义与分级
自动驾驶汽车,也常被称为“无人驾驶汽车”、“智能驾驶汽车”,是指通过搭载传感器、计算单元、算法模型及线控执行系统,能够在无需人类驾驶员持续操作或监控的情况下,自主完成环境感知、路径规划、车辆控制等完整驾驶流程,以安全、高效方式实现从起点到终点出行任务的智能交通工具。目前全球最权威、应用最广泛的自动驾驶的等级划分体系是由美国汽车工程师学会(SAE International)制定的“SAE J3016”标准。该标准根据“人类驾驶员与系统的责任划分”“车辆对环境的感知能力”“任务执行范围”三个核心维度,将自动驾驶分为L0至L5共6个等级,如表1。驾驶自动化分级1,每个等级的技术边界和应用场景差异显著。根据“SAE J3016”标准,其中L0~L2不属于自动驾驶汽车的范畴,L3~L5属于自动驾驶汽车的范畴,也是本文所指的自动驾驶汽车。
Table 1. SAE J3016
表1. 美国汽车工程师学会自动驾驶分级标准
等级 |
核心特征 |
典型场景 |
L0 |
无任何辅助功能,人类完全控制车辆 |
传统燃油车 |
L1 |
仅辅助单一操作,人类控制其余所有操作 |
配备定速巡航的汽车 |
L2 |
同时辅助两项操作,人类需持续监控路况任 |
特斯拉Autopilot |
L3 |
仅在系统无法处理时提醒人类接管 |
奔驰DRIVE PILOT |
L4 |
全场景或限定区域内完全自主驾驶,无需人类干预,可应对几乎所有场景 |
百度Apollo Robotaxi |
L5 |
全场景、全路况下完全自主驾驶,人类无需具备驾驶能力 |
目前仅处于研发阶段,无量产案例 |
3. 自动驾驶交通肇事刑事归责的立法困境
3.1. 责任主体难以确定
在传统的驾驶模式中,驾驶员是交通肇事的主要责任主体。但在人工智能辅助驾驶情境下,责任主体变得多元化。除了驾驶员外,辅助驾驶系统的开发者、生产者、销售者以及维护者等都可能与交通事故的发生存在关联。但是开发者、生产者、销售者以及维护者能否具有主体资格;开发者、生产者、销售者以及维护者应该承担多大比例的责任以及如果责任落实到这些主体是否会抑制人工智能辅助驾驶技术的进一步发展,这些综合性因素更加剧了交通肇事中刑事归责的复杂性。
3.2. 主观过错认定困难
传统的刑事归责注重对行为人主观过错的认定,即故意或过失。但在人工智能辅助驾驶情境下,辅助驾驶系统的决策过程是基于算法和数据的,其“主观状态”难以用传统的故意或过失来衡量。系统可能会因为算法漏洞、数据偏差、传感器故障等原因做出错误的驾驶决策,导致交通事故的发生,但这种情况下,很难认定系统存在故意或过失。同时,驾驶员在使用辅助驾驶系统时,其主观过错的认定也变得更加复杂。驾驶员可能对系统的性能过于信任,从而放松了对驾驶的警惕,这种情况下的主观过错与传统驾驶模式下的过错存在明显差异。在传统驾驶模式中,驾驶员的过失通常表现为疏忽大意或过于自信,而在辅助驾驶情境下,驾驶员的过失可能更多地表现为对系统的过度依赖和信任。司法机关需要判断驾驶员对系统的依赖是否合理,以及其是否尽到了必要的注意义务。
3.3. 因果关系认定复杂
在传统的交通肇事案件中,因果关系相对容易认定,即驾驶员的违法行为与交通事故的发生之间存在直接的因果关系。但在人工智能辅助驾驶情境下,因果关系的认定变得十分复杂。交通事故的发生可能是由多种因素共同作用导致的,如辅助驾驶系统的算法缺陷、传感器故障、驾驶员的操作失误、道路环境的变化、天气条件的影响等。这些因素相互交织,使得很难准确界定哪一个因素是导致事故发生的直接原因。
4. 自动驾驶交通肇事刑事归责的立法路径
4.1. 责任主体的认定
首先,在技术缺陷风险现实化的交通事故中,驾驶员对汽车的风险掌控无限缩小,同样对引起交通事故的作用也无限缩小,甚至转换为“乘客”的角色。因此,这也引起了学者们对驾驶员责任的不同看法。部分学者认为:此时的驾驶员已不再是传统意义上的驾驶员,汽车的驾驶完全由人工智能辅助驾驶技术完成,驾驶员启动的行为与交通事故之间并无直接的因果关系,因此驾驶员不能成为责任主体[1] [2]。但是,与之相反,也有部分学者认为所有的交通事故都源于驾驶员按下启动开关那一刻,驾驶员掌控了辅助驾驶技术,从而造成了交通事故,驾驶员应承担全部责任[3]。
上述观点虽都有一定道理,但将责任完全归咎于一方难免有失偏颇,因为整个驾驶过程是由驾驶员与智能驾驶技术共同支配。汽车的启动与停止的时间地点,汽车行驶的路线等都由驾驶员决定;而时速,刹车,如何行驶由辅助驾驶技术操控。单有辅助驾驶技术而没有驾驶员的启动汽车和路线选择行为不能引起交通事故。与“人不出生就不会有罪犯”不同,人生下来便是具有独立意识的个人,其行为完全可由自己支配;而驾驶员启动了汽车的辅助驾驶技术后,对汽车的路线和停止仍存在持续的支配力。由此可知,驾驶员的驾驶行为与辅助驾驶共同的作用导致法益侵害的结果,属于刑法上的二因一果。
但是,智能驾驶系统不能成为刑法上的行为主体。在刑法领域,行为主体只有自然人和单位。人工智能复制和强化了大脑思维的物质基础和局部功能,它只是执行人类指令而并不考虑社会意义、社会责任和社会后果,也就不能形成主体真正的实践活动和社会属性,并不能称之为自然人或单位[4]。因此,人工智能机器人不能成为刑事责任的主体,而应转向其背后的研发者、生产者和销售者等[5]。而研发者、生产者和销售者大多都是在公司的决定和支持下参与的研发、生产和销售,并且所得归于公司,该行为主体更倾向于是单位。但是有关交通肇事的罪名中,“行为主体”是指年满16周岁、具有刑事责任能力的自然人,并无单位。因此其无法构成交通肇事罪、过失致人重伤罪、过失致人死亡罪等罪名。对于其是否构成生产销售伪劣产品罪还需判断其有无犯罪故意。除此之外,在少数第三人恶意侵入算法系统,故意制造交通事故的情形,此时应当追究第三人的故意杀人罪、故意伤害罪或以危险方法危害公共安全罪等。
因此,人工智能辅助驾驶发生交通事故的归责主体包括驾驶员、自动驾驶汽车的研发者、销售者和生产者以及第三人。但对于研发者、销售者和生产者,过失犯罪并没有合适的罪名适用。因此笔者认为在人工智能辅助驾驶技术日益发展和广泛运用的趋势下,有必要针对传统的交通肇事罪中的“行为主体”扩大到单位,考虑到无人驾驶交通事故罪的特殊性,对该罪名的刑事责任配置,宜采用“单罚制”的处罚模式且处罚方式限定为罚金,同时为实现惩戒与修复的双重法律效果,还可配套适用多元化的非刑罚处罚措施,具体包括由涉事单位向事故受害者及家属以公开或书面形式作出致歉以弥补其精神损害的赔礼道歉、依据事故造成的人身伤亡与财产损失程度由责任单位承担相应民事赔偿责任以保障受害者经济权益的赔偿损失,以及针对特定严重情形设定的附加义务,即当无人驾驶汽车因技术缺陷如算法漏洞、传感器故障等引发特别严重交通事故时,该车辆的设计单位与制造单位需对同一生产批次的无人驾驶汽车进行数据删除、程序修改,或对存在重大安全隐患的车辆予以永久销毁以彻底消除后续安全风险[6]。此外,从罪名体系完善的角度出发,亦有另一种立法思路可供参考,即单独增设“无人驾驶交通肇事罪”,在刑法规范中对智能自动驾驶汽车交通肇事的归责原则、构成要件、处罚标准等内容作出专门规定,实现此类案件的精准化、专业化法律规制。
其次,关于驾驶员与自动汽车的研发者、生产者、销售者等主体的责任承担分配还需根据“风险支配原则”即谁支配风险谁承担责任进行划分。目前,许多地方性法规在应对此类案件时都采用了“责任主体顺位制”,该制度将自动驾驶汽车的所有人、管理人列为第一顺位责任主体,要求其先行承担赔偿责任;生产者、销售者则作为第二顺位责任主体,需通过所有人、管理人的追偿才能承担责任,这一规则既违背了《民法典》《产品质量法》中产品责任应由生产者、销售者直接作为第一顺位责任主体的法律规定,混淆了“机动车交通事故责任”与“产品责任”的法定边界,又加重了不具备技术辨识能力的所有人、管理人的负担,使其面临追偿权无法实现的风险,同时还会因生产者责任被转嫁而缺乏提升车辆安全性的动力,且消费者因需承担额外赔偿风险对购置使用自动驾驶汽车产生顾虑,最终阻碍技术创新与产业发展,也导致司法实践中责任认定混乱,不利于受害人及时获赔。
针对上述问题,合理平衡自动驾驶汽车生产者、研发者、销售者与驾驶员之间责任分配的正确方式,应基于“责任类型二分法”展开,即明确区分“人的责任”与“车的责任”[7]。属于机动车交通事故责任(人的责任)时,若自动驾驶系统未激活或事故因驾驶人未按提示接管、所有人/管理人未履行维护义务导致,由驾驶人或所有人、管理人承担责任;属于产品责任(车的责任)时,若事故因车辆设计、制造、警示说明等缺陷导致,直接由生产者、销售者承担责任。完全自动驾驶汽车因无人工介入,缺陷导致的事故责任也由生产者、销售者承担。若缺陷由第三方研发者过错导致,生产者、销售者赔偿后可追偿。混合责任场景下则由双方承担连带责任。同时需配套优化保险机制,在所有人/管理人投保交强险基础上,增设由生产者、销售者强制投保的产品责任交强险,并鼓励其投保相关商业险,还应设立由技术相关主体联合设立的“自动驾驶汽车安全保障基金”,在责任无法即时认定时先行垫付赔偿,此外强化生产者的技术改进义务与举证责任倒置要求,通过这样的规则设计,实现“技术方担技术责任、使用方担使用责任”,平衡各方利益,兼顾技术创新与权益保护。
4.2. 主观过错的认定
根据责任主义,确定刑事责任还需要存在“罪过”,即犯罪故意或过失。但是传统刑法对“过错”的认定聚焦于人类的主观心理状态,但在自动驾驶场景中,算法系统取代人类成为核心决策主体,人类难以直接控制或预见系统行为,导致“心理状态认定”失去现实基础。因此,判断是否产生责任需要分情况解决。实践中可能出现两种情形。
第一种情形为,以当下行业技术标准和技术水平来看,相关风险可能被发现或行业内几乎都能发现。在这种状况下,可以继续采用传统刑法上的“过错主义”即自动驾驶汽车的研发者、生产者、销售者等有无注意义务。注意义务是指预见人工智能辅助驾驶可能发生危险的义务,该义务直接指向的是产品缺陷。该义务并不能够要求开发者、生产者和销售者预测所有交通事故的细节,否则容易使“过错责任”转变为“严格责任”,加重人工智能开发者、汽车制造者和销售者的负担,抑制创新力。所以,智能驾驶功能从本质上对人工智能服务提供者的注意义务提出了要求:其核心并非规避抽象概念上的交通事故,而是对照行业标准所能够预见的具体的交通事故情形[8] [9]。比如,车道保持辅助功能的意义并不在于它能让车辆保持在车道内,而在于当车辆因驾驶员分心、路面颠簸等具体原因即将偏离车道时,能及时通过转向干预等方式纠正行驶轨迹。相关责任方显然能够预见到技术缺陷以及可能引发的交通事故,若他们拖延采取补救办法,那么对于因技术缺陷造成的交通事故,至少要承担过失责任。但是,预见可能性和注意义务之间并不是完全划等号的关系。虽然在上述第一种情形中存在预见可能性,但是驾驶员可能出于信赖而疏于注意,该信赖来源于车企的宣传和技术。如果让驾驶员承担过高的注意义务则违背了辅助驾驶的本质而加重了驾驶员的风险。因此需引入“信赖原则”平衡这种风险。信赖原则,指行为人在遵守规范的前提下,可合理信赖他人或系统会同样遵守规则,从而免除自身注意义务。在智能辅助驾驶中,驾驶人对智能系统的信赖需受限于其监督义务。一方面,驾驶人可信赖智能系统在设计范围内正常运作。例如,配备车道保持功能的车辆在标线清晰的道路上行驶时,驾驶人可信赖系统维持车道居中,无需持续操控方向盘。但这种信赖并非绝对,当系统出现明显异常时,驾驶人的监督义务优先于信赖原则。如驾驶人甲发现前方白色拖车时,明知系统可能因强光或白色物体识别失效,却仍依赖自动紧急制动功能未采取措施,此时其对系统的过度信赖超出合理范围,违反了监督义务,构成过失。另一方面,信赖原则的适用需排除“可预见的系统缺陷”。在L3级驾驶中,系统虽能自主完成动态驾驶任务,但驾驶人仍需对“系统无法处理的突发情况”保持警觉。如车辆激光雷达多次误判行人身份却未发出接管请求,驾驶人乙虽未收到明确提示,但在光线灰暗的环境下,对系统识别能力的局限性应有预见,未主动观察路况构成监督义务的违反,不能以“系统未报警”为由主张信赖免责。此外,当系统已发出接管请求时,信赖原则完全不适用。如车辆提前1.5秒发出介入信号,驾驶人乙因疏忽未注意,此时其未履行基本响应义务,直接违反注意义务;乙看到信号后轻信系统会自动避险而未接管,这种对“应急措施”的不当信赖同样构成过失,因为技术应急功能不能替代驾驶人的法定接管义务。
第二种情形是,依照现有的技术水平相关风险在事发前很难被察觉或者行业内通常无法察觉,这时,人工智能服务的研发者、生产者和销售者缺乏预见的可能性,但是该类风险在技术创新过程中难以避免,如果完全禁止该类风险则不利于自动驾驶技术的发展,但远超出现有技术水平而带来的不被容许的风险同样有碍于该行业发展和社会安全。因此,在此需要从“意志归责”转为“规范归责”[10],对技术主体实行“过错推定 + 举证责任倒置”。即如果自动驾驶汽车违反法律规范,造成了无法接受的严重后果时,法律就推定其在主观上存有过错,行为人无法证明其主观上没有过错,就要承担刑事责任。这一归责方式起源于英美法系,在司法实践中主要适用于具有“公害”属性的犯罪类型,此类犯罪往往涉及公共利益侵害,如破坏生态环境的环境犯罪、危害道路公共安全的交通肇事犯罪、威胁公众健康的食品犯罪等,其核心是通过更具针对性的归责逻辑,实现对公共风险的有效防控。结合我国无人驾驶汽车发展现状与司法实践需求,可借鉴相对严格责任原则,将其纳入无人驾驶汽车交通肇事犯罪的责任认定体系,既契合该类犯罪的公共安全属性,也能更高效地平衡技术创新与权益保护的关系。在国际层面,多个国家和地区已针对自动驾驶责任认定展开前瞻性探索并形成特色规则:欧盟《人工智能责任指令》创新性提出“技术行为可解释性”原则,明确要求自动驾驶系统的决策逻辑必须满足可验证、可追溯的技术标准,通过保障系统行为的透明度为责任溯源提供依据;日本《自动驾驶事故处理指南》则引入“预期功能安全”缺陷概念,将自动驾驶系统在未预见场景下出现的功能失效明确纳入责任评价范畴,填补了传统归责规则对技术未知风险覆盖不足的空白。这些国际实践共同揭示,自动驾驶场景下的责任认定需突破“过错责任”的传统逻辑束缚,转向“技术行为–系统能力–社会期待”的三重评价框架,即既要考察自动驾驶系统实际的技术行为表现,也要对标系统应具备的安全能力标准,同时充分考量社会公众对自动驾驶技术的合理安全期待,最终构建适配技术特性、符合公共利益的责任认定规则体系。
4.3. 因果关系的认定
最后是因果关联需证明义务违反与事故结果存在法律上的因果关系。在刑法因果关系认定的框架下,判断人工智能辅助驾驶技术缺陷与事故结果之间的因果关系,需以传统刑法理论为基础,结合技术特性展开层层推理。首先,需依据“条件说”确认技术缺陷是否为事故发生的必要前提,即“若无该缺陷则事故不会发生”。例如,若传感器硬件故障导致无法识别障碍物,而正常传感器在相同场景下能准确识别并触发制动,那么移除该硬件缺陷后事故即可避免,由此可认定硬件缺陷与事故存在条件关系;同理,若算法漏洞导致系统对突发场景误判,修正算法后模拟测试显示事故可避免,则算法缺陷同样满足条件关系的要求。即便事故中存在驾驶员操作轻微失误等其他因素,只要技术缺陷是引发事故的关键必要条件,仍不影响条件关系的成立。
在此基础上,需通过“相当因果关系说”进一步判断技术缺陷与事故结果之间的常规性关联,即缺陷是否在通常情况下会导致此类事故。这一步骤需结合行业标准与风险可预见性展开推理:若技术缺陷违反了行业普遍遵循的安全规范,而该规范的设立正是为了预防此类事故(如算法未通过暴雨场景测试导致积水路段失控),则说明缺陷与事故的关联符合行业常规认知;若缺陷属于行业已知的风险类型如激光雷达对低矮物体识别率不足,且事故场景与该风险的典型表现一致如撞上施工锥,则可认定二者存在相当性。反之,若缺陷引发的事故超出了通常预期如全新算法的未知漏洞导致极端罕见场景下的事故,则可能因缺乏相当性而中断因果关系。
对于多因交织或算法黑箱等特殊情形,需调整推理路径。当事故由技术缺陷、驾驶员操作失误、第三方干扰等多种因素共同导致时,需通过技术鉴定量化各因素的风险贡献度,若技术缺陷的贡献比例超过主导阈值如50%以上,则可认定其为主要原因;若缺陷仅为次要因素,则可能因其他因素的介入而中断因果关系。针对算法不透明导致的证明困难,可借鉴疫学因果关系理论,若大量数据显示某类缺陷与事故发生率存在高度关联性(如特定算法版本的事故率显著高于行业平均水平),且无法排除缺陷的作用,则可推定因果关系成立,由制造商承担反证责任,若其无法证明缺陷与事故无关,则因果关系成立。此外,若技术缺陷属于现有科技水平无法预见的发展风险,且制造商已履行常规测试义务,即使存在条件关系,也因缺乏相当性而排除刑法上的因果关系,不认定为犯罪。
针对一些特殊情形,如多因一果时如算法缺陷 + 道路标识不清,需按贡献度划分责任。例如,算法对模糊标识的误判占60%责任,道路管理部门占40%,则制造商承担主要责任。无法归因于单一缺陷时如算法黑箱导致决策不可解释,若制造商未履行可解释性设计义务,可适用举证责任倒置,要求其证明无过错。
综上,人工智能驾驶技术缺陷的归责需在“技术发展”与“安全保障”间平衡,通过分级界定主体,结合预见可能性判断过错,依托技术手段厘清因果,最终实现责任分配的合理性。
5. 结论
人工智能辅助驾驶技术的革新,不仅是交通领域的技术突破,更对刑事归责体系提出了系统性挑战。传统以人类驾驶员为核心的归责逻辑,在智能系统的自主性、人机交互的复杂性面前逐渐显现局限性。本文通过剖析责任主体的多元化困境、主观过错的认定难题及因果关系的交织复杂性,揭示了现有刑法理论在应对新技术时的适配短板。从解决方案来看,多元责任主体的界定需要突破“自然人中心主义”的桎梏,通过扩大单位责任适用或增设专门罪名,实现对开发者、生产者等主体的合理追责;主观过错的判断需在技术局限性与注意义务之间找到平衡,以行业标准与预见可能性为标尺,避免过度苛责抑制技术创新;因果关系的厘清则需依托技术鉴定与刑法理论的结合,为多因交织与算法黑箱等特殊情形提供可操作的判断路径。未来,随着L4及更高等级辅助驾驶技术的普及,法律体系与技术发展的协同将愈发重要。刑事归责不仅要实现对受害者的公平救济,更要为技术创新划定合法边界,在安全保障与技术进步之间构建动态平衡的规则框架。唯有如此,才能在拥抱智能驾驶时代红利的同时,守住刑法保障法益与维护社会秩序的底线,最终实现技术理性与法律正义的共赢。