1. 引言
本文基于时代背景,梳理了国内外人工智能技术发展以及应用于司法领域的历史脉络,把落脚点放在国内司法审判中。从现实出发阐述人工智能在审判前、审判中、审判后这些司法场景下的具体应用,以发展视角充分考察人工智能在司法领域方面的积极作用,从而归纳其主要表现有司法效率的提高、司法腐败的遏制、司法公正的促进以及司法理性的增强,我国大部分法官都长时期处于“满负荷运行”工作状态,简单性、重复性的司法工作仍然消耗大量的人力资源,拖垮司法效率。在有限的司法资源上提升司法效率为法官们减负是人工智能应用于司法的一大立足点。人工智能应用于司法已然有技术、制度、实践支撑,智能技术的应用拓展了审判前的工作灵活性、丰富了审判前的工作方式,提高了司法效率,增强了司法机关对违法犯罪行为的打击热情。但司法理性与科技理性有着本质上的差异,如何使两者深度融合、有机统一,如何客观地看待人工智能在司法审判中应用的价值,肯定积极面,防范负面影响,如何划定算法参与裁判的边界等问题,最终发挥技术优势、提高司法效率、警示技术风险、助力司法改革是本文所要探讨的意义所在。
2. 人工智能在司法审判应用中存在的阻碍
2.1. 司法审判应用具体的深度不够
近法的与社会关系和法的属性这两者永远处于矛盾,一方面法具有稳定性和保守性属性注定在面对新兴科技时需持谨慎态度,另一方面,法是随社会发展而发展的学科则又要主动拥抱新的技术。司法是法实现的必要延伸,司法追求的是公平与正义,新兴技术则有许多潜在的缺陷,司法在剥夺个体的自由时若使用不成熟的科学技术则可能出现不公与侵犯人权的状况,所以司法需要的是成熟可靠的技术,毕竟在公平是司法审判首要价值。这种冲突性制约了司法领域不能作为人工智能技术的实验场景,但我国智慧法院的建设已经颇具成效,司法人工智能的应用场景已完成了单一性到多功能性的转变,覆盖面逐步完善,但是在某些场域人工智能还不能替代传统的工作方式。
而司法人工智能应用场景现状主要包括以下几个方面。其一是警务活动方面。例如,结合AI研判的人脸识别,现在生活中的无处不见的摄像头已成为公安干警的前哨站,运用人工智能的算法对摄像头采集的每一张人脸进行分析比对,实现快速定位犯罪嫌疑人。基于人工智能的动态感知、高速传输及深度学习训练,通过对社会行为主体所生成的海量数据进行清洗、分析预测社会冲突,如2013年北京市公安局运用的“犯罪数据分析和趋势预测系统”。在以海量数据和多边算法为特征的数字社会基础上,人工智能技术凭借其智性与算法在驱动警务决策、警务组织、警务技术、警务服务及警务监管变革的同时,也为建设数字中国和平安中国提供了强大的技术支撑和智慧支持 [1] 。另外,智能审批证件、智慧接警、虚拟办公等等技术都可以看到人工智能的影子,人工智能技术切实提高了警务活动的效率,减轻了公安干警的工作负担和危险性。其二是司法辅助活动方面。在“智慧法院”建设中推出的庭审语音识别、电子卷宗生成、类案推送、量刑辅助、法律问答机器人等等,这些技术的开展运用切实满足了社会对于司法的需求、减少了司法工作人员的工作量,同时在司法活动中也开始发挥提高效率、节约司法资源的作用 [2] 。但上述这些成功应用的人工智能产品(技术)大多只是将通用化的技术结合司法的特殊性进行稍加改动与完善,便转向移植到部分司法活动中,而对于其他司法环节,诸如法律的说理与解释、证据证明力度的评价、疑难案件的事实认定等等,这些司法实践活动需要非形式逻辑以及司法经验才能实现,仅靠在通用领域的人工智能技术还不能达到人类的水平。通过相关的智能技术从司法根本角度出发打造能够应对绝大多数法律问题与司法场景,从而贯穿司法活动全程,关键就在于能否实现这种专业化的定制。虽然人工智能走向司法专业领域虽然有相关人士在做,但真正前沿的智能技术与司法融合的工作还只是浅尝辄止,一是在于缺乏特别的资金与制度支持,二是本节开头所提及的前沿技术应用与司法的审慎性。当然就目前的人工智能技术而言要想达到人类理解和解决法律问题的思维与能力尚还有很长的路要走,在广度上不能覆盖司法活动全程,要想实现全流程、全场景领域的司法人工智能应用还需要时日。
2.2. 司法审判应用场景的广度不够
我们所期待的人工智能是能够帮助人类解决绝大多数问题,但司法人工智能产品的现有技术未能克服司法实践难题,也未适应司法规律与特征,这种客观的现实存在所呈现出来的是人工智能在司法领域应用的深度与广度的有限性,即人工智能当下的局限所造成司法应用结果的一体两面,虽然我们不能否定人工智能在司法领域的应用的技术优势,但在应用的深度方面,其智能水平还有很大的提升空间,具体表现有以下几个方面。
一是法律问答方面。法律问答与咨询的开展工作已遍布各种网络平台,当事人可以根据自身的需求进行相关问题的咨询。例如小程序与微信公众号上均布局了法院的智能平台,这些智能平台提供的法律咨询服务大致是两种解决路径。一是人工在后台进行即时回复,二信息库问题答案的对照输出。这类司法场景看似智能却实现得如此简单,智能化的成分几乎没有体现。
二是网上办案平台、在线庭审方面。这些都可以归纳为传统的工作方式电子信息化的处理方式的转变,从线下到线上、从纸质载体到电子存储,其核心就是数据信息的转换,进行过程期间也未能展示人工智能的技术。
三是类案推送系统。类案推送系统能让法官从浩瀚的案例查找中节约精力,但是从运用的现状来看,类案系统大多都表现的不如人意,大抵都基于准确率不高,案件覆盖面不足,法官还需要从推送的案例中再次甄别是否可以借鉴,甚至有些推送的案例全部都不能为法官所用,无法满足法官的实际需求。究其原因,除案例数据的采集方面障碍,还是人工智能的技术尚且不能达到相应的水准所导致。
四是庭审语音识别。此类属于典型的感知智能技术的司法应用,听声语音识别虽然在某些场景准确率已经达到较高水平,但是面对复杂场景下面要素干扰太多其准确率也相应下降,例如方言以及多方辩论、互动的场景还需要人为校对与把控。这些运用虽然一定程度上贴上了人工智能的标签,但是通过分析我们可以看到智能化还属于较浅甚至是“伪人工智能”。所以司法环节中应用的现状大部分只是对人工智能技术的浅层挖掘,在更具有“智慧”程度的案件分析、辅助裁判系统,有一些实践已经取得不错的效果,但仍然不及我们理想中的人工智能,案件的复杂性、技术的局限性、人类的主体性等等限制了人工智能嵌入司法的深度。
人工智能进阶后可能掩盖拥有自我意识事实,这种掩盖在其进行无疑误判或者有意误判的情况下都难以察觉,因为人工智能与人类思维心智的区别,人工智能这种“意识活动”是自主的还是程序设定的,很难进行甄别,由此就造成了即使拥有相关的法律制裁,在证据认定方面还存在困难。退一步说,即使我们的技术在认定人工智能是否具有故意的问题上有了解决方案,对于人工智能机器人,如何设计针对性的惩罚方式,有学者指出可采取格式化数据、数据冻结等方法,但事实上这种惩罚的方式可能不会对人工智能机器人产生“痛苦”或“负担”。所以我们能清晰的看到,人工智能在司法应用过程中产生的责任如何归咎需要讨论、厘清、解决许多方面的问题与困难。
2.3. 司法的公信力或遭质疑
“法治应当包含两重意义,已成立的法律获得普遍的服从,而大家所服从的法律又应该本身是制订得良好的法律。”这是亚里士多德对法治的经典表述,法治社会作为现代文明的象征,司法公信力是其具有的核心要义之一。司法公信力作为一中公共性力量,具体内涵是社会的服从的共识性认知,这种认知建立在普遍尊重之上,它表现为司法权所具有的赢得社会公众信任和信赖的能力,具体来讲,这种信任与依赖是公众对司法拘束力与司法判断力的信任与依赖 [3] 。司法拘束力是保障司法行为或判决得到贯彻的国家强制力一种表现形式,公众必须服从,这种服从是由内而外的社会共识,而司法判断力则是法官基于其职业能力对社会问题进行裁判。司法公信力高低与公众内心对法治的感受程度成正比关系,目前司法改革的目标就是建设法治社会与国家,通过一系列的举措培养公众的法律信仰,例如法官的终身问责制就是严格要求法官恪守职业道德做出公正的裁判,公正的裁判是社会感受公平正义的最为直接的窗口,同时也是考验着法官业务水平。
法官必须忠于法律做出事实判断,这种“忠于”是人类对某种事务的敬仰,并把该事务作为自己的行为准则,只有人才能具备这种思维,司法公信力的来源之一就在于公众信任法官所做出的司法判断。这种千年以来以人为中心的审判模式一旦遭遇人工智能时代,人工智能介入司法的趋势会“分享”专属于的法官部分裁判权,机器代替司法裁决者进行社会关系的修复,创设出新的司法裁判模式。且不说人工智能决策是否合法与合理,这种部分取代或者完全取代人类法官的司法审判必定引发公众对于法律以人为本的质疑,这无疑会对司法公信力的根基造成强大的冲击。人工智能与司法的结合将会对司法公信力形成挑战不止于上述,由于司法大数据本身存在的偏见、人工智能算法设计人员技术水平与价值认知的影响,此外,从深度学习算法的运行原理与机制角度来看,它在数据学习分析时会具有一定的随机性和隐蔽性,算法结果不能够被精准预测,这便是算法黑箱。算法黑箱同样是产生算法偏见的罪魁祸者之一。这种算法歧视一旦融入到司法裁判必定会破坏司法公正,司法于社会公众的神圣职能会提出质疑,这样的后果便是司法判断力的偏移导致司法公信力的缺失。
影响民众信任司法的因素有很多,比如法律本身的公正与否、法官的职业道德水平高低、公众自身的法律认知水平高低、程序正当与否等等。由此观之,程序正义是司法信任基础之一,究其原因,司法信任及其评估与民众的主观认知是无法割舍的,程序正义在严格规则下所建立的,它能影响到人们对司法的反应和态度,如果司法机关的运作是尊从程序正义的,运作的结果在客观条件下就能符合人们对结果尊重 [4] 。从程序正义角度出发,人工智能的司法应用也会冲击原有的司法程序,例如美国威斯康星州一法院使用“风险评估工具”作为量刑过程中的一环,将被告人再犯可能性风险认定为“高风险”,被告人以法官违反了正当程序原则,有违客观性和中立性为由上诉至该州最高法院。1这已是发生的现实,而当人工智能进阶后,部分取代或者完全取代法官裁判时,对现有的程序制度设计提出了新的思考。例如,上诉权与审级制度是保障司法人权的一种程序安排,避免“一锤定音”给当事人带来诉求无处可申的境地,表达了司法给当事人划定权利义务的谨慎态度,这体现了司法的人情关怀。但人工智能进阶后,这种程序设计该如何调整?逻辑与现实进行分析可以得出,进阶后人工智能它们在司法领域可能存在不相同的“专业水平”,毕竟人工智能应用的目的就是实现比人类更公正的裁判结果,那么在一审的过程中就应该竭力的发挥人工智能的“专业水平”,如果案件接下来进入重审或二审程序,有人工智能担任的一审就没有存在必要。所以传统的审级程序侧面体现了不同审级之间的专业差异,这种差异可能回对当事人的权利进行损害。人工智能参与的审判会解构现有的程序正义,当事人的上诉权得不到保障,这样的司法模式会促使公众失去对由人工智能审判的司法机构的信任与依赖,司法公信力便会遭受打击甚至是完全丧失。
3. 司法审判人工智能化发展的应对之策
3.1. 推进复合型人才的培养实现法与人工智能深度结合
交叉学科的人才培养近些年在高校培养体系中越累越凸显,这种培养模式能够达到1 + 1 > 2的创新效果。法律与人工智能的探讨已经经历半个多世纪,而我们看到的法律与人工智能的结合,仅仅是通用化领域到专门化领域的延伸,这种延伸只是结合了司法场景的特殊性稍加改造完成,并未从根本上考量到司法的特殊需求进行开发。所以这些停留在理论层面的讨论还不能满足现实的司法需求。过去的研究或探讨中,法学研究者与实践者绝大部分都不懂计算机以及编程等相关专业知识,所谓隔行如隔山,他们推动法律人工智能的进步有一定局限性。针对这种现状,需要大力培养又懂法律又懂技术的专门化、复合型人才。但是在前期培养的人才还尚不能担起研发的重心时,还需要现有的专业、高水平技术人才和资深的法官以及法学研究者进行深度的共同合作,在这种合作的过冲中同时进行人才的培养,从司法活动的特点与核心需求出发,打造专属于司法活动的人工智能产品,已适应新时代智慧司法的需求。
值得欣慰的是,2017年,有关部门就制定并发布《新一代人工智能发展规划》,规划中明确了以人工智能为依托结合其他学科打造符合新时代的复合型人才,形成专门的培养体系,其中法学就被列入其中 [5] 。针对这个规划,部分高校已经响应却开展相关试点工作,例清华大学法学院设立计算法学研究生项目等都在表明,法律 + 人工智能的复合型人才培养体系已经开始萌芽。
智慧新型时代给传统法学教育带来了新的考验,面对这场考验,法律 + 人工智能的复合型人才培养如何才能适应并满足新时代的需求。笔者认为主要有以下三个方面的工作要做。一是教师研究理念的转变。人工智能带来的行业新范式要求我们摒弃传统实践或研究的思维定式,以网络和大数据搭建的互联网平台催生出众多新型犯罪,智能化社会的生活方式变革带来的超出现有法律体系的新犯罪样态已使得传统的法律体系出现捉襟见肘的诸多困境,教研者因此要立足犯罪新型样态化对将来的法律规制进行有效的实务探索与理论创新。二是知识的更新。智慧社会与数字时代兴起,我们个体逐渐变成了“数据的集合”,区块链技术确立了新的社会契约理念,VR + AR带来了虚拟空间和物理空间的双重结合,这将会导致法学理论中所讨论的价值理念、所及范畴、原则、基础等体系搭建元素面临着重构,面对法发展的社会基石更新,我们须以将法学知识与理论及调整以适应新的社会体制。三是学科交叉融合。加快设立人工智能法学二级学科(虽然现在已经有高校创建人工智能法学院,但是学科建设上还未真正设立),本科及研究生培养方案上加入计算机、编程、数学、统计学、脑神经科学等相关专业课程,增加各学科之间的交融,突破法学学科专业性和封闭性的属性,打造法律人工智能实验室或研究院,以理工科的态度对一些法律人工智能产品进行验证实验,孵化一系列真正以司法特性为研发重点的成果。
总之,智慧科技带来行业效率的提升以及社会生活方式的转变,都会导社会结构、社会关系的改变,转而影响法律与司法的发展。为应对如此现状,打造智慧时代全新的法学教育模式,培养人工智能法学复合型人才,引领智慧社会的智慧法治建设,把法与人工智能技术深度融合,解决智慧型社会的法律问题。
3.2. 改进人工智能系统算法以纠正算法偏见
算法依托大数据进行决策其本身具有客观中立性,但人为设计的算法却不可避免地隐含偏见,这些偏见或多或少的影响现实生活。上述我们已经分析了人工智能算法在应用中所产生的歧视的原因,对于如何矫正司法审判以及日常生活中的算法歧视问题,在实践层面上我们可以从以下几个方法着手。
一是算法设计者的多元化。人的主观因素无疑在算法的开发和应用中都会演绎成相应的算法结果,这种人为行为伴随了偏见与认知,这些背后都会出现人类的思维的缺陷,比如司空见惯的性别与种族歧视。针对性别与种族歧视,我们从设计人员的配置之初就应该平衡性别比例以及种族多元化,另外数据的采集方面,我们要审核或监督数据的多元性质,让各类数据占比尽量平衡,以此尽可能防止性别种族偏见在算法运行过程中的得到放大并在算法结果上的得到巩固。除此以外,还要推动更多女性主体以及少数进入人工智能建设工作,以便通过引入女性及少数裔视角,提出实现算法性别种族平等的技术方案。二是建立内部算法审查框架。由于算法黑箱的存在,人工智能偏见在究查时会变得异常艰难紧以及不可能追溯其根源,面对此种情形,从技术方案上,设计人员可以打造一个人工智能系统开发端到端的算法审计框架,应用于整个内部开发生命周期以及应用周期,让审计的每个阶段都会产生一套文件,这些文件共同构成总体审计报告,根据人类的价值观或原则,以评估整个过程中所作决定是否合适,在根据评估结果改进算法。此外,这个审计框架还能帮助弥合大规模人工智能系统开发和部署中的问责差距。三是算法的自我矫正。人工神经网络算法具有自我学习、自我改进的能力,这种能力能够帮助人工智能系统适应新的任务情况,解决更多新的问题。依据算法本身具备的特性再设计一个纠错偏离程序代码,当出现算法决策偏离一定的范围,算法便可以启动矫正程序,从而实现一个可控、可改进的算法系统。四是透明化AI模型用途与局限。算法开发者可以给服务的第三方清晰概述具体AI的建议用途与相关局限,让第三方在使用相关人工智能产品时规避可能出现的算法偏见问题,有助确保在给定用例下实现最佳性能的因素,第三方还可以将可疑的算法判断反馈给开发者,开发者进行完善与改进。五是建立算法道德伦理审查机制。开发者企业内部针对算法违背人类基本的、共同的价值及道德认知,从设计之初就需要进行相应的验证与审核,确保AI产品“出厂”时能防止出现严重背离普世观价值选择。审查人员的组成要囊括具有不同知识背景和经验的人员,在审查时参考一定的行业标准,并最大限度地考虑道德伦理和安全问题。审查人员的应当相对独立集中且成员具备多元背景,才能发挥更好效果。例如,2017年,微软设立了类似的人工智能与道德标准委员来落实AI伦理问题,这种从企业内部建立的审查机制相比较国家层面以法律规制有更好的内在约束性。
由于算法本身的机制以及人的因素等问题,要想完全消除算法偏见的似乎只存在于理想,从技术和开发者(企业)视角尽可能的较少算法歧视的产生,避免给社会带来不公平的待遇。而司法人工智能的应用需要打磨一个相对更“公平”的算法,减少误判错判的概率。
3.3. 确保人工智能算法运行过程的合规性
正如前所述,随着社会的发展算法已经裹挟大部分的人类生活选择,无形的影响我们的思维方式,衣食住行都成为算法推荐阵地。究其缘由,一方面人类在决策时不得不应对浩瀚的信息,而算法能快速的筛掉不必要的要素,这种节约精力与时间技术应用成为现代城活方式的优解,另一方面,资本家为获得利润利用算法把公众绑架在自己产品上以及技术发展必然影响社会的结果。算法的渗透不仅在于日常的社会生活,甚至在公共管理事务中已经有了“准公权力”的趋势,由于算法的隐蔽性与暗箱的存在,使得出现差池时难追其责导致“权利”与“义务”不相匹配。而具体到司法领域,算法渗入已然十分明显,特别在某些场景下算法已经大显身手,司法审判作为最重要的环节恐有朝一日也将会“沦陷”。防范于未然,把算法并入法治的轨道,无论对于公共事务还是司法都有着极为重要的意义。
关于规制算法的命题,不少学者给出了确保算法透明的解答方案。诸如强制性公开算法、算法的验证或认证机制、个人的算法解释权以及算法结果控制等。遗憾的是,这些路径皆因自身的局限性而不能充分实现监管目的 [6] 。在不断地尝试碰撞过程中,对算法的监管呼唤着有益的观念变革和制度创新。例如,德国的个人数据顾问制度要求企业长期雇佣数据保护顾问进行算法陪同控制,这些雇员需要具备专业性的知识,能对企业的数据算法是否违规进行监督。此外,个人数据保护顾问肩负责任重大,需要对企业、相关监管部门以及社会负责。这种监管模式保持了行政权利的谦抑性,克服了技术鸿沟,降低了执法难度。
参考德国模式,实现算法合规的最佳选择是建立以数据活动顾问为主的算法监管体制,这种监管体制要做到以下几点。一是数据顾问为第三方机构,数据顾问的特殊性在于它具有公权力的性质,避免公权力的手伸得过长而阻碍企业的发展,所以不从属于企业或政府,但必须受政府部门的监管。二是算法陪同控制;数据顾问成为公权力的代理人实行对企业数据算法的开发与应用监督,在进行新数据算法的开发应用时应到得到顾问的评估。三是确保数据顾问的独立性;数据顾问的职业特殊性需要必须按规章进行,不能受到企业或者第三方的牵制,在法律规定上给予数据顾问独立行使职业的便利性,同时落实数据顾问的责任制实现权利与义务的对等性。四是设立外部的数据活动监管局;如同证监会和银监会一般,数据活动监管局同样是随数据时代的复杂性与重要性应运而生,其将凭借着专业性更好地回应数据时代的各种诉求。数据活动监管局不仅是对数据顾问的一种监督,同时也是支持数据顾问工作的保障部门,在审查数据顾问的工作时要严格遵守法律相关要求,在其遇到困难时必须给予援助。
算法的监管是经济基础决定上层建筑的表征,专业性、复杂性、重要性都显示了其一定要在合规合法的框架下进行,其特殊性要求监管模式需平衡对算法监管的多角度利益保障,促成利益共赢局面,创建以数据顾问的为主的监管模式能避免创新与阻滞之间,执法成本与控制算法违规之间的矛盾冲突。建立符合现实需要的算法监管体制,无论是在通用领域还是司法领域算法才能利之于民。
4. 结语
我国智慧法院在2016年前后迅猛发展,关于司法人工智能的大规模讨论正是源起于此,诸多学者对此发表了自己的看法与见解,观点都趋于一致。目前阶段的人工智能还较为低级,不能有自主意识地对司法审判进行价值判断,只能依靠司法大数据的深度学习,寻求规律再而应用到相类似的情形之中,正因如此,在某些司法场景下,极大地提高司法效率。但从最新的实践中,人工智能技术的触角现已在某些案件判断中有了影子,再随之发展,其不可避免地将会对司法审判工作更大范围的“占据”。在这过程中,司法大数据将扮演十分重要角色,而现实情况是,司法大数据的建设以及偏向性会对司法人工智能产生负面影响。此外,人工智能算法还有隐蔽性特点,从因到果的过程难以确定呈现,也将会导致算法独裁问题,所以,一面积极,一面消极。但以发展眼光对司法人工智能进行审视,人工智能技术将会大部分取代司法工作人员工作,包括某些司法判断,也将会重构新的司法审判。维护司法正义、司法公信力、自由裁量权、司法理性这些价值就是消解人工智能技术对司法而产生的负面影响,以针对性的措施去铺平这段重构之路,让技术以为人本,更好地为司法工作服务。
NOTES
1叶青:“世界人工智能法治蓝皮书(2020)第七部分人工智能法治发展专家访谈二、程序正义视野下,对人工智能介入司法权运行机制的思考——专访华东政法大学校长叶青”《上海市法学会、浙江清华长三角研究院、华东政法大学、上海政法学院》,世界人工智能法治蓝皮书,2020年6月。