1. 引言
数字技术的迅猛发展,使人类社会互动从线下物理空间发展到线上网络空间,社会进入数字智能时代。大数据、云计算以及人工智能为代表的先进技术相互渗透、协同发展,为现代生活创造独特数字价值,还催生了更深层次的信息技术变革。这种技术革新冲击着既有的法律秩序体系,全球多个国家和地区相继出台监管措施。如欧盟委员会公布的一项可推动人工智能市场发展合法、安全、可信的创新性法律框架,后续其三大权力机构还审议通过了《人工智能法》定稿,允许人工智能系统在司法领域发挥辅助功能。
在我国,2017年中央政法委推动数字化诉讼平台的建立,强化审判中心地位,将前沿科技深度融入司法程序改革。最高人民法院也出台了《最高人民法院关于加快建设智慧法院的意见》,为各级人民法院构建智能化平台,以及优化法院信息化管理系统提供了政策性指导。在国家的鼓励和支持下,各地法院立足于本地特点,主动开展人工智能审判实践项目,这既加速了司法智能化升级,又提升了审判效率与司法服务水平。目前我国一些司法机关已在实践中将人工智能应用于证据审查,上海“206系统”利用大数据和人工智能技术,将统一证据标准嵌入办案系统[1];贵州打造了一个破除数据孤岛现象并实现数据有效对接的政法大数据办案体系平台,实现了公检法三家数据资源的有效整合与联通;广州、杭州、厦门等地法院也取得了相关成果。这都展现了我国司法领域对人工智能技术的接纳与创新。但是现有的研究大多集中在人工智能在司法中的应用场景、功能定位以及潜在风险等方面,针对人工智能审查证据的探讨则较为匮乏([2]: p. 62)。
2. 人工智能在刑事证据审查判断中的应用概述
2.1. 司法人工智能
司法人工智能是指利用人工智能等现代科技手段,来解决司法实践中的疑难问题,从而帮助提升司法效率与质量,它具有明确的问题意识和目标导向[3]。司法人工智能的发展可以被划分成初级与高级两个阶段。在司法人工智能发展的初级阶段,其主要通过自然语言处理和深度学习技术,协助办案人员完成法律检索并从中提取关键信息([4]: p. 18)。像中国裁判文书网、北大法宝这样的法律信息检索平台,它们依靠人工输入海量裁判文书、法律条文和案例数据,为使用者输出精确且全面的信息反馈。除了法律检索平台,还有更具智能化的司法人工智能系统,如上海“206系统”,该系统不仅能处理案件信息,还具备初步的案情分析能力。高级司法人工智能则代表了一种全新的审判模式:基于自然语言理解与常识推理能力,计算系统能够依据证据认定案件事实并做出裁决([4]: p. 19)。但是目前的理论研究与技术实践仍停留在初级阶段,高级司法人工智能的实现还需要一段时日。但这并不代表其未来能否成为现实,不是一个值得深入探讨的问题。
2.2. 人工智能应用于刑事证据审查判断的必要性
2.2.1. 防范冤假错案,提高办案效率
自司法文明伊始,冤假错案就如同难以根除的顽疾,始终缠绕于司法体系之中[5]。分析我国近年来所纠正的案件,发现造成错案的原因无不与证据有关([6]: pp. 3-5)。其中第一种情形是证据存在缺陷,即侦查阶段证据收集不完整,且公诉机关在审查起诉阶段未能有效识别证据中的漏洞和矛盾之处,这导致存在缺陷的证据进入审判程序,最终造成司法误判。第二种情形是证据缺乏统一的标准,这主要体现在各机关在取证并应用的过程中享有过宽的裁量空间,致使证据规则的执行效果大打折扣。各机关对证据的选择性应用,会破坏了证据链的完整性,从而造成结果并不唯一[7]。
除了证据本身及指引标准有瑕疵外,伴随各类学科迅猛发展,知识鸿沟也可能会导致裁判者过分信服一方专家证人所出示关于专门知识的说明,从而无法公正地做出判断。并且法律作为社会科学,与自然科学之间的差距是难以通过简单学习就能弥补的[8]。若只是为了避免造成知识权力的主导关系而保留法官审查证据的终局裁判权,那么法官的工作量要大大增加,继而导致效率下降。而人工智能参与证据审查不仅能够降低冤假错案发生的几率,还为司法工作人员减少不必要的负担,提高工作效率。
2.2.2. 规范办案程序,维护司法正义
程序正义体现为一种可视的正义,或者说是一种可被感知的正义,其实现的方式依赖于公开透明的形式[9]。我国公安机关、检察院、法院进行刑事诉讼遵守分工负责、互相配合、互相监督原则,目的是实现实质和程序的双重正义,防止权力滥用。但在实践中,却出现“协作充分但制衡不足”的现象,导致带“病”的证据进入接下来的程序,背离了公众对该原则可能产生的正面作用的美好期许([6]: pp. 7-8)。司法人员不重视对程序的遵循,影响最直接的就是,可以作为追诉依据的证据,因存在瑕疵难以让人信服,或被当作非法证据排除,以至于无法形成完整的证据链,最终难以追诉犯罪。人工智能若将证据审查的程序固定下来,被固化的执法办案流程公开透明,这既规范了司法工作人员的行为,又帮助被害人深入了解案件的进展,减轻案件当事人对裁判最终结果的不满情绪。
2.2.3. 优化司法资源配置,缓解“案多人少”矛盾
2024年,在《最高人民法院工作报告》解读活动中,最高人民法院研究室主任周加海解读称,近年来人民法院受理案件的数量呈持续上升趋势,“案多人少”的矛盾日益突出。2013年以来,全国法院案件总量年均增幅高达13%,10年增加了2.4倍。2023年,全国法官年人均办案量已高达357件。在这样的背景下,法官干警即使坚持秉持“全天候”“超负荷”的奉献精神,但仍会因案件数量的持续攀升而感到疲惫,无法全心全力地应对。而人工智能的加入,能够有效帮助法官分担文书整理、程序性事务等日常工作,进而把更多的时间与精力用于案件的分析和审理,这大幅提高了法官的工作效率,降低案件积压率。
3. 我国人工智能在刑事证据判断中面临的困境
3.1. 司法人工智能运用中数据算法的不确定性
3.1.1. 人工智能在刑事证据判断领域应用时所依据的数据存在瑕疵
从整体数据来看,案例样本缺少准确性和多样性。中国裁判文书网虽是大型司法信息平台,但其文书论述简略,仅列证据目录,且数据库的案件覆盖不全,缺少长期数据。同时,信息收集存在不及时、不完整的问题,并且囿于地区发展不平衡,发达地区的案件多于不发达地区[10],这导致数据受旧司法思想和地域色彩影响。即便信息收集得足够完全、来源足够前沿,也无法保证官方的数据就同样可靠[11]。除此之外,数据收集过程中,各地政府、各机关部门之间也并未完全实现数据共通[12]。目前,虽然不少地区正逐步做出试验,例如贵州政法大数据办案系统尝试互联公检法三机关数据,但还存在司法机关会因人为地制造障碍,从而加剧了数据壁垒的现象。
3.1.2. 算法在人工智能证据审查判断中存在不确定性
第一,人工智能可能引发隐私泄露问题。人工智能需要大数据,而数据采集、开发利用等环节涉及个人信息处理,若缺乏有效约束,极易发生隐私泄露隐患([13]: p. 138)。如Clearview AI1未经通过用户同意,使用“爬虫”AI从主流社交平台及搜索引擎上检索并获取超过200亿张人脸图片与相关数据来建造其人脸识别系统,帮助执法部门追捕嫌疑人,这严重侵犯了用户的隐私权。尽管即使数据来源合法,也难豁免隐私保护责任。所以在发展人工智能的过程中,必须把隐私安全放在第一位。但需要看到的是,随着隐私保护技术的不断创新,如差分隐私、同态加密等技术的应用,可在一定程度上实现数据的可用不可见,有望在未来降低隐私泄露风险,使人工智能技术在合法合规的前提下更好地服务于司法领域。
第二,当下人工智能在审查证据时无法准确识别、理解信息,对证据进行实质性分析比较困难。证据材料可分为文本型和非文字类,文本型证据指的是证人证言、视听资料、书证等,它的提取主要依赖OCR技术2 (Optical Character Recognition,光学字符识别)。而非文字类证据信息提取更复杂,比方说物证信息的提取。像这类的证据包含大量非文字信息,如何将这些复杂信息拆解并转化为计算机可理解的数据,便是当前人工智能技术中亟待解决的一项技术难题。一方面,法律语言常使用高度概括的术语,如“意思表示”“无因管理”,这些术语背后涉及复杂的法律概念和理论,难以通过简单的字面意义理解。就算理解了法律术语,同一法律术语在不同语境中又可能有不同含义。以“合同”为例,“合同”在民法中指双方协议,而在行政法中可能指行政合同。另一方面,自然语言语义理解依赖上下文和环境,单靠语法难以理解句子,还需运用大量相关知识,包括生活常识和专业知识[14]。技术局限性就体现在处理自然语言时难以准确理解法律术语的多义性和模糊性,也无法完全覆盖并及时更新法律语言涉及的大量专业术语和案例。
除了对证据信息的识别与理解外,如何对证据进行价值判断同样是亟待攻克的关键问题,而且价值判断需要用到人类社会经验。人工智能在借助人类经验审查证据内容时,主要面临两类困境:一是人工智能无法理解和操作的情况,即人类通过知识积累和经验总结形成的抽象规则难以被直接转化为机器可执行的指令。如分析证人证言时需综合判断,仅依赖关键词提取所得出结论可信度低,需法官再次验证。二是尚无明确结论的争议性问题,即用于判断的规则过于抽象,连人类经验都无法进行总结适用。我国《刑事诉讼法》有项条文提到3,非法实物证据的排除需以“可能严重影响司法公正”为前提,但“严重影响司法公正”的具体标准仍需司法人员根据个案特点进行评价。不可否认的是,无论是多么先进的人工智能,证据问题中总会随时间发展产生各种人工智能都无法预料的因素,因此也不能完全就凭此判定当前人工智能介入证据审查是没有多大价值的。
3.2. 司法人工智能所依据的证据判断标准难以统一
在刑事司法领域,人工智能的引入为证据审查带来了新的可能性,但也凸显了证据标准统一化的复杂性与挑战。为解决实践中证据标准不统一的问题,地方法院根据司法解释,制定了既符合法定要求又契合本地司法实际的“地域性”统一证据标准。这些地方性规则虽然在一定程度上解决了区域内的实践难题,但也为全国范围内的证据标准统一带来了挑战[15]。仍以上海“206系统”为例,尽管其目标是通过技术手段实现公检法司的全链条协同,但由于各地案件数据特征的差异,系统的推广仅限于上海地区,难以在全国范围内推广适用。而且就算制定了全国统一的证据标准指引,地区的差异性也无法保证这样的标准就是公平、正义的。
另外,在刑事证据判断中,虽然人工智能的应用强调统一证据标准的重要性,但这一目标的实现并非易事。统一的证据标准指引确实比传统书面指引更加清晰、高效且具可操作性,但若将其视为“金科玉律”,则可能束缚司法人员的主观能动性。过于宽泛或模糊的标准不利于规范证据收集与判断程序,而过于严格或狭窄的标准则会抑制司法人员的自主性,导致其机械地套用规则,这不仅会损害个案正义,还会限制他们的自由裁量权。因此必须在统一性与灵活性之间寻求平衡,赋予司法人员更为自由的选择权。
3.3. 司法人工智能与司法制度的传统价值之间产生的冲突
利用人工智能审查证据不仅冲击了司法权力。当人工智能深度介入司法决策过程时,技术工具属性可能会逐渐转化为具有实质影响力的权力形态,即表现为通过算法模型和封闭运行机制控制司法裁判权。尽管现行制度仍将人工智能置于司法权监管框架内,但随着其应用的比重增大,这可能会制约司法人员并被独立运用,导致法律职业群体垄断的裁判权面临技术力量的挑战,传统的司法权力关系受到冲击。除此之外,若使用者对人工智能产生了过分的依赖,这不仅限制了其思维的发散,还阻碍了他们司法技能的提升与司法人员素质的全面发展,背离了引入人工智能的初衷。
利用人工智能审查证据冲击了司法的权威性。人工智能算法看似客观、科学、公正,但在涉及价值衡量的关键环节仍存在潜在风险,因为其无法实现审查判断证据全过程透明公开。由于人工智能算法模型的专业性和司法数据处理流程的复杂性,司法人员在使用时往往只能获得标准化程序运行后的结果,而无法了解其背后的逻辑。不仅如此,人工智能参与司法活动还可能会侵犯直接言词原则。在弱人工智能裁判中,法官仍可以作为整个庭审中的主导者。但随着强人工智能时代到来,计算机遵循二值逻辑,证据直接输入而非经过质证辩论,完全依赖人工智能的技术[16]。律师和当事人无法有效参与,或者说没有能力参与质证环节,人工智能可能成为掩盖失误的工具,引发当事人对智能司法系统的质疑。
利用人工智能审查证据难以彰显司法的人文性。人工智能在司法领域存在机械性、滞后性和局限性,难以适应社会法律环境动态变化([13]: p. 138)。系统设计者有限的能力也制约了AI的智能化水平,使其难以具有完全自主的决策能力。当不可预见的情形导致规则解释出现不同看法时,司法人工智能系统仍需人工干预来更新指令,如在涉及弱势群体的劳动争议案件中,法官可能基于公平原则适度调整赔偿标准。而人工智能无法像人类法官那样,以柔性方式去平衡法律的刚性,也无法让公众在司法案件中真切感受到公平正义的温度。这种人文性的缺失,正是人工智能技术在司法领域难以逾越的鸿沟。
难以建立与人工智能相对应的监督和问责机制。人工智能研发过程具有分散、不连续及不透明的特性,导致其风险出现具有不可预测性,给治理带来诸多难题。法律上,司法人工智能系统涉及多主体参与,风险出现时责任难界定。人工智能从“弱人工智能”向“强人工智能”发展的过程中,其自主性也在不断增强,这就引发了一个问题:人工智能实体能否成为具有权利义务关系的适格主体?鉴于机器已具备类似人类的独立思考和决策能力,该阶段的人工智能若与人类一样,成为独立主体并享有权利、承担责任,这势必会对传统法律体系带来颠覆性影响。
4. 人工智能介入刑事证据审查判断的优化路径
4.1. 明确人工智能在刑事证据判断中的界限
人工智能在刑事司法证据审查中的应用虽有进展,但其本质上仍然是一种技术工具,其社会功能的发挥高度依赖于使用主体的认知水平与行为选择。当前,学界普遍认同“技术辅助司法”的定位,即在肯定人工智能技术优势的同时,也需警惕其潜在缺陷对司法体系的冲击。人工智能的客观性能够有效降低法官直觉判断带来的偏差,提升司法判断的准确性。但人工智能的先天缺陷(无法进行价值判断) [17]与后天不足(如数据资源有限) [18]也使其在司法应用中存在局限性。所以司法实践中应坚持以法官为主导、人工智能为辅助的原则,把握二者之间的界限,避免技术过度干预司法决策。
近年来,法院工作报告中多次强调法官素质问题。司法人员对技术的过度依赖,可能使“辅助”理论异化为“形式上的辅助、实质上的主体”,最终背离以人为主导的司法理念。为避免技术异化,需明确人工智能的“有限辅助”定位,即仅在特定领域发挥辅助功能,如证据形式审查、单一证据合法性审查以及全案证据印证审查等[19],尤其要避免其介入需要人类价值判断与经验衡量的领域。以证据形式审查为例,在审查证人证言时,人工智能可以检查询问笔录是否记载了询问人告知证人应如实作证的义务,以及询问人、记录人的姓名是否填写完整等这些程序性事项。如果发现瑕疵,系统可提示办案人员进行补正或解释。这类程序性瑕疵通常不会实质影响犯罪嫌疑人或被告人的基本权利,所以可以由人工智能系统先进行初审。此外,人工智能也可以对证据间的矛盾进行筛查。利用人工智能技术在数据比对方面的优势,识别不同证据在时间、地点等信息上的冲突,如检测同一询问人员是否在同一时间段内询问不同证人。若将人工智能限定于程序和形式上的事务,法官则可将更多精力集中于证据的实质审查。这种分工既发挥了技术的效率优势,又确保了人类法官在司法决策中的核心地位,守护了司法公正的本质价值。
4.2. 完善人工智能证据审查机制
首先,制定证据判断标准时,要归纳总结具有地域性的法律规则,使其更具普适性。统一证据判断标准的制定面临地域性差异的挑战。为实现更大范围的标准统一,需对各地试点法院制定的具有地域性的规则进行区分处理,剔除无法抽象提炼或缺乏普遍适用性的内容,使证据指引规则更具可靠性与普适性。对于无法抽象提炼或缺乏普遍适用性的内容,可单独由各地司法机关自行整理、补充,并附于本地的司法人工智能系统之中。若证据审查时触及此类关键词,该系统则提示法官,并由法官介入审查。
其次,在对证据进行审查判断时,要根据案件难易程度以及所处阶段进行选择适用。为优化人工智能在刑事证据判断中的应用,可构建三阶段辅助程序,涵盖“证据信息获取–证据收集指引–证据校验与事实认定”。根据案件难易程度以及案件的不同阶段,灵活选择是否完全适用三阶段的程序。对于一般刑事案件,可完整采用三阶段程序。然而,鉴于人工智能技术的局限性,在疑难刑事案件中,应尽量限制其应用范围,仅运行前两个阶段程序,避免过度依赖证据校验程序,以维护裁判者的主体地位与自由裁量权。在案件的不同阶段,特别是侦查、审查起诉阶段,应尽量选择适用三阶段程序中的前二阶段。原因如下:其一,由于公检法适用的一般是同一套人工智能系统,若让人工智能系统提前介入证据的审查过程,这可能会违背审判中心主义和庭审实质化;其二,过早介入证据审查可能会使法官的潜意识受到不当的引导和影响,导致裁判结果与人工智能系统所做出的相似[20]。对于人工智能系统已介入一审审判的证据推理的,二审与再审程序应排除其使用,以确保当事人的审级利益得到充分保障。另外,人工智能辅助系统也可能因系统僵化或规则不合理,导致司法人员的判断与系统结论不一致。为解决这一问题,可在操作系统中设置一种可以交予司法人员选择权的程序,由司法人员选择是否补充材料或直接进入下一阶段,保障司法人员对证据的最后审查。具体流程见图1。
Figure 1. Evidence reviews
图1. 证据审查程序
最后,在运用人工智能质证时,要把庭审实质化和平等公开作为基本原则[21]。刑事证据判断中引入人工智能技术时必须恪守庭审实质化与平等公开等程序规范,并将其作为基本原则。这不仅是程序正义的体现,也是实现人工智能在刑事证据判断中实质正义的前提。庭审实质化意味着人工智能需嵌入刑事审判程序,要以刑事审判标准为指引,全程跟进证据判断过程。具体来说,证据材料应在庭审中通过人工输入并由人工智能当庭完成证据分析并生成结论,以供控辩审三方参考。这一改变保证了控辩双方在庭审中的质证权利,确保案件事实的分析与裁判理由能够在法庭上形成。
4.3. 增强司法透明性与可追溯性
在司法人工智能系统审查证据时,算法的不可解释性导致当事人对审查过程的正当性产生质疑。针对这一问题,算法公开被普遍认为是最直接且有效的方式,也是提升司法透明度的关键路径。在刑事司法人工智能时代,技术正当程序理论进一步拓展了透明的内涵,要求不仅程序公开,还应包括司法数据以及算法的公开。但关于算法公开,一方面,有些公司出于利益考虑,不愿公开其商业秘密;另一方面,技术知识的壁垒使得算法即使公开,非技术人员也难以理解复杂的代码与运算逻辑。因而算法公开形式上的透明无法真正满足当事人对审查过程的实质参与需求([2]: p. 70)。为弥补这一不足,证据审查过程中应加强司法人员对审查结果的说理论证。具体而言,司法人员需详细说明证据审查结果为什么准确可靠,比如提供量化证据标准所依据的案例样本数量、样本与本案的相似度,以及采纳或拒绝某项证据的具体依据。这种说理不仅有助于增强审查结果的公信力,也能为当事人提供更清晰的审查依据。对于技术知识壁垒,未来可考虑引入专家辅助人制度,给予当事人申请技术专家出庭的权利,由专业人员对人工智能证据审查中的技术问题进行审查与认定,从而改善质证效果。
除了上述措施,司法机关还需建立完善的责任追究机制,避免陷入因责任失职而导致无人可追的困境。首先需要区分人工智能的私用和公用。在私用时,应以不侵犯公共利益和私人权利为监管原则,还要警惕资本对司法独立与公正的侵蚀。对于公共私用,应建立专门的审核机制进行全面事前审查。在事先约束的基础上,还需完善事后追责机制,确保研发、审查与应用主体的责任清晰明确。责任追究应以当事人权利实质性的损害为前提,并根据不同主体的权利义务采取差异化处理。例如,当事人可以因违反技术正当程序而寻求司法救济,而作为应用主体的刑事司法机关则应为其提供充分的救济渠道。司法人工智能的研发主体与审核主体应被设定合理的责任边界,仅在其存在故意或重大过失时追究责任。通过落实和贯彻技术正当程序与技术赋权理念,才能真正实现人工智能与司法公正的良性互动。
5. 结语
人工智能在刑事证据审查中的应用,既是司法现代化的必然选择,也是司法人工智能的重要实践。近年来,各地法院在政府的倡导下纷纷投入到司法人工智能系统建设的实践中去,投入使用各种辅助办案系统和网上诉讼平台为我国法律人工智能服务的发展带来了巨大的促进作用。人工智能在程序性审查中具有不可替代的优势不可否认,不过还是要注意,技术追求的效率与司法需要的人性之间存在矛盾。个案的特殊性和复杂性、法律语言的抽象性以及价值判断的不可计算性,这些特点决定了司法活动必须保留人类裁决的核心地位。其次,司法人员在审查证据时也要选择适用而不滥用人工智能技术。为保证审判进程的公正性,技术层面上要实现算法数据的公开透明,制度层面上要完善事前和事后的问责制度。
虽然我国目前司法人工智能还处于初级阶段,算法黑箱、法律推理与论证以及制度完善等问题还无法在短时间内得以解决。但在未来,司法机关或许可以大力开展跨界合作,与不同领域的专家共同探索法律规则与算法逻辑的兼容路径。并且也要与时俱进,完善相关法律制度,明确技术研发、部署的方向和界限。当然最重要的是要加强司法人员的技术素养培训,避免其因技术依赖而导致专业能力退化。只有在科技助力与司法建设之间找到平衡,才能实现效率与公正,守护司法作为“社会正义最后防线”的价值。
NOTES
1一家专门从事面部识别的人工智能初创公司。
2OCR技术是一种检测图像中的文字,后经识别转换为可编辑文本的技术。
3具体见《刑事诉讼法》第56条。