1. 问题的提出
近年来,我国发生的冤假错案无不与审查证据不严、忽视无罪证据、办案人员违法取证有关,这极大地影响司法权威。《新一代人工智能发展规划》中提出“要建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析等中的应用,实现法院审判体系和审判能力智能化”1。人工智能作为数字化时代下的新兴产物,在建设智慧法院方面具有不可替代的作用。《最高人民法院关于规范和加强人工智能司法应用的意见》中明确规定“加强人工智能全流程辅助办案,支持证据指引与审查等智能化应用”2。据此,人工智能应用于刑事诉讼过程尤其是刑事证据判断领域是未来发展趋势。在刑事诉讼过程中,控辩审三方通过上海“206”系统、司法区块链等智能办案辅助系统使得证据更加清晰、论证更加有力,一定程度上有利于法官作出明确裁判。现阶段,我国将人工智能的发展上升为国家战略,并明确以审判为中心的诉讼制度改革的核心内容是推动人工智能与刑事诉讼改革的深度融合,充分发挥人工智能的价值,防止冤假错案频发。
然而,目前我国正处于弱人工智能阶段,在运用人工智能提升庭审效率、审查证据的同时,基于人工智能本身局限性使得在刑事证据判断中的运用存在诸多挑战。现有研究多从宏观层面出发,主要集中在如下几方面:首先,针对人工智能在刑事证据判断领域中的定位问题,学者多讨论如何明确人工智能“有限使用”的原则;其次,针对人工智能在刑事证据判断领域中的困境,学者多讨论证据标准、证据规则指引等问题;最后,针对人工智能在刑事证据判断领域中的破解路径,学者多从定位、程序等方面探讨。然而,从微观角度很少提出具体性对策,故本文以统一证据标准理念为核心,探讨人工智能在刑事证据判断领域中存在的理论争议以及实践困境,试图从立法角度构建一套以裁判者为主导的刑事证据审查机制和人工智能技术的算法问责制度,以期通过有效法律充分发挥人工智能的应有价值。
2. 人工智能在我国刑事证据判断领域的挑战
人工智能在我国刑事证据判断领域中坚持以统一证据标准为核心,并运用算法进行分析,最终得出决策结果,然而这是一个价值判断和选择的过程,在此过程中,人工智能的介入不可避免地会带来一些风险挑战。
2.1. 人工智能在刑事证据判断中的理论争议
统一证据标准是司法标准化的重要组成部分,也是人工智能运用坚持的核心理念。人工智能在运用中试图追求刑事证明的标准化,这对促进执法规范化、规则系统化、信息充分化具有重要意义,但是也存在统一证据标准和统一证明标准的理论争议,以及统一证据标准是否会加剧法定证据主义的倾向。
2.1.1. 统一证据标准不等于统一证明标准
在推进以审判为中心的诉讼制度改革中,统一证据标准是人工智能应用于刑事诉讼领域的核心理念。贵州省司法机关、上海市司法机关分别制定了《刑事案件基本证据要求》《上海刑事案件证据收集、固定、审查、判断规则》,主要规定常见案件的犯罪证据,并对立案证据、案件侦破证据、刑事责任能力证据、量刑证据进行明确要求,在立案、审查、起诉、审判各个阶段细化证据标准。然而,不少学者对“统一证据标准”和“统一证明标准”存在争议,甚至对是否应当统一证据标准存在质疑,这是因为政法系统先后提出了“统一证据标准”和“统一证明标准”两种概念,以致于在实务界对两种标准运用存在混同现象,诸如上海刑事案件智能辅助办案系统既为办案人员提供证据标准指引,又将刑事证明标准具体化。
证明标准是指在诉讼活动中承担证明责任的一方对案件事实的证明必须达到的程度或要求[1]。刑事诉讼中的证明标准是指“案件事实清楚,证据确实充分”,《刑事诉讼法》第五十五条规定了“证据确实充分”3的具体条件。然而,学术界对是否统一证明标准仍然存在争议,其主要争议点在于证明标准的层次化和统一性问题。有学者认为,根据《刑事诉讼法》规定,侦查终结、提起公诉、审判阶段均应坚持“案件事实清楚、证据确实充分”的证明标准;也有学者认为,应当根据诉讼阶段的不同、证明主体和对象的不同确定层次性证明标准;此外,多数学者批判层次性证明标准,提出统一证明标准有利于促进审判中心主义。
Table 1. Statement about “standard of evidence”
表1. 关于“证据标准”的表述
证据标准 |
本案未达到事实清楚,证据确实充分的证据标准。 |
事实不清、证据不足,不符合证据标准。 |
严格证明标准 |
事实清楚、证据确实充分的严格证明标准。 |
证明标准 |
本案未达到事实清楚、证据确实、充分的证明标准。 |
立案证据标准 |
仅一份协查令予以补证立案证据,不符合刑事案件的证据标准。 |
证据标准不是证据法中的通用概念,学界对证据标准的概念也没有统一规定,有学者认为证据标准是指检察机关对指控某一被告人犯有某种罪行并要求其承担刑事责任时,根据刑事实体法与程序法的规定,在证据要求上应达到的最低标准[2]。虽然该概念界定存在人为性,但是不得否认的是证据标准主要针对案件证据方面的要求,不涉及案件事实认定的判断标准。然而,本文以“证据标准”、“证明标准”为关键词,以2021年11月~2023年11月为裁判日期在中国裁判文书网上进行检索,归纳出证据标准在司法实践中的不同适用情形,如表1所示。
由表1可知,司法实务界要不将证据标准当作案件事实认定的判断标准,要不将其认定为刑事案件立案的证据标准,这就导致证据标准混同为证明标准。随着以审判为中心的诉讼制度改革,我国又提出了“统一证据标准”,有意将证据标准和证明标准进行明确区分,赋予“统一证据标准”独立的价值和地位。
2.1.2. 法定证据主义与自由心证主义
关于统一证据标准的理论争议还引发刑事诉讼中证据制度的走向问题。刑事诉讼中的证据制度有法定证据制度和自由心证制度两种,其中法定证据制度是指法律事先规定出各种证据的证明力和判断标准,法官在审判中必须严格遵守这些规则。自由心证制度是指证据的价值或证明力不再由法律事先做出具体明确的规定,法官和陪审员在审判中可以运用自己具有的“人类普遍认知能力”来自由评断具体案件中各种证据的证明力。法定证据制度的最大缺陷在于在证据运用问题上过于强调证据的种类、形式,法官只能机械地按照法律规定进行定罪量刑,违背诉讼认识规律,刑讯逼供自然而然成为其基本特征。
由前文分析可知,证据标准并不涉及案件事实认定问题,无关证明力。其中,证明力是指证据对于待证事实存在的可能性所具有的一种量化的评价;证明能力是指一个证据能够作为证明案件真实情况的材料。然而,司法实务界将证据标准当作案件事实认定的判断标准,这就容易导致法定证据主义。贵州省司机机关制定的《刑事案件基本证据要求》对几类常见案件如故意杀人和伤害案件、抢劫、抢夺、盗窃案件、毒品案件的个别化证据加以规定(参见表2);上海高院制定的《上海刑事案件证据收集、固定、审查、判断规则》也对刑事诉讼法中的八类证据,详细规定了收集程序、规格标准、审查判断要点,对量刑证据、程序证据的收集、固定作了明确。过于精细化的证据种类制度缺乏必要弹性,无法囊括所有具有证明价值的材料,此外,相关司法文件还规定了“原始证据的证明力一般大于传来证据”,对证据的证明力加以限制性规则。证据标准作为案件进入审判阶段的最低尺度,是建立在证据规则的基础之上,而证据规则又受法定证据主义的影响,势必会加剧法定证据主义的倾向。
Table 2. Basic evidence requirements for criminal cases
表2. 刑事案件基本证据要求
案件类型 |
应收集的证据 |
故意杀人和伤害案件 |
立案证据;案件侦破证据;勘验、检查、搜查证据;鉴定意见;确认被害人身份的证据;指认、辨认笔录;视听资料;通讯及活动证据;侦查实验;被害人陈述及证人证言;犯罪嫌疑人供述和辩解;证明犯罪嫌疑人刑事责任能力的证据;情况说明。 |
抢劫、抢夺、盗窃案件 |
立案证据;破案证据;勘验、检查、搜查笔录;痕迹、物品、生物样本等提取笔录和扣押清单;鉴定意见;指认、辨认笔录;视听资料、电子数据;证人证言、被害人陈述;犯罪嫌疑人、被告人供述和辩解;犯罪嫌疑人刑事责任能力和前科情况;其他程序性材料;情况说明。 |
毒品案件 |
立案的证据;案件侦破的证据;现场勘查、检查、搜查、辨认的证据;毒品称量、上缴、保管的证据;毒品鉴定的证据;犯罪嫌疑人活动轨迹的证据;涉案通讯的证据;毒资的证据;毒品运输的证据;涉案物品的证据;相关鉴定的证据;证人证言;犯罪嫌疑人供述和辩解;犯罪嫌疑人、被告人自首、立功的相关材料;犯罪嫌疑人、被告人身份、刑事责任能力及前科材料;同案犯罪嫌疑人、被告人被处理的材料;相关情况说明材料;技术侦查的材料;程序性的证据材料。 |
2.2. 人工智能在刑事证据判断中的实践困境
人工智能在刑事证据判断领域还存在技术层面和伦理层面的困境,主要分为算法黑箱和算法歧视。将算法应用到刑事证据判断中,辅助司法决策,一定程度上有利于提高司法机关的办案能力,但是我国司法机关遵循着公开公正、法律人人平等的原则,算法本身存在的风险在一定程度上是违背这些原则的。立足于传统的司法原则,例如公开透明原则、公平公正原则,深入分析算法本身存在的风险对这些原则的冲击。
2.2.1. 技术:算法黑箱与司法公开透明原则的桎梏
人工智能辅助办案系统是将海量基础数据通过计算机进行一系列的分析,最终得出结果,其中人们是无法理解人工智能的数据分析决策过程,只能关注到最终的决策结果。算法技术包含“黑箱”算法、“白箱”算法等类型,但是多数采用的是“黑箱”算法[3]。“黑箱”算法是指计算机并不遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程,直接从事物原始特征出发,自动学习和生成高级的认知结果[4]。针对算法黑箱存在的原因,可以归纳为以下几方面:
1) 算法设计师主观上不愿意公开。算法被当作一种商业秘密,如法官将COMPAS犯罪风险评估工具的算法当作商业秘密,从而允许算法设计公司不公开算法代码和算法工作原理,同样,算法设计公司基于保护自己的商业秘密不愿意公开算法,以维护自身的竞争优势。
2) 司法机关客观上不能公开。出于国家安全的考虑,一旦公开算法,会有一些犯罪者反向学习算法,这势必会削弱人工智能辅助办案的作用,影响司法机关在人工智能辅助办案系统中的支配地位。
3) 算法本身存在无法预料的结果。即使算法设计公司和司法机关愿意公开算法,可能连程序员也无法解释某些算法决策过程是如何做出的,例如微软人工智能聊天机器人Tay仅仅不到一天时间便学会了种族歧视、反犹太人等,虽然设计者最初并不带有歧视,但是算法一旦进行分析,就连设计者也无法知晓其运行结果。
算法黑箱不仅严重侵害数据主体的隐私权,而且容易导致算法歧视或者不公平。人工智能进行数据分析的基础是海量数据,是对互联网中的数据进行自动抓取和分析,在这一过程中,如果在未经授权的情况下随意抓取,势必会构成对数据主体个人信息的侵害,尤其是涉及隐私信息,会侵害到数据主体的隐私权,这种侵害是极其隐蔽的,人们无法运用法律手段进行保护。此外,基于算法黑箱的存在,人工智能无法做到刑事证据判断过程的全透明,这使得司法人员只能得到一个算法决策的结果。算法黑箱在一定程度上影响刑事证据判断结果的公正透明,有违司法公开透明原则。针对“算法黑箱导致算法歧视”在这不再赘述,将在下一部分进行详细分析。
2.2.2. 伦理:算法歧视与司法公平公正原则的冲突
以算法为核心的人工智能在快速发展的同时也给人类社会带来了一定的风险,其中算法歧视4是不可避免的问题之一。算法歧视并没有明确的概念界定,大致可以分为两种解释路径:一是涉及平等权语境下的算法歧视[5];二是涉及经济法语境下的算法歧视。此处所要讨论的是与平等权有关的算法歧视,是指人工智能在数据分析所导致的对特定群体不合理的差别对待。在刑事司法领域,美国ProPublica公司研发的COMPAS系统通过在对被告人进行再犯风险评估中被发现黑人的再犯风险评估明显高于白人,存在系统性歧视。这表明人工智能存在算法歧视的弊端,这种歧视是对法律面前人人平等和审判中立原则的侵犯。
针对算法歧视的原因,有学者将其分为先行存在的偏见、技术性偏见以及突发性偏见[6];也有学者将算法歧视的成因分为三种:一是算法设计导致的偏见;二是数据输入导致的偏见;三是算法黑箱导致的偏见[7]。综上,算法歧视的具体成因可分为以下三方面:
1) 固有偏见导致的算法歧视,即对人类社会中固有偏见的反映。人工智能并不具有独立思考的能力,其运作程序是由人进行设定的,然而在此过程中,程序设计师有意无意地将个人价值判断和偏见融入算法设计的各个步骤,例如在预测警务算法中过分强调邮政编码导致犯罪地区与低收入群体所在的社区相关联。算法作为一种人类意识形态的具体体现,在设计之初都会被嵌入程序设计师的个人价值偏好,即使设计师并非故意,也会因所处的社会环境影响其价值偏好,从而导致算法歧视。
2) 数据偏差导致的算法歧视,即敏感性数据冗余编码的结果。根据GIGO定律,如果数据本身具有歧视性,输入过后所产生的结果往往不具有公正性,导致算法歧视的出现。算法的核心在于深度学习,种族、性别、地域等敏感数据因“冗余编码”与其他数据相结合,将某一特征与某一群体进行关联分析,最后导致算法输出结果带有歧视性。
3) 算法黑箱导致的算法歧视,即因过程的不透明不公开导致的歧视。微软人工智能聊天机器人Tay,在与网友聊天之后短时间内就学会了性别歧视、种族歧视、反犹太人等,可见,在算法输入数据、数据分析、输出数据的过程中存在着无法洞悉的算法黑箱,具有很强的隐蔽性。正因为如此,算法黑箱成为算法歧视发生的具体原因之一,此种算法的隐蔽性也给歧视识别造成困难。
在数字时代下,算法歧视是不可避免的,冲击着司法公平公正原则,《中华人民共和国宪法》第33条规定“中华人民共和国公民在法律面前一律平等”。算法歧视会令特定群体遭受不公正的对待,这就违反法律面前人人平等的原则,必然最终导致不公正的后果,从根本上违背司法公平公正原则。此外,算法歧视会固化既有的歧视,加深社会分裂和不平等[8],人工智能辅助办案系统将犯罪嫌疑人的前科情况、身份信息等进行数据分析,在此过程中不自觉地会有偏见影响,例如黑人的犯罪率大于白人、低收入群体容易犯罪等,这在一定程度上加剧了种族歧视、性别歧视、贫富分化等,不利于构建和谐社会。
3. 人工智能在我国刑事证据判断领域的优化路径
如前文分析可知,人工智能在我国刑事证据判断领域中存在诸多问题,无论是统一证据标准的引入,还是算法本身存在的风险,都在一定程度上影响刑事证据判断的公正性。目前,如何有效应对人工智能在我国刑事证据判断领域中的问题是一个亟需解决的问题。
3.1. 构建算法证据审查规则体系
人工智能在我国刑事证据判断领域中坚持以统一证明标准为核心,并明确规定刑事证据收集、审查的规则,但该规则中仅仅通过“列举式”规定司法机关应当收集的证据,并未有一套针对性的证据审查机制。本文认为,应当厘清人工智能相关证据的本质属性,构建一套以裁判者为主导的审查机制。
3.3.1. 明确算法证据的本质属性
人工智能技术的发展促使算法渗透到司法裁判中,特别是证据判断领域中,使得传统意义上的证据体系发展到以电子证据为核心的新证据时代,突破了原有法定证据种类的限制。学术界对人工智能相关证据的本质属性主要存在以下三种观点:
1) 大数据证据,是指基于海量电子数据形成的分析结果或者报告。本文认为人工智能相关证据的核心价值在于算法,而非海量电子数据,此种观点并未凸显算法的价值所在。
2) 人工智能证据,是指基于人工智能分析形成的可用于证明案件事实的机器意见[9]。就司法实践中将人工智能定位为辅助办案得到一致认同,而此观点却将关注点放到人工智能上,忽视相关证据产生的机理。
3) 算法证据,是指将海量的案件信息数据进行计算整合,形成结构化和信息化的案件场景自动解读与自动推理结果[10]。
本文比较认同将人工智能相关证据定义为算法证据。算法是人工智能相关证据的核心特征,用算法证据这一定义能够体现出算法本身的价值,但是这种算法证据既包括大数据本身,包括案件过程中所产生的与大数据相关的算法,也包括通过算法对大数据进行分析后所总结出的报告。本文所述的算法证据是指人工智能基于海量数据所进行数据化分析得出的报告或者结果。此种算法数据与电子数据在数字化存储形式、数据信息介质等方面存在相似之处,在机器生成性方面存在不同。根据《关于办理刑事案件收集提取和审查判断电子数据若干问题的规定》中明确指出“电子数据是在案件发生过程中形成的,以数字化形式存储、处理、传输的,能够证明案件事实的数据”。由此可知,电子数据呈现的是案件事实的原始状态,而算法证据则是基于海量数据进行分析的“二次加工”,因此不能用电子数据的审查规则对算法证据进行审查。
3.1.2. 明确算法证据的证明力规则
作为算法证据,也应当遵循既有的证据审查要求,对算法证据的证明力进行规定,这有利于避免证明评价的主观性。具体来说,证明力涉及关联性、合法性、可靠性三个因素,因此算法证据的证明力规则也应当规定这三个方面。首先,需要审查算法证据的关联性,关联性审查是算法证据审查规则的第一道门槛,采取较为宽松的标准。其次,需要审查算法证据的合法性,应当重点审查收集到的数据是否符合法律规定,是否存在侵犯公民隐私权的数据,是否违背基本的政治价值观和规范价值观。最后,需要审查算法证据的可靠性,主要包括两方面要求,一方面,人工智能在进行数据分析过程中是否存在错误代码;另一方面,人工智能进行数据分析得出的结果或者报告能否被普遍接受和被同行评议。
3.2. 构建人工智能技术的算法问责制度
大多数学者认为算法公开是必要的,是“算法治理体系中不可或缺的一环”。但也有学者基于保护商业秘密,不支持算法公开。算法黑箱阻碍社会的公平正义,而算法公开被认为是目前解决算法黑箱问题的关键所在,但是将算法公开不仅涉及商业秘密泄露的问题,而且影响国家安全稳定,即使公开算法,人们也无法懂得其中的分析过程,算法依旧是不可解释的。本文认为可以尝试构建人工智能技术的算法问责制度,在监督过程中确立适度的算法公开原则,这是协调算法保密和算法公开之间的矛盾,做好维护公平正义的最后一道防线。
3.2.1. 确立司法人员的优位追责原则
审判智能化冲击着审判责任主体,人工智能能否具有独立法律资格,作为责任主体仍然存在很大争论。有学者认为人工智能被设计只能按照算法运行遵守法律,却不能理解法律,不能具有独立法律资格,也有学者根据人工智能的不同发展阶段和智能化程度区分人工智能是否具有独立法律资格,弱人工智能不具有控制和辨认能力,不具有独立法律资格,而强人工智能具有控制和辨认能力,能够超越算法程序范围作出行为,具有独立法律资格。本文基于我国仍处于弱人工智能时代的现实,暂不考虑赋予人工智能独立法律资格。目前我国司法机关仍然遵循司法亲历性,人工智能作为辅助办案工具,不能干预司法审判,司法人员仍然是审判主体,决定着个案裁判,其主体地位并未因人工智能而被取代。
构建算法问责制度首先应当明确司法人员的优位追责原则。对司法人员尤其是法官的优位追责,一方面,人工智能不具有独立法律资格,即便通过人工智能进行辅助办案,法官依然是案件的裁判者,司法责任制要求的权责统一原则也应在算法问责制度中有所体现,由进行案件裁判的法官对审判错误或者瑕疵承担责任;另一方面,算法责任主体即使存在歧视也是在价值判断层面,不涉及司法裁判,不宜作为优位追责主体。针对法官的归责原则,应当适用过错推定原则,由算法责任主体承担决策结果和歧视结果不存在因果关系的举证责任。由于算法责任主体对人工智能技术具备专业优势,如此规定以防止算法责任主体利用算法黑箱逃避责任。
3.2.2. 强化算法分析师的监管力量
类似于专家辅助人制度,人工智能领域可以引入算法分析师,赋予审核监督权。本文坚持算法有限度公开,即不公开为原则,公开为例外,如果算法存在歧视,侵犯公民平等权、隐私权的行为,公民有权提起诉讼,由算法分析师介入辅助公民对算法进行审核监督,除此之外,如果算法责任主体举证说明决策结果与歧视不存在因果关系,可以申请算法分析师对其提供的证据进行质证,这既保证了算法的相对透明,又有利于控辩双方进行有效质证。我国《新一代人工智能发展规划》中明确指出“建立健全公开透明的人工智能监管体系”。引入算法分析师,强化其监管能力,具体的监管手段包括审核访问协议的严密性、在线跟踪个人信息再次使用的情况、允许用户不提供个人数据、未经同意不得将数据转卖给第三方等。此外,在监管工作中坚持有限度算法公开原则,算法设计师和运营者应当向算法分析师公开代码程序,并配合审查和监督工作,由算法分析师对算法决策过程进行监管,对人工智能辅助办案系统的相关数据进行跟踪与测评,为责任承担提供材料依据。
4. 结语
党的二十大报告指出,构建人工智能等一批新的经济增长点,推动数字经济的快速发展。近年来,各地司法机关积极践行人工智能的国家战略,通过研发各种智能辅助办案系统和网上诉讼服务平台辅助诉讼裁判,并在立法层面发布《新一代人工智能伦理规范》《网络安全法》《数据安全法》等,着力构建人工智能法律体系。本文从证据法角度,总结了人工智能在我国刑事证据判断领域中的困境,并针对相关问题提供了优化路径,构建了算法证据审查规则体系和算法问责制度,以充分发挥人工智能在我国刑事证据判断领域中的独特价值。需要注意的是,接下来关于人工智能的相关研究,除了分析人工智能本身存在的风险之外,还应着重考虑人工智能是否具有独立法律资格,由于人工智能相关法律法规不健全,导致人工智能发展面临如何确定主体责任、如何防范算法歧视等问题,本文所提出的算法问责制度虽然能够解决算法歧视和算法黑箱等问题,但也同样面临一个问题,就是人工智能的主体责任,这也是未来进入强人工智能阶段需要面对的问题。
NOTES
1《新一代人工智能发展规划》,国发(2017) 35,2017年7月8日发布。
2《最高人民法院关于规范和加强人工智能司法应用的意见》,法发(2022) 33号,2022年月12月9日发布。
3证据确实、充分,应当符合以下条件:(一) 定罪量刑的事实都有证据证明;(二) 据以定案的证据均经法定程序查证属实;(三) 综合全案证据,对所认定事实已排除合理怀疑。
4由于“歧视”与“偏见”在语义上有所不同,但一般认为“歧视”是“偏见”,故本文对两者未加以区分,算法歧视也可认作算法偏见。