1. 人工智能法官独立司法的正当性迷思
近年来,人工智能技术快速发展,其在司法领域的应用不断拓展并日益深化。国际上,美国法官已开始利用人工智能辅助进行保释和量刑判断[1],瑞士则建立了智能刑事司法系统[2];在国内,人工智能司法实践处于全球领先地位,各地智慧法院的建设显著推动了我国司法体系的现代化进程[3]。
在人工智能发展的早期阶段,学界的讨论主要聚焦于其技术能力[4],近年来,研究的重点逐渐转向人工智能在司法实践中的应用边界,尤其是人工智能法官的可行性[5] [6]。多数学者对人工智能法官的评价较为一致,认为尽管其在提升司法效率和辅助决策方面具有显著优势,但目前仍存在诸多技术与伦理局限,无法独立完成审判任务。因此,人工智能更多被视为司法辅助工具,而人类法官仍是审判过程中的核心主体[7]-[10]。
ChatGPT的出现打破了传统对人工智能的认知,掀起了巨大震动。其技术的爆炸性发展和潜力使人工智能从一个便捷工具迅速转变为潜在失控、持续扩张的强大存在,引发了社会的高度警觉。马斯克等国际科技领袖呼吁相关科技公司和实验室应该暂停训练比GPT-4更强大的人工智能系统至少6个月,以评估其潜在风险并制定必要的法律法规,为人类探索控制人工智能提供缓冲和反思的空间。1
尽管学界早已对人工智能快速发展和高水平应用可能带来的风险表示担忧,认为其可能演化为超人工智能(ASI),突破工具性限制并冲击司法乃至法律实践中人类的主体地位[11],但ChatGPT类生成式人工智能的出现进一步凸显了这一问题的严重性。学者们逐渐认识到“人类法官正在或者已经让渡部分决策权成为不争的事实”[12]。在这样的背景下,基于对“完全的人工智能裁判不再只是幻景”[13]的认识,学界逐步将研究的重点延伸至人工智能法官独立司法的正当性问题,试图探讨人类是否应接受人工智能法官的审判。
下文将围绕当前学界对人类是否应接受人工智能法官审判的探讨,即人工智能是否具备独立司法正当性的问题,进行系统梳理与评析。
2. 学界主要论证思路的梳理与分析
总体而言,当前学界对于人工智能独立司法正当性的问题主要呈现两种对立态度。一种观点认为人工智能具有独立司法的正当性,提倡拥抱技术进步与时代潮流,并为人工智能法官的最终实现提供理论支持,相关论证以“证明”为核心[14] [15]。相反的观点则质疑人工智能独立司法的正当性,认为技术进步并不必然意味着正当性,同时强调不能因技术优势而忽视正当性的伦理与法律基础,相关论证以“证伪”为路径展开[13] [16] [17]。
2.1. 对证明路径的批判性分析
支持“证明”路径的学者主要采取两种进路来论证人工智能独立司法的正当性。
第一种进路从审判的不同维度展开,包括司法本质、司法手段、司法过程及司法结果,全面探讨人工智能在这些方面实现独立司法的可能性[14]。第二种进路则着眼于弥补当前人工智能司法存在的理论漏洞,特别是可解释性问题。该问题表现为人工智能司法的基础数据不充分、算法黑箱及价值衡量能力不足。对此,学者提出了多种解决方案,如构建司法信息公开共享制度以优化数据利用效率,通过指导性案例和司法解释扩展法官的解释权限,以及提升法律解释技术,以逐步缓解可解释性困境,从而为人工智能独立司法奠定理论基础[15]。
针对上述两条进路,笔者认为其存在以下的一些问题。
首先,就第一条进路而言,尽管试图通过司法本质、手段、过程和结局等维度全面论证人工智能司法的正当性,但这些论证主要聚焦于审判形式,未能触及司法裁判的核心,即“司法裁判本质上是在法官主导下,以追求共同正义为目标的裁判说理活动”[13]。这种形式上的周延并未有效证明人工智能能实现审判的实质目标——共同正义。此外,该进路忽视了一个重要因素:受法律管制者对人工智能司法的接受程度。现实中,人们在情感和价值认知上更倾向于接受人类法官的审判,这种接受度本身也是司法正当性的重要组成部分[18]。
其次,就第二条进路而言,其中提到的算法黑箱问题实际上是一个伪问题。在法律审判中,判决的正当性并不完全取决于法官的决策过程,而在于判决理由的公开与可接受性。同样,对于人工智能,其算法的具体运作机制并不需要完全透明化,关键在于其能够提供令人信服的判决理由,使其结论具有合理性并获得公众认同。这一点对于建立人工智能司法的正当性至关重要,而不必纠结于算法内部的全面可解释性[19]。
2.2. 对证伪路径的批判性分析
持“证伪”论证路径的学者对人工智能独立司法的三大优势——高技术、高效率和高准确性——提出了质疑,认为这些优势背后隐藏着无法忽视的问题。
首先,在高技术方面,学者指出技术进步可能掩盖了算法黑箱带来的司法裁判权归属不明问题。表面上,裁判权似乎归属于人工智能法官,但实际上可能由程序员、算法开发者甚至特定利益集团所掌控。此外,程序员的主观偏见可能嵌入人工智能系统中,造成系统性偏见,使人工智能难以实现公正中立。即便实现技术上的中立性,由于人工智能缺乏价值意向性,无法理解法律追求的价值目标,其判决仍难以达到实质公平正义的要求。更为深刻的是,人工智能独立司法可能导致司法异化,使技术凌驾于人类之上,成为对人类的奴役[13]。
其次,在高效率方面,虽然人工智能能够快速生成裁判结论,但“快”并不等同于“好”。高效输出的判决未必符合正义的要求,更难以提供令人信服的判决理由,而判决理由正是司法正当性的核心要素[13]
最后,在高准确性方面,人工智能独立司法建立在真理符合论的传统基础上,强调司法结果的确定性。然而,学者认为,仅通过确定性无法实现真正的正义。正义需要在商谈程序中得以体现,而这一过程正是人工智能无法有效参与的。因此,人工智能独立司法在缺乏商谈和共识基础的情况下,其正义性难以成立[13]。
针对上述质疑,笔者认为其论证存在以下几方面的漏洞:
首先,关于司法裁判权的归属问题,论证存在内在矛盾。一方面,作者认为人工智能司法的权力实质上掌握在程序员或利益集团手中,意味着司法权最终仍归属于人类;另一方面,作者又认为人工智能掌握司法权将导致司法异化,实现技术对人类的奴役。这种矛盾论述难以成立。事实上,人工智能审判并非毫无依据或任意操控,而是以事实为依据、以法律为准绳,其判决的合法性源于人类既定的法律体系。2人工智能在司法中的角色只是执行人类意志,并未形成对人类的奴役。
其次,关于程序员偏见的问题,其影响被过分夸大。尽管人工智能可能因算法设计存在偏见,但偏见是否完全削弱司法正当性值得进一步探讨。人类法官同样难以完全避免偏见,且这种偏见更加多元、更难察觉。相较之下,人工智能的偏见具有系统性、可发现性和可修正性,因此在某些方面甚至优于人类法官的司法实践[20]。从这一角度看,人工智能司法可能更具正当性。
再次,关于人工智能司法缺乏判决理由和“好”的判决结论的问题。将正义作为人工智能司法正当性的唯一标准是否合理值得商榷。并非所有人类法官的判决都能完全符合公平正义的理想,但这并未否定人类司法的正当性。同样,人工智能司法的正当性也不应完全取决于其是否能够达到绝对正义。此外,“正义”本身的定义因主体、时代与文化的不同而多样化,缺乏统一的客观标准[21]。当前人工智能已经能够提供一定的判决理由,例如哥伦比亚法官案例中的ChatGPT辅助意见,这表明人工智能在此方面正逐步完善。3
最后,是人工智能司法的确定性问题。作者认为商谈是实现正义的必要程序,认为传统的符合论的真理观不能实现真正的正义,而人工智能司法就是典型的真理符合论,其得出判决的过程中没有经历过商谈,故其确定性的背后缺乏真正的正义。
将商谈视为正义的必要条件并不充分,“哈贝马斯理论的根本特征在于,它并不专断地指出正当性的既定根源是什么,而是设计一种程序,让参与者在这种程序中以平等合作的方式对正当性进行催生。”[22]审判过程并非一种平等合作的商谈,而是由审判者主导、被审判者参与的非对称性过程。因此,以缺乏商谈程序为由否定人工智能司法的正当性并不成立。同时,哈贝马斯商谈理论的自身局限性也表明,商谈并非实现正义的唯一有效路径。“建立在‘理想商谈情境’中的立法程序并不成立。原因在于仅依靠以单纯程序性品质为指向的上述三类形式性商谈规则,似乎并不能对程序结果的内容属性进行充分有效地担保,而他的理论又明确假定了民主立法之商谈程序的制度成果,在实践理性上可以自然而然地获得证成。”[22]。
综上所述,上述质疑在逻辑和理论层面存在明显不足。人工智能司法的正当性问题需要更加严谨的评估,而不能仅依赖片面或矛盾的批判视角。
3. 人工智能法官独立司法的正当性否定
对于人工智能法官是否具备独立司法正当性这一问题,笔者的回答是否定的,但这一态度又充满复杂性。
从人工智能的发展历史来看,这一问题与其设计初衷相矛盾。“人工智能法律系统的研发目标旨在代替法官或制造机器人法官,但其应用的界限却是不能独立担任法官,这构成一个‘旨在代替/不能代替’的悖论”[23]。这一悖论使得讨论其独立司法的正当性问题变得复杂且充满荒诞色彩。从能力上看,尽管当前人工智能尚不具备独立司法的能力,但随着技术的快速发展,其未来实现独立司法的能力几乎不可避免[24]。然而,即使人工智能拥有独立司法的技术能力,也不应赋予其司法权,因为其缺乏独立司法的正当性。
笔者注意到,学者们为了证伪人工智能的司法正当性,常通过设定人工智能难以达到的高标准进行论证。然而,这种路径存在两大问题:第一,现在无法达到的目标并不意味着未来同样无法实现。人工智能的快速发展可能使这些高标准变为可实现的技术目标,从而反而支持人工智能的正当性。第二,若以高标准作为正当性的唯一依据,那么同样的标准也会削弱人类司法的正当性,因为人类法官也未必能完全满足这些高要求。这种逻辑不仅无法有效证伪人工智能的正当性,反而动摇了人类司法的正当性根基,与其初衷背道而驰。
要有效证伪人工智能独立司法的正当性,需要采用不同的论证路径。
笔者认为,人工智能并不具备独立司法的正当性,其存在四个问题:人工智能的技术局限,治理者的工具化倾向,被治理者的规范性认识,以及庭审仪式感丧失。
3.1. 人工智能的技术局限
前文提及的学者从技术角度对人工智能独立司法的正当性进行了探讨,但其论证方向存在偏差。与其设定一个连人类也难以实现的高标准,不如回溯至问题的源头,明确一个所有人类都能完成、但人工智能自始至终难以达到的低标准——即基本的感性能力。感性能力是人类固有的特质,是司法裁判中不可或缺的要素,而这一点正是人工智能的先天不足,无论技术如何发展,都难以弥补这一缺陷[25]。因此,从这一低目标出发,能够更清晰地揭示人工智能独立司法正当性的核心问题。
人工智能的本质是计算机系统,其最基本的规则和逻辑基于二进制,即0与1、是与否的数理逻辑。这种逻辑决定了人工智能从诞生之初就缺乏情感判断和感性能力,属于其不可克服的先天不足。人工智能虽然能够通过数理逻辑解释世界,但无法对其进行诠释。感性能力是理解复杂人性、情感以及伦理判断的核心,而这一能力正是人工智能所不具备的。因此,人工智能无法满足司法裁判中对感性和情理判断的要求,这也成为其难以获得独立司法正当性的根本局限[11]。
与人工智能不同,人类的理性不仅包括数理逻辑,还融入了感性能力。这种能力使得人类在每一个决策中,既有理性的计算,又有感性的温度。例如,法律判决不仅注重法理的严谨性,还需要与情理相结合。无论法官的专业水平如何,其法律决定必然包含感性判断。这种感性判断柔软而富有温度,具有一定的不确定性,使得法律判决不仅是机械的同案同判,还能敏锐地捕捉到看似相同案件背后的细微差异,并在此基础上作出符合个案正义和人情伦理的判决[25]。此外,庭审过程也并非单纯冰冷的案件事实调查与结论输出,其中蕴含了人与人之间的情感交流。即便案件细节完全一致,当事人却各不相同,每个参与庭审的人都是独一无二的个体。法官在面对这些个体时,不同的情感互动会影响最终判决。这种感性参与为审判这一追求确定性的过程注入了丰富的不确定性,赋予其更深层次的正当性。任何参与审判的人都会期待裁判能够回应自身的感性需求,而这种需求更倾向于由人类法官而非人工智能法官满足。这进一步表明,感性能力是人类司法所独有的核心特质,正是这一特质使得人类法官在审判中的正当性无可替代。同时,正如前文提到,人们在感性上也更希望自己受到人类法官的审判,而非人工智能[18]。
人工智能发展至今,其数理逻辑能力已经远超了大部分人类,但其依然不具备感性,在其世界里依旧只有0和1,有确定性,无开放性[1]。这也注定了其在感性判断上的无能为力,而一个无法进行感性判断的司法者是无法获得独立司法的正当性的。
3.2. 治理者的工具化倾向
即使人工智能实现了独立司法,其最终的决定权也不会属于人工智能本身。由于人工智能不具备目的性,人工智能的独立司法权必然由人类治理者赋予。然而,人类赋予人工智能独立司法权的决定本身却存在正当性缺失的问题。将人工智能用于独立司法,实际上是将被治理者视为实现治理目标的工具,而非具有内在价值的个体。这种做法将人类简化为治理手段,忽视了以人为目的的伦理原则,违背了康德所强调的“人类作为目的而非手段”的基本道德理念。康德在《道德形而上学原理》中写道:“人,一般来说,每个有理性的东西,都自在地作为目的而实存着,他不单纯是这个或那个意志所随意使用的工具。”[26]作为司法体系的重要一环,被治理者的主体性和尊严不应被削弱或工具化,否则将从根本上动摇司法正当性的伦理基础。
在司法实践中引入人工智能的初衷,主要是为了解决案多人少以及法官能力参差不齐的问题[27]。如果人工智能最终取代人类法官,实现独立司法,其背后的动因也很可能是为了提高结案率。然而,这种以效率为导向的决定无疑会将个体的个案正义排除在外,忽视了司法应当关注个体权益的本质要求。同时,这也不合当今我国兼顾效率与公平的发展潮流与“努力让人民群众在每一个司法案件中感受到公平正义”4的要求。
同时,从人工智能的视角来看,个体被简化为一组由0和1构成的数据,成了“量化自我”(quantified self)或“可测度的自我”(measurable self) [28],这种简化过程剥离了人类作为主体的情感、伦理和尊严,将人完全物化为数据处理的对象。这种物化过程本质上是一种将人当作手段的表现,而非尊重人类作为目的的独立价值。
因此,无论从治理者赋予人工智能独立司法权的行为来看,还是从人工智能作为工具本身的性质来看,二者都缺乏正当性。治理者在使用人工智能进行独立司法时,并未将被治理者视为具有内在价值的目的,而是单纯将其作为实现效率和治理目标的手段。人工智能本身亦无法以实现正义为核心目标,因而难以满足司法对公平与正义的基本要求。这种工具化的路径既无法体现对被治理者的尊重,也偏离了司法的伦理与价值本质,使其正当性根基受到根本性挑战。
3.3. 被治理者的规范性认识
从规范性认识的角度看,人工智能法官独立审判人类难以获得正当性。就如“被造物不能审判造物主”这一基本伦理逻辑,人工智能作为人类创造的工具,其审判人类的行为直接冲击了人类的主体地位。这种情境显然违背了人类社会的基本规范性认知,而规范性认知是法律制度得以运行的重要基础。人工智能作为被创造物,是不能也不应该获得与人类同等的法律地位的,更是谈不上独立审判人类[29] [30]。
人们遵守法律不仅因其外在的威慑力,更重要的是源于内心对法律的认同和对其正当性的确认。美国法学家泰勒(Tom R. Tyler)在他的著作《人们为什么遵守法律》中提到,关于人们为什么会遵守法律,一般有两种观点,分别是工具主义的观点和规范主义的观点。工具主义强调人们对法律的遵守来自于外在因素,来自于司法机关对于人们的威慑和强制;而规范主义则强调们对法律的遵守来自于内心对法律的认可,来自心中的规范性认识,来自对遵守法律具有正当性的确认[31]。泰勒(Tom R. Tyler)在书中也提到,其研究的重要意义是证明了是否遵守法律在很大程度上取决于人们的规范性认识——人们遵守法律是因为人们认为法律值得遵守,遵守法律是正确的事情,而不是被告知、威慑以及强迫需要遵守法律[31]。当被治理者感到自己并未受到法律尊重之时,即得不到人类法官的审判而是人工智能法官的审判之时,被治理者相应也不会对审判甚至法律有所尊重,而更倾向于触犯法律。若想维持被治理者对人工智能法官判决的尊重,唯一的办法就是严格执行人工智能法官的判决——也就是上文提到的工具主义的观点,通过威慑和控制来促使人们遵守法律——但这样的做法不仅无法获得被治理者内心的认可,还会让被治理者对法律更加失望,
此外,人工智能法官以高效率为特点,这可能导致“有错必纠”的现象。然而,正义并非简单的纠正所有错误,而是需要结合情理与法理,以实现个案的公平与人性的温度。如果司法仅剩下机械化的纠错,社会将陷入科技恐怖之中,人们将无时无刻不在自我审查,生活在被完全监控的阴影之下,如奥威尔在《1984》中描绘的“老大哥在看着你”[32]。
因此,从被治理者的角度出发,人工智能法官的独立审判违背了社会基本的规范性认知,无法获得被治理者的尊重与认同。这种缺乏正当性的司法方式不仅不能实现真正的正义,反而会引发更深层次的社会问题,进一步削弱法律的权威与公信力。
3.4. 破坏司法仪式感
“古往今来,司法裁判过程都是在固定的场所——法庭中进行的。庭审活动包含着时间、地点、人物、事件等诸要素,经由法官、检察官、律师、证人、被告人、法警等角色的参与,按照形式化的规则和程序来完成。”[33]而人工智能技术在庭审中的运用会对整个庭审过程产生巨大的冲击,其会使以后的庭审呈现出远程临场,情境互动和全景敞视等特点[33]。同时,人工智能作为一种效率工具,其自动化决策往往具有“瞬时性”,这也意味着传统司法过程中的繁琐程序会被简化甚至直接取消,抽象为一端输入事实和诉求,另一端即时输出判决结论的“简单”程序。这样的庭审固然有着诸多的好处,能够解决诸多现实不便,但是这样的庭审也存在着一个致命缺陷——司法仪式感的丧失。
庭审的每一个角色与法庭的物理空间,都是在人类长期司法实践中逐步形成的,其功能经过时间的检验,成为庭审不可或缺的一部分。这些角色与环境共同构建了庭审的仪式感,使当事人在这一庄重场景中感受到法律的威严,从而从内心深处生出对法律的尊重[34]。
然而,若人工智能法官独立主持庭审,这一仪式感可能会被彻底颠覆。可以想象,在以效率为优先的设定下,人工智能法官可能不再具备类人的形象,而是化身为一个输入事实与输出判决的程序界面。随之而来的是法庭空间的虚化,原告与被告无需面对面陈述,只需通过数据面板提交证据和诉求,而人工智能则迅速给出判决。这种审判过程将庭审浓缩为一种高效的技术行为,而旁听席、法庭布局甚至法庭本身都可能逐步被省略,直至庭审仅仅变为一场“排队输入–快速输出”的技术操作。5
这种情景虽然只是对人工智能法官未来的大胆假设,但有一点可以确定:若人工智能法官取代人类法官,传统法庭的仪式感将不复存在,而这种仪式感正是法律威严与尊重的来源之一。失去了由人类法官主导的庭审过程,法律可能从体现正义的实践活动退化为冷冰冰的威慑工具。这种转变将导致法律丧失其伦理与社会价值,仅作为技术性规则的执行体系存在。
如哈特所言,法律不仅需要外在的遵守,更需要从内在视角获得认同和尊重[35]。若人工智能法官独立司法导致人们对法律的内在尊重消失,那么法律是否还能称之为真正的法律便值得深思。这种风险不容忽视,因为法律的根本价值不仅在于其规则体系,更在于其能否在人类社会中体现正义并获得共识。
4. 结语
截至本文完稿,人工智能依然以迅猛势头不断发展,其在司法实践中的应用程度日益深化。毋庸置疑,人工智能在司法领域解决了许多长期困扰人类的问题。然而,功利性并非评判正当性的唯一标准。一项技术的诸多优势并不能直接证明其正当性。正当性问题是复杂且多维的,其核心在于以人为本。技术的发展虽然带来了巨大的便利,但我们必须保持清醒,不能在最基本的判断上失范。无论技术如何演进,人的主体性始终不可动摇。人类是目的,是绝对的目的,这一原则不可妥协。
未来的社会极有可能彻底数智化,但是“法哲学之眼需要有意与数智化拉开距离,时刻从人的自然属性、人类命运和正义视角对法律算法化自动运行做出审视与反思”[36],在涉及人类核心价值的法律领域,人工智能的使用必须严守边界,始终维护人类的主体地位。人工智能可以辅助司法,但绝不能独立行使司法权,其不具备独立司法的正当性。
NOTES
1参见《马斯克等千名科技人士联名呼吁:暂停训练比GPT-4更强大AI系统至少6个月》,载参考消息网,
https://www.cankaoxiaoxi.com/#/detailsPage/%20/6aee4ff42af34238a87217843cae9640/1/2023-03-29%2017:08?childrenAlias=undefined,2025年1月22日最后访问。
2以具体实例说明,目前在街道上部署的智能摄像头能够识别和判断行人是否存在违反交通信号灯的行为。这些摄像头不仅记录相关行为,还通过显示屏对违规行人进行公开提示和警告,从某种程度上体现了司法人工智能的应用。然而,这些智能摄像头是否决定了行人闯红灯行为的违法性呢?显然并非如此。行为的违法性源于行人自身的具体行为与相关法律规范的共同作用。根据《中华人民共和国道路交通安全法》的规定,当行人在实施闯红灯行为的瞬间,该行为的违法性质便已确立,而智能摄像头的作用仅在于对这一事实进行识别和记录,而非裁定违法性。
3参见《一位法官刚刚使用ChatGPT做出法庭裁决》,载网易网,https://www.163.com/dy/article/HTCAAT9K0530W1MT.html,2025年1月22日最后访问。
4《高举中国特色社会主义伟大旗帜为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告(2022年10月16日)》,载人民网:http://jhsjk.people.cn/article/32551700,2025年1月22日最后访问。
5由如今的“AI法官”的审判实况可以一窥未来法庭之貌,参见《AI法官真来了?法院:AI一天审结16件,可节省约50%的工作量,重点是公平公正!》,载搜狐网:https://www.sohu.com/a/845635532_121123868,2025年1月22日最后访问。