人工智能赋能智慧司法实践问题研究
Research on Practical Issues of AI Empowering Smart Judicial Justice
DOI: 10.12677/ojls.2026.141004, PDF, HTML, XML,   
作者: 吴锋贤:杭州师范大学沈钧儒法学院,浙江 杭州
关键词: 人工智能智慧司法算法偏见司法数据Artificial Intelligence (AI) Smart Justice Algorithmic Bias Judicial Data
摘要: 人民法院作为承担大量涉及市场主体纠纷审理与执行的司法机关,对营商环境法治化具有重要作用,在推行智慧司法的大背景下,人民法院的信息化、智能化正逐步成为推动营商环境法治化的中坚力量。智慧司法的实现依赖于人工智能技术对现有的司法数据予以整合与分析,虽然能够让司法工作人员从大量重复性、规律性劳动中解脱出来,但法律与计算机科学之间跨学科的合作并非一蹴而就,人工智能技术本身具有的潜在风险和内在局限性,以及衍生的一系列法律、技术及伦理层面的挑战,限制了智慧司法功能的有效发挥,因此有必要对智慧司法的工作原则、算法模型和法源引用予以优化,以智慧司法的智能化助推营商环境法治化的实现。
Abstract: As a judicial authority tasked with adjudicating and enforcing a large number of disputes involving market entities, people’s courts play a pivotal role in advancing the legalization of the business environment. Against the backdrop of promoting smart justice, the informatization and intellectualization of people’s courts have gradually emerged as the core driving force behind this legalization process. The implementation of smart justice relies on artificial intelligence (AI) technology to integrate and analyze existing judicial data. While AI liberates judicial personnel from massive repetitive and rule-based tasks, the interdisciplinary collaboration between law and computer science cannot be achieved overnight. The inherent potential risks and limitations of AI technology itself, coupled with a series of derived legal, technical, and ethical challenges, hinder the effective exertion of smart justice functions. Therefore, it is imperative to optimize the working principles, algorithmic models, and citation of legal sources in smart justice, thereby leveraging the intellectualization of smart justice to facilitate the realization of a law-based business environment.
文章引用:吴锋贤. 人工智能赋能智慧司法实践问题研究[J]. 法学, 2026, 14(1): 23-30. https://doi.org/10.12677/ojls.2026.141004

1. 问题的提出

“优化营商环境”成为近年来我国政府管理中的热词,在优化营商环境的过程中,国家治理体系与治理能力得以彰显,法治保障的重要作用逐渐显现,打造良好的法治化营商环境已经成为当今社会的共识。特别是在人工智能时代,人民法院的信息化建设正逐步成为推动法治进步的重要力量,对此,最高人民法院印发了《关于规范和加强人工智能司法应用的意见》等系列文件[1],为智慧司法的应用提供了规范和指导。服务于人民法院的司法人工智能,不能仅仅只通晓法律知识,更要契合人类的价值体系,如此方能更好地应用于司法实践。技术研发团队需要运用各类数据对司法人工智能进行训练,如人民法院案例库作为训练数据的重要来源,有着承载丰富裁判参考资源、打破数据壁垒的重要作用。在不久的将来,融入司法人工智能的全国法院“一张网”在运行过程中,将为人民法院案例库提供数据整合、全流程管理、技术支撑等多方面助力,而人民法院案例库又能为“一张网”中的司法人工智能深度学习提供更多数据样本,二者相互配合、互为补充,共同推动智慧司法迈向现代化。然而,法律与计算机科学之间的跨学科合作并非短时间就能完成,技术上的创新不代表通用能力与专业知识也能够无障碍地深度融合,智慧司法的实现还需要不同行业专家之间的密切协作与知识共享,在技术赋能带来的效率红利背后,智慧司法的治理逻辑面临着被技术工具理性遮蔽的风险。现有研究多聚焦于技术应用场景的拓展与功能优化,忽视了对其治理本质的批判性审视,即技术并非中立的工具,而是承载着特定权力结构与价值取向的社会建构。因此,有必要从司法人工智能的视角,观察智慧司法的历史机遇与实践挑战,剖析智慧司法背后治理逻辑的深层矛盾,探索智慧司法的优化路径,以期使市场经济更加活跃、规范,在推进法治的现代化过程中,同步实现营商环境的法治化。

2. 智慧司法的历史机遇

() 我国司法人工智能的发展脉络

司法人工智能的发展是技术进步与司法需求不断匹配的过程。当传统司法模式难以应对案件数量激增带来的效率困境时,将逻辑推理等技术引入法律问题分析的探索便应运而生,而这一进程始终围绕“技术能力匹配司法需求”的核心逻辑逐步展开。20世纪80年代,人工智能在司法领域的应用以规则驱动的专家系统为核心,聚焦用预设逻辑解决特定法律问题。这一时期,法律专家系统逐渐兴起,其核心功能是依据预先植入的法律知识与推理规则,对相对复杂的法律问题进行分析并输出结论。进入21世纪,深度学习算法的突破与大数据技术的成熟,推动司法人工智能从“规则预设”迈向“数据学习”,实现了对海量法律文本的高效处理。通过对大量案例的学习分析,人工智能在司法实践中的参与度与精准度显著提升。2017年成为我国司法人工智能发展的关键节点。国务院印发《新一代人工智能发展规划》,明确提出“加快人工智能深度应用”。我国多地开始积极响应,投身人工智能法律系统的建设,例如“睿法官”智能研判系统、“206”刑事案件智能辅助办案系统等。2022年最高人民法院发布《关于规范和加强人工智能司法应用的意见》,明确提出“到2030年,建成具有规则引领和示范效应的司法人工智能技术应用与理论体系”的目标[2],为行业发展提供了清晰指引。2024年,司法人工智能发展迈入新阶段,最高人民法院推出“法信法律基座大模型”,构建起司法赋能的核心技术支撑,同时发布的《人民法院第六个五年改革纲要(2024~2028年)》[3],进一步明确强化智能算法、大语言模型等技术的应用,突出其在辅助办案、防控风险、方便诉讼等方面的核心价值,标志着司法人工智能已成为推动司法现代化的核心力量。

() 司法人工智能的现实需求

在当前司法体制改革的实践背景下,司法系统对人工智能技术的需求日益凸显,这一需求本质上源于司法资源调配、办案效能平衡以及社会治理优化等核心难题。从实践困境来看,我国司法机关长期面临“案多人少”的矛盾。为破解此问题,最高人民法院于2020年印发《关于统一法律适用加强类案检索的指导意见(试行)》,明确提出各级法院需推进类案检索智能化建设,通过精准推送参考案例提升司法效率[3]。在科技深度赋能的当下,人工智能通过流程支撑、环节革新与架构重塑三种路径融入司法体系,而数据大模型则成为实现司法价值的关键载体。作为特殊的数据类型,司法数据既全面留存了司法活动的完整流程,更是公平正义的具象化表达,其承载的多元信息可直接映射司法实践的效果。借助人工智能技术对司法数据开展深度挖掘与分析,既能发现司法运行中的薄弱环节,也能精准识别社会治理的重点领域。

() 司法人工智能的价值优势

司法人工智能所具备的逻辑严谨性、效率增益性与技术中立性,为其在司法领域的落地应用提供了坚实支撑。这三大价值优势从不同维度赋能司法实践,推动司法系统提质增效。一是在形式理性层面,司法人工智能展现出突出价值。人工智能能够对海量的司法案例进行挖掘和学习,具有较高的形式理性价值,通过建立案件图谱、推送类似判例等方式,总结争议焦点,厘清证据和案件脉络,提供判例指导,从而帮助法官快速准确地进行事实认定和证据评估[3],二是司法人工智能在效率提升方面具有显著经济价值。面对司法实践中大量重复性、规律性工作,人工智能可替代人工完成基础事务处理,大幅节省司法人员的时间成本。三是技术中立性为司法公正提供了重要保障。人工智能凭借标准化的算法模型与统一的数据规范处理司法案件,能够有效排除人工裁判过程中的主观偏误与情感因素干扰,保障事实认定与法律适用的统一性。当前,算法技术已深度融入司法运行各关键环节,在提升司法效率、维护司法公正、增强司法透明度等维度发挥着不可或缺的作用。例如同案不同判预警系统,通过算法模拟法官裁量逻辑,当检测到裁判结果偏离常规范围时,会自动触发提醒机制,助力法官及时校正裁判偏差。

3. 智慧司法的实践挑战

() 智慧司法面临的法律挑战

智慧司法的核心发展目标,在于通过智能化办案系统的应用,同步提升司法透明度、审判效率与裁判公正性。然而在具体实践时,受技术固有缺陷、数据基础薄弱、社会环境适配不足及法律体系滞后等多重因素制约,司法人工智能的应用可能引发司法功能异化,衍生出一系列亟待破解的挑战。

1、司法权威性遭遇质疑

司法权威性的核心在于公众对司法决策的自觉尊重与服从,而司法决策不仅是法律条文的具象化适用,更承载着价值引领与社会规范功能。当前司法人工智能存在显著能力边界:其缺乏对案件背后复杂价值关系的自主研判能力,对伦理考量、社会影响等非量化信息的解读存在短板,这可能导致算法裁判偏离实质正义,冲击司法公正性根基。当技术偏差或算法漏洞引发司法决策出现错漏、矛盾甚至违背常理的情况时,公众对司法的信任基础会被动摇,主动服从意愿下降,直接导致司法权威弱化。从法治建设全局来看,司法公正是司法活动的灵魂,若公众普遍质疑司法决策的公正性与可预期性,司法机关的社会治理权威将被严重削弱,既破坏法治建设的群众基础,又会对社会秩序稳定造成阻碍。值得警惕的是,部分地区司法人工智能应用出现“效率优先、忽视公正”的偏差。将“案件审结量”“平均审理周期”等效率指标作为核心考核标准,过度追求批量案件快速流转,却忽视个案特殊情节与实质正义的考量。这种机械应用模式不仅可能损害当事人合法权益,更会在长期积累中侵蚀司法公信力,对司法权威造成不可逆损害。

2、司法信任度持续下滑

司法公信力,本质上是社会公众对司法体系的综合信任与认可程度。这种信任不仅指向司法制度的整体设计、司法机关的履职能力,更聚焦于裁判过程中展现的公正与权威。公众司法信任的流失,往往源于裁判结果与社会普遍认知出现了偏差,当这种偏差突破常识与法理底线时,裁判将难以被接受,进而引发大量上诉、再审,既消耗司法资源,也削弱公众对司法的初始信任。人工智能“无情感偏向、依规则运算”的特性,使其在简单标准化案件中能保障裁判尺度统一,但也存在本质局限,人工智能裁判基于算法“机理”而非人类推理的“人理”,缺乏因果逻辑的可解释性与说服力。司法诉讼的核心价值在于定分止争,这要求裁判者在“情、理、法”之间寻求平衡,法官需结合案情剖析、法律阐释与情感回应,实现纠纷实质性化解。而人工智能依赖数据理性运算,缺乏情感感知与共情能力,无法捕捉案件隐含的情境细节与情感诉求,难以回应当事人超越法条的合理期待。这种“机器裁判”与公众情感认知的隔阂,使得裁判结果的社会认同度大打折扣,加剧司法信任危机。

3、上诉程序的空转

在具体的司法实务场景中,智慧司法的应用会对当事人的诉讼程序权利与实际诉讼体验产生直接影响。若从诉讼程序的整体结构视角审视,并结合前文提及的当事人对人工智能生成的判决结果存在理解障碍与信任缺失这一核心问题,便能发现智慧司法的适用还会引发当事人上诉权行使的有效性争议。在传统诉讼模式下,当事人依法享有对一审判决结果提起上诉的权利,这一权利是当事人寻求权利救济、纠正裁判偏差的重要制度保障。但在人工智能深度参与审判的新型诉讼场景中,司法环境与裁判逻辑的变化,使得既有的上诉权运行规则可能难以有效应对新问题,无法充分实现权利救济的初衷。典型问题主要体现在两个方面。一方面,若当事人因对人工智能参与审理的一审判决结果不服而提起上诉,二审法院若继续沿用与一审相同的人工智能系统、算法模型或数据逻辑进行审理,受限于算法的固定性与数据的重复性,人工智能大概率会生成与一审一致的裁判结果。这将导致上诉程序沦为“无意义的重复”,既无法实质审查一审裁判的合理性,也无法为当事人提供有效的权利救济,进一步加剧当事人对司法程序的不信任。另一方面,若当事人仅以“对人工智能的算法逻辑、数据来源或裁判过程有异议”为由提起上诉,而二审法院需为此启动对一审完整的审查程序,会额外消耗大量司法资源,包括法官对算法技术的审查时间、技术专家的辅助论证成本等,最终造成有限的司法资源被重复耗费,与司法效率提升的目标相悖。

() 智慧司法面临的技术挑战

智慧司法的能力根基源于人工智能技术,其中大模型算法技术是驱动司法人工智能发展的核心动力。这类算法直接决定了人工智能对输入的司法数据进行筛选、处理、分析与生成决策建议的逻辑路径。但技术本身是把“双刃剑”,在使用过程中仍然会衍生出一系列亟待解决的难题:

1、司法人工智能的技术瓶颈

从功能边界来看,人工智能虽能模拟人类的部分逻辑思维过程,却始终无法完全替代法官在司法活动中所具备的情感共情、复杂经验判断与创造性解决问题的能力。司法活动中的法律解释、事实认定与裁判结果生成,往往涉及对多方主体利益的平衡与复杂价值的判断,这需要结合法律条文、社会伦理、公序良俗进行综合性决策,这正是当前人工智能的短板所在。智慧司法本质上是对既往裁判经验的概率化建模,通过归纳类案处理规律提炼裁判要素为法官提供辅助,但这种建模无法完整覆盖复杂裁判的全流程,也难以涵摄个案中的特殊情境与非量化信息。尤其在我国的司法实践中,当事人的需求不仅仅是答案,更包括支撑答案的具体原因和解释[4]

2、技术发展与司法需求的适配失衡

当前人工智能技术仍处于发展阶段,算法的运行性能与决策准确性受数据质量、模型参数、场景适配度等多重因素制约。在弱人工智能阶段,系统只是机械适用法条处理高度类型化的案件,可能因为没有大量优质案例而无法实现更高智能的辅助裁判,若将这类系统普遍应用于司法案件,会出现为了追求司法效率而牺牲司法公正的情形[5]。更为关键的是,法律规范的滞后性与社会价值观的动态性存在固有矛盾,当司法人工智能依据现行法律与既定价值生成裁判建议时,可能出现“法律未变但社会价值已变”的情形。此时算法生成的结果虽具形式合法性,却可能与发展后的公平正义观念相悖,无法实现法律效果、政治效果与社会效果的统一。

3、技术的不可解释性影响司法效能

司法人工智能的辅助决策依赖预设的算法模型,而多数算法技术存在“黑箱”特性,具有不可解释性。当人工智能参与生成司法决策时,其决策逻辑与依据难以被外界追溯,这对司法透明度与公信力构成直接挑战。尽管智慧司法的初衷是通过算法规避人类裁判中的主观偏差,提升司法规范性,但在当前技术条件下,为保障裁判的客观公正,仍需大量人工干预。法官需对算法生成的初步结果逐一开展事实核查、法律校验与价值判断,这一过程耗费大量人力物力成本,在一定程度上抵消了智慧司法本应带来的效率增益,形成“技术辅助与人工审核”的效能矛盾。

() 智慧司法面临的伦理挑战

1、算法偏见

算法设计的初衷是通过标准化逻辑实现客观、公正的决策,但其在实际运行中却易受多重因素干扰,滋生算法偏见。这种偏见的核心根源,在于大数据技术应用中形成的“算法黑箱”,即算法的形成过程与运行逻辑具有“不可洞悉”的特性,其内部决策机制难以被外界追溯与监督,如“偏见性输人”导致“偏见性输出”。在“黑箱”状态下,人工智能的训练形成闭环,而依托于人工智能的互联网平台算法模型需依赖大规模数据进行优化和升级,训练样本中原本携带的偏见和设计者的歧视性逻辑,均可能导致算法偏见的产生[6]。更关键的是,这类偏见多源于开发主体的无意识认知盲区,难以通过技术人员的自我审查发现与纠正。此外,司法智能辅助系统无法完全量化社会情感、伦理共识等非指标性因素,当它试图以算法模拟法官裁判中的价值衡量过程时,极易因数据维度的缺失导致价值判断偏颇,进一步放大算法偏见的负面影响。

2、机械司法

在传统司法场域中,法官是权力运作的核心主体,其通过对法律的解释与适用实现权力的行使。而在智慧司法实践中,算法的“科学性”与“客观性”叙事使其获得了较高的权威认同,法官逐渐从“主动决策者”转变为“算法结论的审核者”,出现了明显的“权力让渡”现象。这种让渡并非源于法官的主观意愿,而是技术理性建构的“认知权威”所导致的,智慧司法使得法官排除直觉,对法官思维的消极影响是助长了法官的机械思维、遮蔽了法官思维的独立性[7],使得当事人、司法机关与技术的关系从技术辅助走向技术主导的趋势,进而存在滑向技术依赖的隐忧,也就是法官在司法决策中过度依赖技术,司法机关对技术公司按需求设计开发、系统升级改造形成技术依赖循环[8]。面对海量案件数据,司法人员易对算法输出的决策结果产生路径依赖乃至盲目信赖,进而弱化自身的主动法律研判意识。这种对算法结论的过度遵从,会促使法官将智能系统作为裁判核心依托,倾向于直接采纳系统生成的关联性分析结果,机械套用其给出的裁判建议,最终陷入“技术掌控、法官被动”的困境,滋生“机械司法”的异化问题,裁判仅满足形式上的法律合规性,却割裂了与个案特殊情境的关联,背离了实质正义的核心诉求。

3、技术的隐性控制

人工智能的初始规则与架构由技术设计者构建,而设计者的认知水平受知识背景、经验局限、价值取向等多重因素制约,难以全面、准确地预见技术在复杂司法实践中可能遭遇的各类场景。根据技术社会学的“数字鸿沟”理论,不同群体对技术的掌握与利用能力存在显著差异。在司法实践中,部分当事人(尤其是老年人、农民工等群体)因不熟悉智能诉讼平台的操作流程,无法有效提交证据、参与庭审,其诉讼权利难以得到保障。同时,算法的“不透明性”使当事人无法对裁判依据进行有效质证,传统的“辩论原则”在智慧司法面前形同虚设,当事人从“司法程序的参与者”沦为“技术治理的被动接受者”。更值得警惕的是,人工智能技术的高度理性化设计,会不断“挤压”司法人员在工作中的自由权衡空间,将原本灵活的司法判断过程,转化为统一的程序化管理流程。这一趋势日益要求如法官或司法辅助人员不仅要必须学会运用新的信息技术工具,而且要像人工智能那样思考和行动,将人工智能的算法逻辑作为工作的重要方法。在这个意义上,人工智能技术在司法实践中的应用,通过其内在的技术逻辑,实现了对司法行动主体的控制[9],生成隐性的控制权,诱发一系列的伦理危机。

4、技术开发者的隐形立法权与责任真空

智慧司法的发展打破了传统的“法官–当事人–检察机关”的三元权力结构,引入了技术开发者这一全新的权力主体,形成了“法官–算法–技术开发者”的新型权力关系。技术开发者通过设计算法模型,将自身的价值判断与技术偏好嵌入司法决策过程,从而获得了“隐性立法权”。这种权力的实现路径由技术开发者掌握,司法人员与当事人无法知晓其运作原理,更难以对其合理性进行质疑。在现有责任终身制的视角下,法官需对其裁判行为承担终身责任,而智慧司法的权力运行呈现“分散化”特征,当出现错案时,责任追究面临“真空状态”。技术开发者以“算法中立”为由规避责任,认为算法只是“工具”,其应用效果应由司法机关负责;司法人员则以“算法结论具有科学性”为由推脱责任,形成“责任互踢”的局面。这种困境本质上是技术社会学所探讨的“技术伦理困境”,技术的发展速度远超伦理规范与法律制度的完善速度。我国目前尚未建立针对智慧司法的专门责任追究制度,对算法错案的认定标准、责任划分缺乏明确规定。这种“无法可依”的状态导致权力监督机制失灵,为司法腐败与权力滥用提供了可乘之机。

4. 智慧司法的优化路径

面对智慧司法实践中存在的算法偏见、机械司法等挑战,部分学者提出通过提升算法决策能力来破解困境。但从当前人工智能技术的发展水平来看,其尚不具备人类所特有的深度理解能力与情感通感能力,无法像法官一样结合个案情境进行复杂价值判断。因此,当前可以得出的基本结论是,无论如何规制技术,都无法实现实质正义,无法替代法官的自由裁量[10]。故在智慧司法的优化路径选择层面,需要始终确立法官的主体地位,同时优化算法模型的运行数据和增加数据库中的非正式法源,而非仅仅注重大数据与人工智能技术的单方面完善。

(一) 确立法官的主体地位

人工智能既不具有确定价值的能力,也不具有人性,能够在相关事实和规范文本之间保持“目光之往返流转”的只有训练有素的法律人[7]。在智慧司法带来诸多风险挑战的当下,法官更需凭借扎实的功底,紧扣个案具体情境,在事实认定、法律适用等核心环节,对案件要素作出契合人性本质与正义内核的解读与阐释。这也是为什么古今中外的优秀法官往往是年长者,主要是他们对人生与社会有较多、较深的理解,并能够运用这些经验解决社会利益冲突[7]。法官经长期积累与海量案件磨砺,最终凝结为独特的司法智慧。这种智慧兼具“个体专属性”与“内在隐匿性”,无法被算法简单复刻,因此,在以审判为中心的诉讼制度与智慧司法制度深度融合的过程中,需要确认法官的主体地位,具体实践时可通过设计“人机协同审判”的程序规则,明确算法建议的性质、法官的审查义务、以及判决书中对算法意见的说明责任。既要依托法官自身专业优势与人文感知能力,弥补技术在价值判断上的天然短板,又要借助智慧司法的超强算力,发挥其在数据检索、类案匹配上的效率优势,最终实现我国社会主义司法“普遍正义与个案正义相统一”的目标。

(二) 优化算法模型的运行数据

智慧司法的核心目标之一,是通过人工智能与大数据检索类案,构建对法官裁判行为的适度刚性约束体系,引导法官恪守“以事实为依据,以法律为准绳”的裁判规则,推动法律适用标准实现全域统一。要实现这一目标,算法模型运行数据的质量至关重要,需从四个维度进行优化:

1、丰富案件存储标签种类

类案数据库的标签体系是算法识别案件特征、精准匹配类案的基础。当前部分数据库标签多集中于案由、法条等基础信息,缺乏对案件情节、争议焦点、裁判理由等细节标签的细化。故需进一步丰富标签种类,例如增加“当事人过错程度”“证据采信理由”“价值衡量要点”等维度,让算法更全面地捕捉案件核心特征,提升类案匹配的准确性。

2、清理有社会争议的案件数据样本

人工智能模型的好坏高度依赖训练样本质量,存在“样本质量决定模型质量”的特性,若数据库中留存有社会争议较大、裁判理由存在瑕疵或与后续立法、司法解释冲突的案件样本,算法可能将此类案件的争议性逻辑固化,导致辅助裁判时放大社会争议,损害司法公信力。因此,需建立动态清理机制,定期排查并剔除有争议的案件样本,确保数据基础的合法性与合理性。

3、攻克人工智能可解释性难题

当前的司法人工智能技术,多以深度学习算法为支撑,这类技术的核心是依托数据统计分析方法构建输入信息与输出标签之间的关联,缺乏清晰的逻辑推理链条,存在的“算法黑箱”问题,可通过技术创新提升可解释性,例如引入因果学习技术,让算法不仅能输出结果,还能阐释结果与事实、法律之间的因果关系。应用注意力机制,标注算法在决策中重点关注的案件要素,使裁判逻辑更透明,便于法官审查与当事人理解。

4、确立算法的伦理原则

针对智慧司法技术应用中潜藏的伦理风险,需将风险防控关口前移至算法研发阶段,强化技术研发主体的责任担当,具体实践中要落实的便是科技伦理审查机制的刚性运行,将“公正、中立、透明”等司法核心价值嵌入算法设计标准。建立算法偏见检测与修正流程,严防因数据或设计偏差导致的歧视性决策。明确技术提供方的责任边界,避免其通过算法干预司法裁判,确保算法始终服务于司法的公平正义目标。

(三) 增加数据库中的非正式法源

通过梳理引发社会重大舆情的司法案例可以发现,此类案件的共性问题往往是“正式法源无法完全满足裁判需求”,即法律条文的抽象性与个案情境的复杂性存在矛盾,仅依靠制定法难以实现实质正义。此时,引入非正式法源作为价值补充,就成为客观需要。非正式法源的引入并非将社会公共道德、政治形态等直接作为裁判依据,而是需经过合理转化。例如,有学者建议不直接将伦理道德作为正式法源,而是先解释并融合至既有的法伦理原则之下[11]。这一构想具有可行性,我国民法中的“公平原则”便是典型例证,其作为伦理性准则,经立法确认成为正式法律原则后,在司法裁判中承担着价值引领与法律漏洞填补的功能,有效调和了法律刚性与社会需求的矛盾。在案例库中增加非正式法源,可在人工智能辅助检索时,引导算法关注案件背后的社会价值与伦理需求,进而促使法官更注重类案与待裁案件的案情契合度,主动积淀社会生活经验,构建“以价值共识为基础、以形式推理为路径”的裁判说理体系,避免陷入机械适用法律、漠视个案特殊性的误区。

5. 结语

智慧司法依托人工智能与大数据技术,为法官审理案件提供具有参考价值的类案支持。其核心价值在于打破地域与审级限制,帮助法官检索到不同地域、不同层级法院的既往裁判文书,系统梳理其中蕴含的裁判思路、裁判方法与法律适用依据,为当前案件的审理提供多元参考。然而,这些看似客观的技术优势,却在实践中悄然转化为风险与挑战的源头,甚至可能进一步拉大“司法机关认定的公正”与“公民感知的公正”之间的间隙。智慧司法本质上是法律学科与计算机科学跨领域合作的新型应用形态,其技术逻辑容易让法官陷入“技术依赖”的认知误区,过度信赖人工智能对司法思维的模拟与延伸功能,这种认知偏差会弱化法官对案件具体情境的直接感知,阻碍其生活经验与司法智慧的融合应用。更值得警惕的是,在“技术中立”的标签遮蔽下,智慧司法的算法模型往往有意或无意地排除了价值判断、社会观念等非量化因素,而这些因素恰恰是实现实质正义的关键,最终引发前文所述的算法偏见、机械司法等实践挑战。面对上述难题,我国司法传统中所积累的融合天理、国法、人情于一体的理念,在当下依然有着重要的实践意义。应当在发挥智慧司法技术优势的同时,坚持法官为主体的原则,并通过优化算法模型的运行数据,增加数据库中的非正式法源的方式让智慧司法的优化升级不仅是技术层面的革新,更是司法服务模式的转型,让智慧司法能兼顾法律刚性与社会柔性需求。唯有如此,才能真正树立司法权威,践行司法的人民性,做到司法活动始终以人民需求为导向,让人民群众在每一个司法案件中感受到公平正义。

参考文献

[1] 丰怡凯. 人工智能辅助量刑场景下的程序正义反思与重塑[J]. 现代法学, 2023, 45(6): 98-117.
[2] 徐辉, 李俊强. 生成式人工智能辅助司法裁判的可能及边界限度[J]. 太原理工大学学报(社会科学版), 2023, 41(6): 24-32.
[3] 李涛. 司法人工智能的应用逻辑与风险治理[J]. 行政法学研究, 2025(5): 46-62.
[4] 王禄生. 论法律大数据“领域理论”的构建[J]. 中国法学, 2020(2): 256-279.
[5] 周尚君, 伍茜. 人工智能司法决策的可能与限度[J]. 华东政法大学学报, 2019, 22(1): 53-66.
[6] 凌秋实, 马万利, 张海汝. 人工智能背景下算法歧视法治化路径研究——典型场景、规制困境及对策[J]. 财经问题研究, 2025(10): 39-52.
[7] 王静. 智慧司法的伦理风险及其应对[J]. 法学论坛, 2024, 39(2): 106-118.
[8] 张凌寒. 智慧司法中技术依赖的隐忧及应对[J]. 法制与社会发展, 2022, 28(4): 180-200.
[9] 孙伟平. 人工智能与人的“新异化” [J]. 中国社会科学, 2020(12): 119-137+202-203.
[10] 马长山. 司法人工智能的重塑效应及其限度[J]. 法学研究, 2020, 42(4): 23-40.
[11] 孙海波. 社会一般道德的法源地位及其功能[J]. 国家检察官学院学报, 2023, 31(1): 58-75.