1. 引言
近几年来,人工智能技术在各行各业之间迅速崛起,算法权力基本覆盖至社会生活的方方面面。在商业领域,企业推送小程序后可凭借因浏览内容而获得的设备信息、身份信息、用户偏好等内容推送个性化服务以增强用户对平台的忠诚度,以数据流量来获利。在公权力范围内,国家机关通过对公民信息的收集制定一系列益民政策,具有利生活、提效率、促发展等积极效应。目前,人工智能技术正逐步进军法律行业,司法体制改革的不断输出也为科技运用与司法系统的有机结合提供了良好的物质技术和政策支撑,但当前司法与科技的交互发展仍让众多人在应用时望而却步,其中不仅涉及案件当事人也包括人工智能司法的使用者,即法官。据《Nature》2023年发表的一项研究,美国北极星公司研发的“以代替性制裁方式纠正罪犯分子的用户画像管理系统”(简称COMPAS)对非洲裔被告的误判率远高于白人群体,这不禁令人怀疑该算法系统中有“算法歧视”现象的存在[1]。与此同时,欧盟“AI司法”计划的实验结果也显示在算法对隐私信息进行处理的过程中,如何保障公民的隐私和充分了解数据信息以达到司法正义的目的,二者之间一直存在着张力。这些现象均揭露出人工智能司法系统在隐私侵犯、算法偏见和侵权责任认定上的三重伦理困境。
因此本文将从伦理学角度出发,结合法学相关知识和国家政策,分析人工智能司法可能存在的隐患,构建“人文–制度–技术”三维分析框架,并尝试为智能时代的司法公正寻找兼具创新性和伦理敏感性的重构途径。
2. 算法系统的内生性伦理风险
2.1. 司法的内在伦理性基础
所谓司法的内在性伦理,指在司法活动运行过程中所应当坚持的基本的道德规范和价值导向,其既是司法权威的正当性来源,也是司法裁判得到社会认可的内部支撑。中国司法制度的与人类社会的历史进程,是由“占卜定罪”到“法律与政策、文化融合”逐步完善的过程,其是经多元价值考量后,努力实现“实质正义”目标的文化实践,为后世法律奠定了道德根基,凸显出司法的内在伦理本质是以制度化的道德约束来保证司法在事实认定、价值裁断和权力运行的过程中达致“正义的形象化”的实现[2]。德沃金在其《法律帝国》书中提到:“法律并非机械规则,而是需要法官通过道德解读赋予其最佳意义的解释性实践”[3],认为法官在判案时应考虑道德原则,而非仅依托于法律条文。
马克思主义认识论认为,人的认识是从直接感官所能获取的感性认识到揭示事物本质的更深层次的理性认识的辨证发展过程:人们通过感性材料对外部事物的内容综合研判,形成对事物全面深刻的理解,即“多项规定”的整体性理性认识[4]。现代诉讼制度中设置多流程程序、采取中立回避制度就是为了防止司法人员运用感性认识得出结论,消除偏私的可能性,以达成对案件的理性认识。
2.2. 算法系统的司法伦理性风险
在传统司法规律的背景下,司法伦理强调公平性、透明性和问责性,而智能系统的介入使这些原则面临重构。传统司法要求案件量刑权只能通过“人”来行使,法官亲历庭审全过程,直接接触证据和当事人,形成“心证”,在以法官遵循法律法规为后盾的同时,通过剖析具体案件事实情况,得出含有法律精神与价值判断的最终型裁决[5]。联合国教科文组织在《人工智能伦理问题建议书》中指出:“应对人工智能技术给文化和伦理体系的多样性和互联性带来的挑战,减少可能的滥用,充分发挥人工智能可能给各个领域特别是发展领域带来的潜能,确保各国人工智能战略以伦理原则为指导[6]”。
开发者常宣称“算法无偏见”,但数据本身就承载着社会歧视,是开发者对个人思想以代码的形式呈现出来的一种形象化表达。智能司法系统的“智力”源于对海量数据的吞噬,当算法开始断案、数据成为办案证据,正以“效率革命”的姿态重塑审判、量刑、证据分析等场景时,司法体制却陷入深刻的漩涡——技术愈注重效率和数据安全,就愈可能践踏个人隐私与牺牲司法透明——这种悖论本质上是工具理性与司法伦理激烈碰撞的结果。当人们仍对技术抱有客观中立的思想时,其所固有的种族、性别等内在偏向性,正在不知不觉腐蚀着司法,而当技术将社会偏见转换成“客观结论”时,司法公正性已悄然异化,这种“数字中立”的假象,实则是司法责任的转嫁[7]。
3. 人工智能司法带来的制度挑战
3.1. 现行法律规制的局限性
根据我国当前关于算法和数据规制问题的立法概况,首先表现在法律主体资格认定的制度空白。我国《民法典》中仅承认自然人、法人和非法人组织作为法律主体,人工智能司法系统虽能进行自主决策,但其不具备法律意义上独立的主体资格。杭州互联网法院审判长管家辉在审理“虚拟数字人”侵权案中指出:“虚拟数字人它不是法律意义上的自然人,它是人工智能技术跟多领域的技术集合的一种产品”,因此由其引发的责任厘清难题便逐渐成为司法困境之一。其次,缺少针对数据隐私与算法偏好的规制体系。虽然我国已颁布《个人信息保护法》,但对数据的所有权、使用权和管理权等权属界定不够清晰。因资料偏好、设计漏洞或者恶意操纵等缘由导致的“黑箱”,其不透明的内在逻辑正是对司法体系的根基——程序正义——构成严峻挑战,从而让算法决策所缺乏的实时交互和反馈机制造成的“算法垄断”现象。再次,责任划分机制的不健全。我国至今尚未出台一部完整的人工智能法,相关规定主要分散在《产品质量法》《数据安全法》《消费者权益保护法》以及一些部门规章中,而其都有特定的受案范围,彼此欠缺协同性和整体性,难以形成有效的法律合力,可能会导致司法人员、算法研发者和数据提供者三方主体之间相互推诿现象的出现。
3.2. 人工智能司法带来的制度挑战
人工智能司法存在着严格执行规则的弊端。法理学中指出,法的三要素主要由法律规则、法律规范和法律概念组成。在案件中,适用规则还是原则各有优劣,但一般情况下,除非法条中没有相关规则的规定,原则上应优先适用规则。但现实世界的法律问题种类繁杂,单纯适用规则和海量数据支撑,确实可以带来非黑即白的确定性,但却易导致僵化,作出不具有合理性的个案判决[8]。“公理之下,正义不朽”,而被代码化的规则难以确保其符合公理的要求。
智能司法系统可能会导致人机决策角色定位的转换。人类法官与人工智能的比较,是被置于司法价值与功能实现以及技术与法律关系协调的背景之下进行的综合衡量[9]。人工智能应用于司法的主要目的在于提高效率,整合司法资源,避免司法浪费,但这也促使责任主体多元化以及法官实质裁判权的旁落。一方面,在智能量刑系统中,判决的作出主体实质包含了系统程序的研发和设计人员、司法数据的加工者以及法官,干预了司法审判的独立性,导致司法权力边界变得模糊不清。另一方面,若法官完全忽视人工智能的优势,又易产生司法案件的冗积。如何在两者之间找到平衡,是司法实践中亟待解决的问题。
人工智能司法有可能招致司法程序的分解。一方面,过程自动化会造成流程的分离,使一些步骤被分离开来,打破了传统的审判程序中各个环节的密切关系。同时,由于法官对新技术不太了解,以及原有的工作习惯,他们对人工智能系统的接纳和运用存在一定的抗拒心理,这使得新技术很难与现实工作相结合,很难与现行的司法程序和组织结构相融合。另一方面,目前我国诉讼模式采取线上与线下相一致的原则,由于当事人和司法人员存在经常在不同的平台、接口之间进行来回切换的现象,使得程序的转换和不同平台之间的衔接可能会产生误差,遗漏信息或出现操作失误,导致司法程序的碎片化。目前,人工智能在智能社会中逐渐成为“法官同伴”,“人机协作”、“人机共融”是其发展方向[10]。
4. 智能司法的技术局限性
中国从2012年开始建设智慧法院以来,已有法院基本实现了从立案到审判、执行的整个程序的数字化管理和智能化处理。然而,科技并不是万能,智慧司法在展示其效率和便利性的同时,也隐隐透露出诸多技术上的缺点。
4.1. 数据技术规范与标准的缺失
目前,我国科技发展的一个突出问题就是缺乏相关技术标准和规范。因不同的司法人工智能系统在数据格式、算法选择和建模等方面都有很大的不同,其案例的存储格式和分类标准也各有差异,因此各地发展起来的智能化辅助审判系统由于跨地域、跨部门的数据而难以共享和集成。与此同时,由于缺乏对算法评价的统一规范,对各类人工智能司法系统的可信度与精确度的评判也变得尤为困难,不能建立起统一的质量控制机制。这种无序状态,既是对大量人力物力的浪费,又极大地影响了整个人工智能司法体系的发展与优化,使整个司法体系很难发挥出应有的协同作用。
另外,外界扰动的存在也会对人工智能司法造成一定的威胁。在硬件方面,服务器故障或网络中断等原因可能会导致司法人工智能系统的服务中断,从而影响到诉讼程序的正常进行;在软件层次上,人工智能系统有可能遭受到恶意攻击,对系统数据进行篡改,甚至盗取重要的司法数据。在司法实践中,司法信息的泄漏不仅会对当事人的权利造成了极大的伤害,亦会给司法机关的公正、权威带来信任危机。
4.2. 数据质量与完整性的结构性缺陷
数据样本的模糊性,让仅依靠小样本训练的智能化系统很难完全掌握法官判决中的复杂因素[11]。另一方面,由于数据具有一定的“时效性”,加之司法实务的发展,新的司法解释、指导性案例的出台,必然会对原来的裁判规则产生一定的影响。但是,目前的智慧司法系统主要灌输的是历史数据,很难对实时的法律规则进行实时的跟踪。尤其是在社会经济高速转型阶段,新的商业模式和法律关系层出不穷,吸收“过失数据”的算法往往不能对“未来案件”的判决走向做出精确的判断,从而造成了算法生成的结果脱离现实依据。
“数据孤岛”也是一重大挑战。法院系统内不同部门的信息化建设进度不同,造成了不同层级、不同区域的法院之间的信息隔离,也即“信息不能及时共享”的现象。这样分散的数据管理模式,既不利于“类案同判”,又不利于跨部门协作办案[12]。比如,在判决执行过程中,需要银行、工商等多个部门的关于被执行人的财产状况资料,但实际中这些数据又分散在不同部门系统中,很难进行有效的集成。
4.3. 透明度缺失与可解释性不足的操作障碍
我们理想中的司法决策应当是过程清晰、逻辑明确、理由充分的,而算法权力的介入,导致了传统司法权在分配与运作方面的异化,具体表现在科技术语与专业术语之间的权利冲突,这使得当前的智能体系常常很难达到这样的需求。上海二中院虽研发了“小至数字助手”等智能辅助工具,能够实现“查、析、写、督”四大功能,但其内部运作机制对大多数法官而言仍是“黑箱”。当算法作为“数字专家”出庭时,其决策过程的不可解释性直接挑战了可检验性标准,这种技术依赖导致司法审查异化为“信任游戏”。当个体的司法亲历性一旦降低,那么纵然人工智能够给出一些合理的、合乎法律的的司法意见,也无法获得当事人的认同,同时也阻碍了系统的持续优化——当输出结果存在问题时,司法人员难以准确判断是数据错误、算法缺陷还是其他原因所致,即其算法决策的代码过程难以获得司法人员及包含当事人在内的公民所理解。例如,当一个量刑预测模型给出“三年有期徒刑”的建议时,法官可能无法获知这一结论是如何从输入事实推导而来的,哪些因素被赋予更高权重,是否存在潜在偏见等。从法律角度来讲,算法解释需要转化为符合法律论证规范的形式,而现有技术尚无法自动生成具有严密法律逻辑的解释文本。
5. 构建人工智能司法系统的实践展开
通观目前的法律规范,可察觉“两高三部”发布的《关于规范量刑程序若干问题的意见》,尚未对人工智能在司法量刑场景中的正当程序问题予以答复。最高人民法院出台的《智能司法意见》也仅规定了安全合法、公平公正等基本原则,未涉及诉讼各方的权利义务、程序步骤等内容进行规定。鉴于此,应以技术性程序正义理论为指导,加速完善相关立法,用于风险治理,实现“学理奠基立法–立法规制实务–实务升华学理”的良性循环[13]。
5.1. 制度重塑
明晰“算法影响评估”制度,确定法官偏离系统建议的说明义务规则,是平衡技术应用与司法公正的关键路径,二者相辅相成。一方面,确定评审主体的专业性和独立性,建立由法律专家、技术工程师和伦理学者组成的评审小组,从法律合规性、技术可靠性和社会影响三个方面对评审结果进行审查。另一方面,在算法持续迭代的情况下构建动态的评价机制,在算法的开发、部署和迭代过程中,实现对算法的全过程监控,特别是在量刑预测和证据分析等方面,要定期对评价标准进行修订,以保证算法满足司法公平的要求。例如,两高共同出台的《关于常见犯罪的量刑指导意见》,针对法官自由裁量的空间进行了限定以及对违反规定的判决要给出合理的解释,并将其作为审查重点。
其次,厘清三方主体在人工智能司法中的责任追究问题的多维性。以欧洲联盟《人工智能责任指令(草案)》为基础,引入“因果关系推定”与“获取证据的权利”两个要素,重点关注高风险人工智能的证明责任,尤其是高风险人工智能侵权中的证明责任问题。前一要素是指当人工智能系统不符合欧洲法律或者各国法律中有关人工智能系统的谨慎义务时,则推定被告的过错与人工智能系统所致的伤害具有因果关系,从而使开发人员和用户对算法的操作及结果负有更多的责任,但是该因果关系是可以被否定的。而后者指的是在高风险的算法体系有可能造成损失的情况下,法院可以根据原告的请求责令开发商和用户披露有关的证据,从而为受害人提供更多与算法有关的信息,这两个因素都会驱动各方主体增强算法的透明度和可理解性[14]。
再次,健全智慧司法监督制度,建立实时监测平台。依据《数据安全法》《个人信息保护法》等相关法律,对智能司法制度的准入条件、数据的使用等方面进行了规定。智能系统用户可以通过区块链的不可篡改性,将数据收集、传输和使用的整个过程都记录下来,并对不同的群体在司法大数据中所占的比例和处理结果的差异进行实时比较,及时识别算法中可能存在的歧视现象,并对数据源进行有针对性的溯源,或聘请第三方专业机构对算法源代码、数据训练模型定期进行技术性审核,对因数据偏差、算法漏洞等造成的隐私风险和歧视等问题进行检查。
5.2. 算法模型的司法配适
虽然算法模式在司法实践中显示了极大的应用前景,但是它的深度适配还存在着诸多的阻碍,需要建立一个包括技术进步和道德嵌入在内的综合治理框架。提高算法的可解释性是技术改进的第一步。目前,应当根据司法需求研究“白盒算法”,建立严密的数据甄别与审查机制,保证司法数据的准确性、完整性和时效性,使得算法模型不再仅仅依靠过去的数据,而是可以与新出台的法律、法规、司法政策相结合,对机器学习的更新状态进行定期监督,使得法官和当事人都能以更加准确、更容易理解的方式来表达他们的逻辑过程。同时,需统一算法判定规则,强化规则的协同执行与动态更新,打破地域和部门的壁垒,构建跨地区跨部门的协作管理机制,实现对规则的解读、案例的指导和数据的共享,从而消除“一地一策”造成的“同案不同判”。
对算法辅助地位的界定是道德嵌入的关键一招。司法审判是以法律规范为基础,将事实证据与法官的专业判断、价值权衡和自由裁量相结合而形成的一种复杂的行为,它蕴含着人的理性、情感和道德的价值判断,这是算法很难完全模拟的一个过程[15]。如果算法离开了辅助地位,成为了主导案件的中心,那么,人机交互机制中的责任分配问题就会变得纷繁复杂,不能对具体的责任主体作出明确的规定。我国《新一代人工智能伦理规范》明确强调人类是最终责任主体,人工智能本身不具备独立承担责任的能力。审判权独立行使是最根本最普遍的司法规范。法官责任制必须以司法权独立运行为前提,具体表述为“让审理者裁判,让裁判者担责”,即法官享有审理案件并作出裁决的权力,但同时亦承担着对案件认定和法律适用的责任[16]。同时,为实现有效问责,量刑系统的研发者、使用者以及使用情况都必须详细记录在案,这些记录如同一本“责任账本”,是追溯责任的重要依据,以便在出现问题时,能够准确回溯到问责点,实现精准追责。
5.3. 人机协同模式的重新定位
在“以法律为主导,以技术支撑”的原则下,利用生成式大语言模型优势,拓展AI应用场景,破解个体经验与知识储备对学术创新造成的天然障碍,将人从重复性工作中解放出来,是法律与科技融合即“人机协同”的必由之路[17]。当前,人工智能辅助司法呈现出“明法暗机”的运行方式,将算法隐于法官身后,看似维护了传统司法制度的公正形象,但也会对司法公信力产生负面影响。为促进人机协作审判向良性发展,需要对人机的职能界限进行重新思考与调整。这种转变的中心是把司法人工智能从一个纯粹的内部案件处理工具扩展到一个外部交流的工具。在服务对象方面,各级法院在对司法人工智能的效果进行评价时,重点放在了提高案件的效率上,有关应用主要还是把法官作为自己的核心服务团体,今后应逐渐地把它的服务范围扩展到当事人、公众等外界使用者,让他们拥有和法官相当的技术能力,并赋予当事人补救权来缓解算法的歧视。重要的是,法官无需时刻担心处于外界审视之下,从而更专注于案件核心法律问题的判断。如此一来,人工智能不再是隐藏于法官背后的神秘黑箱,而是成为赋能各方开展沟通与讨论的普惠工具,推动司法审判工作迈向更公正、透明、高效的新台阶。
在与法官、法院和算法交互的过程中,当事人和公众将会产生对机器协作审判的信任判断。针对法官人格信任的“想象断裂”问题,通过对当事人的深入参与,公众可以对法官的行为进行直接的观察和评价,从而加强对法官的职业判断的信任,使法官从一个单纯的决策者转变成交流的指导者,帮助重建社会对法官的信任度[9]。加强当事人对法律过程的实质参与,使之由纯粹的效率工具扩展到交流工具,有助于推动算法信任和总体庭审信任的良性互动,促进法院在机制上更加透明、包容,有效减少法官与人工智能之间的“人机合谋”,为司法体系的公信力打下坚实的基础。人机协同的再定位实质上是“1 + 1 > 2”的协同效应,而非零和竞争,未来人机关系可能更像是“伙伴”或“延伸”,而非工具与使用者[18]。该过程的落实需要技术、伦理、社会等多维度的协同演进,最终实现构建一个高效、安全且以人为本的人机共生新生态。
6. 结论
在传统意义上,技术被视为工具、客体和对象,而传统法学的重点则集中在对技术的监管与规制上。近代以来,资讯与数位化的浪潮,推动了科技架构的变迁,它已成为社会沟通的基础支撑与基础架构。法律和技术是相互联系的,就像制度和环境一样,二者间或松散或紧密地耦合在一起。目前,我国正在促进技术和司法的深度融合,“智慧法院”建设稳步推进,全面发挥科技在司法上的高效率、利生活等积极作用,同时对于技术产生的算法歧视、责任划定、隐私保护等负面效应,又扬长避短,不断通过各种途径克服算法背后隐藏的更深层次难题,夯实算法运行应坚持的道德性根基。