环境行政处罚裁量基准制度数智化转型的法治调适
Legal Adjustment to the Digital-Intelligent Transformation of the Discretionary Benchmark System for Environmental Administrative Penalties
摘要: 在数字政府与智慧执法体系加速建构的背景下,环境行政处罚裁量基准正由文本规范形态转向算法嵌入形态,实现从“规范指引”到“代码运行”的结构性转变。这一转型并非单纯的技术升级,而是裁量权运行机制的深度重构。算法嵌入在提升效率与统一性的同时,也引发裁量黑箱化、个案权衡弱化、程序参与受限以及责任结构模糊等法治风险。其根源在于技术理性与法治理性之间的结构性张力。本文在梳理裁量基准制度演进脉络的基础上,揭示算法裁量的权力结构变化,提出以“过程控制”为核心理念、以“技术性正当程序”为制度支点的规范路径,并从事前嵌入、事中协同、事后追责三个维度展开制度构造,以实现算法治理与行政法治原则之间的制度耦合。
Abstract: Against the backdrop of the accelerated development of digital government and smart law enforcement systems, discretionary benchmarks for environmental administrative penalties are shifting from a normative textual form to an algorithm-embedded form, achieving a structural transformation from “normative guidance” to “code-based operation”. This transition is not a simple technological upgrade, but an in-depth restructuring of the operational mechanism of discretionary power. While algorithm embedding enhances efficiency and uniformity, it also triggers rule-of-law risks including discretionary black-boxing, weakened case-specific balancing, restricted procedural participation, and ambiguous responsibility structures. Its root cause resides in the structural tension between technical rationality and rule-of-law rationality. On the basis of sorting out the evolution of the discretionary benchmark system, this paper reveals the changes in the power structure of algorithmic discretion, puts forward a normative path with “process control” as the core concept and “technical due process” as the institutional fulcrum, and constructs the system from three dimensions: pre-embedding, in-process coordination and post-hoc accountability, so as to realize the institutional coupling between algorithmic governance and the principles of administrative rule of law.
文章引用:齐新宇. 环境行政处罚裁量基准制度数智化转型的法治调适 [J]. 法学, 2026, 14(4): 24-31. https://doi.org/10.12677/ojls.2026.144088

1. 引言

环境行政处罚裁量基准制度本质上是一种自我约束型规范机制,其通过对违法情节的格化与处罚幅度的区间细化,将抽象的自由裁量权转化为相对可控的规范运行结构[1]。其制度功能并非消灭裁量,而在于通过预设框架压缩任意性空间,从而实现控权与统一适用的双重目标。

数智化转型改变的,并不仅是裁量基准的表现形式,而是裁量权运行的结构逻辑。当裁量基准被转译为算法规则并嵌入执法系统后,裁量判断不再仅仅依赖执法人员的经验理性,而是在相当程度上依赖计算模型的逻辑推演。裁量权的运行载体由“人”向“人——机复合结构”迁移,控权机制亦由文本规范扩展为代码规制。

这种转变意味着:裁量基准不再只是供执法人员参照的规范文件,而成为自动化系统中的运行规则;裁量判断不再完全体现个体理性衡量,而表现为参数匹配与规则触发。其法理意义在于,裁量权的行使机制发生了结构性重构。

2. 算法裁量的规范风险与结构性张力

算法嵌入环境行政处罚裁量基准体系后,并未改变裁量权的公权属性,却深刻改变了其运行结构。裁量判断不再仅仅是执法人员基于规范文本进行的综合衡量,而是在算法模型所构建的变量结构中完成[2]。这种结构性转型,使裁量权在形式上仍为行政权,但在实质运行层面呈现出技术理性主导的特征。由此产生的规范风险,并非技术偶发故障,而是权力结构变化所带来的法理张力。

2.1. 算法结构对正当程序的侵蚀可能

行政程序的正当性基础,在于决策形成过程的公开性、可参与性与可说明性。传统裁量基准虽然具有抽象性,但裁量过程仍通过说明理由制度而得以外化。执法人员必须在决定书中解释为何在法定区间内选择特定幅度,从而使裁量活动进入可监督空间。

算法裁量则改变了这一表达结构。裁量因素被拆解为数据变量并嵌入模型结构之中,权重分配通过计算逻辑完成,即便最终结果可以呈现,决策路径却未必能够以法律语言完整重构。若算法推理链条无法被有效说明,相对人便难以理解裁量形成机制,其陈述与申辩权也难以实质发挥作用。[3]

程序正当原则的核心,并不在于形式上给予陈述机会,而在于确保参与能够对决策结构产生实际影响。当算法运行逻辑对外不可解释时,程序参与可能退化为形式程序。此种情形下,正当程序并未被明确否定,却在结构层面被削弱。因此,算法裁量对程序正当性的挑战,不在于是否使用技术工具,而在于是否形成了难以进入法律论证结构的封闭决策机制。

2.2. 数据依赖与平等原则的隐性冲突

平等原则要求行政机关在相同或类似情形下给予相同处理。裁量基准制度本身即旨在通过结构化标准减少差异性,实现执法统一与权力约束。然而,算法裁量依赖历史数据进行模型训练与权重校准,这一机制可能在无意中固化既往执法差异。历史执法数据并非价值中立,其背后可能包含区域执法差异、行业监管偏好乃至执法资源配置不均等因素。当算法将这些数据转化为决策模型基础时,既往差异可能被结构性嵌入未来裁量逻辑。

算法歧视的风险并非表现为显性不平等,而是通过变量选择与权重配置间接体现[4]。例如,若模型在训练过程中对某些企业规模或行业类型赋予较高风险权重,便可能导致结构性不利后果。此种差异往往难以通过个案观察识别,却可能在总体层面产生累积效应。因此,算法裁量所带来的平等风险,并非简单的技术偏差,而是数据结构与法治平等理念之间的潜在冲突。

2.3. 比例原则与个案衡量空间的结构压缩

比例原则要求行政处罚在实现监管目标的同时保持必要与适度,其实质在于个案衡量。裁量基准通过区间化与情节分类的方式限制裁量任意性,但仍需为个案判断保留一定空间,以便执法人员结合具体情节作出判断。算法模型强调变量匹配与规则一致性,追求结果稳定与处理效率。当裁量逻辑以参数结构为核心时,个案中的非量化因素可能难以进入模型。若算法模型未为特殊情节预留结构接口,则个案差异将被统一性逻辑所吸收。比例原则并非抽象口号,而是一种要求在个案中权衡公共利益与私人权益的判断结构。当裁量权运行高度依赖算法模型时,若缺乏人工干预或逸脱机制,比例原则可能退化为形式性约束。

2.4. 权力复合化与责任结构的不确定性

在数字治理结构中,算法逐渐嵌入公共决策过程,形成了“人–机复合结构”的权力运行模式。执法人员、算法开发者与系统维护主体共同参与裁量形成过程,但现行行政法框架仍以行政机关作为唯一公权责任主体[5]。在此结构下,若裁量结果存在错误,责任追溯可能面临复杂性。一方面,行政机关负有最终决定责任;另一方面,算法设计缺陷或数据偏差亦可能构成重要原因。若责任分配机制不清晰,权力运行可能在多主体之间形成责任稀释。

权力若存在,责任必须明确。算法裁量所带来的责任问题,核心并非技术过失,而是权力结构复合化与责任制度单一化之间的张力。若不对责任结构进行制度回应,算法嵌入可能削弱权力监督强度。

3. 过程控制理念的提出及其理论基础

在算法裁量背景下,仅通过结果审查维持裁量合法性已显不足。特别是在预测型算法等数据驱动技术逐渐进入行政裁量领域的情况下,裁量结果的形成过程本身即成为需要审查的重要对象。规范理念必须从结果控制转向过程控制,将算法运行结构纳入法治视野。

3.1. 结果控制模式的理论限度

传统裁量基准制度主要通过结果区间控制的方式约束自由裁量权,以降低执法差异与恣意性。只要裁量结果位于法定幅度内,且未明显违反比例原则,即通常被视为合法。这种控制模式适用于以人工判断为核心的裁量结构。然而,当裁量形成依赖算法模型时,结果合法并不必然意味着过程正当。若算法在设计阶段即嵌入不合理权重或存在数据偏差,即便输出结果形式上处于法定区间内,也可能在结构层面存在问题。因此,单纯依赖结果合法性审查,无法有效识别算法裁量风险。控制重心必须前移至裁量形成过程。

3.2. 过程控制的规范内涵

过程控制理念强调,对权力运行全过程实施制度化规范。其理论基础在于程序正当原则与权力分立理念的延伸:行政权不仅应当在结果上符合法律,更应当在形成机制上受到制度约束。在算法裁量语境下,过程包括模型设计、变量选择、数据筛选、权重设定、人工干预节点与日志记录机制。上述环节均直接影响裁量结果,应当纳入规范框架。过程控制并非增加行政负担,而是通过制度嵌入确保算法运行不偏离法治轨道。其目标在于,使算法成为法治原则的技术表达形式,而非形成独立于法律之外的决策体系。

3.3. 技术理性与法治理性的制度调和

技术理性强调效率、稳定与可预测性,法治理性强调公正、参与及责任,两者并非天然对立,但若缺乏制度设计,可能发生冲突。过程控制理念正是调和两种理性的制度桥梁,通过将比例原则、平等原则与说明理由义务嵌入算法结构,使法治价值在技术运行中得到体现[6]。技术因此不再构成对法治的挑战,而成为实现法治目标的工具。在此意义上,数智化转型并非削弱行政法原则,而是要求对其进行结构性重构。过程控制不是对算法的限制,而是对权力运行方式的再规范。

4. 不同技术路线算法在行政裁量中的适用差异

在行政裁量的数智化实践中,算法并非单一技术形态。根据技术运行逻辑的不同,行政执法中使用的算法大体可以区分为规则型算法与预测型(学习型)算法两类,二者在裁量运行机理与规制需求上存在显著差异。

4.1. 规则型算法

规则型算法(rule-based algorithm)是指通过代码化转译将既有裁量基准转化为可执行的算法规则,其本质是规范文本的形式化表达。此类算法以“如果–那么”的条件语句为基本逻辑,裁量结果由预设规则直接决定,不涉及模型自我更新或概率预测。山东省生态环境行政处罚裁量基准采用的“多因素裁量百分比模式”,将裁量因素转化为可计算的裁量等级,再通过固定公式计算处罚金额,即属此类。

在此技术路径下,算法并未创造新的裁量规则,而是将既有规范结构嵌入程序系统。因此,其主要法治风险并不在于算法自主决策,而在于规则转化过程是否准确反映法律规范本身。若在规则编码过程中出现变量选择不当、权重设置失衡或裁量区间压缩等情形,则可能在技术层面改变原有规范结构,导致“隐性规范重构”。换言之,程序代码在事实上承担了类似规范制定的功能,但却缺乏相应的合法性审查程序。

因此,对于规则型算法而言,制度控制的重点应当放在规则转化阶段的合法性审查机制。行政机关在将裁量基准嵌入算法系统时,应当建立规范审查程序,对变量选择、逻辑结构与结果区间进行法律评估,以确保程序规则与既有法律规范保持一致。只有在规则转化过程受到制度约束的情况下,算法才可能成为裁量基准制度的技术延伸,而非新的隐性规范来源。

4.2. 预测型算法

与规则型算法不同,预测型或学习型算法通常基于历史数据进行模型训练,通过识别数据中的相关性生成裁量建议或自动作出决定。此类算法具有自我迭代能力,裁量逻辑隐含于权重结构与参数配置之中,难以用预设规则完整表达。当前环境执法领域虽以规则型算法为主流,但随着“行政处罚自由裁量计算器”等智能系统的推广,预测型算法的应用前景不容忽视[7]。这种运行机制虽然能够提升风险识别能力,但也带来了算法可解释性的结构性难题。当裁量建议来源于复杂模型时,执法人员与相对人往往难以理解其推理路径,从而使行政决定的说明理由义务面临新的挑战。

在传统行政法框架中,行政机关负有说明决定理由的义务,而这一义务的实现依赖于裁量过程的可解释性。若算法模型的运行逻辑无法被解释或转译为法律语言,则行政决定虽然形式上由行政机关作出,但其形成过程却难以接受有效监督。因此,在预测型算法应用情境下,单纯依赖传统程序规则可能不足以保障程序正当性。针对这一问题,制度回应不应简单要求算法完全公开源代码,而应建立技术性正当程序机制。通过算法影响评估制度、模型审计机制以及可解释性报告制度,使算法运行过程在制度层面保持可监督状态。同时,应明确算法仅具有辅助决策功能,最终裁量判断仍需由执法人员作出,以避免裁量权在技术运行中发生实质性转移。

5. 技术性正当程序的制度构造

算法嵌入行政裁量并不必然导致程序正当性的削弱,关键在于是否为算法运行构建与之相匹配的程序结构。在传统行政法框架中,正当程序强调公开、参与、说明与救济,其核心目标在于限制权力的恣意性。在算法环境下,裁量权虽以新的技术形态运行,但其公权属性并未改变[8]。因此,有必要在既有正当程序理论基础上,构建技术性正当程序框架,将传统程序保障机制转译为算法可嵌入的制度结构。

5.1. 算法透明与可解释机制的法理重构

现行《中华人民共和国行政处罚法》第三十四条规定:“行政机关可以依法制定行政处罚裁量基准,规范行使行政处罚裁量权。行政处罚裁量基准应当向社会公布。”该条文虽未预见算法裁量的技术形态,但其确立的裁量基准公开原则,为算法透明义务提供了规范依据。而在预测型算法广泛应用的情形下,算法透明问题并非单纯的信息公开问题,而是行政权运行可监督性的制度前提。行政权的合法性建立在可说明性基础之上。若裁量过程被封装于技术模型内部,相对人无法理解裁量结果的生成逻辑,则行政决定即便形式合法,也难以获得实质正当性。在算法行政语境下,透明并不意味着源代码完全公开。源代码的复杂性与技术专属性,决定了其难以成为普通相对人可理解的信息形态[9]。若将透明简单等同于技术细节披露,反而可能造成形式公开但实质不可理解的悖论。因此,算法透明的法理核心,应当从技术披露转向结构解释。

所谓结构解释,是指行政机关有义务说明算法裁量所依赖的核心变量结构、权重分配逻辑以及决策路径类型,而非披露具体程序代码。例如,在环境行政处罚中,若算法对违法行为的持续时间、污染程度、主观过错等因素分别赋予不同权重,行政机关应当能够说明该权重配置的规范依据与价值取向。通过结构层面的解释,可以使裁量逻辑重新进入法律论证轨道,而非停留在技术黑箱之中[10]。此外,透明机制还应包括算法适用范围的明确界定。自动化裁量系统应当明确其适用案件类型、排除事项及人工复核触发条件。若算法适用边界模糊,执法人员可能将其扩展至不宜自动处理的复杂案件,从而侵蚀个案权衡空间。因此,算法透明的制度目标并非消除技术复杂性,而是确保裁量形成过程具有可说明性、可质疑性与可监督性,从而维系行政权力运行的公开性基础。

5.2. 人机协同结构的制度化安排

算法裁量风险的重要来源,在于权力主体的隐性转移。当执法人员对系统建议产生路径依赖,裁量判断可能事实上让位于技术输出。若无制度性安排,算法将由辅助工具转化为事实决策者。因此,人机协同机制的制度化构造,必须以责任最终归属原则为前提。算法只能作为决策支持系统,而非裁量主体。执法人员对裁量结果承担最终法律责任,不得以系统自动生成作为免责理由。

在人机分工结构上,应当建立分层适用机制。对于规则型算法,人工干预的重点在于规则例外情形;对于预测型算法,则应在高风险决策领域设置禁止全自动裁量的底线规则。对于事实简单、法律关系明确、权益影响较小的案件,算法可提供主要判断框架,但仍需人工确认;对于涉及重大生态影响、企业持续经营风险或社会关注度较高的案件,应当强制进入人工复核程序;对于存在法律适用争议或事实认定复杂性的案件,应当允许执法人员偏离算法建议,并在强化说明义务的前提下作出个别判断。

更为重要的是,人机协同机制应当嵌入程序节点之中,而非停留于原则性规定。系统设计层面应当设置强制复核触发阈值。以罚款为例,当罚款金额达到一定比例,或案件涉及重复违法情形时,系统自动提示人工复核。通过技术性触发机制,将法律价值判断嵌入算法运行结构。只有在制度层面明确算法辅助与人工决断的结构定位,才能避免裁量权在技术运行中发生隐性迁移。[11]

5.3. 说明理由制度的数字化重构

说明理由制度是现代行政法的核心保障机制,其功能在于通过理由呈现实现权力自我约束。2023年《生态环境行政处罚办法》第三十九条明确将“裁量基准运用是否适当”纳入案件审查范围,第五十六条要求处罚决定书载明“适用裁量基准的理由”。这些规定构成算法裁量法治化的规范起点:当裁量基准被转译为算法规则时,“运用是否适当”的审查必然延伸至算法设计层面;说明理由义务在算法环境下,则要求系统能够生成可理解的裁量论证[12]。在算法环境下,若处罚决定仅呈现结果而未呈现推理结构,则说明理由义务将被形式化。因此,自动化裁量系统必须内嵌理由生成模块,将裁量形成过程转化为可表达的法律语言。系统输出的处罚决定书,不应仅载明违反条款与处罚金额,而应当呈现:裁量依据条款、违法情节认定逻辑、各裁量因素在决策中的作用方式以及算法建议与人工确认之间的关系。

同时,应当建立完整的裁量日志制度。日志不仅记录输入参数与输出结果,更应记录操作人员、干预节点及调整理由。该日志在行政复议与司法审查中具有重要证据意义,是追溯裁量过程合法性的关键材料。通过对说明理由制度的数字化改造,可以使算法裁量重新回归法律论证结构,避免其滑向纯粹技术决策。

6. 责任结构与司法审查的适应性调整

算法裁量所带来的挑战,不仅体现在程序层面,也体现在责任结构与司法控制机制之中。若缺乏清晰的责任安排与审查路径,算法行政可能在形式合法性掩盖下削弱权力控制强度。

6.1. 最终责任原则与责任分层结构

在行政法体系中,裁量权属于法定公权力,其行使主体只能是行政机关。算法作为工具,其运行并不改变权力属性。因此,无论自动化程度如何,行政机关均应对最终处罚决定承担完全法律责任[13]。在此基础上,可构建责任分层结构。行政机关承担公法责任与国家赔偿责任;算法开发者若存在设计缺陷或重大技术过失,应承担民事侵权责任;系统维护主体若未履行更新与监督义务,也应承担相应法律责任。但这种分层责任安排并不意味着行政机关可以转移监督义务。行政机关在引入算法系统时,应履行充分审查义务与持续监督义务。若未进行必要合规评估即上线运行,属于行政机关自身过错。

6.2. 逸脱条款与个案正义保障

裁量基准制度本身即具有一定刚性,而算法嵌入后,其刚性进一步强化,若缺乏逸脱机制,个案正义可能被结构化规则所压缩[14]。因此,应当在裁量基准中明确逸脱条款,并在算法系统中预设例外处理接口。当执法人员认为算法建议明显不当时,可以启动逸脱程序。在逸脱程序中,应当履行集体讨论或负责人审批程序,并强化说明理由义务。逸脱条款的存在,并非削弱统一适用原则,而是防止机械统一压倒实质公平。通过制度化的例外接口,可以在规则稳定性与个案灵活性之间取得平衡。

6.3. 司法审查结构的扩展

在自动化裁量背景下,司法审查对象不应仅限于处罚结果本身,而应扩展至算法运行结构。法院在审查此类案件时,应当关注以下三个层面:第一,算法设计是否合法,包括数据来源是否合法合规,是否违反平等原则或比例原则;第二,程序运行是否保障相对人参与权与申辩权;第三,裁量结果是否明显不当或与个案情节严重失衡。司法审查的结构扩展,意味着法院不仅审查结果合理性,还应审查形成结果的技术结构是否符合法治原则[15]。这一转变,是算法行政时代司法控制功能的必要延伸。

7. 结论

环境行政处罚裁量基准的数智化转型,本质上是裁量权运行机制的重构,而非简单技术工具的更替。若仅从效率维度评价算法应用,容易忽视其对权力结构与程序保障的深远影响。本文所提出的过程控制与技术性正当程序路径,旨在通过制度嵌入,使算法成为法治原则的执行载体,而非替代主体。行政法治的核心命题始终未变,即如何在保障公共利益的同时防止权力恣意。在算法时代,这一命题并未消失,只是呈现出新的技术形态。真正成熟的数智化治理,不在于让算法替代判断,而在于让法治原则进入算法结构。

参考文献

[1] 王青斌. 行政裁量基准的法律属性及其效力分析[J]. 政治与法律, 2023(7): 18-33.
[2] 张凌寒. 人工智能法律治理的路径拓展[J]. 中国社会科学, 2025(1): 45-63.
[3] 赵宏. 公共决策适用算法技术的规范分析与实体边界[J]. 比较法研究, 2023(2): 1-16.
[4] 王天华. 裁量标准基本理论问题刍议[J]. 浙江学刊, 2006(6): 124-132.
[5] 王锡锌. 自由裁量权基准: 技术的创新还是误用[J]. 法学研究, 2008, 30(5): 36-48.
[6] 周佑勇. 裁量基准的技术构造[J]. 中外法学, 2014, 26(5): 1142-1163.
[7] 李幸洁, 王谦谦. 生态环境行政处罚裁量基准规范适用的困境与突破[J]. 环境保护, 2025, 53(4): 56-60.
[8] 孙海涛, 周奇锜. 环境执法自动化裁量的法治挑战与制度因应[J]. 行政与法, 2024(3): 80-92.
[9] 罗英. 数字技术风险程序规制的法理重述[J]. 法学评论, 2022, 40(5): 151-160.
[10] 周佑勇. 健全行政裁量基准的新使命新任务[J]. 行政法学研究, 2023(1): 18-22.
[11] 卢超. 行政诉讼司法建议制度的功能衍化[J]. 法学研究, 2015(3): 19-33.
[12] 陈诚. 我国生态环境行政处罚裁量基准制度的困境与出路[J]. 江淮论坛, 2023(3): 106-114.
[13] 刘权. 过罚相当原则的规范构造与适用[J]. 中国法学, 2023(2): 129-148.
[14] 熊樟林. 论裁量基准中的逸脱条款[J]. 法商研究, 2019, 36(3): 50-62.
[15] 王贵松. 论行政裁量的司法审查强度[J]. 法商研究, 2012(4): 66-76.