1. 引言
随着数字时代的到来,算法技术与政府治理深度融合,推动行政模式从“依法行政”向“依算法行政”转型。就行政领域,现实中的自动审批、机器抓拍并形成罚单等,各种本应当由行政人员操作的程序和做出的行为,都被人工智能所取代[1],形成了独特的算法行政架构。这种新型行政模式通过将传统的法律规范转化为代码逻辑,实现了行政事务的批量处理与实时监控,显著提升了行政效能,成为新时代数字政府建设的重要支撑。
然而,算法行政在实践中也暴露出诸多问题,引发学界对其法律规制的持续探讨。卢荣婕、赵静波(2020)指出,自动化行政存在执法密度扩大、个人隐私侵害、程序参与权受损等风险[2];敖双红(2017)则关注到自动化行政设备致损时责任认定的混乱,强调需区分公物管理瑕疵与行政行为瑕疵责任[3]。在正当性层面,曹立军(2024)认为算法权力与算法权利的冲突性导致自动化行政面临裁量权裹挟、程序失灵等难题[4];胡敏洁(2019)通过分析自动化行政中的瑕疵指令,揭示了传统救济路径在应对数据错误、算法缺陷时的局限性[5]。现有研究已经触及算法黑箱、算法歧视、程序空转等核心困境:查云飞(2018)对比德国《行政程序法》,强调自动化行政应当排除裁量情形的使用[6];张凌寒(2020)则聚焦于算法透明与行政公开的冲突,指出技术垄断对公众参与原则的架空[7];余俊、王守慢(2022)以行政处罚为例,探讨了算法对执法者裁量权的影响[8];韩轶、张婷(2022)则警示算法歧视对行政公平的冲击[9]。苏稳(2024)等学者进一步剖析了责任主体模糊、归责标准缺失等问责困境[10],而于一帆(2024) [11]、王芳(2023) [12]等分别从算法公开范围、司法审查延伸、风险评估机制等角度提出规制思路。
尽管研究已经覆盖多维度问题,但对政府自动化决策的法律属性界定、困境成因的分析以及规制路径的协同构建仍然有待深化。基于此,本文立足于既有研究成果,结合算法行政的实践,将视角聚焦于其法律困境的识别与化解,以期为构建适配数字时代的行政法治体系提供理论支持。
2. 自动化行政决策的基础理论
(一) 核心概念界定
自动化行政决策是数字化背景下行政运行方式调整的重要表现,其主要特征在于行政机关借助算法技术,将既有法律规范和归责规则嵌入技术系统,通过对数据的自动化分析和处理,形成对外发生法律效果的决策结果。从运行机制看,该类决策并非单纯依赖人工判断,而是通过预设的算法模型对相关数据进行筛选、比对和评估,在不同程度上由技术系统完成决策生成过程。从实践形态上看,自动化行政决策大体可以区分为全自动化与半自动化两种类型。前者是指在决策形成过程中基本不再引入人工干预,例如交通违章电子抓拍系统,通过技术手段完成违法事实识别、证据固定及处罚结果生成;后者则表现为算法在决策过程中承担辅助功能,如在信用评价或风险评估中,由系统先行输出分析结果,再由工作人员作出最终判断。无论采取何种具体形态,其运行逻辑均在于通过技术手段重构法律规范的适用路径,属于规范实施方式的技术性调整,而并未改变行政权行使的公权力属性。
(二) 法律属性辨析
自动化行政决策的法律属性,应当结合行政行为的一般构成要件,并进一步考察技术系统在决策形成过程中的介入方式加以分析。从行为结果看,当自动化决策直接针对特定相对人,并对其权利义务产生现实影响时,其法律性质并不因技术介入而发生根本变化,仍可被评价为具体行政行为。例如,在健康码赋码等情形中,决策结果直接影响相对人的出行或公共服务获取,其外部效力特征与传统行政行为并无本质差异,因此仍应受到合法性、合理性原则的约束,并纳入行政复议与行政诉讼的审查范围。此种认定既延续了行政法对具体行政行为的既有判断标准,也回应了技术条件变化对行政行为表现形态所带来的影响。
在主体关系层面,自动化决策系统的构建与运行呈现多元主体参与的特征,行政机关、技术公司和相对人三方都有牵涉。行政机关作为决策主体,承担最终的决策责任;技术公司负责算法设计和系统维护等技术性工作,其行为本身虽无法归属于公法范畴,但输出的算法模型与系统成果却因行政机关的采纳而被赋予公法效力。这种多元主体的参与模式使得责任认定需要更为精准,如区分设备物理瑕疵致损和系统算法错误致损的不同情形,厘清民事侵权责任和行政行为违法的公法责任的边界。从权力本质而言,算法权力并非独立于行政权的新型权力,而是行政权的技术延伸。法律规则所具有的微观指导性、可造作性使其可以在很大程度上被代码化。依算法行政,是以代码规则为行政依据,通过多线程、多属性、多维度的执行结构影响着治理活动和调控各类利益,具有横跨虚拟空间和现实世界的规范能力,代码构成算法决策的行为依据[1]。算法本质上是将法律规范等转化为技术逻辑的工具,其正当性根基仍源于法律授权。行政机关通过算法行使权力时,算法的运算逻辑、参数设定、适用范围等均需在法律框架内确定,不得通过技术手段规避法律约束或扩大权力范围,法律始终是判断算法决策正当性的终极标准,这一本质特征决定了算法不能替代法律成为行政权的终极依据。
行政裁量权在自动化决策中的转型更加凸显了其法律属性的复杂性。一方面,算法通过“if-then”的逻辑结构将裁量基准固化,以刚性规则压缩了传统人工裁量的弹性空间,一定程度上实现了同案同判的形式公平。在域外立法中,德国对自动化行政决策采取了高度克制的规范立场。德国联邦《行政程序法》第35a条首次在成文法层面承认全自动具体行政行为的合法性,但同时明确将其严格限定于不涉及行政裁量、不包含不确定法律概念的羁束行政行为[6]。该条并未将自动化决策视为一般行政决策方式,而是将其作为特定条件下的例外制度安排。这一立法选择反映出德国法对行政裁量与责任归属的高度重视:通过排除裁量空间,避免算法以技术形式替代价值判断;通过限制适用范围,防止自动化决策削弱程序保障与权利救济。相较之下,我国政府自动化决策在实践中已广泛嵌入行政处罚、信用监管等领域,但尚未形成与裁量控制和程序保障相匹配的明确规范,这也使得自动化决策的法治风险更为集中地显现出来。这一立法例提示技术化收缩应当适度,避免过度压缩必要的裁量空间。另一方面,算法设计中的参数设定暗藏裁量空间,如信用评分中的指标权重、风险评级中的阈值设定等,技术人员可能通过调整模型变量影响决策结果,形成“技术黑箱中的裁量权滥用”。实践中,基层执法部门常因系统参数锁定无法调整顶格罚款金额,导致过罚相当原则被架空,而学习型算法通过数据迭代自主优化决策逻辑的过程,更可能脱离人工控制产生超出法律授权的裁量结果,对权力法定原则构成实质性挑战。这种双重特征要求在规范层面既要利用技术固化裁量基准,又要防范技术黑箱中的裁量权异化。
(三) 应用优势与实践
自动化行政决策的应用优势与其在实践中的广泛运用形成了相互支撑的逻辑关联,技术特性的赋能为实践场景的拓展提供了可能,而实践的深化又进一步凸显了技术优势的价值。从技术优势而言,算法通过批量处理、全时监控与精准画像的特性系统提升了行政效能。批量处理能力依托于大数据技术与算法的高速运算逻辑,实现了对海量行政事务的高效处理,突破了传统人工处理在效率与规模上的局限。如税收征管系统通过自动核验申报数据实现秒批退税,既大幅降低了人工审核的时间成本与人力投入,又通过标准化流程减少了操作误差。全时监控特性则借助物联网与传感技术,打破了人工执法的时空限制,使行政监管能够覆盖传统治理难以触及的时段与场景,交通领域的电子眼系统24小时抓拍违章行为便是典型,其持续性的监管能力有效遏制了违法行为的侥幸心理,提升了执法的威慑力与覆盖面。精准画像功能则基于算法对多维度数据的挖掘与分析,能够捕捉行政相对人的行为特征与风险偏好,为差异化治理提供依据,如信用评价系统通过整合消费、借贷、履约等数据生成信用等级,减少了人工评价中的主观偏见。这种精准性既保障了同案同判的形式公平,又为个性化服务与精准监管提供了支撑。
这些技术优势在实践中的落地,推动政府自动化决策渗透到行政管理的多个关键领域,形成了无处不算法的治理格局。在行政审批领域,算法将分散的审批标准转化为代码逻辑,通过系统自动核验材料的完整性与合规性,实现了高频事项的“秒批”,如深圳市158项事项的自动化审批,大幅缩短了审批时限,回应了行政相对人对高效服务的需求。行政处罚领域则借助电子监控设备与算法识别技术,实现了违法行为的自动取证与罚单生成,非现场执法模式的普及既降低了执法成本,又通过统一的判定标准减少了“人情执法”、“选择性执法”等问题。风险防控场景中,算法的预测能力得到充分发挥,健康码系统通过实时整合行程、核酸检测等数据动态调整风险等级,为疫情联防联控提供了精准的技术支撑,其背后正是算法对复杂数据的快速分析与风险预判能力。资源分配领域同样受益于算法的精准性,社会福利审核系统通过自动核验申请人的收入、家庭状况等数据,实现救助资源的精准投放,避免了传统人工审核中的疏漏与偏差。这些实践场景的共同特征在于,算法通过将法律规则与行政经验转化为可执行的代码,既延续了依法行政的核心要求,又通过技术手段优化了执行效果。随着这些场景的不断深化,行政对智能算法的依赖日益加深,这种依赖并非技术替代的被动选择,而是源于算法在提升效率、保障公平、拓展治理边界等方面的不可替代性,正如研究观察到的,算法行政已渗透到交通治理、税务管理、传染病防治等诸多场景,这种渗透本质上是数字时代行政模式向精细化、高效化转型的必然结果,技术优势与实践需求的良性互动,推动政府自动化决策成为现代治理体系的重要组成部分。
3. 自动化行政决策的法律困境
(一) 算法黑箱削弱行政公开原则
算法黑箱的存在使得政府自动化决策在实践中难以充分践行行政公开原则,即。在自动化行政处罚过程中,对违法事实的分析与处罚是通过算法规则适用既定的算法程序进行处理的,基于这些步骤、代码、程序等的过程会形成一个“黑箱”。“黑箱”内的分析过程无法被行政相对人了解,决策结果如何得出也无法被行政机关作直观解释[8]。而这种削弱效应根源于技术特性和制度选择的多重作用。从公开障碍的成因来看,客观层面的技术复杂性与商业秘密属性构成了首要阻碍。算法模型尤其是深度学习算法的运算逻辑具有高度专业性,其多层神经网络的参数调整过程难以转化为公众可理解的自然语言解释,普通行政相对人即便获取算法相关信息,也难以真正知晓决策的形成机理。同时,第三方技术公司作为算法设计的重要主体,常以核心代码涉及商业秘密为由拒绝完整披露,这种技术垄断状态直接导致公众难以通过有效途径参与决策监督,形成公开不能的现实困境。
主观层面,行政机关对公开义务的规避倾向进一步加剧了算法不透明问题。算法决策的技术隐蔽性为行政机关提供了降低舆论压力与追责风险的空间,行政机关往往声称算法涉及商业秘密、国家秘密,造成客观上不能披露[9],以此避免决策过程受到公众质疑。例如某地交通执法系统的违章认定算法参数长期处于不公开状态,当相对人对处罚结果提出异议时,行政机关仅以“系统自动判定”为由回应,导致相对人无法针对算法逻辑缺陷进行有效抗辩。
公开范围的界定模糊则是算法黑箱削弱行政公开原则的另一重要表现。现有法律框架尚未明确算法公开的具体边界,行政机关在公开内容的选择上具有较大自主空间,往往仅公开决策结果或非核心流程信息,对真正影响决策的关键要素讳莫如深。信用评价领域尤为典型,部分系统仅向公众展示信用分数结果,却对指标权重、数据来源等核心信息严格保密,这种选择性公开模式显然违背程序正义对决策过程透明化的基本要求,使得行政公开原则在自动化决策场景中被实质性架空。
(二) 算法歧视冲击行政公平原则
算法歧视对行政公平原则的冲击,已成为政府自动化决策中不可忽视的制度性风险。这种冲击并非源于算法技术本身,而主要产生于算法规则设计与数据结构安排之中,并在自动化运行过程中被持续放大。在行政决策场景下,算法通过预设指标与权重对行政相对人进行分类、评价和排序,一旦规则设定中嵌入隐性偏见,便可能在形式中立的外观下造成实质不公。
算法歧视并非独立于社会结构而存在,其差异性结果往往是社会偏见在技术层面的折射[13]。例如,在部分地区推行的低保、困难救助自动审核系统中,算法模型过度依赖收入稳定性、银行流水等量化指标作为资格判断标准,对灵活就业人员、零工群体的收入波动特征缺乏识别能力,导致其在客观生活困难情况下仍被系统性排除在救助范围之外。这种以稳定性替代实际生活状况的技术处理方式,本质上将特定就业形态预设为低风险群体,从而形成对新型劳动群体的制度性歧视。此外,在行政处罚领域,法律规范中诸如“情节轻微”“社会危害性较小”等弹性概念,在代码转化过程中往往被简化为可量化指标,如违法次数或单次行为发生与否,导致算法无法区分行为性质与危害程度的差异,使不同情形的相对人被置于同一评价框架之下,背离行政公平原则所要求的差别化处理逻辑。
算法歧视的形成并不仅限于规则设计本身,数据瑕疵的传导效应进一步加剧了对行政公平的侵蚀。政府自动化决策高度依赖既有数据进行模型训练,而数据代表性不足在实践中尤为常见。部分行政管理系统在数据采集阶段更易覆盖城市地区、年轻群体或高频使用数字政务服务的人群,而农村地区、老年群体、数字能力较弱者的数据样本相对稀缺。在养老补贴、医疗救助等资源分配场景中,若算法模型未能充分反映农村老年人的实际生活方式与支出结构,其生成的分配结果便可能系统性忽视该群体的真实需求,造成资源配置上的隐性不公。
更具隐蔽性的风险在于历史偏见的固化与再生产。在行政执法领域,部分自动化监管系统基于既往执法数据对违法风险进行预测,当历史数据本身已受到执法强度差异、区域治理重点等因素影响时,算法可能将高频执法区域持续标记为“高风险区域”,进而推动执法资源进一步向该区域倾斜,形成“越执法—越违规—越强化监管”的循环机制。这种由数据驱动的差别化执法,并非基于行为本身的违法性差异,而是源于算法对既有偏向的机械学习,在此过程中,算法虽以中立形式运行,但其输出结果是否仍能满足行政公平原则所要求的差别化判断,仍有进一步检讨的空间。
(三) 程序空转影响正当程序原则
在政府自动化决策实践中,程序空转已成为正当程序原则面临的突出风险,其核心表现为程序参与权的形式化运行以及说明理由义务的实质弱化。由于自动化决策依托算法系统在后台即时完成,行政决定往往在相对人尚未知情的情况下即已生成并发生效力,传统行政程序中以告知、陈述与申辩为核心的参与结构被显著压缩。
以非现场交通执法为代表的自动化行政处罚实践尤为典型。电子抓拍系统在持续运行状态下,能够自动识别违法行为并连续生成处罚决定,相对人往往在较长时间后才集中收到多份处罚通知。在“杜宝良案”中,当事人因未被及时告知违法事实,在不知情的情况下被连续处罚达百余次,正是自动化执法中程序告知缺位所引发的极端结果。相较于传统现场执法中执法人员即时送达处罚决定、当场履行告知与说明义务的程序结构,自动化行政处罚在实现“无人化”的同时,也切断了行政机关与相对人之间必要的程序互动,使相对人难以及时行使陈述申辩权。正如有学者指出,在自动化行政处罚情境下,继续机械套用以现场执法为前提构建的程序规则,已难以满足正当程序原则的基本要求[14]。
即便部分自动化决策系统在形式上设置了线上异议或申诉渠道,但在实践中,这些程序性安排往往因操作复杂、技术门槛较高或反馈周期过长而难以发挥实质功能,程序权利在“可设置”与“可行使”之间出现明显断裂,程序运行呈现出典型的形式化特征。
与程序参与权同步弱化的,是说明理由义务在自动化决策中的实质空洞化。算法决策高度依赖复杂模型与参数运算,其具体决策逻辑往往被封装于系统内部,行政机关在向相对人作出不利决定时,通常仅以“系统自动判定”为由进行回应,难以对决策依据作出充分说明。正当程序原则要求行政机关就不利行政行为向相对人说明理由,以保障其知情权与抗辩权,但在算法黑箱的遮蔽之下,相对人既难以理解决策形成的具体依据,也无法据此判断行政行为是否合法、合理,更遑论提出有针对性的救济主张。由此,正当程序所应具备的程序理性与权利保障功能,在自动化决策运行中被显著削弱。
(四) 责任分散挑战问责机制
责任分散现象在政府自动化决策实践中愈发突出,对传统问责机制构成严峻挑战,这种挑战集中表现为责任主体认定困难与归责标准缺失两大问题。在责任主体认定层面,多元参与主体的复杂关系导致故障发生时责任归属难以厘清。政府自动化决策的运行涉及行政机关、技术公司、算法开发者等多个主体,各主体在决策系统的设计、开发、运行与维护环节承担不同职责,却缺乏清晰的责任划分标准。以电脑程序出现Bug为例,使得一个无辜者被指控为犯罪,而实际实施犯罪的人却逍遥法外,由此造成的损害、责任由谁承担,是系统的所有者还是安装者、程序员,还是立法机关[2]?这种主体多元性与责任模糊性的矛盾,使得受损权益难以获得有效救济,削弱了问责机制的威慑力。
归责标准的缺失进一步加剧了问责机制的失灵状态。现有法律框架尚未针对算法错误的责任构成作出明确规定,行政机关常以技术中立、算法客观为由规避自身审查义务,将决策失误简单归咎于技术问题。在司法审查环节,法院对算法决策的审查往往局限于形式合法性判断,如决策是否符合法定权限、程序是否完整等,难以深入评估算法逻辑的合理性、数据输入的准确性以及模型设计的公正性。这种审查深度的不足,使得算法决策中的实质性违法或不合理问题难以被发现和纠正。由于缺乏明确的法理逻辑指导算法责任认定,行政机关与技术主体的权责边界无法通过法律手段清晰界定[10],最终导致问责机制在自动化决策场景中难以有效运转,既无法实现对权力运行的有效约束,也难以保障相对人的合法权益。
4. 自动化行政决策的规制路径
(一) 通过分层公开机制回应算法不透明问题
算法运行过程的不透明性,是自动化行政决策在实践中引发争议的重要原因,其核心并不在于技术本身,而在于技术逻辑与公众知情权之间的适配不足。围绕这一问题,构建分层公开机制具有一定讨论价值,其目的在于在技术复杂性与权利保障之间探索更为平衡的制度安排。
1、明确公开义务与范围
在自动化决策机制中,决策规则的设定与结果的最终采纳通常由行政机关完成,这使其在信息公开问题上处于关键位置。从行政公开原则出发,即便决策过程大量依赖技术系统运行,其对外产生的法律效果仍有必要接受公众监督。与此同时,算法设计与系统运维往往由技术提供方完成,其对技术逻辑的掌握程度较高,在实践中亦可能承担一定程度的协助说明责任,例如通过对算法规则作出通俗化解释,降低技术门槛带来的理解障碍。
在公开内容的范围上,有必要遵循必要性与适度性原则加以区分。首先,自动化决策的适用场景值得明确,即通过列举具体适用领域,如行政审批、信用评价等,避免技术工具被泛化使用。其次,关于数据来源的信息,可围绕数据采集渠道、使用范围及其合法性基础进行说明,以回应公众对数据合规性的关切。再次,对于直接影响决策结果的关键规则,如指标构成、权重设置或风险判定标准,可在不披露技术细节的前提下作原则性说明,以增强决策可追溯性。同时,基于技术安全与商业利益保护的现实需求,对算法源代码等技术细节应予以豁免,通过区分核心逻辑与技术细节,既保障公众对决策原理的知情权,又防止技术滥用或恶意攻击风险[11]。
2、建立技术适配的公开方式
算法的专业性与复杂性决定了传统行政公开方式难以满足公众的认知需求。针对多元指标交织的决策逻辑,可视化解释成为必要手段。通过流程图、动态演示等直观形式呈现指标权重分配、数据流转路径及结果生成逻辑,能将抽象的算法规则转化为具象的认知符号,使公众直观把握决策的关键节点。
此外,围绕复杂算法的解释问题,引入多元主体参与的解释机制亦值得讨论。例如,可考虑设立由法学、计算机科学等领域专家组成的咨询或解读机构,对算法运行原理进行中立说明,并对公开内容的充分性作出专业评估。这类机制并非替代正式法律责任,而是在现有制度框架下,为公众理解和监督自动化决策提供辅助性支撑,有助于避免公开流于形式。
(二) 完善算法评估与数据治理制度
在自动化行政决策中,算法与数据构成决策生成的基础条件,其设计与使用方式直接影响决策结果的合法性与合理性。从法治角度看,将算法风险与数据风险纳入规范讨论,有助于在技术应用早期识别潜在问题,避免决策偏离行政法的基本要求。
1、引入事前评估机制
算法的技术隐蔽性可能导致行政决策偏离法律原则,建立事前评估机制是防范算法滥用的法治屏障。从行政合法性原则出发,算法作为行政行为的新型手段,其设计与应用必须经过合法性审查。应设立独立于行政机关与技术开发方的专业评估机构,该机构需以行政法原则为审查基准,重点评估算法是否隐含歧视性特征——如是否将与行政目标无关的性别、地域等因素纳入决策变量,避免算法固化历史偏见通过预设指标取代个案判断,可能在形式统一中制造实质不公[15];核查数据样本的代表性是否符合比例原则,确保不同群体的数据覆盖均衡,防止因样本失衡导致决策对特定群体不公;评估算法错误风险的可控性,对可能影响公民重大权益的高风险算法,如公共信用评级、风险预警等,需强制引入第三方评估,评估结果需依法公开。这种评估机制既回应了行政法对行政行为“事前合法性审查”的要求,又通过公开程序强化社会监督,为算法应用设置法治门槛,防止技术优势异化为权力滥用的工具。
2、规范数据全流程监管
数据处理的合规性是自动化决策正当性的前提,数据全流程监管需贯穿行政法的程序正当与权利保障理念,受到“合法、正当、必要”原则的限制,应当在行政活动中逐渐将此类规则细化[7]。就数据采集而言,可依据比例原则限定信息收集范围,仅使用与决策目的直接相关的数据,避免无关信息被纳入算法模型。就数据处理环节而言,对历史数据中可能存在的结构性偏差进行必要修正,有助于降低算法输出结果的系统性不公风险。至于数据存储与使用期限,则可结合数据安全与个人信息保护的相关规范,对数据加密、存储期限及销毁机制作出程序性安排,从而在技术运行与权利保障之间形成相对稳定的制度预期。
(三) 强化程序保障与权利救济
在自动化决策高度依赖技术系统即时运行的情况下,传统行政程序中以告知、参与和说明为核心的制度安排,面临被压缩甚至形式化的风险。因此,有必要从程序正当原则出发,重新审视程序保障与救济机制在自动化决策中的适用方式。
1、优化参与程序
行政相对人的程序参与权是指行政相对人有权参与到行政程序中,就相关事实和法律问题公开阐明自己的主张,从而影响行政决定的作出,其具体权利内容包括知情权、听证权、陈述申辩权等,是行政相对人享有的基本程序权利[3]。自动化决策的技术瞬时性可能压缩传统行政程序,优化参与程序是对程序正当原则的必要坚守。从行政程序法的告知义务出发,事前告知应作为算法决策的法定前置程序:行政机关需通过短信、政务App等便捷方式,向相对人明确告知算法适用的具体场景、决策依据的核心规则及可能产生的权利影响,确保相对人知悉自身权益与算法决策的关联,这是相对人行使后续权利的基础。针对算法决策的封闭性,需构建便捷的异议程序:设立线上异议平台,明确行政机关在法定期限内回应异议的法定职责,保障相对人陈述申辩权的实现。对于直接影响重大权益的场景,如公共信用惩戒、资格限制等,应强制保留人工复核通道,由行政机关工作人员对异议进行实质审查并作出说明。这一设计既落实了主体合法原则,确保人类对算法的最终控制权,又通过程序补正避免技术主导下程序权利的虚化,使自动化决策始终符合程序正当的法治要求。
2、完善救济渠道
权利救济是法治行政的底线保障,算法决策的特殊性要求救济渠道与技术风险相适配。在行政救济层面,应明确算法决策纳入行政复议范围的法定依据:复议机关有权要求行政机关提交算法核心逻辑、数据来源及决策过程说明,对算法是否存在歧视性设计、数据处理是否合法合规等进行审查。这既是行政复议制度对行政行为合法性审查的自然延伸,也是破解算法黑箱、实现权利救济的制度路径,避免因技术壁垒导致相对人救济无门。
在司法审查层面,需强化法院对算法决策的审查能力。法院可依法委托技术专家辅助审查,重点核查算法逻辑是否符合法律原则、决策结果是否存在明显不当。参考司法实践中对算法合理性的审查思路,对于因算法逻辑缺陷导致的明显不当决策,法院应依法作出撤销或变更判决,确保司法权对行政行为的监督效能。这种多层次的救济体系,既为相对人提供了权利救济的法定路径,又通过司法审查将算法决策的技术风险纳入法治监督框架,实现技术效率与权利保障的动态平衡。
(四) 健全多元责任体系
责任机制是法治行政的核心构成,政府自动化决策因涉及行政机关、技术供给方、开发人员等多元主体参与,责任边界的模糊可能导致权利救济渠道不畅。健全多元责任体系,通过法律明确各主体在技术应用链条中的权责范围,确保算法决策风险有明确的责任归属,这既是行政法权责统一原则的必然要求,也是防范技术滥用的制度保障。
1、明晰责任划分
自动化决策的技术特性决定了责任需按主体功能定位合理分配。行政机关作为决策的主导者与最终决策者,应对算法的选择合法性、数据采集的合规性及决策结果的采纳合理性承担首要责任。这一方面可以使行政决策更加科学民主,提高政府权威;另一方面也可以有效控制算法权力的恣意,使自动化行政更加可控[4]。若因未履行审查义务导致算法决策错误,如未审核数据真实性或忽视算法歧视风险,应依据行政法原理承担行政责任,这是行政主体对行政行为负责的基本要求。技术公司作为算法的开发与维护主体,若因算法设计缺陷、维护不当导致决策错误或权益损害,应承担民事赔偿责任;对于故意提供存在歧视性逻辑的算法或多次出现重大技术瑕疵的,应限制其参与政府采购的资格,通过市场规制强化技术合规约束。而开发者作为算法逻辑的直接设计者,若在开发过程中故意植入歧视性规则或恶意代码,导致决策不公或权益受损,需承担个人法律责任,这既是对技术伦理的法律约束,也是对个体行为的底线规制。这种按主体功能划分的责任体系,覆盖了技术应用的全链条,避免了责任真空。
2、完善追责规则
责任追究需嵌入现有法律框架,确保有明确的法律依据。应在《行政处罚法》《行政许可法》等行政法律中增设算法决策责任条款,明确行政机关对算法应用的法定审查义务,将算法评估报告、数据合规证明、人工复核记录等纳入追责证据链,使责任认定有客观标准可依。参考责任区分的思路,需严格界定不同瑕疵的责任性质。如因算法技术缺陷导致的损害,属于技术提供方的民事责任;因行政机关未履行审查义务导致的决策错误,属于行政行为瑕疵责任,适用行政处分或国家赔偿;因数据管理不当引发的问题,依据数据安全相关法律追责。这种精细化的追责规则设计,既衔接了现有法律体系,又针对算法决策的特殊性明确了责任认定标准,避免了责任认定的随意性。
5. 结语
自动化行政决策是在行政运行持续数字化的背景下逐步形成的一种制度现象,其产生并非单纯源于技术进步本身,而是行政事务规模扩大、运行复杂性上升与技术工具广泛应用共同作用的结果。从实践形态看,算法已在多个行政决策场景中发挥实质作用,并在一定程度上改变了行政行为的形成方式与运行过程。相应地,以人工判断为前提构建的传统行政法规范体系,在技术条件变化下逐步显现出适用上的不足。本文通过对自动化行政决策法律属性的分析指出,当算法决策直接对特定主体的权利义务产生现实影响时,其法律评价仍难以脱离既有行政行为框架;技术介入并未改变权力运行的性质,但确实重构了权力行使的具体路径。围绕这一变化,算法运行不透明、差别化影响、程序参与受限以及责任分散等问题,更多表现为既有制度在新运行条件下面临的适配问题,而非完全脱离现有体系的全新命题。
在此基础上,本文从信息公开、算法评估与数据治理、程序保障以及责任配置等方面,对自动化行政决策的制度回应路径进行了讨论。这些讨论并非意在构建一套独立于现行法律体系之外的规制模式,而是尝试在既有行政法原则之内,探索技术应用与权利保障之间更为协调的制度安排。分层公开机制的引入,有助于缓解技术复杂性对知情权实现造成的障碍;算法评估与数据治理的制度化讨论,为识别和控制技术风险提供了前置视角;程序保障与救济机制的调整,回应了自动化决策对正当程序提出的现实要求;而多元责任结构的梳理,则为责任归属与救济路径提供了相对清晰的分析框架。
需要指出的是,自动化行政决策的法治化问题并非可以通过单一制度工具加以解决。随着算法技术的持续演进,其运行方式、风险形态以及对权利的影响仍可能不断发生变化。现阶段围绕相关制度的讨论,更多是在不确定条件下为技术应用划定基本边界,其实际效果仍有赖于后续实践与司法审查的进一步检验。从更长远的视角看,对自动化行政决策的规范分析,不仅涉及技术条件下行政行为形态的调整,也关系到行政法在数字时代如何维持其核心价值与制度弹性,这一问题仍有必要在今后的研究中持续展开讨论。