1. 问题的提出
中共中央、国务院印发的《法治政府建设实施纲要(2021~2025年)》,明确到2025年,政府行为要全面纳入法治轨道。对于依法行政而言,完善行政程序法治是其最重要、最基本的保障;对于法治政府建设而言,完善行政程序法治则是其必由之路[1]。
自动化行政指的是将自动化决策应用于行政领域,将行政程序中的特定或全部环节交由人工智能或自动化系统处理,实现行政活动的部分或全部无人化,从而达到提高行政效率的目的[2]。自动化行政的技术基础在于通过计算一系列步骤得到具体结果的计算机程序,即“算法”[3]。技术驱动的行政转型虽然大幅提升了行政效率,但也因算法黑箱、数据依赖等技术特性导致传统行政程序的异化,进而威胁公民权利。
因此,自动化行政必须遵循正当程序。正当程序原则是行政法的基石,其核心要求“中立性、参与性、公开性、公正性”是约束公权力、保障私权利的关键机制[4]。但在自动化行政中,算法的“非人化决策”和“技术不可控性”动摇了这一原则的传统内涵。为此,从规范算法权力的目的出发建构自动化行政中的正当程序,在限制公权力、保障公民权利的价值导向下,基于正当程序的核心要素,维护自动化行政中的公民正当权利,具有一定的现实紧迫性与程序必要性。
2. 正当程序在自动化行政中的功能与挑战
行政机关在作出行政行为时必须遵守正当程序的要求。所谓正当程序,即在行政机关作出可能对相对人权益产生影响的行政行为之前,必须预先通知相对人,并向其清晰阐述行为的法律依据及具体理由。同时,行政机关还需充分听取相对人的陈述与辩解,确保相对人的意见得到充分表达。此外,行政行为实施后,行政机关还需为相对人提供必要的救济途径,以保障其合法权益[5]。中立性、参与性、公开性、公正性是最核心的正当程序要素。行政法领域内,正当法律程序的功能在于保障行政活动顺利开展,行政主体不滥用行政权,充分保障行政相对人的合法权益,在总体上提高行政活动的效率。
在程序中立方面,行政程序的中立性是行政相对人追求公平正义的前提和基础。然而,自动化行政的引入对中立性提出了以下挑战:第一,算法歧视。自动化行政系统依赖于算法进行决策,而算法前期需要大量捕捉现实世界的信息,经过处理形成自己的算法逻辑。算法的设计和采集的这些样本数据可能隐含偏见。如果样本数据对“种族、性别、地域”等存在歧视,算法可能会放大这些偏见[6]。因此,若是算法采集的基础数据暗含上述歧视信息,算法逻辑将会生成歧视性决策结果。此外,人类思想也影响算法决策过程。行政机关往往会把自动行政系统交给专业的技术部门或公司设计,初始算法需要这些技术人员书写编撰,算法模型需要技术人员生成并不断调试,在这个过程中不排除人类思想偏见影响算法决策的可能性。第二,责任主体模糊。自动化行政系统的决策过程由算法自动完成,难以明确具体的责任主体。当出现错误决策时,责任追究变得困难,行政问责机制易失效。在以往的传统行政执法中,由两名以上执法人员进行执法,对于责任的界定难度不大,但自动化设备的构思、部署、校验、运作到维护均离不开技术企业的专业技术支持。这一背景下,行政责任主体的多元化趋势显著,增加了责任界定的复杂性。
在程序参与方面,行政相对人有权参与行政程序,表达意见。但自动化行政可能无法满足程序参与要求。第一,算法的技术性使行政相对人参与机会减少。算法的价值主要体现在其以毫秒为单位的计算速度上[7]。本应由行政执法工作人员和当事人面对面确认行政决定的内容、依据、种类等,但自动化设备的介入使得行政相对人只能被动接受算法给予的处理结果。第二,算法黑箱阻碍相对人无法有效参与行政活动。自动化行政系统的算法往往不公开,且涉及复杂的技术和数据处理,大多数相对人不具备对自动化行政决策的感知、预测、纠偏、监督能力,无法了解决策的具体依据和逻辑,难以进行有效地陈述和申辩。此外,算法的自适应学习机制及其黑箱特性,使得机器生成的行政决策难以追溯其逻辑路径并预测其结果。这导致了行政机关在采用算法辅助决策时,论证过程的充分性受到限制,从而影响了行政决策的正当性基础。这一系列因素共同作用,极大地削弱了行政决策的社会接受度[8]。当行政相对人面对难以理解的行政决策,且行政机关无法清晰阐述决策背后的理由时,双方的沟通障碍便随之加剧,这无疑增加了行政机关与行政相对人之间的摩擦,甚至可能激化双方之间的矛盾冲突。因此,确保算法决策的透明度与可解释性,成为提升行政决策质量、维护行政相对人权益及促进政民和谐的关键所在。
在程序公开方面,行政程序必须公开透明,行政相对人有权了解决策的过程和依据。但自动化行政可能导致行政公开面临以下困境:第一,信息不对称问题加剧。自动化行政系统涉及大量数据和算法,行政机关掌握技术优势,而相对人难以获取相关信息,导致双方信息不对称[9]。第二,技术复杂性降低透明度。自动化行政系统的技术复杂性使得即使行政机关公开算法和数据,普通的行政相对人也难以理解,导致公开性流于形式。第三,商业秘密与信息公开存在冲突。自动化行政系统的算法和数据可能涉及技术公司的商业秘密,若行政机关以保护商业秘密为由,拒绝公开相关信息,将会损害行政程序的透明度。由于缺乏有效的竞争和监督机制,算法的不透明性问题可能持续加剧,产生技术依赖和垄断风险。
在程序公正方面,行政主体在行使职权时,应当秉持平等原则对待所有行政相对人,确保在相似情形下给予相同处理,在差异情形下则作出区别对待,从而在形式上与实质上均实现公平正义的目标。自动化行政中,形式公平决定了机器会遵守并严格执行既定规则,但机器裁量的结果是对以往案例、数据的分析推演。因此,算法始终在寻求“同案同判”的一致性价值,而非基于个案差异的灵活应变。事实上也并不存在绝对的“同案”,更多的只是“类似案件”。对算法决策的过度追求,反而会造成对例外情形、特殊情形的忽视,进而产生不正义的结果。实质正义是在形式正义基础上进一步考虑个案正义,致力于以人类价值判断去弥补机器统计计算下忽视的个案要素,以此强化结果的合理性与可接受性。目前,由于人工智能尚不具备全面模拟人类思维的能力,在面对错综复杂的具体案件时,机器难以像人类那样灵活且富有创造性地应对各种新出现的情境。故而,倘若自动化行政决策系统缺乏针对未来具体情境进行个别化分析与裁量的能力,那么极有可能导致个案正义无法实现,损害弱势群体的合法权益。
3. 自动化行政对程序性权利的冲击
自动化行政的核心技术支撑在于算法的应用。借助算法的模块化与程序化特性,行政机关能够高效地处理行政事务。但自动化具体行政行为被免除签字、说明理由、组织听证、调查等程序,导致行政相对人重要的事实情况极易被忽视,不利于个案正义的实现。由此可见,这种排除人工干预的自动化决策给传统行政程序带来了挑战,行政相对人理应享有的知情权、陈述权、申辩权、救济权等核心权利被实质性限缩。
3.1. 行政相对人的知情权受损
知情权是公民处于行政程序中所有权利的基础。我国行政法规定“行政机关应当说明理由”。行政机关应当提前主动告知行政相对人需适用的自动化行政程序,还要向公众披露算法的开发考量因素、使用流程和生成记录,说明算法体现的政策判断、绩效、公平性与合理性。假如行政相对人提出质疑,行政主体需要说明自动化行政处理的主要原因与依据,陈述行政行为与行政结果之间的因果关系,即使行政机关作出不利于行政相对人的行政裁决,相对人仍然可以了解行政裁决的过程。该项权利的目的在于打破行政机关的黑箱操作,公开透明行政行为,同时也能够鼓励公民积极参与政治生活,缓解信息不对等。
但是在实践中,自动化行政对算法和模型的依赖性不断增强,自动化行政系统的“瞬时性”亦使行政机关职责缺位,无法向行政相对人具体说明因果关系,也无法具体说明算法决策的技术原理和逻辑,相对人的知情权无法得到保障。由此,相对人难以了解算法运行逻辑,更难以参与其中,导致程序参与度降低,“算法黑箱”的质疑声愈演愈烈。另外,行政机关内部因缺少算法专业人才,难以满足自动化行政操作的需求,故而倾向于将算法决策的研发与设计工作外包给私营企业,此类现象屡见不鲜[10]。这些私营企业常以保护商业秘密为由,拒绝向外界披露其设计的程序代码,这无疑进一步阻碍了行政相对人知情权的实现。即便与自动化决策体系相关联的技术指标、基础逻辑框架、代码准则等信息得以公之于众,对于非专业的行政相对人乃至广大社会公众而言,亦难以深入领悟这些信息的实质内涵。
3.2. 行政相对人的陈述权、申辩权受限
在行政程序框架内,陈述权赋予了当事人阐述自身关于案件事实与立场主张的权利。具体而言,在行政执法环节,针对执法行为所依据的事实认定与法律适用是否精确、合理的问题,当事人有资格详细表述自己对事实的个人认知、主观见解及意见,并有权提出自己的主张与要求。相应地,申辩权则是当事人在行政程序中用于说明理由、进行抗辩的一项权利。在行政执法流程中,面对执法部门提出的指控及证据,当事人拥有权利提出异议,反驳或质疑处罚机关提出的不利于己的指控及证据材料。听取陈述、申辩程序的实质价值在于有效维护行政相对人,增强行政过程的合理性与合法性。
在自动化行政过程中,一方面,算法决策压缩了相对人的意见表达空间。若在传统行政活动中,行政机关可以根据行政相对人陈述的特殊情况作出针对性行政裁决,而以算法技术为核心的自动化行政追求算法模型的一致性和规律性,忽视个案的特殊性,行政相对人被迫失去了表达意见的机会[11]。另一方面,自动化行政系统瞬间输出的决策结果完全剥夺了行政相对人的陈述、申辩权,忽视了履行告知义务、充分听取意见等程序性环节。算法决策有出错的风险,即使自动化行政系统按照算法程序运行,也不能保证得出的结论就是正确的。若系统误判决策结果,相对人根本没有申辩的机会,只能当场接受决策结果,最后通过事后救济等方式维权。
3.3. 行政相对人的救济权虚置
目前,我国行政相对人主要通过行政诉讼、行政复议的方式进行权利救济。但是这两种方式应对自动化行政违法的效果不够理想,难以有效实现法律监督与法律救济的目标。
行政相对人难以通过诉讼方式进行救济的原因主要体现在以下几个方面:第一,法院规避审查自动化行政的实体裁量。理论上,司法应当对行政裁量的实体与程序均进行有效审查,但在实践中,人民法院往往不审查自动化行政行为的实体裁量部分,或是仅简单地审查行政行为所涉及的行政程序。这种程序性审查的倾向,在涉自动化行政违法的当事人诉讼之中,并不一定能发挥制约行政裁量的作用,反而会因为对自动化行政的实体裁量的审查不足,导致实质上的全自动行政裁量偏差无法被司法审查所纠正,甚至有被司法所承认的趋势[12]。第二,法院难以掌握行政数据的具体情况。自动化行政的“黑箱”属性与封闭属性,即使是在行政诉讼之中也体现得相对明显,即除非行政机关主动开放有关数据,人民法院往往无法获取自动化行政所涉及的数据基准和数据范围。同时,为了避免干扰行政机关的正常工作,人民法院往往也不会主动调取行政机关的有关数据,这就导致司法审查出现了明显的谦抑性,难以对自动化行政行为进行有效审查。第三,难以对自动化行政的全过程进行监督。司法审查主要集中在行为阶段,即行政数据的输入、输出阶段,在大多数情况下,人民法院不会审查行政数据基准和技术设备授权,因为这一类授权活动与数据基准往往是以地方性立法或部门立法的形式呈现的,我国行政诉讼审查的范围相对有限。因此,司法审查无法对行政数据流通的全过程进行有效监督。
《行政复议法》修改后,规定行政相对人对依据电子技术监控设备记录作出的行政处罚决定不服,申请行政复议的,可通过作出处罚决定的行政机关提交复议申请。然而,当前行政复议的制度安排并未涉及现有的全部类型的自动化行政行为[13],并且在执法实践之中,即使要求作出行政处罚的行政机关有效地自查自纠,其实际效力仍有待考量。而且由于当前行政复议机制并不会主动审查数据标准与行政设备的安装标准,同时大多数行政相对人不了解自身数据权利的行使与保障,这使得行政复议的审查效果往往有限。
4. 自动化行政中相对人权利保障的规制路径
4.1. 程序保障:深化自动化行政行为的正当程序要求
首先,公开公示自动化行政项目。打破算法“黑箱”的首要条件就是主动公开,推动算法决策技术的透明化[14]。行政主体作为项目控制方,有自主选择社会资本的权利。由于项目的技术秘密与专利权与政府公开义务相悖,根据比例原则,公示项目是一种比较可行的方案。行政主体有义务依据《招投标法》等法律面向社会公众发布招标信息,公开公示项目的选择标准与最终结果。同时,应当允许项目中合作方、社会大众、网络媒体跟进参与,共建多方主体参与的监督平台。就建设阶段而言,需要建立项目进程公示制度,成果报告制度。
其次,人工干预陈述与申辩程序。行政机关拟作出行政处罚决定时,行政机关应当及时告知行政相对人,保障其知情权、陈述与申辩权。行政法原理中,禁止过度形式主义要求行政程序保持适度灵活,考虑特殊情况,实现个案平衡。而行政自动化程序自动视所有人为一类人,自动筛除特殊情况。行政自动化系统的规则参数由技术人员设定,而现实个案的特殊性难以囊括,如果行政机关过度依赖行政自动化行政系统,必然钳制行政相对人的意见表达。因此,人工干预陈述、申辩程序可以纠正自动化行政系统的偏差。
最后,重视反馈机制,加强监督。佛山广台高速43公里处通过违章收入罚款1.2亿元,扣分187万分,其虚实线划分严重违背常识,后经民众热议,管理部门才重设虚实线。虽然《行政处罚法》并没有规定电子设备放置的合理性,但是就自动化处罚而言有必要公示一定路段处罚收入,以实现处罚透明化,通过民众反馈机制纠正不合理的自动化设备运行。如果公权力行使者追求社会公共利益内生动力不足,缺乏外部有效监督机制,公权力寻租空间必然扩大,公权力在自动化系统加持下,“私有化”程度加深。因此需要反馈自动化设备运行情况。
4.2. 权利救济:构建行政法上的算法决策拒绝权制度
自动化决策拒绝权作为个人信息权利的一种具体形式,是赋予数据主体在一定条件下拒绝自动化决策并要求人工干预下的二次决策的权利,其根本前提在于“自动化决策所依据的结果对个人权益具有显著影响”[15]。然而,这一权利的行使并不构成对个人信息处理者合法处理个人信息的全面阻碍,它仅仅排除了单纯依靠自动化手段对个人信息进行决策处理的行为。换言之,尽管自动化决策途径被排除在外,数据主体依然有获取基于非全自动化决策方式处理其个人信息的服务的权利,从而确保个人信息处理的公正性与合理性。
对于完全基于自动化决策流程而做出的决定,法律赋予了个人拒绝的权利,但却并未进一步规定个人行使拒绝权后,是否存在可能的救济路径或权利。该问题可从两种规制路径考虑,一是将用户申请获得人工介入的救济设定为一项权利,即用户在行使拒绝权后有权要求个人信息处理者是否通过人工介入或自动化决策与人工介入相结合的方式获得后续救济。将是否获得人工介入的救济途径交由用户选择,能够平衡保护数据主体获得救济的权利和保持商业活动效率之间的关系;二是在处理不涉及主观价值评估的行政事务时,其对相关主体(即行政相对人)的权益产生的影响通常较为有限。在此情形下,为确保公共利益的优先实现,行政相对人的部分权利需进行适当的妥协与让渡。一旦在具体的行政案例中,行政相对人因这种权益的让渡而蒙受损失,他们仍然有权利依据行政复议、行政诉讼等既有的法律救济渠道,来寻求必要的权利恢复与补偿。
4.3. 责任界定:确立自动化行政算法决策的责任规则
首先,明确算法决策技术外包情况下的责任主体界定。在法律层面,构建多元责任框架。法律意义上算法决策的主体仍然是公权力机关,开发、设计算法决策程序的企业只不过是起着便利公权力机关完成行政管理等事务的辅助作用[16]。无论技术是否外包,行政机关作为公共权力行使者,需对算法决策的合法性承担最终责任,但若算法错误源于设计缺陷或数据偏见,技术公司需承担民事赔偿或行政罚款等连带责任。在制度层面,明确权责分配规则。在技术外包合同中明确算法透明度要求、数据来源合法性、错误修复义务,并约定责任分担比例。要求技术公司将算法核心逻辑向行政机关备案,接受独立第三方技术审查。强制技术公司保留算法决策的完整日志,确保事后可追溯。在技术层面,增强透明性与可控性。要求技术公司开发可解释的算法模型,使决策逻辑可被行政机关和相对人理解。在自动化系统中设置“紧急制动”机制,允许行政机关在发现错误时暂停或修正决策。
其次,精确界定行政机关所承担的具体职责范畴。第一,行政机关需确保算法决策流程的透明度,进而维护行政相对人的知情权。从算法的设计、研发至最终部署应用的每一环节,行政机关均应确保流程的全程公开与透明。其次,行政机关承担着算法阐释的职责,以保障行政相对人的救济权利。鉴于算法的高度专业性和复杂性,行政机关往往选择外包方式进行开发,但这并不能免除其对算法进行充分阐释和说明的责任。再次,行政机关还需负责算法决策流程的评估工作,并促进行政相对人在自动化行政过程中听证权利的实现。自动化行政的兴起对行政机关的事前、事中及事后监管能力提出了更为严苛的要求。最后,作为算法决策流程的直接责任承担者,行政机关需接受行政相对人的算法决策拒绝权。若相对人拒绝行政机关运用算法决策流程作出决定,行政机关应立即指派专业人员介入并干预算法决策过程。
5. 结语
自动化行政本质是行政权力的技术化行使,必须受到约束。算法决策若不受程序规制,就可能成为逃避法律责任的“技术挡箭牌”,侵害行政相对人的合法权益,侵蚀法治根基。自动化行政以效率提升为核心目标,但若忽视权利保障,可能加剧社会不公,引发公众对技术治理的信任危机。通过加强程序性权利保障,可提升行政决策的透明度与公信力,增强公众对自动化行政的接受度。
自动化行政中相对人权利保障的必要性,不仅源于技术风险防范与个体权益保护的现实需求,更体现了行政法治的核心价值与社会治理现代化的内在要求。唯有通过程序性规制,才能实现技术理性与程序正义的平衡,确保自动化行政始终服务于公共利益与个体权利保障,推动数字时代的法治政府建设迈向更高水平。