1. 引言
随着人工智能技术的飞快进步,许多国家和组织已经开始广泛应用自动化行政,诚然它为行政工作带来了高效率、高准确率与便捷的优势,促进了现代行政的变革,但是随着自动化行政的推广和应用范围的扩大,也出现了一些潜在的问题和挑战。在自动化行政中,权利救济是一个备受关注的议题,自动化行政可能带来的权利侵害包括算法偏见、数据歧视以及个人隐私和数据安全的风险 [1] 。例如,自动化决策系统可能在处理个人数据时存在偏见,导致不公正的决策结果。此外,大规模的数据收集和分析也引发了对个人隐私的担忧,个人的敏感信息可能被滥用或泄露。面对这些挑战,需要思考如何在自动化行政中实施有效的权利救济机制。
本文旨在探讨自动化行政中权利救济的必要性和可行性。通过分析自动化行政的概念和优势、权利侵害的问题、现有的权利救济机制以及面临的挑战,探讨如何建立一个公正、透明和可持续的自动化行政系统。只有在权利救济得到充分重视和实施的情况下,自动化行政才能更好地为社会和个人带来福祉,并确保公正和合法的行政决策。
2. 自化动行政的分类
网络技术与人工智能在行政行为中的应用早已屡见不鲜,关于自动化行政的探讨也早有先例,在2000年就有学者将自动化行政定义为:“行政机关掌握并借助技术手段,尤其是电子数据处理而来的行政活动” [2] 。国内有学者认为自动化行政意味着行政决定、程序等内容的图示化以及智能化,借此来指通过人工智能、大数据等展开的行政活动 [3] 。但是由于数据手段的介入时间、介入程度各有不同,因此有必要对不同程度的自动化行政做个区分。有学者根据完成主体、使用领域的不同讲自动化行政分级为无自动化行政、自动化辅助行政、部分自动化行政与完全自动化行政,其中完全自动化行政又根据是否涉及裁量而分为无裁量能力的完全自动化行政与有裁量能力的完全自动化行政 [4] 。也有学者根据智能化程度不同将其分为电子化、自动化、智能化三个阶段 [3] 。此外有观点认为需从人工智能对程序—实体施加影响不同的角度将自动化行政分为两个维度三个类型 [5] 。但是从权利救济的角度出发,因涉及到对行政相对人权利侵害类型不同以及救济途径不同,有必要对自动化行政进行重新分类。因而,本文所述自动化行政,将结合算法的介入程度、行政行为自主性大小以及最终实体效果的决定主体,将自动化行政分为半自动化行政羁束行为、自动化行政羁束行为、半自动化行政裁量行为与自动化行政裁量行为(见表1)。
需注意的是,虽然自动化系统是一套设计出来针对不特定行政相对人反复使用的系统,但是本文所指的可进行权利救济的自动化行政是指适用到特定相对人,指向过去的具体行政行为。其中,如行政许可、行政确认等行为因不涉及自由裁量权,自动化系统的自主性较小,可由行政主体借助自动化系统完成,因而将其归类为辅助行为。诸如税收填报与证书登记,因算法自主性较小,对相对人的权利侵害性也相对较小。

Table 1. Automated administrative classification
表1. 自动化行政分类
因此,本文所述自动化行政,是行政主体通过大数据、人工智能等技术手段,在程序或结果上进行自动化处理展开的一系列行政活动。
3. 自动化行政中的风险
3.1. 个人信息暴露风险增加
自动化行政的基础是基于特定算法,吸纳数据后进行决断,这必然会涉及到大量行政相对人的个人数据与隐私。大数据时代,对于个人数据与隐私的侵犯变得更加隐蔽,其侵害可能发生再数据的收集、处理、利用各环节。
就收集阶段而言,对于个人数据的收集首先应当坚持《民法典》第一千零三十四条与第一千零三十五条的规定,同时应当严格遵循个人信息保护的知情同意原则(Informed Consent),即对个人信息的收集利用,必须经过本人充分知情前提下的同意。对于网页、手机端APP的主动式收集,应当取得用户的同意。在用户申报、申请等情况下,应当告知用户数据的收集、使用情况。
在数据处理阶段,《个人信息保护法》第二条规定:“自然人的个人信息受法律保护,任何组织、个人不得侵害自然人的个人信息权益”。因而对于个人数据,应当划分哪些是不得收集、使用的,且应当就使用途径、目的进行分类保护。自动化行政中收集的数据不见得都可以用以进行行政活动,如《全国经济普查条例》第三十三条和《人口普查条例》第二十三条明确规定,经济普查和人口普查获得的数据严格限定用途,不得作为行政处罚依据。
除了对行政主体,因自动化系统具有较强的专业性,现实中多数行政主体会将部分业务委托于专业算法公司,因此应当对第三方公司也进行严格法律规制,因为这些数据可能包括个人身份、健康状况、财务记录等。如果这些数据未经妥善保护,可能会导致个人隐私的侵犯和滥用,个人的敏感信息可能被不当地出售给第四方或用于不法用途。
3.2. 自动化行政裁量与决策错误侵犯行政相对人的权利
就羁束行政行为而言,因为羁束行政事项一般不涉及行政主体在行政决定中的自由裁量,只要相关事实被正常地涵射到法律所设定的构成要件,那么得出的结果将是唯一的 [4] 。因而羁束行政行为的决策错误可能性较小,相应对相对人的权利侵害性就较小。但是因为算法固定,即出现超过算法经验或者设备故障的时候,同样可能出现决策错误,例如杜宝良案中,当事人每日驾驶机动车在同一地点违反禁行规定,均被电子监控装置抓拍,累计105次,这即是现实超越算法经验所带来的决策错误与执行僵化1。
对于裁量行政行为而言,同样可能因为数据不完整与算法偏见导致裁量失衡。首先数据的不完整性意味着在决策过程中缺少某些关键信息,这可能导致决策结果的不准确性或不公平性。例如,在贷款审批过程中,如果某些重要的财务信息未被纳入考虑,就可能导致不公平的贷款决策。此外,数据的偏见也是裁量失衡的一个主要因素。由于算法是由人设计和训练的,它们可能反映出人类的偏见和偏好。这些偏见可能基于性别、种族、年龄等因素,导致不公平的决策结果。例如,在招聘过程中,如果算法偏向某个特定的群体,就可能排除其他群体的机会,从而导致裁量失衡。
另外在决策方面,不带主观感情色彩是机器算法的优势,同样也注定了其局限性。以行政执法现场为例,执法人员可以根据现场人员情况进行临时分析判断,且可以根据现场情况进行进一步决断。但是,目前算法尚未足够智能化以应付各种突发情况。而且人情执法、有温度的执法一直是法治政府建设的要求之一,机器的冰冷指令无疑会导致人作为主体的考量缺失,使得公民变成机器的奴役而非主人。
3.3. 算法黑箱阻碍公众参与
自动化行政的决策过程往往基于复杂的算法和模型。这些算法往往具有高度的复杂性和不透明性,使得人们难以理解和解释决策的具体原因和依据。黑箱是算法的显著特征,从社会意义上说,算法成为了支配数据流动的权力 [6] 。算法决策的不透明性可能导致权利侵害的问题,因为个人可能无法了解为何被做出某种决策,也无法申诉或追溯决策结果。例如在公务员招聘中,自动化行政可能使用算法来筛选和评估候选人的简历与面试分数。然而,如果算法的工作原理和决策过程不透明,候选人可能无法知道为何被拒绝,从而无法对决策结果进行救济或申诉。此时,就算申请算法公开,公开内容的界定也是一大问题,是该公开线管利用数据、还是算法,是否需要基于算法进行解释等,况且行政主体工作人员也不见得可以全面知晓算法内容。那么此时是否需要通知自动化系统制定主体,由第三方进行公开,这又是否会涉及到商业秘密。因此,算法的不透明机制不仅使得相对人的权利侵害更加隐蔽,还会涉及到更复杂的责任问题。
4. 自动化行政中的权利救济机制
4.1. 完善涉及个人信息保护的法律制度
《法治政府建设实施纲要(2021~2025年)》中要求:“坚持运用互联网、大数据、人工智能等技术手段促进依法行政,着力实现政府治理信息化与法治化深度融合,优化革新政府治理流程和方式,大力提升法治政府建设数字化水平。”结合《新一代人工智能发展规划》等文件,数字化政府、自动化行政是当前行政建设的趋势所在。但是对于相关细节却缺乏对应的法律覆盖。立法者在型构类型时,必须考虑拟赋予的法律效果以及由此而给出的价值判断 [7] 。首先,在自动化行政的应用场景方面,应由法律对其加以规定,避免行政主体实施超越职权的自动化行政行为,不同类型的行政机构、行政机关可采取的自动化行政类型也应当不同。其次在数据保护方面,除了《民法典》、《个人信息保护法》之外,缺乏对个人数据的使用规则的细化规定,例如违法记录的数据共享,该违法记录应当包含哪些信息、哪些主体可以进行数据库的共享,这些共享是否会对当事人的生活生产造成不利影响等,需要法律进一步的完善覆盖。
在自动化行政监管方面,需要建立独立的监管机构来监督自动化行政的运行和决策过程。这些机构应具备专业知识和能力,能够审查和评估算法的公正性、透明度和合规性。监管机构应对自动化行政进行定期的审查和评估。包括对算法的审查,以发现和纠正可能存在的偏见和错误。同时,监管机构还应评估自动化行政对权利保护和公共利益的影响。监管机构应建立监测和报告机制,跟踪自动化行政的实际运行情况和效果。监测可以通过数据收集、用户反馈和审查来实现,报告可以向公众和政府提供相关信息和建议。
4.2. 构建公民权利多元救济机制
不管是算法还是人,出错的概率都是存在的,因此不能一味追求不出错,更要考虑如何对已犯的错进行补救,从而最大程度保障相对人的权利。这需要在自动化行政过程中建立一套完善的补救机制。从补救程序严格性来看,应当在事前和事中引入人工审核,在事后建立完善的申诉程序。
4.2.1. 人工审核机制
人工审核可以提供机会进行人工干预和修正,以确保决策的准确性和公正性。首先,就行政主体而言,对于半自动化行政行为,应当对系统呈现的计算结果进行抽样检查,定期审核是否出现计算错漏,人工审核可以识别并纠正自动化决策中的错误或不当处理,从而确保决策的准确性和合法性。其次,不管是裁量行为还是辅助行为,都应当设立分管责任人,对系统反馈结果与最终决定进行审核,同时针对这些特殊情况进行个案审查和处理,确保决策的灵活性和合理性。最后,人工审核可以提供对决策结果的解释和解释,增强决策的透明度和可解释性,从而提高公众对决策的接受度和信任。
人工审核应当遵循以下原则:1) 独立性和客观性:人工审核应该由独立的审核人员或团队进行,与自动化系统的开发和运行方无利益关系。审核人员应具备专业知识和经验,能够客观地评估和纠正决策的错误或不当处理。2) 标准化和一致性:应该明确定义人工审核的程序和标准,并与自动化决策的规则和指导原则保持一致,确保审核结果的一致性和可预测性,减少主观判断和歧视的可能性。3) 可追溯性和记录:应该记录和追溯人工审核过程,包括审核的时间、审核人员的信息以及审核的结果。这样可以提供决策过程的透明度和责任追溯性,便于后续的评估和申诉。
4.2.2. 申诉程序的设置
申诉可以提供救济和公平机会,为受到自动化决策影响的个人或组织提供救济和公平的机会。如果个人对决策结果有异议或认为决策存在错误,他们可以通过申诉程序寻求修正或重新评估。申诉程序的设立也可以确保受影响个体的权利和利益得到保护。它为个体能够就决策的合法性、合理性或准确性进行辩护和维权提供了机会。此外,申诉程序的存在可以增加决策的可信度和公正性。通过允许个体对决策结果提出申诉,自动化行政可以更好地纠正错误和避免不公平对待,从而提高决策的公众接受度和信任度。
作出决定的自动化行政系统应明确告知相对人具有申诉权利,同时明确规定申请和申诉的渠道,例如在线申请、书面申请或口头申请等,且这些渠道应对个体提供便利和可访问性。
申诉程序应包括审核和调查过程,以评估和解决申诉,这可能涉及审核人员的审查、相关数据的再分析以及与申诉方的沟通和听证。申诉程序应确保决策结果及时通知申诉方,并提供决策结果的解释和解释,以增加透明度和可信度,并允许申诉方对结果进行进一步的救济。
总结起来,自动化行政中的人工审核和申诉程序对确保决策的准确性、公正性和透明度起着重要作用。通过引入独立的审核机制和申诉渠道,可以纠正错误决策,提供救济机会,并增加决策的可信度和公正性。然而,人工审核和申诉程序的实施需要制定明确的原则和标准,并与自动化系统的运行相互协调,以确保其有效性和合法性。
4.2.3. 行政复议与行政诉讼
作为相对严格的救济程序,行政复议与行政诉讼应当被视为相对人受到侵害后救济权利的重要途经。据前文所述,自动化行政系统针对特定人作出的决定应当为具体行政行为,具有可复议性与可诉性。就自动化行政的复议与诉讼程序而言,其本质上与一般的行政复议、行政诉讼程序并无不同,被申请、被告主体、申请程序、管辖等规则应当与一般救济程序相同,但是就目前来看,自动化行政视野下的行政复议与诉讼出现了一些自有的特点。如非现场执法行政诉讼出现了理由多元化、司法裁判说理不足、司法审查遭遇技术壁垒等时代特点 [8] 。这些问题都不约而同指向了一个特殊主体——技术主体,也就是技术系统制造方、运行方。在未来涉及自动化行政的复议与诉讼中,可能都需要技术主体的参与解释。这个解释不光提供给司法裁判,也需要提供给复议受理方与申请方。且技术主体是否存在证明责任,是否有义务配合相对人出示证据都是值得商榷的问题。因而,不管是行政复议还是行政诉讼,面对新的多元主体局面,都应将技术主体纳入到审查之中,充分考虑到技术主体的出现对权利救济的影响,从而更加全面、合法、合理地公正裁决。
此外,提供多元化的救济途径,使公民能够选择适合自己情况的救济方式。除了行政复议和行政诉讼,还可以考虑引入独立的仲裁机构、调解机构等,为公民提供更便捷和灵活的救济途径。还可以建立持续的改进和反馈机制,促进自动化行政系统的不断优化。定期收集公众的意见和建议,分析和应用反馈信息,改进权利救济机制和自动化决策的质量和公正性。
4.3. 深化自动化行政的公众参与要求
公共的参与和监督可以帮助发现和纠正自动化行政中的错误和不公正行为,提高权利救济的效果和公正性,确保自动化行政系统真正为公众服务,并充分保护公民的合法权益。
开展广泛的公众教育活动,提高公众对自动化行政系统和权利救济机制的认识和理解。通过举办研讨会、培训课程和宣传活动,向公众传达他们的权利和救济途径,激发公众参与的意愿。同时建立有效的公众咨询和参与机制,允许公众提出意见、建议和投诉。例如,设立在线平台或举办公开听证会,让公众能够直接参与决策过程,发表对自动化行政系统的看法和需求。
此外,可以设立独立的监督机构,负责监督自动化行政系统的运行和权利救济的实施。这些机构可以由独立的专家、律师和公民组成,监督自动化决策的合法性和公正性,确保权利救济程序的有效性。
建立数据监控和报告机制,监测自动化行政系统中的数据使用和决策效果。定期发布数据报告,评估自动化决策对不同群体和权利的影响,及时发现和纠正可能的偏见和错误。建立健全行业监督审查机制,鼓励社会组织参与到自动化行政的权利救济中。这些组织可以通过发起调查、提起诉讼、发布研究报告等方式,对权利侵害进行揭示和维权,促进自动化行政的改进和完善。
5. 结语
自动化行政是智能化行政的先行阶段,也是当前发展的趋势所在。在自动化行政的过程当中,不可避免会面临权利侵害的情形。我们必须明确,行政是服务于人民的,算法与机器只是人作为主体所使用的辅助工具。必须通过法律,严格限定自动化行政的应用场景、数据收集与使用规则,坚持行政行为基本原则,绝不能片面追求算法所带来的效率,从而忽略行政应具有的公平、正义价值。更需要建立健全完善的权利救济机制,不仅需要在侵害后尽可能保护相对人的利益,更加需要在侵害发生前尽可能减少风险发生几率,避免“算法暴政”的产生。总之,应当认识到自动化行政带来的巨大挑战,并不断坚持完善相应的制度,更好地为社会服务。
NOTES
1https://baike.sogou.com/v101057759.htm?fromTitle=%E6%9D%9C%E5%AE%9D%E8%89%AF%E4%BA%8B%E4%BB%B6&ch=frombaikevr.