数字政府时代背景下算法行政的风险及其防控
Risk and Prevention of Algorithmic Administration in the Digital Government Era
DOI: 10.12677/OJLS.2023.116830, PDF, HTML, XML,   
作者: 胡漫琦:长春理工大学法学院,吉林 长春
关键词: 算法行政数字政府大数据Algorithm Administration Digital Government Big Data
摘要: 在大数据、智能化时代,我国政府的数字化转型也正逐步推进,数字技术深度嵌入行政权力的运作过程之中,形成新的行政运作模式,即算法行政。随着数字技术的发展,算法行政的运用场景越来越广泛,对社会生活的介入程度也越来越深,其作为一种崭新的行政模式,相较于传统行政更具精确性、高效性、中立性,对于提高行政效率,减轻行政负担具有积极作用。在算法行政为我国政府治理工作带来红利的同时,其也面对着许多不可避免的风险,例如算法错误、算法歧视、影响公众参与,泄露个人信息等。如何有效规避风险,也成为行政主体不得不面对的问题,本文从加强事前审查、加强事中权力规制和加强事后责任分配三个方面具体给出解决方案,通过风险规制,让算法更好地为行政活动服务,从而推动数字政府建设。期望推动数字政府建设。
Abstract: In the era of big data and intelligence, the digital transformation of China’s government is also gradually advancing, and digital technology is deeply embedded in the operation process of administrative power, forming a new administrative operation mode, that is, algorithmic administration. With the development of digital technology, the application scenarios of algorithmic administration are more and more extensive, and the degree of intervention in social life is also more and more profound. As a new administrative mode, algorithmic administration is more accurate, efficient and neutral than traditional administration, which plays a positive role in improving administrative efficiency and reducing administrative burden. While algorithmic administration brings dividends to our government’s governance work, it also faces many unavoidable risks, such as algorithmic errors, algorithmic discrimination, affecting public participation, and revealing personal information. How to effectively avoid risks has also become a problem that administrative subjects have to face. This paper gives specific solutions from three aspects: strengthening pre-examination, strengthening power regulation and strengthening post-responsibility distribution. Through risk regulation, algorithms can better serve administrative activities, thus promoting the construction of digital government. It is expected to promote the construction of digital government.
文章引用:胡漫琦. 数字政府时代背景下算法行政的风险及其防控[J]. 法学, 2023, 11(6): 5804-5810. https://doi.org/10.12677/OJLS.2023.116830

1. 算法行政概述

随着智能化时代的到来,数字技术不断渗入政府治理活动中,构建数字政府治理体系成为当前行政改革的重中之重。在数字政府时代,算法与行政治理深度融合,算法技术的应用促使行政朝着更智能化的方向转型,算法行政应运而生。其作为一种崭新的行政模式,相较于传统行政更具精确性、高效性、中立性,对于提高行政效率,减轻行政负担具有积极作用。算法行政凭借其自身的优势,为行政治理活动注入新的活力,但行政主体在享受算法技术带来的红利的同时,也要承受其不可避免的风险和挑战。

1.1. 算法技术的建构

算法是一个技术概念,可指导机器执行某一特定任务,机器学习则仿人脑思维,透过学习数据建模、根据更多数据修正模型以及分析数据等方式,不断提高准确率 [1] 。算法充分利用系统结构优势,快速地处理大量数据与信息,强大的计算能力使机器能够计算出比人类更优秀的数据结果。当将算法技术应用于行政领域时,其利用网络化和平台化的生态环境,推动政府从中心化、单一化的治理支点向平台化、分布式的多元治理网络转变,以便实现更加及时、精准、高效的治理信息的收集、加工和反馈。此外,算法技术的专业、高效也逐渐取代了传统行政决策中专家和政府官员的知识和专业地位,同时重构了行政决策多元主体之间的知识和专业格局。二者相互作用,算法技术的专业化和高效性特点嵌入了政府治理、行政决策,形成了算法行政体系,自动进行收集、分析和决策 [2] 。

随着数字革命的加速运行,万物互联带来大量、多元和实时的数据作为政府治理的核心。算法技术可准确呈现公共事务与行政治理之间的相互关系,以量化记录政府行为,并将算法作为智能治理的参与者和主体。

1.2. 算法行政的兴起

除了技术变革的红利,算法行政还源于深刻的社会背景和明确的实用导向。全球化和现代化进程的不断推进导致科技发展日新月异,人类社会正在进行深刻的系统性结构转型,进入高度不确定和复杂的“全球风险社会”时代。随着网络社会架构的更新,传统的单一化和分散化治理方式,即以国家和政府为核心的局限性被揭示。在应对动态、复杂、场景化治理对象时,往往会出现监管真空、监管滞后和监管失效的问题。为了解决这一问题,大数据等新型信息技术被引入到国家治理的领域,政府已逐步实现从“总体支配”到“技术治理”的重要转变。

我国的经济发展面临很多问题,其中不协调和不可持续的问题尤为突出,传统的行政发展模式弊端显露。为此,我们需要建设服务型政府来提高治理能力和水平。此外,社会系统快速发展也催生了风险社会的形态,随着人工智能时代的到来,传统的社会治理模式也在转型。为了应对治理压力,我们需要采用现代科技手段如算法和大数据等来应用于行政规制领域,并迎接风险社会的治理挑战,这就是算法行政的兴起之由。在新的行政改革历程中,算法行政成为了数字政府的基本形态,已成为先锋和排头兵。

2. 算法行政在我国的实践应用

从我国算法直接对监控查获的交通违法行为处以罚款来看,算法已经悄然渗透到行政管理中。从世界范围来看,美国的科罗拉福利管理系统算法已经自动开展医疗补助、食品券、福利资格认定和福利计算等,算法积极推动行为规训和福利配置的进一步发展。

密切结合数字化行政的优势,算法行政不断实现自动化和智能化。此外,系统架构方面的优势也协助算法获取海量数据,通过强大的算力解析信息并进行高速计算,获得优于人类计算的数据,提高了公权力的运转效率。例如,“交通抓拍”“自动审批”等行政活动对交通违规行为进行算法抓取和计算,对交通肇事者实施处罚,说明在实践意境下已触动完全由机器作出的全自动具体行政行为的理论与实践探索。

算法作为一种以服务对象需求为导向的技术工具,可重新对数据进行建模,为服务对象或监管主体提供定制化的应用场景,并将其量化产出,应用于更大规模的监管对象,以实现更低成本的高收益。以政府部门的一网通办业务为例,应用算法技术能显著缩短审批办理时限,平均减少一半的时间,并能解决政府治理中的“低质低效”和“供需不匹配”问题,实现资源配置的优化 [3] 。对于算法在社会治理中的运用,则需要进行法律规制和控制,以达到科学、合理、公正的效果。只有在考虑到法律原则、人文关怀和公平正义原则的情况下进行算法的设计和实施,才能促进社会治理的科学化、精细化、人性化,实现资源配置的优化,减少时间成本和人力成本,提高行政效率。相信随着算法行政的不断发展,我国的行政治理能力和水平会更上一个台阶 [4] 。

3. 算法行政的风险

作为一种相当自主的技术,算法愈来愈不受我们的控制,由此而引发技术层面与法律层面的双向失范。笔者对于算法技术的风险分为以下三个方面来阐述。

3.1. 基于算法技术本身

3.1.1. 算法错误

算法模型也存在着技术漏洞,可能导致关键编码错误。算法技术可能受人为因素的影响较大,如果程序员缺乏法律专业知识和训练,就可能无意识地扭曲法规内容,导致原有法律规则的异化执行或适用 [5] 。此外,由于算法只能理解有限的人工语言词汇,也可能无法完全理解特定法规上的微小差异,需要通过对个案的审查来评估。若算法未经授权就进行误判或修改原始数据,就会导致规则执行失真,法规被异化执行。

3.1.2. 算法歧视

“迄今为止,计算机尚未真正理解公平这个概念。程序员缺乏如何为公平编码的知识,而且他们的老板极少要求。”算法也存在偏见,可能会受到原始数据、代码设计和自主学习的影响,从而导致决策结果出现不公平,违反行政法公正原则。在算法设计之初,算法设计者不可避免会将个人主观带入算法的建模过程中,导致算法的主观性加强。若这类主观性强的算法被应用于具体的社会治理中,其所导致的结果显而易见,不但会产生偏差判断,从而影响个人权益,还会影响社会利益,甚至还会加剧社会不公平。

3.2. 基于行政相对人视角

3.2.1. 影响公众参与

行政活动的程序性权利指的是知情权、参与权、救济权等权利,是公民参与政府决策和监督的途径。然而,算法行政的兴起削弱了行政相对人的程序性权利,缩小了公众参与行政程序的空间和机会,从而损害了公共自主权 [6] 。当前,算法技术已经具备自主学习的能力,可以推断公众意图和获取诉求。这种技术逐渐取代了公众参与,同时也带来了对算法技术盲目崇拜的现象,削弱了公众参与公共政策表达的能力。

3.2.2. 泄露个人隐私

在大数据时代,算法将分散的数据进行整合,根据其收集的数据为公众绘制出精准的画像,并以此为基础预测个体未来可能发生的行为。这使得人们仿佛成为了“透明人”,被监控和追踪。同时,人们深深沉浸于数字世界之中,数字化可涉及所有人的个人信息,通过智能设备的计算使个人隐私被重新评估。算法与政府治理结合得越来越深,就有越来越多的个人数据被涉及,个人隐私的保护边界因此扩大。为了有效地构建和优化社会治理,政府依赖于大量数据,但由于监管机制不完善以及数据采集技术的滞后,个人数据容易遭受信息泄露的风险。数据冗余会加剧个人隐私泄露的风险,因此对数据收集进行精确管理和规范化成为治理的重要环节 [7] 。

3.2.3. 消除人的整体性

通过运用特定算法模型对海量的数据进行评断和归类,算法技术将个人身份转化为标签,进而形成一种持久性和常态化的风险形态,也即消除了人的整体性。算法将个人视为数据集的投影或特征集合,利用行政过程中收集到的数据,建模、演算,构建行政相对人的“数字形象”,作为认定事实、适用规则和行政决策的基础 [8] 。然而,算法所塑造的“数字形象”并不能准确代表行政相对人本身,甚至无法与传统行政领域中行政相对人在行政工作人员主观意识中所映射的客观实际相提并论。这个“虚拟人像”是由行政相对人数据点的集合构成的,即算法对行政相对人的“年龄”“性别”“职业”等特征属性的组成,但与真实的行政相对人存在较大差异,容易导致不准确和歧视性的算法决策 [9] 。

3.3. 基于行政主体视角

算法行政对政府公信力可能造成影响。最初,算法行政并不能独立做出行政决策,仅为辅助政府的治理活动。随着算法智能化和学习能力不断增强,由智能算法直接提出合理的决策已逐步取代传统人工决策。也就是说目前我们所接收到的决策可能是由智能算法得出的“最佳方案”。尽管算法技术已经智能到如此地步,它的技术属性仍然没有改变,算法还是二进制计算程序,其所做出的决策行为都是基于指令代码。因此,无法确定程序决策可能会带来什么后果和影响。如果出现行政区划界限模糊、行政主体责任不明的情况,政府行政效率受到质疑。此外,如果政府官员盲目服从算法的“霸权”,仅仅依赖算法产生最佳判断,却不关注公共场合中的责任承担,“公共性”将受到严重影响。这种情况可能会导致责任误差,并对政府等行政机构的公信力造成威胁,这将对政府的合法性造成质疑和批评 [10] 。

4. 算法行政的风险规制

为了实现算法的健康有序运行,让算法受到合理而适当的规制,我们需要建立起符合法律要求的算法安全治理体系。然而,目前在算法行政法律应对过程中,面临着信息披露困境、审查难题以及追责问题。因此,我们需要在坚持正当程序的基础上,积极创新制度思路,应对算法行政新特点和新风险,把算法关进制度的笼子,对其风险进行有效规制。

4.1. 加强事前审查

建立公开透明的算法行政运行机制,是预防算法“黑箱”导致社会治理风险的重要措施。首先,应适度公开涉及到行政对象财产、隐私、利益等事项,确保行政对象有权拒绝不合理的算法决策。如果算法出现错误决策,行政对象可以回馈诉求,以协同优化算法,提升行政治理效能。

此外,还可以利用特定的工具来评估算法行政系统,以检测管理决策中可能存在的缺陷。因此,行政机关需要提供相应的技术支持,采用虚拟且高速的测试方法,使得算法审查员通过大量的虚拟测试,在不影响物理现实的前提下,得到最接近真实的测试结果,从而找出算法行政中的问题和漏洞,解决发生错误的算法决策问题。笔者认为可借鉴英国的“虚拟沙盒”技术,这是一种“基于云的解决方案” [11] 。其可以通过利用相关部门、组织和企业提供的行政、市场数据构建完全模拟的虚拟测试环境来摆脱现实的限制,从而实现在纯虚拟环境中进行充分的运行和试错。

最后,要实现数字化行政行为,必须尊重法律保留原则,只有经过明确的法律授权的行为才能够数字化 [12] 。而对于不适宜数字化的行为,应该有清晰的限制范围。需要留意的是,与裁量判断有关的行为内容,应当避免机器替代人类裁量。为确保以人为本的审核义务和陈述申辩权利,执法人员需要全面地审核算法系统记录的内容,只有通过审核的机器裁量才有规范效力。如果与机器裁量有关的人存在异议,根据法律法规可以行使陈述申辩权利,执法人员有责任解释机器裁量的异议 [13] 。

4.2. 加强事中权力规制

为贯彻实施算法行政,需要建立由国家主导的算法机构。由于目前行政机关在开发符合行政目标和期望的算法系统方面存在困难,因此其通常采取公私合作的方式,利用私营企业的技术来协助其开发应用算法系统。随着智能时代的到来,各行各业都更加依赖技术的发展。当前,科技领域已经成为新的竞争舞台,因此掌握算法和数据的人将成为未来的赢家。政府对数据的占有和技术运用相较企业和超级平台来说较晚,企业和超级平台早期占据市场并拥有大量用户个人信息、社交活动等数据,拥有相对庞大的用户基础。为提高政府决策能力,应由国家自主掌控算法研究机构,以国家主导的形式进行研究和应用,树立国家在算法领域的领导地位,并建立国家行政平台的合作机制。

为了实现决策的一网统管、一体联动、一键到底,算法行政使用集成技术整合职能权限,这使得算法有了特定的公共利益相关的决策权限,并促成算法行政中事项的集中和权限的整合 [14] 。但是,为了合理设定可转移的决策权限,需要对算法能力进行分层判断。不能将涉及基本权利的行政决策权交由算法。为了限制算法接管决策的范围,应对与人权密切相关的核心领域进行程度区分。如果同一事项的人机决策结果不一致,或者决策结果明显不合理,行政机关应该收回算法的决策权,由能力胜任的人类来控制。如《规范金融机构资产管理业务的指导意见》要求,若人工智能算法模型缺陷或系统异常导致重大影响,应及时采取人工干预措施。强制调整或终止人工智能业务,使决策回归于人类判断。

4.3. 加强事后责任分配

作为一种技术整合方式,算法平台在有形政府部门间运用广泛。政府的“一张网”和“一站式”组织结构打破了政府间的横向和纵向壁垒,各部门联合行动,实现了无缝的公共服务模式。

4.3.1. 行政机关对外承担责任

作为一种行政法上的法律拟制,行政主体旨在解决行政法律关系中公权力方的主体问题。因此,无论是行政主体亦或是算法系统做出行政决策,在行政相对人看来,其法律关系相对方永远是行政主体。行政相对人无需考虑复杂的事项,只需在行政行为发生后,针对法律意义上的行政主体寻求救济,而不是算法系统。这是因为算法行政权力产生的本质是由行政机关所授权的,其承担的职能属于行政机关应有的职能,算法行政所作出的决策代表的是行政主体,属于行政权力的延伸。因此,无论算法行政决策错误的原因是来自算法开发商、算法运营者还是算法系统本身,行政主体都应该对算法行政外部责任有责不可推卸的责任 [15] 。

4.3.2. 行政机构内部责任配置

具体而言,当算法决策出现错误导致行政机构需要承担行政责任时,行政机构可以先按照“理性”标准对算法进行考察。如果算法行政系统运营是“理性”,那么算法运营者就不需要承担行政责任,并且行政机构也不需要启动内部问责机制。若算法行政系统不“理性”,应启动内部追责程序。若算法运营者存在故意或重大过失,则按过错程度承担责任并给予行政处分。另外,如果算法运营者没有故意或者重大过失,那么应该对算法行政系统的“非理性”情况加强监督和干预,承担一定程度的行政责任,而相关行政机关也不应该对其进行行政处分。但若算法运营者在监管中出现重大过失,则应按照行政机关内部监督程序,由相关监督机构进行处理。

5. 结语

算法行政所带来的正向效应毋庸置疑,但同时这也是其风险样态未能引起行政主体及行政参与者重视的原因。不可否认算法行政以其强大的算力为行政活动带来了便利和效益,要想持续性发挥其正向效应,必须正视其所带来的风险,并予以规制,从事前、事中、事后三个方面出发,及时审查,建立公开透明的算法行政运行机制,通过特定工具评估算法行政系统;加强行政权力规制,建立国家主导的算法机构,不能将涉及基本权利的行政决策权交由算法;厘清责任分配,包括行政机关对外承担责任和行政机构内部责任配置。通过风险规制,让算法更好地为行政活动服务,从而推动数字政府建设。

参考文献

[1] 王静, 王轩, 等. 算法: 人工智能在想什么[M]. 北京: 国家行政管理出版社, 2021.
[2] 张欣. 算法行政的架构原理、本质特征与法治化路径: 兼论《个人信息保护法(草案)》[J]. 经贸法律评论, 2021(1): 21-35.
[3] 展鹏贺. 数字化行政方式的权力正当性检视[J]. 中国法学, 2021(3): 114-138.
[4] 黄竹智. 算法行政权力及其法律规制[J]. 合肥工业大学学报(社会科学版), 2022, 36(6): 42-49.
[5] 王宾. 自动化行政中算法的法律控制[J]. 财经法学, 2023(1): 61-75.
[6] 张凌寒. 算法自动化决策与行政正当程序制度的冲突与调和[J]. 社会科学文摘, 2021(2): 69-71.
[7] 张恩典. 人工智能算法决策对行政法治的挑战及制度因应[J]. 行政法学研究, 2020(4): 34-45.
[8] 虞青松. 算法行政: 社会信用体系治理范式及其法治化[J]. 法学论坛, 2020, 35(2): 36-49.
[9] 王怀勇, 邓若翰. 算法行政: 现实挑战与法律应对[J]. 行政法学研究, 2022(4): 104-118.
[10] 王贵. 算法行政的兴起、挑战及法治化调适[J]. 电子政务, 2021(7): 2-14.
[11] 雷刚. 数字政府时代的算法行政: 形成逻辑、内涵要义及实践理路[J]. 电子政务, 2023(8): 73-89.
[12] 陈飏, 裴亚楠. 论自动化行政中算法决策应用风险及其防范路径[J]. 西南民族大学学报(人文社会科学版), 2021, 42(1): 74-81.
[13] 陈亮, 薛茜. 行政公开视域下行政决策算法化的法律规制[J]. 理论月刊, 2021(3): 119-129.
[14] 蔡星月. 算法决策权的异化及其矫正[J]. 政法论坛, 2021, 39(5): 25-37.
[15] 马颜昕. 自动化行政方式下的行政处罚: 挑战与回应[J]. 政治与法律, 2020(4): 139-148.