1. 引言
在“数字化时代”中,数字技术已经广泛应用于国家和社会治理,通过2022年6月发布的《国务院关于加强数字政府建设的指导意见》(国发〔2022〕14号文件,以下简称《意见》)中可以明确了解,建设协同高效的数字政府的过程中,随着行政治理方式的升级的同时也要构建科学安全的保障体系对风险进行安全预警及保障。当一种治理技术包含着数字权力和行政权力时——“数据治理”这种模式就出现了。“数据治理”目前作为一种新型治理范式,其本质是将权力运行机制深度嵌入数据处理与算法应用体系之中[1]。其已突破理论设想范畴,成为大数据时代国家治理体系与社会治理格局中的基础性要素,重塑着现代治理的权力结构与运行逻辑。
政府的自动化决策就属于“数据治理”手段的一种,随着大数据、人工智能等技术的进步和深度应用,自动化决策能够显著的提升政府的政务效率。目前,我国数字政府自动化决策已从技术实验上升为治理常态。然而,硬币的另一面,技术带来便利的同时,也隐藏着传统行政法治原则的消减风险,看似简便快捷的技术手段,在其运行的步骤中带来的风险也如影随形,例如,在新冠疫情期间,健康码的健康认证为复工复产带来了贡献,但“码治理”管控的过程中何尝不是在构建一个海量数据的利维坦?[2]算法决策的过程中也不容忽视的误判隐患。以儋州市为例,一位八旬老人在完成高龄补贴审查认证后,系统误判机制触发“被死亡”状态,致使其连续四个月未能领取补贴[3]。当算法决策出现此类失误时,若行政主体仅以“系统故障”为由推卸责任,而未能对错误的逻辑推演过程作出合理解释,显然难以形成自洽的责任说明。本文将从政府自动化决策中产生的数据风险问题进行分析,提出在将技术如何应用于自动化决策中并且在应用的过程中将会给传统的行政法治带来何种风险?并通过将法律的价值理性融入技术的工具理性来进行解决问题的提议,并通过案例分析法研究,为数字政府自动化决策的法治化提供兼具创新性与可行性的理论路径。
2. 技术导致的算法风险
技术工具理性作为马克斯・韦伯理性二分法的核心范畴,其本质是将技术简化为价值中立的工具系统,以“手段–目的”的量化逻辑追求效率最大化。这种理性化思维在技术验证领域表现为:通过标准化程序将抽象法律原则转化为可计算的技术指标,进而实现自动化决策系统的结构性安全。然而,韦伯的理论警示我们,这种工具理性主导的技术验证存在内在局限——当技术指标成为唯一合法性标准时,行政价值理性往往被工具化的效率逻辑遮蔽,形成“理性化悖论”。本文将从数据采集、算法歧视以下两个维度阐明技术本身对自动化决策的规制手段及局限。
2.1. 数据采集:原始数据防篡改技术框架
《数据安全法》第二十七条规定了数据处理者要建立健全全流程数据安全管理制度,采取相应的技术措施和其他必要措施保障数据安全,并要求重要数据的处理者应当明确数据安全负责人和管理机构,落实数据安全保护责任。由此规定,在数据层使用技术手段来保障数据的完整性和技术性的技术已经趋于成熟,例如在数据采集阶段,通过建立基于哈希值校验的防篡改体系,该体系通过运用不可逆的哈希算法对原始数据进行运算,生成具有唯一性和确定性的数字指纹也可称为哈希值,形成可追溯的数据锚定链。同时任何对数据的增删改操作均会导致哈希值发生实质性变化,从而在技术层面实现数据篡改的可识别性[4]。该技术可校验机制贯穿数据传输、存储的全生命周期,若校验未通过,则表明数据存在异常变更,可能涉及《数据安全法》第二十一条涉及的未经授权的篡改、破坏、泄露行为。
但是随着量子技术迭代演进,哈希函数在抗碰撞性能与原像攻击防御层面的固有缺陷日益凸显。因此对于防止数据碰撞来保证数据安全仍然是较为复杂的问题[5]。从数据安全保护的法律规制视角出发,如何通过技术合规路径防范哈希碰撞风险,以维系数据完整性与系统安全性,仍属兼具技术复杂性与法律挑战性的实务难题。
2.2. 算法歧视:构建算法公平框架
算法歧视的成因具有多元源性,首先是数据源污染导致偏差的复制与固化,算法依赖的训练数据若存在选择性采集偏差或历史性歧视烙印,会系统性习得并强化非公平模式,造成对弱势群体的结构性排斥。其次是价值感知盲区引发的情境化伦理缺失,算法缺乏对复杂社会情境的价值解码能力,无法理解法律“合理必要”原则或道德“比例均衡”要求,在决策中忽视个案特殊性与文化多样性,导致机械适用规则的实质不公。
此外,黑箱决策效应消解了可验证性,其高度不透明的决策过程形成监督屏障,外部难以验证决策依据,使隐蔽性歧视因可追溯性缺失而无法识别与矫正。最后是动态响应迟滞带来的社会变迁适应性困境,算法模型的路径依赖保守性倾向于固化既有模式,面对社会观念演进或新型权利诉求时,因迭代惰性难以快速调适导致滞后性歧视[6]。
在技术领域,较为简单粗暴的方式就是直接将敏感因素排除以追求算法公平,但是这种方式存在局限:一方面,敏感属性常隐含于非敏感属性(如排除性别字段但算法可能通过姓名语义分析隐含性别特征),致歧视性决策以“去标识化”形式延续;另一方面,盲法决策忽视属性间潜在关联,易产生次优结果[7]。实践中,敏感属性常通过与非敏感特征的社会结构性关联间接介入决策,此与《个人信息保护法》“去标识化信息仍可能通过关联恢复身份”的监管逻辑一致——仅形式排除敏感字段,忽视特征间语义或结构性关联,技术处理虽能降低直接识别风险,但敏感属性的社会结构性关联、技术发展的动态性以及数据利用场景的复杂性,使得去标识化数据仍可能通过间接特征或外部信息被重新识别,仍会引发公平性风险[8]。
3. 自动化决策下行政程序的法治风险
政府的自动化决策是一个包含多环节的复合体系,从数据收集并聚合出发,对收集到的数据进行分辨以及预处理,从算法对模型进行进行分析从而生成决策到决策执行及其动态反馈。在数据从收集并处理的过程中,可能出现的法治风险包括程序正义的消解、权力异化、责任归属模糊、数据安全风险、法律规制滞后等。
3.1. 程序正当性风险:算法决策对传统行政法治原则的消解
当生成式人工智能技术嵌入行政决策体系时,公众之知情权利或因算法非透明化而难获充分保障。于生成式人工智能自动化算法决策所具之专业性与复杂性语境下,生成式人工智能算法本身具有不透明性以及难以解释性,从而导致行政相对人之算法知情权利等法益,或面临被消弭之风险[9]。算法决策对传统法治原则的消解以下将从规则,理由,价值三方面展开论述。
法律以公平、秩序为价值导向,而技术以效率、创新为核心追求,首先法律是一种“规则之治”,行政法治以事先制定并公开的法律规则为根基,该规则体系以自然语言为载体,具备社会主体可认知的规范属性,构成法治运行的底层逻辑架构。而数治模式以大数据、代码、算法为技术底座,此类技术性规则,因高度依赖专业技术知识,形成非专业主体难以穿透的认知壁垒。
其次法治是一种“理由之治”,行政法治需要展现其所做的行政行为的法律程序事实与理由,从而将法律规则的形式理性转化为以公共理由为支撑的实践理性[10]。但在数治场景中,数据处理与算法决策依托技术系统形成封闭自足的运行闭环,算法本身被赋予决策理由的正当性,代码逻辑被等同于法律规范。这种技术性决策模式虽然大幅提升了效率但实质上消解了行政主体在行政权力行使过程中负有的程序公开、公平竞争、说明理由等法定职责。
而在“价值之治”方面,行政法律的价值在于保障行政相对人的尊严和权利,规范公权力的运行,而数治则侧重治理效率与工具维度方面的考量。在此语境下,工具理性与价值理性将必然存在冲突[11]。上述现象揭示了数治模式与行政法治在规则载体、程序逻辑、权力正当性基础等层面的深层矛盾,如何将法律的价值嵌入进数据治理体系的过程中,凸显了数字时代技术治理对传统法治范式的挑战。
3.2. 权力结构异化风险:技术依赖导致的行政权能外溢
对数字时代的治理主体、治理结构及治理工具的研究,需突破传统以国家组织为单一视角的治理分析框架,将资本力量、技术要素与权力运行的融合共生关系纳入治理生态的考察范畴。目前,算法系统的开发与运维高度依赖技术企业,形成“企业设定规则–政府执行决策”的权力异化链条。
在传统治理框架下,政府通常被视为唯一或核心的权力主体角色,其在治理体系中的主导地位具有鲜明的单一性特征。然而进入数字时代,掌握数据资源与技术能力的资本主体,通过技术赋能与资本运作的双重路径,形成了兼具经济权力与技术权力双重属性的新型治理力量,对以国家为中心的传统治理权力配置格局产生结构性冲击[12]。
具体而言,技术受算法影响颇深,算法虽以客观技术工具的面目呈现,但其规则设计过程天生会受到一些因素的影响,由此导致对特定群体的系统性歧视。以法国国家家庭津贴基金歧视性算法案为例,该基金自2010年起,使用一套风险评分算法来识别可能进行福利金(家庭与住房补助)欺诈的对象,对申请人进行0到1的风险评分。2024年,人权组织通过分析算法源码揭露,该系统对身心障碍者、单亲家长、低收入者、失业者及居住于弱势地区者等社会边缘群体表现出系统性怀疑,评分更高,使其更易被调查。这直接侵犯了平等与非歧视的权利,历史数据的性别偏差通过算法放大,揭示了“数据偏见→算法歧视→社会不公”的传导链条,凸显技术伦理嵌入的必要性[13]。
在另一方面,掌握算法核心技术的主体实际上成为数字规则的制定者,形成其他主体难以逾越的技术优势地位,进而可能衍生出新型的权力支配关系。数字行政的革新并非局限于行政技术层面的迭代升级,其本质是治理模式从科层制向技术向权力复合型范式的系统性转变,涉及治理主体多元化、治理结构网络化及治理工具智能化的多维重构。
3.3. 法律规制滞后风险:规范体系与技术创新间的结构性脱节
法律规制滞后风险的核心症结在于规范体系与技术创新间的结构性脱节,其本质是法律调整的静态性与技术发展的动态性之间的矛盾。这一矛盾可从以下维度展开阐释。
技术创新具有快速迭代特性,而法律修订需经提案、审议、表决等严格程序,导致制度更新滞后于技术发展,“技术跑赢法律”的常态导致规制真空频现。例如,数据收集者、算法设计者、模型训练者等多方主体共同参与AI开发与使用,侵权行为常为多环节累积的结果。传统侵权法“近因原则”难以追溯具体责任节点[14]。
生成式人工智能技术虽具备传统技术所无的深度机器学习与情境交互能力,然其算法架构的高度复杂性与非透明性,并未因技术迭代而得到有效消解,反而在主体认知差异与技术分工的现实语境下,形成决策与相对人之间的“数字鸿沟”[15]。例如,在机关作出决策决定后,社会公众有权依据监督权,知情权以及程序正义原则对算法所做出的决定进行问责。然而,算法的动态运算机制与非可视化决策逻辑,导致行政决策行为在法律层面呈现不可解释性特征,算法黑箱会使行政公开原则难以实现。既对行政合理性原则进行了冲击,亦对决策公信力的生成基础构成了挑战。
4. 自动化决策下行政程序的法律规制
从上述内容可以看出,数字政府自动化决策的快速发展,暴露了技术理性与法律价值的深层矛盾。基于技术缺陷与法律滞后性的双重破解路径。传统“技术中立论”或“法律至上论”的单向规制路径均难以应对算法黑箱、责任真空等复合风险。哈特指出:法律体系由第一性义务规则与第二性承认规则、改变规则、审判规则构成。技术措施作为工具性规则,其效力来源于法律的授权与认可[16]。例如,欧盟《通用数据保护条例》(以下简称GDPR)第32条要求数据控制者采取的“适当的技术和措施”,但是这些措施必须符合法律预先设立的“完整性,保密性,可用性”标准。
4.1. 公开原则:算法黑箱侵蚀公信力
人工智能系统运行中的“黑箱效应”使其决策逻辑对公民及行政管理者均处于高度不透明状态,引发双重治理困境:一方面,公众因无法洞悉算法决策依据与过程而导致监督机制失效,传统“权力授予–责任承担”的民主控权逻辑被架空,民主正当性链条断裂;另一方面,当算法决策错误侵害公民权益时,因缺乏清晰决策轨迹记录,难以定位数据污染、参数偏差或规则缺陷等具体故障环节,导致追责与权利救济路径阻塞。
数字政府自动化决策的双轨规制模型,本质上是技术工具理性与法律价值理性的制度性耦合。二者并非简单叠加,而是通过规范传导机制形成治理合力,技术验证为法律确认提供客观化的合规性依据,法律确认为技术验证注入正当性评价标准,最终实现“技术合规”与“法律合法”的双重治理目标。通过行政公开原则指导来实现算法决策,原理和运行机制的透明化,实现数据质量全周期管理,例如广东省海珠区“四网融合”模式,通过“云、数、网、端、视”基础设施融合,构建政务数据全链条治理体系。在数据聚合阶段,要求对非结构化公文进行语义标注与去噪处理,消除历史数据偏见(如保障房分配中的地域歧视),并通过区块链技术实现数据溯源,确保训练数据合法性[17]。
在法律层面上要强化立法对算法决策公正性与透明性的保障,需重点推进自动化行政适用边界的科学界定机制建设:一方面遵循有限适用原则,对事实清晰、流程固化且争议性低的行政事务,可授权自动化系统处理以提升行政效能[18];另一方面坚守裁量权保留原则,对涉及复杂价值权衡或需结合事实与规范深度研判的事项,严格限制全自动决策,因为算法依赖历史数据的线性推演难以应对个案特殊性,且缺乏对情境化因素的灵活考量能力,易导致裁量空间被刚性压缩[19]。为此,立法应明确要求在存在裁量余地的行政领域,算法仅承担数据筛查、风险初判等辅助性功能,最终决策权由行政人员保留,确保个案正义与裁量权的合理行使。
4.2. 公平原则:算法歧视消解权利平等
人工智能技术处理的原理天然就容易导致歧视性。例如,输入参数的规范性失衡,可能引发差别性法律后果。歧视也可能源于分类机制的本质性偏差,即通过算法对不同主体实施差别化法律对待。在特定的应用场景下对算法模型的滥用行为,亦可能导致歧视性法律后果的产生[20]。
而公平原则作为基本法的核心价值,首先,为了消弭公共部门算法决策的歧视风险使用立法框架进行分层赋责。对内建立权责统一的归责链条,通过立法框架赋责,明确开发者、部署者、运营者的分层责任,包括要求训练集覆盖多元群体样本、对历史歧视数据实施偏差校正权重的数据治理义务,其次可以基于算法公平理念制定的“受保护特征清单”,需兼顾特定行业领域与高风险场景的差异化规范需求,同时吸纳既有算法公平技术规范之一般性要求,实现“定制化”规制与“标准化”指引的有机统一[21]。通过法律编码与算法再造的深度融合实现动态调适,在执法算法中增设“合理必要”“比例原则”等法律判断模块,将法律的价值融入技术中以嵌入正义参数,建立算法效能与公平性双重评估体系。最后应当建立算法行政问责机制,算法行政问责系指行政主体及其工作人员就其算法行政决策行为,接受问责主体之质询,对决策目的、依据、结果及相关行政行为作出合理解释及说明,并依法承担相应责任之制度,其宗旨在于促使行政主体审慎行使算法行政职权。赋予公民对算法结论的实质性质询权、要求作出行政行为的主体或者可使用技术查询的系统作出理由以保障异议权以及决策的透明度,同时注重技术正义的持续形塑[22]。
4.3. 基本权利原则:数据聚合加重权利失衡
按照安东尼·吉登斯的观点,在算法监控与网络战时代,国家的暴力形态正在重塑,更提出了当监控技术与军事力量结合时,自由与安全的平衡可能被彻底打破[23]。目前从权力配置维度观之,国家行政系统依托法定行政权能及公共财政资源优势,在信息技术运用中占据绝对主导地位。其可通过数字化技术手段,对公民个人信息实施全方位采集与结构化存储,对社会主体行为进行全流程动态监管,进而构建高效运转的数字化监控体系。如若不对其进行规制,国家机器就会形成一个高速运转的“数字利维坦”。
目前,算法化治理对公民基本权利体系构成多维挑战,其威胁本质源于技术逻辑与法律价值的冲突。例如,为构建智能化信用监管体系,我国构建统一社会信用代码制度,以公民身份证号码与组织机构代码为基础实现主体身份数字化,该代码对主体身份识别具有唯一性、真实性与准确性,可满足信用记录长期性、连续性及完整性要求。在此前提下,各行政部门改造业务系统,搭建社会信用信息共享平台,并与智慧审批、网上执法、公共资源交易等平台实现自动对接,通过自动比对、拦截、监督、惩戒及反馈等机制,有效拓展算法规制的横向治理边界[24]。
国家监控和公民的权利保障属于共生结构,信息技术聚合导致国家行政权力暴力扩张但另一方面公民却无法通过数字技术实现其民主性从而制衡国家权力[25]。针对该现象,首先根据多元协同治理理论视域,社会各主体参与治理具备独特制度优势,不仅能够充分激发多元主体的能动作用,还可通过协同机制弥补单一治理模式的漏洞。其次根据传统理论,立法权,司法权,行政权相互制约才能更好地保护国家的结构,面对行政权的扩张,从立法实践来看,我国借助《民法典》《数据安全法》《个人信息保护法》等法律法规,为个体设定了相应权利,以此形成制衡日益扩张的算法权力的法治力量[26]。
总之,法律价值的技术化实现并非空泛之论。技术可类比拉图尔所探讨的“柏林钥匙”——该钥匙构造要求使用者必须依特定程式完成“插入–转动–推门”的动作,且锁门亦需遵循预设的钥匙操作逻辑。此过程揭示:技术设备作为设计者规范意涵的物化载体,通过物理结构强制形成使用者与设计者之间的互动范式,恰似将预设的行为模式编码于技术规则之中,使主体需按既定路径完成交互。这一机制为法律价值的技术化规制提供技术可通过结构化设计实现规范意图的具象化传导的隐喻[27]。
5. 结语
技术所带来的变革是惊人的,但是随之而来的风险是特殊的,它所给予的风险并不在物理层面,这种危险更像是慢性的,不为人知地侵犯着人们的权利和尊严。技术已无处不在影响人类的生活,一方面数字权力能从积极方面带给社会生活较大便利,在制度建构层面,需构建以法律原则为内核的算法治理框架,将公平原则、公开原则等法治精神嵌入技术应用全流程,形成技术创新与法律规制的动态平衡机制。技术开发应回归工具理性定位,通过可解释性算法研发、数据标注标准化等技术手段,构建决策可追溯、可验证的技术底座。另一方面,技术权力的獠牙也必须要套上法律的镣铐,通过法律的价值指引技术向善。法律人工智能的发展应当始终遵循“法律为体、技术为用”的治理逻辑。作为新时代产业变革的核心驱动力,人工智能的蓬勃发展带动着经济,社会各个领域从数字化,网络化向智能化加速跃升。在数治时代,维护平等,消除不公不仅要在法律和技术领域下手,也需要全社会进行响应。