1. 引言
随着以ChatGPT为代表的生成式人工智能技术的迅猛发展,人工智能与政务场景的深度融合已成为数字政府建设的重要趋势。在公共行政领域,生成式人工智能正被广泛应用于内部办公、政务服务、辅助决策、城市治理等多元场景。特别是在行政处罚、行政许可、政策咨询等传统行政行为领域,生成式人工智能展现出强大的应用潜力。
然而,生成式人工智能在行政领域的广泛应用也带来了前所未有的法律挑战。传统行政法学理论建立在人类行政主体基础之上,当生成式AI被用于生成行政处罚告知书、行政许可初步审查意见、政策咨询答复等“行政行为”时,其行为资格如何认定?相对人不服时,谁应当作为被申请人或被告?法院应当如何进行司法审查?这些问题不仅关系到行政法治的理论基础,更直接影响到公民权利的保护和行政效率的提升。
与此同时,我国《个人信息保护法》第24条对自动化决策作出了明确规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”[1]这一规定为生成式AI参与行政行为提供了重要的法律依据,但也提出了新的规制要求。
本研究旨在探讨生成式人工智能参与行政行为时的资格认定与司法审查机制,重点分析《个人信息保护法》第24条在行政法领域的适用问题。研究将从理论基础、现状分析、法理分析、制度构建等多个维度,系统梳理生成式AI行政行为的法律性质、责任归属和司法救济路径,为完善我国智能行政法治体系提供理论支撑和制度建议。
2. 生成式人工智能与行政行为的理论基础
(一) 生成式人工智能的概念界定与技术特征
生成式人工智能是指能够从训练数据中生成看似全新、有意义内容(如文本、图像或音频)的计算技术。作为一种能够自主生成内容的人工智能技术,生成式AI可以应用于文本生成、图像生成等多个领域,特别是以ChatGPT为代表的生成式对话模型,取得了令人惊艳的效果,开始广泛应用于各行各业。
生成式人工智能的核心技术特征包括:自主性、创造性、学习性。自主性指能够独立行动,无需人类不断输入,自行做出决定并执行任务;创造性指不局限于现有数据,可模仿甚至超越人类想象,创造出新的内容;学习性指通过机器学习的方式形成自主决定的内容。这些特征使得生成式AI在行政领域的应用具有独特优势,同时也带来了法律规制的挑战。
在公共行政领域,生成式人工智能与传统的规则驱动型系统不同,它能够通过自然语言处理和机器学习,理解复杂的行政规则和案例,并生成相应的行政文书或决策建议。这种技术特性使得生成式AI在处理大量标准化行政事务时具有显著的效率优势,但同时也引发了关于其法律地位和责任归属的理论争议。
(二) 行政行为的传统理论内涵与外延
根据传统行政法学理论,行政行为是指行政主体基于行政职权做出的意在产生行政法上效果的行为[2]。行政行为的成立需要具备四个要件。主体要件,必须是国家公务员、法律法规授权组织的工作人员、被委托组织的工作人员。主观要件,有凭借行政职权产生、变更或消灭某种行政法律关系的意图,并有意思表示。客观要件,有行使行政职权的行为,并表现于外部。法律效果要件,设定、变更或消灭相对人的某种权利义务。
行政行为的效力体系包括公定力、拘束力、确定力和执行力。公定力是指行政行为一经作出或一旦成立,即使其内容存在瑕疵,就具有被推定为合法有效的形式效力;拘束力是指已成立并生效的行政行为所具有的约束和限制行政主体和行政相对人行为的法律效力;确定力是使假定合法而对外发生法律效力的具体行政行为继续保持其有效性;执行力是指已经成立并生效的行政行为要求行政主体和行政相对人对其内容予以实现的法律效力。
传统行政行为理论建立在人类行政主体的基础之上,强调行政主体的意思表示和主观意志。然而,当生成式AI参与行政行为的生成时,这一理论基础面临挑战:生成式AI是否具备行政主体资格?其生成的内容是否构成法律意义上的“行政行为”?这些问题需要在现有理论框架内进行重新审视和解释。
(三) 《个人信息保护法》第24条的规范内涵
《个人信息保护法》第24条对自动化决策作出了全面规定,其规范内涵包括三个层次:
第一,透明度和公平性要求。该条第一款规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。”这一规定确立了自动化决策的基本原则,即必须保证决策过程的透明性和结果的公正性[3]。
第二,选择权保障。该条第二款规定:“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。”这一规定赋予了个人在面对自动化决策时的自主选择权,体现了对个人主体性的尊重[4]。
第三,拒绝权和说明权。该条第三款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”这一规定确立了个人在面对重大自动化决策时的双重权利:要求说明的权利和拒绝的权利[5]。
需要特别注意的是,该条第三款明确规定了拒绝权的行使条件:必须是“仅通过自动化决策的方式”作出的决定,且对个人权益有重大影响。如果一项决定是由人在自动化决策技术的辅助下作出的,个人不享有拒绝权。这一规定为区分独立决策模式和辅助决策模式提供了法律依据。
(四) 生成式AI行政行为的理论基础
在算法行政背景下,算法作为“已编码的行为程序”或为了达成特定目标的计算程式,基于公共性功能和作用而相当程度上等同于一种行政程序,从而应当纳入程序法治的范畴。生成式AI行政行为的理论基础主要体现在以下几个方面:
第一,法律拟制理论。有观点认为,立法机关基于时代情势的需要可以对机器的主体性进行法律拟制,以赋予机器进行行政决定的权力。将机器系统视为类似于真人的“公务员”,相应侵权行为的成立将以机器的违法和有责为前提。这种理论为生成式AI获得行政主体资格提供了可能性。
第二,功能保留原则。德国《基本法》第33条第4款明确要求:“高权性权限的行使,作为持续性事务,原则上应当委任给具有公法上的勤务关系和负有忠诚义务的公务员。”在人工智能在政府中的应用中,只要人工智能能够满足《基本法》第33条第4款的规范目的,实现中立性、客观性、公正性、无私性和合法性为特征的任务执行,那么就符合功能保留原则的要求。这一原则为生成式AI参与行政行为提供了功能主义的解释路径。
第三,技术工具论。另一种观点认为,AI技术本质仍属工具范畴,其行为后果应归属于开发者、运营者或使用者。《生成式人工智能服务管理暂行办法》第九条确立的“服务提供者主体责任”原则,实质上是采用“技术黑箱穿透”理论,将AI生成行为的法律效果归于人类控制者。
这些理论基础为生成式AI行政行为的法律规制提供了不同的解释路径,但也存在理论争议和实践困境。如何在技术创新与法律规制之间寻求平衡,是当前亟需解决的理论问题。
3. 生成式AI参与行政行为的现状分析
(一) 生成式AI在行政领域的应用场景
当前,生成式人工智能在我国行政领域的应用已经覆盖了行政处罚、行政许可、政策咨询、政务服务等多个场景,形成了多元化的应用格局。
在行政处罚领域,生成式AI主要应用于执法文书生成、案件定性分析、处罚建议生成等环节。海南省海口市市场监管局率先在市场监管行政执法监管领域运用生成式人工智能技术,通过对行政执法数据要素的全面开发、供给和创新应用,构建行政执法人工智能行业大模型。该模型能够对自然语义案源线索与案由信息一键分析,自动推荐定性依据、处罚依据等罚则建议、相似案例与法律法规参考,并自动生成相应执法文书,实现全流程AI监管执法智能化服务。在具体应用中,通过“菜单式”询问模板自动生成笔录,智能提供违法事实、法律依据等辅助选项,结合被问询人的回答推送笔录上下文联想问答,并按流程提示进行处罚告知、生成处罚决定书。
(二) 生成式AI参与行政行为的模式分析
根据生成式AI在行政行为中的参与程度和作用方式,可以将其应用模式分为三种主要类型:
第一,独立决策模式。在这种模式下,生成式AI被赋予高度的自主性,能够独立完成行政决策的全过程。例如,泉港“AI秒批”系统实现了真正的“零人工干预”,系统能够独立完成从申请受理到审批决定的全部流程。这种模式下,生成式AI实质上扮演了“电子公务员”的角色,其生成的决定具有直接的法律效力。
第二,辅助决策模式。在这种模式下,生成式AI作为辅助工具,为人工决策提供建议和支持。例如,潍坊昌邑的“智能预审 + 人工复核”双轨机制中,AI系统负责材料的初步审核和智能分析,专业人员进行最终把关和实质审查。这种模式下,生成式AI的作用是增强人类的决策能力,而非替代人类决策。
第三,建议生成模式。在这种模式下,生成式AI主要负责生成政策建议、文书模板、案例参考等内容,供行政机关参考使用。例如,海口市市场监管局的AI系统能够自动推荐定性依据、处罚依据等罚则建议、相似案例与法律法规参考。这种模式下,生成式AI的输出不具有直接的法律效力,仅作为决策参考。
从技术架构来看,生成式AI参与行政行为主要采用三种协作模式:嵌入模式中,人类通过拆解目标引导AI完成任务,突显了人类在决策中的主导作用;副驾驶模式中,人类与AI共同促成了目标的达成;而智能体模式则展现了生成式AI更强的独立性,因为其能够自主理解、拆解、规划和执行任务。
4. 生成式AI行政行为资格认定的法理分析
(一) 生成式AI的行政主体资格认定
关于生成式AI是否具备行政主体资格,学界存在重大理论分歧。
支持赋予AI主体资格的观点认为,生成式人工智能在本质上已具备自然语言能力、认知能力以及逻辑推理与判断等理性能力,从而展现出类人类意志特征,满足责任能力的前提条件。基于此,有观点提出生成式人工智能可类比法人(拟制人),进而获得相应的法律主体资格。从技术发展趋势来看,随着生成式人工智能逐步迈向通用人工智能,其涌现出的独特的思维和理解能力、打通虚拟与现实边界的可交互性以及向人脑规模发展的模型参数量等特征使其在法律层面上应被赋予相应的独立法律主体资格。
反对赋予AI主体资格的观点则认为,当前生成式人工智能尚无法取得类似于自然人的法律主体资格,其核心原因在于生成式人工智能缺乏人类理性[6]。法律主体资格界定问题作为人工智能生成内容侵权责任认定的核心争议点,其本质在于现行法律框架下权利义务承担者的适格性判断。《中华人民共和国著作权法》第2条明确规定“中国公民、法人或者非法人组织”为适格权利主体,第11条进一步将“作者”定义为“创作作品的自然人”。这种双重限定形成了法律主体资格的二元结构:权利客体(作品)需由具备独立意志的主体创作,且权利主体必须具有承担民事责任的能力。
从比较法的视角来看,不同国家和地区对AI主体资格的认定存在差异。欧盟《人工智能法案》采取了基于风险的分级监管方式,将人工智能系统分为不可接受风险、高风险、有限风险和低风险四个等级,对高风险AI系统实施严格监管,但并未明确赋予AI独立的法律主体资格[7]。美国在相关立法中也倾向于将AI视为工具或服务,而非独立的法律主体。
基于我国现行法律体系,生成式AI尚不具备独立的行政主体资格。根据《民法典》第二条的规定,只有自然人、法人、非法人组织才享有民事主体资格,人工智能尚未被赋予独立法律人格。《生成式人工智能服务管理暂行办法》第九条确立的“服务提供者主体责任”原则,实质上是采用“技术黑箱穿透”理论,将AI生成行为的法律效果归于人类控制者[8]。这表明,在现行法律框架下,生成式AI被视为一种技术工具,其行为后果由其开发者、运营者或使用者承担。
然而,随着技术的不断发展,未来可能需要重新审视这一问题。正如有学者指出,立法机关基于时代情势的需要可以对机器的主体性进行法律拟制,以赋予机器进行行政决定的权力。将机器系统视为类似于真人的“公务员”,相应侵权行为的成立将以机器的违法和有责为前提。这种观点为未来立法预留了空间。
(二) 生成式AI生成内容的法律性质
生成式AI生成的内容是否构成“行政行为”,是资格认定的核心问题。传统行政行为理论强调意思表示要素,而生成式AI缺乏人类的主观意志,这给其法律定性带来了挑战。
从形式要件来看,生成式AI生成的内容可能符合行政行为的外在形式。例如,AI自动生成的行政处罚告知书、行政许可决定书等,在形式上与传统行政行为无异。然而,行政行为的成立不仅需要形式要件,更需要实质要件即行政主体的意思表示。
从实质要件来看,生成式AI生成的内容存在以下问题:
第一,缺乏主观意志。传统行政行为理论要求行政主体有凭借行政职权产生、变更或消灭某种行政法律关系的意图,并有意思表示。生成式AI基于算法和数据进行运算,缺乏人类的主观意志和价值判断能力,其生成内容是基于预设规则和训练数据的结果,而非基于主观意图的意思表示。
第二,缺乏法律效果意思。行政行为要求能够设定、变更或消灭相对人的某种权利义务。生成式AI生成的内容虽然可能产生法律效果,但其本身缺乏产生法律效果的意思。这种法律效果是外在赋予的,而非内在具有的。
第三,缺乏责任能力。行政主体必须能够独立承担法律责任。生成式AI作为技术工具,不具备承担法律责任的能力。其行为后果只能由其开发者、运营者或使用者承担。
基于以上分析,生成式AI生成的内容在现行法律框架下不构成独立的行政行为。其法律性质应当根据不同的应用模式进行区分:
在独立决策模式下,生成式AI生成的内容应当视为行政机关的行为,由行政机关承担相应的法律责任。这种情况下,生成式AI相当于行政机关的“电子代理人”,其行为后果归属于行政机关。
在辅助决策模式下,生成式AI生成的内容仅作为行政机关决策的参考,不具有独立的法律效力。最终的行政行为由行政机关作出,应当由行政机关承担法律责任。
在建议生成模式下,生成式AI生成的内容仅为建议或参考,不具有任何法律效力。行政机关可以采纳,也可以不采纳,决定权完全在行政机关。
(三) 不同应用模式下的法律关系分析
根据生成式AI参与行政行为的不同模式,可以构建相应的法律关系框架:
第一,独立决策模式下的法律关系。在独立决策模式下,生成式AI被赋予高度的自主性,能够独立完成行政决策的全过程。此时,法律关系呈现以下特征:主体关系:形式上,生成式AI作为决策主体;实质上,行政机关仍是真正的责任主体。行为性质:生成式AI的决策行为应当视为行政机关的行为,其法律效力归属于行政机关。责任承担:行政机关对生成式AI的决策行为承担全部法律责任。这种模式下,需要特别注意监督机制的建立。行政机关应当建立完善的算法审查机制,定期对AI决策进行评估和纠错,确保决策的合法性和合理性。
第二,辅助决策模式下的法律关系。在辅助决策模式下,生成式AI作为辅助工具,为人工决策提供支持。此时,法律关系呈现以下特征:主体关系:行政机关是唯一的决策主体,生成式AI是辅助工具。行为性质:最终的行政行为由行政机关作出,生成式AI的建议不具有法律效力。责任承担:行政机关对最终的行政行为承担全部法律责任。这种模式下,需要明确人机分工。行政机关应当对AI提供的建议进行独立判断,不能完全依赖AI决策,确保人类在决策中的主导地位。
第三,建议生成模式下的法律关系。在建议生成模式下,生成式AI主要负责生成政策建议、文书模板、案例参考等内容。此时,法律关系呈现以下特征:主体关系:行政机关是唯一的决策主体,生成式AI是服务提供者。行为性质:生成式AI生成的内容仅为参考资料,不具有任何法律效力。责任承担:行政机关对其采纳或不采纳建议的行为承担责任。这种模式下,需要注意知识产权问题。如果生成式AI生成的内容涉及他人知识产权,应当在使用时予以标注和说明。
5. 司法审查机制的构建
(一) 被申请人和被告的确定规则
当相对人不服生成式AI作出的行政行为时,被申请人和被告的确定是司法救济的首要问题。根据现行法律规定和理论分析,可以构建以下确定规则:
第一,独立决策模式下的主体确定。在独立决策模式下,生成式AI被赋予独立完成行政决策的权力。根据《行政复议法》的规定,公民、法人或者其他组织对行政行为不服申请行政复议的,作出行政行为的行政机关或者法律、法规、规章授权的组织是被申请人。根据《行政诉讼法》第26条的规定,公民、法人或者其他组织直接向人民法院提起诉讼的,作出行政行为的行政机关是被告;行政机关委托的组织所作的行政行为,委托的行政机关是被告。
因此,在独立决策模式下:行政复议:作出行政行为的行政机关为被申请人。行政诉讼:作出行政行为的行政机关为被告。生成式AI本身不具有独立的法律主体资格,不能作为被申请人或被告。其行为后果由其所属的行政机关承担。
第二,辅助决策模式下的主体确定。在辅助决策模式下,生成式AI仅提供决策建议,最终决定由行政机关作出。此时:行政复议:作出最终决定的行政机关为被申请人。行政诉讼:作出最终决定的行政机关为被告。生成式AI的作用是增强人类的决策能力,而非替代人类决策。最终的行政行为由行政机关作出,应当由行政机关承担相应的法律责任。
第三,建议生成模式下的主体确定。在建议生成模式下,生成式AI生成的内容仅为参考资料,不具有任何法律效力。行政机关可以采纳,也可以不采纳。此时:行政复议:采纳建议并作出行政行为的行政机关为被申请人。行政诉讼:采纳建议并作出行政行为的行政机关为被告。生成式AI生成的建议本身不具有法律效力,其法律后果取决于行政机关是否采纳。因此,责任主体是采纳建议并作出行政行为的行政机关。
第四,委托开发情况下的主体确定。当行政机关委托第三方开发或运营生成式AI系统时,根据《行政诉讼法》第26条的规定,行政机关委托的组织所作的行政行为,委托的行政机关是被告。因此:行政复议:委托的行政机关为被申请人。行政诉讼:委托的行政机关为被告。第三方开发者或运营者不直接承担行政法律责任,其与行政机关之间的关系按照委托合同处理。
(二) 司法审查的范围与标准
针对生成式AI行政行为,司法审查应当建立多层次、全方位的审查体系,包括事实审查、程序审查和结果审查。
第一,事实审查的范围与标准。法院在事实审查方面,核心在于审查行政机关向法院提交的电子数据能否证明案件事实,包括审查电子数据采集设备的合法性、电子数据的证据效力,并应结合行政诉讼的审查标准判断电子数据的证明力。具体包括:数据来源审查:审查生成式AI使用的数据是否合法收集,是否符合《个人信息保护法》等相关法律规定。算法输入审查:审查输入算法的数据是否真实、准确、完整,是否存在数据偏见。处理过程审查:审查数据处理过程是否符合法定程序,算法是否按照预设规则运行。在审查标准上,应当采用严格审查标准,因为生成式AI行政行为涉及公民的重大权益,需要确保事实认定的准确性。
第二,程序审查的范围与标准在程序审查方面,应运用技术性正当程序理念,从程序减省的合法性、人工介入程序的设置与行使便利性、告知的及时性与有效性、相对人的陈述和申辩程序等维度进行底线审查。具体包括:程序合法性审查:审查生成式AI行政行为是否遵守了法定程序,是否存在程序违法。透明度要求审查:审查是否履行了《个人信息保护法》第24条规定的说明义务,是否保证了决策的透明度。权利保障审查:审查是否保障了相对人的陈述申辩权、知情权等程序性权利。人工介入审查:审查是否设置了必要的人工介入程序,特别是在涉及重大权益的决策中。在审查标准上,应当采用正当程序标准,确保行政行为符合程序正义的要求。
(三) 对算法的审查:合法性还是合理性
关于对算法本身的审查,是采用合法性审查还是合理性审查,学界存在不同观点。
支持合法性审查的观点认为,审查自动化行政合法性本质上是审查行政算法规则的合法性,算法规则应当始终“在法所容许的范围内,受到法的适当支配,符合法治国家依法行政原则的要求”[9]。这种观点强调算法必须严格遵守法律规定,不得超越法律授权。
支持双重审查的观点认为,在审查自动化行政中行政算法规则的合法性问题时,须从正义的双阶性出发,分两个审查阶段完成行政算法规则的规制任务,即第一阶段的备案审查和第二阶段的司法审查。这种观点主张建立事前审查和事后审查相结合的机制。基于我国现行法律体系和司法实践,建议建立“合法性审查为主、合理性审查为辅”的审查体系:第一,合法性审查的重点。合法性审查应当作为主要的审查方式,重点审查:法律授权审查,审查算法决策是否有法律依据,是否在法律授权范围内;程序合法性审查,审查算法运行是否遵守了法定程序;权利保护审查,审查算法是否侵犯了公民的基本权利;禁止性规定审查:审查算法是否违反了法律的禁止性规定。第二,合理性审查的适用。在合法性审查的基础上,可以进行合理性审查,但应当严格限制适用范围:明显不当审查:当算法决策存在明显不当,严重违背常理时,可以进行合理性审查。比例原则审查:当算法决策涉及比例原则的适用时,可以审查其是否符合适当性、必要性和相称性要求。公平性审查:当算法决策存在明显的不公平,构成歧视时,可以进行合理性审查。需要特别注意的是,合理性审查应当尊重行政机关的专业判断,避免司法权过度干预行政权。法院应当在技术专业性与司法审查权之间寻求平衡。
6. 制度完善建议
基于前述分析,建议从以下几个方面完善我国生成式AI行政行为的立法体系:明确生成式AI的法律地位。建议在相关法律中明确规定生成式AI在行政领域的法律地位。具体建议:在《行政诉讼法》中增加条款,明确规定:“行政机关使用生成式人工智能技术作出的行政行为,视为行政机关的行为,由行政机关承担相应的法律责任。”在《个人信息保护法》中进一步细化第24条的规定,明确:“行政机关使用生成式人工智能技术进行自动化决策的,适用本法关于自动化决策的规定,保障个人的知情权、选择权和拒绝权。”在《行政处罚法》《行政许可法》等单行法律中,增加关于AI辅助行政的专门条款,明确AI技术的使用条件、程序要求和责任归属。
为回应生成式人工智能嵌入行政过程所衍生的“算法黑箱”困境,需在现行法秩序内引入一套兼具程序正义与技术可行性的透明度规则,并以司法审查为枢纽形成“制度–技术–程序”的协同治理格局。首先,应以“分层说明义务”重构行政机关的信息披露责任:在面向不特定公众的第一层级,披露内容应限于算法之名称、适用场景、决策目标以及经脱敏处理的数据类型,并辅以公平性与非歧视性的原则性承诺,既满足公民知情权,又避免过度公开导致技术逆向解析或国家安全风险;在面向具体行政相对人的第二层级,行政机关须以书面形式阐释个案决策的关键逻辑,包括权重居前的参数组合、数据字段的规范含义及其与最终行政意思表示之间的因果链条,同时告知相对人享有异议权与人工复核请求权,使其得以在“技术–法律”双重维度上质疑决定之正当性;在面向司法或监管机构的第三层级,则课以“完整披露义务”,涵盖模型架构、训练数据分布、偏差测试结果及第三方合规审计报告,必要时附条件提供加密存储的源代码,但需以保密协议与法定程序为前提,防止商业秘密或个人信息之不当外泄。此种由“公共理性–个案理性–专业理性”逐级递增的披露密度,既契合行政成本与收益的平衡,也为后续司法审查奠定了事实与规范基础。
其次,为缓解法官在技术认知上的结构性劣势,可引入“专家辅助人”与“算法咨询委员会”二元机制。前者借鉴知识产权诉讼中的技术调查官制度,允许当事人从司法行政机关备案的专家库中遴选具备计算机科学与行政法交叉背景的专业人士,以“辅助人”身份出庭,就算法逻辑、数据偏差及因果关系的可归责性进行说明与质证,其意见经法庭审查后可作为认定事实的依据;后者则由省级以上司法行政机关牵头设立,成员囊括法律学者、算法工程师与公共政策研究者,负责对争议算法进行中立评估并出具书面意见,该意见虽无拘束力,但法院应在判决理由中回应其要点,以彰显技术争议之充分辩论。与此同时,判决书应设独立的“算法审查”章节,详细载明:其一,算法决策是否超越法定授权或违反禁止性规定;其二,程序性权利保障是否因自动化而克减,包括陈述申辩之机会是否实质化、人工介入是否便捷可行;其三,对专家辅助人及咨询委员会意见的采信与否及具体理由。若算法涉及国家安全或核心商业秘密,法院可采取“不公开质证 + 保密承诺”之模式,仅向当事人代理律师及专家辅助人披露技术细节,但须在裁判文书中说明限制公开之合法性与必要性,以防止“秘密正义”对程序正当性的侵蚀。
最后,为将上述透明度要求嵌入行政执法的日常运作,应建立“合规审查清单”与“救济程序倒置”双重保障。行政机关在算法系统上线前,即需完成可追溯日志留存、训练数据偏见检测及人工复核触发条件设置三项自查,并形成至少保存三年的书面记录,以备法院与监察机关调阅;一旦相对人提出“算法歧视”之主张,行政机关应在五个工作日内启动人工复核,并在十五日内书面答复是否调整原决定及技术理由。若相对人能够提供由专家辅助人出具的初步偏差分析报告,则举证责任转移至行政机关,后者须提交第三方审计报告或模型验证数据,证明算法决策符合合法性与合理性双重要求,否则承担败诉后果。由此,通过“披露–质证–举证倒置”的链式程序,将算法黑箱逐步转化为可检验、可争辩、可追责的“算法透明箱”,在技术创新与权利保护之间实现动态平衡,也为智能行政的法治化提供可复制的制度范式。