1. 数字弱势群体权利保障依据
(一) 数字弱势群体的概念及类型
信息技术的迅猛进步为公众的传统生活方式带来了颠覆性的变革,使得教育、办公、娱乐等生活得以“云端化”实现。无可否认,现代信息技术的蓬勃发展极大地丰富了大众的生活体验,为公众生活提供了前所未有的便捷与高效。然而在这一进程中,部分群体或因经济原因,或因生理原因而难以充分利用现代网络技术享受智能设备的各项功能,从而无法进行在线学习、门诊预约、电子政务等日常生活事项。
数字弱势群体可以拆解为“数字” + “弱势群体”。除却传统弱势群体的基本特征,数字弱势群体还凸显了其在数字时代背景下的数字性、技术性和时代性。基于“弱势群体”的定义,我们可以将那些在智能技术应用及数字信息获取、处理过程中处于不利地位的个体或群体,统称为“数字弱势群体”。在智慧社会向数字化、智能化转型的浪潮中,数字弱势群体受限于自身的科技素养、教育程度及经济水平,往往难以迅速有效地掌握和运用智能技术,无法充分获取和利用数字信息。他们不仅无法享受智能化服务带来的种种便利,反而可能因缺乏有效替代方案而被新兴技术边缘化,甚至被排除在数字社会之外[1]。
第一类为显性数字弱势群体,此界定通常与主体的经济水平、新事物接受能力、生活水平等因素密切相关,其中非网民和老年人最为典型。当前,互联网已非仅存于少数“精英主体”层面的提升性技术,而已成为人们社会经济生活的必要组成部分。尤其在当下数字社会,物联网、人工智能、大数据已渗透至人们生活的各个方面。此时,能否顺利实现社会信息网的“接入”,直接关乎个人的平等参与和平等发展。据《第54次中国互联网发展统计报告》,截至2024年6月,我国网民人口规模近11亿,互联网普及率为78%1。首先呈现出的便是网民与非网民之间的差异。虽此差异并不绝对意味着非网民一定是信息社会中的弱者,但不可否认他们在线上支付、线上教育、线上政务等方面注定处于相对劣势地位。例如,就老年人因无“健康码”无法乘坐公共交通工具、无电子支付方式无法缴纳社保以及不会使用网上预约无法进行日常就医等问题,国务院办公厅于2020年11月及时出台《关于切实解决老年人运用智能技术困难的实施方案》(以下简称《方案》),以期使广大老年人顺利搭乘智能技术快车,跨越数字鸿沟,共享信息化发展成果。
第二类是隐形数字弱势群体,相较于传统弱势群体的相对性,数字弱势群体的相对性特征更为显著。这种相对性不仅体现在通过优化公共政策与强化个人学习,该群体的弱势身份能够发生转变;还体现在当信息公平与安全的控制权落入“信息控制者”之手时,任何社会成员皆有可能沦为数字弱势群体,甚至成为信息侵权的牺牲品,诸如个人信息外泄、生物信息被非法采集等情境。如果说,绝对数字弱势群体的形成,根源在于信息鸿沟的“接入沟”,就好比那些因缺乏网络连接设备或技能而无法触及互联网信息的群体,他们的主要问题集中在难以获取必要的信息资源上,这进一步加剧了信息鸿沟的扩大;那么,相对数字弱势群体的出现,则源自于信息鸿沟的“使用沟”,就像那些虽然能够接入互联网,但因缺乏有效运用信息的能力或机会,导致无法充分享受互联网带来的便利与价值的群体,他们的主要问题聚焦于信息运用上的不足,这最终导致了数字红利在不同群体间的差异。中国在弥合接入鸿沟方面,无疑已走在全球前列,当前正致力于信息技术的“加速赶超”。然而,就个人信息权益而言,接入鸿沟的缩小却促进了连通性的提升与平台的发展,使得人们能够将各类资产转化为差异化的、组合型的互联网资本,并从中获益。在此背景下,数字弱势群体与信息控制者之间的红利差异,将以倍增效应迅速扩大,进而在信息领域形成影响社会稳定与公平秩序的新挑战。与绝对数字弱势群体相比,相对数字弱势群体的涵盖范围更广,其影响也更为深远。
(二) 数字弱势群体产生机理
“数字弱势群体”根植于特定的技术土壤和社会背景,其在本质上是社会数字化转型的过程中个人、社会、技术三方面共同作用且相互影响下的产物,剖析其产生机理,需要同时将社会发展与技术进步的外在因素及个人自身局限性的内在因素纳入考量范围。
1、个体数字参与不能
在数字化浪潮下,个体数字参与能力的差异逐渐凸显,进而催生了“数字弱势群体”。首先,个体在数字技能与资源获取及使用上的局限性,本质上构成了一种新的社会不平等,这种不平等深刻影响着个体权益的实现。随着数字技术全方位渗透至社会结构与个体生活的各个层面,个体权益的实现愈发受制于其数字参与能力的高低。当某些群体难以紧跟数字技术迭代更新的步伐,甚至无法接入互联网时,他们便面临着被新技术边缘化乃至剥夺其法定权益的风险,这种现象可称之为“数字排斥”。对于地处偏远、公共服务覆盖不足地区的居民,或是因年龄、教育背景等因素而对数字世界感到陌生且缺乏自我提升能力的“数字边缘人”,他们更易遭遇“数字壁垒”,从而进一步阻碍其权益的实现。其次,个体在数字技能与资源占有及使用上的不均衡,往往与其他社会维度的不平等相互交织,共同推动着数字红利分配的不平等性加剧。信息经济学者施蒂格勒所强调,信息资本能够直接或间接地促进价值增值或经济收益的产生。而个体在信息资源的占有与使用上的差异,由于信息资源内在的“增值效应”与“马太效应”,将进一步拉大个体间的社会差距。例如,个体利用互联网能力的高低,直接关系到其能否有效将各类资产转化为互联网资本并从中获益,这种差异无疑加剧了社会不平等现象。因此,从个体参与不能的视角来看,数字弱势群体的产生是多方面因素共同作用的结果,需要社会各界共同努力,以缩小数字鸿沟,促进数字红利的公平分配。
2、社会服务数字排斥
数字化情境下的社会服务供给往往容易忽视现实生活中需求端受众的差异性与多样性,供给与需求的结构性错位导致了“数字弱势群体”被系统性地阻隔于名类社会服务之中,具体而言,可以简单归纳为以下两点:其一,数字化参与成为社会服务供给的主流方式。线上数字化的服务供给在增进组织效率之余亦存在着各类服务获取门槛提升的代价。对于社会中仍然广泛存在的未能跨越“数字鸿沟”的个体而言,传统的线下参与仍然是其获取社会服务的首选乃至唯一渠道。大量老龄群体在出行、消费、就医、办事等日常生活中所遇到的数字排斥便是忽视保留必要线下参与渠道的真实写照。其二,通用化设计成为社会服务供给的主要场景。大部分智能设备和数字产品在推行之初便是在所有使用者都具备同等数字参与能力的预设下进行的通用设计。在之当中,智能设备和数字产品的设计开发者往往为精通数字化手段的“数字原住民”,而“数字弱势群体”仅仅是该通用设计的被动接受者。因此,设计开发者往往容易在设备和产品的功能与界面设计上秉持着一种“能人思维”,而忽视了部分群体的能力不足与特殊需求,进而在很大程度上降低了该部分群体对于服务获取的可能性及效率。在一定程度上,其还会导致由于技术体验舒适度过差所带来的不适反馈而出现从“不好用”到“不想用、不愿用”的心理层面的数字排斥。
首先,社会服务供给的数字化转型虽提升了效率,却无形中设置了数字排斥的障碍。线上服务成为主流,对于未能跨越“数字鸿沟”的群体,尤其是老龄人群,传统的线下服务仍然是维系其生活的重要渠道。这种转变导致数字弱势群体在获取社会服务时面临重重困难,实质上是对其服务获取权利的隐性剥夺。其次,社会服务供给中的通用化设计倾向加剧了数字弱势群体的边缘化。设计者往往基于“理想化”的使用者假设,忽视了数字弱势群体在数字技能上的不足和特殊需求。这种“能人思维”导致的设计,不仅降低了数字弱势群体获取服务的可能性及效率,更因技术体验的不适感,引发了心理层面的数字排斥,进一步加剧了其边缘化状态。总而言之,社会服务领域的数字排斥是数字弱势群体产生的重要原因。它不仅体现在数字化服务供给方式变革所带来的服务获取门槛提升上,也体现在通用化设计倾向对数字弱势群体特殊需求的忽视上。因此,要促进社会服务的公平与包容,必须深入剖析并解决这些根本性问题,以减少数字排斥,保障数字弱势群体的服务获取权利。
3、数字科技非均衡作用
数字科技的非均衡作用,特别是在数据生成、采集、分析及应用的叠加过程中,不仅系统性地深化了原有数字弱势群体的不利地位,还催生了新的“数字弱势群体”形态。一方面,数字科技的非均衡使用加剧了原有数字弱势群体的不利处境。数字科技的应用,特别是数据驱动的服务供给,高度依赖于用户的数字接入与参与能力。然而,数字弱势群体由于技术、经济或社会因素,往往难以在数字世界中留下充分的数据足迹,导致其需求和声音在数据决策中被忽视或遮蔽。此外,数字科技在缺乏有效监管的情况下,存在被滥用和异化的风险。例如,过度的数据收集与监测不仅侵犯了用户的隐私安全,还可能通过算法推荐技术传播虚假信息和劣质内容,形成信息茧房,进一步削弱人的主体性,加剧信息公平失衡。对于数字弱势群体而言,他们在网络安全意识、信息真伪辨识能力等方面的不足,使他们更容易成为这些负面影响的受害者,从而加剧了其边缘化。另一方面,数字科技的非均衡使用还催生了新型的数字弱势群体。在智能系统的决策过程中,如果缺乏足够的监管和透明度,个体的偏见和社会的结构性不平等可能被编码并固化于算法之中,导致智能决策出现歧视性资源配置、破坏平等共识等问题。此外,商业主体在自动化决策中,往往基于利益最大化原则,利用大数据技术对客户进行筛选和排斥。这种非均衡的数字科技使用方式,不仅剥夺了某些群体平等参与社会活动的机会,还进一步加剧了社会的不平等与分化,形成了新型的数字弱势群体。
(三) 正义的理论基础
其一,对数字弱势群体权利的保护彰显了保护人格尊严的价值内涵。在法理学的价值体系中,人格尊严占据着至关重要的地位,它为保障数字弱势群体的权利提供了坚实的理论基础。人格尊严被广泛视为现代法律的核心价值准则之一。克隆技术、基因编辑技术、人工智能等新科技的涌现使人格尊严的保障面临着诸多挑战。步入数字时代,数字技术也对人格尊严构成了新的威胁。数字弱势群体在面对数字化浪潮和算法黑箱时,往往处于极度弱势的地位,其人格尊严难以得到有效保障。例如,由于数字技能的匮乏,他们在进行线上问诊、远程叫车、出示健康码等操作时面临困难,基本生活服务需求无法得到满足,这可能降低他们参与社会活动的积极性,阻碍他们融入数字化生活。又如,过度的数据收集和普遍的数字监控可能导致个人信息或隐私泄露,使个人生活的自由选择空间大幅缩小。可见,及时回应并保障数字弱势群体在数字化生存中的人格尊严至关重要。可以说,保障数字弱势群体的人格尊严是实现数字正义的必要前提[2]。
其二,平等价值赋予了数字弱势群体免于被歧视的平等权。步入数字化时代,突破物理空间限制的互联网看似赋予了每个人平等涉足网络世界、享用平台服务的契机,然而,算法黑箱与技术壁垒却在个体之间悄然构筑起一道隐匿的屏障。数字弱势群体在数字资源分配、数字红利分享、基础服务获取以及网络决策参与等诸多方面,与数字强势群体之间横亘着巨大的差距。在法理学的视域中,法的平等价值强调任何人都有权被平等相待,这一价值理念在数字时代同样占据关键地位。秉持法的平等价值理念,数字弱势群体理应被赋予免于遭受歧视的平等权。一旦数字弱势群体长期遭受社会的排斥与歧视,数字鸿沟必然会进一步加深乃至恶化。研究显示,技术恐惧心理、个体心理特质、态度倾向以及文化观念等均是影响数字弱势群体接纳数字产品的关键要素,而这些要素又与他们所遭遇的不平等对待紧密相连。以数字弱势群体中极具代表性的老年群体为例,他们因社会固有刻板印象而深陷诸多不平等处境。对于数字平台及其他数字服务供应者而言,老年人的商业价值相对有限,且开发适老功能的成本颇高,故而常常对老年人的数字需求视而不见。再者,老年人由于记忆力衰退致使学习能力下滑,助力其融入数字化生活需要耗费更多的人力与物力资源。在追求高效与快节奏的当今社会,基于优胜劣汰、效率优先的行动逻辑,社会往往对老年人的需求置若罔闻,甚至其家人也难以提供有力的支撑。如此一来,数字弱势群体极有可能因不平等对待而陷入一种恶性循环,最终被社会无情地边缘化[3]。
数字时代,社会实践发生了巨大的改变,这对数字正义理论提出了新的要求。实现数字正义必然要将数字弱势群体的权利保障置于首位,这不仅有助于落实“数字平权”,还可有效平衡多元价值冲突。随着数字技术、人工智能、云计算、大数据等新兴科技与人类生产生活的紧密结合,人与人之间的交往方式,以及社会权力结构都发生了巨大的改变,这也引起了平权理论的变革。有学者提出,当前社会已经进入“无数字,不平权”的时代,这意味着人正在从生物人向信息人转变,进而具备了“数字属性”。也有学者主张“数字平权”以双重空间的生产生活关系为社会基础,以人的数字信息面向和相关权益为表达形式,以智慧社会中人突破了传统平权理论所受到的物理时空和属性的限制,实现了自由平等的全面发展为核心诉求,生存发展权利的转型升级。由此可见,数字平权的提出旨在保障公民的数字权利及经济社会文化权利,帮助其更好更快地实现数字化生存。实际上,智能化的数字科技所带来的“权利危机”波及甚广,涉及每一位社会成员。而数字弱势群体则因为能力和认知的不足,更容易受到各类侵害,也往往缺乏救济自身权利的能力[4]。换句话说,相较于普通的数字公民,数字弱势群体更需要诉诸数字平权的保护。具体而言,数字平权主要包括具有防御权功能和受益权功能的内容,前者是指公民的信息权利、数据权利以及隐私权利应当受到国家的尊重和保障,后者是指公民有权要求国家积极作为,填补“数字鸿沟”,确保所有社会成员平等、充分地享有接入网络世界过上数字化生活的条件和机会,以真正实现数字化生活权,保障数字弱势群体权利是落实数字平权理念之举措。
2. 数字弱势群体保障困境
(一) 数字资源分配的法律保障体系亟待完善
经由对我国数字弱势群体权利法律保护现状进行梳理,可以明确的是,我国已初步构建起一套相对完善的法律体系以保护数字弱势群体的合法权益。然而,面对数字社会日新月异的快速发展,现行法律规范仍显露出一定的局限性。
首先,《宪法》《民法典》及《刑法》等现行法律在应对数字弱势群体权利保护的需求时,存在一定的滞后效应。法律的稳定性决定了其难以不断修订与完善,从而难以充分满足数字弱势群体日益增长的多元化权利保障需求。具体而言,第一,《宪法》中关于公民基本权利与义务的规定较为宏观抽象,难以针对数字弱势群体权利受损的具体情境提供有针对性的法律保护。其次,在《民法典》的框架下,对于利用新技术实施的数据侵权行为的认定存在实际操作上的困难。尽管《民法典》侵权责任编对网络侵权已有相应规定,但侵权损害的认定范围相对狭窄,难以涵盖数字时代复杂多变的侵权关系。数字化侵权行为的隐蔽性与不确定性,以及风险性损害、网络诈骗等新型侵权方式,均因不符合确定性要件而被排除在损害赔偿范围之外。这些侵权方式的发生时点与实现时点相分离,逐渐成为数字侵权损害赔偿案件处理的难点。此外,数字技术的广泛应用增加了侵权责任主体识别的难度,现有的侵权追责机制已难以有效应对新型数字侵权问题。例如,网络的虚拟性、无边界性及不受地理环境限制等特点,使得侵权行为难以认定,侵权责任主体难以明确。最后,《刑法》在规制网络空间中的新型数字犯罪时亦面临挑战。电信诈骗、网络盗窃、黑客攻击等利用数字技术跨境侵犯数字弱势群体权利的行为频发,犯罪手段隐秘,调查取证困难,给刑事司法打击带来了严峻挑战。
其次,尽管《个人信息保护法》与《数据安全法》等数字治理领域的法律在维护数字弱势群体权益方面做出了积极尝试,但仍存在一定的局限性。具体而言,《个人信息保护法》建立了以知情同意为基石的信息处理规则,然而,在实践应用中,知情同意机制的有效性正面临挑战。一方面,鉴于数字时代个人信息处理的复杂性与技术性,隐私协议普遍采用大量专业术语且篇幅冗长,这导致认知能力有限的数字弱势群体难以做出明智的决策,从而使得知情同意机制在很大程度上流于形式。另一方面,随着数字技术的发展,个人信息的范畴持续扩张且界定模糊,数据控制者往往利用格式条款等手段,近乎“强制”用户同意信息授权,否则无法享受服务,这种“同意或离开”与“点击即同意”的模式严重损害了数字弱势群体的权益。同样,《数据安全法》虽然明确规定国家保护个人与组织的数据相关权益,但其侧重点在于企业数据安全的保护,对于个人数据安全的保障措施则显得较为模糊,难以精准回应数字弱势群体在个人数据权保护方面的具体需求[5]。值得注意的是,数字弱势群体的权利范畴广泛,不仅限于个人信息权与数据权,还包括生存权、发展权、平等权等一系列基本权利,而上述两部法律在保护这些权利方面均存在无法覆盖的问题。
再次,信息无障碍立法不足。数字弱势群体在数字社会中面临的信息无障碍获取难题亟待解决。我国当前缺乏专门的信息无障碍立法,仅在《无障碍环境建设法》以及《老年人权益保障法》等弱势群体保障法中有部分体现。《无障碍环境建设法》主要聚焦于物理环境的无障碍建设,即对公共区域及居住区等实施无障碍改造。虽在第二章设置专章规制“无障碍信息交流”,但其中规定多为宏观性建议,缺乏具体实施规划,且以鼓励支持措施为主,缺少必要的强制性条款,难以满足数字社会信息无障碍建设的实际需求。此外,在其他弱势群体保障法中,有关信息无障碍建设的规定不够全面且各有侧重。例如,《残疾人保障法》虽然重视信息交流无障碍建设,但规定多采用“采取措施”“有关部门”“可以依法”等抽象表述,未详细规定推进信息无障碍建设的具体措施,也缺乏明确的法律责任主体及救济措施,致使法律条文的适用性与可操作性欠佳;《老年人权益保障法》目前尚未增添信息无障碍建设的相关规定,立法考量相对滞后,与数字社会的快速发展不相适应,前瞻性不足,老年人的数字生存权和发展权未得到充分重视。
(二) 数字社会权力结构的异化
前述法律规范体系对于数字资源分配规制的不完备之缺陷,并非造成数字正义缺失的根本原因,而是当前数字社会权力结构异化的具体表象。随着数字化浪潮的持续演进,个体权利展现出扁平化的趋势,私权力发展势头迅猛,且公权力的过度伸展则致使既往的权力架构遭受颠覆。社会分化现象愈发加剧,数字领域的马太效应更为显著,造就了一个强弱力量对比极度不平衡的状态。
第一,网络平台企业私权力迅速崛起。数字时代,网络平台企业手握海量数据和先进算法技术,天然具有利用规则与技术壁垒对数字弱势群体的权利进行侵害的资源优势。一方面,为了适应现代社会对高效便利的追求,算法统计渐渐渗透至社会生活的各个方面,使得数字弱势群体的个人信息权遭受侵害。从出行购物到就诊看病等日常行为,网络平台企业正无时无刻不对数字主体进行计算与控制。企业作为营利法人往往追求自身利益最大化,在利益的驱使下,互联网平台企业利用数据和算法的力量,大肆分析公民的个人偏好与消费水平等个性化数据,对不同习惯的消费者实行差异化定价的“大数据杀熟”现象层出不穷。数字弱势群体被困在互联网平台企业建立的信息茧房中,使得其对个人信息的支配和对外界信息排他、积极、能动地控制与利用之权利受到侵害。另一方面,网络平台企业对数字算法的操控使其实质上拥有了可与公权力比肩的强大私权力,数字弱势群体的隐私权甚至国家安全受到威胁。随着元宇宙浪潮的狂热推进,数字弱势群体囿于互联网平台企业建造的“数字化全景监狱”,正遭受着隐私信息买卖、网络暴力等隐秘的剥削。网络型企业实体不仅凭借其市场支配地位操控商品的价格与销售数量,还借助垄断协议、并购等策略来排除与限制市场竞争,如“强制排他性选择”情形,严重侵犯了数字弱势群体权益,并扰乱了网络环境的健康发展。这反映出某些超级互联网企业在实际运营中获得了超越授权范围的私权力,对国内的政策制定及国际重大议题均产生了深远影响,若不对其无序扩张加以约束,或将对国家的发展轨迹产生一定导向作用,进而改变国际格局,甚至对国家整体安全构成潜在威胁。
第二,政府数字服务公权力过度扩张。首先,政府在提供公共服务时的权力正因社会数字化水平的提高而变得集中。数字技术持续渗透并赋能于人类的生产活动及政府与社会治理领域,然而,这一现象也伴随着权力集中趋势的加剧,潜藏着向“数字利维坦”形态演变的风险。数字利维坦,作为传统国家利维坦概念在数字时代的新表征,使得人们在广泛受益于数字技术所带来的福祉之时,亦不自觉地陷入了技术的掌控之中。国家与个体公民在掌握及运用数字技术的能力上,展现出了显著的不对等性。在数字利维坦的框架下,私人权利主体的信息被过度采集,个人行为受到严密监控,个体的身份与私生活日益透明化,而与此同时,社会运作的底层逻辑却愈发隐蔽,个体因此陷入了被动境地,其权利保障面临重重挑战。其次,政府作为数字公共服务的主体之责任落实不到位会对数字弱势群体权利造成侵害。比如不当的政府信息公开行为容易侵害数字弱势群体的隐私权益,依据《政府信息公开条例》2第十七条之规定,信息公开前必须实施预先审核,旨在预防公民隐私遭受不当披露。然而,在司法实践中,政府滥用数字公共服务的主体地位,信息不当公开导致公民隐私泄露的情况屡见不鲜。例如,2021年,阜阳市颍东区政府的信息公开平台上发布的“2021年春、秋季学期中高职雨露计划拟补助人员名单”,其中包含了公民的身份证号码、银行卡号等敏感信息,致使公民个人信息面临泄露的风险。相较于政府,这些隐私信息被泄露的公民处于数字劣势地位,其隐私权因政府信息公开的不当行为而遭到了严重侵害。在数字化社会中,数字侵权的方式愈发隐秘且多样化,与政府监管团队缺乏专业技术人力资源、以及监管设施更新滞后形成了鲜明对照,这无疑为政府的数字监管工作带来了更大的挑战,使得数字弱势群体的权益更易遭受侵犯。此等数字社会中的地位不平衡状况,加剧了个人相对于政府及平台所处的弱势地位,进一步加深了个人与政府、平台之间的“数字隔阂”。
第三,数字弱势群体数字权利受限。个体作为数据生成的主体,在运用数字技术参与社会治理的过程中,并不具备显著的优势地位。政府与网络平台凭借对海量数据资源的绝对掌控,实质上成为了数据的主导者。这种资源的绝对性往往等同于权力的绝对性,而当权力过度集中于一方时,个人的权利保障便面临着被削弱的风险。一方面,个体若欲融入现代社会的快节奏生活中,往往不得不以提供个人数据作为交换条件。此类现象已屡见不鲜,无论是在进行网络购物、就医问诊、日常出行还是娱乐休闲时,用户均会被要求授权平台访问其账户信息。面对这样的请求,尽管从表面上看,个体似乎有选择拒绝的权利,但实质上,一旦拒绝,便无法享受到服务或应用提供的全部功能。例如,在微信小程序日益普及的今天,用户若想使用小程序内的各项功能,就必须授权其访问自己的账户信息。另一方面,个体还面临着因网络平台个性化推送功能所带来的“信息茧房”效应的风险。所谓“信息茧房”,即指个体所关注的信息领域会不自觉地受到自身兴趣爱好的影响,进而将个人的生活空间局限在一个类似于蚕茧般狭窄的信息“茧房”之中。这些因素共同限制了个人参与社会治理的范围与深度,使得其在社会治理过程中的作用变得十分有限。
3. 数字弱势群体保障法治应对
随着数字技术的飞速发展,数字弱势群体正面临着双重不公的境遇。其根源不仅在于数字资源分配的不均衡性,更深层次的原因是数字平台权力的不断扩张以及国家权力在某些方面的过度伸展,这些因素共同导致了社会各主体间力量对比的严重失衡。以形式平等为着眼点的分配制度一定程度上能够为处于不利地位的群体提供有限程度的缓和,但若要全面深入地重构数字正义的格局,则需要聚焦“权力配置”问题。数字弱势群体保障的法治应对需要数字权利合理配置、平台权力有效抑制及国家权力自我克制三者的协同作用,方能构建起数字弱势群体权益的法治保障体系,适应数字平权的要求,推动数字正义的实现。
(一) 数字权利合理配置
有学者主张,数据分配正义之精髓在于起始于消除“数字鸿沟”,着重确保每位个体均能获取数字红利,据此,对数字弱势群体权益保障的根本目的就是实现数字正义。法律对数字权利的合理配置是数字正义实现的基本保障。确保数字弱势群体权益的维护,并落实数字领域的公平正义,需特别强调对公民新形态数字权利的配置与实现,将新兴权利引入法律规范体系。
数字鸿沟现象,实质上是现实社会中个体身份差异、经济实力及学习能力的网络空间映射,它揭示了数字权利并非传统权利在网络环境中的简单移植。鉴于数字虚拟社会与实体物理社会之间存在着根本性的区别,这种差异预示着众多新型挑战将不断涌现,通过对传统权利进行法律解释实际上也难以有效应对,因此,法律规范体系中必须引入新兴权利的概念来加以应对。针对这一需求,既要完善现有法律保障体系又要探索对宪法基本权利第三人效力理论的创新与发展,旨在将那些侵犯数字弱势群体权益的私权力也纳入宪法的规制范畴,从而构建一个包含私权利、私权力以及公权力在内的三元理论框架,以丰富宪法学的研究视角。个人数据权作为与数字弱势群体数字生活息息相关且日益凸显的新兴权利,有必要推动其逐步被纳入宪法保护范畴,使之成为宪法性权利,从而实现对数字弱势群体权利的全面而有效的宪法保障[6]。针对数字社会环境中出现的通过数据运算手段无合理依据地约束个体行动自由以及算法偏见导致的信息获取自由受限等情形,有必要对《民法典》中关于人身自由的条款进行系统性阐释,并特别聚焦于数字场景下的应用,将人身自由权利与个人信息处理活动、数据资源的应用紧密结合,从而有效地保障数字弱势群体在隐私权和个人信息权益方面的合法权益。具体而言,需要明确界定“通过数据运算手段无合理依据约束个体行动自由”的具体情形(如基于算法的过度信贷限制、不合理出行或消费限制等)及要求平台解除限制、赔偿损失等明确的法律后果。规定算法偏见导致信息获取受限构成对人身自由侵害的判断标准,要求平台提供无偏见的信息接入替代方案。建立针对数字弱势群体的特殊举证责任规则,在涉及算法不透明导致的侵权案件中,适当减轻其举证负担[7]。
此外,还可以将数字权利在专门法中具体化、明确化。如优化《个人信息保护法》中的知情–同意机制,对涉及数字弱势群体隐私的个人信息,则应根据隐私场景采取严格的“知情–同意”机制。要求平台在处理涉及健康、财务、行踪轨迹等高度敏感信息时,必须采用显著增强的告知方式,例如针对老年人的大字体、语音播报和针对视力障碍者的屏幕阅读器兼容文本和语音说明,确保弱势群体真正理解信息用途和风险。在网络平台企业尽到充分的提示义务且经过数字弱势群体明确同意后才可以传输,并在个人信息处理场景改变对其产生实质影响时赋予其同意撤回权。在个人信息处理场景发生重大变化或用户随时要求时,必须提供一键式、无障碍的同意撤回通道,撤回后平台应立即停止处理并按要求删除数据。平台需在用户界面显著位置提供该撤回入口。
(二) 平台权力有效抑制
互联网技术的飞速发展无疑推动了网络服务业的蓬勃兴起,这也使得权力向数字平台企业转移。数字平台作为私营实体,凭借其数据获取的便捷性和算法逻辑的隐秘性,已逐步构建起可与公权力相比肩的私权力体系,这就要求加强数字平台企业治理,约束数字平台的私权力避免其滥用。
一方面,对数字平台的权力进行外部监督制约,细化平台权力的分类,将其纳入公权力的监管规制范围。目前,平台权力可大致归类为算法权力和数据权力两类,前者属于基于算法技术个性化数字服务等产生的权力,后者为因电子数据集中产生的权力。对于数字权力,公共权力机构应当通过确立一系列规范,来指导和约束数字平台企业在数据获取、运用及处理程序上的行为,并进一步健全对数据权力不当使用的责任追究体系,确保能够切实地将权力滥用的责任归咎于相关主体。在算法权力层面,则需要从强化算法的可解释性、提升算法运作的透明度等维度入手,进行深入的规制与优化。具体而言,要建立“数据权力滥用”行为的认定标准和穿透式处罚细则。监管部门设立“算法监管沙盒”,对高风险算法进行测试和评估。引入第三方独立机构进行定期算法审计,检查是否存在系统性偏见或歧视。一旦发生数据泄露、滥用或歧视性使用,不仅处罚直接运营主体,更要穿透核查并追究其母公司、实际控制人以及相关决策管理人员的连带责任。
另一方面,明确数字平台企业应当主动履行之义务,确保平台企业内部制约有效运行。针对数字权力,网络平台企业内部应当充分尊重数字弱势群体的个人信息权、隐私权等权利,建立数据信息处理合法性与合理性审查机制,妥善收集、处理数字弱势群体个人信息。而对于算法权力,要求网络平台企业承担“守门人”责任,在算法设计、训练数据选择、模型测试阶段,强制加入不同年龄、地域、教育背景用户群体的结果差异度等公平性指标的检测和优化环节[8]。秉持平等的价值观,依照算法技术的透明原则保障数字弱势群体权利的行使,开发数字弱势群体友好型界面,严格遵守无障碍设计标准(WCAG),提供大字体、高对比度、语音导航、简化操作流程等适配不同弱势群体需求的界面和交互方式,并确保其与主版本功能同步更新。
(三) 国家权力自我克制
鉴于增进民众便利与提升政务运作效能的需求,公共权力机构广泛采纳数字技术于政务服务领域,此举虽显著提高了社会治理的效能,却也潜藏着对数字边缘群体权益构成侵害的风险,故而亟需公权力机构依法强化自我规制。
首要之务,公共权力机构在采集数字边缘群体信息时,应遵循适度比例原则,力避信息超量采集,并深化数据安全防护意识,强化对已收集信息的保管措施,以降低信息外泄的风险,切实捍卫数字弱势群体的信息安全。同时应充分尊重数字弱势群体的知情权,确保及时通报信息流向,赋予其平等参与数字化进程的机会。对存储和处理弱势群体信息的政务系统,强制实施“零信任”安全架构,进行定期的渗透测试和安全审计,审计结果向同级人大常委会报备,发生数据泄露必须在规定时限如72小时内上报上级主管部门并通知受影响个人。在各级政务服务APP和网站首页显著位置设置无障碍入口,提供“一键转人工客服”或“预约线下办理”功能,响应时间应当规定有明确上限。建立社区或村级代办员制度,为无法使用线上服务的弱势群体提供上门或集中代办服务[9]。
其次,公权力机构需完善自动化应用的风险防控架构,提升数字自动化行政手段施行的透明度。应警惕对数字工具的过度倚重,防止人工决策被辅助性数字技术边缘化而导致执行僵化。为此需细化自动化行政信息征集的责任归属,建立算法决策解释与申诉机制:对基于自动化决策作出的、对个体有不利影响的如信用评级、补贴资格审核结果等决定,行政机关必须主动提供书面或可访问的电子版解释说明阐述关键决策因素,并告知清晰、便捷、免费的申诉渠道和流程。申诉处理必须有人工介入。数字技术在社会治理中的正面作用虽然显而易见,但公权力主体仍需提升鉴别力,精准界定数字技术与公共权力融合的边界与范畴。例如,在推广线上政务服务的同时,合理保留传统的线下服务途径;在运用数字技术时,应主动接受监督,解释算法决策依据,以确保决策的科学性与及时公开的透明性[10]。再者,公权力机构在实施秘密监控时,必须严格遵循合法性、必要性及相称性原则。即仅当出于合法目的且确属必要时,方可正当运用数字技术对数字边缘群体进行秘密监控,且其应用范围应严格限定于预防或调查重大犯罪及威胁社会安全的情形。在数字技术的运用过程中,强化公共权力机构的自我约束,对于促进数字边缘群体自由而全面的发展具有积极意义。
NOTES
1参见中国互联网信息中心:《第54次中国互联网发展状况统计报告》,https://www.cnnic.net.cn/n4/2024/0829/c88-11065.html。
2《中华人民共和国政府信息公开条例》第十七条:“行政机关应当建立健全政府信息公开审查机制,明确审查的程序和责任……”。