“数据鸿沟”中弱势群体基本权利保护浅析
A Brief Analysis on the Protection of Basic Rights of Vulnerable Groups in the “Digital Divide”
摘要: 随着数字时代的发展,人们不可避免的被卷入了数据时代的浪潮,人们在享受科技带来的便利的同时,却也在不断承受着科技带来的负面影响。数字化进程中,由于不同主体对信息掌握能力以及程度不同,导致数据鸿沟的出现,在此种情形下,数字弱势群体闯入了公众的视野,赋予数字弱势群体权利保障已成必然。
Abstract: With the development of digital age, people are inevitably involved in the tide of data age. While enjoying the convenience brought by science and technology, people are constantly bearing the negative influence brought by science and technology. In the process of digitization, because different subjects have different abilities and degrees to grasp information, the emergence of the digital divide, in this situation, the digital vulnerable groups have entered the public’s vision. It is inevitable that the rights of the digital vulnerable groups should be guaranteed.
文章引用:张璠瑜. “数据鸿沟”中弱势群体基本权利保护浅析[J]. 争议解决, 2022, 8(1): 171-177. https://doi.org/10.12677/DS.2022.81024

1. 引言

自20世纪以来,数字鸿沟已成为全球舞台上最引人注目的挑战之一,引起了技术提供者、人权活动家、教育利益团体、政策制定者和无数其他社会部门的热烈讨论。随着数字技术不断的发展,数据鸿沟的问题也在不断扩大,因为不可能让每个人都享受到数字技术所带来的福利,而这些被遗忘的人们被称为“数字弱势群体”,起初提到数字弱势群体人们可能只会想到那些没有办法接入互联网的人们,但是本篇文章中把数字弱势群体细分为那些无法接入互联网的人和即使接入互联网但由于掌控信息能力较弱依旧会受到侵害的人。这两类群体都可以被称之为“数字弱势群体”,并且他们所面临的困境是不一样的,所以需要采取不同的应对措施。数字鸿沟的持续存在会造成群体之间的进一步对立从而导致社会的进一步撕裂,在这种情况下弱势群体的弱势地位只会加剧,所以对弱势群体的权利保障问题值得我们关注并深入讨论。

2. 数字化时代引发的“数字弱势群体”

2.1. “数据鸿沟”新时代下的内涵

数据鸿沟是自20世纪后期以来信息技术法律和政策中讨论最多的话题之一,最初是指那些可以使用计算机的人和没有使用计算机的人之间的差距,之后更普遍地被描述为在使用信息技术方面的不平等。关于数据鸿沟的讨论主要有:衡量数字鸿沟及其缩小或扩大趋势的最佳衡量标准是什么:PC拥有量、互联网接入、计算机技能,还是什么?哪些群体之间的社会差异最能预测数据鸿沟并对其负责?鸿沟会随着时间的推移而减少还是增加,从而减轻或加剧不平等、包容和边缘化的问题。数据鸿沟是否可以反向证明旨在让更多群体“上网”的平等主义公共政策是合理的?最后,数字鸿沟如何以及为何如此重要?

现在,随着算法技术的广泛应用,数据鸿沟的问题仍会一直持续并还有可能扩大。目前已经有学者开始主张人性尊严的回归,把人们的注意力从关注技术进步带来的鸿沟转移到对被通信技术影响的人本身上。这意味着数字技术更新下“群众的权利保障”成为目前讨论的重点。这也意味着数据鸿沟在新时代迫切需要解决的问题转变为如何保障公众平等的享有数字技术进步带来的红利。

2.2. 数字弱势群体的出现

在人工智能时代,已经部署了高度复杂的算法来提供分析,检测模式,优化解决方案,加速操作,促进自我学习,最大程度地减少人为错误和偏见并促进技术产品和服务的改进。尽管有这些巨大的好处,但是数字技术并不能为所有人提供同等的好处。正如“数据鸿沟”将那些可以访问互联网,信息技术和数字内容的人与没有互联网,信息技术和数字内容的人区分开来,并且造成了获取由机器学习和人工智能提供的政治、社会、经济、文化、教育和职业机会的不平等,由此也引发了“数字弱势群体”的出现 [1]。2020年11月,一段“老人去交社保却被告知不能使用现金,在大厅中落寞无助”的视频在网上广泛流传,再一次把数据鸿沟问题推到了风口浪尖上,也引发了人们对于数字弱势群体权利保护的深思。

“弱势群体”一词是朱镕基总理在九届全国人大第5次会议上所作的《政府工作报告》中首次提出的,自此之后,弱势群体成为被热烈讨论的词语。后来学术讨论中基于个体话语权获得的角度把弱势群体分为显性弱势群体与隐形弱势群体,认为话语权的分配不均衡可能是显性的,也可能是隐藏在社会深处不易察觉的 [2]。在今天面对大数据时代,有学者借鉴之前关于显性弱势群体与隐形弱势群体的划分,给予了这两个词语新时代下新的内涵。其中显性弱势群体是指那些无法接入网络世界或者由于各种原因无法享受现代信息服务的人,例如不会使用智能手机的老人,这类群体是最早也是最易受到社会关注的。隐形弱势群体是指那些虽然可以接入网络,但由于对于信息的掌控能力低无法有效获取、应用或者分析信息进而导致权利受损的人们 [3]。

通常数字鸿沟可以分为接入沟和使用沟,即第一道沟和第二道沟,其中显性弱势群体属于接入沟,隐形弱势群体属于使用沟。所以显性弱势群体与隐形弱势群体所面临的困境是不一样的。具体来讲,显性弱势群体所面临的困境是他们无法接入网络世界或者享受现代信息服务存在障碍,而目前大部分的社会活动是需要依靠网络来完成的,这就造成了这样一种局面:当一部分人在享受网络带来的便利的时候另一部分人却因为无法网上预定车票、网络购物、网络转账等而受到了来自于技术发展带来的生活障碍。相反,隐形弱势群体虽然可以接入网络,但是由于信息掌握程度的极大不对称,很容易受到算法歧视、算法霸权,并且有可能人们甚至意识不到自己的权利正在被侵犯,这种情形下的侵权不易被察觉。

由于显性弱势群体的根本问题所在是无法享受信息社会的便利,当然这个群体没有接入网络,没有被收集信息或者受到算法决策,当然也不会遭遇信息泄露或者算法歧视等问题。所以基于显性弱势群体与隐形弱势群体面临的困境不同,有必要对两种群体提出不同的对策回应。

3. 显性弱势群体的权利保障

虽然显性弱势群体从一开始就获得了很多的关注,但是由于年龄、贫富、受教育程度等的差异,显性弱势群体所面临的困境并不会因为数字基础设施的完善而消失,相反随着科技不断进步,数字资源分布不均衡的情况只会越来越严重,并且随着数字化程度不断提高,科技会逐步渗透到社会运行的各个环节甚至是制度设计,到了那时恐怕对于无法融入现代科技的人们的歧视和排斥只会越来越普遍和习以为常。所以即使这个群体从一开始就获得了很多的关注并且也采取了一定的应对措施,我们仍然要对其进行更高层次的保护。

3.1. 显性弱势群体面临的困境

显性弱势群体所面临的困境主要是知情权的实现。智慧生活中,网络成为人们开展社会活动的主要方式,包括政府管理活动,现在信息公开都需要公民在网站申请,国家机关基本上是处于一种默认公众都可以接触到此种渠道而不存在传播障碍的状态,但是现实是即使一些可以接入网络的人们也不一定会知晓该如何获取这些信息,更不要提及显性弱势群体。此外由于网络传播速度快、交流成本低,效果广泛,越来越多的人选择网络方式进行交流,这就使得显性弱势群体无法获得这些信息。由此我们可以得出,由于显性弱势群体受自身年龄、经济水平、受教育程度等因素的限制,使得其始终处于一种信息获取权被剥夺、信息资源分配不均的状态。这种情况一时半会改变不了并且有可能无法改变,因此我们有必要对显性弱势群体面临的困境进行细致的分析并从实际情况出发帮助其摆脱困境。

3.2. 对显性弱势群体的更高保护

对于显性弱势群体的权利保障应该从平等权出发,一方面积极进行基础网络设施的普及,从源头上减少“接入沟”存在困难的人群数量;另一方面进行数字普及,让更多人能够更好的利用科技融入现代生活。具体可以实行以下措施保障显性弱势群体的基本权利。

1) 对显性弱势群体实行倾斜保护

让显性弱势群体可以平等的享受各种社会服务是我们在帮助这个群体时的出发点,鉴于显性弱势群体在资源分配以及掌控信息能力方面的弱势我们应该对该群体给予特殊的关注并且对其进行倾斜性保护 [4]。所以对于显性弱势群体我们可以从法律层面进行权利义务的再分配。为了回应数据鸿沟带来的挑战,美国颁布的《通信法》中发展了“普遍服务”的概念 [5]。该概念隐含在谈论一项政策的语言中,该政策采用可能和可用的技术手段,以确保拥有一个有效的、高效的、负担得起的、全国性和全球性的无线电和有线通信系统。普遍服务意味着复杂的、隐含的补贴和不断提高的电信服务水平,并且通用服务的概念及其法律框架是一直在发展的。所以在对于显性弱势群体的保护问题上我们不能仅仅停留于采取一定的应对措施,而是应该从制度层面理念层面也体现出对弱势群体的重视,从法律层面来保障显性弱势群体的基本权利,通过立法上把这些保护措施确立下来。同时在政策制度的引导下政府有义务的积极推进互联网普惠化,让越来越多的人都可以享受大数据技术带来的机会与收益。

2) 现代科技与传统服务并行

显性弱势群体处于弱势的原因是由于经济水平、受教育程度、学习能力等,为此有学者提出数字鸿沟最重要的标准不仅仅是计算机或互联网接入的分布,还应该关注数字素养的分布,即不同群体知道如何使用信息技术,他们学习技能的程度,以及它的用途,这对于他们充分参与“知识经济”和“信息社会”很有帮助,而这一目标的实现需要借助教育 [6]。但是我们可以看到这些原因并不能一时半会就能得到改善,而是需要一个长期的过程,所以基于这样的考量,我们并不能仅从加强数字基础设施做起,而应该考虑到现实情况,倡导传统服务方式与现代智能服务方式并存,尤其是在交通出行、银行金融、医疗服务等公共服务领域保留传统的服务方式,让即使无法接入网络的人们或者可以接入网络却因为其他原因无法享受智能服务的人们也可以平等的享受社会服务,正常生活。今年国务院办公厅印发《关于切实解决老年人运用智能技术困难的实施方案》,就进一步推动解决老年人在运用智能技术方面遇到的困难,坚持传统服务方式与智能化服务创新并行,为老年人提供更周全、更贴心、更直接的便利化服务作出部署。我们可以看到,现在国家机关也对显性弱势群体的保护做出了回应,其实不仅是老年人,对于那些因经济原因、受教育程度等影响而无法接入网络无法享受现代科技服务的人,都应该采取现代科技与传统服务方式并存,让弱势群体也平等的享受社会服务与社会福祉。

对于显性弱势群体的保护关键在于要关注他们所享有的平等权,弱势群体和其他人一样应该对数字资源享有同等的接入权、使用权,享有数据信息带来的利益,但是由于现实的原因,他们被科技排除在外,这是一种无奈而又不得不接受的事实。所以无论是从社会服务方式还是制度构建层面我们都应该给予显性弱势群体必要的倾斜保护。

4. 隐形弱势群体的权利保障

4.1. 生物属性与数字属性的深度融合

一场科技革命就是一场进化的人类文明史,科技革命带给人类最大的改变就是让人们突破了传统的物理空间,使得人们线上也可以完成交流、买卖等社会活动。并且数字化的发展使得个体的生物特征转化为各种数字信息,每个人的社会活动转化为一系列的语言数据、行为数据、关系数据,通过这些数据可以分析出一个人的性格特征、爱好以及习惯等,生物属性与数字属性深度交织在一起,人们越来越多的凭借自己的数字信息在从事各种社会活动,处于一种由“生物人”向“数字人”转变的过程。但是由于科技的复杂性,个体在获得数字属性的同时也注定了其对自己的数字属性的掌控能力极弱。隐形弱势群体主要面临的困境是隐藏在算法之中不易被察觉的侵权行为,鉴于此种情况,我们对于隐形弱势群体应该给予更多关注。

4.2. 隐形弱势群体在数字时代面临的困境

尽管隐性弱势群体可以接入网络享受现代智能服务带来的便利,但是不幸的是,许多人可能不理解随着使用机器学习算法和智能机器的普及会如何对他们的生活产生积极和消极的影响。即使在那些注意到这些影响的人中,大多数人对算法的实际运行方式也知之甚少。如果要说数据时代带来的便利是巨大的,那么它所带来的损害也同样是巨大的,例如个体数据被占据市场强势地位的商家收集并用作商业用途赚取利益,商家通过分析个体的数据信息对其进行喜好引导并刺激其进行消费,商家还会利用双方掌控信息能力的差异对消费者进行大数据杀熟等等。我们可以看到个体在享受便利的同时其基本权利也被推到了一种极为复杂的境遇当中,并且数字化的普及使得这种情况时时刻刻发生在人们的生活中,因此有必要厘清弱势群体在数字时代面临的困境。

1) 隐私权受损

隐私权是民法典所规定的一项人格权,是一项基本权利。但在数据时代下,隐私权受到了很大的挑战,人们的社会活动以各种各样的数字化形态呈现出来,但是人们对于其产生的数据却缺乏足够的掌控能力,大数据技术已经将探头伸向了个人隐私空间,导致个人信息暴露在外,信息滥用与信息泄露问题逐渐严重,个人的信息处于一种不自主和不确定的状态之中,可以被其它主体轻易的获取和传递,当我们无法控制这种情况的发生时,弱势群体的数量只会越来越多。

2) 算法歧视——看不见的不正义

数字时代本质来讲是依靠算法来进行决策,所以数字鸿沟其实也是一种算法鸿沟,在这其中最突出的问题当属“算法歧视”。人们一直认为算法具有天然中立性,依靠算法所得的结果公平可靠,但是实际上算法的歧视只是很隐蔽。一方面算法是由数学公式和计算机代码组成,设计者在设计算法时不可避免的会体现自己的设计理念,主观目的,自然也可能将自己的偏见嵌入算法之中;另一方面数据的真实性、有效性也会影响算法的准确性,如果将错误的数据或者本身带有歧视性的数据输入算法之中那么得到的结果自然也是具有偏差性的。互联网上的算法歧视问题早已出现,比如有研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出现暗示具有犯罪历史的广告;在谷歌的广告服务中,男性比女性看到更多高薪招聘广告,这些例子都说明了算法歧视正在侵蚀我们的世界。

算法歧视具有高度隐蔽性和高度个体性的特征 [7]。算法歧视具有隐蔽性主要有两个原因,一是因为算法本身的复杂性导致的不透明性,二是因为个体对技术不了解所导致的不透明。所以算法决策可以通过难以为人所察觉的方式对个体进行区别对待。算法的高度个体性特征体现在通过对个体数据进行深度的分析与解读,勾画出用户画像,精准定位出其需求、消费习惯、爱好等,并对其进行相应的推送,大数据杀熟就是体现该特征的一个很好的例子,由此商家借助个性化定制页面的口号完成了对用户的完美歧视。

算法歧视首先侵犯了个体的知情权,由于算法歧视的隐蔽性,大部人甚至意识不到自己正在遭遇歧视,也无法了解决策的过程以及算法决策是如何影响他们的生活的,只能被动的接受所谓算法运行的结果。其次算法歧视实际上侵犯了个体自由选择的权利,每个人都有权获取全面的信息,但是算法歧视通过对用户进行精准的画像描绘,实际上过滤了一部分信息,最终用户接受到的信息很大程度上是算法控制者想让用户看到的,并且通过这种方式可以最大可能的引导个体做出算法控制者想让个体做出的决定。最后算法歧视侵犯了平等权 [8],算法歧视会剥夺人们平等的获得政治、经济、文化、教育等方面的机会,造成处于优势地位的一方掌握越来越多的信息资源,处于弱势的一方越来越处于被排除在信息资源之外的实质不平等的局面。

4.3. 数字人权的崛起

作为一种技术手段或是载体,数字信息技术本身无所谓好坏之分,但是随着数字技术与人的生物特征相结合时,依靠数字技术做出的决策就对人们产生了影响,这种决策有可能会损害一部分群体的利益,从而造成社会利益失衡。我们可以看到科学技术的迅速发展并没有为弱势群体留出足够的适应空间,数字鸿沟现象在未来的时间里也必定会持续客观存在。数字化时代的弱势群体与处于强势地位的数据控制者之间的矛盾带着强烈的时代特色与科技特色,个体的诉求不仅仅局限于金钱赔偿等,而是更渴求于信息的平等获取、利用与自主决定,由此数字时代下人们对于数字权利的利益诉求并不同于传统的知情权、隐私权、财产权等,因此需要创设传统权利之外的新的权利。

由于数字科技对人们生活方式、生产方式以及交易模式等进行了深刻的重塑,传统的权利保障模式已经无法有效规制数据时代下的侵权行为,面对诸多的数字化带来的挑战,仅仅采取一些简单的措施或制度修改并不足以应对这种困境,所以第四代人权的提出势在必行。张文显教授在2019年5月29日召开的“法理研究行动计划”第11次例会发表了题为“无数字,不人权”的演讲,并提出了“数字人权”的概念。迄今,世界范围内人权形态发生了三次历史性转型,先后出现过第一代人权、第二代人权、第三代人权,目前正在迎来第四代人权。引领第四代人权的正是“数字人权”。随着以数字科技为代表的第四次科技革命和经济社会的急剧变革,新兴人权大量涌现,“数字人权”是其中最显赫、最重要的新兴权利。它不仅是一项新兴人权,而且引领着新一代人权。尤其是“数据权”,更是其中最耀眼的一项引领性新兴人权 [9]。随着第四代人权的到来,加强对其法治化保障已成为需要解决的课题 [10]。

个体经历从“生物人”向“数字人”的转变要求在数字化活动中倡导数字人权价值,把保护人的权利与维护人的尊严作为重要目的维护数字化时代的秩序。数字人权的提出体现了数字时代下人们生存和发展的基本权利的需求,也体现了数字化时代下对人的关怀,在基本权利遭遇困境的新时代下,回归以人为本位的价值理念,以基本人权保障作为评价数字化发展的重要标准。数字人权一方面有利于实现数字化下对公民的隐私权、知情权、人格尊严权等的尊重与保护,另一方面也有利于对弱势群体进行权利补正。

4.4. 推动数字人权实现从“场域化”向“场景化”的转变

在网络世界到来以前,人们的社会活动基本框定在具体的场域当中,带有特定性、分离性的特征,但是数字化时代的到来让人们突破了传统的物理空间的限制,使得人们得以实现线上交流与交易,社会活动实现了由场域化到场景化的转变,相应的侵权行为、算法歧视、算法霸权也都具有了场景化的特征,所以应对这些问题时的权利保护也应该聚焦到“场景化”, [11] 对弱势群体的权利保护并不是要确定固定的权利边界,而是要致力于实现场景化内的信息公平流通,让人们能在具体的场景化之中能体会到数字正义。

针对数字化时代的迅速发展,目前已有立法对相关行为做出规制,其中主要有《民法典》与《个人信息保护法》。《民法典》在第四编人格权的第六章规定了隐私权与个人信息保护。之后针对个人信息保护专门制定了《个人信息保护法》,在这部法律当中,以个人赋权的方式构建了个体对于个人信息的权利串,其中包括知情权、查询复制权、更正补充权、拒绝权、限制处理权、删除权(遗忘权)、解释说明权、不受自动化约束权,损害赔偿权。《个人信息保护法》是与民法典个人信息保护立法思路一脉相承的,所以在这部法律中更偏向于把个人信息的权利界定为一种人格权,强调对个人信息的保护,强化自然人作为自己信息的主体对自己信息所拥有的权利。《个人信息保护法》的制定其实也体现了数字人权的理念,通过对信息主体的赋权,让个体能够更好的在数字化活动中掌握信息自主权。《个人信息保护法》的亮点之一还在于引进了《通用数据保护条例》(GDPR)中的算法解释权,如果说在该部法律中赋予个体的知情权是信息主体行使其它权利的前提基础,那么算法解释权就是信息主体实现知情权的钥匙,并且算法解释权也有助于消除算法歧视现象。

《个人信息保护法》的制定体现了目前我们对于个人信息的重视与对个人信息权的保护,数字人权的提出不能沦为一句空口号,其后必然要有相应的法律制度的构建与支撑,通过一定的制度把数字人权落到实处,让弱势群体能够真正的拥有信息自主权,让数字化时代下的数字人首先拥有人的尊严与人格,然后才能实现数字化时代质的飞跃。

5. 结语

2020年4月,《中共中央国务院关于构建更加完善的要素市场化配置体制机制的意见》发布,首次将数据与土地、劳动力、资本、技术并列为五大要素。从该规定可以看出,当前数据已经成为一种生产要素,并且在最新制定的《数据安全法》中明确数据可以进行交易,数据将在今后企业市场交易之中扮演着越来越重要的角色,而个体信息也将不可避免的会参与到这场革命之中。那么问题就随之而来,如何将弱势群体转变为可以平等的参与数字化革命的主体,这是我们今天面临的重要课题。不管制度如何构建,我们坚信一个倡导公平正义的社会不应该是一个仅保护多数人利益的社会,更应该是给予弱势群体更多关注与保护的社会。虽然相关制度可能无法保护所有人的利益诉求,但这并不意味着那些少数群体的利益诉求就应该被忽略。数据鸿沟是现代科技对于法律提出的一种挑战,数字弱势群体也源于这种挑战,在这个技术理性越来越侵蚀人的尊严、人格的时代,我们应该倡导以人为本的理念,回归人权本位,提倡人文关怀,对人尤其是弱势群体给予必要的关注。唯有如此,我们才能实现长久的发展与平衡。

参考文献

[1] Yu, P.K. (2020) The Algorithmic Divide and Equality in the Age of Artificial Intelligence. Florida Law Review, 72, 331-389.
[2] 林莺. 中国当前弱势群体的权益保障与维护——基于话语权角度的分析[J]. 东南学术, 2011(3): 173-180.
[3] 宋保振. “数字弱势群体”权利及其法治化保障[J]. 法律科学(西北政法大学学报), 2020, 38(6): 53-64.
[4] 高一飞. 智慧社会中的“数字弱势群体”权利保障[J]. 江海学刊, 2019(5): 163-169.
[5] Allard, N.W. (2002) Digital Divide: Myth, Reality, Responsibility. Hastings Communications and Entertainment Law Journal, 24, 449.
[6] Doppelt, G. (2002) Equality and the Digital Divide. Hastings Communications and Entertainment Law Jour-nal, 24, 601.
[7] 张恩典. 反算法歧视: 理论反思与制度建构[J]. 华中科技大学学报(社会科学版), 2020, 34(5): 60-71.
[8] 洪丹娜. 算法歧视的宪法价值调适: 基于人的尊严[J]. 政治与法律, 2020(8): 27-37.
[9] 张文显. 无数字不人权[J]. 网络信息法学研究, 2020(1): 3-7.
[10] 马长山. 智慧社会背景下的“第四代人权”及其保障[J]. 中国法学, 2019(5): 5-24.
[11] 齐延平. 论人工智能时代法律场景的变迁[J]. 法律科学(西北政法学院学报), 2018, 36(4): 37-46.