认知社会心理学视域下的数字身份歧视问题研究
A Study of Digital Identity Discrimination in the Perspective of Cognitive Social Psychology
DOI: 10.12677/AP.2023.1310554, PDF, HTML, XML, 下载: 165  浏览: 255 
作者: 鲁建伟:贵州大学哲学学院,贵州 贵阳
关键词: 数字身份算法歧视认知社会心理学Digital Identity Algorithms Discrimination Cognitive Social Psychology
摘要: 数字身份歧视是指在数字领域中,基于个人的数字身份信息,对其进行不公平或有偏见的区别对待。与现实世界中的身份歧视类似,数字世界中的身份歧视也是建立在认知分类的基础上,这种歧视不仅可以带来不平等的待遇,更可能导致用户自我价值的贬低和自我认同的缺失。本文通过认知社会心理学的理论分析,以期更深入地理解数字身份歧视的认知机制和影响因素,并对数字身份歧视问题的解决提供了可能路径与策略。
Abstract: Digital identity discrimination refers to unfair or biased differential treatment of individuals in the digital realm based on their digital identity information. Similar to identity discrimination in the real world, identity discrimination in the digital world is also based on cognitive categorization, which can not only bring about unequal treatment, but may also lead to the devaluation of the us-er’s self-worth and the lack of self-identity. This paper analyzes the theory of cognitive social psy-chology in order to understand more deeply the cognitive mechanisms and influencing factors of digital identity discrimination, and provides possible paths and strategies for solving the problem of digital identity discrimination.
文章引用:鲁建伟 (2023). 认知社会心理学视域下的数字身份歧视问题研究. 心理学进展, 13(10), 4403-4410. https://doi.org/10.12677/AP.2023.1310554

1. 引言

数字身份是指个体在数字世界中所拥有的唯一身份标识。它包括个人的基本信息,如姓名、年龄、性别等,以及与个体相关的数字数据,如银行账户信息、社交媒体账号等。数字身份在现代社会中具有重要的社会意义。首先,数字身份作为个体在数字化社会中的身份证明,可以用于各种在线服务的认证和授权。例如,在购物网站上使用数字身份进行支付,可以保证交易的安全性和可追溯性。

其次,数字身份为社会和政府部门提供了便捷的数据管理和服务提供方式。通过数字身份,政府可以更加高效地管理公民的信息和福利,提供更精确的社会服务。例如,数字身份可以用于身份证明、社保和医疗信息管理等方面。此外,数字身份还对个体的隐私和个人信息安全产生影响。保护数字身份的安全性和隐私权是保护个体权益的重要问题。在数字化社会中,随着个人数据被广泛采集和使用,数字身份的保护变得尤为重要。

数字身份在现代社会中的重要性不可忽视。它不仅为个体提供了便捷的在线服务,也为社会和政府部门提供了更高效的数据管理和服务提供方式。然而,保护数字身份的安全性和隐私权也是一个重要的挑战,需要从社会认知社会心理学中汲取一些资源。

2. 认知社会心理学视域下的歧视及其产生

社会认知心理学为理解数字身份歧视问题提供了理论基础。心理学的这个分支侧重于个人如何感知,解释和回应社会信息,包括刻板印象和偏见的形成。在数字身份歧视的背景下,社会认知心理学为导致这种现象的认知过程和社会因素提供了有价值的见解。

社会认知心理学的一个关键概念是刻板印象的形成。刻板印象是代表对特定人群的普遍信念的认知结构。这些刻板印象可以基于各种因素形成,例如个人经历、社交和媒体影响。在数字身份歧视的背景下,个人可能会根据有限的信息或媒体中的偏见描述,对某些数字身份(例如种族或族裔群体)产生刻板印象。

另一个相关概念是隐性偏见,它指的是个人对某些社会群体持有的自动和无意识偏见。内隐偏见会影响我们的感知、判断和行为。社会认知心理学的研究表明,隐性偏见会导致数字身份歧视,因为个人可能会在不知不觉中根据他们的数字身份(例如他们的用户名、个人资料图片或在线活动)区别对待他人。

社会认知心理学强调了社会规范和社会学习在塑造态度和行为中的作用。个人从他们的社会环境中学习,包括同龄人、家庭和媒体,了解什么是可以接受或可取的。在数字身份歧视的背景下,社会规范可能会使偏见的态度和行为永久化,因为个人可能符合社会期望或采用其社会群体的歧视性信仰。

此外,社会认知心理学的研究探讨了媒体表征对刻板印象和偏见的影响。媒体在塑造我们对不同社会群体的看法方面发挥着至关重要的作用,它可以强化或挑战现有的刻板印象。例如研究表明,接触积极和多样化的媒体报道可以减少偏见和歧视。了解这些过程可以帮助我们制定干预措施和策略来打击数字身份歧视。

综上所述,社会认知心理学为理解数字身份歧视提供了理论基础。刻板印象、隐性偏见、社会规范和媒体影响等概念在塑造个人对不同数字身份的态度和行为方面发挥着重要作用。通过应用社会认知心理学的见解,我们可以更深入地了解导致数字身份歧视的认知过程和社会因素,并制定促进数字领域包容性和平等的策略。

认知社会心理学认为,人类的决策和行为是基于多个认知过程的结果,而社会认知是影响人对他人态度和行为的重要因素之一。数字领域中的数字身份信息成为了人们进行认知分类的重要标准,而数字身份歧视的产生也主要基于对数字身份信息的认知分类。数字身份的认知分类是基于数字身份的各种属性,如账号等级、虚拟财富、社交媒体关注度等,这些属性构成了数字身份的等级体系,也是数字身份歧视的根源。

在现代汉语词典里,“歧视”一词的意思为:不平等地看待;“偏见”一词的意思为:偏于一方面的见解,成见;“污”字取意为脏的东西、不廉洁,“污名”一词为贬义词。可见,在现代汉语中,歧视、偏见、污名三个词都偏贬义,只是三者贬义的程度不同,按照由弱到强的排序为:偏见、歧视、污名。

“希腊人擅长使用视觉教具,他们发明了‘stigma’一词来指代身体记号,这些记号用于暴露携带人的道德地位有点不寻常和不光彩。” (欧文·戈夫曼,2009)污名是社会对那些具有不符合社会期望特征的个体/群体的贬抑性标签,而歧视是污名化的结果,即对被贴上贬抑标签的个体/群体采取疏远、敌视行为。污名、偏见和歧视这三个概念之间并不存在实质性的概念差异,而是各自感兴趣的研究对象有所不同。因此,本文将使用“歧视”一词来展开观点。

根据戈夫曼(欧文·戈夫曼,2009)的观点,歧视与个体的社会身份有着密切的联系。个体的社会身份是人们被识别、归类的标志,由具体的社会制度框架所建构,与个体的社会地位是不相同的。戈夫曼进一步区分了个体身份、自我身份和虚拟的社会身份,这些身份的概念帮助我们理解歧视化和信息控制在歧视管理中的作用。虚拟的社会身份指的是对个人特征的预期、假设,真实的社会身份则指的是个人事实上的特征。当虚拟的社会身份与真实的社会身份存在差距时,人们便会在事实上将人分类,即区分出“我们”与“他者”。那些拥有“不名誉”特征的人便会被归入“他者”,成为被歧视者。简而言之,“歧视”始于对人群贴标签,而被贴上不名誉标签的人成为社会主流规范中的“异类”,从而使得“他们”成为与“我们”对立的一方。

那么,歧视的存在是由什么原因导致的呢?被歧视者并不是因为自身具有某些不名誉的特征而被歧视,而是由其所处的具体社会的社会规范、秩序所导致的。换句话说,歧视的产生不是因为被歧视者本身具有某些不名誉的特征所导致的,而是由其所处的具体社会的社会规范、秩序所建构。

戈夫曼的思考产生了深远的影响,奥尔波特(戈登·奥尔波特,2021)对偏见问题的思考也受他的影响。奥尔波特在《偏见的本质》一书中主要从认知的角度来分析偏见的形成过程(戈登·奥尔波特,2021)。他认为,认知是导致偏见的主要原因。他主要通过范畴化和刻板化来描述偏见的生成。奥尔波特在对范畴化和刻板化的说明中应用了“最省力原则”(the principle of least effort),即为了提高效率,人们会倾向于采取工作量最低的方案。人们在评价、认识他时,会采取“捷径”分类事物,将纷繁复杂的现象归入到人们已有的范畴当中,从而导致范畴化。范畴化导致的一个重要的结果之一是:范畴的意义、情感色彩一经形成便很难改变,即使遇到与范畴蕴含的意义相矛盾的新证据,人们也倾向于坚持原来的观点。人们所拥有的最重要的范畴之一,便是个人所秉持的价值观点;人们对其自身秉持的价值观点有着独特的偏爱,一旦其他人对其秉持的价值观点形成挑战时,人们便会很反感、憎恶他人。

奥尔波特将刻板印象融入到人的认知结构中。按照人类认知的最省力原则,当人们需要处理、加工信息时,最省力的方案是依据刻板印象对信息做分类。这使得人们头脑中的偏见能够维持原来的现状、且长久的存在。在缺乏具体证据的情况下,人们逐渐把某些易于识别的特征同一些群体联系在一起,并使得这些特征演变成为错误的刻板印象。刻板印象与范畴化不同;它毋宁说是伴随范畴化的僵化观念。刻板印象除了能够使人快速的加工信息外,还具有另外一个重要的作用,即能够将偏见的观点合法化、合理化。自我合法化和群体合法化通过刻板化的印象贬抑他人、外群体,从而提升对个人、内群体的良好感觉,最终使得偏见获得自身和内群体的认可、合法化。而系统合法化则是使得整个社会系统的偏见合法化、制度化,比如种姓制、种族隔离等。奥尔波特通过对认知过程的研究,深入分析了偏见的形成和维持机制。他的观点强调了认知对于偏见的影响,提醒人们要警惕自己的认知过程,避免被不正确的偏见所影响。

通过上面的简要论述可知,尽管戈夫曼对于歧视产生的过程、原因、解决方案的理解,与奥尔波特对于歧视产生的过程、原因、解决方案的理解有着不同的看法。但是,在下面几点上,两位学者有着一致的看法:其一,按照某种标准对人分类的过程中,歧视问题随之产生。在戈夫曼那里,社会规范所建构的个体的虚拟社会身份和个体的真实社会身份产生某种差距时,会将人区分为“我们”和“他们”,这种区分的过程就会导致歧视问题的产生。奥尔波特则是从认知的角度阐述人的分类过程,他认为,人们会按照最省力原则依据范畴、刻板印象将人分类,最终,也会区分出“我们”和“他们”;在这个过程之中,也会产生歧视问题。其二,分析歧视产生的原因,都是寻找“替罪羊”的思路,即:某些人之所以被歧视,是因为另外一些人有问题(这其实是歧视另外一些人)。在戈夫曼的分析思路中,“替罪羊”是社会规范、规则,而这些社会规范、规则也是由人来制定。因此,社会上之所以会存在歧视问题,是社会规范的制定者有问题,然而,从另一角度来看,这其实也是歧视社会规范制定者。同样的,在奥尔波特的分析思路中,则是从认知的角度寻找“替罪羊”,即人采取最省力原则的认知方式是替罪羊。

3. 数字身份歧视的产生及其表现

社会认知心理学的研究为认知过程与数字身份歧视之间的关系提供了有价值的见解。一些研究已经研究了认知偏见、社会分类和归因过程如何导致数字身份歧视的形成和延续。此外还研究了社会分类在数字身份歧视中的作用。社会分类是指根据共同特征将个人分组的认知过程。在在线环境中,个人可以根据其数字身份(例如用户名或个人资料信息)对其他人进行分类。这些分类可能导致群体内的偏袒和群体外的歧视,因为个人可能对自己的数字身份组成员表现出更积极的态度和行为,并对其他群体的成员表现出偏见。

数字身份歧视是指基于数字身份对人们进行分类,并根据某些算法将其分为“我们”和“他们”,对“他们”进行不平等对待。“算法运行以数据为基础,算法歧视往往源于对消费者个人数据的采集、清洗和整合过程。”(李丹,2021)此过程本质仍是一种分类,这种分类实际上是将数字身份中具有某些特征的人区分为“他者”,并将这些特征视为威胁或经济利益的来源,从而导致对这些人的歧视。数字身份歧视是歧视在网络空间中的延伸,但也有其自身的特点和产生过程。

“身份这一概念已经成为社会学研究中的一个重要概念,它与类别、角色等概念相联系,揭示的是生活在社会中的个体与社会的关系。”(王莹,2008)。不同的学者从不同的角度描述了身份歧视的产生过程,但有一个共同点:歧视是在将人分类的过程中产生的。涂尔干则通过研究人类原始分类的方式提出了一种新的思考路径,他认为原始分类是社会性的,即将事物分类时会将感情因素融入其中,由此产生了好恶之别。分类建构了社会秩序,因此歧视是人类社会普遍的现象。玛丽·道格拉斯在涂尔干的分类研究传统基础上,进一步解释了人类建立秩序的过程,认为分类可以建立正常与异常的边界,并赋予其价值内涵。异常是对分类边界的混淆,是一种“污染”,违背了人类建立的秩序,因此为了恢复秩序,需要“消灭”异常。道格拉斯以“危险道德化”的方式理解歧视问题,认为歧视普遍存在于社会中,需要重申分类的价值和道德意义,以拒绝异常现象。

数字身份歧视与算法密切相关,因为大数据算法使用某些标识(例如性别、民族、年龄等)将人分成不同的临时群组。这样,大数据技术的拥有者可以挖掘人们数字身份中潜在的经济价值。然而,这个过程中也会产生数字身份歧视问题,这正是涂尔干所强调的“分类”构建人类社会及其秩序的思路的表现(爱弥尔·涂尔干等,2012)。奥尔波特认为,歧视问题可以归结为对个体特征的刻板印象。大数据算法对数字身份进行分类的过程实际上是遵循最省力原则的,但是这也会通过算法在虚拟网络世界中执行刻板印象的合法化作用,并最终在现实世界中以一种隐蔽的方式表现出来。

大数据算法在对数字身份进行分类时,通常会采用匿名化技术来隐藏一些敏感标识,例如民族、种族和性别等。这种方法可以保护个体的隐私,从而在一定程度上减少数字身份歧视。然而,现有技术可以轻松地还原这些匿名化的敏感标识,因此,在理论上,算法可以将所有特征标识纳入数字身份分类,无论是敏感还是非敏感的特征标识。这意味着,在大数据背景下,数字身份歧视依然存在,因为个体会将异常状态经济化并采取措施“消灭”异常,而算法可能会在这个过程中施加不公平的价格歧视。但正如科技价值中立者说的那样,“科学技术本身没有善恶之分,其价值之善恶完全取决于使用者”(王雯等,2023)。“大数据算法的分析的对象是数据, 而数据归根结底还是社会的镜像。”(张玉宏等,2017)

玛丽·道格拉斯从涂尔干的思路出发,认为歧视是人类社会普遍存在的现象,人们通过分类建立异常与正常的边界来消除异常,从而维护社会秩序。她提出从“异常道德化、经济化”的视角来思考歧视问题,但这是一种宏观视角。道格拉斯(玛丽·道格拉斯,2020)对于数字身份歧视问题,指出需要采用微观的个体视角,考虑每个个体的日常生活分类和建立个性化“秩序”的过程。在这个过程中,个体会将正常与异常的边界建立起来,而算法可能会将这些异常经济化,使得个体被不公平对待或歧视。因此,从微观角度看,每个个体都可能遭遇异常状态,进一步证明数字身份歧视是普遍存在的。需要注意的是,异常道德化和异常经济化的区别在于方式和主动性,前者是他人通过道德化来消灭个体的异常,后者是个体主动采取措施来消灭异常,并在此过程中被技术拥有者进行异常经济化和歧视性对待。

从算法技术的角度来看,它不仅可以对输入的相关数据信息进行分类,而且可以将人们的数字身份划分到不同的临时群组,从而建立技术逻辑下的正常与异常的分界,构建起属于技术世界的“社会秩序”。异常现象的出现对于技术来说是一种“污染”,因为技术应用的逻辑出发点是追求经济利益最大化。因此,技术所建构的正常和异常体现为:规律性、经常出现的现象被理解为异常,随机、偶发性的现象则是事情的正常状态。为了“消灭”异常,维持技术所建构的秩序,会产生数字身份歧视,即个体被不公平的对待,这就是“异常经济化”的另一个表现。但是,从微观角度来看,“异常经济化”有两种不同的角度,即从算法技术的角度和个体的角度。这两种角度虽然都属于微观视角,但是它们具有细微的区别。在前者,使得异常向正常转变的施动者是技术;在后者,使得异常向正常转变的施动者是个体自身。因此,从微观角度来说,无论是个体自身构建的个性化生活秩序,还是技术所建构的技术世界的“社会秩序”,都会存在异常与正常的分界。这种情况从微观角度说明了数字身份歧视存在的普遍性,也为我们进一步考察数字身份歧视的消除提供了思路。

经过上面的一些分析,笔者认为数字身份歧视的产生过程大致如下:1) 大数据算法将数字身份分类,使其置于不同的临时群组;由于算法不同、数字身份存储者不同等原因,在某一具体时刻,具体某人的数字身份会被置于许多个不同的临时群组分析、挖掘。在这个过程中,被置于不同的临时群组,就意味着人与人之间被贴上了不同的标签。其实,这一过程也就是奥尔波特所说的范畴化的过程,在某种程度上,算法就是数学化的范畴。2) 那些被贴上“不荣誉”标签的群组,就有可能被区别对待,此时,歧视问题就产生了。在大数据背景下,算法应用于许多的领域,人们越多越多的决策依赖于算法辅助。正是在这样的情况下,数字身份歧视性的结果得以用于指导人们的具体实践,从而使得该数字身份的主体被不平等的对待,比如在教育、金融、就业等方面被区别对待。3) 算法对数字身份形成的错误刻板印象能够迅速形成技术系统合法化。与前面所说的“社会系统合法化”不同,这里所说的技术系统合法化指的是:在依赖于算法技术决策的范围内,算法对数字身份形成的歧视能够迅速的以“技术合理”的形式确定下来、合法化,并且能够很快的在整个技术决策系统中扩散。在大多数情况下,技术系统合法化是以非常隐蔽、令人难以察觉的方式进行。

4. 数字身份歧视的双重表现维度

在数字技术的大背景下,数字化生存是人们的主导生存方式,数字身份歧视是普遍存在于社会之中的,而这需要从宏观和微观两个角度来理解。宏观角度对应于异常道德化,微观角度对应于异常经济化,然而,这两个角度并不是截然对立、泾渭分明的,二者也是有着紧密的联系,只是为了便于分析才做了这种区分。笔者在下面也将从这两个角度出发论述数字身份歧视的表现。

4.1. 微观角度下的数字身份歧视之表现

数字身份歧视在微观角度下的表现主要指网络行为数字身份。数字身份歧视的存在普遍,从个体、技术所建构的秩序和区分的正常与异常的边界来看。为了消除异常或使其转为正常,主要采用异常经济化的方式,即个性化价格歧视。个性化价格歧视指商家在销售同样的商品时向不同的消费者收取不同的价格,使一些人被不平等对待。大数据技术算法根据消费者的数字身份为其提供个性化的定价,实施价格歧视的行为。在涂尔干、道格拉斯的思考路径下,我们从个人、技术的微观角度来考察个性化价格歧视作为当今社会普遍的现象。亚马逊在2000年测试为客户提供个性化价格的算法。研究表明,互联网公司在销售商品或服务时存在个性化价格歧视问题。近年来,滴滴打车、携程等公司相继爆出存在个性化价格歧视问题,成为社会舆论的热点事件。然而,个性化价格歧视问题不一定归咎于算法本身或算法设计者,还可能涉及相关法律欠缺或社会规则的不公平。个性化价格歧视是否属于反垄断法所禁止的价格歧视问题?美国《罗宾逊–帕特曼法》(Robinson-Patman Act)第1条(a)第1款规定价格歧视行为满足三个条件则受到禁止,包括行为人对不同交易对象采取不同价格、不同价格针对同一等级、同一质量的产品,以及对竞争造成的损害。“各国反垄断法几乎都禁止掠夺性定价行为,我国《反垄断法》第17条第1款也做了相应规定。”(熊鸿儒,2019)禁止没有正当理由的价格歧视,正当理由的内涵在法律和司法实践中逐步明确。但由于在传统经济领域广为适用的反垄断分析思路和方法不能直接套用到数字时代的平台经济领域,个性化价格歧视是否属于价格歧视还需进一步研究。

个性化价格歧视是一种歧视行为,涉及不公平对待个人。在网约车和网络订票/购物行业中,这种歧视行为的具体表现是:同一条线路或同一个预定中,经常使用或老用户的价格会高于其他人;手机电量低或迫切需要的用户也可能被收取更高的价格。这些个性化定价的背后是技术算法对数据信息分类、构建“秩序”和对异常状态经济化的处理。例如,在构建自己的日常生活“秩序”时,个体会将“手机电量低”归结为异常状态,然后采取充电等措施将其消灭或转换为正常。然而,算法观察到这个过程后,会将这种异常状态经济化并产生个性化价格歧视。同样,在技术世界中,规律性、经常出现的现象被认为是异常,而随机、偶发性的现象则是正常状态。因此,当个体做某种行为的频率高或者呈现出某种规律性时,技术会将其视为异常并消灭之,从而产生数字身份歧视。总的来说,个性化价格歧视是技术算法对异常状态的经济化处理所导致的,其根源在于技术对数据信息的分类和构建的“秩序”。

4.2. 宏观视角下数字身份歧视之表现

道格拉斯通过阐释歧视问题的普遍存在,从宏观角度出发,揭示了歧视问题与分类过程的紧密联系。涂尔干则认为,人类的原始分类构建了社会的秩序。道格拉斯进一步指出,分类是如何建构社会秩序的,即通过建立正常与异常的界限,将异常道德化并使其转化为正常。数字身份歧视是算法对数字身份分类过程中产生的歧视问题的技术转译结果,从宏观视角看,数字身份歧视表现为“歧视进,歧视出”。当整个社会将某个群体或特征歧视化,将其以数据形式收集并反映出来时,算法将对该群体中的个体或持有该特征的个体赋予歧视性的数字身份。美国存在尖锐的种族歧视问题,将非裔同犯罪联系在一起。谷歌的算法歧视只不过是“美国社会对非裔的歧视”算法化转译的结果。即使在数字身份分类和分析之前,通常会对敏感标识进行匿名化处理,但技术手段仍然可以轻松还原这些信息,从而再现出歧视。算法使用通常的分类标准对人进行分类,从而以技术手段再现了歧视。

生物特征数字身份中,基因数据是一个重要的个体身份类型,而基因歧视是数字身份歧视的一种重要表现形式。基因歧视基于基因信息进行医疗诊断或检测,从而否定了某些人的权利或机会。基因歧视的歧视对象是持有“异常”基因信息的个体,这种歧视分为两种情况:一种是基于该基因可能导致患病的可能性而进行的歧视,另一种是基于患有某种疾病的已知事实而进行的歧视。例如在我国的“基因歧视第一案”中,三名考生因为携带地中海贫血基因而落榜佛山公务员考试。“案件中将这一可能性当成必然性来对待,其结果自然有违于公平、平等的理念,因为一些患病者终其一生可能都只是携带者,却被残酷地剥夺了录用为公务员的资格。”(李锦,2012)

5. 策略及结论

社会认知心理学的研究结果对解决和打击数字身份歧视具有重要意义。通过了解这种现象背后的认知过程,我们可以制定策略和干预措施,以促进在线环境中的包容性、平等和尊重。

首先要对污名化造成的刻板印象进行修正,针对数字身份歧视中的刻板印象,可以通过多元化的信息呈现和反刻板化的教育来修正人们的刻板印象。这可以通过展示不同群体的多样性和个体差异性,以及提供正面的典型和角色模型来实现。并通过心理教育和培训,帮助人们认识到自己可能存在的隐性偏见,并提供工具和策略来减少这些隐性偏见的影响。这可以通过隐性偏见测试、认知重构和反思等方法来实现。

在对数字身份歧视问题中注重教育和平等意识的提高,并促进透明和可解释性,即通过教育和宣传,加强对数字身份歧视的教育和提高人们对数字身份歧视问题的意识,使人们了解数字身份歧视的存在和影响,并提供工具和资源来减少偏见和歧视的发生。加强对数字身份分类算法的透明度和可解释性,使公众能够了解算法背后的决策过程和标准。这有助于减少算法中的潜在偏见和歧视,并建立公信力和信任。

最后加强相关法律和政策保护与伦理审查和评估,通过制定和实施针对数字身份歧视的法律和政策,确保公平和平等的数字身份对待。这包括禁止使用算法来歧视和排斥特定的数字身份群体,并对违规行为进行惩罚。在法律予以约束的同时建立伦理审查机制和评估框架,对数字身份分类算法和相关技术进行评估,以确保其符合道德和社会价值观,并减少可能的歧视风险。

当然,这些策略和路径是改正数字身份歧视问题的一部分,但并不是唯一的解决方案。解决数字身份歧视需要跨学科合作和全社会的参与,以推动公平和平等的数字身份对待,并确保技术的发展与社会价值的平衡。鼓励多样性和包容性的文化和价值观,使每个人的数字身份得到平等尊重和认可。这包括在组织和社会中推动多元化,并确保数字技术的开发和应用不排斥任何特定的数字身份群体。

综上所述,数字身份歧视是指在对人进行分类时,由于大数据算法等技术中介与认知客体的共同作用,人们的数字身份被划分为不同的等级,从而导致排斥、贬义等歧视问题的产生。数字身份歧视的普遍性提示我们需要从微观角度来研究,特别是需要从认知社会心理学的角度来加深理解。数字身份歧视的存在是普遍的,不仅在宏观层面上,也在个体和技术各自所建构的“秩序”中显现。数字身份歧视具有破坏性、快速污染性、难消除性、隐蔽性高和范围广等五个特点,因此需要得到更多的关注和解决。尤其需要改变认知过程中的认知分类和认知偏见,才能有效减少数字身份歧视的发生。一方面,数字身份的等级体系需要更加公正和客观,避免将算法歧视作为身份歧视的工具;另一方面,个体也需要重视自己的数字身份,不将数字身份等级化作为评价自己价值和自我认同的唯一标准,更应该关注自己的个性和独特性。当然,数字身份歧视问题作为数字经济发展与认知社会心理学的新问题,本文的研究只是一种学术尝试,关于这一问题的完善有待于业界、学界的共同参与。

参考文献

参考文献

[1] [法]爱弥尔•涂尔干, 马塞尔•莫斯(2012). 原始分类(汲喆, 译). 商务印书馆.
[2] [美]戈登•奥尔波特(2021). 偏见的本质(徐健吾, 译). 中国人民大学出版社.
[3] [美]欧文•戈夫曼(2009). 污名——受损身份管理札记(宋立宏, 译). 商务印书馆.
[4] [英]玛丽•道格拉斯(2020). 纯净与危险——对污染和禁忌观念的分析(黄剑波, 译). 商务印书馆.
[5] 李丹(2021). 算法歧视消费者: 行为机制、损益界定与协同规制. 上海财经大学学报, 23(2), 17-33.
[6] 李锦(2012). 基因歧视的概念: 一张普洛透斯式脸庞. 华中科技大学学报(社会科学版), 26(1), 117-124.
[7] 王雯, 王常柱, 武杰(2023). 科学技术的价值之争与现代科技伦理使命. 中国科技论坛, (2), 114-121.
[8] 王莹(2008). 身份认同与身份建构研究评析. 河南师范大学学报(哲学社会科学版), (1), 50-53.
[9] 熊鸿儒(2019). 数字经济时代反垄断规制的主要挑战与国际经验. 经济纵横, (7), 83-92.
[10] 张玉宏, 秦志光, 肖乐(2017). 大数据算法的歧视本质. 自然辩证法研究, 33(5), 81-86.