基于人机隐私共有的多维度个体隐私保护和多主体隐私保护机制研究
Research on Multi-Dimensional Individual Privacy Protection and Multi-Subject Privacy Protection Mechanisms Based on Human Computer Privacy Shared
DOI: 10.12677/ass.2025.149777, PDF, HTML, XML,    科研立项经费支持
作者: 陈 思*, 于亚坤:重庆工商大学工商管理学院,重庆
关键词: 隐私保护多主体影响因素Privacy Protection Multi-Subject Influencing Factors
摘要: 在智能算法时代,企业通过自动化数据采集与算法推荐服务为用户带来便利的同时,也引发了用户对个体隐私保护的担忧。本研究基于扎根理论,通过对10名被访者的深度访谈,探究了人机交互视角下用户隐私保护行为的影响因素、多维度个体隐私保护及多主体隐私保护机制。研究发现,用户隐私保护行为主要受数据来源特征、平台因素、推荐内容相关性以及用户感知的影响,并表现为信息隐藏、痕迹清除等隐私保护行为。研究构建了多主体协同的隐私保护模型,提出平台应优化隐私设置、政府需加强监管、用户需提升隐私素养,以实现算法服务与隐私保护的平衡,为构建健康的数字生态提供理论参考与实践启示。
Abstract: In the era of intelligent algorithms, while enterprises bring convenience to users through automated data collection and algorithm recommendation services, it also raises concerns among users about individual privacy protection. This study is based on grounded theory and explores the influencing factors of privacy protection behavior, multidimensional individual privacy protection, and multi-agent privacy protection mechanisms from the perspective of human-computer interaction through in-depth interviews with 10 respondents. Research has found that user privacy protection behavior is mainly influenced by Data Source Characteristics, Platform Factors, Relevance of Recommended Content, and User Perception, and is manifested as protective behaviors such as Information Hiding and Trace Removal. A multi-agent collaborative privacy protection model has been developed, proposing that platforms should optimize privacy settings, governments need to strengthen supervision, and users need to improve their privacy literacy to achieve a balance between algorithm services and privacy protection, providing theoretical reference and practical inspiration for building a healthy digital ecosystem.
文章引用:陈思, 于亚坤. 基于人机隐私共有的多维度个体隐私保护和多主体隐私保护机制研究[J]. 社会科学前沿, 2025, 14(9): 58-66. https://doi.org/10.12677/ass.2025.149777

1. 引言

以自动化、智能化、个性化为特征的算法技术正渗透到传播过程的各个环节,整个网络空间已成为由“数据–算法”驱动的算法环境。在算法技术提升社会治理能力和个人生活水平的同时,算法平台过度采集和滥用用户数据,对用户隐私保护造成了极大威胁,隐私所有权和控制权难以界定,隐私边界在算法环境中变得模糊[1] [2]。算法平台面临着如何贯彻互联网信息服务规范、促进优质算法服务与用户隐私保护的协同发展等新的现实问题。相较于传统隐私管理理论的“人际互动”视角,算法传播中的隐私边界管理还应当将“人机互动”纳入考量,并将“机器是个人信息的共有者”当作常态。基于人机互动视角,探讨算法传播与隐私保护的协同发展机制,对营造企业有序、用户友好的网络媒介生态环境,推动我国数字经济战略实施具有重要价值。

首先,个体隐私保护方面,已有研究主要从隐私素养和隐私自我效能的角度分析影响个人隐私保护意识和能力,考虑到智能算法和隐私设置的复杂性,还需要从算法技术的角度多维度探索智能算法传播中的个体隐私保护能力,如技术知识(智能算法素养);其次,多主体协同治理方面,平台主体从隐私政策和隐私保护技术,政策从法律法规和监管等角度保护个人隐私[3],考虑到多主体共建共治的平台生态空间,还需要更多研究从人机互动的视角探讨平台隐私战略的有效性(授权可见性和可选择性、隐私政策可理解性等)与政策监管有效性(如法律知识和政府监管信任等)与实际个体隐私保护感知的关系;最后,隐私边界方面,以往研究主要集中于个人隐私边界管理以及人际互动中的集体隐私边界,尚需要更多研究探索算法时代下的人机集体隐私边界及隐私边界管理,如与第三方的数据共享等[4] [5]

综上所述,本文运用扎根理论方法进行探索性研究。在人机互动视角下,进一步探索多主体隐私保护,揭示影响隐私保护行为的可能因素,最终构建个体隐私保护的影响因素模型,并解释了各因素之间的关系,为未来的研究和实践提供参考。

2. 文献综述

2.1. 智能算法传播

智能算法传播领域的相关研究主要从算法对媒体的影响、算法对媒介生态的影响、算法与用户的关系、智能算法传播中的伦理与责任等角度展开。智能算法对媒体的影响主要涉及新闻生产和内容分发,如智能广告推荐、社交机器人、算法新闻等方面[6];智能算法对媒介生态的影响主要体现在信息流动[7]、信息趋同化及其后果等[8];算法与用户的关系主要包含算法抵抗[9]、算法素养等;智能传播伦理问题主要集中在算法技术使用规范以及用户隐私保护两方面[10]。算法的嵌入促使传播过程在内容分发方面全面升级。目前的算法平台广泛采用推荐系统分发内容,核心运作逻辑在于依靠用户数据进行数据建模,从而为用户提供感兴趣的、精准的信息并增强用户黏性。虽然算法型分发是主流的内容分发模式,但在这一过程中的数据采集、处理、共享和利用方式也引发了隐私风险和数据不当使用的伦理风险,亦给隐私边界管理和隐私保护带来了极大挑战。

2.2. 隐私保护行为

智能算法时代下的隐私保护的相关研究主要围绕个体、平台与政府三方主体展开。个体隐私保护包括个体隐私保护行为及其影响因素。个体隐私保护行为是指个体为应对可能的隐私泄露风险而采取的措施,分为伪造、保护和抑制三大类[11]。伪造类行为的隐私保护是通过隐瞒真实身份以达到保护个人信息的目的,如在网站上提供虚假或不完整的个人资料;保护类行为的隐私保护是指利用边界管理设置、定期清除浏览痕迹等手段保护自己的隐私信息不受侵犯;抑制类行为的隐私保护则是通过拒绝填写个人资料,拒绝授权或停止上网等行为来保护个人隐私。个体隐私保护行为的影响因素主要包括技术特征(如界面设计感知,权限合理性[12],个体差异(如隐私意识[13]、隐私素养[14]、隐私无助[15]、隐私保护自我效能[16]、隐私倦怠[17])。平台隐私保护战略的相关研究主要集中于平台隐私政策及隐私声明[18]、隐私授权[19]、隐私保护技术(如限制追踪、去标识化、匿名化等) [20]等。政府角度的隐私保护主要从法律与制度入手对算法进行治理,通过立法与完善行业行规等手段对算法使用隐私数据进行规范和约束。综上所述,本研究试图探讨多主体隐私保护行为,并从隐私和算法技术等多维度探讨隐私保护行为的影响因素。

3. 研究设计

现有研究对用户隐私保护行为的探讨仍存在不足,为系统考察智能算法传播情境下人机交互过程中的隐私保护行为及其作用机制,本文采用扎根理论分析框架展开探索性研究。该理论框架由Glaser等[21]学者在20世纪60年代末创立,是一种典型的质性研究方法。本文具体研究路径为:通过深度访谈收集数据,运用NVivo 20质性分析软件实施三级编码(开放式编码、主轴编码以及选择性编码),提炼总结智能算法时代下个体隐私保护行为及其影响因素。

在样本选取方面,本研究通过社交平台“小红书”发布招募公告,最终确定14名受访者参与研究,样本人口统计学特征详见表1。数据采集采用深度访谈法,在文献回顾和前期研究基础上编制了访谈提纲(见表2)。研究人员与被访者协商确定访谈时间后,采用线上视频形式开展访谈,平均时长为30分钟/人。在获取被访者知情同意的前提下,全程录音并确保数据保密性。每次访谈结束后完成录音文本转录工作,形成最终的分析文本资料。

Table 1. Interviewee structure

1. 受访者结构

指标

特征

数量

性别

6

8

年龄

20~24

10

25~29

4

学历

本科

6

硕士研究生

8

职业

学生

7

体制内

2

其他职业

5

日均使用手机app的时间

1 h~4 h

5

5 h~8 h

7

>8 h

2

Table 2. Interview outline

2. 访谈提纲

访谈主题

访谈内容

导语介绍

请根据您的经历和想法如实回答,访谈内容将进行录音但仅用于学术研究并会切实保障您的隐私

被访者信息

年龄、性别、受教育程度、日常使用手机APP的时间

核心问题

① 您上一次感觉到数据被监视是在什么样的情境下?当时的感受是什么?

② 您相信平台会合理合法使用您的数据吗?您认为行业、政府可以做什么来保护您的隐私?

③ 您的隐私意识是如何体现的?这种企业数据监视对您的隐私感知产生了哪些影响?

④ 感觉到数据被监视之后,您对保护隐私做了哪些行为?

⑤ 您的基本信息。

4. 扎根分析

本研究借助NVivo 20软件进行编码,包括开放性编码、主轴编码、选择性编码,研究过程中访谈和编码交替进行,编码结果由所有作者协商讨论最终达成一致,以尽可能地保证抽样和编码的信度与效度。

4.1. 开放式编码

开放式编码,是对访谈资料进行逐句分析以提炼初始概念,最终形成基本范畴的过程。本研究最终提取出62个初始概念,初始概念编码过程举例如表3所示。本研究将具有一致内涵的初始概念进行归纳,参考现有文献,最终形成15个基本范畴。基本范畴和初始概念如表4所示。

Table 3. Example of the formation process of initial concepts

3. 初始概念的形成过程举例

原始语句

初始概念

A4:我很久没有用过抖音商城了,比如说我最近想买裙子,我在其他平台上搜索。搜索完之后抖音刷几个视频就突然给我推荐了那个裙子,或者说推荐了相同的款式,或者说他知道我穿那个裙子是要去玩,还是去旅游,还是怎样,反正类型大差不差。

很少使用抖音商城、与需求产品交叉或重复、目的

A9:我最近是在求职,会搜索一些关于工作方面的或者公司方面的相关信息,可能在第一个A平台,就比如说小红书,我搜索了一个相关职业信息后,下一秒我打开B平台抖音,他就开始给我推送类似的信息,即使在这之前并没有在这个平台搜索过……会觉得很恐怖、吓人。

跨平台搜索行为数据

A2:就像监视,我觉得我虽然知道有监视这个事情,但是我不知道怎么去解决,这种我觉得就是由于政府和国家对这方面的基本宣传,或者是这种政策,没有落实很具体。

不知道怎么去解决监视现象、政府和国家加强政策宣传和落实

A8:我已经在那边看过了这边还要给我推送,所以我会点成不感兴趣或减少此类型的广告。

点不感兴趣

Table 4. Basic categories and initial concepts

4. 基本范畴和初始概念

基本范畴

初始概念

数据边界

通讯录信息;跨平台搜索行为数据;平台内点击行为数据;跨平台浏览数据

数据私密程度

隐私信息、触发敏感词、私密聊天记录、私密领域

未授权推荐

把我认识的人推给我、根据出发时间预判目的地、推荐给通讯录当中的人、推荐朋友的朋友

算法透明度

解释赞助商根据个人喜好进行推荐、展示广告的原因、为用户提供更好的服务而推荐广告

个人相关性

推荐产品与个人搜索产品相同、内心想法、和需求息息相关、想要的东西

社交相关性

朋友的评论、与好友刷到同一篇推文、互关朋友的评论、朋友点赞

政府监管

政策效益、加强平台数据监管、切实保障用户个人数据与隐私、严格审核应用上市APP

行业自律

保护用户数据权益、平台和品牌方加强自律、平台加强品牌方管理、企业向其他优秀企业学习

平台隐私设置

权限获取关闭设置、授权提醒、位置权限、个性化推荐设置

感知企业数据监视

各平台根据某平台的搜索数据进行推送、平台在未告知用户的情况下开启监听功能、平台在监视我、平台窥探数据、平台和广告商共同监视

感知隐私侵犯

隐私被侵犯到、感觉隐私被侵犯、被他人掌握个人隐私

感知共谋

平台给到赞助商数据、各平台信息关联、广告商向平台提供商业利益、平台推送投资多的品牌;平台与广告商存在权力分配、平台间关联、平台与广告商利益分配

在线隐藏

有意识填写虚假信息、不会公开发布个人信息、私密发表、不填写个人真实信息

屏蔽信息

屏蔽广告、点不感兴趣、主动屏蔽、点不想浏览

清除痕迹

关闭浏览记录、删除显示位置信息的内容、删除聊天记录、及时删除发布内容

4.2. 主轴编码

本研究将具有一致内涵的基本范畴进行归纳,参考现有文献,提炼出7个主范畴,具体过程和结果如表5所示。

Table 5. Axical coding

5. 主轴编码

主范畴

基本范畴

范畴关系内涵

数据来源

数据边界、数据私密程度

算法推荐所使用数据的来源与特征

平台因素

未授权推荐、算法透明度

影响用户被监视感知的与平台相关的因素

推荐内容相关性

个人相关性、社交相关性

用户接收到的算法推荐内容所具有的特征

用户感知

感知企业数据监视、感知共谋、感知隐私侵犯

用户对企业暗中窥探、追踪自身行为数据的感知

个体隐私保护

在线隐藏、屏蔽内容、清除痕迹

多主体所采取的隐私保护行为

政府隐私保护

政府监管

平台隐私保护

行业自律、平台隐私设置

4.3. 选择性编码

选择性编码根据主轴编码,在主范畴中提炼核心范畴,并建立起核心范畴与其他主范畴之间的影响关系。本研究通过分析和比较主范畴之间的关系发现:数据来源、平台因素、推荐内容相关性和用户感知直接影响个人、政府、企业隐私保护。本文将隐私保护确定为核心范畴,并构建了个体隐私保护的影响因素模型,如图1所示。

Figure 1. A model of influencing factors on individual privacy protection behavior

1. 个体隐私保护行为的影响因素模型

4.4. 理论饱和度检验

理论饱和抽样原则提出的访谈结束标准为:被访者不再提供新范畴与关系,在进行不少于3人的验证工作后,可以认为达到饱和状态[22]。在上述原则指导下,本文最终确定14名受访者为研究样本,达到理论饱和度检验。

5. 模型阐述与研究发现

5.1. 个体隐私保护的影响因素

根据本研究构建的个体隐私保护的影响因素模型,数据来源、平台因素、推荐内容相关性、用户感知属于个体隐私保护的前因因素。

算法推荐数据来源中用户数据边界及数据私密程度会影响到个体隐私保护。相较于同一平台、设备而言,在不同平台、不同设备上共享个性化广告会损害用户感知到的隐私性[4] [23],降低用户的购买意愿[5],所以相比于一般性推荐,跨边界的算法推荐往往正向影响个体隐私保护。

平台因素中,未授权推荐、算法透明度会影响多主体隐私保护。当解释算法推荐的决策逻辑,例如“为什么看到此广告”时,会产生负面效果,使提升个体隐私保护。推荐内容相关性中,当推荐内容与用户的相关性更高,系统便会推送大量相似内容,使用户产生疲劳感[24]。用户感知维度中感知企业数据监视、感知共谋、感知隐私侵犯会正向影响个体隐私保护行为,如被访者A8提到:“如果感觉我的隐私比如聊天记录被监视了的话,那我可能会酌情地去删一遍。”此外,被访者A2提到:“我觉得隐私还是受到了一定的侵犯,我可能会想更多的办法去干扰他,就比方说那故意点一些自己不感兴趣的东西。”

5.2. 多主体隐私保护

通过访谈可知,隐私保护的主体包括:个人、政府和平台,其中个体隐私保护行为包括在线隐藏、屏蔽内容、清除痕迹;政府隐私保护行为包括政府监管;平台隐私保护行为包括行业自律。

对于个人隐私保护,本研究通过访谈发现用户会使用假名账户防止雇主、朋友等对个人社交媒体使用的监视[25],或者使用虚拟工具掩盖身份进行隐私保护[26]。如被访者A7提到:“A7:除了性别之外的话,其他的都是有意识地填大一岁、填小一岁,月份加大一个或减小一个这样子。”此外,当用户感觉自己被监视时,会选择忽略划走、屏蔽、清除数据痕迹,且更加支持政府出台相关法律法规对监视现象进行监管。政府监管和行业自律是保护用户隐私的有效手段,颁布法规、成立第三方监管机构、行业合理使用用户数据等方式能有效提升用户对隐私的控制感知,进一步增强其信息授权意愿[3]。平台隐私设置能减低社交媒体用户的隐私倦怠[27],当平台提供隐私设置且功能有效时,能有效削弱相关因素对感知企业数据监视的负面影响,如被访者A10提到:“平台有没有一个关闭个性化推荐的这个设置,以及这个设置它是否好用、便于寻找。如果有的话,我觉得即使他现在的算法这样,但是我觉得我可以手动关闭。”

6. 结论与展望

本文研究了人机互动视角下多维度个体隐私保护影响因素和多主体隐私保护行为,构建了个体隐私保护行为的影响因素模型,有效地反映了个体隐私保护行为与各种因素之间的作用路径,为未来隐私保护行为的研究提供了理论参考。

学术理论上:① 现有研究尚未从平台视角出发探讨个体隐私保护的影响机制,本研究在算法技术、隐私等多维度下,探索了包括数据来源、平台因素、推荐内容相似性和用户特征四个维度对个体隐私保护的影响机制;② 探索“人机共有隐私”的算法优化与隐私保护协同发展路径。社会实践上:① 促进平台算法优化和个人隐私保护的平衡,规范智能算法推荐服务,推行“算法素养”教育计划,将数字权利意识培养纳入国民教育体系;② 推动智能算法传播的政府治理成效和行业监管力度,对深度伪造、生成式AI等新技术开展伦理审查;③ 构建多主体共建共治的良性智能算法平台生态空间,开发算法审计工具包,实现对推荐算法歧视性、信息茧房效应的量化评估,实现科技向善。

本文的局限性和前景如下:首先,本研究采访了14名中国参与者,虽然是较小的样本,但已达到理论饱和度检验,未来可以对来自不同国家的用户进行研究。其次,本文没有区分不同类型平台的算法推荐系统。未来,可以对不同类型平台的算法推荐系统进行研究。最后,扎根理论很难证明各种因素之间的定量影响关系,未来可以将本文构建的理论模型与实证研究方法相结合,进行定量研究,探索各种因素之间的影响模式。

基金项目

重庆市教委人文社会科学基金项目“人机互动视角下算法传播与隐私保护的协同发展机制研究”(项目编号:23SKGH172)。

NOTES

*通讯作者。

参考文献

[1] 朱侯, 方清燕. 社会化媒体用户隐私计算量化模型构建及隐私悖论均衡解验证[J]. 数据分析与知识发现, 2021, 5(7): 111-125.
[2] 李鹏翔, 武阳. 模糊的边界: 算法传播中隐私边界的内涵、衍变及其规制[J]. 新闻与写作, 2022(1): 22-29.
[3] Tang, J., Zhang, B. and Akram, U. (2021) What Drives Authorization in Mobile Applications? A Perspective of Privacy Boundary Management. Information, 12, Article 311.
https://doi.org/10.3390/info12080311
[4] Zhu, Y. and Kanjanamekanant, K. (2021) No Trespassing: Exploring Privacy Boundaries in Personalized Advertisement and Its Effects on Ad Attitude and Purchase Intentions on Social Media. Information & Management, 58, Article ID: 103314.
https://doi.org/10.1016/j.im.2020.103314
[5] Zhu, Y., Kanjanamekanant, K. and Chiu, Y. (2023) Reconciling the Personalization-Privacy Paradox: Exploring Privacy Boundaries in Online Personalized Advertising. Journal of the Association for Information Systems, 24, 294-316.
https://doi.org/10.17705/1jais.00775
[6] 方师师. 算法: 智能传播的技术文化演进与思想范式转型[J]. 新闻与写作, 2021(9): 12-20.
[7] 沈国麟. 全球平台传播: 分发、把关和规制[J]. 现代传播(中国传媒大学学报), 2021, 43(1): 7-12.
[8] 张舸, 李沐杰. “网红”的后数字复制逻辑: 概念网络、标准化空间生产与算法治理[J]. 全球传媒学刊, 2021, 8(5): 42-55.
[9] Xie, X., Du, Y. and Bai, Q. (2022) Why Do People Resist Algorithms? From the Perspective of Short Video Usage Motivations. Frontiers in Psychology, 13, Article 941640.
https://doi.org/10.3389/fpsyg.2022.941640
[10] 安孟瑶, 彭兰. 智能传播研究的当下焦点与未来拓展[J]. 全球传媒学刊, 2022, 9(1): 41-58.
[11] 姜火文, 熊广. 社交网络中隐私关注的保护性行为效应研究概述[J]. 新闻研究导刊, 2021, 12(16): 60-62.
[12] 刘百灵, 李洁. 技术特征与个体差异双重视角下用户信息隐私行为的影响机理研究[J]. 现代情报, 2023, 43(4): 137-149, 164.
[13] 陈昊, 张嵩, 吕途. 智能系统用户隐私意识与隐私保护意愿研究[J]. 情报理论与实践, 2022, 45(2): 168-175.
[14] 林碧烽, 范五三. 从媒介本位到用户至上: 智媒时代隐私素养研究综述[J]. 编辑学刊, 2021(1): 36-42.
[15] 臧国全, 董文馨. 隐私无助的形成机理研究——以社交网络新浪微博为例[J]. 情报理论与实践, 2022, 45(9): 110-118.
[16] 刘思晴, 刘国巍. 隐私保护自我效能对App用户隐私安全保护行为的影响研究[J]. 桂林航天工业学院学报, 2022, 27(2): 211-220.
[17] 张大伟, 谢兴政. 隐私顾虑与隐私倦怠的二元互动: 数字原住民隐私保护意向实证研究[J]. 情报理论与实践, 2021, 44(7): 101-110.
[18] 田力. 互联网平台隐私政策信息共享条款完善策略[J]. 管理现代化, 2021, 41(6): 69-71.
[19] 姜宁, 顾锋. 非授权信息使用与信息脆弱性、转换行为的关系研究——隐私保护措施的调节作用[J]. 科技管理研究, 2021, 41(1): 160-165.
[20] 张奕翔. 算法时代的隐私保护: 矛盾困境、路径方向及未来挑战[J]. 传媒论坛, 2022, 5(16): 4-10.
[21] Glaser, B.G., Strauss, A.L. and Strutzel, E. (1968) The Discovery of Grounded Theory; Strategies for Qualitative Research. Nursing Research, 17, 364.
https://doi.org/10.1097/00006199-196807000-00014
[22] 陆泽宇, 查先进, 严亚兰. 社交媒体环境下智能推荐内容点赞行为影响机理研究[J]. 现代情报, 2023, 43(2): 42-55.
[23] Chen, C. (2024) How Consumers Respond to Service Failures Caused by Algorithmic Mistakes: The Role of Algorithmic Interpretability. Journal of Business Research, 176, Article ID: 114610.
https://doi.org/10.1016/j.jbusres.2024.114610
[24] 廖觅燕, 方佳明, 杨晶晶, 等. 应对行为视角下算法推荐内容相似性对App持续使用的影响[J]. 南开管理评论, 2023, 26(3): 178-190.
[25] Duffy, B.E. and Chan, N.K. (2018) “You Never Really Know Who’s Looking”: Imagined Surveillance across Social Media Platforms. New Media & Society, 21, 119-138.
https://doi.org/10.1177/1461444818791318
[26] Oz, M. and Yanik, A. (2022) Fear of Surveillance: Examining Turkish Social Media Users’ Perception of Surveillance and Willingness to Express Opinions on Social Media. Mediterranean Politics, 29, 1-25.
https://doi.org/10.1080/13629395.2022.2046911
[27] 段秋婷, 张大伟, 陈彦馨. “精于算计”: 社交媒体用户隐私保护脱离形成机制探讨[J]. 图书管理杂志, 2024, 43(2): 109-121.