1. 引言
人类学家尼克·西弗曾指出,算法是文化生活的一部分,仅从数学逻辑的角度去理解是不合理的。这意味着,算法在实践中不应单方面追求效率,还必须统筹兼顾公共价值观、社会道德等价值内容,而这部分内容产生的社会影响并不是可以计算的具体数字[1],新媒体时代的到来使互联网大数据无孔不入地“接入”人们的生活,以精准推送和有效供给为特征的算法推荐,成为当前网络传播领域内容分发的重要形式[2]。福柯认为,建立在统计学之上的量化技术作为新自由主义治理和资本主义的逻辑秩序,长期以来实际上是为人口控制、商业利益和治理而服务[3]。吉莱斯皮(Gillespie)提出,备受争议的是,算法作为实现人工智能的路径,在出现之初就作为“一种至关重要的逻辑控制着我们所依赖的信息流”[4],拥有定义、分配表述和行动进行的权力,管理着用户如何感知信息,塑造着特殊的可见与不可见机制[5]。实现可见性的路径则是通过设计一个藏在黑箱中的相关性标准。正是隐藏在信息可见性背后的这一系列相关性标准,决定着信息流的构建、分配等输出结果。
随着deepseek、kimi等人工智能软件的问世,算法以更为“平易”的姿态造福人们的日常生活。算法作为一直以来新闻传播学界讨论的热点之一,其语境在于:在信息爆炸的新媒体时代,人们在信息迷雾中难以辨别方向,甚至注意力面临“被分散”的风险,迫切需要“灯塔”的照亮与“领航员”的引路[6]。算法型信息分发生逢其时,“解决移动互联网时代传统信息处理范式的‘超载’危机,实现新的技术范式下的供需适配和消费‘扩容’”[7]。但是,算法推荐机制解决的“信息超载”危机和实现的消费“扩容”只是完成了合乎目的的工具理性行为,而价值理性却在数据热潮的冲刷下常常被抛之脑后。二者的不平衡状态,深刻形塑着媒体、受众以及社会,也带来了一系列的风险和挑战。
2. 算法推荐技术的正向归因
2.1. 使用与满足:符合用户认知框架的娱乐化叙事
美国学者C·R·赖特在继承拉斯韦尔三功能说的基础上,补充了大众传播的第四个功能——娱乐功能。即大众传播的内容有一部分是为了满足人们的精神生活的需要,即获得快乐的需要。因此,算法推荐内容的泛娱乐化实际上是根植于用户普遍的娱乐需求的[8]。而这种契合用户娱乐需求的叙事框架所带来的影响是双向的,一方面用户可以在娱乐化内容中获得即时易得的快乐供日常“消遣”。另一方面,用户对娱乐内容的工具性消遣也是对算法推荐内容的反向规训,在盛大的娱乐需求导向下,平台呈现出契合用户头脑认知的个性化舒适圈。
2.2. 工具理性:运营目标实现有赖于个性化推荐
技术中性论代表人物梅塞尼认为,技术本身无所谓善恶,取决于人用技术来做什么。商业语境下的算法推荐,其本质上是为平台方服务的[9]。在算法启动时期,由于数据积累不够、用户画像模糊,试图“投其所好”难以实现。于是个性化传播成为算法分发的最佳手段,即选择用户感兴趣的热门类别和话题的内容进行推送,用户的使用即是对算法的训练,算法在这个过程中对用户画像进行精确描摹,由此,算法愈发“洞察人心”并以此来巩固用户粘性,在循环过程中助推平台本身的发展壮大和运营目标的实现。
3. 算法推荐新闻产生的伦理问题及负面影响
3.1. 信息茧房:视野窄化与群体极化
“信息茧房”是一个由美国学者凯斯·桑斯坦(Cass Sunstein)在2006年提出的概念。是指个人对信息选择性接触和过滤的现象,即人只关注自己感兴趣的信息,如蚕一般“作茧自缚”。新媒体时代,由于算法推荐等技术的广泛应用,这种现象更加明显。在密不透风的信息“围城”中,用户在一次次鼠标点击中“作茧自缚”。
3.1.1. 信息窄化下受众选择权的桎梏
算法推荐所绘的用户的行为图谱越精确,用户的关注视野就越会被收窄,长此以往,用户在信息接触中就会被羁系在自己所构建的“信息城堡”中,失去了解不同事物的能力和接触机会,即“信息窄化”[10]。在个性化算法推荐的逻辑下,用户在平台所看到的内容其实是基于自身以往选择得出的内容清单,这样的内容显然更对用户胃口,但与此同时,用户的选择权也被限制在一方小小天地中。
3.1.2. 群体极化下的网络巴尔干图景
詹姆斯·斯托纳(James Stoner) 1961年就提出的群体极化现象,“信息茧房”中的接收到的信息越来越单一、越来越固执己见,同一个群体的观念逐渐走向极端,不同的团体之间会越来越难以协商,各自团体内部的讨论,带来的是更加南辕北辙的结果,造成社会危机[11]。受众的固有观点在算法推荐模式下越来越固化长期沉溺于个人议程的信息设置中,容易形成更为个性化的“拟态环境”,而身处其中的他们会认为他们的拟态环境就是真实环境,因此在社会重大事件发生时,不同群体各抒己见观点碰撞的过程中其原有观点愈加极化,最典型的就是新媒体平台中“饭圈”文化的冲击,当狂热的粉丝将新媒体平台视作为“自担”“打call”和抢夺流量资源需要去“攻城掠地”的“战场”,当“毒唯”粉丝在网络空间恶意侮辱谩骂抹黑甚至直接“开撕”其他明星、他团队成员,在此状态下,网络巴尔干化愈演愈烈,不利于清朗网络空间的形成和社会整合。
3.2. 技术黑箱:隐私失控与内容规训
控制论中的“黑箱”是指人们所不知的区域或系统。随着算法越来越复杂,在无监督计算的末端,可能即便是程序员本身也无法了解机器对于数据到底做了什么,而这样的过程又可能是带有偏见、歧视、以及错误性的信息,因此,通过算法做出的判断和推荐,由于过程的不透明性,故而难以监督[12]。平台如同瞭望塔上的监视者,掌握着用户的行为习惯以及由此分析出的个人信息,正如舍恩伯格所说,今天这个时代,遗忘变成例外,记忆成为常态,人类住进了数字化的圆形监狱[13]。
算法赋能下的平台面对在沉迷于网络世界的用户面前成为了精准掌握流量不二法门的绝对权力方。事实上,当个体被赋予选择个性化议题建构的权利,看似满足了用户个性化的信息需求,更是赋予了算法“掌控”用户注意力的“钥匙”。算法成为了用户信息获取的主导者,比如在算法推荐新闻中,基于用户使用行为的算法一方面规训着用户的信息获取,同时新闻和资讯的内容生产者在流量逻辑下对新闻内容的生产、价值取向的天平可能会向流量和商业资本倾斜,因为用户感兴趣的并不一定是真正是有价值的新闻,用户对大量软性内容、猎奇内容的关注无疑会进一步激发相关创作者的热情,算法在这个过程中推波助澜,当内容被算法驯化,新闻生产的客观性、真实性在汹涌的洪流中面临解构的风险。
3.3. 数据歧视:权利失衡与知识矮化
算法中隐含刻板印象与用户歧视是更为隐形的“暴力”,在互联网的洪流中,用户在潜移默化中面临信息权利失衡的困境。当前新媒体语境下,女性或年轻群体会被认为是更有消费潜力的用户,算法也会向这类群体倾斜,这些群体的大数据标签也会更加精准详细,对其用户习惯的识别也更加符合其本身所在圈层,甚至在资本逻辑下,算法会主动“破圈”,去推荐超出其本身消费能力物品或认知框架的内容,以期进一步挖掘该群体的潜力。相反,一些更加需要数据去“灌溉”和“反哺”的对象如老年人、乡镇青年、偏远山区等群体则很容易被忽视,他们也许只是一个轮廓模糊、甚至被打上了某种刻板印象标签的画像,算法推荐于这些群体而言更像是固化他们固有圈层认知的“容器”。此维度还潜在影响着内容的创作生态,信息密度较高的优质内容在层层筛选中会更倾向于有更高权重的用户群体。
在去中心化的内容分发策略下,信息池中的所有内容都被进行标签化,导致人们难以超越自己的话题舒适圈,从而降低了获取新知识的机会。从另一个角度来看,算法推荐本身彻底改变了传播的公共性逻辑,新媒体平台实际上成为信息与受众之间的守门人。在日活跃用户增长的压力下,这些新媒体平台面临生存的挑战。将会不断涌现出更具普适性、理解门槛更低、能够更容易引起阅读兴趣的内容。然而,这些经过简化解释的知识往往可能是片面的、肤浅的,甚至存在错误,而真正有求知需求的群体直面这些被加工、被矮化的专业性较强的知识,表面上轻易拿到了知识的“入场券”,甚至在自认为听懂和“习得”之后发出“不过如此”的感叹,但实际上,他们学到的内容已悄然“变味”,而自以为学到知识的大众也早已在浅显易得的满足中逐渐丧失对于系统知识的探索欲,放慢求知的步伐,甚至裹足不前,虽然从科普的视角看具有一定的积极意义,但从长远看,削弱了科学的严谨性,不利于个人系统知识框架的建构和端正的求知态度的培养。
4. 反思及对策:多主体协同应对的路径探索
4.1. 政府层面:审查与立法的双重保障
4.1.1. 成立算法审查机构
算法推荐系统的运行是基于被关进“黑箱”的程序员编写的代码,这种不透明导致一旦算法在最初的设置中带有设计师的某种既有观点的底色或者在运行中经历了网络数据的清洗、训练之后,形成了带有“偏见”的运行规则,用户几乎完全处于被动接受算法推荐结果的状态。扰乱市场秩序,蚕食消费者利益,这种可能性是会存在的。但推荐算法又涉及商业利益,往往包含商业机密,企业的利益必然会受到威胁,如果完全向社会公开的话。所以成立一个算法审查机构,对各个平台的算法进行审核监督,既能保护公众的权益,又不至于对企业利益构成威胁。
4.1.2. 完善相关法律
算法推荐为商业资本对用户进行更进一步的剥削(即“注意力”的剥削)提供了捷径。在信息爆炸的时代,公众的有限的“注意力”成为被争夺的对象,拥有了公众的“注意力”相当于掌握了流量的密码,掌握了变现的“钥匙”,虽然我国立法中已经对网络隐私权的问题给予了一定的重视。但是从现实情况看,网络隐私权地位不明确、界定不统一、保护不具体、救济不到位的问题仍然存在,这也是我国网络隐私权保护面临的一个难题[14]。此外,我国法律对算法的责任主体尚不明确,其系统性和精准性亟待加强,而且应有明确的指向性,对违法行为的惩罚力度也要加大,不痛不痒的处理无法根绝“有意违法”。
针对上述问题,我国应进一步完善相关法律体系,明确网络隐私权的法律地位,统一界定标准,细化保护措施,并建立健全有效的救济机制。另外,对于算法责任主体的界定,我国法律尚不明确,需要进一步完善其系统性和准确性。法律条文应具有明确的指向性,对算法推荐过程中的侵权行为、数据滥用行为等作出明确界定。同时,应加大对违法行为的惩处力度,改变当前“违法成本低、违法收益高”的现状,通过严厉的处罚措施,从根本上杜绝“有意违法”行为的发生,从而为算法推荐技术的健康发展提供坚实的法律保障。
4.2. 行业层面:优化算法与平衡价值的实践
4.2.1. 维护用户的信息选择权,保障用户隐私安全
在数字化时代,企业在算法设计中需平衡商业利益与用户的信息选择权及隐私安全。目前,许多企业过度关注算法的商品推荐准确性和成交率,却忽视了用户的基本权利。用户信息选择权是指用户有权自主决定接收何种信息及如何使用信息,算法设计应尊重这一权利,提供多样化信息,避免信息茧房效应。
在隐私保护方面,技术手段至关重要。以淘宝为例,阿里巴巴团队开发的“GraphProtector”系统为隐私保护提供了有效方案。该系统通过多种隐私保护算法,应对网络数据隐私攻击,同时提供可视分析界面,实时监控隐私保护效果。它能够在保护隐私的同时,平衡数据质量变化,减少对后续数据挖掘的影响,并兼顾数据实用性,避免隐私暴露。“GraphProtector”系统的成功实践为行业提供了有益参考。企业应从以下几方面入手:一是加大隐私保护算法研发,借鉴成功案例,开发适合自身业务的技术;二是开发可视分析工具,帮助工程师优化隐私保护算法性能;三是完善用户隐私政策,明确数据收集、使用和保护方式,提供隐私设置选项;四是加强多方合作与监管,参与行业标准制定,与监管部门合作,建立隐私保护监管机制。
总之,企业在算法设计中应尊重用户信息选择权,保护用户隐私安全。通过借鉴“GraphProtector”等技术,优化算法设计,企业可在保障用户权益的同时,提升用户体验和商业价值,进而推动行业的健康可持续发展[15]。
4.2.2. 设计多维算法,回归价值理性
在数字化时代,平台产品设计与内容推荐机制的优化至关重要。为实现这一目标,需设计多维算法以回归价值理性,追求多维度均衡发展。以新闻生产为例,在新闻价值衡量方面,应摒弃单一指标,构建多样化衡量体系。点赞、评论、分享是用户与新闻交互的三种主要方式,分别代表不同意图。点赞体现认可,评论反映思考,分享则意味着高度认可与传播意愿,其权重可能更高。因此,衡量新闻价值不能仅以点击率为准,应将用户交互行为纳入重要指标。以分享行为为例,它不仅反映用户高度认可,还扩大了新闻传播范围,应赋予更高权重。通过多角度分析,可为符合用户偏好的新闻获得更多曝光量提供量化依据。多维算法可将用户行为数据转化为数值指标,实现新闻价值的量化评估,优化推荐算法,为从业者提供用户需求反馈。综上,设计多维算法是平台优化的重要方向。构建多样化衡量指标,综合分析用户行为并赋予不同权重,可全面评估新闻价值,提升推荐精准度,促进行业健康发展。
4.3. 用户层面:素养提升与主体意识的强化
4.3.1. 提升数据素养,增强隐私保护意识
所谓数据素养(data literacy),是指人们有效且正当地发现、评估和使用信息和数据的一种意识和能力。通常包含数据意识、数据获取能力、分析和理解数据的能力、运用数据进行决策的能力以及对数据作用的批评和反思精神[16]。彭兰教授认为,除了对数据的辨识与应用能力外,还应意味着批判性应用能力的深化。数据的风险意识、伦理意识,对算法的反思与使用中必要的节制,个人的数据保护意识、隐私意识等或许都是数据素养应涵盖的[17]。提升数据素养是增强用户隐私保护意识的关键。用户应具备对数据收集、使用和共享过程的清晰认知,了解自身数据在算法推荐中的角色,以及可能带来的隐私风险。通过提高数据素养,用户能够更加理性地评估算法推荐的内容,避免过度依赖算法推荐的个性化信息,从而减少隐私泄露的风险。同时,用户应主动学习隐私保护的相关知识,掌握隐私设置的使用方法,谨慎授权平台获取个人数据,避免在不安全的网络环境中暴露个人信息。
4.3.2. 树立主体意识,培养算法批判素养
麦克卢汉曾提出“一切媒介都是感官的延伸”。而在算法推荐内容的机制作用下,个体意识、价值观念在信息浪潮冲刷,在信息洪流中浮沉,必须牢固树立自我意识,明晰算法技术、甚至现在日新月异的AI技术的工具属性,做到“以我为主,为我所用”才能最大程度避免自身成为媒介的技术延伸,避免陷入“到底是人在使用工具?还是工具在使用人?”式的谜题中。
打破对算法的盲目崇拜,最重要的是了解算法推荐的技术逻辑后,增强自我控制能力,及时脱离低俗的娱乐内容。其次,主体意识还应体现在对公共世界的积极探索上。再次,谨慎使用公共WiFi,并注意应用程序是否请求访问“您的位置”。最后,特别是在阅读具有明显主观色彩的信息时,应关注来源和立场,仔细分析其整体逻辑结构。在后真相时代,可以选择暂缓判断,保持冷静思考,让子弹再飞一会儿,在众声喧哗后时间会成为去伪存真的法宝。
5. 结语
随着社会的不断发展进步,个性化算法推荐技术在未来一定会有更强大的算力、给用户更智能的“应答”,但随之而来的新问题一定也会如影随形。技术并非不可控的洪流,而是人类智慧的产物,理应服务于人类的更高追求。我们应当以人文关怀为指引,批判性地审视算法推荐技术的运行逻辑与价值取向。政府需加强审查与立法,为算法的透明与公正提供制度保障;行业应秉持责任与担当,优化算法设计,平衡商业利益与公共价值;用户则需提升自身素养,增强隐私保护意识,不被算法所“驯化”,主动探索多元信息世界。
技术的初衷是服务于人,而非主宰人。算法推荐技术的发展,不应以牺牲人类的自主性、隐私权和社会的公共性为代价。只有在尊重个体、保障权利、促进社会和谐的框架下,算法技术才能真正实现其应有的价值,成为推动人类社会进步的助力,而非潜在的隐患。应以批判的勇气和人文的温度,共同塑造一个更加健康、理性、包容的算法时代,让技术真正成为陪伴人类幸福生活的伙伴。