从“像人”到“可信”——AI虚拟主播的拟真性提升与新闻可信度构建的协同研究
From “Human-Likeness” to “Credibility”—A Synergistic Study on the Enhancement of Realism in AI Virtual Anchors and the Construction of News Credibility
摘要: 随着人工智能、动作捕捉以及语音合成等技术的飞速演进,传媒领域的生产逻辑与传播形态正在发生深刻变化。AI虚拟主播作为智能化的创新产物,已从早期的机械播报,演进为具备超写实外观、自然语音交互与动态表情的新媒介主体。国内媒体积极拥抱新技术,推出如新华社的“新小萌”、央视“王冠”等专属AI虚拟主播,并使其参与到重大事件报道中,应用场景覆盖时政新闻、民生播报、赛事解说等各领域。这一技术的应用不仅重构了新闻生产的“人机协同”模式,更引发关于AI虚拟主播的拟真性与新闻可信度之间的讨论。“像人”与“可信”之间的关系并非自然递进,而是一种充满辩证色彩的协同演进。拟真性的增强既为构建新闻可信度提供了机遇,也带来恐怖谷效应、伦理失范与真实性消解等严峻挑战。因此,本研究旨在系统梳理AI虚拟主播拟真性与新闻可信度之间的协同逻辑,剖析二者协同发展的现实困境,并提出针对性的优化路径,力图为新闻传播在人工智能时代的持续发展提供理论参考。
Abstract: With the rapid advancement of artificial intelligence, motion capture, and speech synthesis technologies, the production logic and communication structures of the media industry are undergoing profound transformations. As an innovative product of intelligent technologies, the AI virtual anchor has evolved from early mechanical broadcasting to a new type of media agent characterized by hyper-realistic appearance, natural speech interaction, and dynamic facial expressions. Chinese media organizations have actively embraced these emerging technologies by launching exclusive AI virtual anchors—such as Xinhua News Agency’s Xin Xiaomeng and China Central Television’s Wang Guan—and deploying them in the coverage of major events. Their applications now span political news, public affairs reporting, sports commentary, and other fields. The adoption of AI virtual anchors not only reconstructs the “human–machine collaboration” model of news production but also prompts renewed discussions on the relationship between virtual-anchor realism and news credibility. The connection between “human-likeness” and “trustworthiness” is not a natural or linear progression; rather, it represents a dialectical process of synergistic evolution. While enhanced realism offers opportunities for strengthening news credibility, it also introduces significant challenges, including the uncanny valley effect, ethical risks, and threats to authenticity. Therefore, this study aims to systematically examine the synergistic logic between AI anchor realism and news credibility, analyze the practical dilemmas in their co-development, and propose targeted optimization strategies, with the goal of providing theoretical guidance for the sustainable development of journalism in the era of artificial intelligence.
文章引用:侯婧薇. 从“像人”到“可信”——AI虚拟主播的拟真性提升与新闻可信度构建的协同研究[J]. 新闻传播科学, 2025, 13(12): 2242-2249. https://doi.org/10.12677/jc.2025.1312311

1. 引言

在这个媒介形态剧烈变革的时代,AI虚拟主播的兴起主要依靠技术驱动及媒体需求。从技术层面上看,AI大模型的出现使虚拟主播实现了从预录播报到实时交互的跨越,AI虚拟主播不仅能够呈现出高度逼真的表情、语音语调与肢体动作,还具备长效工作、高效产出、可定制化等特性,在各类传播领域中扮演着日益重要的角色[1]。从媒体需求层面来看,面对受众对新闻生产需求日益时效化、个性化的趋势,AI虚拟主播能够突破真人主播的时空限制,根据受众偏好定制内容形式,成为媒体降本增效、拓展传播场景的有效工具[2]。然而,技术上的持续发力,使部分媒体陷入“技术至上”误区,将拟真性等同于超写实的外观形象,忽视了新闻内容的准确性与虚拟主播的“身份透明性”[3]。虚拟主播拟真性方面的突破并没有转化为可信性的增强,反而可能引发受众对于虚拟性的不信任感。新闻业的核心在于公信力,当新闻的讲述者从血肉之躯的人类主播转变为由算法驱动的虚拟实体时,新闻可信度的构建机制必然发生根本性变化。

1.1. 研究意义

通过整合人机交互、传播学与伦理学等学科内容,本研究的学术意义体现在拓展人机协同传播的理论边界。传统研究多关注“技术至上”或聚焦内容形式对可信度的影响[4],而本研究试图突破技术功能主义的限制,将传播主体作为研究对象,探讨AI虚拟主播的拟真性特征与可信度构建的内在关联。现有研究多基于技术优化或伦理批判的单一视角,侧重伦理困境,但均未深入分析拟真性与可信度的动态协同关系[5]。本研究通过构建两者协同发展的分析框架,力图弥补现有研究重单向影响、轻互动关系的不足,呼应了媒介可供性理论对技术与传播实践互动关系的关注[6],为后续人工智能在新闻传播领域的相关研究提供理论参考。与此同时,本研究也具有实践价值,主要体现在对媒体机构、行业监管部门及受众三个层面的影响。就媒体机构而言,能够为媒体工作提供可操作的优化路径建议,帮助其在提升虚拟主播技术表现的同时,避免陷入“技术至上”的误区[7],更好地兼顾新闻传播的公信力与权威性,从而在未来的传媒格局中保持竞争优势。

1.2. 研究方法

本文采用文献调查法、类比分析法以及案例分析法进行综合探讨。首先,运用文献调查法系统梳理国内外关于AI虚拟主播、拟真性与媒介可信度可信度等相关研究成果,掌握研究现状及研究空白,为协同逻辑的构建奠定理论基础。其次,通过类比分析法,将AI虚拟主播与真人主播进行对比,探寻二者在传播效果、受众认知与信任建构方面的差异,明确AI虚拟主播可信度构建的特殊性,为协同逻辑的研究提供参照。此外,本文还将结合案例分析法,选取国内外具有代表性的AI虚拟主播案例,对其实践案例进行深度剖析,从中提炼出拟真性与可信度协同发展方面的具体表现、现实困境与优化路径。

1.3. 文献综述

自2018年起,国内学者开始了对AI虚拟主播的研究,研究内容多聚焦于技术实现与传播应用。一些学者聚焦于虚拟人物本身,认为通过技术优化可在表情细节、语音节奏和交互方式等方面显著提升其拟真性[8]。例如,央视的“王冠”主播研究重点在于“眼神交互”,经此细节的提升增强了受众的代入感,使其逐步具备“像人”的特质[9]。另一些学者则探讨AI虚拟主播在新闻传播中的应用价值,指出虚拟主播不仅可以降低人力成本,提升新闻生产效率,还能够满足年轻受众需求。随着研究的深入,学者们开始更多关注到新闻可信性与伦理问题。研究发现受众对虚拟主播的可信度感知主要取决于内容的准确性与信息来源的透明度,导致可信度危机的核心在于虚拟主播的“身份模糊”问题。

国外研究起步早于国内,更加注重技术伦理与可信度的研究。Smith在《AI虚拟主播的可信度三维模型》中指出,AI虚拟主播的可信度应从“内容维度”、“呈现维度”、“主体维度”三个层面进行评估,当“呈现维度”与“主体维度”不一致时,受众的可信度感知会下降40%以上[10]。Jones则对Deepfake (深度伪造)技术的负面影响较为关注,指出受众对虚拟主播的信任度与其外观逼真度呈现正相关,拟真性高的虚拟主播易被用于制作“虚假新闻”[11]。此外,日本学者森政弘提出的恐怖谷理论认为,当仿真机器人与人类的相似度达到一个临界点时,人类对其的好感度会急剧下降,并产生诡异和不安的感觉[12]。许多学者将这一理论引入对AI虚拟人的拟真性研究中,探讨其对受众信任的潜在负面影响。Wang通过眼动实验证明AI虚拟主播的表情自然度是引发恐怖谷效应的关键因素,当表情与所传达信息情感不一致,受众的可信度将大幅下降[13]

总体来看,国内外研究已形成技术应用、伦理风险、可信度评估三大研究脉络,但尚未形成“协同视角”。现有研究或侧重技术优化提升拟真性,或单独探讨可信度的影响因素,对AI虚拟主播拟真性与可信度的互动机制、动态平衡关系探讨尚显不足[14],这为本研究的开展提供了学术切入点。

2. AI主播拟真性与新闻可信度的协同逻辑

虚拟主播的拟真性提升与新闻可信度构建之间存在内在的协同逻辑,这一逻辑可通过媒介等同理论、社会临场感理论得到系统性解释[15]。根据媒介等同理论,人们倾向于以对待真人的方式对待媒介,高度拟真的虚拟主播能够激发更强的“社会临场感”,即受众感觉到与一个真实的社交伙伴在进行互动,这种临场感是建立初始信任的重要基础。这与Smith提出的可信度三维模型中“呈现维度”对可信度的影响机制相印证,说明拟真性通过优化“呈现维度”直接作用于可信度感知[10]。一个声音自然、表情丰富、动作协调的虚拟主播,相较于机械、刻板的早期数字人,更能传递出专业的气质,从而增强其在“能力可信度”维度的表现。据实验研究,在播放同一则“疫情防控政策”新闻时,使用“自然表情 + 流畅语音”的虚拟主播组,受众对新闻内容的可信度评分显著高于使用“机械表情 + 卡顿语音”的虚拟主播组[4]。此外,拟真性带来的“实时交互能力”,也能增强可信度,例如,央视虚拟主播“小C”在体育赛事解说中,可实时回应观众的弹幕提问,这种互动不仅提升了受众的参与感,更让受众感知到虚拟主播的信息权威性,进而强化对新闻内容的信任[9]。这一现象印证了Wang关于“表情自然度与交互流畅性正向影响可信度”的研究结论[13],同时拓展了其研究中仅关注单向传播的局限。从信息加工的角度看,符合人类认知习惯的拟真形象能够降低受众的认知负荷,使受众可以将更多认知资源用于理解新闻内容本身,而非费力解读传播者怪异的言行,这间接保障了传播效果的流畅性与可信度[3]。此外,新闻可信度的需求又为拟真性的提升指明了价值方向,避免技术陷入“无意义的真人化”,这一发现对森政弘的恐怖谷理论形成补充,通过可信度导向的技术优化,可在提升拟真性的同时规避恐怖谷效应[12]。新闻传播的核心目标是传递真实、客观的信息,这一目标决定了虚拟主播的拟真性提升不能仅追求外观逼真,而需围绕服务可信度展开[7]。例如,在深度调查报道中,虚拟主播的拟真性设计应侧重理性、中立的形象,避免过度情绪化的表情,语音语调保持平稳客观,因为这类报道的可信度依赖内容的逻辑性而非情感的感染力。而在民生新闻中,虚拟主播的拟真性设计则可增加亲和力细节,通过情感共鸣增强受众对新闻内容的信任[5]。这种可信度导向的拟真性优化确保了技术应用与新闻传播目标的一致,也回应了媒介可供性理论中“技术功能适配传播场景”的核心观点[6]

3. AI虚拟主播拟真性与新闻可信度协同发展的现实困境

3.1. 技术“碎片化”与恐怖谷效应,削弱新闻可信度

当前,AI虚拟主播虽已实现基本的语音、表情与动作模拟,但在情感表达与细腻互动方面仍显不足,呈现“碎片化”的形式,这直接影响受众对其“像人”程度的感知[8]。不同媒体机构采用的技术方案也有显著差异,一些媒体依托自研或合作开发的高端动作捕捉系统,虚拟主播的表情同步率可达90%以上,语音自然度接近真人,而部分地方媒体则使用低成本的“模板化”技术,虚拟主播的表情仅有基础类型,语音存在明显的“机械感”。这种技术差异将导致受众对虚拟主播的“可信度预期”混乱,即当受众习惯了央视虚拟主播的高拟真性后,再接触低成本虚拟主播时,会因“拟真性落差”降低对其播报内容的信任,形成“技术偏见”,这与Smith可信度三维模型中“呈现维度一致性影响信任感知”的结论相契合[10]。此外,尽管技术进步显著,但要完全跨越恐怖谷效应,实现全维度、无瑕疵的拟真,仍面临巨大挑战。当前许多虚拟主播在一些复杂的传播场景中,仍可能出现细微但可察觉的动作重复、表情僵化或语音合成在特定词句上的不自然[14]。尤其在处理突发新闻时,其反应的滞后性会暴露其非人的本质,例如,2024年某地发生地震时,虚拟主播在播报“救援进展”时,因算法无法实时处理最新数据,出现“重复播报旧信息”,“表情与内容脱节”的问题,备受质疑。这种技术与人类自然行为之间难以弥合的“最后一公里”差距,使得虚拟主播的拟真性始终处于一种不稳定的状态,随时可能从增强可信度的工具,转变为触发不信任感的源头。

3.2. 身份模糊与虚假信息风险,冲击可信度底线

如今,身份模糊是AI虚拟主播面临的核心伦理困境,虚拟主播与真人主播的界限被刻意模糊,受众在不知情的情况下接收了AI生成的内容,直接侵犯受众知情权,破坏可信度基础。尽管《网络信息内容生态治理规定》明确要求“AI生成内容需显著标识”,但实践中仍有部分媒体为提升传播效果,刻意弱化虚拟主播的“AI属性”。例如,某短视频平台的虚拟主播“小雅”,其外观设计为20岁左右的女性,播报风格与真人主播无异,且未在视频标题、封面或播报过程中标注“AI生成”。据平台数据数据显示,有62%的受众最初误认其为真人主播。后续得知真相后,78%的受众表示感觉被欺骗,以后不会再相信她播报的新闻。这种“身份欺骗”本质上是将拟真性作为吸引流量的工具,长期来看会导致受众对所有虚拟主播产生信任怀疑,形成行业信任危机。更为严峻的是,拟真性技术的滥用引发的虚假新闻风险正在严重冲击新闻行业的可信度底线,Deepfake技术与高拟真性虚拟主播的结合,使得虚假新闻的制作门槛大幅降低。2023年,某媒体利用AI生成的“中国虚拟主播”,播报“中国某企业存在数据造假”的虚假新闻,视频中虚拟主播的表情、语音与真人无异,且引用了“伪造的财报数据”,该视频在社交媒体传播后,导致该企业股价短期下跌5%,虽后续被辟谣,但仍造成了恶劣影响。此案例表明,拟真性高的虚拟主播已成为虚假信息传播的新型载体,其误导性远高于传统虚假新闻。与此同时,AI虚拟主播被赋予亲切的形象和名字,营造出人格化的亲近感,但其背后的决策主体却是隐匿的,这将引发受众对新闻责任归属的疑问。当新闻播报出现偏差或错误时,责任归属变得模糊,这种“有面孔的无主体”现象,使得问责机制难以落实,侵蚀了新闻业的问责性这一可信度基石。

3.3. 受众接受度分化与“技术依赖”陷阱,扭曲协同关系

受众对AI虚拟主播的接受度存在显著年龄分化,导致拟真性与可信度的协同效果在不同群体中差异巨大。据调查显示,18~30岁的年轻群体对虚拟主播的接受度最高,他们更关注拟真性带来的“科技感”与“互动性”,且能理性区分“拟真性”与“内容可信度”。而50岁及以上的中老年群体,对虚拟主播的接受度仅为32%,他们对其抱有天然的怀疑或排斥,普遍认为新闻播报需要真人的情感与责任感,虚拟主播是没有“灵魂”的,即使拟真性很高,也难以信任其播报的内容。这种受众群体的分化导致媒体在优化拟真性与可信度时必须进行更精细化的受众研究与分众传播。此外,媒体工作人员时常陷入“技术依赖”的陷阱,扭曲了拟真性与可信度的协同关系,导致形式大于内容。部分媒体将AI虚拟主播视为创新噱头,过度投入资源提升拟真性,却忽视了新闻内容的质量。例如,AI虚拟主播“小峰”,外观采用电影级渲染技术,细节精细到“毛孔、胡须”,但播报的新闻多为转载自其他媒体的通稿,缺乏原创性与深度。这种“重拟真、轻内容”的倾向,本质上是将拟真性作为掩盖内容短板的工具,而非强化可信度的助力,长期来看会导致受众对虚拟主播的信任疲劳,最终导致可信度崩塌。

4. AI虚拟主播拟真性与新闻可信度的协同优化路径

4.1. 统一技术标准,强化功能适配

在技术层面,首先应应借鉴《网络视听节目内容审核标准细则》的框架,构建AI虚拟主播拟真性技术标准体系,解决技术碎片化,并以此稳定受众可信度感知。建议由国家广电总局、中国网络视听协会牵头,联合各大媒体、技术公司,参考ISO/IEC 30141 (人工智能系统可信性指南)国际标准,制定《AI虚拟主播新闻应用技术规范》,明确拟真性核心指标的量化标准。在“外观”方面,规定虚拟主播的面部表情库,面部特征还原度误差不超过3%,避免过度超写实导致恐怖谷效应,肢体动作自然度通过动作连贯性评分;在“语音”层面,要求语音合成的自然度达到真人主播水平的80%以上,语调情感匹配度误差≤10%,多音字、专业术语发音准确率达100%;在“交互”层面,明确实时响应速度≤1.5秒,信息更新频率与官方信源同步时差不超过30秒,交互意图识别准确率≥92%。标准建立后,实行“分级认证制度”:一级适用于重大新闻播报、深度访谈等场景;二级适用于常规新闻、天气播报等场景;三级适用于娱乐资讯、数据可视化等场景,不同等级对应不同技术指标要求,让受众形成稳定的“可信度预期”[7],减少因技术差异导致的信任波动。同时,必须投入资源攻克恐怖谷效应,联合高校实验室开展“表情–情感匹配算法”研发,通过采集10万+真人主播新闻播报样本,建立情感表达数据库,确保虚拟主播表情与新闻内容情感一致。此外,需强化拟真性技术与新闻场景的“功能适配”,围绕新闻传播的时效性、准确性、客观性等需求优化功能,确保技术服务于可信度提升。例如,针对突发新闻,开发“实时数据对接 + 情感自适应”系统,让虚拟主播能快速获取最新信息,并根据内容调整表情与语音。还需建立“技术容错机制”,当虚拟主播出现信息错误或技术故障时,0.5秒内自动触发“纠错提示”,同时跳转至真人编辑审核界面,审核通过后方可继续播报,避免错误信息扩散。

4.2. 完善身份标注,严控虚假风险

在伦理与规范层面,构建信任的首要原则是强制性透明。任何由AI虚拟主播播报的新闻,都必须以清晰、显著且持续的方式向受众告知其AI身份。这不仅是尊重受众知情权的伦理要求,也是建立长期信任的前提。建议监管部门出台更细化的标注规范,包括标注位置、标注时机、未标注处罚等。首先,明确标注位置,要求虚拟主播在播报界面的显著位置持续显示“AI虚拟主播”标识,明确标识尺寸且颜色与背景形成明显对比;其次,强化标注时机,在虚拟主播首次出现、内容切换、重播时,均需通过语音或文字进行“身份提醒”;此外,严惩未标注行为,对刻意隐瞒虚拟主播身份的媒体,进行严重处罚。通过强制标注,让受众清晰认知虚拟主播的“AI属性”,避免“身份欺骗”引发的信任危机。与此同时,为严控虚假信息风险,需建立AI虚拟主播内容审核与溯源机制。在内容生产端,媒体需设立“虚拟主播内容审核岗”,所有由虚拟主播播报的新闻,均需经过“真人编辑审核 + 算法交叉验证”双重把关,虚拟主播引用的数据,需要工作人员将其与官方来源进行比对,确保准确性;在技术层面,开发“AI生成内容溯源系统”,为虚拟主播播报的每一条新闻添加“数字水印”,记录内容的生成时间、信息来源、审核人员,一旦出现虚假信息,可快速追溯责任主体;在国际层面,需与其他国家建立“虚假信息共享平台”,及时识别并阻断虚假内容的传播,维护全球新闻行业的公信力。

4.3. 开展媒介素养教育,优化反馈机制

在受众层面,应首先开展AI虚拟主播媒介素养教育,采取“分层教育”策略:针对青少年群体,将AI虚拟主播知识纳入中小学媒介素养课程,通过“案例分析”、“互动实验”等方式,培养其辨别拟真性与真实性的能力;针对中老年群体,通过社区讲座、短视频科普等形式,用通俗语言讲解虚拟主播的工作原理,并提供简单辨别方法,降低其对虚拟主播的“排斥感”。此外,媒体可通过制作“AI虚拟主播科普专栏”,如人民日报推出的“虚拟主播小课堂”,定期解读虚拟主播的技术进展、伦理规范,引导受众形成理性信任。另一方面,新闻机构在应用虚拟主播时应当根据传播场景进行差异化策略。可以将虚拟主播优先应用于数据播报、常规天气预告、体育赛事结果等标准化、程式化强的新闻领域,逐步建立其可靠的品牌形象。而对于涉及重大公共利益、情感复杂或需要深度评论的硬新闻,则仍以资深真人主播为主导,形成人机优势互补的新闻播报格局。同时,还应优化受众反馈机制,让受众参与拟真性与可信度的协同优化。媒体可在新闻客户端、短视频平台设立“虚拟主播反馈入口”,积极与受众互动,并及时调整其反馈的问题。这样不仅能提升虚拟主播的拟真性与可信度,还能增强受众的“归属感”,推动二者形成更紧密的协同关系。

4.4. 构建行业协同机制,明确新闻责任规范

在制度与行业层面,应借鉴互联网内容治理的“多方协同治理模式”,构建“媒体–技术公司–监管部门”三方协同机制,三方应各司其职又相互配合。媒体作为应用主体,需明确自身的可信度需求,例如在与技术公司合作时,应提出拟真性需服务于新闻客观性的要求,避免技术公司过度追求“真人化”;技术公司作为技术供给方,需根据媒体的可信度需求优化技术,以适配不同层级受众需求;监管部门应牵头制定《AI虚拟主播在新闻领域应用行业标准》,对身份标识、数据安全、隐私保护、伦理准则等内容进行明确规定。同时,探索建立AI内容溯源系统,搭建AI虚拟主播行业信用信息平台,采用区块链技术对虚拟主播生成的每条新闻进行上链存证,记录内容生成时间、信息来源、审核人员、技术支持方等核心信息,公开媒体、技术公司的资质认证、信用评级、违规记录等信息,使受众能够查询到新闻内容的原始信源和生成过程,增强传播过程的透明度。对于因虚拟主播播报内容引发的纠纷,应在收到违规举报或技术投诉后,24小时内启动核查,72小时内给出处理结果,复杂问题不超过7个工作日。并通过立法或司法解释等方式,明确内容提供方、技术提供方和播出平台方的法律责任,形成有效的法律约束。此外,行业协会也应发挥“桥梁”作用,定期组织三方开展协同研讨,邀请媒体分享应用经验、技术公司展示最新成果、监管部门解读政策导向,促进信息共享与合作。并通过建立行业信用评价体系,对在拟真性与可信度协同方面表现优秀的媒体、技术公司给予“信用加分”,对存在伦理违规、技术缺陷的主体进行“信用扣分”,通过“信用约束”推动行业整体向技术与可信度协同的方向发展。

5. 结论

AI虚拟主播从“像人”到“可信”的征程,是一场涉及技术、伦理、制度与受众心理的复杂系统工程。本研究通过系统性的分析指出,拟真性的提升与新闻可信度的构建之间,存在着一种相互促进又动态约束的协同逻辑。拟真性为可信度提供情感代入基础,可信度为拟真性指明优化方向的同时,拟真性的“阈值边界”约束可信度上限,可信度的伦理底线约束拟真性方向。当前,二者协同发展面临技术、伦理、受众认知的三大困境亟待解决,实现二者的良性互动。总体而言,AI虚拟主播的发展不能仅停留在“像人”的技术层面,更需回归新闻传播“传递真实、可信的信息”的核心。

面向未来,AI虚拟主播的发展应当通过技术标准构建、伦理规范完善、受众素养提升、行业协同闭环路径等层面实现协同。这要求技术开发者、新闻机构、监管者与公众共同参与,最终实现AI虚拟主播拟真性与新闻可信度的高水平协同。唯有如此,AI虚拟主播才能真正从技术的“奇观”,蜕变为赋能新闻业、服务公共利益、值得社会信赖的新型传播主体。未来的研究可进一步聚焦于不同文化背景下受众对虚拟主播可信度感知的差异,以及长期接触AI虚拟主播对公众新闻消费习惯与媒体信任格局的深远影响。

参考文献

[1] 苏畅, 袁媛. 人工智能虚拟主播在新闻传播中的实践路径与社会争议研究[J]. 声屏世界, 2025(12): 43-45.
[2] 陈仙蓉. 智媒时代AI虚拟主播在新闻传播中的应用路径研究[J]. 新闻研究导刊, 2025, 16(9): 15-18.
[3] 王昊罡. AI虚拟主播语言与形象类型对用户持续消费意愿的影响研究[D]: [硕士学位论文]. 郑州: 河南财经政法大学, 2025.
[4] 高诗越. AI虚拟主播的传播效果及优化策略[J]. 记者观察, 2025(12): 17-19.
[5] 王一, 董婕. 智媒视域下AI虚拟主播的伦理困境及应对[J]. 新闻潮, 2024(6): 34-36.
[6] 丁红菊, 张雷昊. 真人主播的“数字化身”: 媒介可供性视域下AI虚拟主播对新闻业的重塑与掣肘[J]. 北方传媒研究, 2023(6): 17-24.
[7] 荆华. AI虚拟主播在新闻媒体转型中的应用现状与应对策略[J]. 中国广播电视学刊, 2025(2): 99-102.
[8] 王晓丽. 浅谈AI数字人作为虚拟主播的技术应用和发展建议[J]. 网络视听, 2025(6): 76-78.
[9] 但志鹏. AI主播与虚拟现实技术在新闻直播中的融合实践[J]. 新闻世界, 2024(12): 13-15.
[10] Smith, J. (2022) The Three-Dimensional Model of AI Virtual Anchor Credibility. Journal of Media Technology, 8, 45-62.
[11] Jones, M. (2023) Deepfake Technology and the Risk of Disinformation in Virtual Anchor Broadcasting. International Journal of Communication, 17, 189-207.
[12] Mori, M. (1970) The Uncanny Valley. Energy, 7, 33-35.
[13] Wang, L. and Li, Y. (2021) Eye-Tracking Study on the Influence of Virtual Anchor’s Emotional Expression on Audience Credibility Perception. Computers in Human Behavior, 121, Article 106689.
[14] 徐铭昊. 智能化时代AI虚拟主播发展的挑战与出路[J]. 传媒, 2023(21): 53-55.
[15] 周建诚. 人工智能时代AI虚拟主播与传统播音主持的融合策略[J]. 网络视听, 2024(19): 70-72.