摘要: 在人机交互中,用户的许多行为都透露着丰富而微妙的情感信息,通过与用户进行文本/语音对话,AI在与人的对话交互中考虑情感信息,使机器具备理解、回应人的情感的能力,由此用户与AI互动中形成“被理解”的心理幻觉,本研究聚焦于人工智能情感识别系统中的“被理解的错觉”现象,旨在揭示算法通过拟人化语言与共情模板如何在传播实践中建构用户的情感感知。研究采用情境模拟与跨平台文本分析方法,选取六类典型情绪场景(正向与负向各三类),并对三个主流AI平台的回应进行编码与比较。结果表明,当前情感识别AI普遍通过情绪标签化反馈、模板化共情句式与第一人称拟人化表达,营造“情感在场感”,进而引导用户产生被理解感与媒介信任。然而,这种情感反馈模式易导致情感误读、依赖与责任归属模糊等风险。研究指出,未来算法情感设计需在亲和力与真实性之间取得平衡,避免过度情感拟态,并提出情绪生成机制透明化与用户媒介素养提升等治理建议。
Abstract: In human-computer interaction, users’ behaviors often convey rich and subtle emotional cues. Through text and voice dialogues, artificial intelligence incorporates emotional information during interactions, enabling machines to understand and respond to human emotions. This process can induce a psychological illusion of “being understood” in user-AI interactions. This study focuses on the phenomenon of the “illusion of being understood” within AI-based emotion recognition systems and seeks to reveal how algorithms, through anthropomorphic language and templated empathic expressions, construct users’ perception of emotional understanding in communicative practice. Employing scenario simulation and cross-platform textual analysis, six representative emotional contexts (three positive and three negative) were examined, and the responses from three major AI platforms were coded and compared. The results demonstrate that current affective AI systems commonly utilize emotion-labeling feedback, formulaic empathetic statements, and first-person anthropomorphic expressions to create a sense of “emotional presence”, thereby fostering perceived understanding and media trust. However, this mode of emotional feedback also entails risks, including emotional misinterpretation, user dependency, and blurred responsibility attribution. The study highlights the necessity of balancing sociability and authenticity in the future design of algorithmic affective systems, avoiding excessive emotional mimicry, and advocates for greater transparency in emotion-generation mechanisms as well as enhanced user media literacy.
1. 引言
情感识别,是AI系统通过语音、图像、文本等信息识别用户情绪状态的技术。AI情感识别技术的起源可以追溯到20世纪60年代由约瑟夫·魏岑鲍姆(Joseph∙Weizenbaum)开发的ELIZA系统。该系统能够模拟心理治疗师的对话风格与用户聊天。即使其本质上并不具备真正的理解能力,但仍然展示了人工智能在模拟情感交流方面的潜力[1]。如今以自然语言处理、机器学习和情绪识别为基础,生成式AI能够模拟情感交流的过程。通过与用户进行文本/语音对话,AI可以“理解”用户的情感状态并提供个性化的建议和支持[2],人工智能在传播过程中从最初的工具属性,到现在具备“交流主体”、“拟人中介”甚至“情感参与者”的身份,呈现出鲜明的阶段性转变。
第一阶段AI作为技术工具,承担数据处理和信息优化的功能,新闻机构使用自动化写作程序来生成体育或财报快讯;第二阶段传播进入平台时代,媒介权力向算法倾斜,AI作为传播通道的算法中介,在一定程度上决定大众可以“看什么”、“不看什么”,平台可以根据用户行为特征推送定制化内容,如TikTok、抖音的“兴趣流”;进入第三阶段,AI身份逐渐从“工具”向“传播主体”发生转变,例如AI主播在新闻发布中替代真人播报;同时拟人化设计让AI由“工具”变为“对话者”,用户开始将其视为“陪伴者”、“倾听者”、“共情者”。用户会对这些AI倾诉情绪,甚至发展出情感依赖,例如社交聊天机器人Replika的产品宣传语称其“一直准备着倾听和谈话,一直在你身旁”,开发者鼓励用户与Replika中的“AI伙伴”一起探索各类人际关系[3]。
在人机交互中,用户的许多行为都透露着丰富而微妙的情感信息,通过与用户进行文本/语音对话,生成式AI能够模拟情感交流的过程。这种拟人化行为使他们适合作为谈话伙伴、朋友,甚至浪漫伴侣[4]-[6]。在人机研究中拟人化被用于解释互动中的认知及情感活动,拟人化是个体在与非人对象互动过程中,出于认知理解、情感连接与社会动机等心理需求,主动赋予其人类特征、动机或心理意向的过程。它不仅是个体对技术的心理适配机制,也作为一种意义生成方式嵌入人机共生的传播结构中,深刻影响了人机互动中的情感体验与主体认同[7]。
“机器情感指的是AI系统借助技术手段而表现出的一种外在层面的类人情感”[8]。认知心理学奠定了用户心智模型和认知过程的理论基础,促使人机交互效能研究从理性主义视角向情感、认知驱动的交互体验视角转变,实现了人机情感和交互行动的耦合[9]。
基于此,本文引入拟人化、媒介等同、算法信任和传播认知偏差等理论,从人机情感交互的背景出发,试图回答以下问题:1) 用户在与具备情感识别能力的人工智能交互中如何产生“被理解的错觉”(算法情感识别系统是如何在传播实践中建构“被理解”的感知体验的)?2) 这种“情感误读”对用户的媒介信任、依赖与情感投射有何影响?将导致什么样的传播风险?通过回答以上问题,本研究将揭示AI在感知层面塑造“类人”交互体验背后的传播误读机制,警示公众对“被算法理解”的认知偏差,拓展“情感计算”“算法传播”与“拟人化媒介”在传播学语境下的理论边界,回应人工智能时代的“智能传播信任危机”。
2. 文献综述与理论基础
2.1. 研究回顾
当前研究普遍认为,人工智能通过语义网络分析、情境模拟与算法诱导实现基础情感识别功能。机器可基于用户输入生成情感反馈(如Replika的“情感算法”通过认知镜像投射深化移情[10] [11]),并在教育、陪伴等场景中塑造集聚型情感支持[12]。郝祥军等提出机器的情感生成逻辑依赖“拟人形象 + 情境感知 + 陪伴服务”的技术组合,通过模拟人类情感反应建立连接[13] [14]。然而,这种识别存在本体论缺陷:在功能主义、符号主义范式下,情感被视为可计算的功能符号[15],缺乏对人类情感复杂性的深度理解。当前关于情感识别的研究从技术路线上正由单点识别走向多模态、情境敏感与服务情境的整合,但“识别–表达–体验”的闭环仍存在人机语义错位与场景迁移不足的问题。当前技术仍然难以突破“经验主义与先验主义的双重认识困境”,陈国媛的田野观察进一步证实,AI情感互动多停留在“浅层次交互性”,无法实现真正的交往性[16]。
即使虚拟形象、自然语言交互及个性化服务通过“视觉/听觉可供性”可以进一步激发用户情感投射[17] [18]。算法交互推动人机关系从“主客二分”转向“主体间性”,甚至形成“固态亲密”的稳定联结[19]。拟人化属性虽然为角色定位奠基,但“身体离席”限制了信任的进一步深化[20]。“媒介即人/第六媒介”的提出强化了技术主体能动性与交往革命的叙事,将智能机器人定位为重塑人际/人内传播的新型主体[21];从技术中心转向意义中心与可供性视角,机器身体化与具身共在对意义共创与信任稳固具有重要意义。
关于“被理解幻觉”的证据主要来自三类研究:第一,对话体验中的理解错觉——ChatGPT的“类人理解力”容易被语言表征遮蔽,人机交流存在信息偏差与情感隔阂[22];陈国媛的田野与个案研究也揭示“表层/假性亲密”与算法塑形的风险[16]。第二,界面表征与关系脚本诱发的错配——化身形象与听觉意象不匹配会导致评价下降,印证了“被理解幻觉”的多模态触发机制[18];第三,在以Replika为代表的人机亲密关系研究中,出现了一种值得注意的现象:用户常常会把自己的情感和期望投射到人工智能上,而算法则通过特定的设计和回应方式不断强化这种投射。这种互动形成了一个循环——用户情感投入,算法加以诱导,进而带来价值观、隐私以及依赖上的风险[11] [19] [23]。随着时间推移,这种驯化–反向驯化–去驯化–再驯化的往复过程会使用户因为“并未真正被理解”而感到落差甚至情感受伤。
综上,现有研究揭示了人机情感连接的技术逻辑,提出了“主体间性”范式,构建驯化、可供性等理论解释情感实践。但具有一定程度的技术决定论倾向——过度强调算法能动性,忽视用户抵抗[24]。即使现有研究证明AI情感识别与拟人化表征能够在一定条件下提升被支持感与互动质量,但“理解的表演性”与“社会标签效应”导致的被理解幻觉与传播误读同样显著;人机情感交互的进一步发展不在于继续“提高识别率”,而在于建立跨模态一致的表征策略、显性化AI身份与能力边界、以“校准信任”为目标设计解释/披露机制,并发展可复用的“误读诊断–干预评估”研究范式[25]-[28]。
2.2. 理论框架
2.2.1. 媒介等同
美国学者巴伦·李维斯和克利夫·纳斯在20世纪90年代提出媒介等同的概念,认为人们在接触媒体时会无意识启动社会性反应机制,人类在与媒介交互时会本能地以人际交往规则对待其行为。该理论包括三个核心维度:认知等同机制、社会交互规则、拟人化投射。其中拟人化投射指出在社交机器人的交互设计中,用户会通过情感寄托机制赋予机器社会行动者属性,赋予机器拟人化的“幻象”。随着机器的行为更为智能,受众群体的媒介交互经验更为复杂[29],拟人化掩盖了机器的工具本质,用户易误认机器具备情感主体性——“乐观偏误”[13];据此解释为何用户在与AI互动时会产生亲近、信任或依赖,为“人际传播规则迁移到人机传播”的过程提供理论依据。
2.2.2. 被理解的错觉
被理解的错觉是指用户在与人工智能交互中,因算法情感识别与表达策略而误以为对方准确理解自身情绪或意图的心理体验。人机情感交互中,“拟人化幻象”作为前提,使AI“像人”,基于模板化、统计性或预测性结果,通过共情语言、镜像回应、支持性反馈,从而让用户产生“被理解”的结果。这一过程可以概括为:界面和回应方式提供拟人化线索→用户形成“拟人化幻象”→AI的回应强化了“被理解感”→用户对AI建立信任,并在正向或过度的情况下投射情感→最终可能产生依赖或行为反馈(见图1)。本研究关注的重点,不在于AI识别情绪的技术准确性,而在于用户“感受到理解”的心理机制及其误读。我们提出了“拟人化幻象–错觉–信任”的链式模型,用以解释人机交互中的心理–传播耦合,并强调“情感误读”可能带来的风险及其对设计与伦理治理的启示。
注:拟人化线索:第一人称、表情符号、情感化语气、头像/声音、延迟模拟思考;被理解感:主观;信任类型:功能性信任、情感性信任、校准偏差;后果:情绪舒缓/恶化、满意度、持续使用意愿、情感依赖。
Figure 1. Human-computer interaction emotional misinterpretation model
图1. 人机交互情感误读模型
3. 研究设计与方法
本研究通过文本及传播界面分析AI输出文本中话语结构、语气、情感表征、拟人化表达,探索其如何激发用户的“被理解”感受,突出关注AI在回应时的文本表现特点,主要聚焦人称、句式、情绪标签以及回应风格等。通过文本编码分析AI反馈如何参与“信任感”和“情感错觉”的传播建构。
本次选取三个AI平台作为实验分析对象(编号为A、B、C),通过6组不同的情境设定交互(3组正向情绪情境和3组负面情绪情境,编号为1~6),收集其反馈信息进行编码解构。见表1。
Table 1. Text analysis coding
表1. 文本分析编码
维度 |
示例 |
说明 |
拟人化语言 |
“我明白你的感受” |
使用第一人称表达理解 |
共情句式 |
“这一定让你很难受” |
典型的情感回应模板 |
肯定与支持性回应 |
“你已经做得很好了” |
正向反馈,引导信任 |
倾听暗示 |
“请告诉我更多” |
模拟人类倾听者的语言行为 |
非事实类回应 |
“我会一直在你身边” |
超越信息检索,趋向陪伴承诺 |
表情/符号 |
表情/符号 |
附加语气或情感强化符号 |
4. 研究发现
情感智能作为具身智能所具备的一项基本能力,与人类情感具有明显不同的外显表现。机器情感具有建构性、模仿性、具身性、计算性的特征,而非情感的深层生理与内在心理机制[8]。也就是说,AI的情感回应并不基于对用户的共情,而是一种反射性的运作机制,通过对用户输入信息的解构,计算出用户可能希望得到的情绪回应。具体则表现为文本回应语气、称谓的使用、互动的节奏等等。通过对三个平台在六个情绪情境下的回应文本进行编码与统计,研究发现各平台均呈现出高度相似的情感回应结构。拟人化语言(如“我理解你的感受”)与共情句式(如“这一定让你很难受”)是最为高频的特征,其次为肯定与支持性回应、倾听暗示与表情符号使用,而非事实类回应(如“我会一直在”)则处于较低水平。
结果表明,当前主流情感识别型AI系统在传播实践中已形成一套“情绪标签化 + 模板化共情 + 第一人称代入”的回应机制,并通过有限度的正向反馈维系互动节奏,其形成机制主要体现在以下几个方面。
(一) 即时性与无条件的积极关注
即时响应可以让用户感到被高度重视和关注,模仿了理想化人际交往中的“随时在线”特性。在语气上全程使用积极、支持、肯定的语气(“太棒了!”“恭喜!”)和庆祝表情;这种无条件的正向反馈,满足了用户对情感支持的心理渴望。
(二) 深度拟人化与关系性人称
频繁使用第一人称“我”和第二人称“你”模拟双向对话。例如:“我能感受到你现在的难过和委屈”(A)、“我理解你为什么会感到生气和不公平”(B)、“我能感受到你的紧张和焦虑”(C)。这种用法直接建构了一种准社会关系[30] [31],让用户感觉是在与一个关心自己的“主体”而非“工具”交谈。
(三) 情感验证与内容复述
情感验证与内容复述是制造“被理解”感的核心技术。AI会精准抓取并复述用户输入中的情绪关键词。根据用户输入的情绪会精确反馈像“我能感受到你现在的难过和委屈”(A)“听到你正经历这样的情绪(难过/委屈)”(C)此类肯定。这种情感镜像过程[10],让用户觉得自己的情绪被准确接收和映射,从而产生被深度理解的错觉。
(四) 结构化、行动导向的互动节奏
除了回应情绪,AI会提供清晰的下一步行动建议,将抽象情感转化为具体任务。这种“共情 + 解决方案”的模式极具说服力。在面对用户输入的负面情境时,会提供如“4-7-8呼吸法”、“三步法行动建议”、“情绪–行动分离四步方案”等。这种问题解决式的回应[12],极大地增强了用户信任感和依赖感。
基于社会交互规则,人类会本能运用礼貌、互惠等社会准则与媒体互动。用户最典型的误读,在于将算法生成的、模板化的共情回应,误认为是基于独特情境的、发自内心的理解。这种错觉是通过关键词触发与模式匹配等算法实践建构的。正如C在场景3中坦白的,其核心是文本分析(情绪词、标点、句式)和上下文推理。当用户说出“兴奋”、“难过”、“生气”等词时,算法会触发预置的、概率最高的共情回应模块[15] [32]。由于AI学习了人类共情时的大量语言模式(如“这一定很难受”、“我明白你的感受”),并将这些模式符号化,组合成一套高效但缺乏真情实感的话语体系[33]。其次,AI“自信”的表达掩盖了不确定性。尽管AI在追问下会说明自身局限(“我可能的理解偏差”),但在大多数初始回应中,AI会以高度肯定、确信的语气给出回应,避免了“可能”、“也许”等模糊词汇。这种表达方式有力地掩盖了其推断的或然性本质,强化了“被理解”的错觉。
5. 讨论与分析
“我们向机器人索取什么,就代表我们需要什么。”——雪莉·特克尔。许多用户在“有意识”的前提下依旧愿意采纳拟人化的视角[34],赋予机器行动意义,此刻拟人化不再是人类中心的投射,而是将机器视为一种客体化的行动者加以推测,并尝试共享一定的社会及文化实践经验,与机器建立全新的关系语境[7]。过往对于人机关系的探讨多在准社会互动的框架之下,准社会互动是一种关于亲密关系的幻觉[35],而基于准社会互动产生的关系多被认为是单方面的,是由表演者控制的且不易于双方共同发展的。情感误读根植于人机本质差异:机器情感基于数据建模,人类情感依赖生命体验。这种不对称性导致三重误读:1) 用户对机器的误读:人类将情感自主性赋予机器,实则机器情感是“商品化产物”[36];2) 机器对用户的误读:算法难以捕捉情感语境,反馈偏离真实需求;3) 社会性误读:
人机亲密关系冲击传统伦理,引发“情感真实性解构”与“所有权悖论”[10]。
此类情感误读容易提高用户对媒介的信任与依赖,因为它提供了一种无压力、无评判的“完美倾听”。尤其对于有人际交往焦虑或社交回避心理的用户[37],AI成为了一个安全的情绪避风港,这可能进一步削弱其发展现实人际关系的动力。长期接受标准化、套路化的情感回应,可能导致用户对现实中复杂、粗糙、需要努力经营的真实情感关系失去耐心和感知能力而出现情感钝化[24]。除此之外,在与AI进行情感交互的过程中,个人最深层、最私密的情感数据被平台捕获。这些数据可能被用于优化广告投放或训练更精准的操纵模型,形成一种深刻的“情感劳动剥削”[38],即用户在用隐私和情感数据换取即时安慰。
本研究虽然在揭示人工智能情感识别系统中“被理解的错觉”形成机制方面取得了一定的探索性成果,但仍存在若干局限:主要来源于情境模拟与跨平台AI对话的研究数据难以全面反映真实用户在自然交互中的行为与感知;人类拥有强大的、复杂的可能混合的多样化情绪,仅从正向和负向的情境出发限制了研究结果的普适性。因此进一步的研究应结合更多真实用户数据、扩展情绪类型与交互语境,并深入整合纵向追踪、跨文化对比与多模态分析方法,以实现对算法情感识别的更全面与动态的理解。
6. 结论与启示
情感识别AI通过拟人化语言与共情模板有效提升互动亲和度,却同时构建了“被理解的错觉”。通过高度相似的即时响应、拟人化人称、情感验证复述和行动导向建议,成功地建构了用户“被理解”的感知体验。这种体验源于算法对海量人类共情话语的模式识别与高效模仿,而非真正的理解。智能机器人提供了一种轻盈的情感、“自由又安全”的情感,“既能够提供一种作为近似安全感的恋爱体验,又无须为此付出自由的代价。”它可以用来治愈孤独、焦虑、抑郁。现有研究也确实证明用户在理性疲倦状态下更易将媒体内容视为真实存在,人们通常在孤独、社交回避、低成本陪伴等动机下与AI建立关系。但这种定制式的亲密关系面临着技术逻辑与情感逻辑的内在冲突[39],长期来看,可能导致情感依赖、现实社交技能退化、隐私剥削以及深刻的情感幻灭风险。即使人机情感交互可突破时空与信任的限制,但并不能完全替代线下的具身情感互动[40]。当前AI情感交互技术揭示了技术发展的巨大潜力,但同时也警示我们必须对其中潜藏的风险保持清醒的伦理审视[41]。