AI助手对员工绩效反馈的影响机制研究——以社媒电商行业为例
Research on the Impact Mechanism of AI Assistants on Employee Performance Feedback—Taking the Social Media E-Commerce Industry as an Example
摘要: 进入数字化时代以后,人力资源将在绩效管理,尤其是绩效反馈这一环节面临挑战。本文以人工智能绩效反馈助手为研究对象,通过问卷调查,比较了“专家”与“伙伴”两种社会角色在工作情景下,社媒电商行业员工的绩效反馈接受意愿。研究结论表明:该行业员工更愿意接受伙伴型AI绩效助手的绩效改进建议,此结论是源于如今的职场AI绩效反馈助手尚未完全实现高度拟人化,尚不至于产生“恐怖谷”效应,有限的互动程度和较强的分析能力在一定程度上会建立对AI绩效反馈助手的好感。
Abstract: After entering the digital era, human resources will face challenges in performance management, especially in the aspect of performance feedback. This article takes the artificial intelligence performance feedback assistant as the research object, and through a questionnaire survey, compares the willingness of employees in the social media e-commerce industry to accept performance feedback under two social roles: “expert” and “partner” in the work scenario. The research conclusion shows that employees in this industry are more willing to accept performance improvement suggestions from partner AI performance assistants. This conclusion is due to the fact that AI performance feedback assistants in the workplace have not yet fully achieved a high degree of anthropomorphism, and have not yet produced the “uncanny valley” effect. Limited interaction and strong analytical ability will, to some extent, establish a favorable impression of AI performance feedback assistants.
文章引用:徐娟, 吴继忠. AI助手对员工绩效反馈的影响机制研究——以社媒电商行业为例[J]. 电子商务评论, 2025, 14(12): 4443-4451. https://doi.org/10.12677/ecl.2025.14124388

1. 引言

2015年亚马逊开发了一套人工智能系统用以监控员工的工作状态,并将其纳入绩效考核[1]。近年来,愈来愈多的企业在职场中运用算法,这既减轻了人力资源管理者的繁琐工作和责任,又提高了组织效率[2]。由此可见,将人工智能融入绩效管理逐渐成为现实,并快速发展。

数据显示,2022年只有17%的企业在数字化转型方面成绩突出,同时,中国企业数字化转型指数首次出现下降[3]。学者们发现,企业管理者更愿意依赖自身直觉而不是算法来做决策[4];零工工作者会抗拒由平台算法做出的工作规划和绩效评估[5] [6],甚至会从采用算法的平台离职[7]。因此,数字化升级不仅面对着创新带来的资本和技术壁垒,还面对着由组织、员工和消费者对算法的拒绝和回避组成的“用户壁垒”,这给企业数字化转型发展构成了障碍[8]

前人学者在促进人工智能与企业的融合上作出了极大的贡献,但目前尚未看到有关人工智能的社会角色定位对员工绩效反馈接受度影响的相关研究。

因此,本研究从社会角色出发,将人机信任感作为中介变量,探究在普通职员与人工智能绩效反馈助手的互动过程中,人工智能所扮演的社会角色对个体绩效反馈接受度的影响,对该关联进行解释性检验,并基于研究结论对数字经济背景下的绩效管理体系提出了相关建议。

2. 理论基础及研究假设

2.1. 人工智能的社会角色对绩效反馈接受度的影响

随着GPT-4、Claude3.0等高级AI系统的问世,人工智能不仅展现出日益增强的生成功能,还逐渐发展出丰富的情感智能,使得AI能够与人类进行更为复杂和自然的社会交往与情感互动[9] [10]。新兴技术的引入改变了员工的工作惯例和原有的利益分配结构,通常会加剧员工的不确定感,并加大遭到抵制的可能性[11]。而且,即便算法比人类决策者更优越,人们仍然会有“算法厌恶”的表现[12] [13],甚至为了反对AI决策选择牺牲效率[14] [15]。这种情感反应可能造成员工在接受AI绩效反馈时会有更多顾虑。

许多学者都强调了人工智能的社会性特征,认为即便用户知晓机器人的身份,他们仍会采用和现实人类交往的方式与机器人进行互动,这与媒介等同理论效应相符[16]。在招聘过程中,参与者认为人工智能无意中可能会放大训练数据中的偏见,从而造成结果的不公平[17]。因此,AI在人力资源管理中的应用,尤其是在绩效管理中,面临着员工的信任问题。而通过拟人化技术——包括外观[18]、声音[19]、动作[20]、心理能力[21]等不同层次的拟人化操作,或许会改变用户对人工智能的消极态度。

研究表明人机情感依恋和智能语音助手的拟人特性存在正向关联,即拟人化设计有助于促进人机之间的情感纽带[22]。此外,人性化的表达与友好的态度可以让用户无知觉中将机器人视为普通用户[16]。这些发现表明,将拟人化人工智能作为绩效反馈助手,一定程度上对增强员工接受意愿是有正向作用的。

进一步的研究指出,与具有工程师特质的数字化装置相比,具有朋友特质的数字设备更能唤起用户的品牌温暖感知[23];并且拟人化产品更能引导他们增加消费[24],并将产品视为朋友并保存更长时间,他们认为替换它是对朋友的不忠诚[25]。接着,研究人员的实验结果进一步表明,拟人化程度(人类化vs.机器化)与社会角色(仆人角色vs.顾问角色)对人机情感依恋有显著影响[26]。即其人物形象和交流方式都更像真人并担任顾问角色时,消费者的情感依恋更强。类似地,沈鹏熠等(2023)通过单因素组间实验发现,朋友型聊天机器人能够显著提升用户的控制感和身份认同感,从而提高用户的情感依恋程度[27]。这些研究表明,在职场环境中,当AI助手扮演“伙伴”角色时,能提升员工的情感依恋,使其更愿意接受AI提供的绩效反馈建议。

本文根据上文对于伙伴与仆人角色定义,参考Rhee (2020) [28]的智能语音设计思路,从正式-非正式确立了分类体系,结合职业场景,分别选择了伙伴以及专家两种角色。

其中“伙伴型”角色定位于非正式关系,可以被看作是有益于自身绩效提升和自我学习的信息源,互动的语气类似朋友之间的日常聊天,沟通更富有个性。互动环节将以“亲爱的小伙伴”作为对话的开头,采用“你”、“咱们”等非正式用词进行沟通。对于正式角色而言,本文选择“专家”而不选“仆人”,对于企业而言,“专家”可以被看作一种技术引用。互动环节将以“孙专员”作为对话开头,采用“说明”、“根据数据分析”等正式用词。

基于上述文献回顾与理论推导,可以认为在普通职员工作场景下,鉴于普通职员的绩效反馈更多是简单决策,伙伴型AI助手能增强用户对人工智能的情感依恋,进而增强对其反馈建议的接受度,具体假设如下所述:

H1:在社媒电商行业员工作场景中,相比“专家”型绩效反馈助手,员工更偏好于接受“伙伴”型AI助手的绩效反馈建议。

2.2. 人机信任的中介作用

学者们指出,信任涵盖认知和情感两个维度[29],人工智能凭借强大的数据分析和处理能力能够提高绩效反馈的准确性,并消除人类在绩效反馈中的主观性和偏见性[30] [31]。申和朴(2019年)研究了公平性、问责制和透明度(FAT)在预测用户对算法满意度方面的作用,发现信任度较低的用户问题持更怀疑的态度[32]。申的后续的研究中,进一步探索了FATE(公平性、问责制、透明度和可解释性)、信任和接受度[33]之间的关系,并发现信任在塑造对人工智能技术的积极认知和用户体验方面起着关键作用。过去针对人工智能在不同场景中的信任情况展开诸多研究,包括算法新闻[34]、医疗保健人工智能[35]、以及用于招聘和工作评估的人工智能[31],上述文献发现,信任在人们对人工智能的接受过程中占据重要地位。

已有研究表明,借助人工智能技术剖析员工绩效数据,能大幅增强绩效分析的精准度和反馈质量,最终促进员工的生产力的提高[30]。然而,当员工收到来自人工智能的绩效反馈时,往往会对反馈建议产生负面看法,并不愿意按照人工智能的指令进行改进,这种对AI的抵抗会影响员工生产力。这体现出人工智能在绩效反馈的复杂影响,一方面人工智能拥有强大的技术支持,另一方面其接受度受到信任度的影响。这一系列研究表明,人工智能在设计上融入相关角色特质,对促进人机关系上是有影响的。

人工智能融合了功能与类人的能力[36],学者对此作出了研究:朋友型聊天机器人可能会提高顾客在人机交互过程中的愉悦与温暖感知,进而促进情感依恋[23],智能助手的具身化能够增强信任,因为用户能更好地感知其社会关系存在[37] [38];拟人化与更强的信任恢复力相关,能够防止信任丧失[18]

结合相关文献分析与理论推导,本文提出以下假设:

H2:不同类型AI绩效反馈体系社会角色对反馈接受意愿的影响过程中,人机信任感起到中介作用。

H3:朋友类型AI绩效助手更能增强员工对智能助手的信任,进而增强社媒电商行业员工的接受意愿。

3. 前测实验

本文以视频的方式呈现员工与AI绩效助手的互动过程,并以字节跳动巨量引擎作为AI绩效助手的载体;“林顿”与“启明”被选为“专家型”与“伙伴型”AI绩效助手的名称,并通过被试满意度测试,排除名称可能对实验结果产生的影响。在正式实验中,研究者根据日常办公场景编写对话内容,利用阿里云平台智能语音交互制作语音条,仅智能助手的语音有所区别,并制作实验视频,确保素材适用于正式实验。

前测实验在见数平台采用HBO行为实验法进行,测试参与者对智能助手的感知度。实验向被试展示了4种情境,其中包含1个测试情境。观看结束后,被试对情景喜爱程度做出判断(q = 喜欢,w = 不喜欢)并填写语音偏好问卷,此过程的决策时间会被记录用于数据统计。

HBO行为实验共招募了40名被试,结果表明,被试最喜欢情景的频次依次为成熟女声 (N = 22)、成熟男声(N = 11)、儿童女声(N = 7)和;关于是否喜爱情境的选择上,频次依次为成熟女声(N = 32)、成熟男声(N = 21)、儿童女声(N = 17)。研究发现,可能是因对体验差、易引发抵触的智能语音能更快作出反应,所以被试对“q (喜爱)”的反应时间长于“w (不喜欢)”。

上述HBO行为实验初步验证被试对成熟女性声线的喜爱度更高,进一步地,研究者对被试反应时间展开探索。实验分析首先排除了性别因素的影响(p > 0.05),单因素方差分析结果表明,被试对成熟女声的“q”反应时间与儿童女声有显著差异,而与成熟男声无显著差异,(M成熟女声 = 8754 mS, M儿童女声 = 11654 mS, p < 0.05; M成熟女声 = 8754 mS, M成熟男声 = 9815 mS, p > 0.05),结合以上结果,实验表明被试对成熟女声的喜爱度更高。

在本次研究中,共招募了80名被试参与社会角色感知实验,分别观看2组实验视频素材,剔除无效问卷,得到“伙伴组”(N = 34)、“专家组”(N = 34)两组数据。为检验AI绩效助手社会角色的塑造效果,采用Rhee和Choi (2020) [28]设计的智能产品角色评价量表,结合本研究的角色类型,围绕AI助手的语气、沟通方式等四个维度设置角色测量量表;

由于绩效反馈助手应用于特定工作场景,前测实验将被试限定为社媒电商平台从业者,并且将使用过AI助手作为实验前提,以免专业知识不足干扰实验结果与智能助手满意度。

统计结果表明,本研究在对智能助手的角色塑造上是易于区分的。具体而言,伙伴组AI助手的伙伴特质分数要显著高于专家特质分数(N = 34, M伙伴型 = 5.72; M专家型 = 4.57; F = 4.825, p = 0.019 < 0.05);专家组AI助手的专家特质分数要显著高于伙伴特质分数(N = 24, M专家型 = 5.69; M伙伴型 = 4.61; F = 9.021, p = 0.003 < 0.01)。在满意度方面,“林顿”和“启明”无显著差异(M伙伴型 = 6.37; M专家型 = 6.29; p = 0.457)表明助手名称偏好对研究没有影响。

在职业选择方面,本文针对社交媒体电商平台进行研究,选取了3种候选的高客观性的职业:数据分析师、广告投放师和市场营销专员以及3种候选的高主观性职业:客服、社交媒体内容创作者、市场营销专员。由40名被试完成上述六类职业的性质测试,最终确定使用性质均衡的社媒运营任务(M社媒 = 4.17)作为实验一材料。在实验二中将以广告投放作为高客观性任务,客服作为高主观性任务((M广告投放 = 6.02, M客服 = 1.47, p < 0.05)进行实验。

4. 人机信任中介效应检验

4.1. 实验设计与流程

首先,问卷包含甄选、人机信任感(Choung等,2023 [39]; Hu等,2021 [40])、绩效反馈接受意愿(吴继飞等,2020 [41])和人口统计信息四个模块。其中人机信任感共有9个题项,包含功能信任和类人信任两个维度,类人信任又分为仁慈和诚实两个维度[28],人机信任感和绩效反馈接受意愿量表见表1。两组被试分别观看一分半左右的AI绩效反馈视频素材,听取AI的相关绩效反馈和建议。视频中被试的身份为社交媒体运营人员,该岗位的工作任务同时具有客观属性和主观属性,能避免因任务类型的属性带来的信任偏差。

Table 1. Measurement scale

1. 测量量表

变量

名称

题目

因变量

绩效反馈接受意愿

在上述实验情景中,我愿意遵从AI助手的绩效反馈建议

在上述实验情景中,我愿意接受AI助手的分析

在上述实验情景中,我愿意根据AI助手的建议提高绩效

中介变量

人机信任感

我的AI助手的反馈建议对我完成绩效是有帮助的

我的AI助手在该领域的见解是专业的

我的AI助手在与我的互动中有效且是具备胜任力的

我的AI助手致力于帮助我完成工作,而不是出于私利

我的AI助手会注意我在工作中的心情而适当措辞

我如果寻求帮助,我的智能助手会尽力协助我

我的AI助手是诚实的,没有故意给我错误的建议

我的AI助手在与我打交道时是诚实的

我的智能助手是真诚的

实验使用单因素组间设计,探讨专家型和伙伴型对AI绩效反馈建议的影响机制,并检验人机信任感的中介效应。本实验在见数平台共招募120名被试,设定被试职业为社交媒体运营人员才可作答,通过询问被试工作中是否接触过AI绩效反馈助手、以及AI使用频率等相关问题对被试做出甄选。在剔除未通过甄选题和回答质量较差的问卷后,共获取有效样本100份,其中“专家”组50人,“伙伴”组50人。

4.2. 统计分析

本文采用SPSS软件对数据进行信度和效度检验,结果如表1所示,各变量的Cronbach’ α值都大于0.7,因此该量表的整体信度较高。

本研究先排除了性别、年龄、学历对AI助手满意度的影响(p > 0.05),独立样本t检验结果表明,面对“专家”和“伙伴”两种角色时,使用者更愿意接受伙伴型的绩效反馈建议(M伙伴型 = 6.09, SD = 0.71; M专家型 = 5.74, SD = 0.79; t = −4.08, p < 0.001)。

Table 2. Results of variable reliability analysis

2. 变量信度分析结果

变量

Cronbach’s Alpha系数

项数

推荐接受意愿

0.752

3

人机信任

0.778

9

关于人机信任感对AI绩效反馈接受意愿的中介作用,如表2所示。结果显示,在人机信任感方面,参与者表现为“伙伴”组高于“专家”组(M伙伴型 = 6.06, SD = 0.51; M专家型 = 5.76, SD = 0.57; t = −8.05, p < 0.01)进一步对上文中的功能信任与情感信任层面进行比较检验,发现伙伴型在与员工之间的类人信任的建立上强于专家型,而在功能信任维度与专家型无显著差异(M伙伴功能 = 6.08, M专家功能 = 6.10, p = 0.77; M伙伴类人 = 6.05, M专家类人 = 5.53, p < 0.001),这表明,在工作场景中,员工对伙伴型AI助手的信任度要高于专家型,因此H3得到验证。

表3中,仅纳入“角色类型”时,模型解释力较弱(调整后R² = 0.108),但仍显著(F = 12.945, p = 0.001),说明角色类型对意愿具有正向预测作用(β = 0.342, p = 0.001)。第二步引入“人机信任”后,模型拟合度提高(调整后R² = 0.181),且“人机信任”显著预测意愿(β = 0.347, p = 0.002),而“角色类型”变得不显著(β = 0.143, p = 0.200)。表明在人机信任的加入下,角色类型的预测力下降。从回归结果可以看出,当“人机信任”未进入模型时,“角色类型”对意愿的预测显著(β = 0.342, p = 0.001)。但在“人机信任”加入模型后,“角色类型”的回归系数下降为0.143,且不再显著(p = 0.200),而“人机信任”对意愿的影响显著(β = 0.347, p = 0.002)。这表明“人机信任”在“角色类型”影响“意愿”的关系中起到中介作用。

Table 3. Results of stepwise regression analysis

3. 逐步回归分析结果

指标

模型1 (角色)

模型2 (角色 + 信任)

角色类型

β = 0.342, p = 0.001

β = 0.143, p = 0.200

人机信任

β = 0.347, p = 0.002

调整后的R²

0.108

0.181

F值

F = 12.945, p = 0.001

F = 11.975, p = 0.000

依据Preacher等(2007) [42]以及Hayes (2013) [43]给出的Bootstrap检验法,再度开展中介效应检验。本研究通过采用Bootstrap检验法,验证了角色(林顿vs启明)对接受意愿的影响及其通过人机信任感(功能信任与类人信任)的中介作用。根据数据分析,人机信任在角色和接受意愿之间起到了显著的中介作用。如表4,社会角色对接受意愿的总效应达到了0.353,且置信区间为[0.158, 0.548],区间不包含零,表明社会角色对接受意愿的整体影响是明显存在的。但进一步研究发现,社会角色对接受意愿的直接效应为0.148,相应的置信区间是[−0.080, 0.375],涵盖零,说明直接效应不显著。相反,通过人机信任的间接效应为0.205,置信区间为[0.079, 0.329],不包含零,表明通过人机信任,角色对接受意愿的影响是显著的。这意味着人机信任在角色与接受意愿之间发挥了关键的中介作用,尽管角色的直接效应不显著,但通过人机信任,两者之间的关系变得显著。因此,人机信任在这一模型中起到了完全中介作用,因此H2成立。

Table 4. Analysis of the mediating utility of human machine trust

4. 人机信任的中介效用分析

效应

效应Effect

95%执行区间

结果

总效应

0.353

[0.158, 0.548]

显著

直接效应

0.148

[−0.080, 0.375]

不显著

间接效应

0.215

[0.079, 0.329]

显著

5. 总结

本文基于人机互动原理,研究了AI绩效助手的社会角色对社媒电商行业员工绩效反馈接受意愿的影响机制。具体而言,电商工作中,伙伴型社会角色的AI绩效反馈助手更能让员工接受绩效反馈建议,此结论是基于如今的职场AI绩效反馈助手尚未完全实现高度拟人化,尚不至于产生“恐怖谷”效应,有限的互动程度和较强的分析能力在一定程度上会建立对AI绩效反馈助手的好感。

本研究的贡献在于,首先,本文拓展了互动角色的研究视角,以往人机互动原理相关研究多聚焦于通用的人机交互场景及体验等方面,本文将其具体应用到AI绩效助手与员工绩效反馈这一特定情境中,深入探究不同社会角色的AI绩效助手对员工反馈接受意愿的影响,拓宽了人机互动理论在组织管理及绩效反馈领域的应用范围,为后续研究从更多维度剖析人机互动在工作场景中的作用机制提供了参考案例。

其次,本研究丰富了影响机制,详细阐述了AI绩效助手的社会角色如何通过不同路径影响员工绩效反馈接受意愿,比如伙伴型因为高度拟人化、互动程度与分析能力的综合作用而被员工接受,这一机制的发现加深了对人机互动中情感、功能等多因素交织影响员工心理及行为的理论理解,有助于完善人机互动理论中关于特定工作辅助工具影响个体行为的相关内容。

参考文献

[1] Delfanti, A. (2019) Machinic Dispossession and Augmented Despotism: Digital Work in an Amazon Warehouse. New Media & Society, 23, 39-55. [Google Scholar] [CrossRef
[2] Chalfin, A., Danieli, O., Hillis, A., Jelveh, Z., Luca, M., Ludwig, J., et al. (2016) Productivity and Selection of Human Capital with Machine Learning. American Economic Review, 106, 124-127. [Google Scholar] [CrossRef
[3] 裴嘉良, 刘善仕, 崔勋, 等. 零工工作者感知算法控制: 概念化、测量与服务绩效影响验证[J]. 南开管理评论, 2021, 24(6): 14-27.
[4] Allen, R. and Choudhury, P. (2022) Algorithm-Augmented Work and Domain Experience: The Countervailing Forces of Ability and Aversion. Organization Science, 33, 149-169. [Google Scholar] [CrossRef
[5] Möhlmann, M., Zalmanson, L., Henfridsson, O. and Gregory, R.W. (2021) Algorithmic Management of Work on Online Labor Platforms: When Matching Meets Control. MIS Quarterly, 45, 1999-2022. [Google Scholar] [CrossRef
[6] 陈龙. “数字控制”下的劳动秩序——外卖骑手的劳动控制研究[J]. 社会学研究, 2020, 35(6): 113-135, 244.
[7] Liang, C., Peng, J., Hong, Y. and Gu, B. (2023) The Hidden Costs and Benefits of Monitoring in the Gig Economy. Information Systems Research, 34, 297-318. [Google Scholar] [CrossRef
[8] 罗映宇, 朱国玮, 钱无忌, 等. 人工智能时代的算法厌恶: 研究框架与未来展望[J]. 管理世界, 2023, 39(10): 205-233.
[9] Manser Payne, E.H., Dahl, A.J. and Peltier, J. (2021) Digital Servitization Value Co-Creation Framework for AI Services: A Research Agenda for Digital Transformation in Financial Service Ecosystems. Journal of Research in Interactive Marketing, 15, 200-222. [Google Scholar] [CrossRef
[10] van Doorn, J., Mende, M., Noble, S.M., Hulland, J., Ostrom, A.L., Grewal, D., et al. (2016) Domo Arigato Mr. Roboto: Emergence of Automated Social Presence in Organizational Frontlines and Customers’ Service Experiences. Journal of Service Research, 20, 43-58. [Google Scholar] [CrossRef
[11] Oreg, S. and Michel, A. (2013) The Psychology of Organizational Change: Viewing Change from the Employee’s Perspective. Cambridge University Press.
[12] Dietvorst, B.J., Simmons, J.P. and Massey, C. (2018) Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them. Management Science, 64, 1155-1170. [Google Scholar] [CrossRef
[13] Burton, J.W., Stein, M. and Jensen, T.B. (2019) A Systematic Review of Algorithm Aversion in Augmented Decision Making. Journal of Behavioral Decision Making, 33, 220-239. [Google Scholar] [CrossRef
[14] Bigman, Y.E. and Gray, K. (2018) People Are Averse to Machines Making Moral Decisions. Cognition, 181, 21-34. [Google Scholar] [CrossRef] [PubMed]
[15] Longoni, C., Bonezzi, A. and Morewedge, C.K. (2019) Resistance to Medical Artificial Intelligence. Journal of Consumer Research, 46, 629-650. [Google Scholar] [CrossRef
[16] 钟智锦, 李琼. 人机互动中社交机器人的社会角色及人类的心理机制研究[J]. 学术研究, 2024(1): 18-25.
[17] Martin, K. and Waldman, A. (2022) Are Algorithmic Decisions Legitimate? The Effect of Process and Outcomes on Perceptions of Legitimacy of AI Decisions. Journal of Business Ethics, 183, 653-670. [Google Scholar] [CrossRef
[18] de Visser, E.J., Monfort, S.S., McKendrick, R., Smith, M.A.B., McKnight, P.E., Krueger, F., et al. (2016) Almost Human: Anthropomorphism Increases Trust Resilience in Cognitive Agents. Journal of Experimental Psychology: Applied, 22, 331-349. [Google Scholar] [CrossRef] [PubMed]
[19] Adam, M., Wessel, M. and Benlian, A. (2020) Ai-based Chatbots in Customer Service and Their Effects on User Compliance. Electronic Markets, 31, 427-445. [Google Scholar] [CrossRef
[20] Fraune, M.R. (2020) Our Robots, Our Team: Robot Anthropomorphism Moderates Group Effects in Human-Robot Teams. Frontiers in Psychology, 11, Article 1275. [Google Scholar] [CrossRef] [PubMed]
[21] Moussawi, S. and Koufaris, M. (2019) Perceived Intelligence and Perceived Anthropomorphism of Personal Intelligent Agents: Scale Development and Validation. Proceedings of the 52nd Hawaii International Conference on System Sciences, Hawaii, 8-11 January 2019, 115-124. [Google Scholar] [CrossRef
[22] Singh, R. (2021) “Hey Alexa-Order Groceries for Me”—The Effect of Consumer-VAI Emotional Attachment on Satisfaction and Repurchase Intention. European Journal of Marketing, 56, 1684-1720. [Google Scholar] [CrossRef
[23] Wu, J., Chen, J. and Dou, W. (2016) The Internet of Things and Interaction Style: The Effect of Smart Interaction on Brand Attachment. Journal of Marketing Management, 33, 61-75. [Google Scholar] [CrossRef
[24] Hur, J.D., Koo, M. and Hofmann, W. (2015) When Temptations Come Alive: How Anthropomorphism Undermines Self-Control. Journal of Consumer Research, 42, 340-358.
[25] Chandler, J. and Schwarz, N. (2010) Use Does Not Wear Ragged the Fabric of Friendship: Thinking of Objects as Alive Makes People Less Willing to Replace Them. Journal of Consumer Psychology, 20, 138-145. [Google Scholar] [CrossRef
[26] Zhang, A. and Patrick Rau, P. (2023) Tools or Peers? Impacts of Anthropomorphism Level and Social Role on Emotional Attachment and Disclosure Tendency Towards Intelligent Agents. Computers in Human Behavior, 138, Article ID: 107415. [Google Scholar] [CrossRef
[27] 沈鹏熠, 李金雄, 万德敏. “以情动人”还是“以理服人”? 人工智能聊天机器人角色对顾客情感依恋的影响研究[J]. 南开管理评论, 2025, 28(3): 27-39.
[28] Rhee, C.E. and Choi, J. (2020) Effects of Personalization and Social Role in Voice Shopping: An Experimental Study on Product Recommendation by a Conversational Voice Agent. Computers in Human Behavior, 109, Article ID: 106359. [Google Scholar] [CrossRef
[29] Johnson, D. and Grayson, K. (2005) Cognitive and Affective Trust in Service Relationships. Journal of Business Research, 58, 500-507. [Google Scholar] [CrossRef
[30] Tong, S., Jia, N., Luo, X. and Fang, Z. (2021) The Janus Face of Artificial Intelligence Feedback: Deployment versus Disclosure Effects on Employee Performance. Strategic Management Journal, 42, 1600-1631. [Google Scholar] [CrossRef
[31] Lee, M.K. (2018) Understanding Perception of Algorithmic Decisions: Fairness, Trust, and Emotion in Response to Algorithmic Management. Big Data & Society, 5, 1-16. [Google Scholar] [CrossRef
[32] Shin, D. and Park, Y.J. (2019) Role of Fairness, Accountability, and Transparency in Algorithmic Affordance. Computers in Human Behavior, 98, 277-284. [Google Scholar] [CrossRef
[33] Shin, D. (2021) The Effects of Explainability and Causability on Perception, Trust, and Acceptance: Implications for Explainable Ai. International Journal of Human-Computer Studies, 146, Article ID: 102551. [Google Scholar] [CrossRef
[34] Shin, D. (2020) Expanding the Role of Trust in the Experience of Algorithmic Journalism: User Sensemaking of Algorithmic Heuristics in Korean Users. Journalism Practice, 16, 1168-1191. [Google Scholar] [CrossRef
[35] Lee, M.K. and Rich, K. (2021) Who Is Included in Human Perceptions of AI? Trust and Perceived Fairness around Healthcare AI and Cultural Mistrust. Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems, Yokohama, 8-13 May 2021, 1-14. [Google Scholar] [CrossRef
[36] Krafft, P.M., Young, M., Katell, M., Huang, K. and Bugingo, G. (2020) Defining AI in Policy versus Practice. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, New York, 7-9 February 2020, 72-78. [Google Scholar] [CrossRef
[37] Kim, K., Boelling, L., Haesler, S., Bailenson, J., Bruder, G. and Welch, G.F. (2018) Does a Digital Assistant Need a Body? The Influence of Visual Embodiment and Social Behavior on the Perception of Intelligent Virtual Agents in Ar. 2018 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Munich, 16-20 October 2018, 105-114. [Google Scholar] [CrossRef
[38] Waytz, A., Heafner, J. and Epley, N. (2014) The Mind in the Machine: Anthropomorphism Increases Trust in an Autonomous Vehicle. Journal of Experimental Social Psychology, 52, 113-117. [Google Scholar] [CrossRef
[39] Choung, H., David, P. and Ross, A. (2022) Trust in AI and Its Role in the Acceptance of AI Technologies. International Journal of HumanComputer Interaction, 39, 1727-1739. [Google Scholar] [CrossRef
[40] Hu, P., Lu, Y. and Gong, Y. (2021) Dual Humanness and Trust in Conversational AI: A Person-Centered Approach. Computers in Human Behavior, 119, Article ID: 106727. [Google Scholar] [CrossRef
[41] 吴继飞, 于洪彦, 朱翊敏, 等. 人工智能推荐对消费者采纳意愿的影响[J]. 管理科学, 2020, 33(5): 29-43.
[42] Preacher, K.J., Rucker, D.D. and Hayes, A.F. (2007) Addressing Moderated Mediation Hypotheses: Theory, Methods, and Prescriptions. Multivariate Behavioral Research, 42, 185-227. [Google Scholar] [CrossRef] [PubMed]
[43] Hayes, A. (2013) Introduction to Mediation, Moderation, and Conditional Process Analysis. Journal of Educational Measurement, 51, 335-337.