AI助手驱动社媒电商绩效反馈优化:影响机制与边界条件——基于有调节的中介分析
AI Assistant-Driven Performance Feedback Optimization for Social Media E-Commerce: Impact Mechanism and Boundary Conditions—Based on Moderated Mediation Analysis
摘要: 数字化时代的到来为人力资源管理研究提出新命题,在绩效管理的诸多构成要素中,绩效反馈环节与人工智能的接洽与优化,是我们共同的重要议题。本文以人工智能绩效反馈助手为研究对象,通过对社媒电商行业员工开展问卷调查,对比分析了“专家”与“伙伴”两种社会角色在工作情景下,员工任务类型对人机信任感的调节效应。研究结论表明:(1)“专家”型智能反馈助手对于客观任务而言,增强人机信任感的作用更大,从而促进员工接受反馈意见。(2) “伙伴”型智能反馈助手对于主观任务而言,增强人机信任感的作用更大,从而促进员工接受反馈意见。基于上述结论,本文提出了企业接入AI绩效助手的相关建议。
Abstract: The advent of the digital era has posed new challenges for human resource management research. Among the various components of performance management, the integration and optimization of performance feedback with artificial intelligence (AI) is a crucial topic for our collective discussion. This paper takes AI-based performance feedback assistants as the research subject. Through a questionnaire survey conducted among employees in the social media e-commerce industry, it compares and analyzes the moderating effect of employee task types on human-machine trust in the context of work, focusing on two social roles: “expert” and “partner”. The research findings indicate that: (1) For objective tasks, “expert” type intelligent feedback assistants have a greater impact on enhancing human-machine trust, thereby facilitating employees’ acceptance of feedback. (2) For subjective tasks, “partner” type intelligent feedback assistants have a stronger effect on enhancing human-machine trust, thus promoting employees’ acceptance of feedback. Based on these conclusions, this paper proposes relevant suggestions for enterprises to integrate AI-based performance assistants.
文章引用:徐娟, 吴继忠. AI助手驱动社媒电商绩效反馈优化:影响机制与边界条件——基于有调节的中介分析[J]. 电子商务评论, 2026, 15(2): 743-750. https://doi.org/10.12677/ecl.2026.152213

1. 引言

在企业推进数字化转型的当下,AI已经是企业员工工作场景中常用的工具,在人力资源方面也是如此。AI凭借自身快速的响应能力和计算能力,在工作中表现出强大的客观性、高效性优势,逐渐成为企业人力资源管理方面的重要工具。但AI除了拥有强大的计算能力之外,却也常常被人认为是冰冷的、无感情的,员工因此对AI产生了不信任感。同时,绩效反馈是人力资源管理中的重要一环,它可以赋能员工的职业成长,优化组织效能,因此针对AI对绩效反馈接受意愿的影响边界条件是重要的。

此前作者发表于本刊的研究以社媒电商行业员工为研究对象,探究了人工智能社会角色为自变量,人机信任为中介变量,员工绩效反馈接受意愿为因变量的研究模型。其核心结论在于,AI绩效反馈助手通过塑造不同的社会角色影响人机信任感,从而影响员工对AI给出的绩效反馈接受程度。具体而言,伙伴型智能助手凭借非正式的互动模式与平易近人的沟通风格,更能获得员工的信任,建立更高的人机信任度。而专家型智能助手因正式的语言风格,在情感建立上相对弱势,所以员工的接受意愿更低。人机信任在角色与接受意愿之间发挥了关键的中介作用,尽管角色的直接效应不显著,但通过人机信任,两者之间的关系变得显著[1]。该研究为人工智能在社媒电商行业的优化路径提供了新视角,拓宽了人机互动理论在绩效反馈领域的应用范围。

尽管前作已清晰解释了人工智能的社会角色影响员工接受意愿的中介机制,但与此同时,不同任务类型也存在于职场环境中:比如存在客观任务或者主观任务的区分,他们在AI对员工接受意愿的过程中又发挥着什么作用。基于以上缺口,本研究引入员工任务类型作为调节变量,构建有调节的中介模型并展开研究。

2. 理论基础及研究假设

2.1. 人工智能的社会角色对绩效反馈接受度的影响

已经有多位学者强调了人工智能社会维度的重要性,指出即使用户已经意识到他们在于机器人互动,他们依旧会下意识地使用与人交往的方式与机器人进行沟通,这一结果与媒介等同理论是非常相符合的[2]。此外,应聘者认为,在招聘的过程中,应用人工智能会加大他们的担忧,比如可能会放大偏见,难以保证竞聘的公平性[3]。这对在人力资源管理中引入人工智能,尤其是在绩效管理中,带来了信任挑战。研究发现,通过外观[4]、声音[5]、动作[6]、心理能力[7]等不同层次的拟人化技术的应用,能一定程度降低使用者对人工智能的信任危机。

进一步的研究表明,与“工程师型”的数字设备相比,“朋友型”更有可能让用户对品牌产生温暖感[8],并且拟人化产品更能驱动消费者做出消费行为[9]。后续研究人员的实验结果进一步表明,拟人化程度(类人型vs.机械型)与社会角色(仆人角色vs.顾问角色)均显著影响人机情感依恋[10]

本研究基于“朋友型”与“仆人型”角色的现有区分,参考前人学者的智能语音设计框架[11],设计了正式–非正式两种沟通模式,为适应社媒电商的职业场景,设计了“伙伴型”和“专家型”两种社会角色。

2.2. 人机信任感的中介作用

人工智能技术同时具备了功能性特质与拟人化特征[12],现有研究表明,亲和的朋友型聊天机器人能够提升人机沟通过程中的愉悦感与亲近感,进而加强了用户对聊天机器人的情感依恋[8],拟人化智能助手对建立信任有较大毗益[13]

作者在前作开展的实证研究中,已经证实了人机信任感的中介作用机制。具体而言,被赋予不同社会角色的人工智能绩效助手,会通过影响人机信任水平,进而作用于员工对智能工具所提供绩效反馈的接受意愿。更确切地说,在社媒电商行业从业者群体中,伙伴型人工智能绩效助手在增强员工对智能工具信任度方面效果更为显著,从而大幅提升员工对绩效反馈建议的接纳程度[1]

2.3. 有调节的中介

客观型任务靠的是逻辑、讲求规则的操作分析,而主观任务更靠感觉、情感和经验[14]。格利克森和伍利(2020年)明确,任务特征可预测认知信任,拟人化则可预测对人工智能的情感信任[15],这为理解人机信任关系提供了关键切入点。任务类型对信息检索行为存在显著作用,Vuong等人的研究表明,用户在执行创造型任务时投入时间更多[16]。此外,学者指出,使用者的资讯检索策略与模式在执行不同的任务时会出现显著差异。比如在执行事实型任务、解释型任务和探索型任务时,使用者会采取不同方法[17]。由此可见,任务类型会影响用户对人工智能的依赖性。

在探讨人工智能决策和反馈对个体影响的研究中发现,任务类型在个体对人工智能技术的态度上有着重要的影响[18]。Yeomans等人(2019)发现,在预测笑话趣味性的任务中,参与者对算法的依赖程度低于人类[19],而Logg等人(2019)研究发现,在数字任务中,与人类相比,参与者更依赖算法[18]。人工智能在执行不同任务时,对人机信任感的影响也是不同的:Castelo等学者(2019)研究发现,AI多数情况被认为是缺乏情感的机器,因此执行主观任务时,人们对人工智能算法的信任会减少;而对客观任务,用户对算法决策的信任度会更高[20]

拟人化的社交机器人能够通过情感互动增强用户的信任感,进而提高用户对其建议的接受度。这些发现表明,依托于使用算法的任务类型和任务感知的方式,用户对人工智能的信任感会有所不同。

伙伴型AI助手能减少使用人员对AI的戒备与反抗,拉近与使用人员的情感联结。而专家型AI助手以强大的计算能力和指导性人格作用于使用者,更强调给出权威的建议。因此在涉及情感或者感官的主观任务,伙伴型AI更能取得员工信任。相反,针对需要专业知识或需要计算能力的客观任务,专家型AI更能取得员工信任。

综上所述,本研究在前作的基础上,引入员工任务类型作为调节变量,构建有调节的中介模型并展开研究,具体如下:

H1:在AI影响人机信任感的过程中,职场员工的任务类型是有调节作用的。

H1a:“专家”型智能反馈助手对于客观任务而言,增强人机信任感的作用更大,从而促进员工接受反馈意见。

H1b:“伙伴”型智能反馈助手对于主观任务而言,增强人机信任感的作用更大,从而促进员工接受反馈意见。

3. 有调节的中介效应检验

3.1. 实验设计与流程

作者通过实证分析已经证明了,人机信任感在AI绩效助手的社会角色在影响员工接受意愿的路径中起到中介作用,因此,本文实验重在研究员工任务类型对人机信任感的调节作用,构建有调节的中介模型。

实验采用了视频形式模拟员工与AI助手的互动场景,两种类型的AI助手分别被命名为“专家型”的“林顿”与“伙伴型”的“启明”,研究者根据日常办公场景设计脚本,借助阿里云平台制作语音素材,制作人机互动视频。

本研究在见数平台共招募了240名参与者,均从事社媒电商工作,且均具有使用AI绩效反馈助手的经验。主观任务与客观任务分别为客服和广告投放师,该设计已在前作的前测实验得到验证[1]。实验采用双因素组间设计,包含 “伙伴型”vs“专家型”*员工任务类型(主观任务vs客观任务)两组。“伙伴型”角色设定为非正式关系,作为支持员工的信息来源于同行者,其交往的风格轻松,类似朋友间的聊天方式。为更适应职场环境,专家型角色则代替仆人型角色,对话中使用正式用词。被试被随机分配至伙伴型–广告投放师组、伙伴型–客服组、专家型–广告投放师组和专家型–客服组四个组。

各组被试观开对应的AI助手互动视频,被试作为主人公,以第一视角与自己的语音助手互动。观看后按序填写包含筛选问题、人机信任(Hyusen, 2023 [21];Hu和Peng, 2021 [22])、绩效反馈接受意愿(吴继飞,2020 [23])和人口统计信息四个模块。如表1所示,人机信任量表包含功能信任与类人信任两个维度,共计9个题项。

Table 1. Measurement scale

1. 测量量表

变量

名称

题目

因变量

绩效反馈接受意愿

我愿意采纳AI助手提出的绩效改善建议

我认可AI助手的分析结论

我愿意按照AI助手的反馈提升绩效

中介变量

人机信任感

AI助手提供的的反馈对我完成绩效产生了正面的影响

AI助手在此领域的是专业的

AI助手在与我的互动中充分展现了他的能力

AI助手是为了协助我完成工作,而不是出于其他目的

AI助手能体察到我的情绪而改变沟通方式

当我提出请求,我的智能助手会竭力提供帮助

AI助手以提供准确信息为原则

AI助手在与我互动时是诚实的

智能助手是真诚的

3.2. 统计分析

3.2.1. 主效应检验

剔除无效问卷后获得有效样本196份,其中“伙伴型–广告投放师组”50人、“伙伴型–客服组”51人、“专家型–广告投放师组”48人、“专家型–客服组”47人。

量表信度检验结果显示,各变量的Cronbach’s α系数均大于0.7,说明量表的内部一致性良好。并且通过满意度测量排除了AI助手名称可能带来的干扰(M伙伴型 = 6.09,SD = 0.78;M专家型 = 6.04,SD = 0.48;t = 1.021,p = 0.17 > 0.05)。

在本文再次对AI绩效助手社会角色对员工接受意愿的主效应路径作出检验,实验结果表明:“伙伴”组被试的反馈建议接受意愿程度显著高于“专家”组被试(M伙伴型 = 5.71,SD = 0.86; M专家型 = 5.34,SD = 0.82;t = 2.214,p < 0.05),主效应再次得到验证。

3.2.2. 有调节的中介效应模型检验:人机信任感中介效应检验

本研究借鉴了Preacher和Hayes (2007) [24]以及Hayes (2013) [25]提出的Bootstrap检验法,再次检验了角色类型(“林顿”与“启明”)对反馈接受意愿的影响机制。

表2数据所示,角色类型对接受意愿的总效应值为0.347,且Bootstrap置信区间为[0.161, 0.545],不包含零,表明二者之间存在显著影响。将人机信任作为中介变量后,角色类型对接受意愿的直接影响不显著(效应值 = 0.151,置信区间[−0.089, 0.453]包含零),而通过人机信任的间接效应显著(效应值 = 0.235,置信区间[0.067, 0.341]不包含零)。

综上所述,尽管角色类型对接受意愿的直接效应不显著,但能通过提升人机信任感,从而间接地提高绩效反馈接受意愿。因此,人机信任感的中介作用再次得到验证。

Table 2. Analysis of the mediating utility of human machine trust

2. 人机信任的中介效用分析

效应

效应Effect

95%执行区间

结果

总效应

0.347

[0.161, 0.545]

显著

直接效应

0.151

[−0.089, 0.453]

不显著

间接效应

0.235

[0.067, 0.341]

显著

3.2.3. 有调节的中介效应模型检验:员工任务类型的调节效应检验

为验证有调节的中介效应,研究采用Process模型7,设定5000次抽样估计。在研究模型中,自变量为AI助手的社会角色,具体地,专家型赋值为0,伙伴型赋值为1;本研究中员工的绩效反馈接受意愿为因变量;人机信任感为中介变量;员工任务类型(客观型任务 = 1,主观型任务 = 0)作为调节变量;同时,性别、年龄、学历等因素被作为控制变量。根据表3的结果,模型1表明AI绩效助手的社会角色和员工任务类型在预测人机信任感方面作用显著,这说明员工任务类型在AI绩效助手社会角色影响人机信任感的过程中发挥了调节作用,支持了假设1。模型2进一步表明,智能助手社会角色与员工任务类型的交互作用通过信任感对反馈接受意愿产生显著影响。

Table 3. The task type involves the testing of a moderated mediation model where the variable is a moderator

3. 任务类型为调节变量的有调节的中介模型检验

预测变量

模型1:信任感

模型2:推荐接受意愿

b

se

t

b

se

t

常数项

5.65

0.17

324.35***

2.66

0.51

5.27***

社会角色

0.24

0.14

6.95***

−0.16

0.11

−2.39***

员工任务类型

−0.13

0.13

−3.96***

社会角色*

−1.10

0.15

−15.81***

工任务类型

0.56

0.12

6.20***

R2

0.62

0.17

F

104.57

19.29

注:*p < 0.05,**p < 0.01,***p < 0.001。

通过对196名样本进行有调节的中介效应分析,结果表明任务类型对AI助手角色与绩效反馈接受意愿之间的中介路径存在显著调节作用。根据表4结果,在客观任务条件下,角色通过人机信任对接受意愿产生正向中介效应(效应值 = 0.441,95% CI [0.301, 0.577]);而在主观任务条件下,该中介效应则呈负向(效应值 = −0.172,95% CI [−0.248, −0.103])。调节中介效应的指数为−0.612 (95% CI [−0.804, −0.421]),说明调节作用显著。同时,控制人机信任后,AI助手角色对接受意愿的直接效应为−0.161 (95% CI [−0.300, −0.022]),亦显著,即整体结果支持有调节的中介模型成立。

Table 4. Analysis results of moderated mediation effect

4. 有调节的中介效应分析结果

调节变量

中介变量

中介效应

有调节的中介效应

效应值

SD

LLCL (95%)

ULCL (95%)

Index

SD

LLCL (95%)

ULCL (95%)

客观任务

人机信任

0.441

0.069

0.301

0.577

−0.612

0.097

−0.804

−0.421

主观任务

人机信任

−0.172

0.037

−0.248

−0.103

直接效应

−0.161

0.071

−0.300

−0.022

注:*p < 0.05,**p < 0.01,***p < 0.001。

3.3. 研究总结与建议

本实验通过员工任务类型的调节效应检验发现,员工任务类型对不同社会角色的AI助手的绩效反馈影响力有不同影响。具体表现为,对于客观任务,“专家”智能反馈体系更能提升人机信任感,从而提升员工绩效;而对于主观任务,“伙伴型”智能反馈体系更能提升人机信任感,从而提升员工绩效。本研究认为,“专家型”AI助手虽在仁慈和诚实上逊于“伙伴型”,但在应对客观任务时,“专家型”AI助手展现出功能优势,功能信任对接受意愿的总影响大于类人信任,适应了员工的需求。

基于上述结论,本文做出相应的管理启示。首先,在设计AI绩效助手时应根据不同任务场景赋予其不同的社会角色特征,以更好地契合员工需求、提升人机信任感及最终的绩效表现,使AI产品在功能实现的同时更符合组织管理与员工心理层面的要求。

其次,不同社会角色的AI绩效助手对不同的任务类型赋能效果不同。因此在AI绩效助手嵌入到日常绩效反馈工作流程中,应根据任务性质选择合适的AI角色来加强员工的接受意愿,改善“用户壁垒”,即员工对AI助手的拒绝和回避,保障企业的数字化转型。

参考文献

[1] 徐娟, 吴继忠. AI助手对员工绩效反馈的影响机制研究——以社媒电商行业为例[J]. 电子商务评论, 2025, 14(12): 4443-4451.
[2] 钟智锦, 李琼. 人机互动中社交机器人的社会角色及人类的心理机制研究[J]. 学术研究, 2024(1): 18-25.
[3] Martin, K. and Waldman, A. (2022) Are Algorithmic Decisions Legitimate? The Effect of Process and Outcomes on Perceptions of Legitimacy of AI Decisions. Journal of Business Ethics, 183, 653-670. [Google Scholar] [CrossRef
[4] de Visser, E.J., Monfort, S.S., McKendrick, R., Smith, M.A.B., McKnight, P.E., Krueger, F., et al. (2016) Almost Human: Anthropomorphism Increases Trust Resilience in Cognitive Agents. Journal of Experimental Psychology: Applied, 22, 331-349. [Google Scholar] [CrossRef] [PubMed]
[5] Adam, M., Wessel, M. and Benlian, A. (2021) AI-Based Chatbots in Customer Service and Their Effects on User Compliance. Electronic Markets, 31, 427-445. [Google Scholar] [CrossRef
[6] Fraune, M.R. (2020) Our Robots, Our Team: Robot Anthropomorphism Moderates Group Effects in Human-Robot Teams. Frontiers in Psychology, 11, Article 1275. [Google Scholar] [CrossRef] [PubMed]
[7] Moussawi, S. and Koufaris, M. (2019) Perceived Intelligence and Perceived Anthropomorphism of Personal Intelligent Agents: Scale Development and Validation.
[8] Wu, J., Chen, J. and Dou, W. (2016) The Internet of Things and Interaction Style: The Effect of Smart Interaction on Brand Attachment. Journal of Marketing Management, 33, 61-75. [Google Scholar] [CrossRef
[9] Hur, J.D., Minjung, K. and Wilhelm, H. (2015) When Temptations Come Alive: How Anthropomorphism Undermines Self-Control. Journal of Consumer Research, 42, 340-358.
[10] Zhang, A. and Patrick Rau, P. (2023) Tools or Peers? Impacts of Anthropomorphism Level and Social Role on Emotional Attachment and Disclosure Tendency Towards Intelligent Agents. Computers in Human Behavior, 138, Article 107415. [Google Scholar] [CrossRef
[11] Rhee, C.E. and Choi, J. (2020) Effects of Personalization and Social Role in Voice Shopping: An Experimental Study on Product Recommendation by a Conversational Voice Agent. Computers in Human Behavior, 109, Article 106359. [Google Scholar] [CrossRef
[12] Krafft, P.M., Young, M., Katell, M., Huang, K. and Bugingo, G. (2020) Defining AI in Policy versus Practice. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, New York, 7-9 February 2020, 72-78. [Google Scholar] [CrossRef
[13] Waytz, A., Heafner, J. and Epley, N. (2014) The Mind in the Machine: Anthropomorphism Increases Trust in an Autonomous Vehicle. Journal of Experimental Social Psychology, 52, 113-117. [Google Scholar] [CrossRef
[14] Inbar, Y., Cone, J. and Gilovich, T. (2010) People’s Intuitions about Intuitive Insight and Intuitive Choice. Journal of Personality and Social Psychology, 99, 232-247. [Google Scholar] [CrossRef] [PubMed]
[15] Glikson, E. and Woolley, A.W. (2020) Human Trust in Artificial Intelligence: Review of Empirical Research. Academy of Management Annals, 14, 627-660. [Google Scholar] [CrossRef
[16] Vuong, T., Saastamoinen, M., Jacucci, G. and Ruotsalo, T. (2019) Understanding User Behavior in Naturalistic Information Search Tasks. Journal of the Association for Information Science and Technology, 70, 1248-1261. [Google Scholar] [CrossRef
[17] Kim, J. (2009) Describing and Predicting Information-Seeking Behavior on the Web. Journal of the American Society for Information Science and Technology, 60, 679-693. [Google Scholar] [CrossRef
[18] Logg, J.M., Minson, J.A. and Moore, D.A. (2019) Algorithm Appreciation: People Prefer Algorithmic to Human Judgment. Organizational Behavior and Human Decision Processes, 151, 90-103. [Google Scholar] [CrossRef
[19] Yeomans, M., Shah, A., Mullainathan, S. and Kleinberg, J. (2019) Making Sense of Recommendations. Journal of Behavioral Decision Making, 32, 403-414. [Google Scholar] [CrossRef
[20] Castelo, N., Bos, M.W. and Lehmann, D.R. (2019) Task-Dependent Algorithm Aversion. Journal of Marketing Research, 56, 809-825. [Google Scholar] [CrossRef
[21] Choung, H., David, P. and Ross, A. (2023) Trust in AI and Its Role in the Acceptance of AI Technologies. International Journal of Human-Computer Interaction, 39, 1727-1739. [Google Scholar] [CrossRef
[22] Hu, P., Lu, Y. and Gong, Y. (2021) Dual Humanness and Trust in Conversational AI: A Person-Centered Approach. Computers in Human Behavior, 119, Article 106727. [Google Scholar] [CrossRef
[23] 吴继飞, 于洪彦, 朱翊敏, 等. 人工智能推荐对消费者采纳意愿的影响[J]. 管理科学, 2020, 33(5): 29-43.
[24] Preacher, K.J., Rucker, D.D. and Hayes, A.F. (2007) Addressing Moderated Mediation Hypotheses: Theory, Methods, and Prescriptions. Multivariate Behavioral Research, 42, 185-227. [Google Scholar] [CrossRef] [PubMed]
[25] Hayes, A. (2013) Introduction to Mediation, Moderation, and Conditional Process Analysis. Journal of Educational Measurement, 51, 335-337.