AI交互质量与用户接受度:心理距离和信任的链式中介作用
The Interaction Quality of AI and User Acceptance: The Chain Mediation Effect of Psychological Distance and Trust
DOI: 10.12677/ap.2025.152060, PDF, HTML, XML,    科研立项经费支持
作者: 林雅萍, 郑浩然, 何忆君, 冯 晶*:济南大学教育与心理科学学院,山东 济南
关键词: AI人格交互质量接受度心理距离信任AI Personality Interaction Quality Acceptance Psychological Distance Trust
摘要: 本研究以337名山东某高校大学生为研究对象,探讨了交互质量与用户接受度之间的关系,以及心理距离和信任在两者间的链式中介作用。研究发现:交互质量能够显著正向预测接受度;交互质量能够通过心理距离和信任的链式中介作用间接影响接受度。本研究揭示了交互质量和接受度之间的内在机制,为人工智能在心理咨询领域的应用提供了理论基础。
Abstract: This study, based on 337 university students from a university in Shandong, explores the relationship between interaction quality and user acceptance, as well as the chain mediation effect of psychological distance and trust between the two. The results show that interaction quality significantly positively predicts acceptance, and that interaction quality indirectly influences acceptance through the chain mediation effect of psychological distance and trust. This study reveals the underlying mechanism between interaction quality and acceptance, providing a theoretical foundation for the application of artificial intelligence in the field of psychological counseling.
文章引用:林雅萍, 郑浩然, 何忆君, 冯晶 (2025). AI交互质量与用户接受度:心理距离和信任的链式中介作用. 心理学进展, 15(2), 47-57. https://doi.org/10.12677/ap.2025.152060

1. 引言

随着人工智能技术的不断发展,AI在客户服务(Sulaiman, 2022; Xu et al., 2020)、心理健康(Ahmad et al., 2022; D’Alfonso, 2020; Koutsouleris et al., 2022)、教育(Chen et al., 2020; Seo et al., 2021)等多个领域的应用已日益广泛。相较于过去冰冷、机械化的印象,基于大语言模型的AI如今具备了更拟人化的特征,它们的回应能够传递情感,带来温暖和人性化的互动体验(Hsieh & Lee, 2024)。这一进步不仅改变了我们对AI的传统看法,也引发了一个重要的问题:如果AI像人类一样,拥有不同的人格特质,那么人们会如何回应和接受这种具有人格的AI?

Wang (2017)认为非人类实体的人格化也可以被认为是拟人化的隐喻表达,关于AI拟人化特征的研究中,对于人格化AI的研究目前比较少(Ahmad et al., 2022; Shumanov & Johnson, 2021),人格对人际交往的影响显著,不同人格特质在不同情境下可能会产生不同的交互效果(Vîrga et al., 2014)。因此,赋予AI不同的人格特质,如认知型、情感型和社交型,不仅能够使人机交互更具多样性,还可以为心理健康领域中的AI应用带来更有效的个性化服务。计算机是社会参与者(CASA)范式的研究表明,人们倾向于对计算机做出社交反应,即使意识到他们正在与机器互动(Nass et al., 1994)。本研究揭示了一个新的研究维度——AI被赋予不同人格特质后,如何影响其与人类之间的交互质量从而影响到最终的用户接受度。

1.1. AI交互质量与用户接受度

在对话代理中,AI交互质量通常通过多个维度来衡量,主观衡量标准包括系统的可用性(即用户是否能够轻松操作系统)、喜欢性(即用户对系统的喜好程度)以及对话质量(即用户感知到的对话流畅度和自然度)。另一方面,客观衡量标准则侧重于量化指标,如交互时长(用户与对话代理的互动持续时间)、完成率(任务完成的比率)以及未识别发言频率(系统未能识别用户输入的次数) (Reimann et al., 2023)。这些因素直接影响用户对系统的信任度和使用意图。例如,系统响应速度快、反馈准确、操作简单的AI系统通常能够获得较高的用户满意度(Zhang, 2024)。此外,AI的自然语言处理能力、个性化服务以及情感感知等方面也在提升交互质量的过程中起到重要作用(Huang & Rust, 2024)。

用户接受度是指在新技术或新设备引入时,用户对其使用的态度和行为意图。它受到多种因素的影响,包括技术的易用性、效用、社会影响、情感反应等(Gursoy et al., 2019)。关于用户接受度的研究依赖于多个理论模型,其中最为经典的是技术接受模型(TAM)、统一理论(UTAUT)和人工智能设备使用接受度模型(AIDUA)。TAM由Davis提出,强调感知易用性和感知有用性是决定用户是否接受技术的核心因素(Davis, 1989)。统一理论(UTAUT)在技术接受模型(TAM)的基础上进行了扩展,加入了社会影响、享乐动机和情感等因素,强调了个体差异和情境因素对接受度的影响(Dwivedi et al., 2019)。随着技术的进步,人工智能设备使用接受度(AIDUA)模型专注于人工智能设备的接受度,进一步强调了用户的情感反应、人类化特征以及社会和享乐动机对接受决策的重要性(Gursoy et al., 2019)。

交互质量的高低是消费者使用移动应用程序或聊天机器人的一个主要预测因素(Ashfaq et al., 2020)。Pelau等人(2021)认为拟人化特征增加了人类感知的交互质量,进而导致了AI在服务行业中更高的接受度和信任度。而非人类实体的人格化也可以被认为是拟人化的隐喻表达(Wang & Wenhuan, 2017),那么当具有人格化的AI心理咨询机器人能够提供准确、可靠的心理咨询建议,并展现出高度的专业素养时,用户会对其产生更强的信任感,这种信任感是用户接受和使用AI心理咨询服务的重要基础。据此,提出研究假设1:在人格化AI心理咨询机器人的对话下,AI交互质量对用户接受度产生正向预测作用。

1.2. 心理距离在AI交互质量与用户接受度关系中的角色

1.2.1. 心理距离与用户接受度

解释水平理论认为心理距离是指对距离目标的社会、空间和时间距离的主观感知。这一概念强调,人们在面对不同的对象和情境时,会根据其与自己之间的心理距离,采取不同的认知和情感反应。在人机交互领域,心理距离被定义为对人工智能的亲密感、熟悉度、相似性和群体认同(Park et al., 2024)。对于人机交互而言,心理距离的大小直接影响用户对AI系统的感知和接受度。当用户感知到与AI之间的心理距离较大时(如与AI相似性较低、认为AI系统难以理解),他们的交互质量往往较差,且对AI的接受度较低(Ahn et al., 2021)。杨增茂等人(2023)的研究表示,当人们与AI的交互呈现较远的心理距离时,他们往往会感到不信任,甚至产生拒绝感。这种现象在AI技术刚进入市场时尤为明显,许多用户对AI的认知尚处于“陌生”状态,难以信任其决策和行动。

然而,随着用户与AI系统的互动逐渐增多,心理距离的感知会发生变化,进而影响其对AI的接受度和信任感。在服务行业中,高质量的交互能够提高用户的满意度(Sureshchandar et al., 2002),而心理距离作为情感和认知的感知距离,能够影响用户对服务的体验。当用户感受到AI的互动更具拟人化特征时,心理距离会缩短,使用户对AI产生更大的信任感和亲近感(Li & Sung, 2021)。这一缩短的心理距离进一步增强了用户对AI系统的接受度,促使他们愿意在未来持续使用这些技术。基于此,我们提出研究假设2:心理距离正向预测用户接受度。

1.2.2. 心理距离在AI交互质量影响用户接受度中的作用

亲密感和熟悉度是心理距离的重要组成部分。在AI交互中,用户对系统的亲密感和熟悉度直接影响他们的情感投入和信任度。研究表明,当系统能够展示出个性化的互动方式,如根据用户的历史行为进行适当调整时,用户的心理距离感知会缩短(李芳等,2018)。此时,用户会觉得AI不再是一个陌生且机械的工具,而是一个能够理解并回应自己需求的“伙伴”。这种心理上的接近感显著提升了交互质量,并有助于提高用户的接受度。个性化推荐系统和智能助手能够提供符合用户偏好的服务,从而降低心理距离,提升用户满意度和信任感。

相似性和群体认同感也在心理距离中发挥着关键作用。Kunst-Wilson和Zajonc (1980)提出的“熟悉度效应”表明,个体在面对越来越熟悉的事物时,会产生更积极的情感反应。当对象或情境与个体有较高的相似性时,个体往往会感受到更小的心理距离,进而产生更多的情感认同。在AI交互中,若AI系统能够在语言风格、价值观或行为模式上与用户的社会身份或文化背景相似,那么用户就会感到与AI系统更为接近。这种相似性带来的心理距离感知缩短,有助于提升AI系统的接受度。

社会心理距离作为心理距离的一个维度,也在AI交互中发挥着重要作用。当AI系统能够在社会互动中表现出“人性化”的特征,比如在与用户的交互中加入适当的情感共鸣和社会礼仪,用户的社会心理距离感知会显著缩小,从而提升AI的接受度(杨增茂等,2023)。尤其是在情感化和人性化设计越来越受到重视的今天,AI与用户之间的心理亲密感、社会认同感的建立,往往能够促进更加积极的用户行为和体验。

另外,时间维度的心理距离也不可忽视。AI交互中的时间延迟,尤其是在回应速度和反馈时间上的差异,可能会影响用户对AI系统的接受度。当用户能够得到即时且符合期望的反馈时,他们往往会感到与AI系统的心理距离较近。反之,长时间的等待或不准确的反馈会使用户感到AI系统与自己之间的心理距离较远,从而降低接受度和满意度(Xiu et al., 2023)。因此,缩短时间维度上的心理距离,提供即时反应和精准反馈,是提高AI交互质量的重要途径。心理距离在AI交互质量影响用户接受度的过程中扮演着至关重要的角色。通过缩短心理距离,AI系统能够在认知、情感、社会和时间维度上与用户建立更加紧密的联系,从而提高交互质量和用户的接受度。基于此,提出研究假设3:心理距离在AI交互质量与用户接受度之间起中介作用。

1.3. 心理距离和信任的链式中介作用

信任这一概念已经被广泛应用到人工智能领域(Gillath et al., 2021; Glikson & Woolley, 2020),Jacovi等人(2021)将人际间的信任,引用到人机间的信任,即如果人类认为AI模型在履行某项约定时可靠,并接受其潜在的风险,那么人类就会在该约定的基础上对AI模型产生契约性信任。用户对于AI系统的信任间接关联到他们对该系统的接受度与使用意愿(Alam et al., 2023; Chin et al., 2024; Hsieh & Lee, 2024; Xiong et al., 2024),这种信任不仅构建了用户与AI之间的桥梁,还深刻影响着AI技术在实际应用中的效果和可持续性。

个体在面对不熟悉的AI系统时,心理距离较远会导致对AI的怀疑和不信任(Kirshner, 2024)。通过增加AI系统的可理解性,用户对AI的信任往往会得到显著提升(Morandini et al., 2023)。这种信任的提升,使得用户在与AI互动时,能更积极地接收系统的建议和反馈,进而提升交互质量和满意度。心理距离和信任密切相关(Ayeh et al., 2013; Lin & Xu, 2017; Zhang et al., 2020),Wang等人(2008)的在线健康信息研究中,发现近距离的心理距离与可信度判断呈正相关。Park等人(2024)也发现了类似的结果,在聊天机器人心理健康咨询的背景下,心理距离与信任呈正相关。这表明,心理距离的缩小能够增加用户对AI系统的信任,而信任感的提高又使得用户更愿意依赖AI系统,从而提升了交互质量的感知。然而,这一过程不仅仅是单向的。用户的情感反应和对AI的认知评估也会反过来影响心理距离的感知,当用户对AI系统建立起信任关系时,他们对系统的心理距离会进一步缩小,这种互相作用的动态过程反过来又增强了信任(齐玥等,2024)。因此,心理距离通过信任的链式中介作用,能够有效提升AI交互的质量感知和用户的接受度。基于此本文提出研究假设4:心理距离和信任在AI交互质量与用户接受度之间起链式中介作用。

综上,本研究构建了一个链式中介模型(如图1),考察AI交互质量如何通过影响用户的心理距离,从而提升对AI的信任,最终促进用户对AI系统的接受度。通过这一模型,我们希望深入理解交互质量、心理距离、信任和用户接受度之间的关系,为AI技术的设计与实施提供理论依据。

Figure 1. Research hypothesis

1. 研究假设

2. 方法

2.1. 研究对象

实验的被试均来自专业学术问卷平台Credamo见数,保证了被试不重复作答,共回收364个样本,对回收的问卷进行整理,剔除了作答时间短及作答不仔细等无效问卷后,剩余有效样本337个。其中,平均年龄28.7岁(SD = 8.0),女性占65.0%。受教育程度高中及以下占4.2%,本科或大专占80.7%,研究生及以上占15.1%。月收入(月生活费)在1000元以下的占2.7%,1000~3000元占27.3%,3000~5000元占11.6%,5000~8000元占23.7%,8000~10,000元占14.8%,10,000元及以上占19.9%。其中,39.2%的被试为私企业主或员工,28.5%的被试为学生。

2.2. 研究程序

实验先利用对话事例激活被试,对话事例来自与ChatGpt的对话,ChatGpt先学习Pal,Vanijja和Thapliyal (2023)关于不同人格的定义,随后针对问题进行回答。被试阅读完后进行问卷作答。

2.3. 研究工具

2.3.1. 发布平台

本研究采用在线发布问卷的方式来进行调查和收集数据信息。为了使调查更具严谨性,本研究选择了见数在线问卷平台,见数是国内具有专业学术水平的在线调研服务平台网站。本研究将问卷导入Credamo见数平台中并通过此平台的数据集市收集数据。通过相关设置,避免相同用户作答本研究其他问卷且克服了一些线上调查的弊端,比如用户通过脚本进行作答、用户作答不认真等。

2.3.2. 交互质量量表

该量表由Pelau等人(2021)编制而成,交互性是用户使用移动应用程序或聊天机器人的一个主要预测因素(Ashfaq et al., 2020)。该量表共22个项目,采用7点计分法,“1”到“7”表示“非常不同意”到“非常同意”。得分越高代表AI交互质量越高,该量表具有较高的内部一致性,本研究中Cronbach’s α系数为0.91。

2.3.3. 心理距离量表

该量表由Park等人(2024)改编自Li和Sung (2021)编制而成,心理距离(即社会距离)被定义为对另一个人或AI的亲密度(Magee & Smith, 2013),熟悉性,相似性(Li & Sung, 2021)和群体身份(Buchan et al., 2006)的主观感知。该量表共3个项目,采用7点计分法,“1”到“7”表示“非常不同意”到“非常同意”。得分越高代表与AI的心理距离越小,该量表具有较高的内部一致性,本研究中Cronbach’s α系数为0.88。

2.3.4. 信任量表

该量表由Madsen和Gregor (2000)编制而成,该量表包含5个结构: 知觉可靠性、知觉技术能力、知觉可理解性、信念和个人依恋,前三个结构代表认知信任,后两个结构代表情感信任(Wang et al., 2024)。该量表共25个项目,采用7点计分法,“1”到“7”表示“非常不同意”到“非常同意”。得分越高代表对AI的信任度越高,该量表具有较高的内部一致性,本研究中Cronbach’s α系数为0.92。

2.3.5. 接受度量表

该量表包括接受使用AI的意愿(前三个条目)和反对使用人工智能设备的项目(后四个条目),由Gursoy等人(2019)改变自Lu等人(2019)以及Jochen等人(2018)编制而成。在使用人工智能设备方面,消费者可能会关注人工智能设备能否提供与人类雇员相同水平或更好的服务(Gursoy et al., 2019)。该量表共7个项目,采用5点计分法,“1”到“5”表示“不同意”到“同意”,其中第4、5、6、7项采用反向计分。量表得分越高代表对AI的接受度越高,该量表具有较高的内部一致性,本研究中Cronbach’s α系数为0.81。

3. 研究结果

3.1. 共同方法偏差检验

利用SPSS 26.0进行Harman单因子检验法进行共同方法偏差检验。结果显示,特征值大于1的因子共有10个,且第一个因子解释的变异量为34.56%,小于40%的临界标准,该结果表明本研究不存在严重的共同方法偏差(周浩,龙立荣,2004)。

3.2. 描述性统计与相关分析

各变量的均值、标准差以及相关关系如表1。性别、年龄、职业类型、月收入(月生活费)与交互质量、心理距离、用户信任和接受度两两显著相关,后续回归分析将这些人口学变量作为控制变量;考虑到受教育程度与所关注的4个变量没有显著相关,在之后的回归分析和中介效应检验中,不再将其作为控制变量。

Table 1. The mean value, standard deviation and correlation of each variable (N = 337)

1. 各变量的平均值、标准差及相关关系(N = 337)

变量

M

SD

1

2

3

4

5

6

7

8

1. 年龄

28.75

7.99

−0.20**

2. 受教育程度

4.99

0.70

0.08

−0.23**

3. 月收入(月生活费)

3.80

1.54

−0.26**

0.51**

0.16**

0.62**

4. 交互质量

5.56

0.61

−0.23**

0.29**

0.04

0.32**

0.44**

5. 心理距离

5.19

1.16

−0.19**

0.32**

−0.03

0.35**

0.47**

0.74**

6. 用户信任

5.23

0.71

−0.22**

0.32**

0.04

0.33**

0.46**

0.84**

0.75**

7. 接受度

3.38

0.68

−0.19**

0.28**

0.04

0.34**

0.45**

0.71**

0.73**

0.75**

注:**p < 0.01。受教育程度:1 = 小学或小学以下,2 = 初中(含初中未毕业),3 = 高中或中专(含高中未毕业),4 = 大专(含夜大、电大),5 = 大学本科,6 = 研究生及以上;月收入:1 = 1000元以下,2 = 1000~3000元(不含3000),3 = 3000~5000元(不含5000),4 = 5000~8000元(不含8000),5 = 8000~10,000元(不含10,000),6 = 10,000元及以上。

3.3. 交互质量与接受度之间的链式中介机制分析

在控制性别、年龄、职业类型和月收入(月生活费)的情况下,交互质量显著地正向预测接受度,β = 0.63,p < 0.001,模型的调整R2 = 0.52,ΔR2 = 0.31,F (5, 331) = 72.74,p < 0.001。

使用Hayes (2013)提供的SPSS插件PROCESS的模型6,以交互质量为自变量,以接受度为因变量,以心理距离和用户信任为链式中介变量,以性别、年龄、职业类型及月收入(月生活费)为控制变量,路径系数结果如图2所示。

整个回归方程显著,R2 = 0.52,F (5, 331) = 72.74,p < 0.01。用Bootstrap抽样的方法对中介效应进行检验,结果表明,以心理距离为中介变量的路径间接效应为0.24 (95% CI = [0.15, 0.33]),以用户信任为中介变量的路径间接效应为0.26 (95% CI = [0.16, 0.36]),以心理距离与用户信任为中介变量的路径间接效应为0.07 (95% CI = [0.04, 0.11]),所有间接效应合计0.56 (95% CI = [0.44, 0.70]),心理距离与用户信任在交互质量对接受度的正向效应中的链式中介作用成立。

Figure 2. Chain mediated effect path diagram of interaction quality on acceptability

2. 交互质量对接受度的链式中介效应路径图

4. 讨论

人工智能技术在心理咨询领域的应用日益广泛,不少研究表明,人工智能技术在解决心理健康问题方面颇有成效(Zheng et al., 2023),人工智能驱动的会话也被更多地应用在心理咨询领域。与人类人格一样,人工智能的虚拟人格特质也会影响人机交互质量(Pal et al., 2023)。现有研究表明,具有虚拟人格特质的能够使个体在心理上更接近人工智能,即缩小人机间的心理距离(Guido & Peluso, 2015; Li & Sung, 2021; Pal et al., 2023)。心理距离作为一种主观感知,在用户与人工智能的互动中扮演着关键角,当心理距离缩小时,用户对拟人化的人工智能具有更高的评价(Li & Sung, 2021),从而使得用户对人工智能的接受度提高。我们的研究结果与前人研究成果相互印证,正如以往研究所指出的,具有鲜明虚拟人格特质的人工智能能够在用户心理层面产生积极影响,有效缩短人机之间的心理距离,提高接受度。在本研究中,我们进一步深化了这一认识,通过可量化的人机交互质量指标,更加精确地揭示了交互质量对心理距离以及心理距离对接受度的正向预测作用。这意味着,在人机交互过程中,高质量的交互体验能够促使个体在心理上更加贴近人工智能,从而减少因机器属性而可能产生的隔阂感。

此外,信任作为人机交互的关键因素,是考察用户接受度的核心标准之一(Gulati et al., 2024),其水平的高低直接决定了用户是否愿意接受并持续使用人工智能服务,在人工智能咨询领域,这一关系显得尤为重要。先前研究表明,良好的人机交互质量有助于促进用户与人工智能之间的成功合作(Perivolaris et al., 2024)。本研究基于前人结果进行深入探讨,证实良好的交互质量有助于增强用户信任,最终提升用户对人工智能咨询服务的接受度。高质量的交互能够为用户提供更加准确、及时和个性化的服务,从而增强用户对AI的信任和接受度。在实际应用中,AI心理咨询机器人若能更好地理解用户的问题、提供有效的解决方案,并以人性化的方式与用户交互,将极大地提高用户对其的接受程度。

对于心理距离和信任而言,以往在人际信任领域的研究表明,心理距离的缩小会促进人际信任的增强(Ma et al., 2024)。用户与拟人化的人工智能和人际交往关系类似,心理距离对用信任存在显著影响(Franke & Groeppel-Klein, 2024),本研究证实了心理距离能够正向预测信任,同时结合上述研究结果,我们成功揭示了心理距离和信任在人机交互质量与用户接受度之间的链式中介作用,构建了一个更为完整的理论框架,深入阐述了人机交互质量影响用户接受度的内在机制,丰富了人工智能与人类行为交互领域的理论体系,也为后续相关研究提供了新的研究视角和理论基础。

我们的研究成果也为心理咨询领域人工智能的设计与应用提供了切实可行的指导。例如,对于人工智能开发者而言,他们可以依据本研究结论,着重优化人工智能的交互设计,提高交互质量。具体而言,可以通过改进对话算法,使人工智能能够更加准确地理解用户意图,提供更加个性化、人性化的回应;优化界面设计,提升用户操作的便捷性和舒适度等方式,来缩短用户与人工智能之间的心理距离,增强用户信任。这样一来,用户对人工智能咨询服务的接受度将得到显著提高,从而更好地满足用户在心理咨询方面的需求,推动人工智能在心理咨询领域的广泛应用。

5. 局限与展望

本研究也存在一定的局限性。首先,样本量相对有限,且样本主要来自特定平台的高校大学生群体。这一特定群体具有较高的教育水平、相对年轻且对新技术接受度较高等特点,可能无法全面代表社会各阶层、各年龄段人群的情况。因此,研究结果的普遍性可能受到一定程度的影响。例如,不同年龄层次的用户可能对人工智能的认知和接受程度存在差异,老年用户可能对新技术的适应能力较弱,他们在人机交互过程中的体验和需求可能与大学生群体有所不同;不同职业背景的用户也可能因工作环境和需求的不同,对人工智能在心理咨询中的应用有不同的看法和期望。

针对这些局限性,未来研究可以从以下几个方向展开。其一,显著扩大样本量,采用多阶段分层抽样等方法,广泛涵盖不同地域、年龄、职业、文化背景等多样化的用户群体。这样可以更全面地捕捉不同人群在人机交互中的特点和需求,提高研究结果的适用性和代表性。例如,在不同地区进行抽样,包括城市和农村地区,以了解地域差异对用户接受度的影响;纳入不同职业群体,如医护人员、企业员工、自由职业者等,研究职业需求与人工智能应用的契合度。其二,深入探索其他可能影响用户接受度的因素。文化背景是一个重要的潜在因素,不同文化背景下的用户可能对人工智能的态度和接受方式存在显著差异。例如,在一些强调集体主义的文化中,用户可能更关注人工智能在群体互动中的作用;而在个人主义文化中,用户可能更注重个人隐私和个性化服务。此外,用户个人经历也可能对其接受度产生影响,如曾经有过心理咨询经历的用户可能对人工智能咨询服务有不同的期望和评价。其三,进一步拓展研究领域,将研究范围从心理咨询领域延伸到其他领域,如医疗、教育、金融等。在医疗领域,研究不同人格类型的人工智能在疾病诊断辅助、患者康复指导等方面的交互效果和用户接受度差异;在教育领域,探讨人工智能如何更好地适应不同学习风格和教育阶段的学生需求,以及如何通过提升交互质量来促进学生的学习效果和接受度;在金融领域,分析用户对人工智能在投资决策、风险评估等方面服务的信任建立过程和接受程度影响因素。通过在不同领域的研究,可以更全面地了解人工智能在不同场景下的应用潜力和挑战,为人工智能的多样化发展提供更广泛的理论支持和实践指导。

6. 结论

本研究探讨心理距离和信任在人机交互质量与用户接受度之间的作用机制,研究得到以下结论:(1) 在人格化AI心理咨询机器人的对话下,人机交互质量可以显著正向预测用户接受度;(2) 人机交互质量可以显著正向预测心理距离和信任;(3) 心理距离与信任可以显著正向预测用户接受度;(4) 心理距离和信任在人机交互质量与用户接受度之间的链式中介作用成立。

基金项目

济南大学2024年“人工智能交叉”本科课程立项建设,课程名称《团体咨询》;济南大学2024年研究生教育教学改革研究项目,“人工智能赋能心理健康教育研究生教育教学与人才培养的研究”。

NOTES

*通讯作者。

参考文献

[1] 李芳, 刘新民, 王松(2018). 个性化推荐的信息呈现、心理距离与消费者接受意愿——基于解释水平理论的视角. 企业经济, 37(5), 109-115.
[2] 齐玥, 陈俊廷, 秦邵天, 杜峰(2024). 通用人工智能时代的人与AI信任. 心理科学进展, 32(12), 2124-2136.
[3] 杨增茂, 王长峰, 杨洪军(2023). 人工智能拟人化对顾客持续使用意愿的影响——基于心理距离的中介作用. 财经论丛, (8), 81-90.
[4] 周浩, 龙立荣(2004). 共同方法偏差的统计检验与控制方法. 心理科学进展, (6), 942-950.
[5] Ahmad, R., Siemon, D., Gnewuch, U., & Robra-Bissantz, S. (2022). Designing Personality-Adaptive Conversational Agents for Mental Health Care. Information Systems Frontiers, 24, 923-943.
https://doi.org/10.1007/s10796-022-10254-9
[6] Ahn, J., Kim, J., & Sung, Y. (2021). AI-Powered Recommendations: The Roles of Perceived Similarity and Psychological Distance on Persuasion. International Journal of Advertising, 40, 1366-1384.
https://doi.org/10.1080/02650487.2021.1982529
[7] Alam, S. S., Masukujjaman, M., Mohamed Makhbul, Z. K., Helmi Ali, M., Ahmad, I., & Al Mamun, A. (2023). Experience, Trust, Ewom Engagement and Usage Intention of AI Enabled Services in Hospitality and Tourism Industry: Moderating Mediating Analysis. Journal of Quality Assurance in Hospitality & Tourism, 25, 1635-1663.
https://doi.org/10.1080/1528008x.2023.2167762
[8] Ashfaq, M., Yun, J., Yu, S., & Loureiro, S. M. C. (2020). I, Chatbot: Modeling the Determinants of Users’ Satisfaction and Continuance Intention of AI-Powered Service Agents. Telematics and Informatics, 54, Article 101473.
https://doi.org/10.1016/j.tele.2020.101473
[9] Ayeh, J. K., Au, N., & Law, R. (2013). “Do We Believe in Tripadvisor?” Examining Credibility Perceptions and Online Travelers’ Attitude toward Using User-Generated Content. Journal of Travel Research, 52, 437-452.
https://doi.org/10.1177/0047287512475217
[10] Buchan, N. R., Johnson, E. J., & Croson, R. T. A. (2006). Let’s Get Personal: An International Examination of the Influence of Communication, Culture and Social Distance on Other Regarding Preferences. Journal of Economic Behavior & Organization, 60, 373-398.
https://doi.org/10.1016/j.jebo.2004.03.017
[11] Chen, X., Xie, H., Zou, D., & Hwang, G. (2020). Application and Theory Gaps during the Rise of Artificial Intelligence in Education. Computers and Education: Artificial Intelligence, 1, Article 100002.
https://doi.org/10.1016/j.caeai.2020.100002
[12] Chin, C., Wong, W. P. M., Cham, T., Thong, J. Z., & Ling, J. P. (2024). Exploring the Usage Intention of Ai-Powered Devices in Smart Homes among Millennials and Zillennials: The Moderating Role of Trust. Young Consumers, 25, 1-27.
https://doi.org/10.1108/yc-05-2023-1752
[13] D’Alfonso, S. (2020). AI in Mental Health. Current Opinion in Psychology, 36, 112-117.
https://doi.org/10.1016/j.copsyc.2020.04.005
[14] Davis, F. D. (1989). Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, 13, 319-340.
https://doi.org/10.2307/249008
[15] Dwivedi, Y. K., Rana, N. P., Jeyaraj, A., Clement, M., & Williams, M. D. (2019). Re-Examining the Unified Theory of Acceptance and Use of Technology (UTAUT): Towards a Revised Theoretical Model. Information Systems Frontiers, 21, 719-734.
https://doi.org/10.1007/s10796-017-9774-y
[16] Franke, C., & Groeppel-Klein, A. (2024). The Role of Psychological Distance and Construal Level in Explaining the Effectiveness of Human-Like vs. Cartoon-Like Virtual Influencers. Journal of Business Research, 185, Article 114916.
https://doi.org/10.1016/j.jbusres.2024.114916
[17] Gillath, O., Ai, T., Branicky, M. S., Keshmiri, S., Davison, R. B., & Spaulding, R. (2021). Attachment and Trust in Artificial Intelligence. Computers in Human Behavior, 115, Article 106607.
https://doi.org/10.1016/j.chb.2020.106607
[18] Glikson, E., & Woolley, A. W. (2020). Human Trust in Artificial Intelligence: Review of Empirical Research. Academy of Management Annals, 14, 627-660.
https://doi.org/10.5465/annals.2018.0057
[19] Guido, G., & Peluso, A. M. (2015). Brand Anthropomorphism: Conceptualization, Measurement, and Impact on Brand Personality and Loyalty. Journal of Brand Management, 22, 1-19.
https://doi.org/10.1057/bm.2014.40
[20] Gulati, S., McDonagh, J., Sousa, S., & Lamas, D. (2024). Trust Models and Theories in Human-Computer Interaction: A Systematic Literature Review. Computers in Human Behavior Reports, 16, Article 100495.
https://doi.org/10.1016/j.chbr.2024.100495
[21] Gursoy, D., Chi, O. H., Lu, L., & Nunkoo, R. (2019). Consumers Acceptance of Artificially Intelligent (AI) Device Use in Service Delivery. International Journal of Information Management, 49, 157-169.
https://doi.org/10.1016/j.ijinfomgt.2019.03.008
[22] Hayes, A. F. (2013). Introduction to Mediation, Moderation, and Conditional Process Analysis: A Regression-Based Approach. Introduction to Mediation, Moderation, and Conditional Process Analysis: A Regression-Based Approach. Guilford Press.
[23] Hsieh, S. H., & Lee, C. T. (2024). The AI Humanness: How Perceived Personality Builds Trust and Continuous Usage Intention. Journal of Product & Brand Management, 33, 618-632.
https://doi.org/10.1108/jpbm-10-2023-4797
[24] Huang, M., & Rust, R. T. (2024). The Caring Machine: Feeling AI for Customer Care. Journal of Marketing, 88, 1-23.
https://doi.org/10.1177/00222429231224748
[25] Jacovi, A., Marasović, A., Miller, T., & Goldberg, Y. (2021). Formalizing Trust in Artificial Intelligence. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 624-635). ACM.
https://doi.org/10.1145/3442188.3445923
[26] Jochen, W., Paul, G. P., Werner, H. K., Thorsten, G., Vinh Nhat, L., Stefanie, P., & Antje, M. (2018). Brave New World: Service Robots in the Frontline. Journal of Service Management, 29, 907-931.
[27] Kirshner, S. N. (2024). Psychological Distance and Algorithm Aversion: Congruency and Advisor Confidence. Service Science, 17, 1-18.
https://doi.org/10.1287/serv.2023.0054
[28] Koutsouleris, N., Hauser, T. U., Skvortsova, V., & de Choudhury, M. (2022). From Promise to Practice: Towards the Realisation of Ai-Informed Mental Health Care. The Lancet Digital Health, 4, e829-e840.
https://doi.org/10.1016/s2589-7500(22)00153-4
[29] Kunst-Wilson, W. R., & Zajonc, R. B. (1980). Affective Discrimination of Stimuli That Cannot Be Recognized. Science, 207, 557-558.
https://doi.org/10.1126/science.7352271
[30] Li, X., & Sung, Y. (2021). Anthropomorphism Brings Us Closer: The Mediating Role of Psychological Distance in User-AI Assistant Interactions. Computers in Human Behavior, 118, Article 106680.
https://doi.org/10.1016/j.chb.2021.106680
[31] Lin, C. A., & Xu, X. (2017). Effectiveness of Online Consumer Reviews. Internet Research, 27, 362-380.
https://doi.org/10.1108/intr-01-2016-0017
[32] Lu, L., Cai, R., & Gursoy, D. (2019). Developing and Validating a Service Robot Integration Willingness Scale. International Journal of Hospitality Management, 80, 36-51.
https://doi.org/10.1016/j.ijhm.2019.01.005
[33] Ma, J., Gao, S., Wang, P., & Liu, Y. (2024). High Level of Self-Disclosure on SNSS Facilitates Cooperation: A Serial Mediation Model of Psychological Distance and Trust. Computers in Human Behavior, 150, Article 107976.
https://doi.org/10.1016/j.chb.2023.107976
[34] Madsen, M., & Gregor, S. (2000). Measuring Human-Computer Trust.
https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=b8eda9593fbcb63b7ced1866853d9622737533a2
[35] Magee, J. C., & Smith, P. K. (2013). The Social Distance Theory of Power. Personality and Social Psychology Review, 17, 158-186.
https://doi.org/10.1177/1088868312472732
[36] Morandini, S., Fraboni, F., Puzzo, G., Giusino, D., Volpi, L., Brendel, H., & Pietrantoni, L. (2023). Examining the Nexus between Explainability of AI Systems and Users Trust: A Preliminary Scoping Review.
https://ceur-ws.org/Vol-3554/paper6.pdf
[37] Nass, C., Steuer, J., & Tauber, E. R. (1994). Computers Are Social Actors. In Conference Companion on Human Factors in Computing Systems (pp. 204). ACM Press.
https://doi.org/10.1145/259963.260288
[38] Pal, D., Vanijja, V., Thapliyal, H., & Zhang, X. (2023). What Affects the Usage of Artificial Conversational Agents? An Agent Personality and Love Theory Perspective. Computers in Human Behavior, 145, Article 107788.
https://doi.org/10.1016/j.chb.2023.107788
[39] Park, G., Chung, J., & Lee, S. (2024). Human Vs. Machine-Like Representation in Chatbot Mental Health Counseling: The Serial Mediation of Psychological Distance and Trust on Compliance Intention. Current Psychology, 43, 4352-4363.
https://doi.org/10.1007/s12144-023-04653-7
[40] Pelau, C., Dabija, D., & Ene, I. (2021). What Makes an AI Device Human-Like? The Role of Interaction Quality, Empathy and Perceived Psychological Anthropomorphic Characteristics in the Acceptance of Artificial Intelligence in the Service Industry. Computers in Human Behavior, 122, Article 106855.
https://doi.org/10.1016/j.chb.2021.106855
[41] Perivolaris, A., Adams-McGavin, C., Madan, Y., Kishibe, T., Antoniou, T., Mamdani, M. et al. (2024). Quality of Interaction between Clinicians and Artificial Intelligence Systems. a Systematic Review. Future Healthcare Journal, 11, Article 100172.
https://doi.org/10.1016/j.fhj.2024.100172
[42] Reimann, M. M., Oertel, C., Kunneman, F. A., & Hindriks, K. V. (2023). Predicting Interaction Quality Aspects Using Level-Based Scores for Conversational Agents. In Proceedings of the 23rd ACM International Conference on Intelligent Virtual Agents (pp. 1-8). ACM.
https://doi.org/10.1145/3570945.3607332
[43] Seo, K., Tang, J., Roll, I., Fels, S., & Yoon, D. (2021). The Impact of Artificial Intelligence on Learner-Instructor Interaction in Online Learning. International Journal of Educational Technology in Higher Education, 18, Article 54.
https://doi.org/10.1186/s41239-021-00292-9
[44] Shumanov, M., & Johnson, L. (2021). Making Conversations with Chatbots More Personalized. Computers in Human Behavior, 117, Article 106627.
https://doi.org/10.1016/j.chb.2020.106627
[45] Sulaiman, R. B. (2022). AI Based Chatbot: An Approach of Utilizing on Customer Service Assistance.
https://arxiv.org/abs/2207.10573
[46] Sureshchandar, G. S., Rajendran, C., & Anantharaman, R. N. (2002). The Relationship between Service Quality and Customer Satisfaction—A Factor Specific Approach. Journal of Services Marketing, 16, 363-379.
https://doi.org/10.1108/08876040210433248
[47] Vîrgă, D., CurŞeu, P. L., Maricuţoiu, L., Sava, F. A., Macsinga, I., & Măgurean, S. (2014). Personality, Relationship Conflict, and Teamwork-Related Mental Models. PLOS ONE, 9, e110223.
https://doi.org/10.1371/journal.pone.0110223
[48] Wang, B., Yuan, T., & Rau, P. P. (2024). Effects of Explanation Strategy and Autonomy of Explainable AI on Human-AI Collaborative Decision-Making. International Journal of Social Robotics, 16, 791-810.
https://doi.org/10.1007/s12369-024-01132-2
[49] Wang, W. (2017). Smartphones as Social Actors? Social Dispositional Factors in Assessing Anthropomorphism. Computers in Human Behavior, 68, 334-344.
https://doi.org/10.1016/j.chb.2016.11.022
[50] Wang, W. (2017). Smartphones as Social Actors? Social Dispositional Factors in Assessing Anthropomorphism. Computers in Human Behavior, 68, 334-344.
https://doi.org/10.1016/j.chb.2016.11.022
[51] Wang, Z., Walther, J. B., Pingree, S., & Hawkins, R. P. (2008). Health Information, Credibility, Homophily, and Influence via the Internet: Web Sites versus Discussion Groups. Health Communication, 23, 358-368.
https://doi.org/10.1080/10410230802229738
[52] Xiong, Y., Shi, Y., Pu, Q., & Liu, N. (2024). More Trust or More Risk? User Acceptance of Artificial Intelligence Virtual Assistant. Human Factors and Ergonomics in Manufacturing & Service Industries, 34, 190-205.
https://doi.org/10.1002/hfm.21020
[53] Xiu, Z., Cheng, K., Sun, D. Q., Lu, J., Kotek, H., Zhang, Y. et al. (2023). Feedback Effect in User Interaction with Intelligent Assistants: Delayed Engagement, Adaption and Drop-Out. In Lecture Notes in Computer Science (pp. 145-158). Springer.
https://doi.org/10.1007/978-3-031-33377-4_12
[54] Xu, Y., Shieh, C., van Esch, P., & Ling, I. (2020). AI Customer Service: Task Complexity, Problem-Solving Ability, and Usage Intention. Australasian Marketing Journal, 28, 189-199.
https://doi.org/10.1016/j.ausmj.2020.03.005
[55] Zhang, K., Goetz, T., Chen, F., & Sverdlik, A. (2020). The Differential Effects of Anger on Trust: A Cross-Cultural Comparison of the Effects of Gender and Social Distance. Frontiers in Psychology, 11, Article 597436.
https://doi.org/10.3389/fpsyg.2020.597436
[56] Zhang, Z. (2024). Evaluation of the Effect of Tourism Recommendation System Based on AI. In 2024 3rd International Conference on Artificial Intelligence and Computer Information Technology (pp. 1-4). IEEE.
https://doi.org/10.1109/aicit62434.2024.10730422
[57] Zheng, Q., Liu, F., Xu, S., Hu, J., Lu, H., & Liu, T. (2023). Artificial Intelligence Empowering Research on Loneliness, Depression and Anxiety—Using Covid-19 as an Opportunity. Journal of Safety Science and Resilience, 4, 396-409.
https://doi.org/10.1016/j.jnlssr.2023.10.002