1. 引言
目前,在全球范围内心理健康问题正呈指数级增长。而在中国,精神心理健康问题亦面临患病人群基数大、医疗资源供给总量不足、疾病费用高、患病率高、病耻感高、诊断率低、治疗率低等诸多问题(宋韵雅,2023)。心理健康问题不仅攸关个体的福祉,对社会和谐发展也产生着深远影响。
数智时代下,人工智能的发展为应对心理健康问题提供了全新契机和广阔的可能性。近年来,人工智能技术逐步渗透到心理健康领域的各类场景,重塑了该领域的形态与维度。机器学习、深度学习等人工智能技术的应用促进了心理健康测评方法的革新,这不仅有利于弥补传统方法的不足,还显著提高了诊断效率。此外,人工智能技术在心理健康干预中的应用也得到了显著发展,例如智能化的心理咨询、远程监测、情绪干预以及个性化的心理辅导等服务,极大地扩展了心理健康服务的覆盖面和响应速度。
然而,随着人工智能的日益普及,围绕信任的讨论逐渐浮出水面。信任问题不仅影响到服务效果,还与患者的安全感和治疗的依从性密切相关。因此,如何解决人工智能赋能心理健康服务的信任困境,已成为亟需解决的问题。
2. 理论基础
2.1. 马克思主义视角下的技术与社会
马克思主义认为技术是生产力的重要组成部分,在社会变革中起着关键作用。但技术不仅仅是中立的工具,它也受到社会关系和生产方式的制约。在资本主义条件下,技术常被用于强化资本对劳动的控制,从而导致劳动者的异化。在心理健康服务中,人工智能技术有可能将治疗者与患者之间的直接交流替代为“冷冰冰”的算法交互,这种异化对信任关系的影响不容忽视。
马克思的技术异化理论指出,在资本主义制度下,技术成为压迫和控制的手段,而不是帮助劳动者解放的工具。在今天,人工智能赋能的心理健康服务同样可能带有异化的特征。尽管人工智能能够通过数据分析提供个性化服务,但患者与治疗者的人际关系被技术中介化,这种“去人性化”的现象可能导致信任危机。
人工智能在心理健康服务中的应用虽然确实改善了治疗的可及性,但如果其开发和使用以盈利为目标则可能会导致对患者需求的忽视。人工智能的伦理问题在这里尤为突出——它的开发和实施不应该仅仅以商业利益为驱动,而是需要关注其社会影响和对人类价值的维护。
2.2. 心理健康服务中的技术信任
在心理健康服务中,信任是成功治疗的核心要素。信任不仅是治疗关系中至关重要的情感纽带,也是患者与服务提供者之间互动的基础。信任的建立依赖多个因素,包括专业能力、共情以及对信息的透明度。在传统的心理咨询中治疗者通过面对面的交流建立信任,而在人工智能赋能的心理健康服务中信任的建立变得更加复杂和具有挑战性。
技术信任是与传统人际信任不同的一种信任形式。人工智能系统作为服务提供者的一部分,其技术的可靠性、透明性和伦理性直接影响了患者对服务的信任感。研究表明,信任度的下降往往源于人工智能系统的“黑箱”特性,即患者无法理解其内部的决策逻辑和过程。尤其是在心理健康服务这样一个高度个性化和情感敏感的领域,缺乏透明度的系统难以赢得患者的充分信任。
2.3. 人工智能赋能心理健康服务的价值意蕴
人工智能在心理健康服务中的应用具有显著提升服务可及性与普及性的潜力。传统的心理健康治疗常常受到医疗资源匮乏、专业人员短缺和高昂费用的制约,导致难以得到有效的推广。尤其在偏远地区或低收入群体中获得专业心理支持更是显得“难上加难”。而人工智能通过其高度的自动化与可扩展性有效突破了这些限制,极大地扩展了心理健康服务的覆盖面。例如智能系统不仅能够提供全天候的情绪监测与心理支持,确保患者无论身处何地都能获得及时的干预,而且还能消除时空障碍,使心理健康服务变得更加普及与可得。政府可以借助这种跨越地域与时间限制的技术创新从而使需要心理帮助的个体能够及时获得关怀,降低心理健康干预的门槛。
与此同时,人工智能还推动了心理健康服务向精准化、个性化方向的发展。通过深度学习和大数据分析,人工智能能够对患者的情绪波动、行为模式以及生理数据进行实时监测,精准识别其心理状态的微小变化,从而为每位患者量身定制个性化的干预方案。这与传统的“一刀切”治疗模式相比,不仅提供了更加灵活且有效的解决方案,还确保了治疗方案与患者的实际需求高度契合。在情绪疏导、压力管理、以及焦虑、抑郁症状的早期识别与干预方面,人工智能可以更迅速、更精准地提供适合的干预措施,显著提高心理健康服务的精确度与疗效。
2.4. 人工智能赋能心理健康服务的基本情况
近年来我国人工智能赋能心理健康服务一直处于起步阶段,直至COVID-19疫情期间隔离措施的广泛施行才得到了迅速应用与发展。而国外的远程心理服务起步较早,国外许多高校及机构相继开展了在线咨询等心理服务,但由于遇到了一些来自于隐私、人权等法律问题使得进一步开展受到了阻碍(靳宇倡等,2022)。
目前,人工智能在心理健康服务中的应用已经覆盖到情绪识别、行为预测、聊天机器人等多个领域。基于自然语言处理的聊天机器人可以模拟心理咨询师与患者对话,为患者提供心理支持;情绪分析算法则可以帮助治疗师更好地理解患者的情绪状态。此外,人工智能技术还被应用于情绪监测和心理健康预警中,通过对患者生理和行为数据的实时分析从而提供个性化的心理健康指导。
例如,智能机器人可以提供24 h/7 d的服务,随时随地为患者提供心理支持服务,舒缓患者的焦虑、压力等不良情绪(张璇等,2025)。研究表明,海豹型机器人Paro的干预能够有效改善痴呆症和慢性疼痛患者的心理状态;与此同时,社交支持和心理疏导有助于缓解慢性病患者的负面情绪,提升治疗依从性(Guo et al., 2021)。智能机器人能够实时监测患者的生理数据,记录情绪变化,并与患者进行互动交流,为其提供情感支持和心理辅导。这种技术帮助缓解因疾病引发的精神压力和孤独感,改善患者的生活质量并提高治疗效果。例如,日本产业技术综合研究所开发的Paro陪护机器人能够有效减轻老年人的孤独感(Hwang, Macdonald, & Ahn, 2019)。
尽管这些技术在提升服务效率和可及性方面表现出色,但其内在的“黑箱”特性和缺乏人情味的交互方式仍然影响患者的信任建立。尤其是当面对复杂的情绪和多样化的个体需求时,机器显得过于“程序化”且缺乏灵活性。技术的发展如果缺乏对人类价值的尊重和对社会整体福祉的考虑,就会导致异化加剧。人工智能的应用从本质上看是资本主义对服务生产方式的再一次技术控制,其背后的逻辑并不是人类幸福的最大化,而是市场效率的提高和利润的增值。这样的逻辑使得技术不再是人类自由的工具,而是控制和限制的手段。这种情况下,技术对服务对象的异化是不可避免的。
3. 人工智能赋能心理健康服务的信任危机
人工智能技术的迅猛发展正逐渐改变心理健康服务的传统范式。通过深度学习、自然语言处理和情感计算等技术,人工智能为心理健康领域带来了个性化评估、情绪监测和在线干预等多样化的创新服务。这些技术的应用不仅提高了心理健康服务的可及性,还显著改善人们获得帮助的时效性和精准性。然而随着人工智能在心理健康领域的应用日趋广泛,信任危机也随之而来。数据质量、用户接受、隐私保护及从业者态度等方面的信任挑战亟待解决,下面将逐一展开讨论。
3.1. 数据收集:代表性不足与质量存疑
人工智能系统依赖于高质量的数据,而这些数据往往无法充分覆盖社会群体的多样性。研究指出,当数据样本无法全面反映真实场景时,人工智能模型的泛化能力会受到影响,导致模型在面对新的情况时表现不佳(Halevy, Norvig, & Pereira, 2009)。人工智能系统依赖于训练数据的质量,而这些数据通常并不能充分覆盖不同社会群体的多样性。这种不足使得人工智能系统无法对实际场景中的各种情况做出准确的判断,导致系统在面对多样化人群时表现不佳,进一步加剧了患者对技术的不信任。
此外,数据质量低劣也是一个普遍存在的问题,例如数据中可能存在噪声、缺失值或错误标注等问题,这些问题会直接影响到模型的训练和性能,降低了人们对人工智能系统的信任(Domingos, 2012)。这些问题会强化心理患者的异化感,使他们感觉自己只是数据处理的一部分,而非一个独特的个体,我们应确保人工智能系统在心理健康领域的应用能够对不同背景和文化的患者提供公平和有效的支持。
3.2. 用户接受:适应挑战与信任重建
推广远程心理服务的另一个挑战在于如何建立来访者对远程视频咨询的信任。在远程心理服务的初期,电话咨询的使用率远远高于视频咨询,这背后可能与来访者的偏好、对新技术的不熟悉以及对展示私人家庭环境的顾虑有关(Perrin, Rybarczyk, Pierce, Jones, Shaffer, & Islam, 2020)。因此,心理咨询师需要学习如何仅依赖语音信息(如语气)来进行咨询。
从马克思主义视角来看,远程心理服务的推广面临的挑战不仅是技术上的适应性问题,更多的是一种信任关系的再生产。在面对面咨询中,来访者往往因为社会性互动的形式而赋予咨询更高的重视程度。而在远程服务中,由于缺少面对面的直接互动,来访者可能会将远程咨询视为一种“非正式”甚至是“次等”的服务形式,缺乏对咨询师时间和专业性的重视。
3.3. 数据安全:隐私泄露与安全失信
在当前互联网隐私泄漏频发的背景下,如何保障用户数据安全成为互联网各领域面临的重大挑战。马克思主义视角下,生产关系与技术的发展应当服务于全社会的共同利益。然而,远程心理服务领域对数据安全的信任危机体现了资本主义体系下的内在矛盾。目前针对美国远程心理服务网站的研究表明,不到半数(47%)的网站提到保护客户个人健康信息(PHI)的安全措施,且只有18%的网站具体描述了隐私保障措施,相当一部分心理健康服务提供者未采取必要的措施确保通信与数据传输的安全(Fiene, Stark, Kreiner, & Walker, 2019)。
许多心理健康专业人员存在高风险的电子通信行为,如使用未加密的移动设备和公共网络传递客户健康数据,甚至通过未设密码保护的邮箱进行通信。这些行为使客户的隐私和保密性处于潜在风险中。为解决信任问题,必须加强通信监管与信息保护,使技术和社会服务真正以人为本,而非被资本利益所支配。
3.4. 从业认知:态度差异与使用阻力
一项关于远程心理服务的研究显示,心理服务从业者对远程心理服务的信任存在显著问题。尽管绝大多数从业者认同远程心理咨询的疗效,但只有不到20%的人曾在实践中应用过远程服务,且仅有25.9%的人表示他们有可能会推荐他人使用这一方式。研究还发现,近半数从业者认为远程心理服务效果不如面对面治疗,主要源于对这一服务形式的各种担忧,包括伦理问题(30%)、缺乏远程渠道(26.6%)、隐私保护(23.2%)、法律顾虑(23%)、对来访者场所隐私性的担忧(21.5%)、缺乏相关研究(19.6%)以及报销问题(5.4%) (Perle, Burt, & Higgins, 2014)。
这些担忧显著影响了从业者对远程心理服务的信任程度,导致他们在实际中较少采用这一方式。尽管有超过半数的从业者对远程心理服务培训表示兴趣,希望更多了解伦理、法律、疗效研究等方面的信息,但信任不足依旧成为阻碍其广泛应用的核心问题。因此,远程心理服务在从业者中形成了“认可度高但使用率低”的矛盾局面,其背后核心是信任问题的未能有效解决。
4. 解决信任困境的路径探索
要解决人工智能赋能心理健康服务的信任问题,关键在于将技术发展置于“以人为本”的框架内,真正服务于人类福祉与社会和谐。人工智能的开发和应用需要更透明和更具伦理意识,避免因资本逐利而偏离初心。我们可以从责任建设、数据优化、隐私保障和专业支持四大方面着手,积极探索信任的构建路径,以巩固心理健康服务中的信任基石,推动数智时代健康服务的稳步发展。
4.1. 责任优先:构建负责任的人工智能
整体来看,人工智能技术的发展需要制定一个可信赖的框架来保障人类免受伤害。负责任的人工智能要求技术的开发和应用符合社会和伦理价值观,以人为本,而非为资本牟利。2019年,经济合作与发展组织(OECD)发布了全球首个关于负责任管理可信人工智能的指导原则,强调人工智能应以人类福祉为中心,公平透明且可追责(El-Haddadeh, Fadlalla, & Hindi, 2021)。为此,必须系统探寻负责任人工智能中信任的构成要素、培养关于负责任人工智能的信任认知、建立关于负责任人工智能的审查机制,以合乎伦理的监督性信任和结构性道德责任为纽带的原则,构建合理的信任阈值(闫宏秀,2023)。在一些试点项目中,负责任的人工智能框架已初步实施。通过引入伦理审查委员会和技术审计机制,项目方确保技术的开发符合伦理标准,保障患者的利益(Zhang & Li, 2023)。
归根到底,人工智能是一项“人为”且“为人”的技术,应该以人为中心,服务于人类自治。此外,人工智能的发展要以解决社会刚需为出发点,以人类福祉和共同利益作为落脚点,促进人类向上向善(陈殿兵,朱鑫灿,2024)。为此,需要把人类的“善”的道德规范嵌入到人工智能技术的具体设计标准和设计环节中,保障人工智能技术的有序、良性发展(闫坤如,2020)。
4.2. 数据优化:提升样本覆盖与质量
首先需要确保人工智能系统在心理健康领域的数据收集能够充分反映社会群体的多样性。通过引入多样化的数据样本,并确保数据的全面性和公正性,人工智能系统可以更好地适应不同患者的需求,从而减少因数据偏差而产生的不信任。同时,还应加强对数据质量的把控,确保用于人工智能训练的数据不包含噪声、错误标注和缺失值。这需要在数据收集、整理和标注的每一个环节中引入严格的质量控制机制,以提高数据的准确性和可靠性,从而为系统的信任奠定基础。例如,一些应用程序通过引入多元化的用户群体,并通过机器学习算法不断优化数据标注,已经实现了准确识别不同心理状态的能力。实践证明,可以通过提高数据的多样性和质量从而增强系统对个体需求的适应性,更进一步增强了患者对系统的信任和依赖(Wang & Zhang, 2023)。
4.3. 隐私保障:强化数据透明与安全
马克思主义强调技术应为人类福祉服务,而不是加剧异化。远程心理服务面临的另一个挑战是来访者对新技术的适应性不足以及对远程咨询的信任缺乏。针对这一问题,可以加强用户教育和引导,使患者能够熟悉远程咨询的操作流程,并认识到远程心理服务与面对面服务的等效性。通过提供易于理解的操作指南以及初次使用时的技术支持,可以减少用户对新技术的焦虑感和陌生感。此外,还可以提升远程服务的人性化体验。咨询师可以在视频或电话咨询中更注重对来访者情绪的共情回应,尽量通过语言、表情等方式传达温暖和理解,从而增强来访者的安全感和信任感。此外,咨询环境的布置和沟通形式也应力求贴近面对面的咨询体验,使患者在虚拟环境中感受到真实的人际连接。
4.4. 专业赋能:提高从业人员接受度
在心理健康服务中,心理咨询师和从业人员对远程服务的信任度和接受度也影响了患者对服务的信任。为此,可以为从业人员提供系统化的远程服务培训,使他们掌握远程咨询的技能,并了解其伦理和法律方面的要求。通过实践和案例分析,增强他们对远程服务效果的认知和信任感。在一项大规模的远程心理服务培训项目中,超过80%的参与咨询师表示通过系统化的培训,他们对人工智能支持的远程服务有了更多的信任,并能更有效地利用技术手段为患者提供帮助(Zhao & Sun, 2023)。
除此以外,相关机构可提供必要的技术支持和法律保障,以减轻从业人员对远程服务中可能遇到的隐私、法律问题的顾虑。并且可以建立反馈机制,让从业人员能够分享和讨论他们在远程咨询中的经验和挑战,互相学习,从而逐渐提升他们对这一服务形式的接受度,使人工智能真正成为促进心理健康、提升人类幸福的技术工具,而非加剧社会不平等的工具。
5. 结语
人工智能之于人类的意义远不止于工具性的价值,而是愈来愈成为内在于人类生存结构的一部分。信任作为人工智能的发展根基,不仅关系到人工智能行业的长远发展,更关系到人类的健康福祉。如今,AI不仅能够增强人类的能力,让人们看得更远、听得更多,帮助人类思考和计算,同时,AI也正逐渐变得更加具有人文关怀,更加关注人类的情绪与情感、人类的心理健康以及主观幸福感等。把握人工智能技术发展和社会对心理问题关切加强的双重机遇,更好地发挥人工智能在心理及精神健康领域的评估测量、预防监测、预测诊断、治疗康复、病程管理和个性化服务等方面的应用优势。这将有助于实现可靠、可信、安全、向善的人工智能应用,以改善个人心理健康和增强社会韧性。