文化适配性视角下社交机器人技术接受度研究——基于信任、语言与伦理的TLE模型构建
A Study of Social Robot Technology Acceptance from the Perspective of Cultural Suitability—Construction of a TLE Model Based on Trust, Language and Ethics
DOI: 10.12677/acpp.2025.144202, PDF, HTML, XML,   
作者: 王雪琳:西安交通大学马克思主义学院,陕西 西安
关键词: 社交机器人文化适配性技术接受Social Robots Cultural Appropriateness Technology Acceptance
摘要: 随着人工智能技术的全球化发展,社交机器人正加速渗透至多元文化市场。当前基于开发者文化本位的设计范式,易引发文化适配性缺失问题,导致人机交互中的认知偏差与用户抵触。为突破技术跨文化推广瓶颈,本研究从文化适配性理论视角切入,通过构建包含信任、语言与沟通方式、伦理观念的TLE三维模型,系统解析文化差异性语境下社交机器人技术接受度的作用机制。研究发现:技术信任的跨文化迁移需依托伦理价值观校准实现,语言交互的本地化需兼顾符号系统与文化语用规则双重维度。研究为人工智能产品的文化嵌入提供了理论框架与优化路径,对推动人机协同的可持续发展具有实践启示。
Abstract: With the globalisation of AI technology, social robots are accelerating their penetration into multicultural markets. The current design paradigm based on the developer’s cultural orientation is prone to the problem of lack of cultural adaptability, leading to cognitive bias and user resistance in human-robot interaction. In order to break through the bottleneck of cross-cultural technology promotion, this study starts from the perspective of cultural appropriateness theory, and systematically analyses the mechanism of social robot technology acceptance in culturally different contexts by constructing a three-dimensional model of TLE, which includes trust, language and communication styles, and ethical concepts. The study finds that the cross-cultural transfer of technological trust needs to be calibrated with ethical values, and the localisation of language interaction needs to take into account the dual dimensions of symbolic systems and cultural pragmatic rules. The study provides a theoretical framework and optimisation path for the cultural embedding of AI products, and has practical implications for the sustainable development of human-robot collaboration.
文章引用:王雪琳. 文化适配性视角下社交机器人技术接受度研究——基于信任、语言与伦理的TLE模型构建[J]. 哲学进展, 2025, 14(4): 550-555. https://doi.org/10.12677/acpp.2025.144202

1. 引言

在技术社会化进程中,社交机器人正经历从工具理性到价值理性的范式跃迁。Suchman的技术人类学揭示,智能技术的全球扩散本质上是技术脚本与文化认知框架的持续协商过程。当工业机器人凭借ISO标准化体系实现跨文化流通时,其工具属性遮蔽了深层的文化异质性;而社交机器人因涉入人类情感联结与社会关系网络,不可避免地激活文化价值系统的审查机制。这种转变使得技术接受度研究面临根本性挑战:如何解构文化维度对人机交互模式的形塑作用,进而建立具有文化敏感性的技术发展范式?

既有研究虽已触及霍夫斯泰德文化维度理论的技术适配价值,但多局限于静态的文化特质比较,未能揭示文化认知与技术社会化进程的动态互构机制。技术接受模型(TAM)的个体主义取向,难以解释集体主义文化中社会规范对技术采纳的支配作用;而伦理讨论往往陷入西方中心主义的话语体系,忽视东方哲学对技术伦理的本体论重构潜力。这种理论缺位导致当前社交机器人的文化适配策略,仍停留在表层语言转换与界面本地化阶段,尚未触及价值系统的深层调适。

本研究通过整合Luhmann的信任生成理论、Hall的高低语境框架以及儒家伦理哲学,提出包含技术信任(Trust)、语言适配(Language Adaptation)、伦理调适(Ethical Alignment)的TLE三维分析框架。特别聚焦中国语境,探讨高语境文化对自然语言处理的范式挑战,以及“仁学”传统对技术伦理的理论补充价值,为破解智能技术的文化嵌入困境提供新的认知路径。

2. 技术社会化进程中的文化维度理论嬗变

机器人技术的全球化扩散本质上是一个技术社会化与文化认知框架动态互构的过程。技术物的角色建构始终嵌套于特定文化语境中,其社会接受度既受技术性能制约,更与深层文化价值观形成复杂互动[1]。这种互动呈现两个阶段的范式转换。

2.1. 工具理性主导的技术驯化阶段

在工业机器人发展阶段,技术社会化呈现显著的弱文化敏感性特征。工业机器人作为封闭技术系统,其标准化操作规范(如ISO 8373)通过去文化编码实现全球通用性。例如日本JIS B8433标准中的人机协作空间设计,虽隐晦体现集体主义文化中的“间人主义”理念,但其技术逻辑仍以效率最大化为核心目标。Silverstone与Hirsch的技术驯化理论进一步指出,此阶段用户对技术的认知处于客体化初期,机器人被视作纯粹工具性客体,文化属性尚未通过社会互动显性化[2]。这种工具理性优先的共识,使得全球制造业体系形成技术认知的同构化趋势,文化差异仅通过安全规程等制度载体间接表达。

2.2. 价值理性分化的技术具身阶段

随着社交机器人进入日常生活场域,技术社会化进程发生范式转换。机器人拟人化设计触发文化认知的深层激活:高语境文化用户对类人形态的偏好,根植于东方哲学“万物有灵”传统,而低语境文化对功能形态的倾向则映射西方工具理性传统。这种分化在伦理维度进一步凸显,个人主义文化强调技术透明性,集体主义文化则优先考量社会和谐价值。文化显性期的核心特征在于技术路径的文化形塑——西方沿笛卡尔身心二元论发展物理自主性,东方则基于儒家“仁学”关系本体论开发情感智能,形成泾渭分明的技术创新轨迹。

总结来看,机器人技术从初期发展到现阶段,经历了从工具化、功能单一,到自主化、智能化、多样化的过程。随着机器人的应用也逐渐从公共领域扩展到私人生活空间,如家庭服务、医疗护理等领域,进一步加深了机器人与人类的联系。机器人的接受度开始表现出明显的文化差异,通过跨文化研究了解造成差异的原因,从而为设计师设计和优化社交机器人的功能和服务,满足不同文化用户的需求提供有益参考。

3. 社交机器人文化适配性的关键影响因素分析

社交机器人在全球范围内的接受度受到多重因素的影响。为了系统性分析这些因素并揭示其相互作用机制,本研究借鉴DeLone & McLean信息系统成功模型,将其核心维度与社交机器人跨文化接受的关键因素相结合。该模型认为,一个信息系统的成功主要取决于系统质量(System Quality)、信息质量(Information Quality)和服务质量(Service Quality),这些因素共同作用于用户满意度,最终影响用户的技术使用意愿和接受度[3]

在跨文化分析社交机器人的接受度时,信任(Trust)、语言与沟通方式(Language and Communication Style)以及伦理观念(Ethical Perception)作为核心影响因素的选择并非偶然,而是基于相关研究和跨学科视角的验证。从心理学角度来看,信任是用户接受社交机器人的关键因素,涉及数据安全、隐私保护和可控性等方面的考量,直接影响用户对机器人的依赖度和长期使用意愿。从语言学角度来看,沟通方式决定了用户体验的质量,文化中的表达方式、语言适应能力以及语言风格都会影响社交机器人的交互效果,进而影响跨文化接受度。从伦理学角度来看,社交机器人的道德认知性直接影响其社会接受度,在不同文化背景下,对机器人的道德标准、拟人化程度的接受度以及责任归属的认知存在显著差异。

相比之下,尽管经济成本、技术性能或政策法规等因素同样影响社交机器人在市场中的推广,但它们并不能直接决定用户的接受程度。技术的先进性并不必然提升接受度,如果缺乏信任机制或伦理规范,即便是高性能的社交机器人也可能遭遇用户抵制。同样,经济成本更多影响市场普及速度,而非用户的核心态度。在此基础上,本研究构建TLE模型(信任Trust、语言与沟通方式Language and Communication Style、伦理观念Ethical Perception),用于分析社交机器人跨文化接受的关键影响因素。其中:1) 信任(T)对应系统质量,决定用户是否愿意接受社交机器人,强调技术的透明性、责任性和可控性;2) 语言与沟通方式(L)对应信息质量,影响用户体验,强调多语言支持、语境适配和个性化沟通;3) 伦理观念(E)对应服务质量,决定社交机器人是否符合文化价值观,影响其道德可接受性和社会认可度。

3.1. 技术信任:系统质量的核心维度

信任是社交机器人跨文化接受度的基础。不同文化背景的用户对技术信任的构建技术方式不同。例如,在高度发展的国家,长期的技术积累和广泛的应用经验使消费者对新技术更有信心;而在技术接受较多的文化(如高不确定性规避的国家)时,消费者往往需要看到机器人的稳定性和安全性,才能增进信任[4]。IEEE《人工智能可读性与信任准则》(2022),技术的透明性、道德性和责任性是构建信任的三大核心要素。例如,机器人需要向用户解释其功能和数据处理方式,以增强透明度,并在错误发生时能够提供修正反馈,以提高可靠性。

此外,形成跨文化技术信任的“信任缺口”,即异文化对于社交机器人的信任程度存在显着差异[5]。例如,在风险规避的文化中,消费者更倾向于质疑新兴技术的可靠性,从而影响其接受程度。因此提高社交机器人的透明度、责任性和可信赖性是提升技术信任、促进其被异文化用户接受的关键。

3.2. 语言与沟通方式:信息质量的核心维度

跨文化语言认知是社交机器人成功的重要因素之一。在高语境文化(如东亚国家),沟通往往更加敏锐、关注暗示和礼仪,因此,社交机器人如果能够适应这种沟通风格,例如使用更多委婉的表达方式,将更多可能被用户接受。而在低语境文化(如北美、欧洲),直接、的沟通更受青睐,社交机器人需要提供快速、明确的响应,符合用户的交流期待。

另外,ISO 9241-210国际人机交互标准(2022年修订版)强调,在设计跨文化认知强的技术时,应充分考虑语言和沟通风格的差异[6]。为了适应不同文化的交流偏好,社交机器人需要具备语境感知能力,能够依据用户所在文化调整语言风格。例如,在高语境文化中,机器人应当更注重情境提示和间接表达,而在低语境文化中,则需提供明确、直接的指令与反馈。此外,多语言支持、口音适应、语调调整等功能均是提升跨文化信息质量的重要手段。

3.3. 伦理观念:服务质量的核心维度

不同的文化背景下,消费者对社交机器人伦理问题的敏感程度不同。在强调个人隐私和自主权的文化中(如欧美国家),用户更关注社交机器人是否侵犯隐私,或是否具备道德风险控制能力。例如,欧盟《人工智能法案》(2021)提出,人工智能技术的伦理责任需适应不同文化的隐私保护需求,以提高用户的接受意愿[7]。相反,在更加关注希望福祉和社会责任的文化中(如日本、韩国),消费者更能提供社交机器人能够为社会积极贡献,如老年护理、教育辅助等[8]

Triandis的文化伦理观模型表明,在伦理观较为严格的文化环境中,社交机器人需要在数据保护、信息透明度、隐私保障方面达到更高标准,而在伦理接受度较高的文化,机器人是否具备社会价值和道德责任感可能是更重要的考量因素。因此,社交机器人在跨文化推广时,需要根据不同文化背景调整伦理适配策略,以提高其社会认可度。

4. 社交机器人在我国的应用与挑战

4.1. 我国社交机器人的技术信任构建

社交机器人作为人工智能的重要应用,已广泛渗透至医疗健康、养老护理、公共服务和智能制造等领域。我国消费者在技术信任构建方面具有独特性,这与政府的政策支持、社会信用体系以及文化价值观密切相关。《新一代人工智能发展规划》(2017)和《人工智能伦理治理指南》(2021)等政策的实施,体现了国家在推动技术创新的同时,也注重人工智能的安全性与社会接受度。

根据Luhmann的信任理论,信任的建立依赖于系统的透明度、规范化和长期稳定性[9]。在我国,社交机器人要获得用户信任,需要满足技术透明性、政府监管支持及社会信用体系的要求。例如,2023年发布的《人工智能产业发展白皮书》提出“可信AI”认证体系,要求人工智能产品在安全性、透明度和伦理合规性方面达到更高标准。

此外,我国社会信用体系的建设对社交机器人信任构建产生了深远影响。企业在推广社交机器人时,需确保数据安全与隐私保护,以减少公众对数据泄露的担忧。2023年,“开放大模型应用测试”的推进进一步增强了用户对智能技术的信任,如百度的“文心一言”、华为的“盘古大模型”等产品,均体现出我国在人工智能生态系统透明化与规范化方面的努力。

4.2. 语言适应与社交机器人的本土化发展

我国地域辽阔、语言多样,社交机器人的语言适应能力直接影响其在不同地区的推广与应用。根据Hall的高语境与低语境文化理论,我国属于高语境文化,人际沟通依赖语境、非语言线索和社会关系。因此,社交机器人不仅要具备精准的语言识别能力,还需提升语境感知和情感交互能力。

近年来,国内企业在自然语言处理(NLP)和多模态交互技术方面取得重要突破。例如,2023年腾讯推出的“混元大模型”在多语言处理和语境理解能力上取得了显著进步,使社交机器人能够更精准地把握用户需求,从而优化交互体验。

此外,社交机器人在我国的发展需特别关注老年群体。随着人口老龄化趋势加剧,我国正在加速推进“智慧养老”模式。能够识别方言、进行情感交互的社交机器人在养老院和社区服务中得到广泛应用。例如,2023年上海的“智慧养老计划”引入了一批能够支持粤语、四川话等方言交流的智能机器人,以提升老年人的生活便利性和幸福感。

4.3. 技术伦理的东方智慧与接受度

社交机器人的伦理问题在全球范围内引发广泛讨论,而我国的伦理观念对该技术的接受度及发展方向起着重要作用。我国传统文化强调“和谐”、“集体责任”和“社会福祉”,这一价值观深受儒家伦理的影响。Confucian Ethics认为,技术的发展应以“仁”为核心,服务于社会整体福祉,而非仅追求商业利益[10]

2021年发布的《人工智能伦理治理指南》强调,人工智能的发展应遵循“安全可控、公平公正、促进福祉”三大原则。与西方更侧重个人隐私保护的伦理框架相比,我国更强调技术对社会整体的正向贡献。例如,在医疗领域,社交机器人已广泛应用于远程诊疗和健康监测,以优化医疗资源分配。

2023年,生成式人工智能(如ChatGPT)在全球范围内引发关注,而我国对该领域的监管更加严格。同年发布的《生成式人工智能服务管理办法》明确要求AI产品需符合社会主义核心价值观,并防范技术滥用。因此,社交机器人在我国的发展不仅需保障隐私安全,还需遵循国家政策导向,确保技术与社会伦理价值观保持一致。

4.4. 社交机器人的中国式应用前景

综合以上因素,社交机器人在我国的应用前景广阔,但仍面临诸多挑战。未来,社交机器人产业的发展需重点关注以下几方面:

第一,在信任构建方面,企业应加强信息透明度,提高用户对技术的可理解性,同时政府可通过政策支持和监管措施,如推广“可信AI”认证,进一步提升公众的技术接受度。

第二,在语言适应性方面,社交机器人应不断优化自然语言理解能力,并结合各地区的语言特色进行定制化优化。例如,利用大模型技术开发能够适应不同语境需求的智能助手,以满足不同年龄层和社会群体的需求。

最后,在伦理治理方面,社交机器人需在设计阶段融入伦理考量,确保技术公平性和安全性。在养老、教育和医疗等关键领域,社交机器人应具备更强的道德决策能力,并严格遵循国家伦理规范,以推动社会整体福祉的提升。

5. 结语

由于不同文化背景下的信任机制、沟通方式和伦理观念存在重大差异,社交机器人在全球范围内的接受程度并不均衡。通过分析信任构建、语言认同和伦理认同等关键影响因素,可以更深入地理解消费者接受模式的存在,并为社交机器人技术的跨文化优化提供方向。就我国而言,在政府政策支持与社会信用体系的推动下,社交机器人在医疗、养老、教育等领域的应用前景无效,但仍需在技术透明性、伦理和人机交互优化方面进一步探索。未来,随着人工智能技术的更高持续发展和跨文化研究的深入,社交机器人实现在全球范围内实现人机共存与社会尊严的水平,为智能社会的发展提供更大的可能性。

参考文献

[1] Suchman, L. (2006) Human-Machine Reconfigurations. 2nd Edition, Cambridge University Press.
https://doi.org/10.1017/cbo9780511808418
[2] Silverstone, R. (1993) Domesticating the Revolution: Information and Communication Technologies and Everyday Life. Aslib Proceedings, 45, 227-233.
https://doi.org/10.1108/eb051328
[3] DeLone, W.H. and McLean, E.R. (2003) The DeLone and McLean Model of Information Systems Success: A Ten-Year Update. Journal of Management Information Systems, 19, 9-30.
[4] Koh, L.Y., Xia, Z. and Yuen, K.F. (2024) Consumer Acceptance of the Autonomous Robot in Last-Mile Delivery: A Combined Perspective of Resource-Matching, Perceived Risk and Value Theories. Transportation Research Part A: Policy and Practice, 182, Article 104008.
https://doi.org/10.1016/j.tra.2024.104008
[5] Omrani, N., Rivieccio, G., Fiore, U., Schiavone, F. and Agreda, S.G. (2022) To Trust or Not to Trust? An Assessment of Trust in AI-Based Systems: Concerns, Ethics and Contexts. Technological Forecasting and Social Change, 181, Article 121763.
https://doi.org/10.1016/j.techfore.2022.121763
[6] https://www.iso.org/standard/77520.html
[7] https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf
[8] 联合国教科文组织. 人工智能伦理问题建议书[EB/OL].
https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi.locale=zh, 2025-04-25.
[9] Niklas, L. (2000) Familiarity, Confidence, Trust: Problems and Alternatives. In: Trust: Making and Breaking Cooperative Relations, Blackwell Publications, 94-107.
[10] Tu, W.M. (1998) Humanity and Self-Cultivation: Essays in Confucian Thought. Cheng & Tsui.