AIGC时代人机互动理论的回顾与进展
A Review and Progress of Human-Computer Interaction Theory in the AIGC Era
DOI: 10.12677/jc.2025.135128, PDF, HTML, XML,    科研立项经费支持
作者: 何 亮, 黄新怡:杭州师范大学外国语学院,浙江 杭州
关键词: 人机互动人机传播CASA理论AIGCHuman-Computer Interaction Human-Computer Communication CASA Theory AIGC
摘要: 近年来,人工智能生成内容(AIGC)的迅速发展推动了新型人机交互模式的形成,传统的计算机中介传播分析(CASA)理论已无法适应AIGC时代的技术进步与媒介变化。本文系统梳理了人机互动和人机传播的核心理论,重点探讨了CASA理论的提出及其拓展,并对AIGC技术的特征与人机交互展开了深入分析。文章指出,尽管CASA理论为人机传播研究提供了基础,但随着技术的发展,其在解释新兴人机交互模式和跨文化情境中的局限性逐渐显现。文章还指出,目前学界从“社会线索”、“媒体代理”、“社会脚本”三条路径来扩展了CASA范式,以适应AIGC时代的需求。最后,文章展望了人机交互理论的未来研究方向。本文的研究发现为后续研究提供了理论依据,同时,本文有助于更好地理解AIGC技术对人类工作与生活的深远影响,这对于推动人机交互技术的实际应用,如决策支持、情感陪护等领域,具有重要的现实价值。
Abstract: In recent years, the rapid development of Artificial Intelligence Generated Content (AIGC) has fostered the emergence of novel human-computer interaction modes, rendering traditional theories such as Computer-Mediated Communication Analysis (CASA) insufficient to accommodate the technological advancements and media transformations of the AIGC era. This paper systematically reviews core theories of human-computer interaction and communication, emphasizing the origins and developments of CASA theory, while conducting an in-depth analysis of AIGC technology’s features and their implications for human-computer interaction. It argues that although CASA theory provides a foundational framework for human-computer communication studies, its limitations have become increasingly evident in explaining new interaction patterns and cross-cultural contexts arising from technological evolution with the development of technology. The paper further notes that academia has expanded the CASA paradigm through three main approaches—“social cues”, “media agency”, and “social scripts”—to adapt it to the needs of the AIGC era. Finally, the paper discusses future research directions for human-computer interaction theory. These findings provide a theoretical foundation for subsequent research and enhance our understanding of AIGC’s profound impact on human work and life, holding significant practical implications for advancing human-computer interaction applications, including decision support and emotional companionship.
文章引用:何亮, 黄新怡. AIGC时代人机互动理论的回顾与进展[J]. 新闻传播科学, 2025, 13(5): 860-865. https://doi.org/10.12677/jc.2025.135128

1. 引言

21世纪科技浪潮席卷全球,大数据、云计算与深度学习技术得到巨大突破,实现质的飞跃,从而催生了全新的AI模型。同时,信息爆炸和智能化的加速,社会对个性化、高质量内容的需求激增,为AIGC从理论走向实践提供了广阔市场。在数字经济蓬勃发展的背景下,AIGC不仅成为产业升级的重要驱动力,还深刻改变了人们的工作与生活方式,这意味着人与AI之间的关系已经从简单的工具使用演进为深度协作与共存。然而这种计算机技术与媒体环境的持续演进,以及当今传播领域呈现出的前所未有的复杂性与多元化态势,对既有的媒介等同理论(Media Equivalence Theory)以及经典的人机交互理论框架,如计算机中介传播分析(Computer-Mediated Communication Analysis, CASA),构成显著挑战。鉴于此,深入探讨研究人机之间的互动模式及特点,构建适应于时代的理论框架,既是技术发展的内在需求,也是构建和谐智能社会的关键支撑。本文将系统梳理并综述国内外关于人机交互、人机传播领域的核心文献,深入剖析其在AIGC时代的理论基础与实践进展。

2. 人机互动概念界定

随着信息技术、媒介形态的高速发展,以及其广泛而深入地渗透进社会各个领域,人们如何看待媒介及其交流方式成为当代学术界与业界共同关注的焦点议题。在媒介技术决定论和媒介环境论的影响之下,人机交互(Human-Computer Interaction, HCI)的概念被提出。人机交互,可以被定义为有效的人机技术交互,它构成了用户与计算机系统直接信息传递与理解的双向通道。具体而言,HCI主要研究的是人、计算机之间相互影响的技术[1],旨在构建一座桥梁,即用户界面(User Interface, UI),人与计算机之间传递、交换信息的媒介渠道。用户通过这个界面输入多样化的数字资源,它们在计算机系统内部经历解码与重构的过程,最终以人类能够理解的方式呈现信息。这个时候的机器被作为媒介渠道、沟通中介,并且在人类主导下,根据命令输出信息内容,无法与人类产生情感式交流,也不能捕捉到用户多样性以调整交流内容和交流方式[2]

旧有的传播理论将人与人之间的交流称作传播,仅仅把机器作为中介,这样的以人为绝对主体的理念,已经不能够适用于当下人机关系的新发展。因此,越来越多的学者开始以人机传播(Human-Machine Communication)的视角重新划定传播主体的范畴,探究如何看待人与机器之间的关系以及交流机制。人机传播不同于早先的人机交互,前者主要涉及的是人与各种输入、输出设备之间的交互;后者承认机器作为传播主体,认为机器人从简单的工具性存在,并在向更加智能、自主且具备社交能力的实体转变,成为参与社交互动的主体[3]

3. 人机互动研究进展

() CASA理论的提出

在人机交互、人机传播理论的研究方面,国内学术界的探索尚显不足,相较之下,国际学界自20世纪90年代起便对人机传播议题展开了持续而热烈的讨论。其中,由美国斯坦福大学传播系学者克里夫·纳斯(Cliff Nass)与其团队学者共同提出的CASA (Computers as Social Actors)理论,成为该领域最具解释力的核心理论。虽然CASA理论没有讨论传播主体的范畴,但是它明确了计算机被人类作为传播主体。CASA理论的核心构成——媒介等同理论(Media Equation),深刻揭示了基于一种无意识转移的概念[4],人类在与包括人工智能在内的媒体进行交互时,尽管他们知道与之交谈的不是人类,但还是倾向于将人工智能等媒介视作具有人类特质的社交伙伴[5],在认知上将“媒介”与人类划上等号,实现了一种认知上的“等同化”。这样一来,CASA理论的假设即将人际交往准则与人机传播机制等同,原来只存在于人类之间的传播学概念和理论便能照搬到人机传播中。

() CASA理论的拓展范式

历经近三十载的学术检验,CASA理论及其媒介等同理论依旧展现出强劲的理论解释力与启发潜力,持续激发着后续研究者的探索热情。学者们不断在该理论框架内进行创造性拓展,涌现出丰富的学术对话,进一步深化了人机传播领域的理论版图。然而,随着技术的飞速进步与社会环境的变迁,各种新兴媒介形态涌现,包括可穿戴设备、智能手机、类人机器人,CASA理论面临着日益凸显的局限性,诸如对新兴人机交互模式的解释力不足,对跨文化情境下媒介等同现象的忽视等,均提示着需要更为详细的解释和理论上的扩展[6]。目前学界普遍讨论的两个问题是:1、如何界定机器人这一传播主体?2、人机传播是否能沿用CASA理论中的人际传播交互机制?

总体而言,尽管学术界在第一个问题上尚未形成全然统一的共识,但主流讨论脉络清晰地遵循了一个逻辑框架:首要步骤是明确媒体需要被纳入传播主体的范畴[3] [7] [8];其次,更加深入的讨论聚焦于媒体在人机传播这一新兴语境下,具体是作为什么样的传播主体存在。此逻辑链不仅构建讨论的基础框架,也为后续研究指明了方向。

在欧美传播学界的广泛研究中,CASA理论通常被视为研究人机传播的基石。近年来部分学者提出,媒体已超越了传统中介的定位,转而成为能够自主行动并产生社会影响的独立社会行为体。这一观点催生了MASA (Media-as-social-actor)理论的诞生,旨在更准确地捕捉并解释当前媒体环境下媒体作为社会行动者的角色与功能[6]

然而,众多学者对将机器人与媒体完全等同为人类传播主体的观点持保留态度,他们主张人工智能被赋予了拟主体性,而非主体性,强调“人类智能创造人工智能”是一个不可逆转的客观事实[9] [10]。机器人的核心角色依然是作为人类的辅助工具与延伸存在,即便如ChatGPT等社交机器人展现出跨领域、深层次的交流能力,其情感表达与观点生成仍基于算法计算,缺乏人类独有的思维共鸣与情感交流。此外,从伦理与法律视角审视,机器人难以被等同视为人类主体,这涉及复杂的行为道德责任与法律责任的归属问题[11]。随着“类人”机器人技术的发展,公众日益担忧其可能对人身安全、个人隐私构成的潜在威胁[12]。因此,界定AI作为传播主体的地位既具重要性又显复杂性,这一议题不仅需要传播学领域的深入探讨,还需跨学科地考量法制、伦理、社会影响等多个维度。唯有如此,方能全面、审慎地应对AI技术发展带来的传播格局变革及其伴随的社会挑战。

针对第二个议题,随着媒介技术日益精进,其拟人化程度的显著提升、个体媒体使用经验的累积深化、人机交互模式的不断创新,以及媒介社交功能的广泛拓展,现有理论范式所认为的诸如“无意识转移”等看法面临迫切的修正与扩展需求[6] [13]。尽管CASA理论预测了人类可能遵循与人际互动相似的社会脚本与机器人或媒体进行交互,但当前学术趋势表明,这一预测并非绝对[14]。相反,随着技术生态的演变,人类更可能发展出一套新颖、特定且专为人机互动量身定制的社交脚本。这些脚本不仅反映人类既有的社交习惯与认知模式,更将深刻融入并塑造由技术驱动的新型社交互动范式。因此,对CASA理论的深化研究需聚焦于探索这些新兴社交脚本的形成机制、特征表现及其对人类社会行为、心理乃至文化层面的深远影响。Nass在其对CASA理论的拓展中指出,有可能触发社会反应的线索包括语言、声音、面孔、情感表现、互动、与用户的感知参与,以及社会角色的填充[15]。紧跟Nass的步伐,一些学者抓住“社会性”这个点扩展了CASA范式,认为社会线索是导致用户社会反应的关键因素[16],能够提供越多社会线索的媒体,其所引发的社会反应也就越强烈。由于媒体能够提供这些社会线索,用户在与媒体交流时,并不会将其当作普通的中介。然而,前面多数研究都只是从总体方面说明社会线索的效果[17] [18],并没有对它们进行区分,也就没有办法知道不同社会线索的质量效果如何。因此MASA范式的提出[6],不仅是为了适应媒体技术的深化发展及其社会性日益凸显的需要,而且区别各种社会线索及其可能引起的不同个体反应[19],有助于提升人们的认知水平[20],体验更加高效直观的人机互动。CASA认为,人们在与媒体交流时有一个预先存在的心理模式,这种与他人互动的心理模式被称为社会脚本[21],即他们将在类似的情况下如何与另一个人类交流[4]。然而,Nass的结论只停留在“人类是否会将人际交往的社会脚本运用于计算机中”,其研究对象有限(通常是台式计算机),有学者开辟新的问题,进一步探究“人类是否能创造出特定的人机互动的社会脚本”[20],并且扩大了媒体代理(Media agent)定义,即任何展示了足够的社会线索来暗示其成为社会互动来源的潜力的技术产物,由此来将这些实体与超出CASA范围的机器和技术区分开来。总的来说,学者们从“社会线索”、“媒体代理”、“社会脚本”三条路径来扩展了CASA范式,是以其为基础进行更符合AIGC时代的理论方向进行创新。

() 人与AIGC交互特点研究

ChatGPT等AIGC作为新型生成式人工智能,符合媒体代理的定义,而且其前所未有的大语言模型和对人类反馈方式的学习能力,以及通过掌握特殊标记和经验性学习能给出一定的情感反应,使之具备了形式多样的社会线索,形成了对人类的“超模拟”。自从ChatGPT发布以来,学界对其的讨论颇多,主要集中于其技术层面和社会影响层面。该技术在理解和生成自然语言方面具有巨大优势,能够构建动态、交互式的数字空间,实现个性化、即时性的信息和知识传递,提升人机对话的自然度、多模态情景响应等,展现出重塑工作方式与生活方式的变革潜力。然而,作为兼具主体间性与技术中介性的特殊传播节点[7],ChatGPT的广泛应用正在解构传统传播伦理框架,其自主生成内容的责任归属问题[22]已突破既有法律规制范畴,形成亟待应对的伦理治理问题。由此可见,目前许多研究已经或多或少提及人类与ChatGPT互动的特点、优势、风险等问题,但现有成果多停留在行为表征描述层面,尚未深入解析AIGC介入认知过程的作用机制。AIGC数据驱动的深度学习特点、多模态融合能力、高效与自适应的优势以及在伦理和可控性方面的技术弊端,使得原本单向输出、命令式、以“人”为主的人机交互变为更加具有互动性、个性化、平等交流的模式,如上所述,这掀起了学者们对“传播主体”范畴的讨论;同时,AIGC使用者正以一种全新的心态看待AI,不论是在促进共智社会发展还是在忧虑其所带来的社会问题上,用户都发生了从“人本位”到“和谐共生”的观念转变。

4. 结语

当前人机交互领域的理论演进与技术革新正呈现显著张力。国际学界围绕认知架构CASA理论展开的深度探索,为AIGC时代下突破传统界面交互范式,形成新型人机交互理论框架提供了关键路径。然而国内相关研究仍存在显著滞后性:一方面,跨学科对话机制尚未健全,计算机科学、认知心理学与人文社会科学的融合研究仍显薄弱;另一方面,技术实践层面过度聚焦功能实现,而对人机交互中的主体范畴、类人特质等深层问题关注不足。

鉴于此,通过整合人机认知理论,期待能够探索突破“工具理性”桎梏,在决策支持、情感陪护等场景构建“认知伙伴”关系的交互范式,这种范式构建对理解、阐释与解决人机协同工作及伦理问题具有重要意义理论。最终指向的理想图景是:通过构建双向适应的交互生态,使智能系统既作为人类智慧的延伸体,又成为情感联结的新载体,在数字与物理世界的融合空间中实现真正的共生共智。

基金项目

本论文为2023年度浙江省哲学社会科学青年课题“数字帝国主义对我国国际传播的影响与对策研究”成果,项目编号:23NDJC278YB。

参考文献

[1] 彭兰. 从ChatGPT透视智能传播与人机关系的全景及前景[J]. 新闻大学, 2023(4): 1-16+119.
[2] Dix, A. (2017) Human-Computer Interaction, Foundations and New Paradigms. Journal of Visual Languages & Computing, 42, 122-134.
https://doi.org/10.1016/j.jvlc.2016.04.001
[3] 申琦, 王璐瑜. 当“机器人”成为社会行动者: 人机交互关系中的刻板印象[J]. 新闻与传播研究, 2021, 28(2): 37-52.
[4] Nass, C. and Moon, Y. (2000) Machines and Mindlessness: Social Responses to Computers. Journal of Social Issues, 56, 81-103.
https://doi.org/10.1111/0022-4537.00153
[5] Fischer, K. (2011) Interpersonal Variation in Understanding Robots as Social Actors. Proceedings of the 6th International Conference on Human-Robot Interaction, Lausanne, 6-9 March 2011, 53-60.
https://doi.org/10.1145/1957656.1957672
[6] Lombard, M. and Xu, K. (2021) Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm. Human-Machine Communication, 2, 29-55.
https://doi.org/10.30658/hmc.2.2
[7] Guzman, A.L. and Lewis, S.C. (2019) Artificial Intelligence and Communication: A Human-Machine Communication Research Agenda. New Media & Society, 22, 70-86.
https://doi.org/10.1177/1461444819858691
[8] 别君华. AI是传播主体吗?——人机传播的兴起及超越传播本体论的限度[J]. 全球传媒学刊, 2024, 11(3): 57-73.
[9] 段伟文. 人工智能时代的价值审度与伦理调适[J]. 中国人民大学学报, 2017, 31(6): 98-108.
[10] 杨保军. 再论“人工智能新闻生产体”的主体性[J]. 新闻界, 2021(8): 21-27+37.
[11] 成素梅, 高诗宇. 智能机器人应有法律主体资格吗? [J]. 西安交通大学学报(社会科学版), 2020, 40(1): 115-122.
[12] Hua, S., Jin, S. and Jiang, S. (2024) The Limitations and Ethical Considerations of ChatGPT. Data Intelligence, 6, 201-239.
https://doi.org/10.1162/dint_a_00243
[13] 徐琦. 超越“计算机为社会行动者”范式: 智媒时代人机传播理论创新的突破点[J]. 现代传播, 2023(6): 160-168.
[14] Fortunati, L. and Edwards, A. (2021) Moving Ahead with Human-Machine Communication. Human-Machine Communication, 2, 7-28.
https://doi.org/10.30658/hmc.2.1
[15] Nass, C. (2004) Etiquette Equality: Exhibitions and Expectations of Computer Politeness. Communications of the ACM, 47, 35-37.
https://doi.org/10.1145/975817.975841
[16] Nomura, T. and Kanda, T. (2014) Influences of Evaluation and Gaze from a Robot and Humans’ Fear of Negative Evaluation on Their Preferences of the Robot. International Journal of Social Robotics, 7, 155-164.
https://doi.org/10.1007/s12369-014-0270-y
[17] Tung, F. and Deng, Y. (2007) Increasing Social Presence of Social Actors in E-Learning Environments: Effects of Dynamic and Static Emoticons on Children. Displays, 28, 174-180.
https://doi.org/10.1016/j.displa.2007.06.005
[18] Ghazali, A.S., Ham, J., Barakova, E. and Markopoulos, P. (2018) The Influence of Social Cues in Persuasive Social Robots on Psychological Reactance and Compliance. Computers in Human Behavior, 87, 58-65.
https://doi.org/10.1016/j.chb.2018.05.016
[19] Abubshait, A. and Wiese, E. (2017) You Look Human, but Act like a Machine: Agent Appearance and Behavior Modulate Different Aspects of Human-Robot Interaction. Frontiers in Psychology, 8, Article No. 1393.
https://doi.org/10.3389/fpsyg.2017.01393
[20] Gambino, A., Fox, J. and Ratan, R. (2020) Building a Stronger CASA: Extending the Computers Are Social Actors Paradigm. Human-Machine Communication, 1, 71-86.
https://doi.org/10.30658/hmc.1.5
[21] Honeycutt, J.M. and Bryan, S.P. (2011) Scripts and Communication for Relationships. Peter Lang, 52-56.
[22] Yang, S., Dong, Y. and Yu, Z.G. (2024) ChatGPT in Education: Ethical Considerations and Sentiment Analysis. International Journal of Information and Communication Technology Education, 20, 1-19.
https://doi.org/10.4018/ijicte.346826