从兴趣激发到情感共鸣——多模态视域下三分钟学术演讲中“兴趣”情绪的模态协同研究
From Interest Stimulation to Emotional Resonance—Research on Modal Coherence of “Interest” Emotion in Three-Minute Thesis Presentations from a Multimodal Lens
摘要: 三分钟学术演讲(Three-Minute Thesis,简称3MT)作为数字化时代的新兴多模态学术口语体裁,融合语言、手势、表情等模态,有助于优化科学知识传播范式。兴趣情绪在促进学术传播方面作用关键,但其多模态传达策略却鲜受探讨。本研究基于兴趣情绪的多模态分析框架,对100位3MT获奖选手的演讲进行系统分析,最终发现:(1) 84处有效兴趣标记中,选手调用共计476次不同强度的模态,以构建高复杂度的模态表达系统,形成高密度多模态语境;(2) 模态间详述型关系占比最大,而扩充型关系占比最小,这表明选手更依赖非言语模态增强情绪表达而非补充言语信息。这些发现进一步强调了多模态协同对提升观众情感共鸣进而增强话语说服力方面的作用,为平衡学术演讲的严谨性与公众吸引力提供切实可行的话语策略,助力我国学术传播实践。
Abstract: Three-Minute Thesis (3MT) competition is an emerging multimodal academic spoken genre in the digital era, integrating modes such as language, gestures, and facial expressions, which helps optimize the paradigm of scientific knowledge dissemination. The emotion of interest often plays a crucial role in promoting academic communication, yet its multimodal communication strategies have received limited attention. This study employed a multimodal analysis framework for interest emotion to systematically analyze 100 3MT award-winning presentations, and finally revealed: (1) at the 84 interest markers, the contestants utilized a total of 476 modes with varying intensity, constructing an expression system with high modal complexity, to create a high-density multimodal context; (2) the proportion of elaboration relation among the modes was the largest while the proportion of extension relation was the smallest, suggesting that the award-winning contestants relied more on nonverbal modes to enhance their emotional expression rather than to supplement verbal information. These findings further highlight the importance of multimodal synergy in enhancing the audience’s emotional resonance and thereby strengthening persuasiveness of speech, and provide practical discourse strategies for balancing the rigor of academic speech with public appeal, thus contributing to China’s academic dissemination practices.
文章引用:蒲增, 王倩. 从兴趣激发到情感共鸣——多模态视域下三分钟学术演讲中“兴趣”情绪的模态协同研究[J]. 现代语言学, 2025, 13(7): 959-971. https://doi.org/10.12677/ml.2025.137791

1. 引言

随着我国科技水平和国际影响力的提升,国家日益重视学术成果的对外传播。这不仅是科学研究的重要环节,更是讲好中国故事、增强国际学术话语权、提升国家文化软实力的关键路径[1]。如今,全球“开放科学”趋势推动公众对科学普及的需求不断攀升[2],促使学术传播突破专业壁垒,面向更广泛的非专业群体。三分钟学术演讲(简称3MT)自2008年于昆士兰大学首次开展以来,为全球高校硕博研究生提供了分享学术发现的平台,要求参赛者通过精炼的语言向不同专业背景的观众阐释其研究的核心内容与价值,这一独特规则很好地应对了平衡学术深度与观众可及性的新挑战。作为一种多模态叙事行为,3MT凭借其整合语言、表情和肢体动作等多种符号资源的能力,成为了传播科学知识、凝聚科研共识和催化交叉学科创新的重要途径。

学术传播虽应保证准确度和客观性,但研究显示学术语篇的表述并非绝对客观[3],诸如to our surprise、interestingly及what confuses me等与认知相关的情绪表达并不罕见[4] [5]。学术交流中的认知情绪由认知评价驱动,通过声音、眼神和肢体语言等多种方式协同传达[6],有助于激发情感共鸣、塑造学术权威、强化科研劝谏。其中,兴趣作为基本情感之一,与学术环境内外学习过程高度相关,能够“通过使不熟悉的事物具有吸引力来消解焦虑”[7],是促进人们探索知识的内在动力。作为典型的学术交流平台,3MT赛事将“参与”和“交流”划为核心评判标准[8],强调选手通过多种模态与观众建立情感共鸣,吸引观众产生兴趣。现有研究主要考察了3MT的修辞结构[9] [10]、观众参与[8] [11]和多模态话语策略[12] [13],但对兴趣等认知情绪的多模态传达规律鲜有关注。

为丰富多模态在情绪传播领域的研究,本文聚焦3MT赛事获奖选手兴趣情绪的模态协同传达,探究言语与非言语模态如何协同优化情绪传达效果、提升演讲感染力,进而激发观众情感共鸣、促进科学知识理解。

2. 文献综述

作为互动元话语标记的子类别,认知情绪在学术交流中的重要作用一直受到关注。相较于惊奇和困惑等其他认知情绪,兴趣具有较高可理解性,产生的积极情感体验能够“营造一种轻松的协商氛围”[14],有助于促进交流双方有效互动。Wang & Hu [4]通过对国际期刊中认知情绪的系统分析,提出了包含兴趣在内的认知情绪语义分析框架。基于此,学科、时间和地域等因素对学术语篇中兴趣标记使用的影响持续得到重视[15] [16]。研究发现,近年来兴趣标记的使用频率显著增加[17],这说明该情绪在学术语篇中的重要作用逐渐凸显。刘国兵、孙文青[14]通过对语义框架及其核心元素的分析,进一步探讨了兴趣标记的分布特征,指出其在触发程度方面偏好增强型标记程度。

上述研究揭示了兴趣情绪在学术交流中的重要作用和使用趋势,主要集中在学术写作领域,但现有研究对学术演讲中兴趣情绪多模态传达现象的关注相对阙如。事实上,学术期刊论文的数字平台建设和科学知识的多模态传达逐渐成为学术发展的主流趋势,学术演讲等多模态交流语类常被视为学术论文传播科学知识的重要补充[18] [19],情绪在学术交流中的传达也体现出多模态特性。已有研究探讨了多模态话语策略在学术交流中的应用,主要聚焦于三个维度:首先在模态协同机制方面,研究者揭示了会议演讲[20]、TED演讲[21]、视频摘要[22]以及YouTube科学视频[23]等语类中多种模态间的协同效应,强调了“模态密度(modal density)”和“模态协同(modal coherence)”这两个关键概念;其次在传播效果层面,研究证实手势[24]和视觉图像[25]等符号资源的调用可有效提升受众参与度[26],但需注意模态配置不当对传播效果的消极影响[27]-[29];此外,在教学应用领域,研究关注了多模态能力培养对学生学术演讲水平的提升作用[30] [31],有助于推进学术英语教学实践。

众多学术演讲语类中,3MT的定位介于正式学术演讲体裁与TED演讲和YouTube视频等流行体裁之间,要求选手在规定的三分钟时限内平衡学术深度和观众可及性,结合创新的多模态话语策略,为不同领域观众提供引人入胜、通俗易懂的学术讲解。显著的规则特殊性和目标受众异质性引发了众学者对3MT话语策略的初步探讨,包括修辞结构层面的语步组织特征[9]及其学科话语实践[10],人际交流层面的互动策略[32]、立场态度的互动特征[11]和互动元话语对身份构建的影响[33],以及多模态协同层面言语表达与非言语模态的交互效应[12] [34]。上述研究都为3MT演讲者应对观众多样性以及提升演讲内容说服力提供了切实有效的话语策略,但在情感层面,如何通过多种模态协同有效传达并唤起兴趣情绪以提高观众参与度等问题,还有待进一步挖掘。

综上所述,本研究通过3MT赛事获奖选手传达兴趣情绪时的多模态调用情况,探索模态协同如何影响兴趣情绪传达,促进演讲者与观众的深层次互动,并回答以下两个问题:

(1) 3MT获奖选手如何调用不同密度的模态以有效传达兴趣情绪?

(2) 3MT获奖选手以何种方式实现语言和非言语模态协同以促进兴趣情绪的传达?

3. 研究方法

3.1. 语料收集

本研究从YouTube和3MT官方网站1上2008至2025年间3MT视频中抽取100件获奖作品(获Winner、Runner-Up或People’s Choice至少一项),视频范围涵盖全球多地区赛事,确保时间和地域的多样性。考虑到相较于软学科,硬学科背景的演讲者倾向于在言语中使用更多非言语模态来传达个人态度[8] [28],本研究仅关注3MT赛事的硬学科2参赛者,以降低学科差异对结果的干扰。完成音视频的收集和录制后,利用“讯飞听见”将其转写为文本,并进行人工校对。最终,本文创建了学术口语多模态语料库,文本长度为45,697词(表1)。

Table 1. Corpus information

1. 语料信息

学科

自然科学

工程与技术科学

医药与健康科学

农业科学

总计

型符数

11,207

12,913

13,290

8287

45,697

文本数

25

27

29

19

100

3.2. 分析框架

参照词网(WordNet)和科林斯在线同义词词典(Collins Thesaurus),穷尽式列出interest的同义词、反义词和派生词,将其作为搜索词在语料库中检索兴趣标记(此类标记可能通过否定形式出现,如not dull,故将其反义词也纳入搜索词列表),剔除与情绪语义无关的表达,如interest rate中的interest。此外,本文着眼于学术演讲,因此需要对照英国学术英语口语语料库(British Academic Spoken English, BASE)和密歇根学术口语语料库(Michigan Corpus of Academic Spoken English, MICASE)对搜索词人工核查,过滤学术演讲中的不常见表达。

根据Norris [35]提出的多模态互动分析框架,人际互动常通过九种交际模态的协同作用进行,包括语言、空间距离、姿势、手势、头部动作、眼神、布局、音乐和印刷物。本研究中,由于3MT赛事的特殊规则,三种非实体模态(布局、音乐和印刷物)对传递兴趣情绪的作用并不明显;同时因为时空限制,不同场景下演讲者与观众之间的空间距离难以准确测量。因此,本文排除了以上模态,并参考先前研究[36],采用了以下模态分类框架(表2)来分析3MT获奖选手的兴趣情绪多模态传达。

Table 2. Multimodal analytical framework for the expressions of interest in 3MT

2. 3MT中传达兴趣情绪的模态分析框架

模态

子类型

描述与解释

手势

图画型

塑造形状特点,比如说a spark of interest时,手指张开做出火花的形状

隐喻型

用隐喻物形状反映抽象概念,比如演讲者将两只手向观众打开, 隐喻性地表达了兴趣被激发或新信息被揭示的过程

指示性

用手指向现实世界中的某物或某概念,比如在说I’m interested时指向自己

节奏型

双手有节奏地移动,以强调兴趣标记

姿势

开放式

如手臂张开,表示对感兴趣话题的开放态度

封闭式

如双臂交叉,表示对某个观点深度聚焦,反映兴趣和专注

头部动作

侧向偏移型

左右侧移头部,表示好奇或思考状态

矢状型

通常为点头,表示认同和肯定令人感兴趣的信息

面部表情

眉头上扬

传达兴趣时眉头上扬

张大嘴巴

传达兴趣时嘴角咧宽

睁大眼睛

传达兴趣时睁大眼睛

微笑

表现自己的兴趣和好奇

眼神

看向观众

通过凝视观众建立情感联系,传递热情并吸引观众参与

看向幻灯片

引导观众关注与兴趣相关的内容,强化信息视觉呈现

音韵

重音

重读兴趣标记,凸显情绪表达

升调

提高音调传达兴趣情绪,表现热情

降调

降低音调增强严肃性,引导观众产生兴趣、深入思考

根据Norris [35]的定义,模态密度包括两个关键维度:模态复杂度(modal complexity)和模态强度(modal intensity)。模态复杂度描述了共同构建更高层次行为的模态多样性,而模态强度表现的是特定模态在整体表达中的突出程度,反映其对整体交际效果的贡献。模态协同则探讨了多种模态如何相互作用以促进意义传达,可以通过模态间交互关系衡量[12]。因此,本文在上述框架基础上,参考Martinec & Salway [37]搭建的图文关系框架以及张德禄[38]和Feng [39]关于模态间关系的研究,归纳出详述型(elaboration)、强化型(enhancement)和扩充型(extension)三种模态间交互关系,构建针对3MT中传达兴趣情绪的模态密度及协同分析框架(表3)。

Table 3. Analytical framework of modal density and modal coherence that convey interest

3. 传达兴趣情绪的模态密度及协同分析框架

范畴

角度

描述

示例

模态密度

模态复杂度

传达兴趣情绪同时调用的模态次数

描述有趣研究时调用手势、面部表情和重音三种模态

模态强度

每种模态用以传达兴趣的时长占比

讲述有趣故事时与观众维持长时间眼神交流

模态协同

详述型关系

通过非言语模态为兴趣情绪的 言语表达增加描述性细节

兴奋喊道I’m interested in this story, 同时眉头上扬、露出微笑

强化型关系

通过非言语模态强化言语 表达兴趣的情感效果

描述对新发现的激动心情时, 双手向外打开,强化情绪程度

扩充型关系

通过非言语模态为兴趣情绪的 言语表达引入新的情感维度 或语境要素

提到I’m interested in this phenomenon 同时睁大眼睛、张大嘴巴, 为interested兴趣标记添入惊讶情感维度

3.3. 数据标注与分析

本文首先利用AntConc 4.3.1检索兴趣情绪词,统计兴趣标记在语料库中的出现频数;随后根据分析框架,使用多模态标注软件Elan 6.4对音视频中传达兴趣情绪的模态及其交互关系进行标注,计算选手使用的模态数量、各模态的时长占比以及每种模态间交互关系的出现频数。为确保研究结果准确性,第一作者和一名经过专门培训的编码员对多模态数据进行了独立标准,内部一致性达93%,双方标注过程中出现的差异已经过商讨并达成一致。

4. 研究结果与讨论

4.1. 兴趣情绪传达的模态密度:复杂度和强度

在本文的100篇语料中共计检索到84个有效兴趣标记,包括名词(如interest、curiosity)、动词(如attract、notice)、形容词(如exciting、interesting)、副词(如interestingly、excitingly)以及短语表达(如draw attention),并标注出476次伴随上述标记出现的非言语模态。

4.1.1. 传达兴趣情绪的模态复杂度分析

3MT获奖选手传达兴趣情绪时,展现出较高模态复杂度,平均每次调用5.2种非言语模态。多模态的密集调用形成了高密度的交际环境,有助于情绪传递更为立体饱满。例如,2号选手(图1左)在探讨细胞分裂时,通过眉头上扬、双手向外扩张、轻微点头、看向观众以及重音等模态来强调exciting这一标记所传达的兴趣情绪,增强了演讲的生动性,帮助观众更直接地感受到科学探索的激动人心之处;83号选手(图1右)在介绍自己对阿尔茨海默病患者突触中钙离子失调的研究时,结合微笑、节奏型手势以及升调等模态辅助传达exciting标记,让兴趣情绪的表达更具感染力,凸显研究发现带给自己的意外惊喜。

Figure 1. Multimodal conveyance of the interest marker “exciting”

1. 兴趣标记exciting的多模态传达

上述发现证明,熟练的语言表达者擅长使用更多身势语来强化言语信息[40]。多媒体学习中的通道效应(modality effect)认为,相较于由“画面+视觉文本”组成的视觉单通道材料,由“画面 + 听觉解说”组成的视听双通道材料对于学习效果更具积极作用[41] [42]。同理,在3MT语境下,当言语表达相对易懂时,情绪可以通过单一通道传达给观众;而当演讲内容复杂、对观众的思考深度要求较高时,情绪传达需要更多通道,以降低观众认知负荷。这种高度复杂的多模态语境有助于帮助观众理解演讲内容[43],并引发情感共鸣[44]

4.1.2. 传达兴趣情绪的各模态强度分析

基于高复杂度的多模态协同环境,本研究考察了各模态在兴趣情绪传递过程中的强度特征。数据显示,不同模态的时长占比差异显著,反映出3MT获奖选手在兴趣传达过程中的模态选择偏好。眼神和姿势交际模态时长占比最大(97.95%和91.86%),体现出显著的高模态强度。例如,39号选手(图2)对如何改进火星探测器轮胎这一问题产生好奇(curiosity),此时他并没有呈现其他明显非言语模态,但依旧保持基本站位姿势以及与观众必要的眼神交流。这可能与两种模态的固有特性相关。大多数社交互动中,脸部和身体姿势通常会在第一时间出现,相较于其他交际模态更容易被察觉[45]。管乐[21]针对TED演讲中多模态互动机制开展的研究也发现,在整个动态演讲视频中,姿势和眼神持续时长占比较大,凸显了这两种交际模态在口语语篇中的重要作用。

Figure 2. Gaze and gesture that convey the interest marker “curiosity”

2. 眼神和姿势传达兴趣标记curiosity

一些模态的子类型在兴趣情绪传达中的强度差异同样值得关注。在眼神模态层级内,“看向观众”的时长占比达94.40%,凸显了眼神交流在学术演讲中的基础性地位。选手可通过直接眼神交流主动与观众互动[46],防止其注意力分散,以更好地建立社会联系[47] [48]。尽管有研究指出引导注视对学习的促进作用优于直接注视[49] [50],但在3MT中,选手全程只能展示一张静态幻灯片,而兴趣标记几乎不体现演讲的实际内容,其相关信息很少会出现在幻灯片上,因此“看向幻灯片”这一引导性质的眼神模态强度并不高。此外,开放式姿势(56.85%)的模态强度高于封闭式姿势(35.00%),这可能因为开放的身体姿势能加强交流双方的互动效果,有助于营造更为亲切包容的氛围,提升选手的情感表现力,从而提高观众对有趣信息的感知和理解能力[51] [52]

除开眼神和姿势,节奏型手势(44.86%)、点头(25.37%)、眉头上扬(28.26%)以及升调(21.43%)和重音(31.17%)等非言语模态在传达兴趣过程中也较为普遍。这首先与兴趣标记的语义特点有关:兴趣标记因情绪的抽象特性[53],通常难以通过与语义相关的手势表达,而节奏型手势一方面与言语传达的兴趣标记几乎没有语义上的联系,另一方面又有助于引发观众对有趣信息的注意[48] [54]。其次,Silvia [55]构建的评价空间(appraisal space)指出,兴趣是在人们面对新奇和意外信息时感受到惊奇的前提下发展产生的,这解释了为何眉头上扬等典型表现惊讶感受的动态表情高频出现。但与具有双重含义的惊奇标记(如surprised、astounding、unusual等)不同,兴趣标记更能产生积极情感体验[14],这可能导致微笑和点头等表达肯定意义的非言语模态得以频繁调用,营造出轻松愉悦的学术交流环境[56]。过往研究还发现,人们常在交流过程中通过增大声音强度或提升音调高度来凸显语言中的关键信息[57];教学过程中,也有研究证实教师积极上扬的语调有利于增强学生的学习效果[48]。这为本研究中重音和升调的模态强度大于降调这一现象提供了依据:选手可以通过重音和升调,刻意凸显言语中的兴趣标记,以促进观众对情绪的感知。

4.2. 兴趣情绪传达的模态协同:模态间交互关系

在84处有效兴趣标记中,79处体现了模态协同,表明3MT获奖选手普遍擅长通过多种模态的协同配合来提升兴趣情绪传达效果。这种协同主要通过详述型、强化型和扩充型三种模态间交互关系实现。

4.2.1. 详述型交互关系

详述型关系最常见,占比48.81%。它通过非言语模态对言语表达进行具象化补充,形成多层次兴趣表征。例如,1号选手(图3)讲述了其将研究电池这一兴趣发展为博士课题的故事,在提到a spark of interest时,选手眉头上扬、面带微笑的面部表情生动传达出其内心对这项研究的兴奋与好奇,与之相伴的手势隐喻了兴趣如同火花(spark)般被点燃并逐渐发展成科研课题的过程,帮助观众直观感受到选手对课题研究的积极情感。

Figure 3. Elaboration relation among multiple modes

3. 模态间详述型交互关系

4.2.2. 强化型交互关系

强化型关系占比28.57%,常通过多种非言语模态的同步出现强调言语意义,放大情绪强度。比如,54号选手介绍了关于自闭症患者突触失衡的研究,呈现出的小幅度节奏型手势、点头等非言语模态与兴趣标记excited同时出现(图4)。尽管手势和头部动作跟兴趣语义没有直接关联,但这种模态协同可以强化excited的存在,加深观众对情绪的感知。

Figure 4. Enhancement relation among multiple modes

4. 模态间强化型交互关系

4.2.3. 扩充型交互关系

扩充型关系占比16.67%,体现为非言语模态对言语表达的新信息引入,具体表现为语义内涵扩充和语境外延拓展。前者通过非言语模态深化词汇的概念内涵,后者意味着非言语模态补充言语表达未明示的语境要素。例如,23号选手表示自己提出的“IEAT”疗法在帮助患有吞咽困难的婴儿学会进食和饮水方面有显著效果,这让她激动和兴奋(excitingly),表现出的睁大眼睛、张大嘴巴等夸张面部表情突出excitingly本身的兴趣语义,同时暗含疗法成效带给自己的“意外之喜”,使单一的兴趣情绪升级为复杂情感体验(图5左)。19号选手提到自己抵达澳大利亚后就迅速沉浸在项目研究中,此时他指向自己的指示性手势为兴趣标记involved补充了情绪主体,进一步强调了自己对这项研究的浓厚兴趣(图5右)。

Figure 5. Extension relation among multiple modes

5. 模态间扩充型交互关系

三种交互关系中,详述型最为普遍,说明获奖选手更倾向于构建与兴趣语义相近的意义,以帮助观众更好地感知兴趣情绪,进而促进交流[40]。详述型关系的构建与面部表情的出现有直接关系,这进一步验证了在多模态互动中,面部表情作为构建详述型关系的重要模态,能够有效描绘言语传达的情绪信息,提升整体的表达效果[58]。强化型关系在3MT获奖选手传达兴趣情绪过程中也并不少见,主要通过节奏型手势、有节奏的头部运动以及明显重音或升调等增强语言节奏感的模态来强化言语表达的兴趣情绪程度,凸显关键情绪信息以引导观众注意力[59]-[61]。扩充型关系相对较少用以传达兴趣情绪,这类关系下的言语和非言语模态各自传达的信息并不一致,更多情况下是非言语模态提供的新信息对言语表达起到补充、澄清或拓展作用。这可能是因为3MT的参赛者均为博士研究生,他们在学术语言表达层面普遍具备较高水平[12],情绪的语言表达大都足够明确,因此只需要利用非言语模态加强表达效果,而非弥补信息层面的不足[62] [63]

另外,个别获奖选手呈现出的多模态场景与言语表达的兴趣标记无关联,导致模态间缺乏有效协同。这可能与这部分选手竞赛心理压力较大或多模态运用能力不足等因素相关。张德禄[29]提出的模态配置原则指出,调用模态须以“有效达到交际目的”为宗旨,力求话语意义的建构更加精准明确。而3MT语料中出现的少数多余且与兴趣无关的模态不仅无法有效传达情绪,反而可能成为演讲者与观众沟通的障碍[12],应尽量避免出现这种模态冗余的现象。

5. 结语

本文系统考察了3MT赛事获奖选手在传达兴趣情绪时的多模态话语策略,发现获奖选手通过构建以言语表达为核心、不同密度的非言语模态为辅助的模态间交互关系,实现兴趣情绪传达的模态协同以及3MT学术性与现场感染力的平衡。具体而言,获奖选手在传达兴趣情绪时善于调用多种非言语模态,其中开放式姿势和与观众的直接眼神交流等高密度模态在吸引观众方面效益显著。此外,选手更倾向于构建模态间详述型关系以增强情绪感染力,而非通过扩充型关系补充语言信息的不足,这一策略与选手自身的学术语言能力密切相关。

本文揭示了3MT中传达兴趣情绪时言语与非言语模态的协同规律,并进一步拓展了多模态分析框架在学术演讲领域的应用,强调了模态协同对提升演讲感染力起到的重要作用。研究结果为3MT等学术演讲赛事培训提供了有益参考,尤其在增强演讲吸引力与促进学术传播方面具有一定指导意义。但本研究也存在一定局限。首先,兴趣只是影响学术演讲的众多认知情绪之一,因此,未来的研究应继续考察其他情绪,包括困惑和惊奇等,并进一步厘清不同情绪间的关联。其次,本研究虽然通过视频分析能捕获到丰富的交际模态,但难以考察观众的实时反应,可以在后续研究中设计观众问卷和访谈,以更细致地了解情绪如何通过多模态协同影响观众理解和参与。

基金项目

西北工业大学2025年硕士研究生实践创新能力培育基金项目(PF2025101)的阶段性成果。

附 录

Table A1. The list of search words used to identify interest markers

A1. 兴趣标记检索词列表

情绪范畴

词性

检索词

兴趣

动词

interest, appeal, attract, absorb, amuse, captivate, engross, entertain, enthrall, fascinate, intrigue, involve, rivet, spellbind, stimulate, wonder

名词

interest, absorption, attentiveness, attention, attraction, appeal, appetite, curiosity, concern, engrossment, heed, importance, inquisitiveness, fascination, significance, note, weight, substance, momentousness, notice, hobby, pursuit, entertainment

形容词

interesting, interested, appealing, absorbing, affected, alluring, amusing, arresting, attentive, attractive, attracted, beguiling, bewitching, captivating, curious, compelling, compulsive, concerned, eager, engaging, engrossing, entrancing, enchanting, entertaining, enthralling, enthusiastic, enticing, eye-catching, fascinated, fascinating, gripping, gripped, intriguing, involving, involved, inquisitive, keen, noteworthy, obsessed, obsessive, rapt, responsive, riveting, stimulated, stimulating, seductive, spellbinding, stirring, thought-provoking

副词

appealingly, attractively, curiously, eagerly, enthusiastically, keenly, fascinatingly, interestingly, intriguingly, inquisitively, noticeably, obsessively

其他表达

arouse curiosity, draw attention, grab attention, hold the attention of, catch one’s eye, keep an ear to the ground, on the edge of one’s seat, to whet one’s appetite, hung up on, rapt attention, have a soft spot for, tickle one’s fancy, prick up the ears, fuel one’s passion, intrigue one’s mind, nose around, hooked on

非兴趣

动词

bore, disinterest, disregard

名词

boredom, disinterestedness, unconcern, indifference, yawn

形容词

boring, bored, dull, dreary, monotonous, tiresome, tedious, weary, uninteresting, uninterested, indifferent, unattractive, unconcerned, unexciting, unexcited, unmoved, wearied

副词

unattractively, indifferently, monotonously, tediously, uninterestingly, uninterestedly, wearily

其他表达

not my cup of tea, not my thing

Table A2. Figure source

A2. 图源信息

图片

演讲者信息

视频来源网站

Figure 1 (左)

昆士兰大学2022年冠军

https://threeminutethesis.uq.edu.au/

Figure 1 (右)

耶鲁大学2023年亚军

https://www.youtube.com/watch?v=_a6hQx2RFfU

Figure 2

明尼苏达大学2022年冠军

https://www.youtube.com/watch?v=hOEx7c20t-g

Figure 3

昆士兰大学2023年冠军

https://threeminutethesis.uq.edu.au/

Figure 4

布法罗大学2021年冠军

https://www.youtube.com/watch?v=nBVLySBtAW8

Figure 5 (左)

亚太地区2022年亚军

https://www.youtube.com/watch?v=0ffYZM5HABM

Figure 5 (右)

昆士兰大学2013年亚军

https://www.youtube.com/watch?v=zR4fcGAvNlQ

NOTES

13MT官网:https://threeminutethesis.uq.edu.au/。

2学科分类参考经合组织(OECD)于2007年修订的《科学技术领域分类》(Fields of Science and Technology Classification)。

参考文献

[1] 陶继华, 叶红艳. 国际传播背景下学术期刊英文摘要推广的价值、方法与路径[J]. 科技与出版, 2025(3): 124-132.
[2] Li, Z. and Ma, J. (2021) Science Popularization and Its Ethical Standpoint. Cultures of Science, 4, 74-80.
https://doi.org/10.1177/20966083211037098
[3] 刘国兵, 张莫晗. 语料库驱动的“V that-clause”介入型式学科对比研究[J]. 山东外语教学, 2023, 44(2): 30-39.
[4] Hu, G. and Chen, L. (2019) “To Our Great Surprise…”: A Frame-Based Analysis of Surprise Markers in Research Articles. Journal of Pragmatics, 143, 156-168.
https://doi.org/10.1016/j.pragma.2019.02.021
[5] Wang, Q. and Hu, G. (2022) What Surprises, Interests and Confuses Researchers? A Frame-Based Analysis of Knowledge Emotion Markers in Research Articles. Lingua, 279, Article ID: 103426.
https://doi.org/10.1016/j.lingua.2022.103426
[6] 陈国伟, 张鹏洲, 王婷, 叶前坤. 多模态情感分析综述[J]. 中国传媒大学学报(自然科学版), 2022, 29(2): 70-78.
[7] Silvia, P.J. (2013) Interested Experts, Confused Novices: Art Expertise and the Knowledge Emotions. Empirical Studies of the Arts, 31, 107-115.
https://doi.org/10.2190/em.31.1.f
[8] Hyland, K. and (Joanna) Zou, H. (2021) Pithy Persuasion: Engagement in 3 Minute Thesis Presentations. Applied Linguistics, 43, 21-44.
https://doi.org/10.1093/applin/amab017
[9] Hu, G. and Liu, Y. (2018) Three Minute Thesis Presentations as an Academic Genre: A Cross-Disciplinary Study of Genre Moves. Journal of English for Academic Purposes, 35, 16-30.
https://doi.org/10.1016/j.jeap.2018.06.004
[10] Jiang, F. and Qiu, X. (2022) “These Findings Are Very Astonishing”: Hyping of Disciplinary Research in 3MT Presentations and Thesis Abstracts. Australian Journal of Linguistics, 42, 300-322.
https://doi.org/10.1080/07268602.2023.2180320
[11] Qiu, X. and (Kevin) Jiang, F. (2021) Stance and Engagement in 3MT Presentations: How Students Communicate Disciplinary Knowledge to a Wide Audience. Journal of English for Academic Purposes, 51, Article ID: 100976.
https://doi.org/10.1016/j.jeap.2021.100976
[12] 郑群, 厉沁怡. 三分钟学术英语演讲中获奖组与非获奖组多模态介入及模态协同性对比研究[J]. 中国ESP研究, 2023(3): 23-32, 114-115.
[13] Ma, Y. and Jiang, F.K. (2025) Guiding and Engaging the Audience: Visual Meta Discourse in Power Point Slides of Three Minute Thesis Presentations. English for Specific Purposes, 77, 56-70.
https://doi.org/10.1016/j.esp.2024.10.003
[14] 刘国兵, 孙文青. 学术语篇中的惊奇与兴趣知识情感: 基于FrameNet的研究[J]. 外语与外语教学, 2024(3): 99-110, 149.
[15] Wang, Q. and Hu, G. (2023) Disciplinary and Gender-Based Variations: A Frame-Based Analysis of Interest Markers in Research Articles. English for Specific Purposes, 70, 177-191.
https://doi.org/10.1016/j.esp.2022.12.006
[16] Wang, Q. and Hu, G. (2023) Expressions of Interest in Research Articles: Geo-Academic Location and Time as Influencing Factors. Lingua, 293, Article ID: 103580.
https://doi.org/10.1016/j.lingua.2023.103580
[17] 王倩. 框架语义学视域下应用语言学国际期刊学术论文中“兴趣”标记的历时考察[J]. 中国ESP研究, 2024(3): 93-105+177.
[18] 宋启凡. 学术期刊抖音短视频平台的发展与探索[J]. 中国科技期刊研究, 2021, 32(3): 365-371.
[19] 陈平, 宋启凡. 基于自然资源期刊集群的多模态资源融合与学术传播路径研究[J]. 编辑学报, 2023, 35(3): 321-325.
[20] Carter-Thomas, S. and Rowley-Jolivet, E. (2003) Analysing the Scientific Conference Presentation (CP), a Methodological Overview of a Multimodal Genre. ASp, 39, 59-72.
https://doi.org/10.4000/asp.1295
[21] 管乐. 基于ELAN的演讲视频多模态互动机制研究——以一则TED教育类演讲视频为例[J]. 北京科技大学学报(社会科学版), 2021, 37(5): 499-510.
[22] 李杨, 林芝. 我国科技期刊视频摘要的社交化传播及其优化策略研究[J]. 编辑学报, 2023, 35(4): 434-438.
[23] Bernad-Mechó, E. and Valeiras-Jurado, J. (2023) Engaging the Audience in Online Youtube Science Dissemination Videos: A Look at the Uptake of Multimodal Engagement Strategies. ESP Today, 11, 302-327.
https://doi.org/10.18485/esptoday.2023.11.2.6
[24] Harrison, S. (2021) Showing as Sense-Making in Oral Presentations: The Speech-Gesture-Slide Interplay in TED Talks by Professor Brian Cox. Journal of English for Academic Purposes, 53, Article ID: 101002.
https://doi.org/10.1016/j.jeap.2021.101002
[25] Xia, S. (2023) Explaining Science to the Non-Specialist Online Audience: A Multimodal Genre Analysis of TED Talk Videos. English for Specific Purposes, 70, 70-85.
https://doi.org/10.1016/j.esp.2022.11.007
[26] Dontcheva-Navratilova, O. (2023) Persuasion in Multimodal Digital Genres: Building Credibility in Video Abstracts. ESP Today, 11, 213-236.
https://doi.org/10.18485/esptoday.2023.11.2.2
[27] 黄建玲. 国际学术会议PPT演示稿语用解读[J]. 外语电化教学, 2012(4): 59-64.
[28] Morell, T. (2015) International Conference Paper Presentations: A Multimodal Analysis to Determine Effectiveness. English for Specific Purposes, 37, 137-150.
https://doi.org/10.1016/j.esp.2014.10.002
[29] 张德禄. 多模态话语建构中模态选择和配置原则研究[J]. 外语教学, 2024, 45(3): 1-6.
[30] 李雪, 王景惠. 多模态驱动的研究生英语学术语篇建构[J]. 外语电化教学, 2015(5): 63-67.
[31] 冯芃芃, 龙影, 谷明樾. 大学生学术英语演讲论证能力发展的个案研究[J]. 外语界, 2019(5): 39-47.
[32] Zou, H. and Hyland, K. (2021) A Tale of Two Genres: Engaging Audiences in Academic Blogs and Three Minute Thesis Presentations. Australian Journal of Linguistics, 41, 131-151.
https://doi.org/10.1080/07268602.2021.1918630
[33] 刘璐达, 刘梦甜. 互动元话语与科普演讲: 语境重置下的劝谏与修辞[J]. 外语学刊, 2023(2): 42-47.
[34] Beltrán-Palanques, V. (2023) Three-minute Thesis Presentations: Engaging the Audience through Multimodal Resources. In: Plo-Alastrué, R. and Corona, I., Eds., Digital Scientific Communication: Identity and Visibility in Research Dissemination, Springer, 223-250.
https://doi.org/10.1007/978-3-031-38207-9_10
[35] Norris, S. (2004) Analyzing Multimodal Interaction: A Methodological Framework. Routledge.
[36] Valeiras-Jurado, J. and Bernad-Mechó, E. (2022) Modal Density and Coherence in Science Dissemination: Orchestrating Multimodal Ensembles in Online TED Talks and Youtube Science Videos. Journal of English for Academic Purposes, 58, Article ID: 101118.
https://doi.org/10.1016/j.jeap.2022.101118
[37] Martinec, R. (2005) A System for Image-Text Relations in New (and Old) Media. Visual Communication, 4, 337-371.
https://doi.org/10.1177/1470357205055928
[38] 张德禄. 多模态话语分析综合理论框架探索[J]. 中国外语, 2009, 6(1): 24-30.
[39] Feng, D. (2020) Genre, Pedagogy, and Powerpoint Design: A Multimodal Move Analysis of Linguistic Lecture Slideshows. In: Lin, K.L., Mwinlaaru, I.N. and Tay, D., Eds., Approaches to Specialized Genres, Routledge, 177-197.
https://doi.org/10.4324/9780429053351-14
[40] Gregersen, T., Olivares‐Cuhat, G. and Storm, J. (2009) An Examination of L1 and L2 Gesture Use: What Role Does Proficiency Play? The Modern Language Journal, 93, 195-208.
https://doi.org/10.1111/j.1540-4781.2009.00856.x
[41] Mayer, R.E. (2009) Multimedia Learning. Cambridge University Press.
[42] 王福兴, 谢和平, 李卉. 视觉单通道还是视听双通道?——通道效应的元分析[J]. 心理科学进展, 2016, 24(3): 335-350.
[43] Paulmann, S., Jessen, S. and Kotz, S.A. (2009) Investigating the Multimodal Nature of Human Communication: Insights from ERPs. Journal of Psychophysiology, 23, 63-76.
https://doi.org/10.1027/0269-8803.23.2.63
[44] Petty, R.E. and Briñol, P. (2014) Emotion and Persuasion: Cognitive and Meta-Cognitive Processes Impact Attitudes. Cognition and Emotion, 29, 1-26.
https://doi.org/10.1080/02699931.2014.967183
[45] Duarte Silva, A. and Oliveira, A.M. (2016) Do Faces and Body Postures Integrate Similarly for Distinct Emotions, Kinds of Emotion and Judgent Dimensions? Universitas Psychologica, 15, 1-21.
https://doi.org/10.11144/javeriana.upsy15-3.fbis
[46] Argyle, M., Cook, M. and Cramer, D. (1994) Gaze and Mutual Gaze. British Journal of Psychiatry, 165, 848-850.
https://doi.org/10.1017/s0007125000073980
[47] Beege, M., Nebel, S., Schneider, S. and Rey, G.D. (2019) Social Entities in Educational Videos: Combining the Effects of Addressing and Professionalism. Computers in Human Behavior, 93, 40-52.
https://doi.org/10.1016/j.chb.2018.11.051
[48] 王福兴, 乔沛桦, 匡子翌. 教师社会线索对视频学习的影响[J]. 心理科学, 2025, 48(2): 393-405.
[49] van Gog, T., Verveer, I. and Verveer, L. (2014) Learning from Video Modeling Examples: Effects of Seeing the Human Model’s Face. Computers & Education, 72, 323-327.
https://doi.org/10.1016/j.compedu.2013.12.004
[50] Wang, H., Pi, Z. and Hu, W. (2018) The Instructor’s Gaze Guidance in Video Lectures Improves Learning. Journal of Computer Assisted Learning, 35, 42-50.
https://doi.org/10.1111/jcal.12309
[51] Zloteanu, M., Krumhuber, E.G. and Richardson, D.C. (2020) Acting Surprised: Comparing Perceptions of Different Dynamic Deliberate Expressions. Journal of Nonverbal Behavior, 45, 169-185.
https://doi.org/10.1007/s10919-020-00349-9
[52] Burgoon, J.K., Dunbar, N.E., Pentland, S., Wang, X., Chen, X. and Ge, S. (2024) Beyond the Face: Nonverbal Messages from the Voice, Head, Eyes and Posture. In: Chadee, D. and Kostić, A., Eds., Body Language Communication, Springer, 1-28.
https://doi.org/10.1007/978-3-031-70064-4_1
[53] Kousta, S., Vigliocco, G., Vinson, D.P., Andrews, M. and Del Campo, E. (2011) The Representation of Abstract Words: Why Emotion Matters. Journal of Experimental Psychology: General, 140, 14-34.
https://doi.org/10.1037/a0021446
[54] Beaudoin‐Ryan, L. and Goldin‐Meadow, S. (2014) Teaching Moral Reasoning through Gesture. Developmental Science, 17, 984-990.
https://doi.org/10.1111/desc.12180
[55] Silvia, P. (2019) Knowledge Emotions: Feeling That Foster Learning, Exploring, and Reflecting. In: Biswas-Diener, R. and Diener, E., Eds., Noba Textbook Series: Psychology, DEF Publishers, 31-48.
[56] 应洁琼, 谢朝群. 英语教学支架语言与手势、身体姿势、表情的意义协同研究[J]. 中国外语, 2024, 21(2): 58-66.
[57] 徐思益, 高莉琴. 关于维吾尔语的重音、声调问题[J]. 语言与翻译, 1992(3): 12-15.
[58] Sauter, D.A. (2017) The Nonverbal Communication of Positive Emotions: An Emotion Family Approach. Emotion Review, 9, 222-234.
https://doi.org/10.1177/1754073916667236
[59] Kendon, A. (2004) Gesture Visible Action as Utterance. Cambridge University Press.
https://doi.org/10.1017/cbo9780511807572
[60] Goldin-Meadow, S. and Alibali, M.W. (2013) Gesture’s Role in Speaking, Learning, and Creating Language. Annual Review of Psychology, 64, 257-283.
https://doi.org/10.1146/annurev-psych-113011-143802
[61] Hadar, U., Steiner, T.J. and Clifford Rose, F. (1985) Head Movement during Listening Turns in Conversation. Journal of Nonverbal Behavior, 9, 214-228.
https://doi.org/10.1007/bf00986881
[62] Goldin-Meadow, S. (2005). Hearing Gesture: How Our Hands Help Us Think. Harvard University Press.
https://doi.org/10.2307/j.ctv1w9m9ds
[63] Lin, Y. (2017) Co-Occurrence of Speech and Gestures: A Multimodal Corpus Linguistic Approach to Intercultural Interaction. Journal of Pragmatics, 117, 155-167.
https://doi.org/10.1016/j.pragma.2017.06.014