1. 引言
在日常的社会交往中,人类的面部表情能给个体提供重要的社会信息。以往的研究通常以静态情绪面孔作为研究对象,但在现实环境中,人们看到的面孔表情大多都是动态的、变化的(张琪,尹天子,冉光明,2015)。最近的研究者发现情绪面孔不仅涉及静态的表征信息还包括动态的信息,这种动态的信息主要体现在情绪变化上(Sato, Uono, & Toichi, 2013)。面孔情绪变化是指同一个人的面部表情从一种情绪变化到另一种情绪,比如,从中性情绪变化到生气情绪(Palumbo & Jellema, 2013; Pelphrey et al., 2007)。
近年来,研究者通常采用情绪变化范式来考察个体对他人面部情绪变化的知觉(Miki et al., 2011)。在该范式中,实验者先给被试呈现一个情绪刺激,然后呈现另一个情绪刺激,从第一个情绪刺激变化到第二个情绪刺激之间具有较短的时间间隔。比如中–生情绪变化:从中性表情快速变化到生气表情,中–高情绪变化:从中性表情快速变化到高兴表情。情绪变化范式能够有效地考察个体对他人面孔情绪变化的知觉,比如Pelphrey等人(2007)用这种范式考察了孤独症患者的面孔情绪变化识别能力。
在情绪变化的相关研究中,Matsuzaki和Sato (2008)使用了点–线面孔(point-light faces)材料,结果发现面孔表情运动的相关信息促使个体更好的识别他人的面孔。在一项fMRI研究中,研究者发现,相比静态的面孔表情,动态的面孔表情引起了枕叶和颞叶等广大脑区更强的激活(Sato, Kochiyama, Yoshikawa, Naito, & Matsumura, 2004)。除对正常个体的情绪变化考察,已有的研究者考察了孤独症患者的情绪变化识别能力,结果发现孤独症患者对他人情绪变化的识别能力受到损伤(Pelphrey et al., 2007)。
值得注意的是,以往研究者对情绪变化的研究,主要考察的是情绪的出现(Pelphrey et al., 2007; Sato et al., 2013)。比如,生气情绪的出现:从中性表情变化到生气表情(中–生);高兴情绪的出现:从中性表情变化到高兴表情(中–高)。但是对生气或高兴情绪的消失目前研究较少,比如,生气情绪的消失,生气表情变化到中性表情(生–中),高兴情绪的消失,生气表情变化到中性表情(高–中)。对于生气和高兴情绪消失的研究不仅有助于深化人们对他人情绪变化的理解,也拓展了情绪变化研究的新视角。因此,本实验通过两个实验考查大学生对他人生气和高兴情绪消失的识别。基于以往的研究发现(Ran, Chen, Zhang, Ma, & Zhang, 2016),我们假设被试对他人生气和高兴情绪消失均会表现出知觉困难。
2. 实验1
2.1. 方法
2.1.1. 被试
30名在校大学本科生(22名女性,8名男性)参加该实验,被试的年龄在18~23岁之间(M = 20.1岁,SD = 1.42),且均为右利手。所有被试视力或矫正视力正常,身心健康,未患有神经疾病等。被试在获得实验的知情同意后完成实验,实验结束后给予每名被试一定的实验报酬。
2.1.2. 刺激材料
实验材料包括8张房屋图片和52段面孔情绪变化视频,其中每种情绪变化类型各26段视频,男女各一半(张琪,冉光明,尹天子,2017)。其中,生气情绪变化消失是指由生气表情向中性表情变化,而不变化是指由中性表情向中性表情变化,即情绪不变化。每段视频长度为1 s,分辨率为1024像素 × 768像素,文件为AVI格式。实验在安静的房间中进行,被试舒适地坐在距离计算机屏幕96厘米处。计算机显示屏为戴尔17英寸彩色屏幕,刷新频率为75赫兹,分辨率为75 × 1024,实验程序用E-PRIME 2.0编写,该软件用于实验刺激的呈现以及反应时、正确率的收集。
2.1.3. 实验设计和程序
本实验采用单因素被试内实验设计,自变量是情绪消失类型(生气情绪变化消失,不变化)。实验采用情绪变化的S1-S2范式(Ran et al., 2014a, 2014b)。如图1所示,在每次实验中,电脑屏幕的中央首先会出现一个“+”的注视点,该注视点呈现时间是100 ms。紧接着随机出现一段持续时间为1000 ms的情绪变化视频(S1)。然后出现一张房屋图片,该图片是作为掩蔽刺激,其呈现时间是100 ms。图片消失后,呈现一个400 ms的空白屏。空白屏消失后,出现另外一段情绪变化视频(S2),呈现时间是1000 ms。屏幕空白1000~2000 ms后开始下一次实验。被试的任务是既快又准确的判断前后两段视频中的人是否是同一个人,若相同,按“1”键,反之,则按“2”键。按键反应在被试间进行平衡。实验总共120个试次,其中生气情绪变化的消失条件有60个试次,不变化条件包括60个试次,两段视频中的人是相同和不同的试次各一半。正式实验前,被试需要完成相应的练习实验,练习中的视频是新视频,与正式实验的视频是不一样的,练习中共有8个试次。通过练习实验从而让被试达到熟悉实验流程的目的。

Figure 1. Schematic illustration of the experimental procedure
图1. 实验流程图
2.2. 结果
对正确率数据进行配对样本t检验分析,结果显示,在生气情绪变化消失条件(M = 67.22, SD = 10.93)下的正确率显著的低于不变化条件(M = 83.17, SD = 11.1),t(1, 29) = 8.05,p = 0.000。此外,对平均反应时进行同样的配对样本t检验,结果发现,生气情绪变化消失条件(M = 574.74, SD = 171.21)下的反应时与不变化条件(M = 513.71, SD = 181.17)的反应时差异不显著,t(1, 29) = −2.04,p = 0.051。
3. 实验2
3.1. 方法
3.1.1. 被试
同实验1的被试。
3.1.2. 刺激材料
实验材料包括8张房屋图片和52段面孔情绪变化视频,其中每种情绪变化类型各26段视频,男女各一半。其中,高兴情绪变化消失是指由高兴表情向中性表情变化,而不变化是指由中性表情向中性表情变化,即情绪不变化。每段视频长度为1 s,分辨率为1024像素 × 768像素,文件为AVI格式。实验在安静的房间中进行,被试舒适地坐在距离计算机屏幕96厘米处。计算机显示屏为戴尔17英寸彩色屏幕,刷新频率为75赫兹,分辨率为75 × 1024,实验程序用E-PRIME 2.0编写,该软件用于实验刺激的呈现以及反应时、正确率的收集。
3.1.3. 实验设计和程序
本实验同样采用单因素被试内实验设计,自变量是情绪消失类型 (高兴情绪变化消失,不变化)。实验流程与实验1基本一致。不同之处在于:实验1中,情绪不变化60个试次,生气情绪变化的消失60个试次;而实验2中,情绪不变化60个试次,高兴情绪变化的消失60个试次。
3.2. 结果
对正确率数据进行配对样本t检验分析,结果显示(见表1),在高兴情绪变化消失条件(M = 50.5, SD = 4.01)下的正确率显著的低于不变化条件(M = 83.39, SD = 13.46),t(1, 29) = 12.73,p = 0.000。此外,对平均反应时进行同样的配对样本t检验,结果发现,高兴情绪变化消失条件(M = 495.13, SD = 239.5)下的反应时显著的高于不变化条件(M = 417.1, SD = 145.35),t(1, 29) = −3.05,p = 0.005。

Table 1. Mean accuracy and reaction time (RT) measures in experiment 1 and experiment 2
表1. 实验1和实验2的正确率和反应时
4. 讨论
当前研究采用“情绪变化识别”范式(S1-S2范式),通过2个实验考察大学生对他人生气(实验1)和高兴(实验2)情绪消失的识别。实验1的研究结果发现,生气情绪变化消失条件下的正确率显著的低于情绪不变化条件,但反应时差异不显著。实验2的结果显示,被试在识别高兴情绪消失条件下的正确率显著的低于情绪不变化条件。此外,相比情绪不变化条件,高兴情绪消失条件下的反应时更高。
当前实验发现,生气情绪消失条件下的正确率显著的低于情绪不变化条件,这表明个体对他人生气情绪消失的识别更加困难。以往的事件相关电位(ERP)研究在考察儿童对动态面孔表情的识别时也得出了类似的结论(Miki et al., 2011)。Ran,Chen,Zhang,Ma和 Zhang (2016)的研究发现不确定的信息会干扰个体的认知加工。相比不变的面孔情绪,生气面孔情绪消失刺激使得个体感知到更多的不确定性,因而个体在知觉面孔情绪消失时会更加的困难。
在当前的研究中,相比情绪不变化条件,被试对高兴情绪消失的识别准确率更低,且反应时更长。这一结果表明个体对对高兴情绪消失的识别更加困难。人们总是期望得到奖赏,更倾向于知觉他人的正性情绪(Leppänen & Hietanen, 2004)。当他人的高兴情绪消失时,人们不愿意投入更多的注意资源去知觉它,因而表现出识别困难(Sacharin, Sander, & Scherer, 2012)。与其他研究一样,当前研究也存在局限性。比如,当前研究更适合设计成多因素实验设计,而不是单因素实验设计。
5. 结论
当前实验采用S1-S2范式,对他人生气和高兴情绪消失的识别进行了考察。实验结果发现被试识别生气情绪消失和高兴情绪消失的正确率都更低,且对高兴情绪消失的识别反应时更长。这些研究结果表明个体对他人生气和高兴面孔情绪变化的消失均表现出知觉困难。
基金项目
南充市社会科学研究“十三五”规划2017年度项目(NC2017C057)。
NOTES
*通讯作者。