1. 引言
在全球化趋势下,互联网成为了人们了解世界的主要渠道,然而随着网民日益增多以及大数据时代的到来,互联网上的信息也开始剧增,人们在通过互联网获悉特定新闻事件时产生的观点也大相径庭。网络舆情可以看做是一把双刃剑,一方面它既可弘扬积极向上、促进社会稳定和谐发展的正能量,另一方面又可被居心叵测之人利用,随意大肆散播负面言论,企图误导公众,从中获取利益并影响社会和谐。且如今自媒体盛行,绝大多数网民在了解信息时或多或少都会接触到自媒体,越是关注人数越多的自媒体,其发表的言论越容易对广大网民产生引导性,而自媒体往往只想着扩大关注度和流量,导致在陈述新闻事件时带有一定的主观性和片面性,从而影响网民的情绪、意见和判断。
有关舆情情感分析的文本数据分析在国内自然语言领域中从广义上大致分为三类:基于规则情感词典[1]、基于机器学习[2]、基于深度学习[3]。
在基于规则情感词典方面主要是构建与之相匹配的情感词典来进行规则的设置,因而用以提升对文本数据中舆情情感分析的准确性。吴杰胜[4]等为追求微博文本情感分析的准确性,故而从舆情情感词典着手,进行改进和扩充,在其中加入了构造程度副词、微博领域词典和否定词词典。陈珂[5]等通过情感词典中的特征信息来对Transformer模型改善,在一定程度上提高了分类效果。虽然研究者们可以通过需求来增添规则词典内容,但是却需要大量精力去标注数据以及构造词典。在基于机器学习方面则是需要通过选取特征进行词性标注,将原始数据集按照一定比例划分为训练集和测试集两部分,然后再利用朴素贝叶斯[6]、支持向量机[7]等分类器进行情感分析。为了有效提高情感情绪和强度计算的准确性,戚天梅等[8]致力于在四种机器学习算法的基础上设计情感倾向的计算方法。濮泽堃[9]提出了基于评论分析和集成分类的情感分析ARAEC模型,并且将LS-SVM模型通过多种算法优化调整最终改进为SD-LS-SVM情感分类算法,最后将两者进行融合,构建出基于机器学习的电商评论情感分析系统。在深度学习方面的舆情情感倾向分析可以在一定程度上弥补计算学习算法在上下文文本间关联性的缺陷。Lu等人[10]通过方面门控图卷积网络模型利用句法信息和情感依赖关系进行基于方面的情感分析,在多个半实物数据集上进行实验分析,在精确度和宏F1方面比基线模型提高了2.14%和1.33%。在近几年的新冠疫情中,Nemes和Kiss [11]基于COVID 19 (评论、标签、帖子、推文)对社交媒体进行情绪分析,虽然文献[12]和文献[13]所叙述的新冠疫情在全球范围产生了影响,但文献[11]的研究用递归神经网络进行分析,得出社交媒体上依然存有更多积极的推文。
神经网络在自然语言领域取得了非常不错的效果,但是在关于舆情分析方面大多只是单纯针对文本主题内容或者文本中的语义特征进行分析研究,针对这一方面问题,本文提出一种基于卷积神经和双向长短时记忆神经的多头注意力模型(CBLMAtt)。首先对文本的词向量进行卷积操作,通过学习语义特征来提取文本语义情感特征向量,然后通过对语义情感特征进行长短时记忆神经层训练得到隐藏平均值,最后通过多头注意力进行权重划分与重组,对舆情文本进行分析。
本文主要贡献如下:
论文提出了一种结合情感特征和卷积神经网络的情感提取方法,用于对文本中的语义特征和情感特征提取并进行融合成语义情感向量,从而解决文本中语义和情感词性不能兼顾导致的语义情感偏差问题。
论文进一步构建了基于CBLMAtt的舆情分析模型,用于将提取到的语义情感向量经过双向长短时记忆层训练后和只由双向长短时记忆产生的隐藏向量的平均值结合,然后利用多头注意力机制的多组权重产生多个上下文向量,并对其进行拼接再线性变换输出,以此来解决文本向量中语义上下文对分析过程的影响。
2. 相关工作
2.1. 神经网络技术
如今深度学习技术发展迅速,很多研究人员将其应用领域转向自然语言方向,使得神经网络模型在文本方面得到极大应用。
目前部分在舆情情感分析方面的研究方法旨在使用文本嵌入能有效解决文本的顺序和可变序列长度等问题。Santos等人[14]提出了一种被称作CharSCNN的深度学习模型,此模型含有对于短文本中情绪分析的字符级表示,这种字符级表示能够为作者采用的CNN模型的训练提供补充信息。除文本之外,也有学者偏向于研究深度模型体系结构。例如J. Wang等人[15]提出一种被称为区域CNN-LSTM的深度学习模型,这种模型在关注句子本身的局部特征信息的同时又兼顾了句子间的依赖关系,研究人员针对CNN和LSTM的优势精心设计了该模型的体系结构。Yoon和Kim [16]就舆情分析依次提出了结合CNN与BiLSTM的框架。他们先从词汇和情感词典角度入手,生成了一种多通道词嵌入。然后通过CNN和BiLSTM验证了该模型相对于多个基线的优越性。而Wang等人[17]提出的基于卷积神经和递归神经的情绪分析模型,通过顺序架构的CNN和LSTM层进行实验表明此模型在Stanford Sentiment Treebank数据集上获得相对最突出的效果。还有一些学者对于模型体系结构的调整进行研究,用以针对某些特定领域或文本中的情绪分析任务。如A.A. Al Sallab等人[18]提出的一种独特的深度学习模型,此模型针对的是在阿拉伯语上进行舆情文本情感分析,其优势则是来源于发表前新近开发的阿拉伯语情感词库和其他标准词库。Van等人[19]提出一种融合了卷积和递归神经的句子级情绪分析框架,用来减轻这两种模型的缺陷。Chen等人[20]提出结合了视觉和文本信息作为两种不同的通道完成情绪分析任务,这种方法在多个数据集上都得到了不错的效果。
Lin等人[21]利用术语频率-反向文档频率(TF-IDF)和深度学习技术,针对情感和心理健康预测的问题提出一种基于CNN的COR-CNN模型,并在新浪微博和Twitter舆情数据集上的结果表明,他们的模型高于其他三个基线模型。Sagnika S等人[22]为了提高舆论中主观陈述意见挖掘的准确性,提出了一种基于CNN和LSTM的主观检测模型。在这项任务中,句子被表示成含有情感信息和部分语音的词嵌入,并且此模型在两个电影评论数据集得到了比其他先进方法更优良的效果。Priyadarshini I等人[23]提出了一种基于网格搜索的LSTM-CNN模型用以分析舆论中的情绪,通过在多个数据集上对比其他一些基线模型发现他们的模型总体准确率更优。Zhang等人[24]提出了CNN-LSTM模型,并依据设计的基于二叉树的情感计算算法对中文情感分类。通过对比不同的传统模型和分类器,最后结果表明其模型具有更大的优势,最后在实际的应急管理问题中检验了其方法拥有更高的分类性能。
2.2. 注意力应用技术
注意力机制在深度学习领域中也属于一个热门研究话题,近几年很多研究者都将其运用在自然语言领域当中,而最早把注意力机制运用在文本情绪分析方面的是Wang, Y [25]等人,他们把注意力与LSTM结合,提出关于方面信息的两种方法。一种是将方面向量进行连接,组成句子级隐含向量来计算出注意力权重。第二种方法是把方向向量和输入字向量相结合。在SemEval-2014任务4的数据集上实验得出此方法比之前的方法有改进。Liu和Zhang [26]利用普通的基于LSTM的模型计算出整个句子中不同部分对句子的特定目标的注意权重。同时进一步改进模型,用以区分目标词的前后上下文。在两个基准数据集的结果显示有很大的提升。Ma等人[27]采用了称为互注意力的机制对观点目标和各自的上下文进行建模。评估他们方法的标准是在SemEval-2014任务4的数据集的改进上进行的。Chen等人[28]提出一种基于多注意力的框架来检测观点目标的情绪。此框架包含有五个模块,并在四个标准数据集上进行评估,其结果显示具有性能的提升。Fan等人[29]研究出一种用来区别评论或评论情绪极性的多注意力机制的神经网络模型,并在四个标准数据集上显示出了效果。Huang等人[30]提出一种基于神经网络的使用叠层注意力(attention-over-attention)机制学习的方法,此方法使得模型能够共同学习方面和句子的表示,并在两个标准数据集上进行了评估。Yang等人[31]提出一种协同注意力(co-attention)机制,能够把目标和上下文的注意权重交替进行建模,用以关注目标关键词,以此学习更有效的上下文表示。他们还通过运用LSTM和另一种采用multiple-hops协同注意机制的co-attention-MemNet网络实现了这项技术,实验结果证明了其方法的有效。Zhang等人[32]通过使用一个含有注意力机制的多层CNN模型来实现依赖于目标的情绪分析,这种模型可以对上下文建模表示,并在两个数据集上验证其效果。Gan等人[33]提出一种基于稀疏注意力机制的扩张CNN模型,进行特定的情绪分析,识别情绪极性和处理复杂序列。通过在Twitter和评论数据集上进行验证发现此模型比各种标准和融合LSTM与CNN的模型更加优良。Lei等人[34]通过运用情感信息增强的基于注意力机制的LSTM对数据集进行情绪分析,最后结果表明与其他类型的LSTM变体对比,此模型有更好的优势。
3. 模型描述
3.1. CBLMAtt模型
在这部分中,对本文的模型的架构进行总体描述。此外我们还将介绍了基于CNN-BiLSTM与多头注意力的舆情分析模型(CBLMAtt)各部分组成结构,CBLMAtt模型基本架构如图1所示。
在对舆情文本的民众情感态度预测分析过程中,使用的神经网络模型类型不同,其具有的功能也不一样,而文本的序列也拥有着重要的时序特征。因此本文设计CBLMAtt模型,通过结合情感特征提取的卷积神经层获取序列重构相空间的带有情感的空间特征,通过LSTM得到空间特征下的时空特征,并采用注意力机制捕获混合神经网络提取到的关键时空特征。
Figure 1. CBLMAtt model structure
图1. CBLMAtt模型结构
其各部分功能如下:
(1) 卷积神经网络层:首先对文本中的情感特征进行提取保留,然后通过对处理后的文本词向量处理网络输入的重构相空间域D,进行卷积操作,获取带有情感的空间特征并输入到连接层;
(2) 双向长短期记忆层:将连接层融合得到的张量输入到BiLSTM中,网络根据CNN提取的空间特征获取时空特征,然后将前向和后向传播的向量进行平均值计算;
(3) 注意力层:计算CNN和BiLSTM获取的时空特征的平均值的权重,获得序列的完整特征表示,根据特征计算预测数值。
此外,在模型中设置了连接层和Dropout层,其中连接层是为了将卷积神经网络的输出,即序列的时序特征与原序列T进行特征融合。在深度学习模型中加入Dropout层其作用主要是为了防止模型训练时出现过拟合,进而提升模型的鲁棒性和泛化能力。
3.2. 卷积层
卷积网络又称卷积神经网络,是一种特殊的深度学习神经网络,常用于处理具有已知网格状拓扑的数据,在时间序列分析、计算机视觉和自然语言处理等领域有着广泛的运用。根据处理数据流的不同,CNN可以分为一维卷积、二维卷积和三维卷积,其中一维卷积在时间序列分析和自然语言处理领域运用较多。
不管是何种CNN,其组成主要包括基本的输入层和输出层,核心操作部分为卷积层、池化层(亦称采样层)和全连接层。在一维卷积中,卷积的作用可以理解为提取数据在某一方向的平移特征,在时间序列的分析中则表现为提取序列的特征,在这里卷积操作的本质是循环乘积与加和,设句子长度为L,句子情感特征向量
,则
表示句子中d维的第i个单词向量。向量
表示为卷积运算的过滤器,其中k为过滤器的大小。此外针对句子中从j位置起始的窗口向量Wj和连续n个输入的单词向量,其公式如(1)所示。
(1)
当过滤器m和窗口向量Wj中的每个位置的向量进行卷积运算后,生成特征图映射为
,而Wj的特征图中每个向量元素表示如公式(2)所示。
(2)
其中b为偏置项,f为非线性函数。由于模型采用不止一个过滤器进行特征映射,因此对于大小相同的a个过滤器,最终卷积生成的a个特征图排列成每个Wj的列向量组合特征表示如公式(3)所示。
(3)
其中Ci (
)表示为第i个过滤器卷积后的特征图表示。而此处的
的每一行Wj都是由a个过滤器在位置j处窗口向量卷积成的新特征表示,最后得到的向量会传入下一层。
3.3. 双向长短时记忆层
双向长短时记忆模型是长短时神经网络模型的一种变体。首先,长短时又是根据循环神经网络改进而来。循环神经网络模型的长处是能很好地处理序列数据,而缺陷在于,模型无法处理因序列长度增加而产生的梯度消失和训练成本增加的问题,因此RNN很难捕获数据的长期依赖[35]。于是为了解决RNN的长期依赖问题,Hochreiter和Schmidhuber [36]提出了长短期记忆网络(LSTM),后来,在传统LSTM的基础上,又根据输入序列的向前向后输入的关系,由两个LSTM组成。同样在BiLSTM单元结构中共有三个“门”:遗忘门、输入门和输出门。
在BiLSTM中,通过输入门、遗忘门、输出门以及一个记忆单元来实现长期记忆或遗忘信息,设当前时刻为t,则为前一时刻的记忆单元状态,为当前输入状态信息,和为当前BiLSTM的输出值。其中,LSTM单元的计算公式如公式(4)~(9)所示。
(4)
(5)
(6)
(7)
(8)
(9)
式中Wf,Wi,Wo为各个门的神经元权重向量,bf,bi,bo为偏置向量,σ为sigmoid函数,tanh为非线性激活函数,S′t为t时刻输入状态信息,St和ht分别为t时刻的记忆单元和隐藏状态输出值。为了从向前和向后两个方面捕获过去和未来的上下文关系,以及考虑到本模型用到的输入序列,最终得到的隐藏状态表示如公式(10)所示。
(10)
其中μ为两个方面得到的隐藏状态平均值。
3.4. 注意力层
人类大脑在观察某一事物时,往往会将注意力集中到事物的某些部分,这些注意力集中的部分往往也是从事物上获取信息的关键,这些信息对于认知同类事物有着很强的指引作用,而注意力机制(attention mechanism)就是一种模仿这一认知过程的特殊机制。注意力机制在计算机视觉和自然语言处理领域的运用都已经取得了较好的结果,本文着重讲述在自然语言处理领域中有关舆情分析的注意力机制的运用。
首先,前文的句子向量X中由单词向量Xi来表示,当其直接进入BiLSTM中带有训练参数θ,可用来捕获顺序和上下文信息,输出hi是输入的隐藏表示,如公式(11)所示。
(11)
在舆情情感分析中,先用CNN提取序列带有情感的空间特征,在用BiLSTM根据空间特征提取时空特征后,过多或非关键的特征会影响最后的预测结果。因此,利用注意机制来提取序列的关键特征。注意力机制可以简单地理解为一个加权求和器,也可以理解为一个关键特征提取器,它主要进行的是加权求和操作。其中向量c为提取的关键特征,其计算公式如(12)所示。
(12)
式中n为输入LSTM网络的时间步总和;h为BiLSTM网络输出的隐藏特征向量,β为h的权值,为句子的每个单词分配权重。同时,为了获取权值β,在注意力模型中加入一个小型的神经网络α,其输出层激活函数为softmax,其计算公式如(13)所示。
(13)
式中的ei由fs (hi, Taver)求得,是根据隐藏状态hi和Taver的语义关系和上下文关系计算句子中每个单词权重的函数,而Taver则是隐藏特征表示的平均值,其计算公式如(14)所示。
(14)
3.5. 模型训练
本文中针对模型训练部分时,神经网络最后的全连接层利用softmax进行概率输出,而多分类问题常采用的是交叉熵损失函数,因此本文中使用的损失函数为交叉熵损失函数,其计算公式如(15)所示。
(15)
其中p(xi)为真实概率分布,q(xi)为预期的概率分布。此外,为了减轻过拟合,在训练过程中首先利用dropout技术随机失活一部分神经元,从而减少参数的共适应现象,降低了模型的复杂度,并增强模型对噪声和不同数据分布的适应性,对高次项的特征进行惩罚进而提高模型的泛化能力,本文采用L2正则化进行训练,其计算公式如(16)所示。
(16)
其中w为需要训练的参数。
为了评估模型的性能,采用的基准测量分别是准确率和Macro-F1得分,其公式分别如(17)和(19)所示。
(17)
(18)
(19)
式中TP代表样本为正,预测结果正确的真正例,TN代表样本为负,预测结果正确的真反例,FP代表样本为负,预测结果错误的假正例,FN代表样本为正,预测结果错误的假反例。另外,Precision代表预测样本为正,实际样本也为正的例数在所有预测样本为正的预测准确度。Recall则代表所有正样本被正确预测的比例。
4. 实验及结果分析
4.1. 数据集
实验采用SemEval-2014任务4 [37] (基于方面的情感分析,是SemEval-2014语义评测任务中的第四个任务,它又包含了四个子任务)、SemEval-2015任务12 [38] (是SemEval-2014任务4的延续)和SemEval-2016任务5 [39] (是SemEval-2015的延续,增加新的测试数据之外还首次加入了除英语之外的其它多个语言)中四个涵盖餐厅和笔记本电脑领域的基准数据集。具体划分为RES14 (SemEval-2014任务4的餐厅域)、LAP14 (SemEval-2014任务4的笔记本域)、RES15 (SemEval-2015任务12的餐厅域)和RES16 (SemEval-2016任务5的餐厅域)。本文将极性标签显示为从1到5的等级,为了有一个统一的标签作为方面级数据,将这些评级转换为3级分类,评级 < 3、=3和>3分别作为负面、中性和正面的极性。此外,通过随机抽样将方面级训练数据分割为20%的验证集和80%的训练集。数据集的统计数据如表1所示。
4.2. 实验设置
该模型使用Tensorflow作为技术支持。学习速率为1×e−6。对模型进行正则化,Dropout概率为0.6。文档预训练模型的批处理大小为8。在初始化深度学习模型时,通常采用基于词义和子词信息的预先训练语言模型。在本文预先训练的模型中,使用300维的GloVe嵌入来初始化单词。这些模型经过8个时期的训练以选出最佳结果。
Table 1. Statistics of experimental data
表1. 实验数据统计
Dataset |
Positive |
Neural |
Negative |
Train |
|
Test |
Train |
|
Test |
Train |
|
Test |
Lap14 |
994 |
|
341 |
464 |
|
169 |
870 |
|
128 |
Rest14 |
2164 |
|
728 |
637 |
|
196 |
807 |
|
196 |
Rest15 |
912 |
|
326 |
36 |
|
34 |
256 |
|
182 |
Rest16 |
1240 |
|
469 |
69 |
|
30 |
439 |
|
117 |
4.3. 对比模型
本文为了验证本模型的性能,以下为本次实验对比的其他基于注意力机制的模型。
ATAE-LSTM:ATAE-LSTM [25]通过将方向向量附加到输入的单词向量中来计算注意权值。
IAN:IAN [27]通过交互注意网络分别建模意见目标及其上下文。
RAM:RAM [28]提出了一个多注意框架来检测意见目标的情绪。
MGAN:MGAN [29]开发了一种多注意神经网络模型,用于识别评论/评论中的情绪极性。
AOA:AOA [30]引入了一种基于神经网络的方法,在学习中使用了叠层注意力机制。
4.4. 实验结果及分析
表2为对比实验结果,通过表格可以得出,对比在RES14数据集上方法的性能,本文的方法达到了最先进的精度,宏观f1值分别为81.96%和73.16%。在LAP14数据集上,MGAN的Macro-F1的值为72.47%。在RES15数据集上,PABS-BiGRU方法的准确率达到80.88%,优于其他方法,但是本文的方法在Macro-F1值上却高于其他的对比方法。PABS-BIGRU在RES16上的准确率最高,为89.30%,而本文的方法在Macro-F1值上的准确率最高,为69.35%。在笔记本电脑领域,我们的模型没有很好地泛化和执行低于一些比较算法。这是因为文档级数据来自通用电子领域,其中大多数都不是针对笔记本电脑的。值得注意的是,我们的方法在RES15和RES16数据集上取得了显著的优越的Macro-F1值。
Table 2. Results of model comparison
表2. 模型对比结果
Method |
RES14 |
LAP14 |
RES15 |
RES16 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
ATAE-LSTM |
77.20 |
67.02 |
68.70 |
63.93 |
78.48 |
60.53 |
83.77 |
61.71 |
IAN |
79.26 |
70.09 |
72.05 |
67.38 |
78.54 |
52.65 |
84.74 |
55.21 |
RAM |
80.23 |
70.80 |
74.49 |
71.35 |
79.98 |
60.57 |
83.88 |
62.14 |
MGAN |
81.25 |
71.94 |
75.39 |
72.47 |
79.36 |
57.26 |
87.06 |
62.29 |
AOA |
79.97 |
70.42 |
72.62 |
67.52 |
78.17 |
57.02 |
87.50 |
66.21 |
Ours |
81.96 |
73.16 |
76.53 |
69.63 |
80.07 |
63.68 |
87.30 |
69.35 |
4.5. 消融实验
为了研究本文提出的模型的不同构成部分对舆情分析结果性能的影响,特别进行了消融实验的研究,其结果如表3所示。通过对比去掉不同部分的模型,可得知在各个数据集上所达到的结果中,单体的CNN和Bilstm在四个数据集上的表现相对来说最差,而在加入多头注意力机制后,准确率和Macro-F1都有了不同程度的提升,然而CNN和Bilstm组合后在未加入多头注意力机制后在四个数据集上的表现却有高有低。最后,本文所提出的模型在所有数据集上的表现都要优于前者。
Table 3. Results of ablation studies
表3. 消融研究结果
Method |
RES14 |
LAP14 |
RES15 |
RES16 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
CNN |
77.77 |
68.50 |
67.71 |
65.10 |
76.68 |
61.38 |
83.88 |
65.65 |
Bilstm |
78.75 |
67.66 |
71.94 |
68.22 |
78.04 |
60.13 |
86.55 |
66.02 |
CNN-MAtt |
78.84 |
69.18 |
72.32 |
68.78 |
78.62 |
62.02 |
84.23 |
66.31 |
Bilstm-MAtt |
80.18 |
71.40 |
75.63 |
69.04 |
78.66 |
60.53 |
86.82 |
66.39 |
CNN-Bilstm |
81.06 |
72.42 |
74.96 |
68.93 |
79.17 |
62.32 |
85.50 |
66.01 |
Ours |
81.96 |
73.16 |
76.53 |
69.63 |
80.07 |
63.68 |
88.14 |
72.40 |
此外,本文还通过对文档级权重的改变来探究不同文档级权重在不同数据集上会对模型产生的影响,其实验结果如表4所示。由表可知,在0.1到1.0之间随着权重提升模型的效果也越来越好,使用1.0的本模型的性能达到最佳。这个结果说明当使用的文档级权重不同,也会对模型的性能造成很大的影响,只有在不断测试,选出最优的文档级权重,模型效果才会达到最佳。
Table 4. Results of document weight ablation
表4. 文档权重消融结果
f |
RES14 |
LAP14 |
RES15 |
RES16 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
Acc |
Macro-F1 |
0.1 |
79.20 |
69.01 |
68.54 |
65.22 |
78.55 |
56.83 |
84.66 |
68.33 |
0.2 |
79.10 |
69.17 |
68.10 |
66.77 |
78.10 |
57.18 |
83.02 |
68.43 |
0.3 |
78.55 |
68.24 |
67.66 |
66.35 |
78.32 |
57.34 |
85.12 |
67.63 |
0.4 |
78.02 |
67.86 |
68.24 |
67.31 |
78.39 |
58.22 |
83.46 |
69.25 |
0.5 |
78.22 |
68.21 |
69.21 |
66.58 |
79.62 |
59.31 |
84.61 |
70.06 |
0.6 |
79.55 |
69.12 |
68.02 |
67.62 |
79.12 |
58.62 |
85.15 |
69.53 |
0.7 |
79.35 |
67.77 |
69.43 |
68.12 |
78.22 |
59.33 |
83.56 |
71.44 |
0.8 |
80.14 |
68.45 |
70.56 |
67.66 |
78.47 |
60.22 |
85.72 |
70.82 |
0.9 |
79.46 |
70.14 |
69.55 |
68.21 |
79.65 |
59.03 |
85.39 |
71.05 |
1.0 |
81.96 |
73.16 |
76.53 |
69.63 |
80.07 |
63.68 |
88.14 |
72.40 |
4.6. 卷积层数影响
本节内容主要是分析卷积层的数量可能对提出的模型的性能的影响,本文将卷积层的数目从1到4进行研究分析,其结果如图2所示。由实验结果得知,将卷积层的数目设为2时,得到的模型性能效果比其余三个数目的卷积层数更好,故此次实验采取2层的卷积层。单层的卷积层可能是由于特征提取时的能力不足以将需要的特征完全提取出来,而4层的卷积在所有层数中的准确率和F1值最差,这就说明卷积层将不必要的特征也提取出来,造成了类似过拟合的情况。最后,由折线的趋势可以得知,卷积层数的增加虽然会增加模型的表达能力,使得提取的信息愈加复杂和抽象,但过度增加则会导致过拟合的产生,并不能给模型的性能带来更好的提升,反而会造成模型的学习效果变差。
Figure 2. Effect of number of convolutional layers on accuracy and F1 value respectively
图2. 卷积层的数量分别对准确率和F1值的影响
4.7. 案例分析
为了能够更加清晰地了解CBLMAtt模型的性能,在本节中通过与其他两个模型在三个测试案例中进行分析研究,其结果如表5所示。
Table 5. Case studies
表5. 案例分析
Case study |
Label |
|
Prediction |
Model |
1. The quality of this person is really low, it’s really disgusting. |
Neg. |
√ |
Neg. |
IAN |
√ |
Neg. |
MGAN |
√ |
Neg. |
CBLMAtt |
2. Although he looks fierce, he is indeed a good person. |
Pos. |
× |
Neg. |
IAN |
√ |
Pos. |
MGAN |
√ |
Pos. |
CBLMAtt |
3. I think what he said is okay, but I can’t find any evidence to support him. |
Neu. |
× |
Pos. |
IAN |
× |
Neg. |
MGAN |
√ |
Neu. |
CBLMAtt |
在三个案例中,具有情感特征的目标词用加粗显示,标签列显示为真实标签,三个模型的预测结果显示在预测列中,同时用“√”和“×”来对预测结果进行判断。在案例1中,消极的情感目标词情感色彩十分强烈,因此三个模型在进行分析预测后都得出了正确的结果。在案例2中消极的情感词和积极的情感词同时出现,IAN通过关注特定的上下文关注到了第一个消极的情感词,故而给出了消极的标签,与真实的标签相反,而MGAN通过结合粗粒度和细粒度注意力捕捉到了上下文中词级别的信息,给出了正确的结果,CBLMAtt则充分利用语义情感特征提取的能力,对目标情感词分析得出了正确的结果。而在案例3中加入了更多的情感目标词之后,CBLMAtt通过提取到的更多的语义情感特征信息,在后期进行分析时通过结合上下文得出了正确的标签结果。
5. 结论
本文着眼于特征融合的视角,通过生成联合语义情感向量解决传统方法中语义与情感特征割裂导致的偏差问题,并进一步构建了CBLMAtt模型,利用双通道特征融合策略(双向LSTM隐藏层均值与多头注意力上下文向量拼接)增强文本上下文语义关联建模能力,形成从底层特征融合到高层语义分析的全栈式解决方案,有效提升了情感语义表征的完整性和舆情情感分析的准确性。最后通过对比实验证明本文提出的模型的有效性和适用性。
但是本文研究仍然存在一定的不足之处,对于本文提出模型来说,对数据的完整性和准确性要求较高,如果针对即时性的数据来考量,人工进行数据标注的工作可能避免不了,所以说存在这方面的负担。未来的研究工作中可以着手于降低模型的复杂性,但是与之同时也不能忽略情感分类任务的完成情况。然后减少数据标注工作的负担,着眼于其他角度,使用深度学习方法以期能更好地获取情感极性。
基金项目
重庆对外经贸学院科学研究项目(KYZK2024044)。
NOTES
*通讯作者。