基于自注意力机制改进GCNN模型的图书标签分类研究
Research on Book Label Classification Based on Improved GCNN Model Based on Self-Attention Mechanism
摘要: 针对卷积神经网络聚焦于局部特征,不足以捕捉文本中长程依赖关系的问题,本文提出了一种基于CNN和自注意力机制改进的双通道图书标签分类模型(Gate Convolution Neural Network based on self- attention mechanism, GCNN-SAM)。该模型使用skip-gram将词嵌入成稠密低纬的向量,得到文本嵌入矩阵,分别输入到门卷积神经网络和自注意力机制,再经过逐点卷积,将两个通道中经过特征提取层得到的特征进行融合用于图书标签分类。在复旦大学中文文本分类数据集上进行对比实验,相较于SCNN、GCNN和其它改进的模型,测试集准确率达到96.21%,表明了GCNN-SAM模型在图书标签分类上具有优越性。同时,为验证GCNN-SAM模型的有效性,消融实验结果表明GCNN-SAM模型相较于CNN、GCNN和CNN-SAM在分类准确率上分别提升了5.9%、3.19%和3.66%。
Abstract: Aiming at the problem that convolutional neural networks focus on local features and are not enough to capture long-range dependencies in text, in order to improve this problem, this paper proposes an improved dual-channel book label classification model based on CNN and self-attention mechanism. The model uses skip-gram to embed words into dense low-latitude vectors to obtain a text embedding matrix, which is input into the gate convolutional neural network and self-attention mechanism respectively. After point-by-point convolution, the features obtained by the feature ex-traction layer in the two channels are fused for book label classification. A comparative experiment was conducted on the Fudan University Chinese text classification dataset. Compared with SCNN, GCNN and other improved models, the accuracy of the test set is 96.21%, which shows that the GCNN-SAM model has advantages in book label classification. At the same time, in order to verify the effectiveness of the GCNN-SAM model, ablation experiments were carried out. The results showed that the GCNN-SAM model improved the classification accuracy by 5.9%, 3.19% and 3.66% respec-tively compared with CNN, GCNN and CNN-SAM.
文章引用:张健. 基于自注意力机制改进GCNN模型的图书标签分类研究[J]. 建模与仿真, 2024, 13(2): 1322-1332. https://doi.org/10.12677/MOS.2024.132124

1. 引言

图书标签分类广泛应用于图书目录分类、推荐系统、信息检索和数字化等图书情报领域中 [1] ,其目的是将图书自动分配到一个或多个已定义好的类别中,可以帮助读者更容易地找到相关主题的书籍。图书标签是指添加到图书中的一组关键词或元数据,用于描述该图书的主题、内容、类型等丰富的语义信息 [2] ,然而由于图书标签的质量参差不齐,如标签语义信息与图书主题不一致,标签重复使用,同义、近义关系频现等 [3] ,当前大部分以《中国图书馆分类法》作为标签,主要是以基于特征工程和分类器的传统机器学习与基于自动编码器进行特征提取的深度学习文本分类两种方法 [4] 。

机器学习技术主要分为两步。第一步,需要手工对文本中的特征进行标注,对于图书标签分类,可以通过挖掘图书的元数据、目录、标签等信息,提取与图书内容和主题相关的特征。第二步,需要将提取的特征送入分类器,使用分类算法对图书进行分类。主流的分类算法有朴素贝叶斯分类器 [5] 、支持向量机 [6] 和多层感知机 [7] ,这些方法的优势在于计算量小,但往往都假设特征之间是独立的,无法利用特征之间的非线性关系将深层的重要语言特征纳入考量,例如句法歧义、句法多样性和主题适度等。由于CNN在图像分类任务中表现良好,因此Sergey提出了使用一个简单而有效的CNN神经网络架构进行图书标签分类,这将有助于更好地组织和检索文本数据。

目前,深度学习模型已经成为解决图书标签分类问题的主流基础模型,许多学者将基于CNN改进的深度学习模型应用到图书标签分类中,不仅实现自动化特征提取,适应不同的输入尺寸和形状,还扩展到更大的数据集和更多的标签分类任务中。Wang等人首先使用卷积神经网络(CNN)对文本使用手工特征提取器提取关键特征,使用循环神经网络(RNN)对提取的特征进行序列建模,最后引入注意力机制来加强模型对重要特征的关注度 [8] 。Zhao等人提出在TextCNN的基础上增加一个层次化结构的自注意力卷积神经网络(HCNN-SAM),将句子划分为单词和短语的序列,并使用TextCNN对每个序列进行特征提取,再通过层次化的自注意力机制以捕捉关键词和短语的文本特征 [9] 。相比于传统的基于序列模型的文本标签分类方法,Peng等人提出基于门卷积神经网络(GCNN)使用文本数据的图来表示文本之间的关系,能够充分利用文本中的上下文信息和关系,同时避免了传统方法中基于n-gram的特征提取方式带来的稀疏性问题 [10] 。以上模型虽然在提升图书标签分类效果上表现良好,但大多数基于词向量进行训练,未能充分利用文本信息可能会出现过拟合或性能下降的问题。此外,它们在处理图书标签分类时只考虑了有限的上下文,因此,我们需要综合考虑文本信息和语境、背景等其他相关信息,并使用更加全面和深入的算法学习到高层次的语义特征,从而更好地理解文本的含义。

本文使用卷积神经网络(CNN)可以提取文本中的特征,并且使用多个不同大小的卷积核可以捕获不同长度的关键信息,从而更好地理解文本。门控卷积神经网络(Gate Convolution Neural Network, GCNN)相较于TextCNN和HCNN,GCNN可以捕捉文本中的更长程依赖关系。自注意力机制(Self-Attention Mechanism, SAM)相较于单头注意力机制和多头注意力机制,可以自由地对输入的不同部分进行加权,并进行多个头的计算和合并更加全面地提取特征信息,充分利用输入序列之间的相互关系,从而更加准确全面地进行预测。

因此,本文为了充分利用文本信息捕捉最值得关注的特征,进一步提高文本分类的效率,提出了一种基于GCNN的自注意力机制文本分类模型GCNN-SAM (GCNN-Self-Attention Mechanism)。

本文的主要贡献总结如下:

1) 设计了双通道特征提取架构,对相同上下文的不同层次文本特征提取时,能够获取长距离依赖关系的重要文本表示。

2) 提出了利用逐点卷积来收集两个通道得到的重要特征,从而很好地整合了卷积操作分离的通道间信息。

3) 构建了基于自注意力机制的双通道文本分类模型,在Fudan数据集上进行实验,实验结果表明,该模型的整体性能达到96.21%,超过所比对的基线模型。

2. 基于GCNN-SAM的文本分类模型

GCNN-SAM模型首先由第一通道的GCNN + PC模型构成,提取上下文的层次特征,更容易捕获长距离依赖关系,提高模型非线性提取特征的能力 [11] 。第二通道由SVM + PC模型构成,提取上下文全局的文本信息,解决长距离依赖问题,并且可以平行的计算,大大提高了模型计算效率 [12] 。第一通道和第二通道提取到的重要特征拼接作为文本的特征表示,最后经过softmax函数输出文本类别的概率分布。GCNN-SAM模型结构如图1所示:

Figure 1. Improved GCNN model structure based on Self-Attention

图1. 基于Self-Attention改进的GCNN模型结构

2.1. 词嵌入层

Mikolov等在2013年同时提出了CBOW和skip-gram模型,这两个模型都是基于无监督的学习方式,是最常用的词嵌入技术之一,主要目的是将词用稠密低纬的向量表示,同时使得词具有了语义信息 [13] 。GCNN-SAM模型使用skip-gram方法训练词向量。skip-gram模型使用一段文本中的上下文词作为目标词,通过文本中上下文词来预测中间词。该模型没有隐藏层,由简单的神经网络构成。假设当前词为 x ( t ) ,则skip-gram的输出为 x ( t 2 ) x ( t 1 ) x ( t + 1 ) x ( t + 2 ) ,如图2所示。

Figure 2. Skip-gram model structure

图2. Skip-gram模型结构

2.2. 特征提取层

特征提取层由GCNN + PC和SAM + PC两部分构成。

2.2.1. GCNN + PC

GCNN (Graph Convolutional Neural Network)是一种用于图像、视频、文本等数据的深度学习模型。在文本分类任务中,GCNN主要是用来进行文本表示的。本文的GCNN由卷积层,门控层,池化层,全连接层组成,卷积层用于提取文本局部的特征,由于它的权值共享,因此可以降低学习的复杂度,门控层控制网络中信息的流动,同时可以提高该层非线性提取特征的能力,池化层用的是1-max池化,提取最重要的一个特征,降低了特征的维度,在一定程度上缓解了模型过拟合,全连接层用来连接所有的特征,对特征进一步提取,GCNN模型如图3所示。

文本经过skip-gram嵌入后的特征矩阵表示为: E 1 : n = [ x 1 , x 2 , , x n ] T x i R m E 1 : n R n × m 。假设一个卷积核 W R h × m ,该卷积核可以应用在窗口大小为 h 个词上,那么通过卷积核产生一个特征可以表示为:

s i = f ( W × E i : i + h 1 + b ) s i R (1)

f 是非线性的激活函数, b 是偏置项, b R E i : i + h 1 为输入的词向量矩阵第 i 行到第 i + h 1 行。卷积核通过在词嵌入矩阵维度方向上滑动来提取特征,词嵌入矩阵上窗口为 { E 1 : h , E 2 : h + 1 , , E n h + 1 : n } ,卷积后得到的特征:

S = [ s 1 , s 2 , s 3 , , s n h + 1 ] , S R ( n h + 1 ) × 1 (2)

Figure 3. GCNN model structure

图3. GCNN模型结构

本文使用了大小相等的两个卷积核 W R h × m ,词向量矩阵 E 1 : n 经过这两个卷积核后可以得到两个特征映射图 S 1 , S 2 ,其中 S 1 = [ a 1 , a 2 , a 3 , , a n h + 1 ] S 2 = [ b 1 , b 2 , b 3 , , b n h + 1 ] ,然后把卷积后的结果做一个门控计算:

V = tanh ( S 1 ) × σ ( S 2 ) , V R ( n h + 1 ) × 1 (3)

其中 σ 为sigmoid激活函数,将(3)式得到的结果再经过1-max池化得到:

v = max { V } , v R (4)

PC收集来自GCNN提取到的局部特征,卷积核大小为1,在每个词语上进行卷积操作,若输入序列长为 n ,PC可以通过如下公式定义:

P C ( n ) = σ ( n W 1 + b 1 ) (5)

其中*代表卷积操作, W 1 是将要学习的参数矩阵, b 1 为卷积核的偏置项, σ 为relu激活函数,若经过GCNN后词向量维度为 d h i d ,那么 W 1 R d h i d × d h i d b 1 h d h i d ,经过PC后得到的特征表示为:

h g = [ h 1 g , h 2 g , , h n g ] (6)

2.2.2. SAM + PC

自注意力机制是在Encoder-Decoder框架下,让模型能够根据当前位置的输入关注到输入序列中与之相关的信息,从而提高模型的表现能力。编码器(encoder)将一个序列 ( x 1 , x 2 , x 3 , , x n ) 映射到另外一个等长的序列 ( y 1 , y 2 , y 3 , , y n ) ,其中 x i R m y i R m 。注意力机制的计算分为三个阶段:

阶段一,对于Encoder的每个输入 E 1 : n R n × m ,随机初始化三个服从均匀分布的矩阵 X Y Z 其中 X R m × m Y R m × m Z R m × m ,通过对输入进行三个矩阵乘法分别计算 Q , K , V

Q = E 1 : n X (7)

K = E 1 : n Y (8)

V = E 1 : n Z (9)

其中 Q , K , V R n × m ,将 K 转置为 K T R m × n

阶段二,对于Encoder中的每个位置 E 1 : n ,将 Q K T 进行相乘得到相似度得分。为了防止结果过大,因此除以 m 得到放缩后的 S ,为了让注意力机制能够关注到与当前位置相关的信息,我们需要对这些相似度得分进行归一化。通常使用softmax函数进行归一化,使其值映射在(0, 1)区间上,其中, Z i 表示第 i 个值被分为的权重值。

阶段三,将得到的注意力权重与对应位置的矩阵V进行加权求和,得到Encoder对应位置的输出:

A t t e n t i o n ( Q , K , V ) = s o f t max ( Q K T m ) V (10)

其中 A t t e n t i o n ( Q , K , V ) R n × m ,词嵌入矩阵经过Self-Attention后形状没有改变。在Decoder中,我们可以采用类似的方法,使用自注意力机制关注到Encoder中的不同位置,从而得到与当前Decoder位置相关的Encoder输出信息,self-attention模型结构如图4所示。

PC收集SAM模型提取到的来自文本的全局信息,卷积核大小为1。PC可通过公式(5)计算,经过PC后得到的特征表示为:

h m = [ h 1 m , h 2 m , , h n m ] (11)

Figure 4. Self-Attention structure

图4. Self-Attention结构

2.3. 交叉熵损失函数

在分类任务中,交叉熵损失函数(Cross-entropy loss, CEL)是一种常用的损失函数,它能够有效地惩罚模型对错误类别的高概率预测,并促使模型学习产生正确类别的高概率预测 [14] 。其计算公式为:

L C E L = i = 1 N ( y i log ( y ^ i ) ) (12)

其中, N 为样本数, y i 是第 i 个样本的标签, y ^ i 是模型输出的第 i 个样本的预测概率。在多分类问题中, y ^ i 通常是softmax函数的输出。交叉熵损失函数越小,表示模型的预测结果与真实标签越接近。

2.4. 输出层

文本分类的输出层采用全连接结构及Softmax分类器进行分类,计算出单个文本属于图书类型的概率矩阵,计算公式如下:

O = s o f t max ( W 0 P + b ) (13)

其中, P 为全连接层的输入, O 为模型的输出结果,即概率矩阵, W 0 为权值矩阵, b 为偏置向量。

3. 实验

3.1. 实验数据集

在复旦大学中文文本分类数据集上进行实验,该数据集包含20个不同主题的新闻文本,包括体育、计算机、财经、时政、教育等领域,每个主题下有约5000篇文本,总共有100,000篇文本。每篇文本都被打上了一个预先定义好的类别标签。

随机地选取了其中12个类别循序打乱进行实验,12个类别分别为体育,财经,法律,农业,教育,计算机,航天,时政,历史,地理,文学,艺术。然后根据需要的分级数量,并依据学科分类体系标准 [15] ,将Fudan语料库的标签进行重新划分,将原本的12个类别划分为5个标签,它们分别是自然科学,工程技术,医药卫生,人文社科和环境科学。

为了减少过拟合,最大化利用数据,数据集随机按8:2的比例被分为训练集和测试集,其中,训练集有6019篇文本,测试集有1505篇文本,为了方便地将数据批量化处理,从而加速训练过程,将数据变为固定长度600,长了截断,短了补0,将标签转换为one-hot编码表示。

将数据集进行了预处理,通过结巴分词将文本分词,去标点符号,去低频词,使用skip-gram模型来对单词进行嵌入,得到低纬稠密的单词向量。对于新词而言,结巴分词采用了隐马尔可夫模型(Hidden Markov Model, HMM),通过对语料的大规模训练,得到模型的发射概率、起始概率和转移概率,进而通过维特比算法得到概率最大的隐藏序列,即BEMS标注序列,使用BEMS标注序列可以对语句进行分词并识别出其中的新词 [16] 。

3.2. 模型训练

GCNN通道中的CNN选择三种滤波器,滤波器窗口大小分别为2,3,4,采用了2个通道分别提取不同层次的特征,为了防止模型过拟合,在卷积或者经过多头注意力后加上Dropout函数,SAM模型输出维度为300,使用Adam优化器加快模型收敛速度,自动调整学习率。激活函数使用了ReLU函数,并在训练中采用了交叉熵损失函数。

当模型网络层数参数量较多时,容易造成过拟合,同时为了加快收敛速度,因此本实验探究了部分超参数对模型准确率的影响,结果如图5所示,固定其他超参数,其中图5(a)和图5(b)分别测试在Fudan数据集上不同学习率和Dropout值的准确率变化趋势。

图5(a)可以看出学习率较大时模型在Fudan数据集上的影响较大,不易收敛,当学习率为0.1的时候,GCNN-SAM模型在测试集上的准确率最低,模型性能最差,学习率为0.0001时,准确率最高,此时模型泛化性能最好,因此本实验使用Adam优化器对应的学习率选择0.0001。从图5(b)可以看出Dropout值低于0.6时在测试集上的准确率变化不大,大于0.6时准确率发生了较大的变化,Dropout值为0.5时在测试集上的准确率最高,因此本文Droupout值选择0.5。

Figure 5. The influence of learning rate and Dropout value on the experimental results

图5. 学习率和Dropout值对实验结果的影响

3.3. 模型评估指标

本文的评估指标采用大多数文本分类任务常用的三个指标,分别是查准率(Accuracy, Acc),召回率(Recall, Rec)和F1值(F1-score)。通过这三个指标可以综合评估GCNN-SAM分类模型的性能,各个指标计算公式如式子(14)~(16)所示。

A c c = T P i + T N i T P i + T N i + F P i + F N i (14)

Re c = T P i T P i + F N i (15)

F 1 = 2 * A c c i * Re c i A c c i + Re c i (16)

对于图书标签类别 i T P i (True Positive)为真正例,指模型正确地预测出正例的样本数, F P i (False Positive)为假正例,指模型错误地将负例预测为正例的样本数, T N i (True Negative)为真负例,指模型正确地预测出负例的样本数, F N i (False Negative)为假负例,指模型错误地将正例预测为负例的样本数。

3.4. 对比模型与结果

1) GCNN [17] + PC:GCNN是在CNN的基础上加入一种简化的门控机制,提高了CNN非线性提取特征的能力,每两个CNN做一个门控机制来对特征进行提取,然后通过PC和softmax输出文本类别概率。

2) TextCNN [9] :使用三通道的卷积层,卷积核窗口大小分别为2,3,4,词嵌入后的文本矩阵输入到TextCNN,然后用1-max池化得到最重要的一个特征,再将特征进行融合,最后通过全局最大池化,全连接层,softmax函数进行分类。

3) CNN-RNN [8] :首先将词嵌入得到词嵌入矩阵,然后分别用CNN和RNN提取局部特征和全局特征。

4) SAM + PC:将词嵌入矩阵输入到多头注意力模型中,通过全连接层,PC,softmax函数得到文本的概率分布。

5) CNN:单通道的CNN,卷积核窗口大小设置为3,词嵌入后的文本矩阵输入到CNN,提取短语级别的特征,然后通过全连接层输出文本的类别。

6) SCNN:该模型有两个通道,将词嵌入后的向量分别通过CNN通道和SAM通道进行特征提取,将提取后的特征最后经过输出层进行输出。在模型训练过程中,使用交叉熵损失函数和Adam优化算法进行参数优化 [18] 。

Table 1. Comparison of experimental results of different neural network models

表1. 不同神经网络模型的实验结果对比

7) S_CNN:单通道的CNN,首先将词向量输入到SAM提取句子的内部特征,再通过CNN提取局部特征,最后经过全连接层对文本进行分类。与传统的卷积神经网络不同,S_CNN还使用了一种新的池化方法,称为k-max pooling,可以选择输出前k个最大值 [19] 。

GCNN-SAM模型和以上七个基准模型在Fudan数据集上的实验结果如表1所示。从表1可以看出本文提出的GCNN-SAM模型在文本分类中较其他七种模型有较好的分类效果,在Fudan数据集上,测试集准确率为96.21%,比其他七种模型的准确率都高,表明了本文所提出的GCNN-SAM模型的优越性。

在Fudan数据集上双通道的SCNN比单通道的S_CNN准确率要高一点,准确率高出了0.91%,因为多通道可以提取更加丰富的文本特征,帮助提高文本分类的效果;除了本文所提出的GCNN-SAM模型,TextCNN模型比其他模型的准确率都高,是由于TextCNN用了三种窗口大小卷积核,提取到不同大小的n-gram局部特征,增强了CNN对局部特征的提取能力,然后通过1-max最大池化提取出最重要的特征,将不同粒度的特征融合在一起作为文本的表示。对比GCNN + PC模型和CNN模型,可以看出GCNN + PC模型比CNN模型的准确率高,这是因为GCNN模型在CNN模型的基础上加入了门控机制,提高了CNN模型非线性提取特征的能力并且PC收集了GCNN所得到的特征。对S_CNN模型和CNN-RNN模型分类结果分析,发现S_CNN模型的准确率比CNN-RNN模型的准确率高,这是因为RNN存在长距离依赖的问题,当文本过长时不能捕捉到有效的文本信息,并且可能发生梯度消失和梯度爆炸,模型参数无法正常更新,而对于自注意力,它可以关注到对文本分类有较大影响的部分,并且解决了RNN所遇到的问题,可以有效的处理长文本信息,验证了其在文本分类中的有效性。对比SCNN模型,SAM + PC和CNN模型,可以发现SCNN模型的性能优于SAM模型和CNN模型,因为SCNN模型既利用SAM提取到句子级别的特征,又利用CNN提取到短语级别的局部特征,然后将这两种特征进行融合,有利于模型提取到更加丰富的特征,弥补了单个模型的不足,充分发挥各个模型的优点。通过观查CNN模型和SAM模型,可以发现CNN模型的准确率比SAM + PC高,这是由于Fudan数据集都是较短的文本,因此CNN可以利用较多数量的卷积核来提取文本中更多的局部特征。

总体上,GCNN-SAM模型在准确率,召回率,精确率,F1值上较其他模型都有较大的提升,本文所提出的GCNN-SAM模型有效利用了SAM,GCNN,PC分类模型,充分发挥了各个模型的优势,进一步提升了模型的整体性能。

3.5. 消融实验与结果

为验证GCNN-SAM模型的有效性,进行消融实验。将GCNN-SAM模型分解,设置CNN、GCNN和CNN-SAM,实验结果如表2所示。

Table 2. Fudan data set ablation experimental results

表2. Fudan数据集消融实验结果

表2可以看出GCNN与CNN-SAM分类效果都要明显优于CNN,这是由于GCNN能够有效地利用文本中的语义信息和结构信息,还可以捕捉节点之间的依赖关系,从而提高了分类的准确性。而CNN-SAM相较于CNN多引入了自注意力机制,模型在卷积层中进行了子采样,使得它能够学习到更加抽象和高层次的特征,从而提高了模型的性能。GCNN与GCNN-SAM的分类效果接近,尽管GCNN-SAM在GCNN的基础上引入了注意力机制,用于加强模型对于重要特征的关注,但其效果并不总是明显的,尤其是在任务较简单的情况下,注意力机制会引入额外的噪声反倒干扰模型的学习。因此,它们在文本分类任务中的表现相似并不奇怪。GCNN-SAM的分类效果最佳,GCNN-SAM相较于传统的CNN和GCNN具有更好的特征提取能力,忽略无关的特征,并且采用了双向卷积,使得模型能够考虑到整个文本的上下文信息,更加全面地学习到文本的语义信息,能够更好地拟合训练数据,进而提高了分类的准确性。

4. 结论与展望

针对大数据时代下,图书自动标签分类在图书馆情报领域的重要性和必要性,本文设计了一种基于CNN和PC的自注意力机制文本分类模型GCNN-SAM,首先通过词嵌入技术将词语嵌入成低纬稠密的向量,使得词具有了语义信息,其次利用GCNN通道提取n-gram粒度的局部特征,再利用SAM通道提取上下文全局的特征,使用两个通道可以提取出更加丰富的特征和上下文信息,接着在卷积层中对特征图进行PC逐点卷积操作,从而增强模型的非线性能力,最后通过将这三个部分结合起来,GCNN-SAM模型有效地提取了文本重要特征,并将其用于文本标签分类任务中,达到较高的分类精度。

基金项目

本工作得到国家自然基金青年基金资助项目(71901144)、中国青少年研究会研究课题资助项目(2023B18)、尚理晨曦社科专项项目(22SLCX-ZD-005)的资助。

参考文献

[1] 李蕾, 王冕, 章成志. 区分标签类型的社会化标签质量测评研究[J]. 图书情报工作, 2013, 57(23): 11.
[2] 潘薇, 喻浩. 文献信息知识组织与内容揭示方法探究[J]. 图书馆研究, 2019, 39(3): 46-48.
[3] Cui, J.W, and Li, C.J. (2017) Identifying Semantic Relations of Clusters Based on Linked Data. Data Analysis and Knowledge Discovery, 1, 57-66.
[4] Zeng, Z.Y., Wang, H., Zhang, Z.B., et al. (2021) A Study on Construction and Application of Text Classification Model Integrated with Associated Information from GCN. Data Analysis and Knowledge Discovery, 3, 12-20.
[5] 朱靖波, 王会珍, 张希娟. 面向文本分类的混淆类判别技术[J]. 软件学报, 2008, 19(3): 630-639.
[6] 何嘉欣, 张涛, 陈旭岚, 等. 基于数据挖掘的P2P网贷个人信用评价模型研究[J]. 建模与仿真, 2021, 10(4): 991-1002.
[7] Yang, L., Hang, X.S. and Wang, J.Y. (2022) Identifying Subtypes of Clinical Trial Diseases with BERT-TextCNN. Data Analysis and Knowledge Discovery, 6, 69-81.
[8] Wang, S., Liu, C., Wu, J. and Yao, X. (2019) Multi-Label Text Classification with Deep Learning. IEEE Access, 7, 174906-174917.
[9] Gao, S., Ramanathan, A. and Tourassi, G. (2018) Hierarchical Convolutional Attention Networks for Text Classification. In: Proceedings of the Third Workshop on Representation Learning for NLP, Association for Computation-al Linguistics, Melbourne, 11-23.
https://doi.org/10.18653/v1/W18-3002
[10] Ma, Y.F., Peng, Y.X. and Cambria, E. (2018) GCN-Based Joint Learning for Community Sentiment Analysis. Proceedings of the 27th International Conference on Computational Linguistics: Technical Papers, New Mexico, 20-26 August 2018, 1288-1297.
[11] Alshubaily, I. (2021) TextCNN with Attention for Text Classifi-Cation. ArXiv: 2108.01921.
[12] Chen, W. and Fan, J.S. (2022) MechPerformer: A General Deep Learning Model for History-Dependent Response Prediction in Structural Engineering. Journal of Building Structures, 43, 209-219.
[13] Mikolov, T., Sutskever, I., Chen, K., et al. (2013) Distributed Representations of Words and Phrases and Their Compositionality. arXiv: 1310.4546.
[14] 李琳, 段围, 周栋,袁景凌. 基于深度语义匹配的法律条文推荐方法[J]. 软件学报, 2022, 33(7): 2618-2632.
[15] 杨灿, 董海龙. 基于国家标准学科分类的统计学科体系研究[J]. 统计研究, 2010, 27(1): 50-57.
[16] Cen, Y.H., Han, Z. and Ji, P.P. (2008) Chinese Term Recognition Based on Hidden Markov Model. 2008 IEEE Pacific-Asia Workshop on Computational Intelligence and Industrial Application, Wuhan, 19-20 December 2008, 219-224.
[17] Yan, C.M. and Wang, C. (2021) Development and Application of Convolutional Neural Network Model. Journal of Frontiers of Computer Science & Technology, 15, 27.
[18] Zagoruyko, S. and Komodakis, N. (2015) Learning to Compare Image Patches via Convolutional Neural Networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Boston, 7-12 June 2015, 4353-4361.
https://doi.org/10.1109/CVPR.2015.7299064
[19] Hai, H., Guo, Z.L., Cai, T.T. and He, Z.C. (2022) A Text Classification Method Based on a Convolutional and Bidirectional Long Short-Term Memory Model. Connection Science, 34, 2108-2124.
https://doi.org/10.1080/09540091.2022.2098926