基于用户指导的深度学习分类系统
Deep Learning Classification System Based on User Guidance
DOI: 10.12677/CSA.2022.123072, PDF, HTML, XML, 下载: 299  浏览: 537 
作者: 温俊芳, 宋庆增*:天津工业大学,计算机科学与技术学院,天津
关键词: 标签分布标签概率用户指导Distribution of Labels Probability of Labels User Guidance
摘要: 目前,深度学习模型在现实中得到了广泛的应用,当这些模型应用于不同的环境时,可以利用环境中样本分布等经验来进一步提高分类的准确率。基于此,本文提出了基于用户指导的深度学习分类系统DLC-UG,该方法有效地利用了环境中的样本分布来提高分类精度。首先,系统在训练集上训练深度学习模型,接着,用户可以根据自己的经验或他人的建议,在相应的环境中输入每个标签的分布,之后,系统可以通过这个训练模型得到每个样本标签的概率,最后,分布信息有选择地与测试样本上标签的概率相结合。论文在三个真实数据集上选择了六种流行的深度学习模型进行评估,实验结果表明,提出的方法能够提高分类任务的准确率,且明显高于现有的分类方法。
Abstract: Currently, deep learning models are widely used in many applications. When utilizing these models in different environments, the experience like the distribution of objects in an environment can be used to further increase the accuracy of classification. In this paper, we carried out user guidance based deep learning classification task that is named DLC-UG, which efficiently utilizes this kind of distribution in an environment to increase the accuracy of classification. Firstly, we train the deep learning model on the training set. Secondly, the user can input the distribution of each label in the corresponding environment on the experience of himself or advice from others. Thirdly, we can get the probability of labels on each sample by this trained model. Finally, the distribution information selectively cooperates with the probability of labels on testing samples. We select six popular deep learning models on three real datasets for the evaluation. The experimental results show that our method can increase the accuracy of classification tasks, which is obviously higher than state-of-art methods.
文章引用:温俊芳, 宋庆增. 基于用户指导的深度学习分类系统[J]. 计算机科学与应用, 2022, 12(3): 707-718. https://doi.org/10.12677/CSA.2022.123072

1. 引言

现如今,已经证明了深度学习模型在许多应用中是有效的 [1] [2] [3] [4] [5]。通常,基于深度学习的分类模型的性能取决于捕获特征的能力 [6] [7] [8]。在测试样本上使用深度学习模型时,会输出每个标签的概率,然后选择具有概率最大值的标签作为最终结果。

有时,当样本具有属于不同标签的特征时,错误结果的概率可能高于正确结果的概率。为了捕获更多特征以获得更高的精度,模型的结构可能会变得更大,而这会受到许多因素的限制,例如消失梯度问题 [9] [10] [11]。因此,应该设计另一种方法来提高深度学习模型在实际应用中的性能。

与深度学习模型不同,人类不仅可以通过目标的特征,而且还可以通过目标的分布等因素对目标进行分类。如图1展示了这种例子,可以很容易地发现,该样本中的对象同时具有马和鹿的特征,这可能会增加分类的难度,但如果可以知道在这种环境中没有鹿(或马)时,就可以很容易地对其进行分类。

Figure 1. The introduction of problem. A sample that may be deer or horse

图1. 问题示例:一个可能是鹿或马的样本

这种信息可以通过生活经验或他人的建议获得,这是人类的一种特殊能力,可以用来提高环境中分类的准确性。

本文建立了基于用户指导的深度学习分类系统DLC-UG,以提高分类的准确性,本文的贡献可以总结如下:1) 系统使用户能够引导深度学习模型在环境中提高分类准确性。通过系统,用户体验可以很容易地应用到深度学习模型中,以获得更高的精度。2) 系统提高了深度学习模型在新环境中的鲁棒性。标签的分布在不同的环境中可能会有所不同,在这个系统中,用户只需要在相应的环境中更新标签的分布,这比模型迁移或重新训练的成本更低。

论文在CIFAR-10 [12] [13] [14]、CIFAR-100 [15] [16] [17] 和Mini-ImageNet [18] [19] [20] 的样本上验证了本文方法和现有方法,所有这些评估都证明了本文系统的有效性。

论文分为以下几个部分:第一节介绍了背景和本文的贡献,第二节介绍了现有的方法及其存在的问题,第三节介绍了本文系统和相关分析,实验安排在第四节,第五节做出了结论和未来的工作规划。

2. 相关工作

VoVNet-57:VoVNet [21] 的组成首先是一个stem块,由3个卷积层组成,之后是4级OSA模块,输出步幅32。OSA模块用于最小化MAC,MAC由5个具有相同输入/输出通道的卷积层组成。VoVNet-57在第四和第五阶段包含更多的OSA模块,因此模型更大,常用于目标检测。

VGG16:是用于图像识别的VGG模型 [22] 的变体。图像通过一堆卷积层,滤波器使用一个非常小的3 × 3的感受野,卷积步长固定为1像素,五个最大化池层位于卷积层之后,步幅为2,三个完全连接层紧跟一组卷积层之后,最后一层是softmax层,所有隐藏层都配备了(ReLU)非线性函数。

ResNeSt:特点是由Split-Attention块构成 [23],它有四个版本,从ResNeSt50到ResNeSt269,结构变得越来越复杂,当训练样本越来越多时,可以获得更高的精度。由于测试样本的大小和计算资源的耗费,本文实验使用了ResNeSt50。

RepVGG:是在VGG网络的基础上进行了改进 [24]。主要改进包括:1) 在VGG网络的Block块中增加了Identity和残差分支,相当于将ResNet网络的精华应用于VGG网络;2) 在模型推理阶段,通过OP融合策略将所有网络层转换为3 × 3卷积层,便于部署和加速模型。

ResNet:在ILSVRC 2015分类任务中获得了第一名 [25]。它允许将原始输入信息直接转移到输出,从而简化了神经网络学习的目标和难度。使用ResNet主干模型可以在多个任务中实现最先进的性能,即:图像分类、对象检测、实例分割和语义分割等。

DenseNet:是一个具有紧密连接的卷积神经网络 [26]。在这个网络中,任意两层之间都有一个直接的连接,也就是说,每一层的输入是之前所有层的输出的并集,由该层学习的特征图将直接传输到所有后续层作为输入。

这些模型在现实中都得到了广泛的应用,这也证明了它们的有效性。为了提高模型的准确性,必须增加训练样本的数量,这在现实应用中是一项艰巨的工作,此外,模型的结构必须足够大,并使用一些特殊的调整技术才能实现,而人类在环境中对分布标签(样本的种类)的经验可以用来提高准确率。

3. 系统框架

首先,先做一些定义。令 S n 为样本, L k 为样本的标签, G n S n 的真实标签 [27] [28],可以得到 G n { L k } 。标签可用于计算,通常设置为数字 [29] [30],例如,如果有10个样本需要分类,则标签的范围为0到9,同时,M为一个经过训练的模型。

3.1. 整体框架介绍

图2介绍了系统的整体框架,本文将其命名为DLC-UG (基于用户指导的深度学习分类系统)。首先,系统在训练集上训练深度学习模型,然后在输入样本上运行训练模型,得到相应的输出,即标签的概率,接着,用户可以通过输入环境中标签的分布来引导系统,对于一个测试集,用户只需输入一次标签的分布,最后,系统在用户输入和标签概率之间进行选择性的结合,以提高准确性,当有验证集时,系统还可以进一步的优化。

Figure 2. Overall system framework

图2. 系统整体框架

3.2. 根据标签分布进行用户指导

在本文中,用户通过输入标签的分布来引导系统,因此,用户输入和标签的实际分布之间可能存在误差,标签的用户输入分布可以定义如下:

P ˜ ( L k ) = P ( L k ) + ε (1)

其中, P ˜ ( L k ) 是用户输入分布, P ( L k ) 是真实分布, ε 代表这两种分布之间的误差,在一般情况下,正确预测标签的分布对用户来说是很艰难的,即 ε 0

3.3. 训练模型得出概率

P ( M ( S n ) = L k ) 是训练模型M在样本 S n 上得到标签 L k 的概率,通常,一个经过训练的深度学习模型通过以下公式选择最可能的结果:

L x = arg max L k P ( M ( S n ) = L k ) (2)

正如图3的例子所示:

Figure 3. Process example of predicting results through tag probability

图3. 通过标签概率预测结果的过程示例

3.4. 通过后验分布优化

正如上面介绍的,用户输入是不完全准确的,当存在验证集时,可以使用验证集上的后验分布进一步优化输入分布。首先,定义 P ^ ( L k ) 是标签 L k 在验证集上的后验分布,接着使用 P ^ ( L k ) 按照下面的公式来优化输入分布 P ˜ ( L k )

f ( P ˜ ( L k ) , P ^ ( L k ) ) = P ˜ ( L k ) × φ + P ^ ( L k ) × ( 1 φ ) (3)

其中, φ 表示权重,且满足 0 φ 1 ,通过选择 φ 的值,可以使经过训练的模型在验证集上达到最高的精度的方法,本文将这种优化方法命名为DLC-UG-opt。

3.5. 选择性结合

本小节将在用户输入分布和标签概率之间进行选择性结合,需要建立了两条选择规则,如下所示:

Select 1 : { L x | P ( M ( S n ) = L x ) < δ } Select 2 : { L k | P ( M ( S n ) = L k ) > γ } (4)

其中, L x = arg max L k P ( M ( S n ) = L k ) ,在所有的最终结果中,Select1重新考虑了那些概率小于 δ 的结果,然后注意这些结果的相应样本,在每个样本上,可以得到模型输出的标签的概率,然后选择概率大于 γ 的标签作为最终结果的潜在集合。 δ 是决定是否重新考虑结果的阈值, γ 这个参数意味着只能选择一部分标签作为可能的最终结果,这是为了避免标签概率 P ( M ( S n ) = L k ) 0 通过结合被选为了最终的结果。

可以使用图3中的例子来解释这个过程,在这个图中,经过训练的模型输出 L x = L 4 作为样本的最终结果,因为该标签在所有标签中的概率最大。如果提前设定 δ = 0.6 ,可以得到 P ( M ( S n ) = L 4 ) = 0.5 < δ ,然后根据Select1重新考虑这个样本的结果,Select2选择概率大于预设值 γ = 0.1 的那些标签,这样,系统就会选择并重新考虑 L 4 L 7 作为最终结果的潜在集合。

3.6. 本文方法

接下来,可以根据论文的系统执行以下方法:对于最终结果 L x Select 1 ,可以通过以下公式重新考虑输出:

F ( S n , L k ) = P ( M ( S n ) = L k ) + ω × f ( P ˜ ( L k ) , P ^ ( L k ) ) L x = arg max L k Select 2 F ( S n , L k ) (5)

当使用这种方法时,我们可以设置参数的默认值如 ω ,用户输入分布的影响由参数 ω 控制,当存在验证集时,我们还可以优化该参数。

下面是论文系统比现有系统性能更好的原因。第一个原因:样本 S n 上可能存在以下关系:

P ( M ( S n ) = L q G n ) > P ( M ( S n ) = L k = G n ) (6)

这意味着经过训练的模型预测出了错误的结果,在这种情况下,有 P ( M ( S n ) = L k = G n ) 0 。特别的,当 P ( M ( S n ) = L q ) < δ 时,有 P ( M ( S n ) = L k = G n ) 0 ,这表示正确结果可能是其他的。例如,在图4中, P ( M ( S n ) = L 4 = G n ) = 0.50 ,同时 P ( M ( S n ) = L 7 = G n ) = 0.48 ,在这种情况下,如果存在以下关系:

P ˜ ( L 7 ) = 0.67 P ˜ ( L 4 ) = 0.01 (7)

就可以使用用户输入来获得最终结果。例如,我们可以很容易地在图4中选择 L 7 是鹿。第二个原因,在深度学习模型中,捕获的特征在分类中起着重要作用,捕获特征的数量取决于层的结构 [31] [32],深度学习的训练过程是选择能够代表样本的特征,然后,获得标签的概率也是基于这些特征。所以,当存在以下关系时,标签 L k 比标签 L q 更有可能是正确的结果:

P ( M ( S n ) = L k ) > γ > ( M ( S n ) = L q ) (8)

因此,在重新考虑结果时,选择具有高概率的标签是合理的。

Figure 4. The result of the model is 4 (horse), and the correct result 7 can be obtained through the distribution of labels

图4. 模型得出的结果是4 (马),而通过标签的分布,可以得到正确结果7

4. 实验结果

论文在一些真实数据集上评估了所提出的方法和现有的方法。首先,在训练集上对已有的深度学习模型进行训练,生成训练模型,在默认设置下训练所有深度学习模型(不改变结构或调整超参数),在训练这些模型时,将迭代次数epoch [33] [34] 设置为10。接着,根据样本分布从数据集中选取测试样本,以模拟环境中的真实分布,然后在这些样本上评估本文的方法和现有的方法,当随机化这些参数时,实验评估1000次并计算平均值。

4.1. 在CIFAR-10上的评估结果

CIFAR-10 [12] [13] [14] 有50,000个训练样本和10,000个测试样本,属于10个标签。每个样本都是一个带有三个通道的RGB图像:红色、绿色和蓝色。实验使用训练集中的50,000个训练样本来训练模型,另外还有10000个测试样本,根据不同的样本分布从这10,000个样本中选择样本,以模拟环境中的真实分布。

实验使用三种样本分布来评估这些方法,Zero20表示20%的标签上没有样本,然后以同样的方式定义Zero40 (有40%的标签是零样本)和Zero80 (有80%的标签是零样本),要分配零样本的标签是随机选择的。图5显示了这些分布的示例,在这些情况下,测试集的样本数量少于10,000个。例如,Zero20案例中大约有8000个样本。

Figure 5. Examples of Zero20, Zero40, and Zero80 on CIFAR-10

图5. 在CIFAR-10上的Zero20、Zero40和Zero80示例

在这些情况下,假设用户输入是正确的,这意味着 ε = 0 (公式(1)所述)。如表1所示,与现有方法相比,本文的方法可以将准确度至少提高1.29%,最多提高24.34%。

4.2. 在CIFAR-100上的评估结果

该数据集与CIFAR-10类似,只是它有100个类,每个类包含600个图像:包括500个训练图像和100个测试图像 [15] [16] [17]。实验使用训练集中的50,000个训练样本来训练模型,另外还有10,000个样本。根据不同的样本分布从这10,000个样本中选择样本,以模拟环境中的真实分布。

在这些情况下,假设用户输入是正确的,即 ε = 0 ,分布Zero20、Zero40和Zero80的含义与4.1小节描述相同。如表2所示,与现有方法相比,论文提出的方法可以将准确度至少提高2.55%,最多提高23.75%。

Table 1. Experimental results on CIFAR-10

表1. CIFAR-10上的实验结果

Table 2. Experimental results on CIFAR-100

表2. CIFAR-100上的实验结果

4.3. 在Mini-ImageNet上的评估结果

Mini-ImageNet [18] [19] [20] 数据集常用于小样本学习评估。由于使用了ImageNet中的图像,它类型比较复杂,但与在完整的ImageNet数据集上运行相比,需要的资源和基础设施更少。数据集共有100个类别,每个类别有600个样本和8484幅彩色图像。实验使用训练集中的48,000个训练样本来训练模型,另外还有12,000个测试样本,根据不同的样本分布从这12,000个样本中选择样本,以模拟环境中的真实分布。

在这些情况下,我们假设用户输入是正确的,这意味着 ε = 0 。分布Zero20、Zero40和Zero80的含义与4.1小节描述相同。如表3所示,与现有方法相比,论文的方法可以将准确度至少提高1.86%,最多提高22.60%。

Table 3. Experimental results on Mini-ImageNet

表3. Mini-ImageNet上的实验结果

4.4. 两个数据集上的随机情况

在本小节中,实验随机将示例分布分配给CIFAR-100和Mini-ImageNet,具体来说,实验随机选择标签并设置随机分布来评估这些方法。然后,本文将提出的方法与这些数据集上现有的方法进行了比较,如图6所示, Ran ( . ) 是将随机值乘以分布的函数,如果随机值小于0,则用0代替这个值,然后可以通过这个函数生成样本的分布。例如,如果对象标签的原始样本数为100,且 Ran ( 0 , 1 ) = 0.9 ,则有大约90个用于评估的该标签样本,图6显示了 Ran ( 0 , 1 ) Ran ( 1 , 1 ) 的示例。

Figure 6. The example random distributions, (a) Ran ( 0 , 1 ) ; (b) Ran ( 1 , 1 )

图6. 随机分布示例,(a) Ran ( 0 , 1 ) ;(b) Ran ( 1 , 1 )

表4所示,论文的方法比现有的最佳方法平均提高了约0.54% (在 Ran ( 0 , 1 ) 情况下)和8.61% (在 Ran ( 1 , 1 ) 情况下)的平均准确率。

4.5. 在两个数据集上均错误的情况

在本小节中,实验假设用户输入不正确,即 ε 0 ,定义 ε = ( ) 意味着在分布中加入了一个随机误差,例如,当标签的分布如图6所示介于0和0.01之间时, ε = ( 0.2 , 0.2 ) 意味着向分布中添加了一个随机误差 ( 0.2 × 0.01 , 0.2 × 0.01 ) 。当使用本文的优化方法DLC-UG-opt时,随机将验证集中的样本数设置在200到500之间。

Table 4. Random distribution results on CIFAR-100 and Mini-ImageNet

表4. CIFAR-100和Mini-ImageNet上的随机分布结果

表5所示,与现有方法相比,DLC-UG方法平均可提高约7.80% (当 ε = ( 0.0 , 0.0 ) 时)的平均精度,3.30% (当 ε = ( 0.2 , 0.2 ) 时)和1.53% (当 ε = ( 0.4 , 0.4 ) 时)的平均精度。本文的方法DLC-UG-opt比现有方法平均提高了8.10% ( ε = ( 0.0 , 0.0 ) )、7.03% ( ε = ( 0.2 , 0.2 ) )和5.92% ( ε = ( 0.4 , 0.4 ) )。这些结果表明,当标签的输入分布存在误差时,论文提出的方法也可以具有更高的精度。与本文的方法DLC-UG相比,优化方法DLC-UG-opt可以减少误差的影响,从而获得更高的精度。

Table 5. Experimental results on CIFAR-100 and Mini-ImageNet when user input error

表5. 用户输入错误时在CIFAR-100和Mini-ImageNet上的实验结果

4.6. 结果分析

论文已经在不同分布的真实数据集上对提出的方法进行了评估,这些模型的精确度从低(<50%)到高(>90%)的结果都证明了本文的系统在这些情况下的有效性。在某些情况下,也可以通过另一种方式获得分布,例如,当地居民的建议类似于“这个地区没有马”,可以用来从候选集中消除错误的标签。本文的系统可以有效地利用用户的体验来提高准确性,使用这一方法的另一个优点是,应用中不需要对模型进行重新训练,也不需要将模型迁移到各种环境中来加强鲁棒性,本文中的系统实现了这种对基于深度学习的分类的鲁棒性。

5. 总结

本文提出了一个新的系统,它可以提高基于深度学习模型的分类任务的准确性,这个系统使用模型输出的样本的概率,使该概率有条件地与用户输入的标签分布相结合,以获得更高的精度,所提出的系统可以有效提高环境中深度学习分类模型的鲁棒性。在未来的工作中,我们将研究标签的概率和分布之间的深度结合,例如,可以使用多个模型的概率 [35] 和用户输入的概率相结合,这能够包含对象特征的更多信息,这些信息可以正确表示经过训练的模型从样本中捕获到的内容。

NOTES

*通讯作者。

参考文献

[1] Kim, M., Han, D. and Rhee, J.-K.K. (2021) Multiview Variational Deep Learning with Application to Practical Indoor Localization. IEEE Internet of Things Journal, 8, 12375-12383.
https://doi.org/10.1109/JIOT.2021.3063512
[2] Li, J.L., Luo, G.Y., Cheng, N., Yuan, Q., Wu, Z.H., Gao, S. and Liu, Z.H. (2019) An End-to-End Load Balancer Based on Deep Learning for Vehicular Network Traffic Control. IEEE Internet of Things Journal, 6, 953-966.
https://doi.org/10.1109/JIOT.2018.2866435
[3] Wu, Y.F., Mendis, G.J. and Wei, J. (2021) DDLPF: A Practical Decentralized Deep Learning Paradigm for Internet-of-Things Applications. IEEE Internet of Things Journal, 8, 9740-9752.
https://doi.org/10.1109/JIOT.2020.3033482
[4] Jin, G., Liu, F., Wu, H. and Song, Q. (2020) Deep Learn-ing-Based Framework for Expansion, Recognition and Classification of Underwater Acoustic Signal. Journal of Experi-mental & Theoretical Artificial Intelligence, 32, 205-218.
https://doi.org/10.1080/0952813X.2019.1647560
[5] Jain, D.K., et al. (2020) Multi Angle Optimal Pattern-Based Deep Learning for Automatic Facial Expression Recognition. Pattern Recognition Letters, 139, 157-165.
https://doi.org/10.1016/j.patrec.2017.06.025
[6] Bakhshipour, A. (2021) Cascading Feature Filtering and Boosting Algorithm for Plant Type Classification Based on Image Features. IEEE Access, 9, 82021-82030.
https://doi.org/10.1109/ACCESS.2021.3086269
[7] Derrouz, H., El Bouziady, A., Ait Abdelali, H., Thami, R.O.H., El Fkihi, S. and Bourzeix, F. (2019) Moroccan Video Intelligent Transport System: Vehicle Type Classification Based on Three-Dimensional and Two-Dimensional Features. IEEE Access, 7, 72528-72537.
https://doi.org/10.1109/ACCESS.2019.2920740
[8] Liao, J.S. and Wang, L.G. (2020) Adaptive Hyperspectral Image Classification Based on the Fusion of Manifolds Filter and Spatial Correlation Features. IEEE Access, 8, 90390-90409.
https://doi.org/10.1109/ACCESS.2020.2993864
[9] Ahn, S.M. (2016) Deep Learning Architec-tures and Applications. Journal of Intelligence & Information Systems, 22, 127-142.
https://doi.org/10.13088/jiis.2016.22.2.127
[10] Sharma, K., Alsadoon, A., Prasad, P., Al-Dala’In, T. and Pham, D. (2020) A Novel Solution of Using Deep Learning for Left Ventricle Detection: Enhanced Feature Extraction. Com-puter Methods and Programs in Biomedicine, 197, Article ID: 105751.
https://doi.org/10.1016/j.cmpb.2020.105751
[11] Dai, Z.W. and Heckel, R. (2019) Channel Normalization in Con-volutional Neural Network Avoids Vanishing Gradients. CoRR abs/1907.09539.
[12] Ho-Phuoc, T. (2018) CIFAR10 to Compare Visual Recognition Performance between Deep Neural Networks and Humans. CoRR abs/1811.07270.
[13] Su, J., Vargas, D.V. and Kouichi, S. (2019) One Pixel Attack for Fooling Deep Neural Networks. IEEE Transactions on Evolutionary Computation, 23, 828-841.
[14] Wu, D.X., Xu, J. and Liu, H. (2020) Analysis of the Influence of Stylized-CIFAR10 Dataset on ResNet. ML4CS 2020, Guangzhou, 8-10 October 2020, 416-426.
https://doi.org/10.1007/978-3-030-62460-6_37
[15] Termritthikun, C., et al. (2020) An Improved Residual Net-work Model for Image Recognition Using a Combination of Snapshot Ensembles and the Cutout Technique. Multimedia Tools and Applications, 79, 1475-1495.
https://doi.org/10.1007/s11042-019-08332-3
[16] Chen, J. and Liu, Z. (2020) Mask Dynamic Routing to Com-bined Model of Deep Capsule Network and U-Net. IEEE Transactions on Neural Networks and Learning Systems, 31, 2653-2664.
https://doi.org/10.1109/TNNLS.2020.2984686
[17] Sharma, N., Jain, V. and Mishra, A. (2018) An Analysis of Convolutional Neural Networks for Image Classification. Procedia Computer Science, 132, 377-384.
https://doi.org/10.1016/j.procs.2018.05.198
[18] Wang, P., Cheng, J., Hao, F., Wang, L. and Feng, W. (2020) Embedded Adaptive Cross-Modulation Neural Network for Few-Shot Learning. Neural Computing and Applications, 32, 5505-5515.
https://doi.org/10.1007/s00521-019-04605-y
[19] Xiang, W., et al. (2020) FMixCutMatch for Semi-Supervised Deep Learning. Neural Networks, 133, 166-176.
https://doi.org/10.1016/j.neunet.2020.10.018
[20] Zhang, L.L., et al. (2019) Scheduled Sampling for One-Shot Learning via Matching Network. Pattern Recognition, 96, Article ID: 106962.
https://doi.org/10.1016/j.patcog.2019.07.007
[21] Lee, Y., Hwang, J.W., Lee, S., Bae, Y. and Park, J. (2019) An Energy and GPU-Computation Efficient Backbone Network for Real-Time Object Detection. 2019 IEEE/CVF Confer-ence on Computer Vision and Pattern Recognition Workshops (CVPRW), Long Beach, 16-17 June 2019, 752-760.
https://doi.org/10.1109/CVPRW.2019.00103
[22] Qu, Z., Mei, J., Liu, L. and Zhou, D.-Y. (2020) Crack Detection of Concrete Pavement with Cross-Entropy Loss Function and Improved VGG16 Network Model. IEEE Access, 8, 54564-54573.
https://doi.org/10.1109/ACCESS.2020.2981561
[23] Wang, S., Liu, Y., Qing, Y., Wang, C., Lan, T. and Yao, R. (2020) Detection of Insulator Defects with Improved ResNeSt and Region Proposal Network. IEEE Access, 8, 184841-184850.
https://doi.org/10.1109/ACCESS.2020.3029857
[24] Feng, X., Gao, X. and Luo, L. (2021) X-sdd: A New Benchmark for Hot Rolled Steel Strip Surface Defects Detection. Symmetry, 13, 706.
https://doi.org/10.3390/sym13040706
[25] Zhao, S.F., Qiu, L.C., Qi, P. and Sun, Y. (2020) A Novel Image Clas-sification Model Jointing Attention and ResNet for Scratch. 16th International Wireless Communications and Mobile Computing Conference, IWCMC 2020, Limassol, 15-19 June 2020, 1498-1503.
https://doi.org/10.1109/IWCMC48107.2020.9148279
[26] Zhang, Z., Liang, X., Xu, D., Xie, Y. and Cao, G. (2018) A Sparse-View CT Reconstruction Method Based on Combination of Densenet and Deconvolution. IEEE Transactions on Medical Imaging, 37, 1407-1417.
https://doi.org/10.1109/TMI.2018.2823338
[27] Khodja, A., Zheng, Z.L., Mo, J.S.Z., Zhang, D.W. and Chen, L.Y. (2021) Rain to Rain: Learning Real Rain Removal without Ground Truth. IEEE Access, 9, 57325-57337.
https://doi.org/10.1109/ACCESS.2021.3072687
[28] Zaatour, R., Bouzidi, S. and Zagrouba, E. (2020) Unsuper-vised Image-Adapted Local Fisher Discriminant Analysis to Reduce Hyperspectral Images without Ground Truth. IEEE Transactions on Geoscience and Remote Sensing, 58, 7931-7941.
https://doi.org/10.1109/TGRS.2020.2985260
[29] Leo, L.M. and Reddy, T.K. (2020) Dental Caries Classification System Using Deep Learning Based Convolutional Neural Network. Journal of Computational and Theoretical Nano-science, 17, 4660-4665.
https://doi.org/10.1166/jctn.2020.9295
[30] Song, D., Vold, A., Madan, K. and Schilder, F. (2021) Multi-Label Legal Document Classification: A Deep Learning-Based Approach with Label-Attention and Domain-Specific Pre-Training. Information Systems, 106, Article ID: 101718.
https://doi.org/10.1016/j.is.2021.101718
[31] Chen, Y.T., Liu, L.W., Tao, J.J., Chen, X., Xia, R.L., Zhang, Q., Xiong, J., Yang, K. and Xie, J.B. (2021) The Image Annota-tion Algorithm Using Convolutional Features from Intermediate Layer of Deep Learning. Multimedia Tools and Applica-tions, 80, 4237-4261.
https://doi.org/10.1007/s11042-020-09887-2
[32] Saraee, E., Jalal, M. and Betke, M. (2020) Visual Complexity Analysis Using Deep Intermediate-Layer Features. Computer Vision and Image Understanding, 195, Article ID: 102949.
https://doi.org/10.1016/j.cviu.2020.102949
[33] Lim, G., Cheng, Y., Hsu, W. and Lee, M.L. (2016) Integrated Optic Disc and Cup Segmentation with Deep Learning. IEEE International Conference on Tools with Artificial Intelligence, San Jose, 6-8 November 2016, 162-169.
https://doi.org/10.1109/ICTAI.2015.36
[34] Song, W., Li, W., Hua, Z. and Zhu, F. (2021) A New Deep Au-to-Encoder Using Multiscale Reconstruction Errors and Weight Update Correlation. Information Sciences, 559, 130-152.
https://doi.org/10.1016/j.ins.2021.01.064
[35] Jin, G., Hu, Y., Jiao, Y., Wen, J. and Song, Q. (2021) Improving the Performance of Deep Learning Model-Based Classification by the Analysis of Local Probability. Complexity, 2021, Arti-cle ID: 5534385.
https://doi.org/10.1155/2021/5534385