基于CiteSpace的深度卷积神经网络的研究述评
A Review of Research on Deep Convolutional Neural Networks Based on CiteSpace
DOI: 10.12677/csa.2025.1511285, PDF, HTML, XML,    科研立项经费支持
作者: 李林汉:河北金融学院河北省科技金融重点实验室,河北 保定;关雪飞:河北金融学院经济贸易学院,河北 保定
关键词: 深度卷积神经网络文献计量知识图谱CiteSpaceDeep Convolutional Neural Network Bibliometrics Knowledge Mapping CiteSpace
摘要: 为了全面和系统地考察中国深度卷积神经网络的研究现状、重点热点以及未来展望,基于中国知网数据库,以“深度卷积神经网络”为主题词,筛选出2014~2025年间共3181条相关文献进行综述和知识图谱分析。结果表明:2014~2025年的10年期间,中国深度卷积神经网络的研究大体经历了初步认识(2014~2016年),快速发展(2017~2022年)和平稳发展(2023~2025年)的三个阶段。在研究关键词中,深度学习、目标检测、图像处理、迁移学习、特征提取、故障诊断、图像分类等为该领域的高频关键词。在关键词演进分析中,该研究领域热点逐步向调制识别、轻量级、图像复原、扩张卷积等分类等进行转变。在发文作者上,以王鑫、张强、李明、郑宗生、杨军和汤一平为各自团队的核心取得丰硕的发表成果,在研究机构上,形成了以浙江工业大学计算机科学与技术学院、中国科学院大学、南京信息工程大学遥感与测绘工程学院为代表的科研院所占据重要地位。在发表期刊上,《计算机工程与应用》《中国图像图形学报》《计算机应用》等期刊为主要的见刊期刊。
Abstract: In order to comprehensively and systematically investigate the research status, key hotspots, and future prospects of deep convolutional neural networks (DCNN) in China, this study is based on the China National Knowledge Infrastructure (CNKI) database. Using “Deep Convolutional Neural Network” as the subject term, 3181 relevant publications from the period 2014~2025 were selected for review and knowledge mapping analysis using CiteSpace. The results indicate that over the decade from 2014 to 2025, DCNN research in China generally underwent three stages: initial recognition (2014~2016), rapid development (2017~2022), and stable development (2023~2025). Regarding research keywords, deep learning, object detection, image processing, transfer learning, feature extraction, fault diagnosis, and image classification are high-frequency keywords in this field. The keyword evolution analysis shows that the research hotspots have gradually shifted towards areas such as modulation recognition, lightweight models, image restoration, dilated convolution, and related classifications. In terms of prolific authors, Xin Wang, Qiang Zhang, Ming Li, Zongsheng Zheng, Jun Yang, and Yiping Tang, as cores of their respective teams, have achieved abundant publication results. Regarding research institutions, schools such as the College of Computer Science and Technology at Zhejiang University of Technology, the University of Chinese Academy of Sciences, and the School of Remote Sensing and Geomatics Engineering at Nanjing University of Information Science and Technology have emerged as leading scientific research institutions. For publication venues, journals such as Computer Engineering and Applications, Journal of Image and Graphics, and Computer Applications are the primary publication channels.
文章引用:李林汉, 关雪飞. 基于CiteSpace的深度卷积神经网络的研究述评[J]. 计算机科学与应用, 2025, 15(11): 75-84. https://doi.org/10.12677/csa.2025.1511285

1. 引言

卷积神经网络是由LeCun Y [1]在20世纪80年代末至90年代基于前人的神经科学和模型研究基础上,成功实践并确立的。其核心定义是利用局部连接、权值共享和池化来高效处理网格状数据的特殊神经网络。如今,它已成为计算机视觉领域的基石技术,并广泛应用于图像、视频、语音、文本等多个方面,是人工智能发展史上最重要的里程碑之一。深度卷积神经网络是卷积神经网络的一个子集,其核心区别在于“深度”二字,特指那些层次非常深的CNN (Convolutional Neural Networks),LeCun Y提出的经典LeNet-5是“浅层CNN”的代表,Alex Krizhevsky等[2]提出了8层的AlexNet,在2012年ImageNet大赛上以远超亚军的成绩夺冠,首次向世界展示了“足够深”的CNN在复杂问题上的巨大威力,从而引爆了深度学习热潮,AlexNet是第一个真正有影响力的“深度CNN”。

但是单纯地堆叠层数会导致梯度消失和网络退化问题,使得网络难以训练。直到残差网络的出现,才真正将“深度”推向了极致。何恺明及其团队2015年[3]提出了ResNet和“残差学习”框架,通过引入跳跃连接,巧妙地解决了极深网络的退化问题,使得训练上百甚至上千层的网络成为可能,解决了极深网络的训练难题,使得深度卷积神经网络的研究得到深化与突破,学术界对于卷积神经网络的关注度不断提高,研究成果也得到积累,也有一些学者对我国的卷积神经网络所取得的研究成果进行了回顾和展望[4] [5],上述研究成果为我国深度卷积神经网络的研究奠定了良好的研究基础,但是纵观现有研究成果,可以发现缺乏对于深度卷积神经网络的梳理和总结,不能及时全面地反映出我国深度卷积神经网络领域的研究现状和未来热点,而且已有的研究中采用的都是传统的内容分析,无法发现研究内容之间的脉络关系。因此,本文基于中国知网数据库中的数据,基于CiteSpace对我国的深度卷积神经网络进行文献计量分析,进而系统考察深度卷积神经网络在我国的研究现状、重点热点以及未来展望,从而为后续的研究提供参考和借鉴意义。

2. 数据来源和研究方法

2.1. 数据来源

本研究的数据来源于中国知网数据库中的期刊数据库,以“深度卷积神经网络”为主题进行搜索,将期刊来源类别限定为“北大核心”,将课题基金限定为“国家自然科学基金”和“国家重点研发计划”,进而对结果进行整理,总共可以得到2014年1月1日到2025年10月10日之间3181篇期刊,本文以此为全文的研究对象。

2.2. 研究方法

CiteSpace是由陈超美博士团队开发设计的一款针对文献归纳进行计量和科学分析的可视化软件[6],能够对相关研究文献的主题、关键词、作者以及研究机构等数据进行计量分析和处理,进行可视化的呈现,进而显示出数据之间的交叉、网络和突变等关系。本文使用CiteSpace软件进行文献计量和知识图谱分析,时间跨度为2014~2025,时间间隔为1年,分别选择关键词、发文作者、发文机构等内容进行解析,并绘制相应的分析图像,通过可视化手段呈现深度卷积神经网络研究领域内的研究规律和研究分布以及研究合作情况,为科学客观地提供深度卷积神经网络研究领域的发展趋势和动向。

3. 结果与分析

3.1. 发文量分析

发文量能够较为直观地反映出某一研究主题随时间变化的趋势,是衡量该主题研究热点的简单量化指标。图1展示了我国深度卷积神经网络在2014~2025年之间的年度发文量,可以看出来,在2014~2025年之间,我国的深度卷积神经网络研究大致经历了初步认识、快速发展和平稳发展三个阶段。其中,2014~2016年之间为我国关于深度卷积神经网络的初步认识阶段,这一阶段内的研究成果少,每年平均发表22篇,但是随着2014年首篇研究主题为“深度卷积神经网络”论文的出现,也顺利揭开了我国深度卷积神经网络的研究序幕。2017~2022年为我国深度卷积神经网络快速增长的阶段,发文量也实现了大幅增长,由2017年的120篇增长到2022年的474篇,每年平均发表396篇,是上一阶段的18倍。主要是因为随着深度学习的升级迭代,相关的算法升级不断更新,同时加上行业需求的带动,使得企业和高校的研究热情高涨,进而推动了论文发表数量的迅速上升。2023~2025年为我国深度卷积神经网络平稳发展的阶段,这一阶段的发文量相较于上一阶段有所下降,但是每年平均发表250篇左右,造成这一现象的原因并不是说明这项技术的价值消失,而是深度学习研究在经历了爆发期后,整体上正从追求论文数量的“广撒网”模式,转向更加注重深度专业化和精准应用的新阶段,自2021年以来,大型语言模型、生成式AI以及多模态模型等新技术范式相继成为研究前沿,吸引了大量原本可能投向CNN的研究资源与注意力,CNN在处理图像空间变换和理解全局上下文信息方面存在天然缺陷。当研究深入到更复杂的视觉问题时,这些局限性促使研究者去寻找更高效的研究方法。

3.2. 关键词分析

3.2.1. 关键词分布图分析

关键词是对文章核心内容的总结和强调,本部分基于CiteSpace绘制了我国深度卷积神经网络的关键词分布图,见图2,其中节点越大,表明关键词出现频次越高,而连线表示关键词之间的关联性。在图2的基础上,表1给出了深度卷积神经网络关键词高频词汇进行了展示,其中深度学习、目标检测、图像处理、迁移学习、特征提取、故障诊断、图像分类、特征融合、神经网络、图像识别、语义分割和机器视觉等为该领域的核心关键词,出现的次数分别达到2144、141、126、118、110、94、84、76、76、75、68和63次,表明这些关键词是深度卷积神经网络的研究热点关键词。此外,表1还汇报了高频词汇的中心度,中心度是指该关键词在网络中的核心地位程度,中心度越高,说明节点在该领域的重要性越强。根据表1的数据可以看出,多尺度、深度估计、超分辨率、深度学习、图像处理、残差学习、模型压缩、分类、残差网络、行为识别和语义分割是按照中心度从大到小排序的关键词,中心度均大于0.1,也说明上述词汇是深度卷积神经网络研究领域内的核心关键词。

Figure 1. Annual publication volume on deep convolutional neural networks (2014~2025)

1. 深度卷积神经网络年度发文量(2014~2025年)

Figure 2. Keyword distribution map of deep convolutional neural networks research (2014~2025)

2. 深度卷积神经网络研究关键词分布图(2014~2025年)

Table 1. Keywords with occurrence frequency over 30 in deep convolutional neural networks research literature

1. 深度卷积神经网络研究文献中出现频次超过30的关键词

序号

频次

中心度

关键词

序号

频次

中心度

关键词

1

2144

0.49

深度学习

10

75

0

图像识别

2

141

0

目标检测

11

68

0.1

语义分割

3

126

0.48

图像处理

12

63

0

机器视觉

4

118

0.07

迁移学习

13

50

0.02

人工智能

5

110

0.02

特征提取

14

47

0.07

机器学习

6

94

0.02

故障诊断

15

46

0.03

图像分割

7

84

0.08

图像分类

16

44

0.11

残差网络

3.2.2. 关键词聚类分析

虽然上一部分对于关键词的词频和中心度进行了分析,但是可以看出深度卷积神经网络的关键词研究内容繁多,而且比较分散,未形成系统的研究框架,因此本部分对关键词进行聚类分析,并根据每个聚类关键词的组成,总结出深度卷积神经网络的主要研究领域,使得研究视角更为聚焦,凸显出深度卷积神经网络的热门研究领域,也为未来的研究方向奠定基础,使用CiteSpace进行关键词聚类,选取前8个进行展示,关键词聚类的结果如表2所示,8个聚类是不同的研究内容组成,代表8种不同的研究方向和领域。由表2可知,目前我国深度卷积神经网络的相关研究主要集中在“深度学习”“图像处理”“图像分类”“特征提取”“神经网络”“迁移学习”“模型压缩”“图像识别”8个领域,每个研究领域内的研究内容如表2所示。

Table 2. Keyword clustering table for deep convolutional neural networks research

2. 深度卷积神经网络研究关键词聚类表

编号

聚类名称

研究内容

#0

深度学习

深度学习;卷积神经网络;损伤识别;滚动轴承;注意力机制

#1

图像处理

图像处理;深度估计;超分辨率;深度学习;残差网络

#2

图像分类

图像分类;图像分割;图像融合;残差学习;检测

#3

特征提取

特征提取;多尺度;人脸识别;缺陷检测;表情识别

#4

神经网络

神经网络;目标跟踪;机器视觉;行为识别;视觉跟踪

#5

迁移学习

迁移学习;机器学习;人工智能;微调;数据增强

#6

模型压缩

模型压缩;图像分类;模型剪枝;剪枝;轻量化

#7

图像识别

图像识别;损失函数;词向量;文本分类;语音增强

下面选取具有代表性的板块进行分析:

#0深度学习研究主题:深度卷积神经网络的成功,并不是简单的堆叠更多卷积层,而是大量借鉴并融合了深度学习的核心方法与技术。从核心架构与组件来说,深度卷积神经网络摒弃了传统机器学习中需要手动设计特征的步骤,从像素输入直接到分类输出,进而训练端到端学习的卷积网络,奠定了深度卷积神经网络的基础。其次,以ResNet为代表的残差块和跳跃连接。它让网络层不再直接学习一个目标映射,而是学习目标映射与输入之间的残差,即实现残差学习。在训练优化技巧层面,深度卷积神经网络借鉴了深度学习中的自适应优化器,使得优化器收敛更快更稳定。在数据策略方面,深度卷积神经网络是“数据饥渴”型模型,需要大量数据来驱动,因此深度卷积神经网络借鉴深度学习的规模定理,通过对训练的图像进行一系列随机但合理的变换来人工扩充数据集,例如旋转、缩放等方面。为了防止复杂模型在有限数据上的过拟合,深度卷积神经网络使用了多种深度学习的正则化技术,例如Dropout方法和权重衰减[7]

#1图像处理研究主题:深度卷积神经网络在图像处理领域的应用极其广泛,包括图像分类与识别、目标检测、图像分割、图像生成与合成、提升图像质量与理解并描述图像,直至生成图像。传统的图像处理算法主要是基于算法设计的先验知识,进而对于识别对象的特征进行提取,由于算法存在算力限制,只能提取少量的参数,同时在面对复杂动态呈现非线性变化的图像时,浅层的图像处理算法所需要的训练样本和参数乘几何级数增长,而深度卷积神经网络可以从大量的数据中自主学习参数所具有的特征,使得图像处理更有效率。随着深度学习算法的不断深化,深度卷积神经网络对于图像的处理已经渗透到方方面面,从基础的增强和分类,到复杂的检测、分割,再到前沿的生成与创造,成为了驱动计算机视觉领域发展的核心引擎[8]

#2图像分类研究主题:图像分类是图像处理中的一种,这是深度卷积神经网络在图像处理方面最成熟也是最基础的应用,其核心任务是将图像进行预判定,从而进行类别的判断。应用场景包括物体识别,场景分类、人脸识别、细粒度图像分类和医学图像分析。张珂等[9]根据模型优化的发展历程来说,深度卷积神经网络在图像分类的模型包括经典模型、注意力机制模型、轻量级模型以及神经网络架构搜索模型,在肯定深度卷积神经网络强大功能的同时,张珂等[10]也认为深度卷积神经网络模型的速度以及消耗资源方面存在缺陷,提出神经架构搜索方式是未来的发展方向。

#3特征提取研究主题:特征提取指的是从原始数据中自动或手动地识别并抽取出对后续任务更有用的、更具代表性的信息的过程。在深度学习流行之前,研究者需要根据预设的专业知识来设计特征提取的方法,例如SIFT (尺度不变特征变换)、HOG (方向梯度直方图)、LBP (局部二值模式),这些方法设计过程繁琐而且提取能力有限,需要大量的预设知识,而深度卷积神经网络的核心能力是自动从数据中学习层次化特征,无需人工干预设计。也就是将特征提取从一个需要大量先验知识的“手工艺术”,变成了一个由数据驱动的、可规模化的“现代工程”,这是其能够颠覆计算机视觉领域的根本原因之一[10]

#4神经网络研究主题:此部分的主题主要集中在对于目标跟踪的研究上,目标跟踪是计算机视觉领域中的重要研究方向,在交通领域,军事领域有着广泛的应用,深度卷积神经网络相较于传统的浅层学习模型,具有深度分层架构,可以不依赖外界条件学习数据特征,适用于分布复杂、非结构化的图像目标跟踪,目前较为常见的目标跟踪研究方法有基于分类的卷积神经网络目标跟踪法、基于回归的卷积神经网络目标跟踪法、基于相似度匹配的卷积神经网络目标跟踪法。而深度卷积神经网络在目标跟踪主体研究未来的研究方向是与其他算法集合进而构建合适的网络,使用更贴合跟踪任务的数据集进行训练[11]

#5迁移学习研究主题:深度卷积神经网络和迁移学习之间是互助共生,相辅相成的关系,深度卷积神经网络增强了迁移学习在计算机视觉领域中的应用,而迁移学习也降低了深度卷积神经网络的应用门槛。迁移学习降低了算法对于数据量的需求,节省了时间和计算资源同时也提升了模型性能。在国内方面,基于迁移学习的深度卷积神经网络应用众多,许景辉等[12]针对玉米病害图像识别问题,提出了一种基于迁移学习的卷积神经网络识别模型,与其他方法相比,迁移学习显著提供了模型的收敛速度和识别能力。石祥滨等[13]在迁移学习和深度卷积神经网络模型的基础上,再基于受限玻尔兹曼机对图像分类进行了处理,此方法不仅消除了数据集间内容差异,还提高了较高的分类准确率。其他方面的应用还包括配电网故障区域定位[14]、乳腺肿瘤诊断[15]等。

3.2.3. 关键词演进分析

在上述分析的基础上,本部分绘制了基于时间轴的深度卷积神经网络的时间演进图,旨在展示随着时间的改变各部分聚类内容研究内容的逐步转变,使用CiteSpace绘制,如图3所示,清晰展示了每一部分聚类内容研究方向的逐步转变,例如对于深度学习板块,可以发现研究主题经历了从梯度、超像素、人机交互、入侵检测、损伤识别、调制识别到轻量化的逐步转变,整体来说,关于深度卷积神经网络的8个聚类关键词研究逐步向调制识别、轻量级、图像复原、扩张卷积、高分影像、多源遥感、可解释性、图像去雾、融合模型、图像配准、深度卷积、道路工程、桥梁工程、室内定位、点云分类等进行转变。

Figure 3. Deep convolutional neural networks research trends (2014~2025)

3. 深度卷积神经网络研究关键词研究趋势演进图(2014~2025年)

3.3. 发文作者分析

在对上述关键词进行词频、聚类和研究趋势进行分析以后,本部分对于我国深度卷积神经网络的发文作者进行分析,旨在通过知识图谱分析寻找该领域内的研究骨干力量和核心力量,使用CiteSpace进行绘制,结果如图4所示,由图4可知,N = 184,E = 86,Density = 0.0051,分别表示我国深度卷积神经网络发文作者数量、发文作者之间的合作程度以及网络密度。通过上述数据可以发现,我国关于深度卷积神经网络的研究中,作者之间的联系较少,密度较低,网络密度仅为0.0051,也同样说明此内容。观察图4还可以发现,图中存在单点图、爽点图以及三点以上的点图,单点图说明部分发文作者是独立研究状态,未形成研究团队,双点合作如刘万军和曲海城等表明其研究联系是单向的。三点以上的合作说明这些发文作者之间形成团队,研究成员多,研究成果之间的共享也能促进方法的更新,更有利于长久的研究和发展。多点合作上,以王鑫、张强、李明、郑宗生、杨军和汤一平等作者为中心的合作研究网络较为紧密,也形成了以其为各个团队核心的研究团队,这可能是同门之间也可能是同地域之间的相互合作形成。

3.4. 发文机构分析

通过对2014~2025年之间深度卷积神经网络发文机构进行分析,可以得出发文最多的前10个机构分别为中国科学院大学(95篇)、南京信息工程大学(62篇)、武汉大学(55篇)、天津大学(46篇)、上海交通大学(45篇)、哈尔滨工程大学(43篇)、浙江大学(42篇)、四川大学(39篇)、西北工业大学(39篇)和南京邮电大学(39篇)。说明这些机构在发文量方面是我国深度卷积神经网络的主要机构,但是无法分析这些机构之间的关联程度,因此以CiteSpace进行发文机构聚类分析,结果如图5分析,形成了以浙江工业大学计算机科学与技术学院、中国科学院大学、西南交通大学地球科学与环境工程学院、南京信息工程大学遥感与测绘工程学院与中国矿业大学计算机科学与技术学院为中心的五大研究团队,各个中心院校的发文关联机构如图5所示,值得注意的是,例如武汉大学和天津大学等机构虽然发文量高,但是并没有出现在图5中,说明这些院校与其余高校的联系较少,处于独立研究的状态,而图5中出现的高校机构之间研究关联紧密,已经形成团队合作的机制。

Figure 4. Authorship chart for deep convolutional neural networks research (2014~2025)

4. 深度卷积神经网络研究发文作者图(2014~2025年)

Figure 5. Institutional clustering map for deep convolutional neural networks research (2014~2025)

5. 深度卷积神经网络研究发文机构聚类图(2014~2025年)

3.5. 发文期刊分析

在上述对于深度卷积神经网络的关键词、发文作者、发文机构进行知识图谱分析后,本部分对深度卷积神经网络的主要中文发文期刊进行分析,有助于相关学者了解该方向的文献发表平台,进而提供文献搜索方面的帮助。经过CiteSpace的分析可知,我国关于深度卷积神经网络主题研究的发文期刊主要发表在计算机类的期刊中,发表篇数在23篇以上的有25种期刊,其中《计算机工程与应用》在2014~2025年之间,共发表125篇,占据榜首,平均每年发表10篇左右,占总发文量的3.92%,接下来是《中国图像图形学报》的101篇,《计算机应用》的98篇,《激光与光电子学进展》《计算机科学》《计算机应用研究》《计算机工程与设计》分别在76、75、73和73篇,剩下的期刊均在70篇以下。

根据布拉德福定律分区理论[16],可以将某研究方向的发文期刊按照发文量区分为非相关区期刊、相关区期刊以及核心区期刊,计算公式如下所示:

H 0 =2ln( e E ×Y ) (1)

上面的公式中, H 0 为核心区期刊的发表数目,E为欧拉常数定为0.5772,Y为该主题下发文期刊最大发文量,本文中为《计算机工程与应用》的125篇,通过计算可得 H 0 10.8 ,也就是处于我国研究主题为深度卷积神经网络的核心期刊有11种,按照从高到低排序依次为《计算机工程与应用》《中国图象图形学报》《计算机应用》《激光与光电子学进展》《计算机科学》《计算机应用研究》《计算机工程与设计》《计算机工程》《智能系统学报》《小型微型计算机系统》《计算机应用与软件》,上述期刊是目前刊载深度卷积神经网络研究主题的主要期刊,能够反映出这些期刊的选题宗旨以及对于刊发深度卷积神经网络研究成果的倾向。

4. 主要结论与研究展望

4.1. 主要结论

本文基于CiteSpace软件,采用中国知网数据库中2014~2025年研究主题为“深度卷积神经网络”的3181篇期刊文献进行知识图谱分析,得出关于我国深度卷积神经网络研究的多方面结果预计网络关系,主要得出以下结论:

(1) 根据文献产出的逐年分析情况,将2014~2025年我国深度卷积神经网络研究历程划分为3个阶段:2014~2016年之间为我国关于深度卷积神经网络的初步认识阶段,这一阶段内的研究成果少,每年平均发表22篇,2017~2022年为我国深度卷积神经网络快速增长的阶段,每年平均发表396篇,是上一阶段的18倍。2023~2025年为我国深度卷积神经网络平稳发展的阶段,每年平均发表250篇。

(2) 在关键词的研究中,深度学习、目标检测、图像处理、迁移学习、特征提取、故障诊断、图像分类、特征融合、神经网络、图像识别、语义分割和机器视觉等为该领域的高频关键词,通过聚类分析,可以得出“深度学习”“图像处理”“分类”“特征提取”“神经网络”“迁移学习”“模型压缩”“图像识别”8个领域是我国深度卷积神经网络研究的主要领域。关于深度卷积神经网络的8个聚类关键词研究逐步向调制识别、轻量级、图像复原、扩张卷积、高分影像、多源遥感、可解释性、图像去雾、融合模型、图像配准、深度卷积、道路工程、桥梁工程、室内定位、点云分类等进行转变。

(3) 在发文作者上,形成了以王鑫、张强、李明、郑宗生、杨军和汤一平等作者为中心的合作研究网络,在研究机构上,形成了以浙江工业大学计算机科学与技术学院、中国科学院大学、西南交通大学地球科学与环境工程学院、南京信息工程大学遥感与测绘工程学院与中国矿业大学计算机科学与技术学院为中心的五大研究团队。在发文期刊上,形成了以《计算机工程与应用》《中国图象图形学报》《计算机应用》《激光与光电子学进展》《计算机科学》等11种期刊组成的核心期刊群。

4.2. 研究展望

在上述分析结果的基础上,未来的研究方向可以从以下方面进行扩展,第一,本文使用的数据库是基于中文的中国知网,未来可将其扩展到外文的数据库,或者将中文数据库和英文数据库混合应用,对比分析“深度卷积神经网络”在国内和国外的研究差别与趋势。第二,本文在分析过程中,仅仅分析了北大核心期刊的论文,未对CSCD期刊、EI期刊和普通期刊进行进一步区分,未来做研究的时候可对国内全部中文数据库进行分析,从而加强研究结论的说服力。

基金项目

2024年度河北省科技金融协同创新中心、河北省科技金融重点实验室开放基金项目,课题号:STFCIC202402。

参考文献

[1] LeCun, Y., Boser, B., Denker, J.S., Henderson, D., Howard, R.E., Hubbard, W., et al. (1989) Backpropagation Applied to Handwritten Zip Code Recognition. Neural Computation, 1, 541-551. [Google Scholar] [CrossRef
[2] Krizhevsky, A., Sutskever, I. and Hinton, G.E. (2012) ImageNet Classification with Deep Convolutional Neural Networks. Communications of the ACM, 60, 84-90.
[3] He, K., Zhang, X., Ren, S. and Sun, J. (2016) Deep Residual Learning for Image Recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 770-778. [Google Scholar] [CrossRef
[4] 李彦冬, 郝宗波, 雷航. 卷积神经网络研究综述[J]. 计算机应用, 2016, 36(9): 2508-2515, 2565.
[5] 周飞燕, 金林鹏, 董军. 卷积神经网络研究综述[J]. 计算机学报, 2017, 40(6): 1229-1251.
[6] 李杰, 陈超美. CiteSpace科技文本挖掘及可视化[M]. 北京: 首都经济贸易大学出版社, 2016.
[7] 张顺, 龚怡宏, 王进军. 深度卷积神经网络的发展及其在计算机视觉领域的应用[J]. 计算机学报, 2019, 42(3): 453-482.
[8] 范丽丽, 赵宏伟, 赵浩宇, 等. 基于深度卷积神经网络的目标检测研究综述[J]. 光学精密工程, 2020, 28(5): 1152-1164.
[9] 张珂, 冯晓晗, 郭玉荣, 等. 图像分类的深度卷积神经网络模型综述[J]. 中国图象图形学报, 2021, 26(10): 2305-2325.
[10] 彭月, 甘臣权, 张祖凡. 人类动作识别的特征提取方法综述[J]. 计算机应用与软件, 2022, 39(8): 1-14, 68.
[11] 胡硕, 赵银妹, 孙翔. 基于卷积神经网络的目标跟踪算法综述[J]. 高技术通讯, 2018, 28(3): 207-213.
[12] 许景辉, 邵明烨, 王一琛, 等. 基于迁移学习的卷积神经网络玉米病害图像识别[J]. 农业机械学报, 2020, 51(2): 230-236, 253.
[13] 石祥滨, 房雪键, 张德园, 等. 基于深度学习混合模型迁移学习的图像分类[J]. 系统仿真学报, 2016, 28(1): 167-173, 182.
[14] 孟子超, 杜文娟, 王海风. 基于迁移学习深度卷积神经网络的配电网故障区域定位[J]. 南方电网技术, 2019, 13(7): 25-33.
[15] 褚晶辉, 吴泽蕤, 吕卫, 等. 基于迁移学习和深度卷积神经网络的乳腺肿瘤诊断系统[J]. 激光与光电子学进展, 2018, 55(8): 202-208.
[16] 王知津, 李博雅. 近五年我国情报学研究热点动态变化分析——基于布拉德福定律分区理论[J]. 情报资料工作, 2016(3): 34-40.