1. 引言
肺癌是目前世界上发病率最高的癌症之一[1]。肺癌一旦处于晚期,治愈的可能性很小。但如果在早期及时诊断,切除病灶,大多数的患者可以治愈。医生根据CT扫描肺结节的密度、形状、有无钙化等来判断肺结节的良恶性。基于医生的人工方法对于较大的结节的诊断准确性很高,但对于较小的结节的诊断结果并不理想。因此,实现肺小结节早期的自动精确分类[2]具有重要意义。
肺结节的分类方法分为传统的机器学习方法和深度学习方法两大类[3]。
(1) 传统机器学习方法
传统的机器学习方法由人工对模型的特征进行编码,没有特定的硬件要求,模型训练时间较短。如Yang Li等人[4]提出的成本敏感的多核学习支持向量机(CS-MKL-SVM)算法,解决了正负样本不平衡的问题,实现了数据集较少情况下的肺结节分类。Zhehao He等人[5]使用微软的Custom Vision AutoML (Automated Machine Learning)系统,通过学习肺结节的薄层CT影像数据和相应的病理诊断来训练模型,也实现了较少数据集的肺结节分类。但传统的机器学习方法在进行特征提取时依赖人工预先设定的数据特征,缺乏自动提取特征的能力,并且泛化能力较弱。
(2) 深度学习方法
深度学习模型相比于传统的机器学习模型具有更加复杂的网络结构,在模型训练时自动学习特征,可以处理大规模的数据集且分类精度一般高于传统的机器学习方法。深度学习技术已经在行为识别[6]、自动驾驶[7]、语音识别[8]等其他领域取得了不错的成果,近些年也被引入到肺小结节分类的研究中。
在肺结节分类中,一般将高精度的肺小结节的良恶性分类作为算法的首要目标。Hongtao Xie等人[9]提出了一种基于2D CNN的计算机辅助肺结节自动检测方法,实现了对潜伏性肺结节的准确检测,但只能对2D肺结节图像进行检测和分类。Ruisheng Su等人[10]介绍了一种2.75D CNN策略用于胸部CT肺结节分类。即使用螺旋扫描技术将3D图像表示为2D特征,再通过2D CNN实现分类。但该方法的学习能力和分类精度还有待提高。Yi Wang等人[11]将一种采用了多路径特征提取方案和多尺度卷积层的新的卷积神经网络(ConvNet)架构用于肺结节的分类,提高了分类精度。但该方法需要人工裁剪结节区域。Enoumayri Elhoussaine等人[12]提出了基于3D CNN、3D AlexNet [13]模型和3D ResNet [14]模型的集成学习方法,以及Ge Zhang等人[15]开发的一种3D DenseNet架构。两种方法对肺结节的分类精度分别达到了84.66%和92.4%,但都需要涉及到部分人工操作。Ioannis D. Apostolopoulos等人[16]则将迁移学习技术用于PET/CT成像中肺结节的自动分类,取得了较高的精度。然而该技术调查和利用的预训练网络种类较少,精度提升空间有限。
提高正确分类肺结节的精度的同时,避免出现假阳性检测判定是必须面对的重要问题。Lingma Sun等人[17]为了减少肺结节检测中的假阳性,提出了一种注意力嵌入式互补流卷积神经网络,提高了网络在减少误报方面的性能。然而该网络复杂性较高,模型的训练时间较长,并且在低假正类(FP)率下的灵敏度较低。Dandan Zhao等人[18]提出了一种多尺度卷积神经网络,在减少误报的同时,还大大减少了网络模型的训练时间。但该方法对假阳性的判定精度不够精准。Zhan Wu等人[19]构建了一种基于深度卷积神经网络(DCNN)的多维结节检测网络(MD-NDNet),提高了对假阳性结节的判定精度。但该框架模型尚不能对良性结节和恶性结节进行进一步分类。而Shiwei Li等人[20]介绍的基于改进的迁移学习策略的肺结节分类方法实现了对肺结节的进一步分类。相较于传统的将肺癌图像分为正常和癌性两类,该算法可以将肺癌的CT图像分为四类:肺腺癌、肺鳞状细胞癌、转移性肺癌和正常类型的肺癌,但迁移学习方法存在模型参数不易收敛的问题。上述方法都是对同一大小尺度的肺结节进行检测,无法对大小尺度不同的肺结节进行检测。
对肺结节进行良恶性分类的过程中,还需考虑算法网络模型对大小不同尺度的肺小结节的适用性。Wangxia Zuo等人[21]为了减少肺结节检测中的误报,使用了一种包含嵌入式多分支的3D卷积神经网络。该框架模型可以对不同大小和形状的肺结节进行有效的识别。但由于不同大小结节的训练数据量不同,产生的预测结果的置信度也不同。Haiying Yuan等人[22]提出了一种基于ResNet [14]的可变形卷积网络用于减少假阳性结节,可以对大小、形状有较大变化的肺结节进行更为精准的特征提取。Haiying Yuan等人[23]设计了一种3-D计算机辅助系统用于肺结节的分类检测。该方法包含3-D上下文引导模块、应用通道注意机制和多任务学习的多分支分类网络,可以有效检测多尺度不同形状的肺结节,但不能提供其他的肺结节信息。Yu Han等人[24]介绍了一个以改进的U-Net和3D Region Proposal Network (RPN)为骨干网络的计算机辅助系统。该方法系统可以提供检测到的结节的详细指标,并且可以成功地检测出体检获得的CT图像中小结节。尽管如此,这类方法对于一些微小结节仍然难以被检测。
为了进一步提高对微小结节的检测分类精度,一些研究方法在判断肺结节良恶性时考虑更多的相关因素,例如结节本身的一些肿瘤特征。Su Chen [25]提出了由卷积神经网络和长短期记忆递归神经网络相融合得到的3D U-net模型。该模型在预测癌症的过程中考虑了结节的密度,但并没有考虑其他肿瘤特征。Lihua Shen等人[26]引入密集卷积网络从九个不同方向的二维视图中提取更多的输入多尺度肿瘤特征信息,优化了特征提取和利用。Xianfang Hu等人[27]开发了一种计算机辅助诊断(CADx)方案用于对毛玻璃结节进行良恶性分类。该方法融合了深度学习和放射组学特征,可以很好的解码部分肺肿瘤周围特征以及内部特征。但该方法使用的数据集有限且不平衡,可能会导致欠拟合问题。为解决该问题,Seba Susan等人[28]设计了类别加权卷积自动编码器(CW-CAE),能够有效实现在不平衡的数据集中检测肺结节。但该方法目前仅实现了对肺结节的检测,还无法判断检测到的结节癌变程度。这点不足在José Lucas Leite Calheiros等人[29]提出的SVM-RBF方法中得到了解决。该方法评估了在实性肺结节表征中包括结节周围区域的影响以及对恶性肿瘤可能性的进一步分类,但也排除了一些可能是恶性肿瘤的额外指标的重要结构。
上述基于多因素的方法确实达到了较高的精度。但这些方法实现过程复杂且都以黑盒的形式工作,对分类推理过程的可解释性不足。Xiangbo Zhang等人[30]提出了一种用于肺结节分类的新型属性自引导图卷积V形网络(AS-GCVN)。该框架模型引入了Attribute Self-guided Feature Enhancement (ASFE)模块,提高了图卷积神经网络的语义推理能力,但在医学图像计算的可解释方面还不够完善。Shiwen Shen等人[31]为了预测在计算机断层扫描上检测到的不确定结节是否为恶性,构建了一种新的可解释的深度层次语义卷积神经网络(HSCNN)。该框架模型实现了对结节恶性程度的预测的同时,还有助于诊断预测的解释。然而该框架模型中存在较多的低级子任务,使得模型参数量大难以收敛。Hanliang Jiang等人[32]使用神经结构搜索(NAS)自动搜索三维网络和卷积块注意模块(CBAM)建立了一个部分可解释的分类模型,提高了分类精度。然而该模型共有6个阶段,单个阶段的网络深度最高可达到8层。
综上所述,我们发现当前对于肺小结节的良恶性分类算法,其精度有待于进一步的提高。同时其网络结构复杂、训练的参数量较多,这进一步导致网络模型占用大量存储空间。为此我们提出了3D DIRLEAN网络结构,该算法的主要贡献有:
(1) 我们提出了3D稠密倒残差潜在均衡注意力网络(3D DIRLEAN)的框架用于高精度的肺小结节良恶性分类。该网络结构简单,仅由4个阶段构成,其中所用的关键技术是3D稠密倒残差LEA模块(3D DIRL)和潜在均衡注意力(LEA)。我们将3D DIRLEAN应用在LUNA16数据集上,与已有的先进算法相比获得了最先进的分类精度,同时还具有最小的模型参数量和计算量。
(2) 3D DIRLEAN在提出潜在均衡能量函数的基础上构建了潜在均衡注意力机制(LEA)。潜在均衡能量函数反映了生物神经元的响应机制,用来减少网络层之间的响应滞后,加速模型收敛。构建的LEA对生物注意力机制进行仿生从而细化特征,在0参数的条件下直接估计三维权重得到更具区分性的特征,从而解决了其他注意力机制参数量大的问题,整体提高网络的判定准确性。
(3) 3D DIRLEAN设计了以3D稠密LEA模块为核心的3D DIRL。该模块将残差和密集连接同时用于特征处理。3D DIRL把部分标准卷积分解,解决了传统卷积堆叠导致的参数量大的问题,有效降低了模型存储空间。同时,它实现了特征重用,获取并结合运用不同网络层的丰富特征信息,最大化最有用的特征。
本文的其余部分安排如下。第2节介绍了3D DIRLEAN网络框架。第3节介绍了数据集和实验环境,并对本文提出的模型进行了详细的实验和结果分析。第4部分总结了本文并提出了未来的工作。
2. 本文方法
本文提出了3D稠密倒残差潜在均衡注意力网络(3D DIRLEAN)框架,模型总体框架如图1所示。在该网络模型中将肺小结节CT图像作为输入,先后经历4个阶段模块的处理即可实现对肺小结节的良恶性的预测判定。阶段1-3中分别有1、N = 2、L = 4个3D DIRL与一个LEA。阶段4中则是由一个3D DIRL、最大池化层和全连接层构成。其中阶段1使用的是3D DIRL-CE,而其他阶段使用的是3D DIRL-CNE (二者的区别见2.2节)。
Figure 1. 3D dense inverted residuals latent equilibrium attention network framework
图1. 3D稠密倒残差潜在均衡注意力网络框架
由图1可见,所提3D DIRLEAN网络框架结构中起决定性作用的是LEA和3D DIRL。我们将在本节当中的2.1、2.2分别给予详细介绍。
2.1. 潜在均衡注意力模块
Figure 2. Latent equilibrium attention module
图2. 潜在均衡注意力模块
近年来,注意力机制广泛应用于图像处理、语音识别等领域。它通过为输入数据的不同部分赋予不同的权重,从而抽取关键信息,使模型做出更准确的判断。现存的注意力机制,如SE [33]、CBAM [34]、SRM [35]等,都是把空间和通道分开考虑或只考虑其中之一来获取特征,生成一维或二维权重。这些注意力机制通常都运算复杂且需要大量参数。这会导致神经网络各层之间存在一定的响应滞后,使整个神经网络的推理速度随着深度的增加而降低,影响网络的学习。生物神经元中也存在类似的问题。生物神经元可以使其相对于膜电位的输出相位提前,从而避免响应滞后。本文受此启发,基于潜在均衡理论[36]构建了潜在均衡能量函数并以此为基础提出了一种潜在均衡注意力(Latent Equilibrium Attention,简称LEA) (具体结构见图2)来提高网络层之间的响应速度,加快模型收敛。
LEA同时考虑空间和通道维度,直接从当前神经元中推断出三维权重,使网络学习到的神经元更有区分性。除此之外,该模块不需要任何额外的参数。相比其他运算复杂且需要大量参数的注意力机制,LEA不管是在推理速度还是性能方面都有更好的表现。LEA的主体能量函数定义如下:
(1)
这里
是上一层网络输入的特征,
。
是sigmoid激活函数。W和B是分别是权重矩阵和偏置矩阵。为了使不同的神经元之间具有更强的线性可分性,我们定义了公式(2)来计算权重。同时用公式(3)计算得到偏置以控制神经元的激活状态并且加速网络的拟合。
(2)
(3)
以通道为单位,输入特征
的方差
和均值
被计算。其中
是一个通道上的神经元数量,
(
)是输入特征
中的单个神经元。
将特征
通过能量函数处理后,得到与特征
尺寸相同的Y。LEA再将Y通过Sigmoid细化处理直接用于估计三维权重
,见公式(4)所示。
(4)
最后将原始的
和得到的三维权重
进行相乘操作得到更具区分性的特征
,见公式(5)。
(5)
2.2. 3D稠密倒残差LEA模块
Figure 3. Two 3D Dense Inverted Residual LEA Module structures
图3. 2种3D稠密倒残差LEA模块结构
本文提出了结合LEA的3D稠密倒残差模块用于阶段1~4,如图3所示。该残差模块分为3D DIRL-Channel Equal (用于阶段1)和3D DIRL-Channel Not Equal (用于阶段2~4)两种结构。如图3所示,当特征输入通道与输出通道相等时,我们直接对原始输入特征进行跳跃连接(3D DIRL-Channel Equal)。若不相等,则会经过一个额外的卷积处理(3D DIRL-Channel Not Equal)。
3DDIRL的两种结构的核心都是3D稠密LEA模块。该模块网络先经过1 × 1的逐点卷积扩张肺小结节特征图的通道,丰富特征数量;再将标准卷积分解为深度卷积核进行逐点卷积,显著地降低了参数量和计算量;在深度可分离卷积后,LEA被加入来提高网络层之间的响应速度;最后再经过一个1 × 1卷积压缩特征维度。我们还在模块结构中引入了稠密连接,减轻了梯度消失问题,同时使得特征和梯度的传递更加有效。
3D稠密倒残差LEA模块的实现过程如下:
(1) 输入特征并初始化参数:上一层网络输出的特征
作为本模块的输入,并将
备份。输入通道数inp可依据
进行获取。隐藏层通道数hidden根据公式(6)计算得出。
(6)
其中t为扩展因子,我们通过实验确定为4。
(2) 扩张特征图通道(升维):特征维度经过ReLU和1 × 1的3D卷积从inp维增加到hidden维。如公式(7)所示。
(7)
其中
表示ReLU激活函数,
表示输入通道为inp输出通道为hidden的1 × 1卷积,
为输出特征,维度是hidden。
(3) 特征拼接并规范特征通道数:
和
在通道维度上进行特征拼接(当
和
尺寸不匹配时,
需要额外通过1 × 1的卷积操作,如公式(8)所示,使原始输入特征
可以直接传递到深度卷积层,再通过逐点1 × 1卷积规范特征通道数。该过程可表征为公式(9)。
(8)
这里的
要求输入通道和输出通道都为inp,步长为2的1 × 1卷积。
(9)
其中
是输入通道为
其输出通道为hidden的1 × 1逐点卷积,
表示
与
的合并。
(4) 特征提取:3 × 3的Dwise3D用来提取特征,见公式(10)。
(10)
其中
表示输入通道和输出通道维数都为hidden的3 × 3卷积,
为输出特征其维度是hidden。
(5) 特征拼接并规范特征通道数:
、
和
在通道维度上进行特征拼接,同样经过逐点1 × 1卷积规范特征通道数见公式(11)。
(11)
(6) 注意力模块估计三维权重:LEA直接对步骤(5)中所得到的
估计三维权重,得到更具区分性的特征,如公式(12)所示。
(12)
这里LEA代表Latent Equilibrium Attention,具体细节见2.1。
为输出特征,维度是hidden。
(7) 特征拼接并规范特征通道数:
、
、
和
在通道维度上进行特征拼接,并经过逐点1 × 1卷积规范特征通道数,如公式(13)所示。
(13)
(8) 压缩特征图(降维):
通过1 × 1的Conv3D实现降维,维度从hidden降低到oup维,得到处理后的特征
。该过程可以表征为公式(14)。
(14)
经过步骤(1)~(8),3D稠密倒残差LEA模块基本被构建,但还需进行最后的合并权重。
当
和
尺寸或通道数不匹配时,需要额外通过如公式(15)所示的1 × 1卷积和ReLU操作得到
。
再和步骤(8)处理得到的特征
进行相加操作,得到输出特征
,见公式(16)。
(15)
(16)
当
和
尺寸和通道数都匹配时,则直接相加得到输出特征
,见公式(17)。
(17)
3. 实验
3.1. 环境配置
本实验在Nvidia GeForce RXT 3080显卡、32GB内存的硬件环境下进行。操作系统为Ubuntu 22.04。使用的软件为PyTorch1.13和CUDA11.7。实验设置的初始学习率为0.0002,训练和测试周期都设置为500个epochs。衰减周期设置为70,即学习率在最后的70个epochs会进行如公式(18)所示的衰减。批量归一化被插入在网络层中来减少过拟合,并且使用A-Softmax损失函数和动量参数
、
的Adam优化器来进一步优化网络。
(18)
3.2. 数据集
我们在实验中使用LUNA16数据集进行训练和测试。LUNA16数据集是最大公用肺结节数据集LIDC-IDRI的子集,是LIDC-IDRI中切片厚度 <= 3 mm且肺结节 >= 3 mm的部分。共包括888个低剂量肺部CT影像(mhd格式)数据。原始图像为三维图像,由不同数量的二维图像组成,是一系列胸腔的多个轴向切片。
为提高分类预测精度,训练数据都进行了相应的数据增强处理。即在训练过程中,先将尺寸大小为32 × 32 × 32的原始肺小结节CT图像填充为36 × 36 × 36;接着使用水平翻转、y轴翻转和z轴翻转进行数据增强;最后再将增强后的图像随机裁剪为32 × 32 × 32的大小。
3.3. 评价指标
实验使用精确度、查全率、查准率和F1-score来评估网络模型的肺结节分类性能。
精确率是在所有预测中,正确预测结果占的比例:
(19)
查全率是在所有阳性事件中,正确预测结果占的比例:
(20)
查准率是在全部阳性预测中,正确预测结果占的比例:
(21)
F1-score是查全率和查准率的调和均值:
(22)
这些标准的值越大表示模型性能越好。其中TP、FP、TN、FN分别表示真阳性、假阳性、真阴性、假阴性。
除此之外,文中还使用Params和FLOPs来衡量模型的参数量和计算量。模型的参数量越多,意味着模型需要更多的计算资源和数据来训练和推断。FLOPs指运行一次网络模型需要进行浮点运算的次数。如果模型的计算量过大,则会导致推断时间过长,不适于实际应用。
3.4. 实验结果与分析
3.4.1. 与先进方法的性能比较
Table 1. Performance comparison of classification algorithms based on LUNA16 dataset
表1. 基于LUNA16数据集的分类算法的性能比较
Method |
Accuracy (%) |
Recall (%) |
Precision (%) |
F1-score |
Multi-crop CNN [37] |
87.14 |
— |
— |
— |
Nodule-level 2D CNN [38] |
87.30 |
88.50 |
— |
87.23 |
Vanilla 3D CNN [38] |
87.40 |
89.40 |
— |
87.25 |
DeepLung [39] |
90.44 |
81.42 |
— |
— |
AE-DPN [40] |
90.24 |
92.04 |
— |
90.45 |
NASLung [32] |
89.56 |
76.19 |
94.11 |
84.21 |
3D DIRLEAN (ours) |
93.33 |
87.5 |
100 |
93.33 |
(每列中的最佳结果和次佳结果分别以粗体和下划线格式显示。)
为了验证本文提出的方法在分类精度上的优越性,我们将3D DIRLEAN与最先进的肺小结节分类方法在LUNA16数据集上进行了比较。这些方法包括Multi-crop CNN [37],Nodule-level 2D CNN [38],Vanilla 3D CNN [38],DeepLung [39],AE-DPN [40]和NASLung [32]。从表1中可以看出,我们的3D DIRLEAN的Accuracy、Recall、Precision和F1分数分别为93.33%、87.5%、100%和93.33%,在对比的所有方法中,取得了最高的分类精度、Precision和F1分数。精度第二高的是DeepLung,为90.44%,比我们的3D DIRLEAN低2.89%。DeepLung网络仅仅通过堆叠的卷积层来提取特征,而本文使用了LEA注意力机制使网络更加关注结节从而学习更精细的特征,使网络模型做出更准确的判断。除此之外,DeepLung采取双路径连接,将部分特征图进行密集连接,其余用于残差学习。但这种方法并不能完全将二者的优势相结合。然而,我们提出的3D DIRL将残差和密集连接同时用于特征处理,在减少网络中梯度消失的同时实现特征重用获取特征图上最丰富的特征信息从而有助提高了分类精度。
3.4.2. 算法参数量与计算量比较
Table 2. Comparison between Params and FLOPs of the network model
表2. 网络模型参数量和计算量比较
Method |
Params (M) |
FLOPs (G) |
DeepLung [39] |
141.57 |
— |
AE-DPN [40] |
678.69 |
— |
NASLung [32] |
3.05 |
1.08 |
3D DIRLEAN (ours) |
2.85 |
0.63 |
(每列中的最佳结果和次佳结果分别以粗体和下划线格式显示。)
为了验证本文提出的方法可以在提高分类精度的同时有效降低参数量和计算量,我们与DeepLung [39],AE-DPN [40]和NASLung [32] 3种高精度的网络进行了参数量和计算量的对比。如表2所示,我们的3D DIRLEAN所需的参数量最少,为2.85 M,约是DeepLung的1/50。NASLung的参数量仅比3D DIRLEAN高0.2 M,但3D DIRLEAN的分类精度比NASLung高3.77%,计算量也仅是NASLung的1/60。这表明我们的模型实现了出色的性能/成本权衡。3D DIRLEAN的整体网络架构只有简单的4个阶段,尽量避免了参数信息的冗余。此外,其中3DDIRL使用倒残差结构将标准卷积分解,降低了模型的参数量和计算量。LEA的整个模块中没有复杂的卷积运算,只通过能量函数进行简单的算数运算。并且它的特征推理过程无需任何参数,大大减少了实际应用中模型所需的内存和计算量。
3.4.3. 迭代推理速度性能比较
Figure 4. Comparison of accuracy and inference speed of the network model
图4. 网络模型的准确性和推理速度对比
为了验证本文提出的方法在提高推理和收敛速度上的优势。我们将3D DIRLEAN和NASLung [32]前300次迭代的推理速度以及取得的分类精度绘制在图4中并进行了比较。公平起见,我们将开源的NASLung算法在同等硬件和软件实验环境中进行了复现。由图4可见,我们的3D DIRLEAN模型能够在平均单次迭代推理速度0.63 sec的条件下快速收敛,达到90%的精度。而NASLung的单次迭代推理速度约1 sec,是3D DIRLEAN的1.5倍;同时收敛速度缓慢,取得的最高精度仅为73%。这验证了我们的网络在提高网络推理和收敛速度上的优越性。NASLung中使用的是CBAM注意力机制。CBAM将通道注意力和空间注意力结合起来共同用于特征推理。而我们的网络中使用的LEA直接通过能量函数估计特征信息,因此推理过程要快于CBAM。并且LEA的主体能量函数受潜在均衡理论启发,可以缓解网络层之间的响应滞后。我们还将LEA插入在了3DDIRL中,以最大程度提高了网络层之间的响应速度,加快模型收敛。
3.4.4. 消融实验
Table 3. Comparison of different frame structures
表3. 不同框架结构的比较
|
Accuracy (%) |
Recall (%) |
Precision (%) |
F1-score |
CNN (base) |
90 |
87.5 |
93.33 |
90.32 |
CNN + LEA |
91.11 |
83.33 |
100 |
90.90 |
CNN + 3D DIRL |
92.22 |
91.66 |
93.61 |
92.63 |
3D DIRLEAN (our) |
93.33 |
87.5 |
100 |
93.33 |
为了更好地验证本文提出的3D稠密倒残差模块和Latent Equilibrium Attention (LEA)的有效性,我们进行了如表3所示的消融实验。实验将只有CNN的网络作为基础架构,再分别用LEA和3D DIRL替换base中的部分层。我们将这三种网络框架组合与本文最终提出的3D DIRLEAN (LEA + 3D DIRL)在LUNA16数据集上进行分类性能对比。3个框架组合取得的Accuracy、Recall、Precision和F1分数如表3所示。基础CNN取得了90%的Accuracy和90.32的F1分数。使用LEA或3D DIRL分别将精度提高了1.11%和2.22%,F1分数提高了约0.6和2.3。两者同时使用,精度提高了3.33%,F1分数提高了3.01。这些结果表明LEA和3D DIRL都对提高模型的分类准确性和鲁棒性有贡献。并且LEA和3D DIRL对模型性能的提升是可叠加的。
4. 结论
在本文中,我们提出了3D DIRLEAN框架用于实现少参数量和计算量的高精度肺结节良恶性分类。整体框架仅由4个阶段组成,其中起决定性作用的是我们设计的LEA和3DDIRL。LEA通过我们构建的潜在均衡能量函数在无需参数的条件下计算特征权重加强特征的区分性,同时缓解网络层之间的响应滞后,加快模型收敛速度。而3D DIRL将标准卷积分解并加入稠密连接,在有效减少参数量的情况下最大化利用多层不同特征,丰富网络获取的信息,以提升模型的分类精度。3D DIRLEAN在LUNA16数据集上的实验结果表明,相较于多种先进的肺结节分类方法,3D DIRLEAN在分类精度、精确率和F1分数上均表现出最优的性能。同时,其参数量和计算量也大幅减少,展现了出色的性能/成本比。总之,3D DIRLEAN通过引入LEA和3D DIRL有效提高了肺结节分类的精度,并解决了现有方法在模型复杂度和计算资源上的问题。在未来的研究中,我们将进一步改进3D DIRLEAN框架,提升分类的精度和鲁棒性。此外,我们还将对模型的可解释性进行研究。
基金项目
国家自然科学基金(8207070786);国家自然科学基金青年科学家基金(82302188);上海市浦江计划(22PJD069);上海市卫生人才研究基金(2022YQ060);上海市国家科学技术委员会(22Y11911100);上海市卫生委员会(20204Y0201);上海理工大学医学工程交叉项目(1021309706)。