基于Mamba模型的U型医学图像分割网络
U-Shaped Medical Image Segmentation Network Based on the Mamba Model
摘要: 在医学图像分割网络结构中,卷积神经网络(CNN)无疑是最强大的网络,它凭借强大的局部特征提取能力,取得了很多突破性进展,成为该领域的主流方法之一。然而,CNN固有的局部感知机制使其在捕捉图像中长距离依赖信息时存在明显的局限性,这在一定程度上制约了其分割性能。Transformer模型凭借自注意力机制,在处理长距离依赖关系上展现出显著优势,能够有效挖掘图像全局范围内的特征关系。但自注意力机制的计算复杂度随输入序列长度的平方而增加,导致Transformer模型在处理高分辨率医学影像时,往往面临计算成本过高、内存占用量大的问题。为解决该问题,本文提出一种新的分割网络——M-UNet。该网络的创新在于将Mamba模型特有的VSS块结构与空洞空间卷积金字塔池化模块进行结合。利用VSS块的线性复杂度特性,在实现高效全局信息建模的同时,大幅降低计算内存。其次,借助ASPP模块多尺度空洞卷积的优势,精准捕捉医学图像中不同尺度的关键特征,弥补了CNN在多尺度特征提取上的不足。为验证M-UNet的性能,本文在Synapse数据集和ACDC数据集上进行了实验。实验结果表明,相较于传统基于CNN的分割方法,M-UNet在分割精度和计算速度两方面均有显著提升。
Abstract: In the architecture of medical image segmentation networks, Convolutional Neural Networks (CNNs) are undoubtedly the most powerful networks, achieving significant breakthroughs due to their strong local feature extraction capabilities, making them one of the mainstream methods in this field. However, the inherent local perception mechanism of CNNs imposes clear limitations when capturing long-distance dependency information in images, which somewhat restricts their segmentation performance. Conversely, Transformer models, with their self-attention mechanism, exhibit significant advantages in handling long-distance dependencies, enabling effective exploration of the feature relationships across the entire image. However, the computational complexity of the self-attention mechanism increases quadratically with the length of the input sequence, leading to issues of excessively high computational costs and large memory usage when dealing with high-resolution medical images. To address this issue, this paper proposes a new segmentation network—M-UNet. The innovation of this network lies in the combination of the unique VSS block structure of the Mamba model with the dilated spatial convolution pyramid pooling module. By leveraging the linear complexity characteristic of the VSS block, it efficiently models global information while significantly reducing computational memory. Additionally, utilizing the multi-scale dilated convolution advantages of the ASPP module allows for precise capture of key features at different scales within medical images, compensating for CNNs’ shortcomings in multi-scale feature extraction. To validate the performance of M-UNet, experiments were conducted on the Synapse dataset and the ACDC dataset. The experimental results indicate that compared to traditional CNN-based segmentation methods, M-UNet shows significant improvements in both segmentation accuracy and computational speed.
文章引用:勾金伟, 李代民, 刘锋. 基于Mamba模型的U型医学图像分割网络[J]. 计算机科学与应用, 2025, 15(10): 341-350. https://doi.org/10.12677/csa.2025.1510273

1. 引言

1.1. 基于传统的医学图像分割方法

传统图像分割技术的核心依托于多学科理论,这些方法长期作为图像分割领域的核心方法,为后续相关方法的演进奠定了重要基础。从技术分类来看,传统图像分割方法主要可划分为三大类。第一种是基于阈值的分割方法,该方法核心思路是通过设定合理的灰度阈值,将图像中像素点的灰度值与阈值进行比较,从而将图像划分为前景与背景等不同区域。Sandhya等[1]提出在图像的多级分割中使用HSO (Harmony Search Optimization)概念,该算法使用Otsu和Kapur提出的目标函数指导候选解,从图像直方图内部适当的搜索空间中得到候选解,HSO算子不断演化候选解直到找到最佳阈值。Weglinski等人[2]提出了用中值滤波减少噪声再用区域生长法来进行图像的分割。Kaur等[3]提出一种混合多级阈值算法,将直觉模糊集和tsallis熵相结合,用于从模糊边界和对比度差的图像中自动描述肿瘤组织区域;第二种是基于水平集的分割方法,水平集方法是由Osher和Sethian [4]提出的,该方法借助水平集函数将图像中动态变化的曲线或曲面嵌入到高维空间中,进而实现对图像中目标边界的精准捕捉与分割。Singh等人[5]针对图像中脑肿瘤分割的需求,提出了一种自动稀疏约束水平集方法。通过这一设计,有效提升了图像分割的精确度。Zabir [6]等人根据水平集方法中初始轮廓选择的问题,提出了一种基于迭代距离正则化水平集演化的分割方案,并且还在BRATS2012公开数据集的测试中展现出来显著的优势。Hachemi等人[7]深受启发,他们将水平集方法与聚类算法进行融合,引入模糊C均值聚类FCM的核心概念,优化了传统水平集分割流程。第三种是基于区域的分割方法,Toennies [8]运用医学图像全自动分割的需求,提出了一种自适应区域生长算法。该算法的核心点在于,能够从感兴趣区域的自身特征中自主学习并生成区域,无需人工预设参数。后来,Rajeswari [9]等人还在区域生长方法中初始种子点选择这一关键环节,提出了一种基于改进区域生长的全图像分割方法。在传统图像分割算法体系中,普遍存在一个共性问题,那就是对人工先验知识的高度依赖,具有很强的主观性,受这些主观经验的影响,传统分割方法在处理医学图像时,往往难以精准捕捉病变区域的真实边界与完整的形态,难以提高分割精度。

1.2. 基于深度学习的医学图像分割方法

因为传统图像分割算法依赖主观经验,且传统方法在复杂图像中分割精度不高,Ronneberger [10]等人就对FCN的架构进行了创新,提出了一种名为UNet的新型网络。Wang等人[11]使用3DU-Net对MRI图像中的脑瘤进行分割,并在UNet使用非线性Leaky RelU函数作为激活函数提升了模型的精度。Long [12]等人做出了创新,提出了一种端到端的图像分割模型FCN,FCN将CNN中的全连接层转换成卷积层,通过上采样操作将CNN特征恢复成输入图像大小,以真实图像作为判断依据,让网络直接做像素级别的识别和分割。Yang [13]等人提出一种密集全卷积网络。与U-Net相比,放弃了上采样路径。Luo等人[14]用3D-CNN的方法提取不同模态图像空间特征,这种方法可适应大小不同的病变区域。在端到端图像分割技术的演进中,Zhao等人[15]提出了CDDFuse模型,解决了多模态数据的精准分割问题。在本文中,我们提出了Mamba与U-Net分割网络的结合,利用Mamba模型特有的VSS模块与空洞空间卷积金字塔池化模块进行融合,进一步解决了内存占用大和边界处分割精度不高的问题。与VM-UNet相比,都减少了计算的线性复杂度,在处理高分辨率图像时速度快,内存效率高,且都具有强大的全局建模能力。然后也有一些不同之处,虽然VM-UNet的感受野较传统CNN有提升,但还是有限,在下采样时会降低特征图的分辨率,而加入的金字塔池化模块不仅不会降低分辨率,还会扩大感受野。且在参数上也小于以往的分割网络。这是因为金字塔模块里的空洞卷积可以在不损失分辨率的情况下来扩大感受野,它将不同空洞卷积组合起来,能看到不同尺度的特征信息。

2. 实验方法

2.1. SSM原理

状态空间模型在深度学习领域,它被用来处理序列数据,捕捉数据中的长期依赖关系。SSM的核心思想是将系统的当前状态进行抽象表示,通过隐式状态来捕捉序列中的关联信息。状态空间模型主要由状态方程和观测方程构成,用于构建时刻t输入 x( t )R 和输出 y( t )R 的关系。其中,隐藏状态 h( t ) R n 的维度为n。一般形式为:

h ( t )=Ah( t )+Bx( t ) (1)

其中, h ( t ) 是当前状态 h( t ) 的导数, x( t ) 是系统在t时刻的输入, A R n×n 表示状态矩阵, B R n×1 表示线性投影参数。为了满足深度学习的需求,很多时候需要对连续的状态空间模型进行离散化处理,将连续时间的状态方程和观测方程转换为离散时间的形式,以便在计算机上进行数值计算。首先,引入一个时间尺度参数 Δ ,并使用固定的离散化规则将 A B 转化为 A ˜ B ˜ ,一般形式如下:

A ¯ = e ΔA (2)

B ¯ ˜ = ( ΔA ) 1 ( e ΔA I )ΔB (3)

所以,就可以将式(1)变化为:

h ( t )= A ¯ h( t )+ B ¯ x( t ) (4)

最后通过全局卷积的方式对式(4)进行计算:

h k+1 = A d h k + B d x k (5)

其中,k表示离散时间步。

2.2. ASPP

在图像分割任务中,感受野的大小直接决定了模型对图像全局信息和局部细节的捕捉能力。然而,传统卷积通过堆叠层数或下采样扩大感受野,但这会导致分辨率下降和细节丢失,且感受野固定,难以同时适应不同尺度的目标。为了解决本论文的问题,在经过理论论证后,我们选择了ASSP模块,它可以并行多个具有不同空洞率的空洞卷积层,能够在不降低分辨率的情况下,有效地扩大感受野。同时我们还进行了实验验证,实验结果表明,该模块的引入有效减少了分割精度。特别是在小目标分割上非常明显。ASPP是图像分割中用于捕捉多尺度上下文信息的核心模块,其核心是通过不同膨胀率的空洞卷积并行提取特征,模拟金字塔池化的多尺度感受野效果。ASPP的主要实现方式分为四步。首先通过在卷积核之间引入空洞,可以扩大感受野,而不增加参数数量和计算复杂度,其次是多尺度膨胀率,ASPP模块并行地使用不同膨胀率的空洞卷积(r1、r6、r12、r18,空洞率越大,感受野越大)。然后池化,ASPP模块还包含一个全局平均池化操作,目的是将特征图的空间维度压缩为1*1,从而获取全局信息。最后特征融合,最后将不同膨胀率的空洞卷积输出和全局平均池化进行融合,得到最终的特征图。它的模块构造结构图如图1

Figure 1. ASPP structure diagram

1. ASPP结构图

2.3. VSS

在图像分割中,VSS (Visual State Space)模块是Vision Mamba UNet (VM-UNet)的核心模块,专门用于捕捉大范围的上下文信息,有助于提高模型对全局信息的建模能力,同时保持线性计算复杂度。VSS模块的输入首先进行归一化处理,之后被分成两个分支。第一个分支通过一个线性层后接一个激活函数。第二个分支则依次通过一个线性层、一个深度可分离卷积和一个激活函数处理后,送入2D-Selective-Scan (SS2D)模块进行进一步的特征提取。然后,使用Layer Normalization对特征进行归一化。最后,通过逐元素乘法操作,将两个分支的输出合并。再使用一个线性层混合特征,并通过与残差连接的组合形成VSS块的输出。它的框架图如图2所示。

Figure 2. VSS framework diagram

2. VSS框架图

2.4. 总体框架

M-UNet的医学图像分割基本流程为输入数据预处理、编码器编码,提取特征、解码器恢复细节、输出分割图,各模块协同配合实现高效医学图像分割,首先,输入数据预处理:Patch Embedding奠定多尺度基础网络首先通过Patch Embedding模块对输入图像进行初始化处理,将原始图像划分为尺寸为4 × 4的不重叠图像补丁,并将每个补丁嵌入至96维的特征空间中。然后再逐层下采样,强化全局与局部信息捕捉,预处理后的特征图像进入编码器,通过“VSS (Visual State Space)块 + Patch Merging层”的组合结构,实现多层次特征提取与逐步下采样。

其次,将处理好的图片输入编码器,经过编码器的多轮下采样处理。这一过程不仅实现了多尺度特征的有效提取,更通过维度与分辨率的动态调整,显著增强了网络对图像局部细节与全局关联信息的捕捉能力。在编码器与解码器之间的跳跃连接层,引入ASPP模块,该模块通过搭载不同扩张率的空洞卷积操作,可同时捕捉多尺度上下文信息。解码器采用与编码器对称的结构设计,以“VSS块 + Patch Expanding层”为核心,结合跳跃连接实现特征的高效重建与空间细节恢复。经过多轮上采样处理,最终使输出特征图恢复至与输入图像一致的原始分辨率。同时,为避免特征在多次下采样与上采样过程中丢失关键空间细节,编码器与解码器之间引入跳跃连接层,该层将编码器各层输出的高分辨率特征,直接传递至解码器的对应层级。

最后,经过解码器的特征重建与细节恢复后,网络最终输出与输入图像尺寸一致的分割结果,就是最终的预测图。M-unet的总体框架图如图3所示。

3. 实验与结果

3.1. 数据集

3.1.1. Synapse多器官影像分割数据集

该数据集是公开数据集,我们在MICCAI 2015多图谱腹部标记挑战赛中使用了30张腹部CT扫描,总共有3779张轴向增强腹部临床CT图像。每个CT体由85到198个512 × 512像素的切片组成。本文选用了18个病例(2212切片)作为训练集,12个病例(1567切片)作为验证集,对8个腹部脏器(主动脉、胆囊、脾脏、左肾、右肾、肝脏、胰腺、胃)进行随机分割,最后,我们报告了平均DSC和平均Hausdorff距离(HD)。

Figure 3. Overall framework diagram

3. 总体框架图

3.1.2. ACDC (Automatic Cardiac Diagnosis Challenge)数据集

该数据集是一个用于心脏分析和自动诊断的挑战数据集,他包含了100名不同患者的MRI扫描图像,该数据集对心脏关键结构进行了精准标注,具体涵盖左心室、右心室及心肌三大核心区域。从数据维度来看,每位患者的MRI个体数据由28至40层连续切片构成,切片厚度范围为5毫米至10毫米。在数据划分上,将数据集按7:1:2的比例划分为三个子集。

3.2. 评价指标

在医学图像分割中,Dice系数、HD95 (95% Hausdorff距离)、精确度(Precision)、召回率(Recall)、IoU (交并比)是评估模型性能的核心指标。Dice系数衡量两个集合(预测掩模P和真实掩模T)的重叠程度,取值范围为[0, 1],值越大表示分割效果越好。

Dice= 2| TP | | T |+| P | (6)

Hausdorff距离衡量两个集合之间的最大不匹配距离,而HD95是其95%分位数版本,忽略5%的极端离群点,避免噪声或异常值对结果的影响,而HD95是对其的优化,用于评估模型预测的目标边界与真实边界的偏差程度。HD95越小,表示预测与真实掩模的边界越接近。

HD( P,T )=max{ sup pP inf tT d( p,t ), sup tT inf pP d( t,p ) } (7)

HD95( P,T )=95thpercentileofalldistancesinHDcalculation (8)

精确度又称准确率,核心衡量模型预测为目标的像素中,真正是目标像素的比例——即评估预测结果的纯度。真阳性(TP),假阳性(FP),真阴性(TN),假阳性(FP)。

Precision= TP TP+FP (9)

召回率衡量真实正样本中被模型正确预测的比例,反映模型捕捉目标的能力。

Recall= TP TP+FN (10)

IoU是衡量预测掩模与真实掩模的重叠区域占两者并集的比例,取值范围为[0, 1],值越大表示分割效果越好。

IoU= | TP | | PUG | (11)

4. 实验细节

对于所有的实验,为了提高模型的泛化能力,我们应用了简单的数据增强。根据经验,我们在网络的编码器中加载了预训练模型的权重,使用SGD优化器进行训练,学习率为0.01,动量为0.9,权衰减为0.0001。ACDC数据集的批大小为24,Synapse数据集的默认训练迭代次数分别为20 k和14 k。所有实验均在python3.13、pytorch2.6、cuda12.6和ubuntu22.4的环境,并使用单个Nvidia RTX4060Ti GPU进行。

4.1. 实验结果对比

4.1.1. Synapse多器官分割数据集上的实验结果

表1呈现了M-UNet模型在Synapse多器官分割数据集上的实验结果。从核心指标来看,该模型在平均dice相似系数(DSC)及各单个器官的DSC指标上均实现了当前最优表现,其平均DSC达到80.79%,相较于同实验中的其他对比方法(如传统CNN模型、基于Transformer的分割模型等),该数值呈现出显著的性能提升,充分验证了M-UNet在多器官分割任务中的综合优势。由分割结果可见,M-UNet在不同尺寸、不同解剖复杂度的器官分割中均展现出出色的适应性:其中,对左肾、肝脏、胰腺与胃的分割DSC分别达到86.01%、94.76%、64.19%和82.38%。尤其是针对肝脏这类体积较大、边界相对清晰的器官,模型实现了94.76%的高DSC分数。这一结果充分证明,M-UNet在多器官分割场景中,不仅对较大尺寸器官的分割具备高鲁棒性,同时在复杂解剖结构的精准分割上也展现出优异性能。

Table 1. Experimental results on the Synapse dataset

1. Synapse数据集上的实验结果

Methons

DSC↑

HD↓

Aorta

Callbladder

Kidney (L)

Kidney (R)

Liver

Pancreas

Spleen

Stomach

V-Net [16]

68.81

/

75.3

51.87

77.1

80.75

87.84

40.05

80.56

56.98

DARR [17]

69.77

/

74.7

53.77

72.31

73.24

94.08

54.18

89.9

45.96

U-Net [18]

76.85

39.70

89.1

69.72

77.77

68.6

93.43

53.93

86.67

75.58

R50 U-UNet [19]

74.68

36.87

87.7

63.66

80.6

78.19

93.74

56.9

85.87

75.58

R50 Att-UNet [19]

75.57

36.97

55.9

63.91

79.2

72.71

93.56

49.37

87.19

74.95

R50 ViT [19]

71.29

32.87

73.7

55.13

75.8

72.2

91.51

45.99

81.99

73.95

M-Unet

80.79

26.31

87.5

69.1

86.01

78.64

94.76

64.19

86.74

82.38

4.1.2. ACDC数据集上的实验结果

表2呈现了M-UNet模型在自动心脏诊断挑战(ACDC)数据集上的实验结果。从核心评估指标来看,在dice相似系数(DSC)、召回率(Recall)与交并比(IoU)三大关键指标上,均全面超越其他对比方法,具体数值分别达到88.01%、89.01%和80.71%。与当前最优模型Swin-UNet相比,这三项指标的提升幅度分别为2.23个百分点、2.18个百分点和2.17个百分点,提升效果显著。最主要是其特征提取模块能够更精准地捕捉心脏结构的关键语义信息,且该模型在全局上下文建模层面,该模型有效整合了不同尺度的特征关联,为整体分割精度的提升奠定了基础。不过,实验结果也暴露出模型的一处待优化方向:其95%豪斯多夫距离(HD95)指标相对较高。这一现象表明,尽管M-UNet的整体分割区域与真实标注的重叠度有异,但在处理心脏细微解剖边缘处时,仍存在局部精度不足的问题。由于当图像中出现边界模糊或标注微小偏差时,模型对局部边界的预测误差会被放大,最终导致HD95数值升高。

综合来看,尽管M-UNet在边缘分割精度上仍有进一步优化的空间,但凭借其在DSC、Recall、IoU等核心指标上的出色表现,已充分证明其在分割任务中的强大优势。

Table 2. Experimental results on the ACDC dataset

2. ACDC数据集上的实验结果

Average

Right ventricle

Myocardium

Left ventricle

Methons

DSC↑

HD95↓

Precision↑

Recall↑

IoU↑

DSC↑

HD95↓

DSC↑

HD95↓

DSC↑

HD95↓

V-Net [16]

80.87

3.06

89.21

81.38

72.76

81.43

3.66

75.79

3.06

85.38

2.47

U-Net [19]

84.23

2.73

89.71

82.72

75.51

85.72

1.75

77.41

3.72

89.55

2.73

TransUNet [20]

86.56

2.28

84.63

83.42

76.77

87.15

2.97

83.34

1.89

89.2

1.97

Swin-UNet [21]

85.78

2.47

86.56

86.83

78.54

88.54

2.08

81.82

2.03

86.97

3.31

M-UNet

88.01

2.86

88.53

89.01

80.71

88.46

2.81

83.96

2.43

91.62

3.35

5. 消融实验

5.1. 分辨率的影响

关于输入分辨率的影响。该网络的默认输入分辨率为224 × 224。在这里,我们还跑了高分辨率512 × 512上训练的结果,如表3所示。当使用512 × 512作为输入时,我们保持相同的批次大小,对于该网络,将分辨率从224 × 224更改为512 × 512,导致平均DSC提高了6.89%,但是,这会导致更大的计算成本。因此,考虑到计算成本,本文中的所有实验比较均以224 × 224的分辨率进行。

Table 3. The impact of input resolution

3. 输入分辨率的影响

Resolution

Average DSC

Aorta

Callbladder

Kidney (L)

Kidney (R)

Liver

Pancreas

Spleen

Stomach

224

80.79

87.46

69.1

86.01

78.64

94.76

64.19

86.74

82.38

512

87.68

90.76

72.33

86.04

83.41

95.43

74.39

88.37

84.36

5.2. ASPP

为验证各模块的有效性,本研究在ACDC数据集上设计实验。从参数量维度来看,纯VMamba模型展现出最优的轻量化优势,参数量为所有测试模型中最小,但受限于特征提取能力,其DSC值明显低于其他集成模块的模型。当为VMamba引入ASPP模块后,模型参数量虽有小幅增加,但DSC值实现显著跃升,且整体参数量仍低于除纯VMamba外的其他模型,有效缓解了参数太大的问题。在未引入成ASPP模块时,基础Mamba模型在ACDC数据集上的平均DSC为86.31%。而引入ASPP模块后,模型在数据集上的分割性能得到突破性提升,平均DSC分别提升至87.79%。这一结果充分证明,ASPP模块通过搭载不同扩张率的卷积操作,能够高效捕捉多尺度上下文信息。为进一步验证VMamba与ASPP组合的优越性,在保留ASPP模块的前提下,将核心的VMamba分别替换为SwinUNet这一主流分割模型。实验结果表明,SwinUNet与ASPP的组合虽能在两个数据集上实现DSC提升,但伴随参数量的明显增加,且最终性能仍逊色于VMamba与ASPP的组合。如表4所示。

Table 4. Ablation experiment of ASPP

4. ASPP的消融实验

Dataset

Methods

Params

DSC↑

ACDC

Swin-UNet

27.16

85.78

Vmamba

19.12

86.31

Swin-UNet + ASPP

33.84

86.93

M-UNet

25.81

87.79

6. 实验总结

在本文中,我们介绍M-UNet模型,通过创新性融合VSS模块与ASPP模块,成功突破了传统CNN在捕捉长距离依赖信息时的固有局限,同时实现了计算成本的有效降低。实验结果表明,该模型在ACDC及Synapse多器官分割数据集上均表现优异,展现出卓越的特征建模能力与全局信息捕获性能。然而,本研究仍存在一些缺点,第一,模型当前性能对预训练权重的初始化存在较强依赖,后续可探索针对医学图像分割任务特性设计的端到端预训练方法,进一步释放模型性能潜力;第二,边缘区域的分割精度仍有提升空间,尤其在ACDC数据集中,模型的HD95指标相对较高,表明对心脏细微解剖边缘的预测精度不足,未来需重点优化边缘特征提取机制;如可以加入边界感知损失函数,注意力机制来优化这个问题。第三,研究目前仅聚焦于单模态医学图像分割任务,后续计划扩展至多模态场景,并探索模型在3D医学图像分割中的泛化能力。

综上所述,模型的性能优势源于两大核心模块的协同作用,首先,VSS块凭借线性计算复杂度特性,实现了高效的全局上下文建模,与Swin-UNe的模型相比,M-UNet在显著降低计算开销的同时,仍保持了优异的分割精度,解决了传统Transformer模型“高精度伴随高计算成本”的痛点。其次,ASPP模块通过多尺度空洞卷积结构,强化了模型对医学图像中不同尺度特征的处理能力,能够精准捕捉病灶、器官边界等关键语义信息,在心脏结构分割、多器官协同分割等复杂医学任务中,显著提升了分割结果的准确性。

NOTES

*通讯作者。

参考文献

[1] Sandhya, G., Babu Kande, G. and Satya Savithri, T. (2017) An Efficient Approach for the Detection of White Matter, Gray Matter, and Cerebrospinal Fluid from MR Images of the Brain Using an Advanced Multilevel Thresholding. 2017 Third International Conference on Advances in Electrical, Electronics, Information, Communication and Bio-Informatics (AEEICB), Chennai, 27-28 February 2017, 422-426. [Google Scholar] [CrossRef
[2] Weglinski, T. and Fabijanska, A. (2011) Brain Tumor Segmentation from MRI Data Sets Using Region Growing Approach. Proceedings of the 7th International Conference on Perspective Technologies and Methods in MEMS Design, Polyana, 11-14 May 2011, 185-188.
[3] Kaur, T., Saini, B.S. and Gupta, S. (2018) A Novel Fully Automatic Multilevel Thresholding Technique Based on Optimized Intuitionistic Fuzzy Sets and Tsallis Entropy for MR Brain Tumor Image Segmentation. Australasian Physical and Engineering Sciences in Medicine, 41, 41-58.
[4] Osher, S. and Sethian, J.A. (1988) Fronts Propagating with Curvature-Dependent Speed: Algorithms Based on Hamilton-Jacobi Formulations. Journal of Computational Physics, 79, 12-49. [Google Scholar] [CrossRef
[5] Singh, N. and Choudhary, N. (2017) Automatic Localization and Level Set Based Energy Minimization for MRI Brain Tumor. 2017 International Conference on Computer, Communications and Electronics (Comptelix), Jaipur, 1-2 July 2017, 130-134. [Google Scholar] [CrossRef
[6] Zabir, I., Paul, S., Rayhan, M.A., Sarker, T., Fattah, S.A. and Shahnaz, C. (2015). Automatic Brain Tumor Detection and Segmentation from Multi-Modal MRI Images Based on Region Growing and Level Set Evolution. 2015 IEEE International WIE Conference on Electrical and Computer Engineering (WIECON-ECE), Dhaka, 19-20 December 2015, 503-506.[CrossRef
[7] Beddad, B. and Hachemi, K. (2016) Brain Tumor Detection by Using a Modified FCM and Level Set Algorithms. 2016 4th International Conference on Control Engineering & Information Technology (CEIT), Hammamet, 16-18 December 2016, 1-5. [Google Scholar] [CrossRef
[8] Pohle, R. and Toennies, K.D. (2001) Segmentation of Medical Images Using Adaptive Region Growing. SPIE Proceedings, 4322, 1337-1346. [Google Scholar] [CrossRef
[9] Sukanya, A., Rajeswari, R. and Subramaniam Murugan, K. (2020) Region Based Coronary Artery Segmentation Using Modified Frangi’s Vesselness Measure. International Journal of Imaging Systems and Technology, 30, 716-730. [Google Scholar] [CrossRef
[10] Ronneberger, O., Fischer, P. and Brox, T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab, N., Hornegger, J., Wells, W. and Frangi, A., Eds., Medical Image Computing and Computer-Assisted InterventionMICCAI 2015, Springer, 234-241. [Google Scholar] [CrossRef
[11] Wang, L., Xie, C. and Zeng, N. (2019) RP-Net: A 3D Convolutional Neural Network for Brain Segmentation from Magnetic Resonance Imaging. IEEE Access, 7, 39670-39679. [Google Scholar] [CrossRef
[12] Long, J., Shelhamer, E. and Darrell, T. (2015) Fully Convolutional Networks for Semantic Segmentation. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, 7-12 June 2015, 3431-3440. [Google Scholar] [CrossRef
[13] Yang, B. and Zhang, W. (2019) FD-FCN: 3D Fully Dense and Fully Convolutional Network for Semantic Segmentation of Brain Anatomy. arXiv: 1907.09194.
[14] Luo, M., Huang, J. and Yang, F. (2014) Multimodal 3D Convolutional Neural Networks Features for Brain Tumor Segmentation. Science Technology and Engineering, 14, 78-83.
[15] Zhao, Z., Bai, H., Zhang, J., Zhang, Y., Xu, S., Lin, Z., et al. (2023) CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion. 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Vancouver, 17-24 June 2023, 5906-5915. [Google Scholar] [CrossRef
[16] Milletari, F., Navab, N. and Ahmadi, S. (2016) V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation. 2016 Fourth International Conference on 3D Vision (3DV), Stanford, 25-28 October 2016, 565-571. [Google Scholar] [CrossRef
[17] Fu, S., Lu, Y., Wang, Y., Zhou, Y., Shen, W., Fishman, E., et al. (2020) Domain Adaptive Relational Reasoning for 3D Multi-Organ Segmentation. In: Martel, A.L., et al., Eds., Medical Image Computing and Computer Assisted InterventionMICCAI 2020, Springer, 656-666. [Google Scholar] [CrossRef
[18] Ronneberger, O., Fischer, P. and Brox, T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab, N., Hornegger, J., Wells, W. and Frangi, A., Eds., Medical Image Computing and Computer-Assisted InterventionMICCAI 2015, Springer, 234-241. [Google Scholar] [CrossRef
[19] Ibtehaz, N. and Rahman, M.S. (2020) MultiResUNet: Rethinking the U-Net Architecture for Multimodal Biomedical Image Segmentation. Neural Networks, 121, 74-87. [Google Scholar] [CrossRef] [PubMed]
[20] Chen, J., Mei, J., Li, X., Lu, Y., Yu, Q., Wei, Q., et al. (2024) TransUNet: Rethinking the U-Net Architecture Design for Medical Image Segmentation through the Lens of Transformers. Medical Image Analysis, 97, Article ID: 103280. [Google Scholar] [CrossRef] [PubMed]
[21] Cao, H., Wang, Y., Chen, J., Jiang, D., Zhang, X., Tian, Q., et al. (2023) Swin-Unet: Unet-Like Pure Transformer for Medical Image Segmentation. In: Karlinsky, L., Michaeli, T. and Nishino, K., Eds., Computer VisionECCV 2022 Workshops, Springer, 205-218. [Google Scholar] [CrossRef