基于编码器–解码器架构和Potts模型的图像分割方法
Image Segmentation Method Based on Encoder-Decoder Architecture and Potts Model
DOI: 10.12677/jisp.2025.142020, PDF, HTML, XML,   
作者: 张同德, 潘振宽*, 魏伟波, 王烨然:青岛大学计算机科学技术学院,山东 青岛
关键词: Potts模型深度学习变分网络图像分割Potts Model Deep Learning Variational Network Image Segmentation
摘要: 深度学习驱动的图像分割在医学影像和自动驾驶等领域成效显著,但其黑箱决策机制导致模型选择与超参数调整缺乏理论指导,依赖大数据和高算力支撑。相较之下,基于变分模型的方法虽多受限于局部特征提取,易忽略全局上下文关联,但其通过融合全局统计规律与局部平滑约束的特性,在数学可解释性和抗噪声伪影方面展现优势。因此,本文提出了一种基于Potts模型展开的与U-Net相似的架构,旨在提升图像分割的准确性和鲁棒性。与传统U-Net不同,本文在下采样和上采样过程中引入了基于Potts模型的正则化块,以增强分割过程中的区域一致性和边缘保留能力。通过HQS (半二次分裂)方法求解Potts模型,并结合FoE正则化项,使用可训练的离散余弦变换(DCT)-高斯卷积实现了梯度算子的学习,激活函数采用软阈值公式(STF)。此外,为了捕获全局上下文信息并处理远距离依赖,在网络的最底层加入了Transformer结构,进一步改善分割效果。实验结果表明,本文提出的模型在少量参数和数据集上能够有效学习特征,提高分割精度。本研究为图像分割任务提供了新的视角,展示了结合深度神经网络与传统变分模型架构的广阔潜力。
Abstract: Deep learning-driven image segmentation has demonstrated significant efficacy in fields such as medical imaging and autonomous driving. However, its black-box decision-making mechanisms lead to a lack of theoretical guidance for model selection and hyperparameter tuning, with heavy reliance on large datasets and high computational resources. In contrast, variational model-based methods, though often limited by local feature extraction and neglect of global contextual relationships, exhibit advantages in mathematical interpretability and noise/artifact resistance through their integration of global statistical patterns and local smoothness constraints. This paper proposes a U-Net-inspired architecture based on the Potts model unfolding framework to enhance segmentation accuracy and robustness. Unlike traditional U-Net, our method introduces Potts model-derived regularization blocks during downsampling and upsampling to strengthen region consistency and edge preservation capabilities. The Potts model is solved via the Half-Quadratic Splitting (HQS) method, combined with a Fields of Experts (FoE) regularization term. Trainable Discrete Cosine Transform (DCT)-Gaussian convolutions are employed to learn gradient operators, with activation functions adopting the Soft Thresholding Formula (STF). Additionally, a Transformer structure is integrated at the network’s deepest layer to capture global contextual information and address long-range dependencies, further refining segmentation performance. Experimental results demonstrate that our model effectively learns features with limited parameters and datasets while improving segmentation precision. This study offers a novel perspective for image segmentation tasks, highlighting the vast potential of hybrid architectures that combine deep neural networks with classical variational models.
文章引用:张同德, 潘振宽, 魏伟波, 王烨然. 基于编码器–解码器架构和Potts模型的图像分割方法[J]. 图像与信号处理, 2025, 14(2): 213-223. https://doi.org/10.12677/jisp.2025.142020

1. 引言

图像分割是计算机视觉中的一个核心任务,其目的是将图像划分为具有相似性质的多个区域,以便于后续分析或处理。近年来,随着技术的发展,图像分割方法经历了显著的变革。从最早的基于变分模型的方法,到后来的深度学习模型,这一领域逐步演变,展现出更加丰富和高效的分割策略。

在过去的几十年中,变分模型不仅建模过程简单、实现简单、算法稳定,并且有着强大的数学基础和理论支撑,成为图像分割的重要工具。这类方法通过最小化一个能量函数,将分割问题转换为优化问题,并利用全局信息和局部平滑性去控制分割结果。图像分割方法可以分为基于阈值的分割方法[1]、基于区域的分割方法[2]、基于边缘的分割方法[3]等。

1988年,Osher和Sethian[4]提出了水平集方法(Level Set Method),该方法用于跟踪曲线和曲面的演化,具有处理变形和分裂的能力。在之后的研究中,Chan和Vese进一步将这一概念结合到图像分割中,提出了Chan-Vese模型[5]。该模型通过最小化特定的能量函数,基于变分方法实现了图像的两相分割,允许处理灰度图和具有纹理的图像。Chan-Vese模型特别强调了图像区域的均匀性,改进了传统的阈值分割方法,使其具有更好的鲁棒性和灵活性。后来Chan和Samson又将这些技术扩展到多相图像分割问题[6]。2010年,潘振宽等人又提出了一种基于TV模型的多相图像分割变分水平集方法[7]。变分方法具有透明和可解释的数学公式的优势,并且不需要太多的训练数据,这对于医学图像分析任务非常重要。但是,它们仍然存在局限性,例如对初始化设置的敏感性,需要对不同的数据进行手动参数调整,在处理复杂背景、噪声和物体边界时面临挑战,尤其是在多相分割任务中。

随着深度学习的兴起,尤其是卷积神经网络(CNN)的成功应用,图像分割领域发生了颠覆性变革。2015年,Long等人提出了全卷积网络(FCN) [8],作者将传统的卷积神经网络(CNN)架构改进为能够直接输出像素级别的分割结果,标志着深度学习在图像分割领域的应用取得了重大突破。同年,Ronneberger等人又提出了一种专门为生物医学图像分割设计的深度卷积网络架构——U-Net [9],作者提出了一种对称的编码-解码结构,其中的跳跃连接有助于保留高分辨率特征,使得网络能够在像素级进行更准确的分割。U-Net因在医学成像中表现优异而广受欢迎,成为许多后续研究的基准模型。

尽管深度学习模型在图像分割方面展现了优越的性能,但依然存在一些不足之处。例如,深度网络的训练需要大量标注数据及计算资源,且其决策过程常常缺乏可解释性。新提出的SAM (Segment Anything Model) [10]也不例外,它自然图像领域的表现优异,但在医学图像领域,由于患者人口统计学差异和极端病理情况的存在,SAM的表现并不是那么优异。此外,其海量的参数,在算力不足的情况下(如移动设备)进行部署变得具有挑战性。这使得研究者们逐渐认识到,结合传统的变分模型和现代深度学习的优势,或许能够在分割质量和模型解释性之间找到一个更好的平衡点。

近年来,学者们探索了深度学习框架和变分模型之间的协同作用。Chen等人[11]将全卷积网络(FCN)与条件随机场(CRF)结合,提出了一种新的分割方法,显示了深度学习和图模型之间的协同作用。Y. Chen [12]提出了一种基于变分推理的图像分割方法,通过结合深度学习生成对抗网络(GAN)和变分模型,显著提高图像分割的鲁棒性和准确性。Tai等人[13]将Potts模型与多重网格方法结合,通过对Potts模型的离散化和分析,提供了一种数学上合理的解释,阐明了编码器-解码器网络的工作机制。尽管上述方法将传统的变分方法集成到深度神经网络中,但对于网络整体训练和底层行为的清晰数学解释仍然难以把握。探索基于经典变分模型的可学习网络工作,可以有效减少手动参数调整和对大量数据集的依赖,这是一项具有创新性的重要尝试。在图像恢复领域,Chen和Pock将非线性反应扩散方程与深度学习模型结合,提出了可训练非线性反应扩散(TNRD) [14]使其能够自动学习适应于不同图像恢复任务的参数。该模型使用径向基函数(RBF)和卷积核的组合来创建可训练的参数激活函数,为我们的研究提供了新的见解。2017年,Vaswani等人首次提出了Transformer架构[15],推动了自然语言处理(NLP)的突破,使得基于深度学习的各类应用得以快速发展。后来,Carion等人提出DETR (DEtection TRansformer)模型[16],尽管DETR的主要目标是实现目标检测,但其框架和自注意力机制也为图像分割任务提供了新的思路。

在多相分割的研究中,提升成像质量和目标检测能力的需求使得对多类别的分割性能要求日益增强。为了有效应对这一挑战,本研究提出了一种结合Potts模型[17]的类似U-Net架构的新的图像分割方法,该方法利用正则化模块将正则化项的迭代过程嵌入到通道数较少的浅层网络中。并在网络最深层引入TransFormer来捕获全局上下文信息并处理远距离依赖,旨在提高多相分割的准确性与鲁棒性。

2. 相关研究基础

多相图像分割是根据不同的图像特征将图像分为多个互相毗邻、互不重叠的区域,其数学描述为 Ω= i=1 n Ω i Ω i ij Ω j = ,其中 Ω 为待分割区域, Ω i ( i=1,2,,n ) 为分割出的多个子区域。

2.1. Potts模型

Potts模型最初源于统计物理。在图像分割的背景下,Potts模型将图像的每个像素视为一个节点,并将其划分为不同的类别(状态)。相邻像素的分类状态影响这两个像素之间的相互关系和能量。Potts模型通过定义一个能量函数来表示图像分割的目标,其能量函数可以表示为:

min c,φ{ 0,1 } E( c,φ )= i=1 n α i ( f( x ) c i ) 2 φ i dx +γ i=1 n | φ i |dx (1)

它由数据项和总变分(Total Variation, TV)正则化项组成。其中 f( x ) 表示输入图像; c i 表示每个分割区域的均值; φ i 是指示函数,用于指示像素x是否属于区域i。使用Simplex法对 φ 进行约束,使 i=1 n φ i =1 α i γ 是惩罚参数。

方程(1)的求解方法引起了许多学者的关注,Zach等人[18]将标记函数松弛为非凸形式,通过交替迭代优化获得解决方案。Bae等人[19]提出了一个原始对偶模型,并使用投影梯度算法解决。

2.2. HQS方法

Half Quadratic Splitting (HQS,半二次分裂法)是一种有效的优化算法,主要用于解决涉及非凸和非平滑函数的数值优化问题。引入辅助变量 ω i = φ i 和惩罚参数 β i ,并定义数据项为 g i ( x )= ( f( x ) c i ) 2 ,则能量函数变化为:

E( c,φ,ω )= i=1 n α i g i ( x ) φ i dx + i=1 n γ i | ω i |dx + β i 2 i=1 n ( ω i φ i ) 2 dx (2)

通过采用交替优化方法进行进一步求解,得到了 ω 的解析解:

ω i l+1 =max( | φ i l | γ i β i ,0 ) | φ i l | φ i l (3)

其中,l表示当前迭代的步数

3. 研究方法

3.1. FoE (Field of Experts)正则化[20]

FoE正则化是一种有效的图像正则化方法,它采用非线性和非凸的形式,能够更好地捕捉图像中的复杂结构和纹理。并且,FoE模型的参数可以通过训练数据进行学习。一般情况,FoE正则化项通常可以表示为:

R FoE ( x )= i=1 n φ( j N i   K i,j x j ) (4)

其中,x是图像特征,n是专家场的数量, N i 表示第i个专家场的邻域, K i,j 表示第i个专家场的卷积核,φ是一个非线性激活函数。据此,可以得出带有FoE正则化项的Potts模型:

min c,φ{ 0,1 } E( c,φ )= i=1 n α i g i ( x ) φ i dx+ i=1 n j=1 m γ i | K j φ i |dx (5)

这里 γ i 表示权重,基于变分法和梯度下降策略进行求解,结果如下:

φ t = α i g i ( x ) j=1 m β ji K ˜ j ( K i φ i l ω j l ) (6)

ω i l+1 =max( | K j φ i l | γ i β i ,0 ) K j φ i l | K j φ i l | (7)

其中, φ i l [ 0,1 ] K ˜ j K i 的共轭,方程(7)是 φ i 的软阈值公式,是一个解析解,根据其性质,可以将其转化为以下形式:

ω ji l+1 =ReLU( K j φ i l γ i β ji )ReLU( ( K j φ i l + γ i β ji ) ) (8)

这将作为激活函数用在网络中。

3.2. Vision Transformer模块集成

Vision Transformer (ViT)是一种将Transformer架构应用于计算机视觉任务的模型,最初由Dosovitskiy [21]等人在2020年提出。该方法通过将图像划分为小块,并将这些小块作为序列输入给Transformer,从而实现了对图像的处理和分类。

下采样路径处理完特征图后,嵌入一个ViT模块。具体而言,在下采样部分生成的H×W特征图分块成P × P个小块,生成块的数量 N= H×W P 2 。然后每个小块被展平为一个一维向量,并通过一个线性投影层(线性变换)将其映射到D维特征空间。

PatchEmbedding:Z=Proj( Flatten( Patch( I ) ) ) (9)

其中,I是输入图像, Patch( I ) 表示对图像进行分块操作,Flatten表示将每个小块展平,Proj是线性变换。

为了保持位置信息,这一序列还将加入位置编码。Transformer模块由多头自注意力机制和前馈神经网络组成,能够在全局范围内捕捉特征之间的复杂关系,其输出可表示为:

Attention( Q,K,V )=softmax( Q K T d k )V (10)

其中,Q是查询(query),K是键(key),V是值(value), d k 是键的维度。经过ViT处理后的特征图准备进行后续的上采样操作。

3.3. 网络设计

根据以上内容,将原本缺乏学习能力的Potts模型拓展为可训练的网络架构,为了学习复杂特征和捕捉长距离依赖关系,本文设计了一个基于编码器-解码器架构的网络,在下采样和上采样过程中,在通道数较少的浅层都加入了正则化模块,并在最深层加入了ViT模块,如图1所示。

该类似U-Net框架的下采样阶段用公式(5)中的数据项实现,浅层的正则化块作为正则化项的实现,对应的偏微分方程更新如下:

φ t =U( f( x ) ) j=1 m β ji K ˜ j ( K j φ i l ω j l ) (11)

U表示网络中U-Net结构内使用的下采样过程和上采样过程。在正则化模块中,将微分算子K转换为卷积计算。受TNRD的启发,为了显著减少参数数量并确保卷积核的零均值特性,本文考虑将卷积核K设置为以下DCT基的线性组合:

K j = r=1 d w j,r w j b r (12)

其中, r=1,2,,d w j =( w j1 , w j2 ,, w jd ) 表示可训练的参数。为了减少对噪声或不相关局部特征的敏感程度,将一个二维高斯核函数引入卷积核,作用于 φ i

Figure 1. The network structure

1. 本文提出的网络结构

G( x,y )= 1 2π σ 2 exp( x 2 + y 2 2 σ 2 ) (13)

其中, σ 表示高斯函数的标准差,是一个可训练的参数。最后将正则化模块设置为离散余弦变换基和高斯核函数矩阵的乘积:

K j =G( σ )× r=1 d w j,r w j b r (14)

对于共轭差分算子 K ˜ j ,将前一个卷积核旋转180度,并应用反卷积来计算共轭。

在这两个卷积之间,将批量归一化(BN)和等式(8)中的平滑STF作为激活层,最终的正则化模块如图2所示。

Figure 2. Regularization module structure

2. 正则化模块结构

图1网络将原始图像作为输入,并在输入图像上初始化特征函数 φ i ,以解决传统变分模型的初始化敏感性问题。最后通过Softmax和Simplex约束,得出每个像素的分类结果,从而生成最终的图像分割掩膜。

通过反向传播训练和更新网络参数集 θ l ={ K j l , α l , β l , γ l , σ l } ,使用Adam优化器[22]最小化以下交叉熵函数损失:

L= 1 N i=1 N c=1 C y i,c log( p i,c ) (15)

其中,N是样本的数量,C是类别的数量, y i,c 表示样本i在类别c下的真实标签, p i,c 表示样本i在类别c下的预测概率。

4. 实验分析

4.1. 实验环境

实验是在配备Intel Core i7-12700处理器、NVIDIA GeForce GTX 2080Ti显卡的主机上进行的。初始学习率设置为0.002,epoch设置为200。将该模型与流行的图像分割网络进行了比较,包括U-Net、U-Net++ [23]、FPN [24]、DeepLabV3+ [25]

在实验中,为了全面评估模型的分割性能,本实验使用了多种指标:

1) Accuracy (准确性):衡量模型预测正确的比例,即正确预测的像素数占总像素数的百分比。

2) DSC (Dice Similarity CoefficientDice相似系数):用于测量两个集合的相似度,特别适合评估分割结果与真实标注的重合程度。其值在0到1之间,1表示完全一致。公式为:

DSC= 2| AB | | A |+| B | (16)

其中, | AB | 是预测与真实标注的交集面积。

3) MIoU (Mean Intersection over Union平均交并比):评估预测结果与

真实值的重叠程度,是在所有类别上的IoU的平均值。IoU计算公式为:

IoU= | AB | | AB | (17)

这些指标用百分比表示,可以直观地反映模型的分割性能。通过结合这些方法,能够更全面地理解模型的优劣。

4.2. 数据集

本文选择了两个数据集:

1) Synapse医学像数据集,它包含2211张人体CT扫描图像,分辨率为512 × 512,本实验选取了其中1280张人体腹部的CT扫描图像,其中1000张作为训练集,280张作为测试集。

2) CamVid (Cambridge Driving Labeled Video Database),它是由剑桥大学的计算机视觉组创建,是一个广泛用于深度学习和计算机视觉领域的语义分割数据集,特别是在自动驾驶和道路场景理解方面。它包含701张分辨率为360 × 480图像。本实验使用366张作为训练集,233张作为测试集,102张作为验证集。

4.3. 实验结果

首先是在Synapse医学图像数据集上的分割,本实验专注于肝脏(分割结果用绿色表示)、脾脏(分割结果用黄色表示)的分割。在实验结果中,选取了五组分割效果展示,如图3所示。

Figure 3. Comparative experiments on the Synapse dataset

3. Synapse医学图像数据集上的对比实验

可以看出,相较于同为解码器-编码器结构的U-Net、U-Net++来说,本文带有正则化块的模型更能分割出清晰的边界,不会遗漏边缘特征不明显的区域。较之使用空洞卷积来获取更多的上下文信息的DeepLabV3+来说,使用Vision TransFormer的模型更能从边缘特征不明显的图像中得到正确的边界。

表1展示了该模型的性能指标,可以看出模型的指标全面优于U-Net、U-Net++、FPN。并且,该模型的参数量仅为DeepLabV3+的8%,却达到了与其难分伯仲的效果,表明该模型在特征提取和分割精度上具有更好的平衡性。

Table 1. Comparison of segmentation results on the Synapse dataset

1. Synapse医学图像数据集上的分割结果对比

Model

Accuracy

DSC

MIoU

Number of Parameters

Ours

97.11

95.94

96.56

3.9M

U-Net

95.87

93.26

94.26

31M

U-Net++

96.44

93.79

94.77

31.5M

FPN

96.66

94.55

94.63

29M

DeepLabV3+

97.06

95.88

96.61

49.4M

为了进一步评估模型的效果,本文选择了较为复杂的街景数据集CamVid来进行试验,并选取了一些试验的对比结果,如图4所示。

Figure 4. Comparative experiment on CamVid dataset

4. 在CamVid数据集上的对比实验

可以看出,该模型具有高分辨率的特征提取能力,能够有效地捕捉图像中的细节特征,例如树冠、电线杆、自行车等。同时可以在保留细节的同时,生成更加平滑的边缘,在细节较多的图像中可以实现较好的分割效果。

Table 2. Comparison of segmentation results on Camvid dataset

2. Camvid数据集上的分割结果对比

Model

Accuracy

DSC

MioU

Number of Parameters

Ours

97.42

95.06

96.98

3.9M

U-Net

95.85

93.57

94.42

31M

U-Net++

96.09

93.90

94.83

31.5M

FPN

96.61

94.35

96.17

29M

DeepLabV3+

97.11

94.76

96.75

49.4M

表2展示了该模型在CamVid的表现,实验结果表明,该模型在精度、DSC和MIoU指标上均优于其他模型。由于路面、天空、建筑占据图像较大区域,使得这些模型的整体指标都较高且表现相近,但是还可以看出,该模型整体性能优于参与比较的这些模型。

4.4. 消融实验

为了探究网络中正则化模块和ViT的有效性,本文在Synapse医学图像数据集上进行了消融实验,首先是正则化模块的有效性验证,结果如表3所示。可以看出,正则化模块的引入,确实使模型的性能有了显著的提高。

Table 3. An ablation study to verify the effectiveness of the regularization module

3. 验证正则化块有效性的消融实验

Accuracy

DSC

MioU

有正则化块

97.11

95.94

96.56

无正则化块

96.87

95.13

95.72

接下来是ViT的有效性验证结果如表4所示。可以看出,ViT模块的引入使得该模型从各个指标上都有了显著的提升。

Table 4. An ablation study to verify the effectiveness of the ViT module

4. 验证正则化块有效性的消融实验

Accuracy

DSC

MioU

有ViT

97.11

95.94

96.56

无ViT

96.43

94.87

95.36

总体实验结果表明,所提出的网络在Synapse医学图像和CamVid街景图像上均取得了较好的分割结果。在与当前主流方法进行对比时,模型在准确性、Dice相似度系数(DSC)和平均交并比(MIoU)等关键指标上均表现出色,表明本文提出的模型能够有效提升细小物体的分割能力及整体性能。

5. 总结

本论文提出了一种新型的基于编码器-解码器的网络架构,该架构将传统变分方法与深度学习相结合,以提升图像分割和特征提取的效果。该模型有效解决了变分模型的初始化敏感性问题,以及深度学习模型对大量数据和可解释性要求的挑战。通过引入可学习的正则化块,我们能够有效捕捉图像中的全局特征和细节信息,同时利用ViT的自注意力机制优化特征表示,增强模型对复杂场景的理解能力。

此外,本研究的结果揭示了将传统变分方法与现代深度学习技术结合的潜力,未来的研究将集中在如何进一步优化变分模型的参数调整机制以及提升模型在更复杂场景中的适用性,期待能在不断变化的视觉环境中探索更多应用场景。

参考文献

[1] Otsu, N. (1979) A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics, 9, 62-66.
https://doi.org/10.1109/tsmc.1979.4310076
[2] Adams, R. and Bischof, L. (1994) Seeded Region Growing. IEEE Transactions on Pattern Analysis and Machine Intelligence, 16, 641-647.
https://doi.org/10.1109/34.295913
[3] Canny, J. (1986) A Computational Approach to Edge Detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 8, 679-698.
https://doi.org/10.1109/tpami.1986.4767851
[4] Osher, S. and Sethian, J.A. (1988) Fronts Propagating with Curvature-Dependent Speed: Algorithms Based on Hamilton-Jacobi Formulations. Journal of Computational Physics, 79, 12-49.
https://doi.org/10.1016/0021-9991(88)90002-2
[5] Chan, T.F. and Vese, L.A. (2001) Active Contours without Edges. IEEE Transactions on Image Processing, 10, 266-277.
https://doi.org/10.1109/83.902291
[6] Samson, C., Blanc-Féraud, L., Aubert, G. and Zerubia, J. (2000) A Level Set Model for Image Classification. International Journal of Computer Vision, 40, 187-197.
https://doi.org/10.1023/a:1008183109594
[7] 李忠伟, 潘振宽, 倪明玖. 基于TV模型的多相图像分割变分水平集方法[C]//第五届图像图形技术与应用学术会议论文集. 北京: 北京图像图形学学会, 2010: 49-56.
[8] Long, J., Shelhamer, E. and Darrell, T. (2015) Fully Convolutional Networks for Semantic Segmentation. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, 7-12 June 2015, 3431-3440.
https://doi.org/10.1109/cvpr.2015.7298965
[9] Ronneberger, O., Fischer, P. and Brox, T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. Medical Image Computing and Computer-Assisted InterventionMICCAI 2015, Munich, 5-9 October 2015, 234-241.
https://doi.org/10.1007/978-3-319-24574-4_28
[10] Kirillov, A., Wu, Y., He, K. and Girshick, R. (2023) Segment Anything. Proceedings of the IEEE/CVF International Conference on Computer Vision, Paris, 2-6 October 2023, 4015-4026.
[11] Chen, X., Papandreou, G. and Schroff, F. (2016) Semantic Image Segmentation with Deep Convolutional Nets and Fully Connected Conditional Random Fields. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 2437-2446.
[12] Chen, Y., Qi, H. and Dee, D. (2020) Deep Variational Image Segmentation via a Conditional Generative Model. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 10843-10850.
[13] Tai, X., Liu, H. and Chan, R. (2024) PottsMGnet: A Mathematical Explanation of Encoder-Decoder Based Neural Networks. SIAM Journal on Imaging Sciences, 17, 540-594.
https://doi.org/10.1137/23m1586355
[14] Chen, Y. and Pock, T. (2017) Trainable Nonlinear Reaction Diffusion: A Flexible Framework for Fast and Effective Image Restoration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 1256-1272.
https://doi.org/10.1109/tpami.2016.2596743
[15] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., Polosukhin, M. and Tsipras, S. (2017) Attention Is All You Need. Proceedings of the 31st International Conference on Neural Information Processing Systems, Long Beach, 4-9 December 2017, 6000-6010.
[16] Carion, N., Massa, F., Synnaeve, G., Usunier, N., Kirillov, A. and Zagoruyko, S. (2020) End-to-End Object Detection with Transformers. 16th European Conference on Computer Vision, Glasgow, 23-28 August 2020, 213-229.
https://doi.org/10.1007/978-3-030-58452-8_13
[17] Shotton, J.B., Winn, J.M., Rother, C. and Torr, P.H. (2006) TextonBoost for Image Segmentation and Recognition. Proceedings of the European Conference on Computer Vision (ECCV), Graz, 7-13 May 2006, 1-15.
[18] Zach, C., Gallup, D., Frahm, J.M. and Niethammer, M. (2008) Fast Global Labeling for Real-Time Stereo Using Multiple Plane Sweeps. 13th International Fall Workshop on Vision, Modeling, and Visualization, VMV 2008, Konstanz, 8-10 October 2008, 243-252.
[19] Bae, E., Yuan, J. and Tai, X. (2010) Global Minimization for Continuous Multiphase Partitioning Problems Using a Dual Approach. International Journal of Computer Vision, 92, 112-129.
https://doi.org/10.1007/s11263-010-0406-y
[20] Roth, S. and Black, M.J. (2009) Fields of Experts. International Journal of Computer Vision, 82, 205-229.
https://doi.org/10.1007/s11263-008-0197-6
[21] Dosovitskiy, A., Beyer, D., Kolesnikov, A., Zhai, X. and Hoffmann, T. (2021) An Image Is Worth 16 x 16 Words: Transformers for Image Recognition at Scale. Proceedings of the International Conference on Learning Representations (ICLR), 3-7 May 2021.
[22] Kingma, D.P. and Ba, J. (2015) Adam: A Method for Stochastic Optimization. Proceedings of the 3rd International Conference on Learning Representations (ICLR), San Diego, 7-9 May 2015, 1-15.
[23] Zhou, Z., Rahman Siddiquee, M.M., Tajbakhsh, N. and Liang, J. (2018) Unet++: A Nested U-Net Architecture for Medical Image Segmentation. In: Stoyanov, D., et al., Eds., Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support, Springer International Publishing, 3-11.
https://doi.org/10.1007/978-3-030-00889-5_1
[24] Lin, T., Dollar, P., Girshick, R., He, K., Hariharan, B. and Belongie, S. (2017) Feature Pyramid Networks for Object Detection. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, 21-26 July 2017, 936-944.
https://doi.org/10.1109/cvpr.2017.106
[25] Chen, L. C., Papandreou, G., Schroff, F., Adam, H. (2017) Rethinking Atrous Convolution for Semantic Image Seg-mentation. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, 21-26 July 2017, 1-10.