动态注意力语义特征增强的人脸风格迁移方法研究
Research on Facial Style Transfer Method for Dynamic Attention Semantic Feature Enhancement
DOI: 10.12677/mos.2024.134417, PDF, HTML, XML,    科研立项经费支持
作者: 潘海燕, 孙刘杰, 王文举:上海理工大学出版学院,上海
关键词: 风格迁移动态注意力归一化傅里叶卷积Style Transfer Dynamic Attention Normalized Fourier Convolution
摘要: 为了解决基于StyleGAN2网络的人脸风格迁移算法存在的风格迁移效果不明显、不准确,局部纹理不合理等问题。本文提出动态注意力语义特征增强的人脸风格迁移方法。本文提出归一化傅里叶卷积将人脸特征转化到频域中进行处理,使网络更好地捕捉图像纹理、细节和结构等频率信息,提出了一个新的动态注意力结构控制块使生成器更高效地学习风格图像的结构特征并较好保留原始人脸特征;此外,还引入色彩一致性损失函数,该损失函数可以有效保持生成图像和风格图像的颜色相似性。实验结果表明,本文提出的网络在定性和定量实验研究中与最先进的方法相比都取得了最好得分。本文方法在保留内容图像语义信息和细节特征的同时有效学习了风格图像的特征,更好地实现了人脸风格迁移准确性和艺术性。
Abstract: To address the issues of unclear and inaccurate style transfer effects, as well as unreasonable local textures in the StyleGAN2-based face style transfer algorithm, this paper introduces a dynamic attention semantic feature enhancement approach. The normalization Fourier convolution is proposed to process facial features in the frequency domain, allowing the network to more effectively capture image texture, detail, and structural frequencies. A new dynamic attention control block is introduced to enable the generator to more efficiently learn the structural features of style images and better preserve the original facial features. Additionally, a color consistency loss function is introduced to ensure the color similarity between the generated and style images. Experimental results demonstrate that our network achieves the highest scores in both qualitative and quantitative evaluations compared to the leading methods. This approach effectively learns the features of style images while preserving the semantic information and detailed features of content images, enhancing the accuracy and artistry of face style transfer.
文章引用:潘海燕, 孙刘杰, 王文举. 动态注意力语义特征增强的人脸风格迁移方法研究[J]. 建模与仿真, 2024, 13(4): 4602-4613. https://doi.org/10.12677/mos.2024.134417

1. 引言

人脸风格迁移是对图像的颜色、纹理等进行改变并保证其内容特征不变的一种计算机视觉技术,可以在保留人脸结构细节的同时生成风格化的新图像。该技术被广泛应用于艺术创作和社交媒体等领域,具有重要研究价值。

风格迁移技术主要分为传统风格迁移技术和神经风格迁移技术(Neural Style Transfer, NST)。传统风格迁移技术主要包括非真实感渲染[1]-[3] (NonPhotorealistic Rendering, NPR)和纹理迁移[4]-[6]。其中,NPR包括笔触渲染、图像类比和图像滤波三种方法,是利用计算机模拟中国画、水彩、版画等各种视觉艺术风格的绘制。纹理迁移技术根据参考图像对输入图像进行纹理填充,使得生成图像有和参考图像类似纹理。传统风格迁移技术可以较好应用于艺术作品的生成,但仍存在不足。随着深度学习的发展,卷积神经网络被应用于风格迁移。神经风格迁移技术是一种基于优化技术将参考图像风格转移到输入图像中的风格迁移方法。Gatys等人[7]提出基于VGG (Visual Geometry Group)网络[8]的神经风格迁移模型,基于统计参数根据全局统计信息来进行风格匹配,首次运用神经网络模型来实现风格迁移。为了解决Gatys模型效率低下的问题,Johnson等人[9]提出一种基于前向传播(Feed-forward)的优化模型,使用感知损失函数构建前馈网络进行风格迁移,完成实时图像风格迁移任务。在此基础上,单个模型多种风格迁移算法被提出,Karras等人[10]提出了StyleGAN模型,一种基于生成对抗网络(GAN)的生成器框架。使用低分辨率的图像训练生成器和鉴别器,依次增加更高分辨率的层,最终得到迁移结果,但是该模型生成的图像存在水滴状伪影。为了解决此问题,Karras等人提出了StyleGAN2模型[11],重新设计了生成器归一化,并对生成器进行了正则化。在此基础上,Yang等人[12]提出了DualStyleGAN模型,该模型在StyleGAN2的基础上使用内在风格路径和外在的风格路径来刻画图像的内容和风格。能够分层地调节颜色和复杂的结构样式,实现风格的精确迁移,但是该模型仍存在风格迁移效果不明显、不准确,局部纹理不合理等问题。

综上,在上述算法中,基于StyleGAN模型的人脸风格迁移算法能够生成视觉效果较好的图像,但是仍存在一定不足。为了在保留内容图像语义信息和细节特征的同时有效学习风格图像的特征,更好地实现人脸风格迁移准确性和艺术性,本文提出了动态注意力语义特征增强的人脸风格迁移方法,本文的贡献包括:1) 提出了归一化傅里叶卷积将人脸特征转化到频域中进行处理,使网络更好地捕捉图像纹理、细节和结构等频率信息;2) 提出了一个新的动态注意力结构控制块,使生成器更高效地学习风格图像的结构特征并较好保留原始人脸特征;3) 引入色彩一致性损失函数,有效保持生成图像和风格图像的颜色相似性。

2. 提出方法

2.1. 模型框架

本文提出了一种基于StyleGAN2模型的人脸图像风格迁移方法,网络总体流程图如图1所示。输入真实人脸图像和风格人脸图像,首先经过编码器得到真实人脸特征编码G_T和风格人脸特征编码G_S,经过风格迁移网络得到风格化人脸图像。该风格迁移网络由生成器和鉴别器构成。

其中,生成器由结构控制层(1~7层)和颜色控制层(8~18层)构成。结构控制层能够在学习风格图像的面部结构特征和纹理细节的同时保留真实人脸的面部五官特征。颜色控制层对真实图像进行进一步的颜色处理得到更加合理自然的风格化图像。

Figure 1. Overall framework diagram of style transfer

1. 风格迁移总流程图

2.2. 归一化傅里叶卷积

由于传统卷积处理特征编码过程存在局部信息丢失等缺点,因此本文提出归一化傅里叶卷积替换传统卷积。其将输入特征转化到频域中进行处理,使网络更好地捕捉图像的纹理、细节和结构等频率信息。并且傅里叶变换具有平移不变性和计算高效性使模型可以更高效的捕捉图像的风格信息。此外,归一化可以进一步提升傅里叶变换的稳定性和泛化能力,提高生成结果质量,归一化傅里叶卷积模型流程图如图2所示。

Figure 2. Flowchart for normalized fourier convolution

2. 归一化傅里叶卷积流程图

归一化傅里叶卷积首先将输入的风格编码 X N×C×H×W 经过归一化层,由式(1)表达。

Norm2d ( x ) n,c,h,w = X n,c,h,w μ n,c σ n,c 2 +ε γ c + β c (1)

其中, X n,c,h,w 是输入风格编码z在第n个样本、第c个通道、第h行、第w列的元素。 μ n,c 是均值,计

算公式为 μ n,c = 1 H×W h=1 H w=1 W X n,c,h,w σ n,c 2 是方差,计算公式为 σ n,c 2 = 1 H×W h=1 H w=1 W ( X n,c,h,w μ n,c ) 2

γ c 是归一化的缩放因子, β c 是归一化的偏移量, ε 是一个小的常数。

将得到的张量 X H×W×C 输入快速傅里叶卷积(FFC) [13] H×W,C 分别表示空间分辨率和通道数。其中,FFC由两条互相连接的路径组成:在部分输入特征通道进行普通卷积的局部路径、在谱域中操作的全局(频谱)路径,两条路径均可以捕获不同感受野的互补信息。首先沿着特征通道的维度将 X 拆分为 X ={ X l , X g } 。对于局部部分, X l H×W×( 1 α in )C 从局部邻域学习;对于全局(频谱)部分, X g H×W× α in C 学习全局上下文信息, α in [ 0,1 ] 表示分配给全局分布的特征通道的百分比。使用 Y H×W×C 作为FFC的输出,同样将 Y 拆分为 Y ={ Y l , Y g } ,输出张量的全局比例由 α out [ 0,1 ] 控制,设置 α in = α out =0.5 ,FFC的更新公式见式(2) (3)

Y l = Y ll + Y gl = f l ( X l )+ f gl ( X g ), (2)

Y g = Y gg + Y lg = f l ( X g )+ f lg ( X l ). (3)

其中,对于分量 Y ll , Y gl , Y lg 是使用正则卷积来捕获小尺度信息,以充分利用多尺度接受域,并将计算度复杂最高的 Y gg 称为频谱转换器 f g

2.3. 动态注意力结构控制模块

在结构控制层(1~7)中,本文提出结合动态注意力[14]的结构控制块,其流程图如图3所示。在[12]的实验中表明,AdaIN可以高效模拟风格样式,残差网络[15]可以很好模拟微调过程中的卷积变化,并且动态注意力机制可以有效提高残差网络的性能和稳定性,在学习风格图结构特征的同时有效保留原图人脸特征,有效提高了风格迁移效果的准确性。

Figure 3. Flowchart of the dynamic attention structure control module

3. 动态注意力结构控制模块流程图

首先将内容输入z和风格输入   z s 经过AdaIN,简单地对齐z的通道平均值和方差以匹配   z s 的值,并从样式输入自适应地计算仿射参数,计算公式见式(4)。

AdaIN( z, z s )=σ( z s ) zμ( z ) σ( z ) +μ( z s ) (4)

其中 μ( z ),σ( z ) 以及 μ( z s ),σ( z s ) ,分别表示内容的均值和方差、风格的均值和方差。将得到的张量 z C×H×W (CHW分别代表张量的通道数,高度维度和宽度维度)分别输入三个平行分支。其中两个负责捕捉通道维度C和空间维度HW之间的跨维度相互作用,第三个分支用于建立空间注意。将前两个分支进行拼接再通过线性层和Sigmod激活函数层动态获取权重参数,最后将得到的张量和第三分支得到的张量通过简单加求平均输出。在前两个分支中(括号中为第二个分支),分别构建了H(W)和C和之间的交互,将输入 z 沿着H(W)轴逆时针旋转90˚,得到张量形状为 W×H×C ( H×C×W )随后通过池化层,由式(5)表达,

Zpool( z )=[ MaxPoo l 0d ( z ),AvgPoo l 0d ( z ) ] (5)

将张量简化为 2×H×C ( 2×C×W ),再通过内核为7 × 7的卷积层和批量归一化层,得到张量形状为 1×H×C ( 1×C×W )。最后通过Sigmod激活函数层,并沿H(W)轴顺时针旋转90˚保持原始形状。第三个分支,输入张量的通道数通过池化层减少到两个,张量形状为( 2×H×C ),随后通过卷积层和批量归一化层,最终通过Sigmod激活函数层得到形状注意力权重( 1×H×C )。上述过程由式(6)~(9)表达:

y 1 = z 1 ^ σ( φ 1 ( z 1 * ^ ) ) ¯ (6)

y 2 = z 2 ^ σ( φ 2 ( z 2 * ^ ) ) ¯ (7)

y 3 = z ( φ 3 ( z 3 ^ ) ) (8)

y= 1 2 [ ( y 1 ( σ( ( y c ) ) )+ y 2 ( σ( ( y c ) ) ) )+ y 3 ] (9)

其中 σ 表示Sigmod激活函数, φ 1 φ 2 φ 3 代表三个分支中由卷积核为7 × 7的标准二维卷积层, y c 表示 y 1 y 2 经过拼接得到的张量, 表示Linear线性层。y可以简化为式(10):

y= 1 2 [ ( y 1 α+ y 2 ( 1α ) )+ y 3 ] (10)

其中, α 表示 y 1 y 2 拼接后通过线性层和Sigmod激活函数层动态获取的权重参数。

2.4. 损失函数

为了提高生成图像的质量,提升结构控制块和颜色变化块的准确性,在模型训练阶段,分别从结构、颜色和整体三个方面设置损失函数。其中,G表示生成器网络。

结构:训练时结构控制块获取并迁移了风格图像的中级结构风格,在此过程中,随机生成潜在代码 z 1 z 2 ,并希望 G( z 1 , z 2 ˜ ,1 )g( z l + ) 其中, g( z l + ) 是具有感知损失的风格混合函数, z 2 ˜ { z 2 ,E( g( z 2 ) ) } 中采样,l是风格混合的层数, z l + Z 是向量 z 1 和向量 z z ( 18l ) 的串联。计算公式如式(11)所示:

min G max D λ adv adv + λ perc perc ( G( z 1 , z 2 ˜ ,1 ),g( z l + ) ) (11)

其中, adv 是StyleGAN2的对抗性损失, perc 是感知损失,通过将风格混合的层数l减少, g( z l + ) 将会从 z l + 中学习和捕捉更多的结构样式风格,并且设置 λ adv =0.1, λ perc =0.5

颜色:颜色控制块获取并迁移了风格图像的颜色特征,为了进一步提升生成图像的质量,本文额外引入了一个色彩一致性损失函数 color ,计算公式由式(12)表达:

color = 1 N i=1 N ( I con [ i ] I sty [ i ] ) 2 (12)

其中, I con 表示生成图像的颜色值, I sty 表示参考图像的颜色值,N表示颜色通道数。

整体:为了生成图像整体更加和谐自然,本文进一步对模型进行微调。将 G( z, z e + ,1 ) 的风格匹配到风格图像 perc ( G( z i + , z e + ,1 ),S ) S进行重建。并且应用风格损失, z i + z e + S的风格编码,上述过程由式(13)表达。

sty = λ CX CX ( G( z, z e + ,1 ),S )+ λ FM FM ( G( z, z e + ,1 ),S ) (13)

其中, CX 为上下文损失[16] FM 为特征匹配损失[17],设置 λ cx =0.25, λ FM =0.25 。关于内容损失,本文使用了单位损失[18]和ResAttention权重矩阵的 L 2 正则化,设置 λ ID =1, λ reg =0.015 ,上述过程由式(14)表达。

con = λ ID ID ( G( z, z e + ,1 ),g( z ) )+ λ reg W 2 (14)

权重矩阵的正则化使残差特征趋近于零,保留了原始的面部结构特征,有效防止了过拟合,总损失函数的计算由式(15)表达:

min G max D λ adv adv + λ perc perc + sty + con + color (15)

3. 实验结果与分析

3.1. 数据集与实验设置

实验使用了199张WebCaricature [19] [20]数据集的图像,真实人脸使用来自FFHQ [10] [21]数据集和CelebA-HQ [22] [23]数据集的图像进行训练。所有数据集中的图像大小均调整为1024 × 1024像素进行训练。在训练过程中使用Adam优化器,设置学习率为0.0001。文中模型使用的显卡芯片为NVIDIA Ge-Force RTX 3060 Ti,训练时batch_size大小为1,迭代次数为300。

3.2. 定性评估

本文所提出的风格迁移网络根据上述数据集生成动漫风格的图像,为了评价此网络,将它与目前主流风格迁移模型进行对比,包括CariMe [23]、DualStyleGAN [12]、DCT-Net [24]和S2WAT [25],所有方法均采用了作者公开的代码,并在相同的默认参数配置下进行了训练,生成结果如图4所示。第一列和第二列分别分本次实验使用的人脸图和风格参考图。从图中可以看出,CariMe生成的图像产生较大的面部扭曲以及面部特征丢失情况,如图4(a)中红色方框所示;DCT-Net生成的图像风格迁移效果不明显不准确,仍保

Figure 4. (a) Comparison of the efficacy between our approach and existing style transfer techniques; (b) Comparison of the efficacy between our approach and existing style transfer techniques

4. (a) 本文方法和现有风格迁移方法效果对比;(b) 本文方法和现有风格迁移方法效果对比

留原图大部分特征,并且存在图像特征丢失,如图4(a)中蓝色方框所示;DualStyleGAN风格迁移风在色彩和面部结构上迁移效果均不佳,毛发等细节较粗糙,如图4(b)黄色方框所示;S2WAT生成的图像仅从颜色上进行较明显了风格迁移,并且存在图像特征丢失,如图4(b)中绿色方框所示。本文方法在风格迁移效果准确性、生成图像颜色以及与保留初始人脸特征上都取得了较好的结果,并且可以使用1024 × 1024的高分辨图像进行风格迁移。

3.3. 定量评估

本文采用了PSNR、SSIM、FID以定量评估本文模型,表1表2分别列出评估结果,指标最优数据加粗显示。其中表1将生成图与原图进行评估,表2将生成图和风格图进行评估。

Table 1. Quantitative evaluation results of our method compared to other models (original figure)

1. 本文方法与其他模型的定量评估结果(原图)

Model

PSNR

SSIM

FID

CariMe

12.912

0.603

151.75

DCT-NET

21.108

0.806

142.70

DualStyleGAN

10.213

0.404

122.66

S2WAT

20.751

0.849

58.74

Ours

13.970

0.606

113.49

Table 2. Quantitative evaluation results of our method compared to other models (style chart)

2. 本文方法与其他模型的定量评估结果(风格图)

Model

PSNR

SSIM

FID

CariMe

8.082

0.350

229.60

DCT-NET

9.946

0.436

175.35

DualStyleGAN

13.046

0.549

123.44

S2WAT

11.823

0.538

227.50

Ours

15.804

0.671

111.79

PSNR:分别计算风格化图像与原始内容图像和风格图像之间的均方误差来评估图像失真程度。PSNR值越高,表示图像质量越高。SSIM:通过比较图像亮度、对比度和结构相似性来评估图像,主要考虑图像结构信息,SSIM值越高表示两幅图像结构相似性越好。FID:通过度量生成图片与真实图片分布之间的距离,FID值越小说明生成图像的真实性越高。结果如表1表2可以看出,本文模型生成的风格图像在与原图有一定相似性的前提下,与风格图的评估中分数均达到了最优,较好平衡了内容特征和风格特征。

3.4. 消融实验

为了验证本文中所提出的方法的有效性,分别设计了(a) 归一化傅里叶卷积、(b) 动态注意力结构控制模块、(c) 色彩一致性损失函数的消融实验,从定性和定量两个方面进行有效性的验证。

消融实验定性研究结果如图5所示,从图5第三列的结果中可以看出基线模型存在面部结构不协调、风格迁移效果欠佳、人脸色彩不自然等缺点;添加(a)归一化傅里叶卷积学习到了更多风格图的特征,面部结构形变更自然并丰富了毛发等纹理细节;添加(b)残差注意力能更多的捕获原图人脸特征,同时人脸结构产生合理形变;添加(c)色彩一致性损失函数使得人脸面部色彩和风格图更加相似,并且整体更加自然。随着模块的不断加入,模型在保留内容图像的结构和细节信息的同时,更好的学习了风格图像的特征。并且结果图整体色彩更自然,更加准确的实现了风格迁移。

Figure 5. Qualitative research results of ablation experiment

5. 消融实验定性研究结果

消融实验定量研究结果如表3表4所示,其中,表3为生成图和原图进行评估,表4为生成图和风格图进行评估,指标最优数据加粗显示,由表3表4可知,完整网络模型均取得最好得分,可见本文方法各组成部分缺一不可。

Table 3. Quantitative research results of ablation experiments (original image)

3. 消融实验定量研究结果(原图)

Model

PSNR

SSIM

FID

Base

10.213

0.459

122.66

Base + a

12.666

0.540

119.75

Base + b

12.513

0.515

115.41

Base + c

11.881

0.504

118.32

Base + a + b

12.895

0.549

116.63

Base + a + b + c

13.970

0.606

113.49

Table 4. Quantitative research results of ablation experiments (style chart)

4. 消融实验定量研究结果(风格图)

Model

PSNR

SSIM

FID

Base

13.046

0.549

123.44

Base + a

13.418

0.619

114.79

Base + b

13.572

0.635

119.33

Base + c

14.571

0.641

115.48

Base + a + b

14.465

0.643

113.52

Base + a + b + c

15.804

0.671

111.79

3.4. 数据集泛化实验

综上所述,本文提出的方法在WebCaricature [19] [20]数据集下得到较好实验结果图并且优于现有风格迁移方法。此外,本方法可以广泛应用于不同风格数据集,以Cartoon [26]数据集为例,实验结果如图6所示。

Figure 6. Experimental results of cartoon [26] data set

6. Cartoon [26]数据集实验结果图

实验采用了PSNR、SSIM、FID以定量评估使用Cartoon数据集时本文模型和基线模型的生成结果,表5表6分别列出评估结果,指标最优数据加粗显示。其中表5将生成图与原图进行评估,表6将生成图和风格图进行评估。

结果如表5表6所示,使用Cartoon数据集时本文模型生成的风格图像和基线模型相比,在评估结果中均有一定提升。

Table 5. Quantitative evaluation results of our method and baseline method (original figure)

5. 本文方法与基线方法定量评估结果(原图)

Model

PSNR

SSIM

FID

DualStyleGAN

10.123

0.324

120.75

Ours

12.501

0.596

112.21

Table 6. Quantitative evaluation results of our method and baseline method (style chart)

6. 本文方法与基线方法定量评估结果(风格图)

Model

PSNR

SSIM

FID

DualStyleGAN

13.248

0.469

118.32

Ours

15.954

0.643

110.83

4. 结论

本文提出动态注意力语义特征增强的人脸风格迁移方法,该方法可以较好平衡内容特征和风格特征,生成高质量风格迁移人脸图,并且可以应用于不同风格图像的人脸风格迁移工作。本文提出归一化傅里叶卷积使模型风格迁移效果更显著,细节更丰富;提出一个新的动态注意力结构控制模块,有效提高了风格迁移效果的准确性。此外,在训练过程中,本文还引入了一个新的色彩一致性损失函数,在色彩方面提高了风格迁移的准确性。在WebCaricature数据集上对文中方法和其他4种人脸风格迁移方法进行了实验和性能对比,并且在Cartoon数据集对文中方法进行了数据集泛化实验。最终实验结果表明,文中方法可以在保留内容图像语义信息和细节特征的同时有效学习风格图像特征,并且可以广泛应用于不同风格数据集。

基金项目

上海市科学技术委员会科研计划(18060502500);上海市自然科学基金面上项目(19ZR1435900)。

参考文献

[1] Gooch, B. and Gooch, A. (2001) Non-Photorealistic Rendering. CRC Press.
[2] Strothotte, T. and Schlechtweg, S. (2002) Non-Photorealistic Computer Graphics: Modeling, Rendering, and Animation. Morgan Kaufmann.
[3] Rosin, P. and Collomosse, J. (2013) Image and Video-Based Artistic Stylisation. Springer.
[4] Efros, A.A. and Freeman, W.T. (2023) Image Quilting for Texture Synthesis and Transfer. Seminal Graphics Papers: Pushing the Boundaries, Volume 2, 571-576.
https://doi.org/10.1145/3596711.3596771
[5] IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (2017) Proceedings of the 30th IEEE Conference on Computer Vision and Pattern Recognition Workshops, CVPRW 2017, July 21, 2017-July 26, 2017, Honolulu, HI, United States.
[6] Frigo, O., Sabater, N., Delon, J. and Hellier, P. (2016) Split and Match: Example-Based Adaptive Patch Sampling for Unsupervised Style Transfer. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 553-561.
https://doi.org/10.1109/cvpr.2016.66
[7] Gatys, L., Ecker, A. and Bethge, M. (2016) A Neural Algorithm of Artistic Style. Journal of Vision, 16, 326.
https://doi.org/10.1167/16.12.326
[8] Simonyan, K. and Zisserman, A. (2014) Very Deep Convolutional Networks for Large-Scale Image Recognition.
[9] Johnson, J., Alahi, A. and Li, F.-F. (2016) Perceptual Losses for Real-Time Style Transfer and Super-Resolution. Computer VisionECCV 2016, Amsterdam, 11-14 October 2016, 694-711.
https://doi.org/10.1007/978-3-319-46475-6_43
[10] Karras, T., Laine, S. and Aila, T. (2019) A Style-Based Generator Architecture for Generative Adversarial Networks. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 4396-4405.
https://doi.org/10.1109/cvpr.2019.00453
[11] Karras, T., Laine, S., Aittala, M., Hellsten, J., Lehtinen, J. and Aila, T. (2020) Analyzing and Improving the Image Quality of Stylegan. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, 13-19 June 2020, 8107-8116.
https://doi.org/10.1109/cvpr42600.2020.00813
[12] Yang, S., Jiang, L., Liu, Z. and Loy, C.C. (2022) Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer. 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), New Orleans, 18-24 June 2022, 7683-7692.
https://doi.org/10.1109/cvpr52688.2022.00754
[13] Chi, L., Jiang, B. and Mu, Y. (2020) Fast Fourier Convolution. Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, 6-12 December 2020, 4479-4488.
[14] Misra, D., Nalamada, T., Arasanipalai, A.U. and Hou, Q. (2021) Rotate to Attend: Convolutional Triplet Attention Module. 2021 IEEE Winter Conference on Applications of Computer Vision (WACV), Waikoloa, 3-8 January 2021, 3138-3147.
https://doi.org/10.1109/wacv48630.2021.00318
[15] He, K., Zhang, X., Ren, S. and Sun, J. (2016) Deep Residual Learning for Image Recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 770-778.
https://doi.org/10.1109/cvpr.2016.90
[16] Mechrez, R., Talmi, I. and Zelnik-Manor, L. (2018) The Contextual Loss for Image Transformation with Non-Aligned Data. Computer VisionECCV 2018, Munich, 8-14 September 2018, 800-815.
https://doi.org/10.1007/978-3-030-01264-9_47
[17] Huang, X. and Belongie, S. (2017) Arbitrary Style Transfer in Real-Time with Adaptive Instance Normalization. 2017 IEEE International Conference on Computer Vision (ICCV), Venice, 22-29 October 2017, 1510-1519.
https://doi.org/10.1109/iccv.2017.167
[18] Deng, J., Guo, J., Xue, N. and Zafeiriou, S. (2019) Arcface: Additive Angular Margin Loss for Deep Face Recognition. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 4685-4694.
https://doi.org/10.1109/cvpr.2019.00482
[19] Huo, J., Gao, Y., Shi, Y. and Yin, H. (2017) Variation Robust Cross-Modal Metric Learning for Caricature Recognition. Proceedings of the on Thematic Workshops of ACM Multimedia 2017, Mountain View, 23-27 October 2017, 340-348.
https://doi.org/10.1145/3126686.3126736
[20] Huo, J., Li, W., Shi, Y., et al. (2017) Webcaricature: A Benchmark for Caricature Recognition.
[21] Karras, T., Aila, T., Laine, S., et al. (2017) Progressive Growing of Gans for Improved Quality, Stability, and Variation.
[22] Liu, Z., Luo, P., Wang, X. and Tang, X. (2015) Deep Learning Face Attributes in the Wild. 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, 7-13 December 2015, 3730-3738.
https://doi.org/10.1109/iccv.2015.425
[23] Gu, Z., Dong, C., Huo, J., Li, W. and Gao, Y. (2022) Carime: Unpaired Caricature Generation with Multiple Exaggerations. IEEE Transactions on Multimedia, 24, 2673-2686.
https://doi.org/10.1109/tmm.2021.3086722
[24] Men, Y., Yao, Y., Cui, M., Lian, Z. and Xie, X. (2022) DCT-Net: Domain-Calibrated Translation for Portrait Stylization. ACM Transactions on Graphics, 41, 1-9.
https://doi.org/10.1145/3528223.3530159
[25] Zhang, C., Xu, X., Wang, L., Dai, Z. and Yang, J. (2024) S2WAT: Image Style Transfer via Hierarchical Vision Transformer Using Strips Window Attention. Proceedings of the AAAI Conference on Artificial Intelligence, 38, 7024-7032.
https://doi.org/10.1609/aaai.v38i7.28529
[26] Pinkney, J.N.M. and Adler, D. (2020) Resolution Dependent GAN Interpolation for Controllable Image Synthesis between Domains.