基于Retinex模型的低光照图像增强算法研究
Research on Low-Light Image Enhancement Algorithm Based on Retinex Model
DOI: 10.12677/CSA.2022.124091, PDF, HTML, XML, 下载: 381  浏览: 1,053 
作者: 吕国亮, 罗 玉:广东工业大学,计算机学院,广东 广州
关键词: 低光照图像Retinex深度学习图像增强Low-Light Image Retinex Deep Learning Image Enhancement
摘要: 在弱光或者逆光环境下,光学成像设备获取的图像不仅会导致视觉体验不佳,还可能造成可见度低、颜色失真和存在测量噪声的影响,降低视觉系统后续处理的性能。为了提高图像的可见度和视觉系统的性能,本文提出了一种基于Retinex模型的端对端的低光照图像增强算法。该算法改进了基于最大熵的Retinex模型,并采用自适应动态调整曲线增强该模型分解的光照图的对比度,并融合分解出的反射图得到最终的增强图像。该算法是非常轻量级的,训练时间仅需80 s。实验结果表明,该方法与现有代表性方法相比,在视觉效果和常用的四个客观图像评估指标上,均有很强的竞争优势。
Abstract: Images acquired from optical imaging devices in a low-light or back-lit environment usually lead to poor visual experience. The poor visual visibility and the attendant contrast or color distortion may degrade the performance of the subsequent vision processing. To enhance the visibility of low-light image and mitigate the degradation of vision systems, this paper proposes an end-to-end low-light image enhancement algorithm based on the Retinex model. The proposed algorithm improves the Retinex model based on maximum entropy, and uses adaptive dynamic adjustment curve to enhance the contrast of the illumination map decomposed by the model, and then merges the decomposed reflection map to obtain the final enhanced image. The network architecture of the proposed algorithm is very lightweight, and the training time only needs 80 seconds. Experimental results show that compared with the existing representative methods, this method has a strong competitive advantage in terms of visual effects and four commonly used objective image evaluation indicators.
文章引用:吕国亮, 罗玉. 基于Retinex模型的低光照图像增强算法研究[J]. 计算机科学与应用, 2022, 12(4): 895-903. https://doi.org/10.12677/CSA.2022.124091

1. 引言

在现实生活中,图像是传递信息的重要媒介之一。在光照不足、天气和摄影设备等因素的影响下,获取的图像在视觉上会给人不好的观感体验。比如,图像中可能伴随着细节丢失、颜色失真和有效信息模糊不清等缺陷。在弱光或者背光条件下,获取的图像可能存在曝光不足。尽管可以通过增加曝光时间来获得明亮的图像,但是该方式在动态的环境下很难进行。在计算机视觉的应用中,如目标检测、跟踪和工业图像 [1] 等领域中,低光照图像不仅严重影响视觉效果,而且还使得视觉系统无法捕捉到有效信息,甚至会导致错误信息的传达。

针对上述的这些问题,国内外研究人员提出了许多方法。早期,直方图均衡化及其改进方法是一种被广泛使用的传统图像增强方法。文献 [2] 提出了一种动态的直方图均衡化方法,克服了传统直方图均衡化的缺点,对图像的对比度进行了适当的增强。由于直方图均衡化存在过分增强的问题,近年来基于Retinex理论的传统方法受到人们的青睐。文献 [3] 通过求RGB三通道中每个像素的最大强度值来构造光照图,并利用光照结构对光照图进行细化。文献 [4] 提出了一种加权变换模型,用于同时估计反射图和光照图。基于Retinex理论的传统方法主要是将图像分解为反射图和光照图,然后分别对其做一些增强处理得到最后的结果 [5] [6] [7] [8]。

随着深度学习的出现和发展,基于深度学习的方法在各个领域中都取得了不错的成果。例如图像去噪 [9]、图像去雨 [10]、图像去雾 [11] 等等。文献 [12] 提出了一种基于深度自编码的方法来识别弱光图像中的信号特征,并在高动态范围内对图像中较亮部分进行自适应加亮处理。文献 [13] 通过估计图像到光照的映射来增强曝光不足的图像,并基于各种光照约束和先验知识设计了一种新的损失函数进行网络训练。文献 [14] 采用一种高效的无监督生成对抗网络进行训练,使用输入图像提取的信息来规范未配对的数据。文献 [15] 提出了一种零参考的深度曲线估计方法,通过深度网络将图像映射为像素参数,并输入到特定曲线中进行增强。文献 [16] 提出了一种基于最大熵的Retinex模型,在模型中引入约束条件以实现自监督的学习。文献 [17] 设计了一个深度递归网络,将配对监督学习获得的先验信息与感知的视觉质量信息相联系。文献 [18] 通过Retinex模型对图像进行分解得到反射图和光照图,对反射图进行去噪操作,对光照图的亮度进行调整,得到增强后的图像。

虽然上述的这些方法在一定程度上能较好地实现低光照图像增强,但是仍存在以下的一些问题。目前,主流的方法可以分为以下两类,基于监督学习的方法和无监督学习的方法。基于监督学习的方法存在一个缺陷,一般需要大量配对的数据集进行训练。数据集的制作和收集需要大量的时间成本和人力成本。而且,对于配对数据集,很难判断获得的正常光图像是否是最优解。在无监督学习方法中,不需要大量的数据集和配对数据集的收集。但是,由于缺乏图像的先验知识,实验结果往往不太理想。因此,低光照图像增强领域仍需要更进一步的研究与探索。

针对上述存在的问题,本文提出了一种由自监督学习和无监督学习方法结合的端到端的模型,即使不需要配对的数据集,也能获得理想的效果。在自监督学习模型中,利用低光图像的先验信息,对反射图进行约束,有效地解决了无监督学习方法缺少图像先验信息的问题。在无监督学习模型中,将光照图输入到自适应光增强函数中迭代,对亮度进行动态调整,有效地恢复了光照信息和亮度。该方法通过将自监督和无监督学习方法的优势相结合,取得了良好的效果,有效地克服了上述所说的不足。

本文的主要贡献如下:

1) 提出了一种由自监督学习和无监督学习方法组成的端到端的模型;

2) 提出了一个有效的损失函数对光照图进行约束;

3) 对光照图进行动态调整,融合有用的光照信息;

4) 提出的网络是轻量级的,训练时间仅需80 s。

2. 方法

根据Retinex理论,可以假设将图像分解为反射分量R和光照分量I。原图像S则可以被定义为:

S = R I (1)

其中,S代表输入图像,R代表反射率,I代表光照, 代表元素乘法。反射率描述的是物体的一种属性,无论在何种亮度条件下都是不会改变的。光照是描述物体上的各种亮度。在低光照图像上会存在光照分布不均衡的问题。

本文提出的基本网络框架见图1所示。其中,包括两个模型,分别为分解模型和光照调整模型。分解模型是一个基于最大熵的Retinex模型,可以不依赖正常光照图像对图像进行分解得到真实的反射图。由于反射率是图像的一种性质,不会随着光照的改变而发生改变。根据这一特性,本文通过一个约束条件,将其作为先验信息并进行恢复。详情见1.1。光照调整模型是由一个自动编码器网络和3个卷积层组成的。通过光照调整网络可以将光照图信息输入到特定曲线中,映射为像素参数,并通过曲线迭代对光照图亮度进行恢复。最后,将经过处理后的反射图和光照图进行融合,得到最终增强的图像。

Figure 1. The neural network model framework of this article

图1. 本文神经网络模型框架

2.1. 分解模型

根据式(1),可以将图像分解为R和I,使用四个损失函数对其进行约束,分别为重建损失 L r c o n ,反射率损失 L R 、光照平滑度损失 L I 和光照重建损失 L i r e c

重建损失 L r c o n :为了确保分解后的图像能够重建原始图像,本文使用 L 1 范数作为重建损失进行约束,其定义如下所示:

L r c o n = S R I (2)

反射率损失:本文使用了文献 [16] 提出的反射率损失,对于R有很好的约束效果,其定义如下所示:

L R = λ 1 max c R , G , B R c F ( max c R , G , B S c ) + λ 2 R (3)

其中, F ( · ) 表示直方图均衡化操作,c代表RGB三通道, λ 1 λ 2 都是权重参数, λ 2 的取值可以控制噪声。从损失函数可以看出,要求R中三通道的最大通道应该与低光图像的最大通道相符合,且具有最大熵。因为对于低光照图像来说,最大通道对视觉的影响起着重要的作用 [16]。

照平滑度损失 L I :使用文献 [19] 提出的光照平滑度损失函数,其定义如下所示:

L I = I exp ( λ 3 R ) (4)

其中, 表示梯度,包括水平方向和垂直方向, λ 3 是一个权重参数。

光照重建损失 L i r e c :根据低光照图像的特点,本文提出了光照重建损失对I进行约束,其定义如下所示:

L i r e c = λ 4 min c R , G , B S c C ( I ) (5)

其中, C ( I ) 表示对I进行了连接操作。根据LOL数据集 [19] 中低光图的特点,要求光照图与输入图像中三通道中像素最小值接近,可求出接近真实的光照图像。在第2节实验中做了消融实验证明了该损失函数的有效性。

由上述的四个损失函数,可以得到Retinex分解模型的总损失函数 L D e c o m ,表示如下:

L D e c o m = L r e c o n + L R + λ 5 L I + L i r e c (6)

其中, λ 1 λ 2 λ 3 λ 4 λ 5 分别取值0.1、0.01、10、0.04和0.1。 λ 2 的取值参考文献 [16]。

2.2. 光照调整网络

由于在自监督模块中,缺少有效的机制对光照图进行亮度调整。因此需要一种有效的方式来提升光照图的亮度。目前,有三种有效的方法可以增强光照,分别是融合,光级指定和伽马校正。基于融合的方法缺乏光照调节的功能。基于光级指定的方法,要求训练集必须包含目标图像,限制了它的灵活性和高效性。尽管伽马矫正可以通过设置不同的伽马值达到目的,但是可能无法反映不同光照级别之间的关系。受文献 [15] 启发,本文在其基础上进行了参数修改,提出一种自动将光照图像映射到增强图像的曲线。通过曲线迭代,可以动态调整光照图亮度,并采用两个无参考损失函数来训练网络。

曲线被如下定义:

L ( I ( x ) , α ) = I ( x ) + k α I ( x ) ( 1 I ( x ) ) (7)

其中,x表示像素坐标, L ( I ( x ) , α ) 表示增强后的 I ( x ) α [ 0 , 1 ] 是一个像素参数,可以调节曝光的级别。本文仅仅将曲线应用于光照图上,因为对于光照图而言,提高曝光度和保留光照的纹理特征是主要任务。根据低光图中光照图的特点和 α 可以调节曝光度级别的优势,本文增加了一个控制曝光度的系数k,仍然能满足文献 [15] 中的要求。其中,令 k = 2

为了动态调整每条曲线的像素参数的范围,通过式(7)的迭代应用,可以如下表达:

L n ( x ) = L n 1 ( x ) + k n β n ( x ) L n 1 ( x ) ( 1 L n 1 ( x ) ) (8)

其中, β 是具有与输入图像相同大小的参数,n表示曲线迭代的次数。在实验过程中,设置 n = 8 时,可以获得令人满意的结果。

本文使用深度网络学习输入图像与曲线参数之间的映射关系,具体网络结构见图2所示。网络的输入是光照图像,输出则是一组对应曲线的参数图。网络使用了一个简单的自动编码器和三个卷积层+ReLU,最后通过Tanh激活学习得到8个像素参数。通过连续的下采样可以使网络透视大尺度的光照分布,然后上采用对局部光照信息进行重构。在网络中引入了跳跃连接,强制网络进行残差学习。并且在上采样过程中,使用邻插值操作,可以避免棋盘模式 [20]。

Figure 2. Illumination adjustment network model structure

图2. 光照调整网络模型结构

本文使用两个无参考损失函数对其曝光度和纹理特征进行恢复,分别是曝光控制损失和光照平滑度损失。

曝光控制损失 L e x p :为了提高图像的曝光水平,引用了文献 [15] 的曝光控制损失,其定义如下所示:

L e x p = 1 / M k = 1 M | Y k E | (9)

其中,M表示大小为16 × 16的非重叠局部区域的数量,Y为增强图像中局部区域的平均强度值,E表示良好的曝光水平。在 [15] 中,将E设置为良好颜色曝光水平。在实验中,令 E = 1 .

光照平滑度损失 L i s :为了保持相邻像素间的单调关系和对比度,在每个曲线的像素参数 β n 中添加了光照平滑度损失,其定义如下所示:

L i s = 1 / N n = 1 N ( | x β n | + | y β n | ) 2 (10)

其中N代表迭代次数, x y 分别代表水平和垂直方向的梯度操作。

总的损失为:

L = L e x p + L i s (11)

3. 实验

3.1. 实验细节

本文使用LOL数据集 [19] 作为训练集,其中包括500个低/正常光图。在训练过程中,只使用485张低光图进行训练,15张用于测试验证,并未用到正常光图和合成的图像。在训练过程中,将batch size设置为16,patch size设置为48 × 48,学习率设置为0.001。使用Adam随机优化来训练网络,训练次数设置为100。本文使用的是Tensorflow框架,并且整个实验过程是在NvidiaGTX1660TiGPU and Intel Core i7-9700 3.20 GHz CPU上完成的.

3.2. 评估指标

本文使用四个常用的评估指标,分别为PSNR (Peak Signal to Noise Ratio),SSIM (Structural Similarity) [21],NIQE (Natural Image Quality Evaluator) [22],LOE (Lightness Order Error) [8]。这四个评估指标可以分别在图像相似度、图像质量和图像亮度恢复上对实验结果做出评价。PSNR和SSIM评估值越大表明图像恢复的效果越好,NIQE和LOE则相反。其中,LOE指标是使用与正常光图像作为参考进行计算的。

3.3. 实验结果与比较

在实验结果中,将本文提出的方法和最近比较具有代表性的方法进行比较。见图3所示。从图中可以看出,Enlighten GAN、Zero-DCE、SRIE、NPE和DRBN在亮度上的恢复效果并不理想。Retinex-Net明显表现出颜色失真,而且和LIME、SRIE、NPE、Enlighten GAN方法一样缺少有效的去噪处理机制。KinD、Self和本文提出的方法,都具有有效的去噪处理机制,并且效果也比较理想。但相对来说,本文提出的方法在色彩上给人的视觉效果更为满意。见表1所示,计算出了各个方法在LOL数据集上的定量结果。可以看出,该方法在所有指标中都有不错的表现。其中,SSIM指标比使用监督学习方法的KinD略低,NIQE指标比使用自监督学习方法的Self略低,其他指标都优于所有的方从表1也可以看出,本文在分解模型中提出的损失函数 L i r e c 的有效性,对PSNR和SSIM两个指标有明显的提升效果。

Table 1. Quantitative results tested on the LOL test set

表1. 在LOL测试集上测试的定量结果

Figure 3. Visual comparison of the test results of various methods on the LOL test set

图3. 各种方法在LOL测试集的测试结果在视觉上的比较

4. 结束语

在本文中,针对低光照图像存在的问题和现有方法的一些不足,提出了一种基于Retinex模型的低光照图像增强算法。通过结合自监督学习和无监督学习方法的优势,在一定程度上,提高了算法的精度和性能。实验结果表明,该算法在性能上和效果上都有一定程度上的提升。但是,该算法仍会出现噪声的情况。由于该算法的网络模型是轻量型的,算法精度还能有更进一步的提高空间。因此,下一步的研究方向是将考虑如何消除图像分解过程中产生的噪声情况和提高算法精度。

参考文献

[1] Cai, J.X., Wang, R.H. and Huang, Y.Y. (2008) Application of Brightness Normalization in Image Processing. Journal of Guangdong University of Technology, 25, 65-68.
[2] Abdullah-Al-Wadud, M., Kabir, M.H., Dewan, M.A.A. and Chae, O. (2007) A dynamic Histogram Equalization for Image Contrast Enhancement. IEEE Transactions on Consumer Electronics, 53, 593-600.
https://doi.org/10.1109/TCE.2007.381734
[3] Guo, X.J., Li, Y. and Ling, H. (2016) LIME: Low-Light Image Enhancement via Illumination Map Estimation. IEEE Transactions on Image Processing, 26, 982-993.
https://doi.org/10.1109/TIP.2016.2639450
[4] Fu, X.Y., Zeng, D.L., Huang, Y., Zhang, X.-P. and Ding, X. (2016) A Weighted Variational Model for Simultaneous Reflectance and Illumination Estimation. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Vegas, 27-30 June 2016, 2782-2790.
https://doi.org/10.1109/CVPR.2016.304
[5] Zhang, X.D., Shen, P.Y., Luo, L.L., Zhang, L. and Song, J. (2012) Enhancement and Noise Reduction of Very Low Light Level Images. 21st International Conference on International Conference on Pattern Recognition, Tsukuba, 11-15 November 2012, 2034-2037.
[6] Jobson, D.J., Rahman, Z. and Woodell, G.A. (1997) A Multiscale Retinex for Bridging the Gap between Color Images and the Human Observation of Scenes. IEEE Transactions on Image Process, 6, 965-976.
https://doi.org/10.1109/83.597272
[7] Jobson, D.J., Rahman, Z. and Woodell, G.A. (1997) Properties and Per-formance of a Center/Surround Retinex. IEEE Transactions on Image Process, 6, 451-462.
https://doi.org/10.1109/83.557356
[8] Wang, S.H., Zheng, J., Hu, H.M. and Li, B. (2013) Naturalness Preserved Enhancement Algorithm for Non-Uniform Illumination Images. IEEE Transactions on Image Process, 22, 3538-3548.
https://doi.org/10.1109/TIP.2013.2261309
[9] Zhang, K., Zuo, W.M., Chen, Y.J., Meng, D. and Zhang, L. (2017) Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising. IEEE Transactions on Image Pro-cess, 26, 3142-3155.
https://doi.org/10.1109/TIP.2017.2662206
[10] Qian, R., Tan, R.T., Yang, W.H., Su, J. and Liu, J. (2018) Atten-tive Generative Adversarial Network for Raindrop Removal from Asingle Image. 2018 IEEE/CVF Conference on Com-puter Vision and Pattern Recognition, Salt Lake City, 18-23 June 2018, 2482-2491.
https://doi.org/10.1109/CVPR.2018.00263
[11] Li, R.D., Pan, J.S., Li, Z.C. and Tang, J. (2018) Single Image Dehazing via Conditional Generative Adversarial Network. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, 18-23 June 2018 8202-8211.
https://doi.org/10.1109/CVPR.2018.00856
[12] Lore, K.G., Akintayo, A. and Sarkar, S. (2017) LLNet: A Deep Autoencoder Approach to Natural Low-Light Image En-hancement. Pattern Recognition, 61, 650-662.
https://doi.org/10.1016/j.patcog.2016.06.008
[13] Wang, R.X., Zhang, Q., Fu, C.W., Shen, X., Zheng, W. -S. and Jia, J. (2019) Underexposed Photo Enhancement Using Deep Illumi-nation Estimation. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, 15-20 June 2019, 6842-6850.
https://doi.org/10.1109/CVPR.2019.00701
[14] Jiang, Y.F., Gong, X.Y., Liu, D., Cheng, Y., Fang, C., Shen, X., et al. (2021) EnlightenGAN: Deep Light Enhancement without Paired Supervision. IEEE Transac-tions Image on Processing, 30, 2340-2349.
https://doi.org/10.1109/TIP.2021.3051462
[15] Guo, C., Li, C.Y., Guo, J.C., Chen, C.L., Hou, J., Kwong, S., et al. (2020) Zero-Reference Deep Curve Estimation for Low-Light Image Enhancement. 2020 IEEE/CVF Conference on Computer Vision Pattern Recognition, Seattle, 13-19 June 2020, 1777-2020.
https://doi.org/10.1109/CVPR42600.2020.00185
[16] Zhang, Y., Di, X.G., Zhang, B. and Wang, C. (2020) Self-Supervised Image Enhancement Network: Training with Low Light Images Only. arXiv preprint arXiv:2002.11300.
[17] Yang, W.H., Wang, S.Q., Fang, Y.M., Wang, Y. and Liu, J. (2020) From Fidelity to Perceptual Quality: A Semi-Supervised Approach for Low-Light image Enhancement. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, 13-19 June 2020, 3060-3069.
https://doi.org/10.1109/CVPR42600.2020.00313
[18] Zhang, Y.H., Zhang, J.W. and Guo, X.J. (2019) Kindling the Darkness: A Practical Low-light Image Enhancer. Proceedings of the 27th ACM International Conference on Multi-media, Nice, 21-25 October 2019, 1632-1640.
https://doi.org/10.1145/3343031.3350926
[19] Chen, W., Wang, W.J., Yang, W.H. and Liu, J. (2018) Deep Reti-nex Decomposition for Low-Light Enhancement. arXiv preprint arXiv:1808.04560.
[20] Odena, A., Dumoulin, V. and Olah, C. (2016) Deconvolution and Checkerboard Artifacts. Distill, 1, Article No. e3.
https://doi.org/10.23915/distill.00003
[21] Wang, Z., Bovik, A.C., Sheikh H, R. and Simoncelli, E.P. (2004) Image Quality Assessment: From Error Visibility to Structural Similarity. IEEE Transactions on Image Process, 13, 600-612.
https://doi.org/10.1109/TIP.2003.819861
[22] Mittal, A., Soundararajan, R. and Bovik, A.C. (2013) Making a “Completely Blind” Image Quality Analyzer. IEEE Signal Process Letters, 20, 209-212.
https://doi.org/10.1109/LSP.2012.2227726