双因子张量范数正则化低秩张量填充
Double Factor Tensor Norm Regularized Low Rank Tensor Completion
DOI: 10.12677/AAM.2022.1110732, PDF, HTML, XML, 下载: 173  浏览: 313  科研立项经费支持
作者: 李鸿燕*:辽宁师范大学,辽宁 大连;姜 伟:辽宁师范大学,辽宁 大连;温州大学,浙江 温州
关键词: 低秩张量恢复张量Schatten-p范数分解Recovery Problem of Low Rank Tensors T-Schatten-p Norm Decompose
摘要: 本文提出了一种新的正则化方法,解决了低秩张量恢复问题。通过将张量Schatten-p范数分解成l2,q范数与l2,1范数的加权和,避免了求解张量Schatten-p范数需要张量奇异值分解的问题,从而降低了算法的复杂度。采用交替方向乘子法用于求解提出的模型。通过真实数据的实验,在精度和时间复杂度两个方面验证了算法的有效性。
Abstract: In this paper, a new regularization method is proposed to solve the recovery problem of low rank tensors. By decomposing the tensor Schatten-p norm into the weighted sum of l2,q -norm and l2,1 -norm, the problem of solving the tensor Schatten-p norm requiring tensor singular value decom-position is avoided, reducing the complexity of the algorithm. The alternating direction multiplier method is used to solve the proposed model. Experiments on real data demonstrate the effective-ness of the algorithm in terms of accuracy and time complexity.
文章引用:李鸿燕, 姜伟. 双因子张量范数正则化低秩张量填充[J]. 应用数学进展, 2022, 11(10): 6908-6914. https://doi.org/10.12677/AAM.2022.1110732

1. 引言

随着信息技术的迅速发展和应用,数据填充已经成为了计算机视觉、人工智能和优化领域研究的热点问题。数据可以用矩阵来表示,而张量是矩阵向更高维度的推广,可以更大程度上保留数据结构的完整性。在实际场景中,由于传感器的故障,不当的人类操作和遮挡等,计算机视觉应用中遇到的张量数据很少是完整的。由此,恢复高质量的张量数据对于一些实际应用是必不可少的。为了弥合现实与需求之间的差异,需要从受损或不完整的张量数据中恢复完整的信息。以张量为代表的多媒体数据,如彩色图像和视频,由于空间相关性、全局对称性和局部相似性等原因,通常表现出低秩性。低秩张量恢复的一个典型问题是低秩张量填充问题,即估计张量中的缺失值。这是计算机科学和数学领域的一个持续的研究挑战。广泛应用于许多现实问题,如视觉数据 [1] [2]、EEG数据 [3] [4]、高光谱数据分析 [5]、链接预测 [6]。但秩的极小化问题很难求解,根据张量定义的秩的不同,张量分解方式也有不同,如基于CP分解 [7] 的CANDECOMP/PARAFAC秩,基于Tucker分解 [8] 的Tucker秩,基于TT分解 [9] 的Tensor Train秩,以及基于张量奇异值分解 [10] 的tubal秩。因此张量秩的替代有很多种,但是很多方法有其局限性,寻找复杂度低的张量填充模型极其重要。

本文主要研究张量奇异值框架下的三阶张量填充问题,在过去的几年中,我们见证了许多方法的发展,秩最小化方法可分为两类。一种是低秩张量因子分解方法,另一种是张量核范数最小化方法。低秩张量因子分解方法旨在将给定张量分解成两个较小的张量,可以在某些损失函数下重建张量,但是却忽略了目标函数中谱正则化的使用。张量核范数最小化方法代表了研究的另一个主要分支,它的一个限制是过度惩罚奇异值的大条目,大规模张量的奇异值分解导致了较高的计算成本,研究人员试图用一些非凸范数来代替核范数。最近研究表明,利用非凸的 l p 范数来松弛 l 0 范数(向量的非零条目数) [11] [12] 和Schatten-p范数,以近似秩函数有最佳的性能 [13] [14],而不是 l 1 范数和核范数作为压缩感知和矩阵恢复问题的替代。对于张量数据,Liu等人 [15] 基于张量奇异值分解定义了张量p收缩核范数,这对于矩阵情况下的高维大规模数据来说是昂贵的。为了解决Schatten-p范数最小化的高计算成本,Kong等人 [16] 定义了低秩张量补全的张量Schatten-p拟范数( 0 < p < 1 ),并提供了一个multi-tensor-Schatten-p拟范数替代项,以转换一个非凸和非光滑的大型张量Schatten-p范数,对于 p > 0 的多个小尺度因子张量的总和,Schatten-p可以是凸的和光滑的。该方法在一定程度上降低了算法的时间复杂度。然而这些形式的一个主要缺点是,需要计算多个小尺度因子张量的奇异值,会在大数据设置中限制计算。Fan [17] 等人和Jia [18] 采用矩阵因子分解的方式将Schatten-p范数分解为 l 2 , p 范数和 l 2 , 1 范数加权和的形式,此方法不需要奇异值分解,降低了复杂度。

2. 预备知识

定义1 [19] 张量Frobenius范数:张量 X n 1 × n 2 × n 3 X ¯ 表示张量进行傅里叶变换的块对角矩阵,张量Frobenius范数为:

X F = 1 n 3 X ¯ F

定义2张量 l 2 , q 范数:设 X n 1 × n 2 × n 3 ,则张量 l 2 , q 范数的q次幂为:

X 2 , q q = 1 n 3 X ¯ 2 , q q

定义3 [20] 张量奇异值分解:设 X n 1 × n 2 × n 3 ,则 X 的奇异值分解为 X = U S V T ,其中 U U T = I V V T = I S n 2 × n 2 × n 3 是对角张量。

定义4 [16] 张量Schatten-p范数:设 X n 1 × n 2 × n 3 ,张量 X 的奇异值分解为 X = U S V T ,如果 r = rank t ( X ) ,则具有p次幂的t-Schatten-p范数定义为:

X S P p = i = 1 r S p ( i , i , 1 )

定理1 A n 1 × n 2 × n 3 B n 4 × n 2 × n 3 ,让 X = A B T ,则以下情况成立:

1) A F 2 = 1 n 3 A ¯ F 2

2) X = A B T X ¯ = A ¯ B ¯ T 互相等价。

3. 双因子张量范数的正则化低秩张量填充

3.1. 模型确立

在本节中,为提高低秩张量模型对受损图像和视频的恢复效果,引入了一种基于tubal秩的新的张量补全的方法,将张量Schatten-p范数的形式引入传统张量补全模型。

T n 1 × n 2 × n 3 ,观察元素的位置由 Ω { 0 , 1 } n 1 × n 2 × n 3 决定,其中如果观察到 T i j k ,则 Ω i j k = 1 ,否则为0。假设部分观察的数量足够大。则低tubal秩张量补全问题如下表示:

min X 1 2 P Ω ( X T ) F 2 + λ X S P p (1)

为了解决大规模张量Schatten-p范数最小化的高计算成本,提出了张量Schatten-p范数的因子分解形式。

定理2张量 X 分解为张量积形式 X = U V T U n 1 × d × n 3 V n 1 × d × n 3 r a n k t ( X ) = r d q = p 1 p ,所以有

X S P p = min X = U V T p q U 2 , q q + p V 2 , 1 (2)

应用定理2张量最优化问题模型如下:

min U , V 1 2 P Ω ( X T ) F 2 + α U 2 , q q + β V 2 , 1 s .t . X = U V T (3)

其中 α = λ p q β = λ p X n 1 × n 2 × n 3 U n 1 × d × n 3 V n 1 × d × n 3

接下来我们用ADMM法进行求解,首先我们写出上式的拉格朗日函数。

L μ ( X , U , V , Y ) = 1 2 P Ω ( X T ) F 2 + α U 2 , q q + β V 2 , 1 + Y , X U V T + μ 2 X U V T F 2 (4)

其中是 Y 拉格朗日乘子, μ 是拉格朗日惩罚参数, , 表示张量内积算子。

3.2. 模型求解

我们用交替方向乘子法对 X , U , V 进行模型求解。求解之前,我们先给出以下引理。

引理1对于问题

min X 1 2 X Z F 2 + λ X 2 , p p (5)

的解为 X = Prox ( Z ) Prox ( Z ) = Z W ,其中W是对角矩阵,它的对角元素 W i i = ϖ i Z i 2 ϖ i = arg min x 1 2 ( x Z i 2 ) 2 + | x | p

引理2 Q = [ q 1 ; q 2 ; ; q m ] 为给定矩阵, λ 是正标量,下列问题

min W 1 2 W Q F 2 + λ W 2 , 1 (6)

的解为W,W的第i行为 w i = { ( 1 λ q i ) q i , q i > λ 0

在第 τ + 1 次迭代时,更新 X τ + 1

X τ + 1 = arg min X 1 2 P Ω ( X T ) F 2 + μ 2 X U τ + 1 V τ + 1 T μ τ 1 Y τ F 2 (7)

然后,我们可以直接得到 X τ + 1 的最优解

X τ + 1 = arg min X P Ω c ( U τ + 1 V τ + 1 T μ τ 1 Y τ ) + P Ω ( T + μ τ U τ + 1 V τ + 1 T μ τ 1 Y τ + 1 1 + μ τ ) (8)

其中 P Ω c P Ω 的互补算子。

在第 τ + 1 次迭代时,更新 U τ + 1 ,我们将最小化与 L 的有关的 U ,同时保持所有其他变量不变。最小化问题变成

U τ + 1 = arg min U α U 2 , q q + Y τ , X τ U V τ T + μ 2 X τ U τ V τ T F 2 (9)

通过应用离散傅里叶变换并利用定理1的性质,(9)的解可以等价于在变换域中求解以下问题

U ¯ τ + 1 ( i ) = arg min U ¯ ( i ) α U ¯ ( i ) 2 , q q + L τ + 1 U 2 U ¯ ( i ) U ¯ τ ( i ) + ( L τ + 1 U ) 1 Q ¯ τ + 1 ( i ) F 2 (10)

其中 Q ¯ τ + 1 ( i ) = μ τ ( X ¯ τ ( i ) U ¯ τ ( i ) ( V ¯ τ ( i ) ) T + Y ¯ τ ( i ) / μ τ ) ( V ¯ τ ( i ) ) L τ + 1 U max { μ τ V ¯ τ ( i ) 2 2 , i = 1 , , n 3 }

根据引理1可求解。

在第 τ + 1 次迭代时,更新 V τ + 1 ,们将最小化与 L 的有关的 V ,同时保持所有其他变量不变。最小化问题变成

V ¯ τ + 1 ( i ) = arg min V ¯ ( i ) β V ¯ ( i ) 2 , q q + L τ + 1 V 2 V ¯ ( i ) V ¯ τ ( i ) + ( L τ + 1 V ) 1 K ¯ τ + 1 ( i ) F 2 (11)

其中 K ¯ τ + 1 ( i ) = μ τ ( ( U ¯ τ ( i ) ) T ) ( X ¯ τ ( i ) U ¯ τ + 1 ( i ) ( V ¯ τ ( i ) ) T + Y ¯ τ ( i ) / μ τ ) L τ + 1 V max { ( μ τ U ¯ τ ( i ) 2 2 ) , i = 1 , , n 3 }

根据引理2可求解。

在第 τ + 1 次迭代时,更新 Y τ + 1 μ τ + 1

Y τ + 1 = Y τ + μ τ ( X τ + 1 U τ + 1 V τ + 1 T ) (12)

μ τ + 1 = min ( ρ μ τ , μ max ) (13)

其中 ρ > 1 为常数参数, μ max 为默认最大值,可防止 μ 变得过大。

4. 实验

在本节中选取了大小为300 × 300 × 3的图片进行了实验,当自然图像转换为矩阵时,可以被视为低秩结构,张量数据也是如此。该图显示采样率为0.4,本文的方法与其他方法对比进行图像恢复的结果,以验证本文所提出算法的有效性和效率。将本文模型取p = 1/2和p = 2/3时的算法与张量的TNN和TCTF进行比较,并选择所有方法的参数,以确保它们尽可能好地执行。将结果和原始图片进行了比较。通过各种方法恢复的视觉结果如图1所示。并选择时间(TIME)、峰值信噪比(PSNR)和结构化相似性指数(SSIM)作为评估指标的结果如表1所示。PSNR和SSIM的数值越大,实验效果越好。

(a) (b) (c) (d) (e) (f)

Figure 1. The results of image in painting, where (a) is original image; (b) is observation; (c) is DFTN1/2; (d) is DFTN2/3; (e) is TCTF; (f) is TNN

图1. 不同算法的图像修复的结果,其中(a) 是原始图像;(b) 是观察图像;(c) 是DFTN1/2;(d) 是DFTN2/3;(e) 是TCTF;(f) 是TNN

Table 1. Comparison of PSNR, SSIM and computation time for image inpainting

表1. 图像修复的PSNR、SSIM和计算时间的比较

5. 结论

本文中提出了双因子张量范数正则化低秩张量填充模型,并给出了求解低秩张量补全的有效算法。在这个优化过程中,避免了大规模张量的奇异值分解。此外,我们选取p = 1/2和p = 2/3的算法模型,通过真实数据的实验,从精度和时间消耗两个方面验证了该算法的优越性。

基金项目

该文得到了辽宁省高等学校创新人才支持计划的资助。

NOTES

*通讯作者。

参考文献

[1] Liu, J., Musialski, P., Wonka, P. and Ye, J. (2009) Tensor Completion for Estimating Missing Values in Visual Data. 2009 IEEE 12th International Conference on Computer Vision (ICCV), Kyoto, 29 September-2 October 2009, 2114-2121.
https://doi.org/10.1109/ICCV.2009.5459463
[2] Liu, J., Musialski, P., Wonka, P. and Ye, J. (2013) Tensor Com-pletion for Estimating Missing Values in Visual Data. IEEE TPAMI, 35, 208-220.
https://doi.org/10.1109/TPAMI.2012.39
[3] Acar, E., Dunlavy, D.M., Kolda, T.G. and Morup, M. (2010) Scala-ble Tensor Factorizations with Missing Data. Proceedings of the SIAM International Conference on Data Mining, SDM 2010, Columbus, 29 April-1 May 2010, 701-711.
https://doi.org/10.1137/1.9781611972801.61
[4] Morup, M., Hansen, L.K., Herrmann, C.S., Parnas, J. and Arn-fred, S.M. (2006) Parallel Factor Analysis as an Exploratory Tool for Wavelet Transformed Event-Related EEG. Neu-roImage, 29, 938-947.
https://doi.org/10.1016/j.neuroimage.2005.08.005
[5] Gandy, S., Recht, B. and Yamada, I. (2011) Tensor Com-pletion and Low-n-Rank Tensor Recovery via Convex Optimization. Inverse Problem, 27, Article ID: 025010.
https://doi.org/10.1088/0266-5611/27/2/025010
[6] Yilmaz, Y.K., Cemgil, A.T. and Simsekli, U. (2011) General-ized Coupled Tensor Factorization. 25th Annual Conference on Neural Information Processing Systems 2011, Granada, 12-15 December 2011, 2151-2159.
[7] Liu, Y., Shang, F., Jiao, L., Cheng, J. and Cheng, H. (2015) Trace Norm Reg-ularized Candecomp/Parafac Decomposition with Missing Data. IEEE Transactions on Cybernetics, 45, 2437-2448.
https://doi.org/10.1109/TCYB.2014.2374695
[8] Zhou, G., Cichocki, A., Zhao, Q. and Xie, S. (2015) Efficient Nonnegative Tucker Decompositions: Algorithms and Uniqueness. IEEE Transactions on Image Processing, 24, 4990-5003.
https://doi.org/10.1109/TIP.2015.2478396
[9] Bigoni, D., Engsig-Karup, A.P. and Marzouk, Y.M. (2014) Spectral Tensor-Train Decomposition. SIAM Journal on Scientific Computing, 38, Article ID: 24052439.
https://doi.org/10.1137/15M1036919
[10] Zhang, X., Wang, D. and Zhou, Z. (2021) Robust Low-Rank Tensor Recovery with Rectification and Alignment. IEEE Transactions on Pattern Analysis and Machine Intelligence, 43, 238-255.
https://doi.org/10.1109/TPAMI.2019.2929043
[11] Wen, F., Liu, P. and Liu, Y. (2017) Robust Sparse Recovery in Impulsive Noise via “p-1” Optimization. IEEE Transactions on Signal Processing, 65, 105-118.
https://doi.org/10.1109/TSP.2016.2598316
[12] Zuo, W.M., Meng, D.Y., Zhang, L., Feng, X.C. and Zhang, D. (2013) A Generalized Iterated Shrinkage Algorithm for Non-Convex Sparse Coding. 2013 IEEE International Confer-ence on Computer Vision (ICCV), Sydney, 1-8 December 2013, 217-224.
https://doi.org/10.1109/ICCV.2013.34
[13] Nie, F., Wang, H. and Huang, H. (2015) Joint Schatten p-Norm and p-Norm Robust Matrix Completion for Missing Value Recovery. Knowledge and Information Systems, 42, 525-544.
https://doi.org/10.1007/s10115-013-0713-z
[14] Marjanovic, G. and Solo, V. (2012) On LQ Optimization and Ma-trix Completion. IEEE Transactions on Signal Processing, 60, 5714-5724.
https://doi.org/10.1109/TSP.2012.2212015
[15] Liu, C., Shan, H. and Chen, C. (2019) Tensor p-Shrinkage Nucle-ar Norm for Low-Rank Tensor Completion. Neurocomputing, 387, 255-267.
https://doi.org/10.1016/j.neucom.2020.01.009
[16] Kong, H., Xie, X. and Lin, Z. (2018) t-Schatten-p Norm for Low-Rank Tensor Recovery. IEEE Journal of Selected Topics in Signal Processing, 12, 1405-1419.
https://doi.org/10.1109/JSTSP.2018.2879185
[17] Fan, J., Ding, L., Chen, Y., et al. (2019) Factor Group-Sparse Regularization for Efficient Low-Rank Matrix Recovery.
[18] Jia, X., Feng, X., Wang, W., et al. (2018) Online Schatten Quasi-Norm Minimization for Robust Principal Component Analysis. Information Sciences, 476, 83-94.
https://doi.org/10.1016/j.ins.2018.10.003
[19] Lu, C.Y., Feng, J.S., Chen, Y.D., Liu, W., Lin, Z.C. and Yan, S.C. (2016) Tensor Robust Principal Component Analysis: Exact Recovery of Corrupted Low-Rank Tensors via Convex Op-timization. 2016 Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 27-30 June 2016, 5249-5257.
https://doi.org/10.1109/CVPR.2016.567
[20] Jolliffe, I. (2002) Principal Component Analysis. Wiley Online Li-brary, New York.