基于随机镜像下降对称交替方向乘子法的非凸优化问题研究
The Research on Nonconvex Optimization Problems Based on Stochastic Mirror Descent Symmetric Alternating Direction Method of Multipliers
摘要: 本文考虑求解一类可分的带有等式约束的非凸非光滑优化问题,其目标函数是由有限个光滑函数的加权平均与适当下半连续函数的和函数组成。交替方向乘子法能够充分利用模型的特点,是目前求解该类问题有效方法之一,但由于数据规模大,传统的交替方向乘子法效率低下。本文提出“随机镜像下降对称交替方向乘子法”,该算法引入随机方差缩减算子,通过随机选取梯度信息减少梯度计算量,从而提高算法效率;同时使用布雷格曼(Bregman)距离以保证子问题具有显示解,此外算法的对偶变量以对称形式进行更新,提高了算法的高效性和稳定性。理论结果表明,在目标函数满足半代数性质时,该算法生成的迭代序列全局收敛到原问题的驻点。同时数值实验结果验证了算法的有效性。
Abstract: This paper considers solving a class of separable nonconvex and nonsmooth optimization problems with equality constraints, where the objective function is composed of the weighted average of a finite number of smooth functions and the sum of another proper lower semicontinuous function. The Alternating Direction Method of Multipliers (ADMM) effectively leverages the characteristics of the model and is one of the popular and efficient methods for solving such problems. However, due to the large data scale, traditional ADMM suffers from low efficiency. This paper proposes the “Stochastic Mirror Descent Symmetric Alternating Direction Method of Multipliers”, introduces a stochastic variance reduction operator, which reduces the gradient computation by randomly selecting gradient information, thereby improving the efficiency of the algorithm. Additionally, it uses the Bregman distance to ensure well-posed subproblems. Furthermore, the dual variables of the algorithm are updated symmetrically, which not only extends the applicability of the algorithm but also enhances its efficiency and stability. Theoretical results show that when the objective function satisfies the semi-algebraic property, the iterative sequence generated by the algorithm globally converges to a stationary point of the original problem. Numerical experiments further validate the effectiveness of the algorithm.
文章引用:王爽. 基于随机镜像下降对称交替方向乘子法的非凸优化问题研究[J]. 应用数学进展, 2025, 14(3): 176-191. https://doi.org/10.12677/aam.2025.143104

1. 引言

本文考虑一类具有等式约束的有限和形式的非凸非光滑优化问题,在机器学习中被广泛应用,具体模型如下:

min x d 1 ,y d 2 f( x )+g( y ),s.t.Ax+By=b, (1)

其中 f: d 1 { + } 是适当下半连续函数, g( y )= 1 m i=1 m g i ( y ) 其中每个分量函数 g i : d 2 是光滑函数, A d× d 1 B d× d 2 b d

模型(1)广泛应用于统计学习[1]、计算机视觉[2]、3D CT图像重建[3]等领域。给定一组训练样本 ( a i , b i ) ,其中 i=1,,n a i 是输入数据,对应的标签 b i { 1,1 } 。此时二分类任务[4]可以表示为:

min y 1 m i=1 m g i ( y )+ λ 1 By 1 ,

其中取 g i 为非凸sigmoid函数: g i ( y )= 1 1+exp( b i a i T y ) B为给定的矩阵,引入变量x,可将问题重新表述为(1)的形式,即 min x,y f( x )+g( y ) ,s.t. xBy=0 ,其中 g( y )=1/m i=1 m g i ( y ) f( x )= λ 1 x 1

近年来,交替方向乘子法(ADMM)在非凸和随机优化中得到了广泛的研究。文献[5] [6]中,研究了非凸Bregman ADMM的收敛性。文献[7]中研究了对称形式ADMM的收敛性,然而在标准的凸性假设下并不收敛,但此文献验证了在确保其全局收敛的条件下对称ADMM比一般形式ADMM收敛更快,鉴于此,He等人在文献[8]中提出了一种严格收缩的Peaceman Rachford分裂方法。需要指出的是,这些研究均基于确定性ADMM方法,即不涉及任何随机性。在处理g为有限求和的情况时,计算全梯度 g 往往会非常耗时,导致方法效率降低。为了解决这一问题,研究者通过使用 g 的随机估计来代替全梯度的计算,从而衍生出多个随机版本的ADMM。随着大规模优化问题的出现随机梯度算法如SAGA [9]、SVRG [10]和SARAH [11]等推动了ADMM的进一步发展。在文献[12]中,作者将ADMM与SAG梯度估计算子进行结合,ADMM与SVRG的结合可参考文献[13] [14]等。所有这些研究均在凸优化框架下对随机ADMM进行了分析。在[15]中,研究者探讨了使用三种不同梯度估计(SGD、SVRG、SAGA)的随机ADMM方法来解决非凸非光滑优化问题,随之,文章[16]中提出了框架形式的随机ADMM算法,对大规模非凸优化问题进行研究。

本文提出了“随机镜像下降对称交替方向乘子法(SMD-SADMM)”。首先,该算法通过引入随机方差缩减算子,通过随机选择梯度信息,有效地减少了计算全梯度的需求,特别对于处理大规模数据的优化问题,显著提高了算法的运行效率;其次,算法利用布雷格曼(Bregman)距离定义的邻近项取代二范数,这确保了子问题具有显示解,进而提高了算法的效率;最后,SMD-SADMM采用了对偶变量的对称更新策略,有助于提升算法的收敛性,使得算法在处理非凸优化问题时表现出了更好的稳定性,从而为求解大规模非凸优化问题提供了一种稳健的解决方案。总体来说,SMD-SADMM算法结合Bregman距离定义的邻近项、对偶变量以对称形式进行更新的迭代形式、方差缩减的随机技巧为解决现代大规模非凸优化问题提供了有力的工具。

2. 基本定义

2.1. 布雷格曼距离与勒让德函数

定义2.1 [17] Ω d 为一个非空开凸集,函数 h: d { + } 如果满足以下性质:

(i) h是适当下半连续凸函数,且 dom h Ω ¯

(ii) h intdomh=Ω 上是连续可微的,且 dom h=Ω ,则称h为勒让德函数。

定义2.2 [18]h为勒让德函数,定义与h相关的布雷格曼距离为 D h :domh×intdomh +

D h ( x,y )=h( x )h( y ) h( y ),xy . .

2.2. Kurdyka-Lojasiewicz (KL)性质

定义2.4 [19] f: d { + } 是一个适当下半连续函数,如果存在 η( 0,+ ] x ¯ domf 的邻域U φ:[ 0,η ) + 使得

(i) φ( 0 )=0 φ ( 0,η ) 上是连续可微函数使得 φ >0

(ii) 对于任意 xU[ x d :f( x ¯ )<f( x )<f( x ¯ )+η ] ,下列KL不等式成立:

φ ( f( x )f( x ¯ ) )dist( 0,f( x ) )1 ,

则称函数f称为在 x ¯ domf 上具有KL性质。

注释2.5 [19] 如下为定义2.4的相关说明:

(i) 定义2.4中的函数 φ 称为f的去奇异化函数;

(ii) 在 domf 的每个点上满足KL不等式的适当下半连续函数称为KL函数;

(iii) 半代数函数满足KL不等式,其去奇异化函数的形式为 φ( s )=a s 1θ ,其中 a>0 θ[ 0,1 ) 称为该函数的KL指数。

3. 随机镜像下降对称交替方向乘子法及其收敛性

在本节中,我们首先给出随机镜像下降对称交替方向乘子法,然后对其进行收敛性分析,首先我们给出以下假设。

假设3.1

(i) inf{ f( x )+g( y ):x d 1 ,y d 2 }= Φ _ >

(ii) f: d 1 {+} 是适当的下半连续函数,且 g: d 2 是一个 L g 光滑函数,矩阵B是列满秩的;

(iii) h在任意有界区间上是 μ h 强凸的。

3.1. 随机镜像下降对称交替方向乘子法算法

算法1随机镜像下降对称交替方向乘子法

1. 输入 β> 2r+ L g + V ϒ ρ + V 1 +2+ 8 s+1 V ϒ ρ + V 1 ( 2 s+1 1 ) λ min ( B T B ) s,r( 0,1 ),μ>0 ,并初始化 x 0 , y 0 , λ 0

2. 当初始条件满足执行:

x k+1 =arg min x { f( x )+ ( λ k ) T ( Ax+B y k b )+ β 2 Ax+B y k b 2 +μ D h ( x, x k ) }, (2)

λ k+ 1 2 = λ k +sβ( A x k+1 +B y k b ), (3)

y k+1 =arg min y { ˜ g( y k ),y y k + ( λ k+ 1 2 ) T ( A x k+1 +Byb )+ β 2 A x k+1 +Byb 2 + r 2 y y k 2 }, (4)

λ k+1 = λ k+ 1 2 +β( A x k+1 +B y k+1 b ), (5)

3. 当终止条件满足,执行 x K+1 y K+1

注: ˜ 是具有方差缩减的随机梯度估计算子(见定义3.1)。

定义3.1 方差缩减的随机梯度估计算子

E k 为算法1中随机变量前k次迭代的条件期望,对于常数 V 1 , V 2 , V ϒ 0 以及 ρ( 0,1 ] ,若下述条件成立,则称梯度估计 ˜ 为方差缩减随机梯度估计算子:

(1) (均方误差有界)存在随机变量序列 { ϒ k } k1 以及随机向量 v k i ,其中 ϒ k = i=1 s v k i 2 使得

E k ˜ g( y k )g( y k ) 2 ϒ k + V 1 ( E k y k+1 y k 2 + y k y k1 2 )

以及存在 Γ k = i=1 s v k i 使得 E k ˜ g( y k )g( y k ) Γ k + V 2 ( E k y k+1 y k + y k y k1 ) 成立。

(2) (几何迭代) E k ϒ k+1 ( 1ρ ) ϒ k + V ϒ ( E k y k+1 y k 2 + y k y k1 2 )

(3) (估计量的收敛性)如果 { y k } kN 满足 lim k+ E y k y k1 2 =0 则有 E ϒ k 0 E Γ k 0

注释3.2 SAGA与SARAH方差缩减随机梯度估计参数取值情况[16] [20]

SAGA梯度估计作为一个有效的方差缩减随机梯度估计算子,其表达式如下:

˜ SAGA g( y k )= 1 b j B k ( g j ( y k ) g j ( φ k j ) ) + 1 m i=1 m g i ( φ k i ),

其中Bk是从所有包含b个元素的子集中均匀随机选择的小批量集合,子集的元素包含在 { 1,2,,m } 中。根据定义3.1计算可知SAGA相应参数为 V 1 = V 2 =0 ρ= b 2m 以及 V ϒ =( 1+ 2m b ) L g 2

另一个常见的随机梯度估计为SARAH随机梯度估计,

˜ SARAH g( y k )={ g( y k ), 1 p , 1 b j B k ( g j ( y k ) g j ( y k1 ) ) + ˜ SARAH g( y k1 ), .

SARAH梯度估计相应参数取值为 V 1 = V ϒ = L g 2 V 2 = L g ρ= 1 p

3.2. 随机镜像下降对称交替方向乘子法算法的全局收敛性分析

定理3.1 [21] [上鞅收敛定理] 设 E k 为随机镜像下降对称交替方向乘子法算法前k次迭代的条件期望。设 b { U k } { V k } 分别为取值于 [ b,+ ) [ 0,+ ) 的随机变量序列,且 U k V k 仅依赖于算法的前k次迭代。若对于所有 k

E k U k+1 + V k U k

成立,则几乎必然有 k=0 + V k <+ ,并且 U k 几乎必然收敛到 [ b,+ ) 上的一个随机变量。

定义第 k 次迭代的李雅普诺夫函数如下:

Ψ k ( x k , y k , λ k , x k1 , y k1 ) = Φ k ( x k , y k , λ k , x k1 , y k1 )+ 1 ρ ( t 1 2 + 8 ( s+1 )β λ min ( B T B ) ) ϒ k+1 + 4 ( s+1 )β λ min ( B T B ) ˜ g( y k )g( y k ) 2 ,

其中 ϒ k , V 1 , V 2 , V r ,ρ 是方差缩减梯度估计算子相应的随机变量和常数(参考定义3.1),李雅普诺夫函数中具体参数以及函数表示如下:

Φ k ( x k , y k , λ k , x k1 , y k1 )= β ( x k , y k , λ k )+ μ μ h 2 x k x k1 2 +G y k y k1 2 , t 1 = 1 V ϒ ρ + V 1 ,

G= 4 r 2 λ min ( B T B )( s+1 )β L g 2 +r 1 2 t 1 +( 1 2 β+ β s+1 ) λ min ( B T B ) ( t 1 2 + 8 λ min ( B T B )( s+1 )β )( V ϒ ρ + V 1 ),

β ( x k , y k , λ k )=f( x k )+g( y k )+ ( λ k ) T ( A x k +B y k b )+ β 2 A x k +B y k b 2 .

为了便于叙述将李雅普诺夫函数 Ψ k ( x k , y k , λ k , x k1 , y k1 ) 记为 Ψ k Φ k ( x k , y k , λ k , x k1 , y k1 ) 记为 Φ( X k ) 并将 { ( x k , y k , λ k , x k1 , y k1 ) } kN 记为 { X k } kN

定理3.2 设假设3.1成立。令 { ( x k , y k , λ k ) } k 是由随机镜像下降对称交替方向乘子法算法生成的序列,并假设该序列是有界的。那么:

(i) 序列 { Ψ k } k 在期望意义下是单调非增的。特别地,对于任意 k t 1 >0

η ˜ =G 4 ( L g +r ) 2 λ min ( B T B )( s+1 )β ( t 1 2 + 8 λ min ( B T B )( s+1 )β )( V ϒ ρ + V 1 )>0,

成立:

E k Ψ k+1 Ψ k η ˜ E k y k y k1 2 + μ μ h 2 x k x k1 2

(ii) 迭代点间距平方的期望是可和的,即, k=0 + E x k x k1 2 <+ k=0 + E y k y k1 2 <+ 。此外,当 k+ 时,有 E x k x k1 0 E y k y k1 0 E λ k λ k1 0

(iii) k=1 + x k x k1 2 <+, x k x k1 0, k=1 + y k y k1 2 <+, y k y k1 0 成立,并有 Φ * 取值于 [ Φ _ , ) 使得 lim k+ E Ψ k = lim k+ EΦ( X k )= Φ *

证明:(i) 结合迭代(3)和(5),有:

A x k+1 +B y k b= 1 ( s+1 )β ( λ k+1 λ k ) 1 s+1 ( B y k+1 B y k ), (6)

A x k+1 +B y k+1 b= 1 ( s+1 )β ( λ k+1 λ k )+ s s+1 ( B y k+1 B y k ). (7)

基于迭代(2),

β ( x k+1 , y k , λ k )+μ D h ( x k+1 , x k ) β ( x k+1 , y k+1 , λ k ). (8)

g L g 梯度利普希茨连续的,从而有

g( y k+1 )g( y k )+ g( y k ), y k+1 y k + L g 2 y k y k+1 2 =g( y k )+ g( y k ) ˜ g( y k ), y k+1 y k + ˜ g( y k ), y k+1 y k + L g 2 y k y k+1 2 . (9)

显然,

β ( x k+1 , y k , λ k )= β ( x k+1 , y k+1 , λ k )+g( y k )g( y k+1 )+ λ k ,B y k B y k+1 + β 2 A x k+1 +B y k b 2 β 2 A x k+1 +B y k+1 b 2 ,

结合公式(9),可以得到:

β ( x k+1 , y k , λ k ) β ( x k+1 , y k+1 , λ k )+ g( y k ) ˜ g( y k ), y k y k+1 L g 2 y k y k+1 2 + ˜ g( y k ), y k y k+1 + λ k ,B y k B y k+1 + β 2 A x k+1 +B y k b 2 β 2 A x k+1 +B y k+1 b 2 . (10)

利用迭代(4)的最优性条件:

0 ˜ g( y k )+ B T λ k+ 1 2 +β B T ( A x k+1 +B y k+1 b )+r( y k+1 y k ),

可得

˜ g( y k ), y k y k+1 = λ k+ 1 2 ,B y k+1 B y k +r y k+1 y k 2 +β A x k+1 +B y k+1 b,B y k+1 B y k , (11)

代入公式(10),

β ( x k+1 , y k , λ k ) β ( x k+1 , y k+1 , λ k )+ g( y k ) ˜ g( y k ), y k y k+1 +( r L g 2 ) y k y k+1 2 + B y k B y k+1 , λ k λ k+ 1 2 +β( A x k+1 b )+ β 2 ( B y k+1 +B y k )β( A x k+1 +B y k+1 b ) ,

同时由于

β ( x k+1 , y k+1 , λ k )= β ( x k+1 , y k+1 , λ k+1 )+ λ k λ k+1 ,A x k+1 +B y k+1 b . (12)

将公式(8) (11) (12)相加,并由h μ h 强凸可得:

β ( x k+1 , y k+1 , λ k+1 ) β ( x k , y k , λ k ) μ μ h 2 x k+1 x k + g( y k ) ˜ g( y k ), y k+1 y k +( L g 2 r ) y k+1 y k 2 + 1 ( s+1 )β λ k+1 λ k 2 +( β 2 β s+1 ) B y k+1 B y k 2 . (13)

将迭代(5)代入迭代(4),并取一阶最优性条件得到 0= ˜ g( y k )+ B T λ k+1 +r( y k+1 y k )

由此可得

λ k+1 λ k 1 λ min ( B T B ) B T ( λ k+1 λ k ) 1 λ min ( B T B ) [ ˜ g( y k1 )g( y k1 ) + g( y k1 )g( y k ) + g( y k ) ˜ g( y k ) +r y k y k1 + r y k+1 y k ]. (14)

利用g L g 光滑的,从而有:

λ k+1 λ k 2 4 λ min ( B T B ) [ ˜ g( y k1 )g( y k1 ) 2 + ˜ g( y k )g( y k ) 2 + ( L g +r ) 2 y k y k1 2 + r 2 y k y k+1 2 ]. (15)

将公式(15)代入公式(13)并结合对于任意 t 1 >0 ,可得

β ( x k+1 , y k+1 , λ k+1 ) β ( x k , y k , λ k ) μ μ h 2 x k+1 x k 2 + G 1 y k+1 y k 2 + 4 ( L g +r ) 2 λ min ( B T B )( s+1 )β y k y k1 2 +[ t 1 2 + 4 λ min ( B T B )( s+1 )β ] ˜ g( y k )g( y k ) 2 + 4 λ min ( B T B )( s+1 )β ˜ g( y k1 )g( y k1 ) 2 . (16)

其中, G 1 = 4 r 2 λ min ( B T B )( s+1 )β + L g 2 r+ 1 2 t 1 ( 1 2 β+ β s+1 ) λ min ( B T B ) 。结合定义3.1中的均方误差有界性:

E k β ( x k+1 , y k+1 , λ k+1 )+ 4 λ min ( B T B )( s+1 )β E k ˜ g( y k )g( y k ) 2 + μ μ h 2 E k x k+1 x k 2 +G E k y k+1 y k 2 + 1 ρ ( t 1 2 + 8 λ min ( B T B )( s+1 )β ) E k ϒ k+1 β ( x k , y k , λ k )+ 4 λ min ( B T B )( s+1 )β ˜ g( y k1 )g( y k1 ) 2 + μ μ h 2 x k x k1 2 +G y k y k1 2 + 1 ρ ( t 1 2 + 8 λ min ( B T B )( s+1 )β ) ϒ k μ μ h 2 x k x k1 2 [ G 4 ( L g +r ) 2 λ min ( B T B )( s+1 )β ( t 1 2 + 8 λ min ( B T B )( s+1 )β )( V ϒ ρ + V 1 ) ] y k y k1 2 , (17)

结合

Ψ k = β ( x k , y k , λ k )+ 4 λ min ( B T B )( s+1 )β ˜ g( y k1 )g( y k1 ) 2 + μ μ h 2 x k x k1 2 +G y k y k1 2 + 1 ρ ( t 1 2 + 8 λ min ( B T B )( s+1 )β ) ϒ k , (18)

有以下不等式成立:

E k [ Ψ k+1 + η ˜ y k y k1 2 + μ μ h 2 x k x k1 2 ] Ψ k . (19)

(ii) 对公式(19)两边取期望,得到

E Ψ k+1 E Ψ k η ˜ E y k y k1 2 μ μ h 2 E x k x k1 2 .

将上述不等式中k从零到T − 1求和,由于 Φ _ =inf{ f( x )+g( y ) }> ,从而有 Φ _ =inf{ Φ( X k ) }>

μ μ h 2 k=0 T1 E x k x k1 2 + η ˜ k=0 T1 E y k y k1 2 E Ψ 0 E Ψ T Ψ 0 Φ _ <+,

T+ ,可得序列 E x k x k+1 2 E y k y k1 2 均为可和的,且

lim k E x k x k1 =0, lim k E y k y k1 =0.

从关系式(15)与方差缩减算子中的均方误差有界性可得

E λ k+1 λ k 2 4 λ min ( B T B ) E [ ϒ k1 +2 V 1 y k y k1 2 + V 1 y k1 y k2 2 + V 1 y k+1 y k 2 + ( L g +r ) 2 y k y k1 2 + r 2 y k y k+1 2 ].

因此有 lim k E λ k λ k1 =0

(iii) 由(i)可得

E k [ Ψ k+1 + η ˜ y k y k1 2 + μ μ h 2 x k x k1 2 ] Ψ k .

上鞅收敛定理表明 k=1 + x k x k1 2 <+, k=1 + y k y k1 2 <+ 几乎必然成立。因此 lim k x k x k1 =0, lim k y k y k1 =0 几乎必然成立。上鞅收敛定理还保证了 Ψ k 几乎必然收敛到一个有限值 Φ * ,并有 lim k E Ψ k = lim k EΦ( X k )= Φ * [ Φ _ , ) 成立。 £

命题3.3 设假设3.1成立。令 { ( x k , y k , λ k ) } k 为随机镜像下降对称交替方向乘子法算法生成的序列,且假设该序列有界。对于所有 k0 ,定义如下向量:

ζ x k = A T ( λ k λ k1 )+β A T ( B y k B y k1 )+μ μ h ( x k x k1 )μ( h( x k )h( x k1 ) ), (20)

ζ y k =( g( y k ) ˜ g( y k ) )( B T λ k+1 B T λ k )+ 1 s+1 ( B T λ k B T λ k1 ) + ( s+1 )ββ s+1 ( B T B y k B T B y k1 )+2G( y k y k1 )r( y k+1 y k ), (21)

ζ λ k = 1 ( s+1 )β ( λ k λ k1 )+ s s+1 ( B y k B y k1 ), ζ x k =μ μ h ( x k x k1 ), ζ y k =2G( y k y k1 ), (22)

对于 ( ζ x k , ζ y k , ζ λ k , ζ x k , ζ y k ) ,有以下性质成立:

(i) ( ζ x k , ζ y k , ζ λ k , ζ x k , ζ y k )Φ( X k ) ,存在正常数P,使得对于任意 k1 ,有:

E k ( ζ x k , ζ y k , ζ λ k , ζ x k , ζ y k ) P E k ( y k+1 y k + y k y k1 + λ k+1 λ k + λ k λ k1 + x k x k1 )+ Γ k ,

(ii) Edist( 0,Φ( X k ) )0

证明:(i) 由 Φ 的定义,对于任意 k1 有:

x Φ k =f( x k )+ A T λ k +β A T ( A x k +B y k b )+μ μ h ( x k x k1 ), (23)

y Φ k =g( y k )+ B T λ k +β B T ( A x k +B y k b )+2G( y k y k1 ), (24)

λ Φ k =A x k +B y k b, x Φ k =μ μ h ( x k x k1 ), y Φ k =2G( y k y k1 ). (25)

由(2)的一阶最优性条件可得 A T λ k1 β A T ( A x k +B y k1 b )μ( h( x k )h( x k1 ) )f( x k ) ,将其代入公式(23)可得 ζ x k x Φ( X k ) 。同样,结合 0= ˜ g( y k )+ B T λ k+1 +r( y k+1 y k ) 和公式,可以得到 ζ y k y Φ( X k ) 。通过(6),也可以得到 ζ λ k λ Φ( X k ) ,从而有 ( ζ x k , ζ y k , ζ λ k , ζ x k , ζ y k )Φ( X k )

根据h L h 光滑的,结合定义3.1中的均方误差(MSE)有界以及等式(23)~(25),我们可以推导出以下式子成立:

E k ζ x k , ζ y k , ζ λ k , ζ x k , ζ y k P E k ( λ k+1 λ k + λ k λ k1 + y k+1 y k + y k y k1 + x k x k1 ),

其中

P=max{ B ,2μ μ h + μ h L h , V 2 +r, A + B s+1 + 1 ( s+1 )β , β A T B + sβ s+1 B T B +4 G + s s+1 B + V 2 }.

(ii) 由于

E k ζ x k , ζ y k , ζ λ k , ζ x k , ζ y k P E k ( λ k+1 λ k + λ k λ k1 + y k+1 y k + y k y k1 + x k x k1 ).

由引理3.2,得 E x k x k1 0 E y k y k1 0 E λ k λ k1 0 ,因此结论成立。 £

记由随机镜像下降对称交替方向乘子法算法生成的序列 { X k } k 的极限点集合为 Ω * ,即:

Ω * ={ X * : { k q } q ,q+ X k q X * }

定理3.4 设假设3.1成立。令 { ( x k , y k , λ k ) } k 为随机镜像下降对称交替方向乘子法算法生成的序列,且假设该序列有界。则以下结论成立:

(i) Ω * 非空,几乎必然是紧的且连通的。此外, dist( X k , Ω * )0 几乎必然成立;

(ii) 对于所有 X * Ω * ,有,并且 EΦ( X * )= Φ *

证明:(i) 详细证明参考文献[22]

(ii) 取任意点 X * Ω * ,存在子序列 { X k q } q 满足:当 q+ 时, X k q X * 。由于f是适当下半连续函数,因此:

liminf q+ f( x k q )f( x * ).

x= x * 代入迭代公式(2),结合等式(6)和 λ k q λ k q 1 0 ,可以得到 A x k q +B y k q 1 b0 。令 k= k q 1 ,并取极限 q+ 可得 limsup q+ f( x k q )f( x * ) 。结合 liminf q+ f( x k q )f( x * ) 可得当 q+ f( x k q )f( x * ) 。又g是连续函数,得 lim q+ Φ( X k q )=Φ( X * ) 。由命题3.3和 Φ 的闭性,可以得到:

最后,证明 Φ Ω * 上具有常数期望值。取任意点 X * Ω * ,存在子序列 { X k q } q 满足当 q+ X k q X * 。根据引理3.2, lim k+ EΦ( X k )= Φ * ,这意味着 lim q+ EΦ( X k q )= Φ * 。结合 q+ Φ( X k q )Φ( X * ) ,对于任意 X * Ω * ,有 EΦ( X * )= Φ * £

定理3.5 设假设3.1成立。令 {( x k , y k , λ k )} k 为随机镜像下降对称交替方向乘子法算法生成的序列,且假设该序列有界。设 Φ 为一个半代数函数,则存在常数 k 1 a>0 θ[ 0,1 ) 和一个去奇异化函数 ϕ 0 =a r 1θ 使得以下不等式成立:

ϕ 0 ( E[ Φ( X k ) Φ k * ] )Edist( 0,Φ( X k ) )1,k k 1 ,

其中 Φ k * 是一个单调递增的序列,收敛于某个 EΦ( X * ) ,其中 X * Ω *

定理3.6 设假设3.1成立。令 { ( x k , y k , λ k ) } k 为随机镜像下降对称交替方向乘子法算法生成的序列,且假设该序列有界。设 Φ 为一个半代数函数,则有

k=0 + E x k+1 x k <+, k=0 + E y k+1 y k <+, k=l + E λ k λ k1 <+.

证明:根据引理3.2, lim k+ E Ψ k = lim k+ EΦ( X k )= Φ * 成立。因此,我们需要考虑以下两种情况。

第一种情况,即存在整数 k ¯ ,使得对于任意 k k ¯ ,有 E Ψ k = Φ * 成立。因此,对于任意 k k ¯ ,由詹森不等式可得

E x k x k+1 E x k x k+1 2 =0,E y k y k+1 E y k y k+1 2 =0,E λ k λ k+1 E λ k λ k+1 2 =0.

此时结论自然成立。

另一种情况,即对于所有 k0 ,都有 E Ψ k > Φ * 。命题3.3给出了的一个上界:

(26)

其中,最后一个不等式是由 E Γ k =E i=1 s v k i E s i=1 s v k i 2 sE ϒ k 得到的。下面基于 ϒ k1 0 V ϒ 0 ,以及 ρ( 0,1 ] 1ρ =1 ρ 2 k=2 + ( 2k3 )!! ( 2k )!! ρ k 以及估计量的几何衰减性质对 E ϒ k 进行更精确的估计,

E ϒ k ( 1ρ )E ϒ k1 + V ϒ E[ y k y k1 2 + y k1 y k2 2 ] ( 1 ρ 2 ) E ϒ k1 + V ϒ E y k y k1 2 + V ϒ E y k1 y k2 2 ,

进而 E ϒ k 2 ρ ( E ϒ k E ϒ k+1 )+ 2 V ϒ ρ ( E y k+1 y k 2 + E y k y k1 2 )

将公式 E ϒ k 2 ρ ( E ϒ k E ϒ k+1 )+ 2 V ϒ ρ ( E y k+1 y k 2 + E y k y k1 2 ) 代入公式(32)中,得到:

K 1 =P+ 2 s V ϒ ρ , C k = 2 s ρ ( E ϒ k E ϒ k+1 )+ K 1 ( E y k+1 y k 2 + E y k y k1 2 + E λ k+1 λ k 2 + E λ k λ k1 2 + E x k x k1 2 ),

可得存在一个正常数 P 1 ,使得对于任意 k k 0

C k P 1 ( E ϒ k E ϒ k+1 )+ P 1 E y k+1 y k 2  + P 1 E x k+1 y k+1 2 2 P 1 E λ k λ k1 2 ,

此外可以得到

根据引理3.5,对于任意 k k 1 ϕ 0 ( E[ Φ( X k ) Φ k * ] ) C k 1 ,根据 C k 的定义有:

C k c 1 ( E ϒ k + E y k+1 y k 2 + E y k y k1 2 + E λ k+1 λ k 2 + E λ k λ k1 2 + E x k x k1 2 ) c 1 ( E ϒ k + E y k+1 y k 2 + E y k y k1 2 ),

其中 c 1 >0 。结合 E x k x k1 2 0 E y k y k1 2 0 E λ k λ k1 2 0 θ[ 0,1 ) ,可知存在正常数 k 2 和正常数 c 2 , c 3 使得对于所有 k k 2 ,有:

( E[ 4 ( s+1 )β λ min ˜ g( y k )g( y k ) 2 + 1 ρ ( t 1 2 + 8 ( s+1 )β λ min ( B T B ) ) ϒ k+1 ] ) θ ( E[ 4 ( s+1 )β λ min ϒ k + 4 V 1 ( s+1 )β λ min ( y k+1 y k 2 + y k y k1 2 )+ 1 ρ ( t 1 2 + 8 ( s+1 )β λ min ( B T B ) ) ϒ k+1 ] ) θ ( E [ ( 4 ( s+1 )β λ min + 1ρ ρ ( t 1 2 + 8 ( s+1 )β λ min ( B T B ) ) ) ϒ k + ( 4 V 1 ( s+1 )β λ min + V ϒ ρ ( t 1 2 + 8 ( s+1 )β λ min ( B T B ) ) )( y k+1 y k 2 + y k y k1 2 ) ] ) θ c 2 ( E Υ k + E y k y k1 2 + E y k+1 y k 2 ) θ c 2 c 3 c 1 θ C k ,

定义 C ¯ k = 4 ( s+1 )β λ min ˜ g( y k )g( y k ) 2 + 1 ρ ( t 1 2 + 8 ( s+1 )β λ min ( B T B ) ) ϒ k+1 ,由于 ( E C ¯ k ) θ C k 小,从而存在常数 c ^ < c 2 c 3 c 1 θ 使得 c ^ a( 1θ ) C k ( E[ Φ( X k ) Φ k * ] ) θ + ( E C ¯ k ) θ 1 ,已知对任意的 a,b>0 θ[ 0,1 ) ,有 ( a+b ) θ a θ + b θ 成立,且 c ^ a( 1θ ) C k ( E[ Ψ k Φ k * ] ) θ = c ^ a( 1θ ) C k ( E[ Φ( X k ) Φ k * + C ¯ k ] ) θ c ^ a( 1θ ) C k ( E[ Φ( X k ) Φ k * ] ) θ + ( E C ¯ k ) θ 1 ,因此存在 ϕ= c ^ a r 1θ l=max{ k 0 , k 1 , k 2 } ,使得

ϕ ( E[ Ψ k Φ k * ] ) C k 1,kl. (27)

结合 ϕ 的凹性,以及 Φ k * 是单调递增的,

ϕ( E[ Ψ k Φ k * ] )ϕ( E[ Ψ k+1 Φ k+1 * ] ) ϕ ( E[ Ψ k Φ k * ] )E[ Ψ k Φ k * + Φ k+1 * Ψ k+1 ] ϕ ( E[ Ψ k Φ k * ] )E[ Ψ k Ψ k+1 ], (28)

Δ p,q =ϕ( E[ Ψ p Φ p * ] )ϕ( E[ Ψ q Φ q * ] ) ,结合公式(19) (27)和(28),

Δ k,k+1 C k η ˜ E y k y k1 2 + μ μ h 2 E x k x k1 2   K ˜ ( E y k y k1 2 +E x k x k1 2 ),

其中 K ˜ =min{ η ˜ , μ μ h 2 } 。因此,

2 E x k x k1 2 +E y k y k1 2 2 1 K ˜ Δ k,k+1 C k C k 2 P 1 + 2 P 1 Δ k,k+1 K ˜ . (29)

将不等式(29)中klK进行求和得到:

2 k=l K E x k x k1 2 +2 k=l K E y k y k1 2 k=l K ( 1 2 E y k+1 y k 2 + 1 2 E x k+1 x k 2 E λ k λ k1 2 ) + 1 2 ( E ϒ l E ϒ K+1 )+ 2 P 1 K ˜ ϕ( E[ Ψ l Φ l * ] ).

因此,

k=l K E x k x k1 + k=l K E y k y k1 + k=l K E λ k λ k1 k=l K E x k x k1 2 + k=l K E y k y k1 2 + k=l K E λ k λ k1 2 1 2 E y K+1 y K 2 1 2 E y l y l1 2 + 1 2 E x K+1 x K 2 1 2 E x l x l1 2 + 1 2 ( E ϒ l E ϒ K+1 )+ 2 P 1 K ˜ ϕ( E[ Ψ l Φ l * ] ), (30)

公式(30)中第一个不等式由詹森不等式得出。令 K+

k=l + E x k x k1 <+, k=l + E y k y k1 <+, k=l + E λ k λ k1 <+. £

4. 数值实验

本节中,我们研究算法1在图引导融合lasso问题上的数值性能。数值实验在MATLAB R2017a环境下,配置Intel Core i7-13700H处理器(2.40 GHz)和16 GB内存的64位电脑上进行。确定性对称ADMM记为SADMM,并分别将使用SGD、SARAH、SAGA、SVRG方差缩减随机梯度估计算子的SADMM分别记为SGD-SADMM、SARAH-SADMM、SAGA-SADMM、SVRG-SADMM。

给定一组训练样本 { ( a i , b i ) } i=1 n ,其中 a i m b i { 1,+1 } i{ 1,2,,n } ,图引导的融合lasso如下: min y 1 n i=1 n g i ( y )+ λ 1 By 1 ,其中: g i ( y )= 1 1+exp( b i a i y ) 是非凸非光滑的sigmoid损失函数, λ 1 是正则化参数。矩阵B的形式为 B=[ G;I ] ,其中G是通过稀疏逆协方差矩阵估计得到的[4]。在实验中,设定 g( y )= 1 n i=1 n g i ( y ) f( By )= λ 1 By 1 。令 n=1000 , s=0.95 β=1 μ=r=0.05 λ 1 =1e5 。使用两个公开数据集[3],如表1所示。并在图1图2分别给出了损失函数随迭代次数与迭代时间变化关系图。

Table 1. Datasets for graph-guided fused lasso

1. Graph-guided fused lasso数据集

数据集

训练集

测试集

分类

a8a

11,348

11,348

2

Ijcnn1

17,500

17,500

2

(a) ijcnn1 (b) a8a

Figure 1. Relationship between iteration number and loss function variation

1. 迭代次数与损失函数变化关系图

(a) ijcnn1 (b) a8a

Figure 2. Relationship between CPU-time and loss function variation

2. 迭代时间与损失函数变化关系图

图1中,我们给出了不同方法在前40次迭代下损失函数的测试结果,结果显示在相同迭代次数下SARAH-ADMM算法损失函数的下降量最大。图2展示了SADMM与几种随机算法在相同时间内损失函数变化情况,我们可以观察到:SARAH-SADMM、SVRG-SADMM在相同时间内损失函数下降最大,而SAGA-SADMM、SGD-SADMM的表现相似,且都比SADMM效果显著。从而可得随机形式SADMM在图lasso问题上效果明显优于确定形式的SADMM。至此实验阐述了不同类型的方差缩减算子与对称ADMM在四个公开数据集上的数值表现,并且基于问题的特殊性将Bregman距离选取为二范数形式即可得到问题的显示解,相比于其他类型legendre函数选取的方式简单高效。

5. 结论

本文提出的“随机镜像下降对称交替方向乘子法”为求解带有等式约束的非凸非光滑优化问题提供了一种高效稳定的方案。理论分析表明,在目标函数满足半代数性质的条件下,算法生成的迭代序列全局收敛到原问题的驻点。数值实验进一步验证了该算法在实际应用中的高效性与稳定性。在之后的研究中考虑将广义惯性步加入文中的算法中,观察不同惯性步参数对数值效果的影响,进而与文中算法的数值效果进行对比。

参考文献

[1] Hsieh, C., Sustik, M., Dhillon, I. and Ravikumar, P. (2014) Quadratic Approximation for Sparse Inverse Covariance Es-timation. Journal of Machine Learning Research, 15, 2911-2947.
[2] Papanikolopoulos, N.P. and Khosla, P.K. (1993) Adaptive Robotic Visual Tracking: Theory and Experiments. IEEE Transactions on Automatic Control, 38, 429-445.
https://doi.org/10.1109/9.210141
[3] Kazem, R., Suad, J. and Abdulbaqi, H. (2021) Super-Resolution Using 3D Convolutional Neural Networks in CT Scan Image of COVID19. Turkish Journal of Computer and Mathematics Education, 12, 4408-4415.
[4] Friedman, J., Hastie, T. and Tibshirani, R. (2007) Sparse Inverse Covariance Estimation with the Graphical Lasso. Biostatistics, 9, 432-441.
https://doi.org/10.1093/biostatistics/kxm045
[5] Xu, J. and Chao, M. (2021) An Inertial Bregman Generalized Alternating Direction Method of Multipliers for Nonconvex Optimization. Journal of Applied Mathematics and Computing, 68, 1-27.
https://doi.org/10.1007/s12190-021-01590-1
[6] Yin, J., Tang, C., Jian, J. and Huang, Q. (2024) A Partial Bregman ADMM with a General Relaxation Factor for Structured Nonconvex and Nonsmooth Optimization. Journal of Global Optimization, 89, 899-926.
https://doi.org/10.1007/s10898-024-01384-2
[7] Glowinski, R., Karkkainen, T. and Majava, K. (2003) On the Convergence of Operator-Splitting Methods. Proceedings of CIMNE 2003: Numerical Methods for Scientific Computing, Variational Problems and Applications, Barcelona, Spain. 67-79.
[8] He, B., Liu, H., Wang, Z. and Yuan, X. (2014) A Strictly Contractive Peaceman—Rachford Splitting Method for Convex Programming. SIAM Journal on Optimization, 24, 1011-1040.
https://doi.org/10.1137/13090849x
[9] Schmidt, M., Le Roux, N. and Bach, F. (2016) Erratum To: Minimizing Finite Sums with the Stochastic Average Gradient. Mathematical Programming, 162, 113-113.
https://doi.org/10.1007/s10107-016-1051-1
[10] Johnson, R. and Zhang, T. (2013) Accelerating Stochastic Gradient Descent Using Predictive Variance Reduction. Advances in Neural Information Processing Systems, 26, 315-323.
[11] Nguyen, L., Liu, J. and Scheinberg, K. (2017) SARAH: A Novel Method for Machine Learning Problems Using Stochastic Recursive Gradient. International Conference on Machine Learning, 70, 2613-2621.
[12] Zhong, W. and Kwok, J. (2014) Fast Stochastic Alternating Direction Method of Multipliers. International Conference on Machine Learning, 32, 46-54.
[13] Zheng, S. and Kwok, J. (2016) Fast-and-Light Stochastic ADMM. International Joint Conference on Artificial Intelligence, 25, 2407-2613.
[14] Liu, Y., Shang, F. and Cheng, J. (2017) Accelerated Variance Reduced Stochastic ADMM. Proceedings of the AAAI Conference on Artificial Intelligence, 31, 2287-2293.
https://doi.org/10.1609/aaai.v31i1.10843
[15] Huang, F. and Chen, S. (2018) Mini-Batch Stochastic ADMMs for Nonconvex Nonsmooth Optimization. arXiv: 1802.03284v3.
[16] Bian, F., Liang, J. and Zhang, X. (2021) A Stochastic Alternating Direction Method of Multipliers for Non-Smooth and Non-Convex Optimization. Inverse Problems, 37, Article ID: 075009.
https://doi.org/10.1088/1361-6420/ac0966
[17] Bauschke, H.H., Bolte, J. and Teboulle, M. (2017) A Descent Lemma Beyond Lipschitz Gradient Continuity: First-Order Methods Revisited and Applications. Mathematics of Operations Research, 42, 330-348.
https://doi.org/10.1287/moor.2016.0817
[18] Bregman, L.M. (1967) The Relaxation Method of Finding the Common Point of Convex Sets and Its Application to the Solution of Problems in Convex Programming. USSR Computational Mathematics and Mathematical Physics, 7, 200-217.
https://doi.org/10.1016/0041-5553(67)90040-7
[19] Attouch, H., Bolte, J., Redont, P. and Soubeyran, A. (2010) Proximal Alternating Minimization and Projection Methods for Nonconvex Problems: An Approach Based on the Kurdyka-Łojasiewicz Inequality. Mathematics of Operations Research, 35, 438-457.
https://doi.org/10.1287/moor.1100.0449
[20] Driggs, D., Tang, J., Liang, J., Davies, M. and Schönlieb, C. (2021) A Stochastic Proximal Alternating Minimization for Nonsmooth and Nonconvex Optimization. SIAM Journal on Imaging Sciences, 14, 1932-1970.
https://doi.org/10.1137/20m1387213
[21] Davis, D. (2016) The Asynchronous PALM Algorithm for Nonsmooth Nonconvex Problems. arXiv: 1604.00526.
[22] Bolte, J., Sabach, S. and Teboulle, M. (2013) Proximal Alternating Linearized Minimization for Nonconvex and Nonsmooth Problems. Mathematical Programming, 146, 459-494.
https://doi.org/10.1007/s10107-013-0701-9