求解DC问题的一类随机优化算法
A Class of Stochastic Optimization Algorithms for Solving DC Problems
摘要: 本文研究的是一类具有有限和形式的DC问题,其目标函数为具有有限和形式的光滑凸函数与连续凸函数之和再减去适当的闭凸函数的形式。传统的邻近DC算法(pDCA)在处理此类问题时,由于每一迭代步都需要对目标函数光滑部分的全梯度进行计算,从而导致计算成本较为昂贵,因此本文将随机梯度SARAH引入到pDCA中,提出了一种基于随机梯度SARAH的随机邻近DC算法(pDCA-SARAH),并给出了该算法的具体迭代格式,以降低计算成本。在非凸情形下,本文针对pDCA-SARAH算法给出了收敛性及收敛率分析。具体的,本文给出了目标函数在期望意义下的下降量分析以及次线性收敛率的结果。最后,通过将pDCA-SARAH算法用于求解l1-2正则化最小二乘问题,并与pDCA进行数值比较,展示了本文所提算法的高效性。
Abstract: In this paper, we study a class of DC problems with finite sum form, whose objective function is the sum of smooth convex function and continuous convex function with finite sum form, minus the appropriate closed convex function. When dealing with this kind of problems, the traditional proximal difference-of-convex algorithm (pDCA) needs to calculate the full gradient of the smooth part of the objective function at each iterative step, so the computational cost is expensive. In this paper, stochastic gradient SARAH is introduced into pDCA, a stochastic proximal DC algorithm (pDCA-SARAH) based on stochastic gradient SARAH is proposed, and the specific iterative scheme of the algorithm is given to reduce the computational cost. In the non-convex case, the convergence and convergence rate analysis of pDCA-SARAH algorithm are given in this paper. Specifically, this paper gives the analysis of the decline of the objective function in the sense of expectation and the results of sublinear convergence rate. Finally, the pDCA-SARAH algorithm is applied to solve the l1-2 regularized least square problem, and compared with pDCA, the efficiency of the proposed algorithm is demonstrated.
文章引用:陈梦婷, 裴训龙, 李登辉. 求解DC问题的一类随机优化算法[J]. 运筹与模糊学, 2024, 14(4): 342-357. https://doi.org/10.12677/orf.2024.144403

1. 引言

优化问题是指在既定约束条件下求解目标函数最值的问题,通过研究优化问题可实现提升效率,降低成本,实现资源最优配置与决策智能化等目的,因而在数学、计算机和金融等领域中至关重要。本文研究的是一类具有有限和形式的DC (difference of convex, DC)问题,具体格式如下所示:

min x  G( x )= i=1 n f i ( x ) +h( x )g( x ), (1.1)

其中 f i ( x ) ( i=1,2,,n ) 为光滑凸函数,且 f i ( x ) 是Lipschitz连续的,此外 h( x ) 是一个连续凸函数, g( x ) 是一个适当的闭凸函数。上述有限和形式的DC问题在许多应用领域都存在广泛应用,如机器学习[1]、压缩感知[2]、logistic回归[3]和二分类问题[4]等。具体的,我们给出如下两个应用实例,其可表述为模型(1.1)的格式。

1) 正则化最小二乘问题[2]

最小二乘问题是一种常用的优化方法,其在高维数据分析、图像处理和金融风险建模等领域具有广泛应用,其中 l 12 正则化最小二乘问题结合了 l 1 范数和 l 2 范数的优点,通常用于求解一个既稀疏又保持一定稳定性的解。该方法在处理含有异常值或者噪声较大的数据时效果较好,其具体表述为如下优化模型:

min x n   F 12 ( x ):= 1 2 Axb 2 +λ( x 1 x ),

其中矩阵 A m×n ,向量 b m ,正则化参数 λ>0

首先设 B= A T A= ( b 1   b 2    b n ) T , C= A T b= ( c 1   c 2    c n ) T ,再令 f( x )= 1 2 Axb 2 h( x )=λ x 1 g( x )=λ x f i ( x )= 1 2 e i T x b i x e i T x c i + 1 2n b T b ,其中 e i 表示第i列为1其余元素皆为0的向量,于是有 f( x )= i=1 n f i ( x ) ,从而上述优化问题可表述为模型(1.1)的格式。

2) 二分类问题[4]

二分类问题在机器学习等领域中,主要用于只有两种可能结果的决策场景,其通过建立一个模型并根据输入变量来预测输出变量的类别。该类问题在特征选择,医学影像分析等领域有着广泛应用,具体表述为如下优化模型:

min ω n  F( ω ):= 1 n i=1 n l ( a i T ω, b i )+λ ω 1 ,

其中 { ( a i , b i ) } i=1 n n × { 1,1 } n 是给定的训练数据集, λ>0 为正则化参数, l( , ) 是非凸光滑损失函数。具体的,令 f i ( x )= 1 n l( a i T ω, b i ) h( x )=λ ω 1 g( x )=0 ,则上述优化问题可转化为模型(1.1)的格式。

1.1. 研究现状

DC问题的一个经典求解算法是DCA (Difference of Convex Functions Algorithm),由Pham Dinh在1985年首次提出[5],自此学术界对DC问题的研究已接近40年。DCA主要用于求解标准形式的DC规划问题,即目标函数为两个凸函数之差的形式,DC问题的具体格式为

min F( x )=f( x )P( x ).

具体的,DCA的迭代格式为

x k+1 =arg min x n { f( x )P( x k ) y k , x x k },

其中 y k P( x k ) 。DCA的优势在于框架简单、收敛速度快、具有全局收敛性且能够处理大规模问题,但在处理一些DC问题时,有可能会遇到子问题比较复杂,没有显式解的情形,因此需要内部求解器对子问题进行求解。例如,针对如下形式的DC问题

min F( x )=f( x )+h( x )g( x ),

若采用DCA对其进行求解,则其子问题将表述为

x k+1 arg min x n { f( x )+h( x )g( x k ) ξ k , x },

其中 ξ k g( x k ) 。由于子问题涉及到对函数 f( x )+h( x ) 的邻近算子的求解,这导致该子问题通常没有显式解,即便函数 f( x ) h( x ) 的邻近算子是易于求解的。

针对DCA中子问题不易求解的情形,许多学者进一步将DCA与其他算法相结合,提出了一系列相关算法,如马尔科夫链随机DCA (Markov chain stochastic DCA) [6]、求解球面上四次极小化问题的DCA-Newton (A DCA-Newton method for quartic minimization over the sphere) [7]和邻近DCA (proximal Difference of Convex Functions Algorithm, pDCA) [8],其中pDCA的迭代格式如下所示:

x k+1 =arg min x n { h( x )+ f( x k ) ξ k , x + L 2 x x k 2 }        = arg min x n { h( x )+ L 2 x( x k 1 L ( f( x k ) ξ k ) ) 2 }.

其中 ξ k g( x k ) ,且由于 h( x ) 是适当闭凸函数, x k+1 是唯一定义的。pDCA在每一迭代步不仅需要对目标函数中的凹函数部分 g( x ) 做线性优化,还需对目标函数中的光滑凸函数部分 f( x ) 做线性化。此时,如果函数 h( x ) 的邻近算子便于计算,pDCA的子问题就很容易计算[8]。尽管pDCA中的子问题是易于求解的,但该算法的收敛速度较慢,这是因为当 g( x )=0 时,pDCA便退化为邻近梯度算法,而邻近梯度算法只能达到 O( 1/k ) 的次线性收敛率,收敛速度较慢。许多学者利用外推技术[9]-[11]实现了pDCA的加速,具体地,Wen等人[11]采用外推技术对pDCA进行加速,提出了带外推的邻近DCA (proximal difference-of-convex algorithm with extrapolation, pDCAe),该算法的具体迭代格式为

x k+1 =arg min y n { h( y )+ f( y k ) ξ k , y + L 2 y y k 2 },

其中 ξ k g( x k ),  y k = x k + β k ( x k x k1 ), { β k }[ 0,1 ) sup k β k <1 。在适当的假设条件下,pDCAe的全局收敛性以及 O( 1/ k 2 ) 的收敛率已被证明[12]

针对有限和形式的DC问题(1.1),pDCA在每一迭代步都需要对目标函数光滑部分的梯度 f i ( x )( i=1,2,,n ) 进行计算,这将导致算法的计算相当昂贵。为降低计算成本,许多学者提出了一系列随机梯度算法,如随机梯度下降算法(stochastic gradient descent, SGD) [13]和小批量梯度下降算法(mini-batch gradient descent, Mini-batch) [14],但由于方差的引入,这类算法为保证收敛性,其迭代步长需要随着迭代的进程衰减至0,这导致算法的收敛速度变慢。为提高随机梯度算法的收敛速度,许多学者提出了一系列方差缩减的随机梯度估计方法,如随机方差缩减梯度算法(stochastic variance reduced gradient, SVRG) [15]、增量梯度算法(incremental gradient method, SAGA) [16]和随机递归梯度算法(stochastic recursive gradient, SARAH) [17]。特别的,SARAH结合了SVRG和SAGA的思想,该算法与SVRG在内循环的更新方式不同,且相较于SAGA不需要存储旧的梯度信息,从而极大降低了存储成本[18]。这一随机梯度的方差随着迭代的进程不断衰减到0,因此迭代步长可以取一个常数,这将使得算法的收敛速度较快。具体的,这类随机梯度算法与确定型一阶算法的收敛速度一致,在强凸情形下可达到期望意义下的线性收敛速度,在凸的情形下可以达到期望意义下的 O( 1/k ) 次线性收敛率。

1.2. 本文贡献

针对有限和形式的DC问题(1.1),本文将方差缩减的随机梯度SARAH引入到pDCA中去,提出了一种基于随机梯度SARAH的随机邻近DC算法(pDCA-SARAH),以降低计算成本。在非凸情形下,本文对算法的收敛性进行了理论分析,并通过数值实验说明了算法的高效性。具体的,本文的主要贡献包括:

在算法上,针对有限和形式的DC问题(1.1),由于pDCA算法需在每次迭代过程中逐个计算 f i ( x ) 的全梯度,从而当数据量n很大时,计算有限和部分的全梯度将会非常昂贵。为降低计算成本,本文将随机梯度SARAH引入到pDCA中,提出了基于SARAH的随机邻近DC算法(pDCA-SARAH)。该算法在每一轮外循环时首先计算一次全梯度,在每一轮内循环中随机抽取小批量的数据来计算随机梯度SARAH,并用随机梯度SARAH来近似全梯度,以实现算法计算成本的降低。

在理论上,本文对pDCA-SARAH算法的收敛性及收敛率进行了分析,并在非凸情形下,详细地给出目标函数在期望意义下的下降量分析和次线性收敛率分析。

在数值上,本文通过将pDCA-SARAH算法应用于 l 12 正则化最小二乘问题的求解中,并通过与传统的pDCA进行比较,验证了本文所提算法理论上的收敛性和高效性。

1.3. 本文框架

本文框架如下,在第二节中,详细介绍了本文所涉及到的符号、定义以及相关引理。第三节中,本文提出了基于SARAH的随机邻近DC算法(pDCA-SARAH),以解决传统的pDCA在处理形如问题(1.1)时所面临的计算成本昂贵的问题,并给出了pDCA-SARAH算法在期望意义下的下降量分析以及收敛性分析。第四节中,将pDCA-SARAH算法应用于求解 l 12 正则化最小二乘问题来进行数值实验,并与pDCA进行对比,从数值上验证了本文所提出的pDCA-SARAH算法的高效性。第五节中,对本文做出总结。

2. 预备知识

为便于下文研究pDCA-SARAH算法的收敛性,本节将详细介绍本文所涉及到的符号、定义及相关引理。下面首先对本文出现的符号做出定义:记 n n 维欧几里得空间; x,y 表示向量内积,其中 x,y n x = x,x 为欧式距离; E[] 为数学期望。

定义2.1 (凸函数) [19]设函数 f 为适当函数,如果 dom f 是凸集,且

f( θx+( 1θ )y )θf( x )+( 1θ )f( y ),

对所有的 x,ydom f, 0θ1 都成立,则称 f 是凸函数。

定义2.2 (凸函数的次微分) [19] f: n { + } 为适当下半连续凸函数,定义域为 dom f:={ x n |f( x )<+ } x 为定义域 dom f 中的一点。若向量 u n 满足

f( y )f( x )+ u T ( yx ),  ydom f,

则称u为函数f在点x处的一个次梯度。进一步地,函数f在点x处的次微分记作 f( x ) ,定义为所有满足上述条件的向量u所构成的集合,即

f( x )={ u|u n , f( y )f( x )+ u T ( yx ),  ydom f }.

此外,若 xdom f ,则定义f在该点的次微分 f( x )=

定义2.3 (梯度利普希兹连续) [20]对于可微函数 f ,若对任意的 x,ydom f ,存在常数 L>0 ,使其满足不等式

f( x )f( y ) L xy ,

则称函数f是梯度利普希兹连续的,简记为L-光滑,其中L为Lipschitz常数。

引理2.1 [20]对定义在凸集上的可微函数ff是凸函数的充要条件为

f( y )f( x )+f ( x ) T ( yx ),  x, ydom f.

引理2.2 (下降引理) [21] f: n 连续可微且L-光滑(L > 0),则f满足如下不等式:

f( y )f( x )+ f( x ), yx + L 2 xy 2 ,  x, y n .

3. 算法及收敛性分析

3.1. 基于SARAH的随机邻近DC算法

本文主要研究的是一类具有有限和形式的DC问题,该问题的具体格式如下所示:

min x G( x )= i=1 n f i ( x ) +h( x )g( x ),

其中 f i ( x ) ( i=1,2,,n ) 为光滑凸函数,且 f i ( x ) 是Lipschitz连续的,此外 h( x ) 是一个连续凸函数, g( x ) 是一个适当的闭凸函数。求解该类问题的一个经典算法是pDCA,但由于pDCA每一迭代步都需要计算 f i ( x ) ( i=1,2,,n ) 的全梯度,因此针对大规模DC问题,若采用pDCA则计算成本较为昂贵,故本文在pDCA中引入随机梯度SARAH来降低计算成本。下面给出基于SARAH的随机邻近DC算法(pDCA-SARAH)的迭代格式。

基于SARAH的随机邻近DC算法(pDCA-SARAH)

for  s=0, 1, S1  do

x s+1 0 = x s T

V s+1 0 = i=1 n f i ( x ^ s )

for t=0, 1, T1   do

随机选取小批量 I b { 1,2,,n }, | I b |=b

V s+1  t = 1 b i I b ( f i ( x s+1  t ) f i ( x s+1 t1 ) )+ V s+1 t1

x s+1 t+1 =arg min x { h( x )+ V s+1  t ξ s+1  t , x x s+1  t + 1 2α x x s+1  t 2 }

end

x ^ s+1 = x s+1 T

end

输出: x α { { x s+1  t+1 } t=0 T } s=0 S1 随机均匀选择

注:在算法中,第s轮外循环输出的x更新值为 x s T ,并将其赋值给第s + 1轮外循环中x的初始值,即 x s+1 0 = x s T 。然后在第s + 1轮外循环中进行T轮内循环,在其中第t轮内循环,由 1 b i I b ( f i ( x s+1  t ) f i ( x s+1 t1 ) )+ V s+1 t1 得到随机梯度 V s+1  t ,以此来近似全梯度并更新 x s+1  t

3.2. 算法收敛性及收敛率分析

本节将对pDCA-SARAH算法的收敛性以及收敛率进行分析。为了便于分析pDCA-SARAH算法的收敛性,当选取全梯度进行计算时,本文记pDCA-SARAH算法的子问题对应的精确解为

x ¯ s+1 t+1 =arg min x { h( x )+ F( x s+1 t ) ζ s+1 t , x x s+1 t + 1 2α x x s+1 t 2 }.

此外,本文需要对优化问题的目标函数做出如下假设:

假设1:有限和部分的 f i ( x ) ( i=1,2,,n ) 为光滑凸函数;

假设2: f i ( x ) ( i=1,2,,n ) 是Lipschitz连续的;

假设3: h( x ) 是一个连续凸函数, g( x ) 是一个适当的闭凸函数。

在进行收敛分析之前,首先需要证明引理3.1与3.2。具体地,引理3.1给出了目标函数在前后迭代点处,期望意义下的下降量分析。

引理3.1 (目标函数期望意义下的下降量)当假设1~3成立时,令 { x s t } 是由pDCA-SARAH算法所产生的迭代序列,则有如下所示不等式成立:

E[ G( x s+1 t+1 ) ]E[ G( x s+1  t ) ]+( L 2 1 2α +θ )E[ x s+1  t x s+1 t+1 2 ]                    + 1 2θ E[ F( x s+1  t ) V s+1 t 2 ]( 1 2α θ )E[ x ¯ s+1 t+1 x s+1 t 2 ],

其中 α>0 为迭代步长, θ>0 为常数。

证明。一方面,令 F( x )= i=1 n f i ( x ) ,由于 f i ( x ) ( i=1,2,,n ) 是Lipschitz连续的,于是根据引理2.2 (下降引理)可得不等式(3.1)成立:

F( x s+1 t+1 )F( x s+1 t )+ F( x s+1 t ),  x s+1 t+1 x s+1 t + L 2 x s+1 t+1 x s+1 t 2 . (3.1)

另一方面,因为函数h(x)为凸函数,从而根据引理2.1可得,对 x,ydom h h( y )h( x )+ h( x ), yx ,所以可以推导出如下两不等式,即

h( x s+1 t+1 )h( x ¯ s+1 t+1 )+ ξ s+1 t+1 ,  x s+1 t+1 x ¯ s+1 t+1 ,    ξ s+1 t+1 h( x s+1 t+1 ), (3.2)

h( x ¯ s+1 t+1 )h( x s+1 t )+ ξ ¯ s+1 t+1 ,  x ¯ s+1 t+1 x s+1 t ,    ξ ¯ s+1 t+1 h( x ¯ s+1 t+1 ). (3.3)

下面对不等式(3.2)、(3.3)进一步处理。首先针对不等式(3.2),根据算法的最优性条件可得

0h( x s+1 t+1 )+ V s+1 t ζ s+1 t + 1 α ( x s+1 t+1 x s+1 t ),

因此可对不等式(3.2)中的 ξ s+1 t+1 ,  x s+1 t+1 x ¯ s+1 t+1 项做如下变换(其中 ξ s+1 t+1 h( x s+1 t+1 ) ):

ξ s+1 t+1 ,  x s+1 t+1 x ¯ s+1 t+1 = V s+1 t + ζ s+1 t 1 α ( x s+1 t+1 x s+1  t ),  x s+1 t+1 x ¯ s+1 t+1 = V s+1 t + ζ s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 1 α x s+1 t+1 x s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 = V s+1 t + ζ s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + 1 α x s+1 t x s+1 t+1 ,  x s+1 t+1 x ¯ s+1 t+1 .

接着对上述变换结果做进一步的化简,由于

ab, cd = 1 2 ( ad 2 ac 2 + bc 2 bd 2 ) ,

从而其中的 x s+1 t x s+1 t+1 ,  x s+1 t+1 x ¯ s+1 t+1 项可以转化为

x s+1 t x s+1 t+1 ,  x s+1 t+1 x ¯ s+1 t+1 = 1 2 ( x s+1  t x ¯ s+1 t+1 2 x s+1  t x s+1 t+1 2 x s+1 t+1 x ¯ s+1 t+1 2 ),

再将该式代入上述变换结果,可得

ξ s+1 t+1 ,  x s+1 t+1 x ¯ s+1 t+1 = 1 2α ( x s+1  t x ¯ s+1 t+1 2 x s+1  t x s+1 t+1 2 x s+1 t+1 x ¯ s+1 t+1 2 )                             + V s+1 t + ζ s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 . (3.4)

类似地,对于不等式(3.3),由算法的最优性条件可得

0h( x ¯ s+1 t+1 )+F( x s+1 t ) ζ s+1 t + 1 α ( x ¯ s+1 t+1 x s+1 t ),

从而可化简不等式(3.3)得到

h( x ¯ s+1 t+1 ),  x ¯ s+1 t+1 x s+1  t = F( x s+1 t )+ ζ s+1 t ,  x ¯ s+1 t+1 x s+1 t 1 α x ¯ s+1 t+1 x s+1  t 2 . (3.5)

下面分别将(3.4)式代入(3.2)式,(3.5)式代入(3.3)式,则有如下两个不等式成立:

h( x s+1 t+1 )h( x ¯ s+1 t+1 )+ V s+1 t + ζ s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + 1 2α ( x s+1 t x ¯ s+1 t+1 2 x s+1  t x s+1 t+1 2 x s+1 t+1 x ¯ s+1 t+1 2 );

h( x ¯ s+1 t+1 )h( x s+1 t )+ F( x s+1 t )+ ζ s+1  t ,  x ¯ s+1 t+1 x s+1 t 1 α x ¯ s+1 t+1 x s+1 t 2 .

对上面两不等式求和并整理,具体过程为

h( x s+1 t+1 )h( x s+1 t )+ V s+1 t + ζ s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + F( x s+1 t )+ ζ s+1 t ,  x ¯ s+1 t+1 x s+1 t               + 1 2α ( x s+1 t x ¯ s+1 t+1 2 x s+1 t x s+1 t+1 2 x s+1 t+1 x ¯ s+1 t+1 2 ) 1 α x ¯ s+1 t+1 x s+1 t 2           =h( x s+1 t )+ V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + ζ s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + F( x s+1 t ),  x ¯ s+1 t+1 x s+1  t              + ζ s+1 t ,  x ¯ s+1 t+1 x s+1 t 1 2α ( x s+1 t x s+1 t+1 2 + x s+1 t+1 x ¯ s+1 t+1 2 + x s+1 t x ¯ s+1 t+1 2 )           =h( x s+1 t )+ V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + F( x s+1 t ),  x ¯ s+1 t+1 x s+1 t + ζ s+1 t ,  x s+1 t+1 x s+1 t               1 2α ( x s+1 t x s+1 t+1 2 + x s+1 t+1 x ¯ s+1 t+1 2 + x s+1 t x ¯ s+1 t+1 2 ),

从而可以得到不等式(3.6)成立:

h( x s+1 t+1 )h( x s+1 t ) 1 2α ( x s+1 t x s+1 t+1 2 + x s+1 t+1 x ¯ s+1 t+1 2 + x s+1  t x ¯ s+1 t+1 2 )              + V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + F( x s+1 t ),  x ¯ s+1 t+1 x s+1  t + ζ s+1 t ,  x s+1 t+1 x s+1 t . (3.6)

此外,又因为 g( x ) 是凸函数,所以根据引理2.1可以得到

g( x s+1 t )+ ζ s+1 t ,  x s+1 t+1 x s+1 t g( x s+1 t+1 ). (3.7)

接着再对(3.1)式、(3.6)式与(3.7)式求和,得到不等式(3.8)如下所示:

F( x s+1 t+1 )+h( x s+1 t+1 )+g( x s+1 t )+ ζ s+1 t ,  x s+1 t+1 x s+1 t F( x s+1 t )+ F( x s+1 t ),  x s+1 t+1 x s+1 t +h( x s+1 t )+ L 2 x s+1 t+1 x s+1  t 2   + V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 + F( x s+1 t ),  x ¯ s+1 t+1 x s+1 t + ζ s+1 t ,  x s+1 t+1 x s+1 t    1 2α ( x s+1  t x s+1 t+1 2 + x s+1 t+1 x ¯ s+1 t+1 2 + x s+1  t x ¯ s+1 t+1 2 )+g( x s+1 t+1 ), (3.8)

化简(3.8)式中 F( x s+1 t ),  x s+1 t+1 x s+1  t + V s+1  t ,  x s+1 t+1 x ¯ s+1 t+1 + F( x s+1 t ),  x ¯ s+1 t+1 x s+1 t ,具体为

F( x s+1 t ),  x s+1 t+1 x s+1  t + V s+1  t ,  x s+1 t+1 x ¯ s+1 t+1 + F( x s+1 t ),  x ¯ s+1 t+1 x s+1 t = F( x s+1 t ),  x s+1 t+1 x s+1 t F( x s+1 t ),  x ¯ s+1 t+1 x s+1 t + V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 = F( x s+1 t ),  x s+1 t+1 x s+1  t x ¯ s+1 t+1 + x s+1  t + V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 = F( x s+1 t ) V s+1  t ,  x s+1 t+1 x ¯ s+1 t+1 ,

G( x )=F( x )+h( x )g( x ) ,将上述化简结果代入不等式(3.8),则可以得到

G( x s+1 t+1 )G( x s+1 t )+ L 2 x s+1 t+1 x s+1  t 2 + F( x s+1 t ) V s+1  t ,  x s+1 t+1 x ¯ s+1 t+1                1 2α ( x s+1  t x s+1 t+1 2 + x s+1 t+1 x ¯ s+1 t+1 2 + x s+1  t x ¯ s+1 t+1 2 ),

其中 α 是步长,则有 α>0 ,故 1 2α x s+1 t+1 x ¯ s+1 t+1 2 >0 ,于是放缩该不等式可以得到

G( x s+1 t+1 )G( x s+1 t )+ L 2 x s+1 t+1 x s+1  t 2 + F( x s+1 t ) V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1                1 2α ( x s+1 t x s+1 t+1 2 + x s+1 t x ¯ s+1 t+1 2 ).

根据上述不等式,可得 G( x s+1 t+1 ) 的期望满足如下不等式:

E[ G( x s+1 t+1 ) ]E[ G( x s+1 t ) ]+E[ F( x s+1 t ) V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 ]                    +( L 2 1 2α )E[ x s+1 t x s+1 t+1 2 ] 1 2α E[ x ¯ s+1 t+1 x s+1 t 2 ]. (3.9)

下面处理不等式(3.9),首先由 a,b L 2 a 2 + 1 2L b 2 a,b = b,a 可得

F( x s+1 t ) V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 = θ 2 x s+1 t+1 x ¯ s+1 t+1 2 + 1 2θ F( x s+1 t ) V s+1 t 2 . (3.10)

进一步化简(3.10)式,针对其中的项 θ 2 x s+1 t+1 x ¯ s+1 t+1 2 ,根据范数的三角不等式,即 a+b a + b ,  a,b n ,可以得到

a+b 2 ( a + b ) 2 = a 2 +2 a b + b 2 2 a 2 +2 b 2 ,

于是有

θ 2 x s+1 t+1 x ¯ s+1 t+1 2 = θ 2 x s+1 t+1 x ¯ s+1 t+1 + x s+1 t x s+1 t 2 θ x s+1 t+1 x s+1 t 2 +θ x s+1 t x ¯ s+1 t+1 2 .

再将该不等式代入(3.10)式,可以得到

F( x s+1 t ) V s+1 t ,  x s+1 t+1 x ¯ s+1 t+1 θ x s+1 t+1 x s+1 t 2 +θ x s+1 t x ¯ s+1 t+1 2 + 1 2θ F( x s+1 t ) V s+1 t 2 .

将上述不等式代入不等式(3.9),则可得不等式(3.11),即

E[ G( x s+1 t+1 ) ]E[ G( x s+1 t ) ]+( L 2 1 2α +θ )E[ x s+1  t x s+1 t+1 2 ]                    + 1 2θ E[ F( x s+1 t ) V s+1  t 2 ]( 1 2α θ )E[ x ¯ s+1 t+1 x s+1  t 2 ], (3.11)

引理3.1证毕。

为了证明pDCA-SARAH算法的收敛性,我们还需要对该算法中采用的随机梯度的方差进行估计,具体见引理3.2。

引理3.2当假设1~3成立时,令 { x s t } 是由pDCA-SARAH算法所产生的迭代序列,则有

E[ F( x s+1 t ) V s+1 t 2 ]E[ F( x s+1 0 ) V s+1 0 2 ]+ L 2 b i=0 t1 E[ x s+1 i+1 x s+1 i 2 ] ,

其中b是随机抽取的小批量数据集的长度, L>0 为Lipschitz常数。

证明首先对(3.11)式中 E[ F( x s+1 t ) V s+1  t 2 ] 做进一步处理,具体过程为

E[ F( x s+1 t ) V s+1  t 2 ] =E[ F( x s+1 t )F( x s+1 t1 )+F( x s+1 t1 ) V s+1 t1 + V s+1 t1 V s+1  t 2 ]

=E[ F( x s+1 t )F( x s+1 t1 ) 2 ]+E[ F( x s+1 t1 ) V s+1 t1 2 ]+E[ V s+1 t1 V s+1  t 2 ]   +2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 ) V s+1 t1 + F( x s+1 t1 ) V s+1 t1 ,  V s+1 t1 V s+1  t    + F( x s+1 t )F( x s+1 t1 ),  V s+1 t1 V s+1  t ].

从而可得(3.12)式,即

E[ F( x s+1 t ) V s+1  t 2 ] =E[ F( x s+1 t )F( x s+1 t1 ) 2 ]+E[ F( x s+1 t1 ) V s+1 t1 2 ]+E[ V s+1 t1 V s+1  t 2 ]   +2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 ) V s+1 t1 + F( x s+1 t1 ) V s+1 t1 ,  V s+1 t1 V s+1 t    + F( x s+1 t )F( x s+1 t1 ),  V s+1 t1 V s+1 t ]. (3.12)

对(3.12)式的项: 2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 ) V s+1 t1 + F( x s+1 t1 ) V s+1 t1 ,  V s+1 t1 V s+1  t ] ,根据 V s+1 t1 V s+1 t =F( x s+1 t1 )F( x s+1 t ) a,b = b,a ,可将该项化简为

2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 ) V s+1 t1 + F( x s+1 t1 ) V s+1 t1 ,  V s+1 t1 V s+1 t ] =2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 ) V s+1 t1 F( x s+1 t1 ) V s+1 t1 , F( x s+1 t )F( x s+1 t1 ) ] =2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 ) V s+1 t1 F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 ) V s+1 t1 ] =0.

类似的,化简等式(3.12)中的另一项 2E[ F( x s+1 t )F( x s+1 t1 ),  V s+1 t1 V s+1 t ] ,具体过程为

2E[ F( x s+1 t )F( x s+1 t1 ),  V s+1 t1 V s+1 t ] =2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t1 )F( x s+1 t ) ] =2E[ F( x s+1 t )F( x s+1 t1 ), F( x s+1 t )F( x s+1 t1 ) ] =2E [ F( x s+1 t )F( x s+1 t1 ) ] 2 .

再将上述两项的化简结果代入(3.12)式,整理后可得如下不等式:

E[ F( x s+1 t ) V s+1 t 2 ]E[ F( x s+1 t1 ) V s+1 t1 2 ]+E[ V s+1 t1 V s+1 t 2 ]E [ F( x s+1 t )F( x s+1 t1 ) ] 2 ,

其中 E [ F( x s+1 t )F( x s+1 t1 ) ] 2 <0 ,则可以由放缩法得到不等式(3.13)成立,即

E[ F( x s+1 t ) V s+1  t 2 ]E[ F( x s+1 t1 ) V s+1 t1 2 ]+E[ V s+1 t1 V s+1  t 2 ]. (3.13)

此外,根据pDCA-SARAH算法梯度更新公式 V s+1  t = 1 b i I b ( f i ( x s+1 t ) f i ( x s+1 t1 ) ) + V s+1 t1 可得

V s+1 t1 V s+1  t = V s+1 t1 ( 1 b i I b ( f i ( x s+1 t ) f i ( x s+1 t1 ) ) + V s+1 t1 )= 1 b i I b ( f i ( x s+1 t ) f i ( x s+1 t1 ) ) ,

则有 V s+1 t1 V s+1 t 2 =  1 b i I b ( f i ( x s+1 t ) f i ( x s+1 t1 ) ) 2 ,又因 f i ( x s+1 t ) 是Lipschitz连续的,故有

E[ V s+1 t1 V s+1  t 2 ]=E[ 1 b i I b ( f i ( x s+1 t ) f i ( x s+1 t1 ) ) 2 ] L 2 b E[ x s+1  t x s+1 t1 2 ] .

再将不等式 E[ V s+1 t1 V s+1 t 2 ] L 2 b E[ x s+1 t x s+1 t1 2 ] 代入(3.13)式,于是有

E[ F( x s+1 t ) V s+1 t 2 ]E[ F( x s+1 t1 ) V s+1 t1 2 ]+ L 2 b E[ x s+1  t x s+1 t1 2 ],

进一步的,以此类推,可以得到不等式

E[ F( x s+1 t ) V s+1 t 2 ]E[ F( x s+1 0 ) V s+1 0 2 ]+ L 2 b i=0 t1 E[ x s+1 i+1 x s+1 i 2 ] . (3.14)

引理3.2证毕。

基于引理3.1以及引理3.2,本文给出了pDCA-SARAH算法的次线性收敛率结果。为便于衡量pDCA-SARAH算法的收敛速度,我们定义DC问题的广义邻近梯度映射为 G η ( x s+1 t )= x ¯ s+1 t+1 x s+1 t 。下面,我们给出pDCA-SARAH算法的次线性收敛率结果。

定理3.1 (次线性收敛率)当假设1~3成立时,令 { x s t } 是由pDCA-SARAH算法所产生的迭代序列,则有如下所示不等式成立:

E[ G η ( x ˜ s+1 ) 2 ]= 1 k s=0 S1 t=0 T1 E[ x ¯ s+1 t+1 x s+1  t 2 ] 2α k( 12αθ ) E[ G( x ˜ 0 ) G ],

其中 k=ST ,表示总迭代次数, α>0 为迭代步长, θ>0 为常数。

证明将不等式(3.14)代入不等式(3.11),则有

E[ G( x s+1 t+1 ) ]E[ G( x s+1 t ) ]+ 1 2θ E[ F( x s+1 0 ) V s+1 0 2 ]+ L 2 2θb i=0 t1 E[ x s+1 i+1 x s+1 i 2 ]                    +( L 2 1 2α +θ )E[ x s+1 t x s+1 t+1 2 ]( 1 2α θ )E[ x ¯ s+1 t+1 x s+1 t 2 ].

因为pDCA-SARAH算法的梯度更新公式为 V s+1 t = 1 b i I b ( f i ( x s+1 t ) f i ( x s+1 t1 ) ) + V s+1 t1 ,且该算法的第s + 1轮外循环中初始点的全梯度记作 V s+1 0 ,即 F( x s+1 0 )= V s+1 0 ,于是有 F( x s+1 0 ) V s+1 0 2 =0 成立,因此可以更新上述不等式得到

E[ G( x s+1 t+1 ) ]E[ G( x s+1 t ) ]+ L 2 2θb i=0 t1 E[ x s+1 i+1 x s+1 i 2 ]                    +( L 2 1 2α +θ )E[ x s+1 t x s+1 t+1 2 ]( 1 2α θ )E[ x ¯ s+1 t+1 x s+1 t 2 ]. (3.15)

下面针对不等式(3.15)中的项: L 2 2θb i=0 t1 E[ x s+1 i+1 x s+1 i 2 ] +( L 2 1 2α +θ )E[ x s+1 t x s+1 t+1 2 ] ,进行 t=0,1,,T1 的累和,得到的结果如下所示:

t=0 T1 { L 2 2θb i=0 t1 E[ x s+1 i+1 x s+1 i 2 ] +( L 2 1 2α +θ )E[ x s+1 t x s+1 t+1 2 ] } =( T L 2 2θb + L 2 1 2α +θ )( i=0 t1 E[ x s+1 i+1 x s+1 i 2 ] )+( L 2 1 2α +θ )E[ x s+1 T1 x s+1 T 2 ].

只要满足 T L 2 2θb + L 2 1 2α +θ0,  L 2 1 2α +θ<0 ,则有如下不等式成立:

L 2 2θb i=0 t1 E[ x s+1 i+1 x s+1 i 2 ] +( L 2 1 2α +θ )E[ x s+1 t x s+1 t+1 2 ]<0,

从而可以化简不等式(3.15)得到

( 1 2α θ )E[ x ¯ s+1 t+1 x s+1 t 2 ]E[ G( x s+1 t ) ]E[ G( x s+1 t+1 ) ].

类似的,对上述不等式进行 t=0,1,,T1 的累和,可以得到不等式(3.16)。即

( 1 2α θ ) t=0 T1 E[ x ¯ s+1 t+1 x s+1 t 2 ]] E[ G( x s+1 0 ) ]E[ G( x s+1 T ) ]. (3.16)

接着再对不等式(3.16)进行 s=0,1,,S1 的累和,其中右式的累和结果为

E[ G( x ˜ 0 ) G ]=E[ G( x 1 0 ) ]E[ G( x 1 T ) ]+E[ G( x 2 0 ) ]E[ G( x 2 T ) ]++E[ G( x S 0 ) ]E[ G( x S T ) ],

将其记作 E[ G( x ˜ 0 ) G ] ,因此不等式(3.16)的累和结果为

( 1 2α θ ) s=0 S1 t=0 T1 E[ x ¯ s+1 t+1 x s+1  t 2 ] E[ G( x ˜ 0 ) G ].

k=ST, E[ G η ( x ˜ s+1 ) 2 ]= 1 k s=0 S1 t=0 T1 E[ x ¯ s+1 t+1 x s+1  t 2 ] ,结合上述累和结果可得

E[ G η ( x ˜ s+1 ) 2 ]= 1 k s=0 S1 t=0 T1 E[ x ¯ s+1 t+1 x s+1  t 2 ] 2α k( 12αθ ) E[ G( x ˜ 0 ) G ].

定理3.1证毕,说明pDCA-SARAH算法在期望意义下是收敛的。

4. 数值实验

在本节中,我们将本文所提出的pDCA-SARAH算法用于求解 l 12 正则化最小二乘问题,并将该算法与pDCA进行比较,说明本文所提算法的高效性。本节所有的实验均在64位PC上使用Matlab 2016a进行的,该PC配备有2.7 GHz和8 G RAM。

本节主要考虑如下所示的 l 12 正则化最小二乘问题:

min x n    F 12 ( x ):= 1 2 Axb 2 +λ( x 1 x ), (4.1)

其中 A m×n b m 且正则化参数 λ>0 。为将问题(4.1)转化成本文所研究的具有有限和形式的DC问题(1.1),首先令 f( x )= 1 2 Axb 2 , h( x )=λ x 1 , g( x )=λ x , 通过对 f( x ) 简单的整理,便可以得到

f( x )= 1 2 Axb 2 = 1 2 ( Axb ) T ( Axb )= 1 2 ( x T A T Ax2 x T A T b+ b T b )

进一步,我们令 B= A T A= ( b 1   b 2    b n ) T , C= A T b= ( c 1   c 2    c n ) T , 将其代入上式,可得

f( x )= 1 2 ( x T Bx2 x T C+ b T b ),

其中 B n×n , C n b T b 为一常数。

进一步的,令 b i  ( i=1,2,,n ) 是由矩阵Bi行构成的行向量, c i  ( i=1,2,,n ) 为矩阵C的第i行对应元素, e i  ( i=1,2,,n ) 为第i列为1且其余元素皆为0的行向量,并设

f i ( x )= 1 2 e i T x b i x e i T x c i + 1 2n b T b ,

于是有 f( x )= i=1 n f i ( x ) 成立,从而问题(4.1)可以转化为具有有限和形式的DC问题(1.1)。

为了衡量算法的收敛程度,下面给出相对误差[22]的定义为

e( k ):= F 12 ( x k ) F 12 min F 12 ( x 0 ) F 12 min ,

其中 F 12 ( x k ) F 12 ( x 0 ) 分别为目标函数 F 12 ( x ) x k x 0 处的函数值, F 12 min 为最小函数值。接着令 T( k ) 为得到 x k 的总计算时间,从而定义每个时间歩长下的最小相对误差为

E( t ):=min{ e( k )|k{ i|T( i )t } }.

当最小相对误差 E( t ) 越接近0时,目标函数 F 12 ( x ) 越接近最优解。

针对数值实验的参数设置,首先随机生成矩阵 A m×n ,向量 b m ,并控制变量,依次选取正则化参数 λ=0.5 λ=0.3 ,用于比较不同正则化参数条件下pDCA-SARAH算法和pDCA的数值效果。针对问题规模设置,本节考虑如下四个三元数组:

( n, m, s )=( 3000, 900, 180 ); ( n, m, s )=( 5000, 1500, 300 );

( n, m, s )=( 8000, 2400, 480 ); ( n, m, s )=( 10000, 3000, 600 ).

对以上四个数组 ( n, m, s ) 分别生成10组独立实验并计算出每组的平均最小相对误差,以此来比较pDCA与pDCA-SARAH算法的数值效果。此外,我们统一规定两算法的外循环最大迭代次数为10,000,并根据问题规模 ( n, m, s ) 分别设置最大迭代时间为100秒、300秒、700秒和1000秒。其次设置pDCA-SARAH算法内循环迭代次数为2,每轮内循环随机抽取的小批量数据个数为3。

针对不同的正则化参数 λ 与问题规模 ( n, m, s ) ,分别将最小相对误差 E( t )= 10 6 时,pDCA与pDCA-SARAH算法迭代所用时长记录在表1表2中。从表中不难看出,当正则化参数 λ 确定时,对本文所规定的四组不同的问题规模 ( n, m, s ) ,就两算法的最小相对误差 E( t ) 达到相同阈值 1× 10 6 所需的迭代时间而言,pDCA-SARAH算法均比pDCA短,且问题规模越大,pDCA-SARAH算法的优势便越显著,这说明了pDCA-SARAH算法在处理大规模DC问题时的优越性。

Table 1. When λ=0.5, E( t )= 10 6 , comparison between two algorithms with respect to iteration times in problem (4.1)

1. λ=0.5, E( t )= 10 6 时,问题(4.1)中两算法迭代时间对比

案例

问题规模

迭代时间(秒)

n

m

s

pDCA

pDCA-SARAH

1

3000

900

180

99.02

89.12

2

5000

1500

300

255.32

232.79

3

8000

2400

480

664.42

622.51

4

10,000

3000

600

982.70

836.98

Table 2. When λ=0.3, E( t )= 10 6 , comparison between two algorithms with respect to iteration times in problem (4.1)

2. λ=0.3, E( t )= 10 6 时,问题(4.1)中两算法迭代时间对比

案例

问题规模

迭代时间(秒)

n

m

s

pDCA

pDCA-SARAH

1

3000

900

180

85.88

79.27

2

5000

1500

300

267.69

227.04

3

8000

2400

480

672.10

606.27

4

10000

3000

600

907.02

837.88

此外,针对不同问题规模 ( n, m, s ) 与正则化参数 λ ,我们还在图1图2中给出了pDCA与pDCA-SARAH算法的迭代收敛结果。具体的,图1给出了正则化参数 λ=0.5 时,pDCA与pDCA-SARAH算法最小相对误差 E( t ) 的下降比较,从图中可知pDCA-SARAH算法的收敛速度比pDCA更快。类似的,针对正则化参数 λ=0.3 的情形,由图2亦可以得出上述结论。因此,在处理大规模DC问题时,就达到相同最小相对误差 E( t ) 所需时间而言,pDCA-SARAH算法要优于pDCA。

Figure 1. When λ=0.5 , comparison of relative error reduction E(t) in pDCA and pDCA-SARAH algorithms

1. λ=0.5 时,pDCA与pDCA-SARAH算法最小相对误差E(t)下降比较

Figure 2. When λ=0.3 , comparison of relative error reduction E(t) in pDCA and pDCA-SARAH algorithms

2. λ=0.3 时,pDCA与pDCA-SARAH算法最小相对误差E(t)下降比较

5. 总结

本文将随机梯度SARAH与pDCA相结合,提出基于SARAH的随机邻近DC算法(pDCA-SARAH),并将其应用于求解一类具有有限和形式的DC问题。

首先,本文提出pDCA-SARAH算法,该算法通过在内循环中抽取小批量的数据来计算随机梯度,并以此来近似全梯度,以实现计算成本的降低。其次,本文对pDCA-SARAH算法的收敛性及收敛率进行了分析,并在非凸情形下,详细地给出了目标函数在期望意义下的下降量分析和次线性收敛率分析。最后,通过数值实验,验证了pDCA-SARAH算法在处理大规模DC问题时的高效性。

参考文献

[1] Le Thi, H.A., Le, H.M. and Pham Dinh, T. (2014) Feature Selection in Machine Learning: An Exact Penalty Approach Using a Difference of Convex Function Algorithm. Machine Learning, 101, 163-186.
https://doi.org/10.1007/s10994-014-5455-y
[2] Yin, P., Lou, Y., He, Q. and Xin, J. (2015) Minimization of ℓ1−2 for Compressed Sensing. SIAM Journal on Scientific Computing, 37, A536-A563.
https://doi.org/10.1137/140952363
[3] Le Thi, H.A., Le, H.M., Phan, D.N. and Tran, B. (2020) Stochastic DCA for Minimizing a Large Sum of DC Functions with Application to Multi-Class Logistic Regression. Neural Networks, 132, 220-231.
https://doi.org/10.1016/j.neunet.2020.08.024
[4] Pham, N.H., Nguyen, L.M., et al. (2020) ProxSARAH: An Efficient Algorithmic Framework for Stochastic Composite Non-Convex Optimization. Journal of Machine Learning Research, 21, 4455-4502.
[5] Dinh, T.P. (1986) Methods of Subgradients. North-Holland Mathematics Studies.
[6] Luu, H.P.H., Le, H.M. and Le Thi, H.A. (2024) Markov Chain Stochastic DCA and Applications in Deep Learning with PDEs Regularization. Neural Networks, 170, 149-166.
https://doi.org/10.1016/j.neunet.2023.11.032
[7] Hu, S. and Yan, Z. (2024) Quadratic Growth and Linear Convergence of a DCA Method for Quartic Minimization over the Sphere. Journal of Optimization Theory and Applications, 201, 378-395.
https://doi.org/10.1007/s10957-024-02401-w
[8] Gotoh, J., Takeda, A. and Tono, K. (2017) DC Formulations and Algorithms for Sparse Optimization Problems. Mathematical Programming, 169, 141-176.
https://doi.org/10.1007/s10107-017-1181-0
[9] Nesterov, Y. (2004) Introductory Lectures on Convex Optimization: a Basic Course. Kluwer Academic Publishers.
[10] Polyak, B.T. (1964) Some Methods of Speeding up the Convergence of Iteration Methods. USSR Computational Mathematics and Mathematical Physics, 4, 1-17.
https://doi.org/10.1016/0041-5553(64)90137-5
[11] Wen, B., Chen, X. and Pong, T.K. (2017) A Proximal Difference-Of-Convex Algorithm with Extrapolation. Computational Optimization and Applications, 69, 297-324.
https://doi.org/10.1007/s10589-017-9954-1
[12] Gao, L. and Wen, B. (2022) Convergence Rate Analysis of an Extrapolated Proximal Difference-of-Convex Algorithm. Journal of Applied Mathematics and Computing, 69, 1403-1429.
https://doi.org/10.1007/s12190-022-01797-w
[13] Robbins, H. and Monro, S. (1951) A Stochastic Approximation Method. The Annals of Mathematical Statistics, 22, 400-407.
https://doi.org/10.1214/aoms/1177729586
[14] Li, M., Zhang, T., Chen, Y. and Smola, A.J. (2014) Efficient Mini-Batch Training for Stochastic Optimization. Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, New York, 24-27 August 2014, 661-670.
https://doi.org/10.1145/2623330.2623612
[15] Johnson, R. and Zhang, T. (2013) Accelerating Stochastic Gradient Descent Using Predictive Variance Reduction. News in Physiological Sciences, 1, 315-323.
[16] Defazio, A., Bach, F. and Lacoste-Julien, S. (2014) SAGA: A Fast Incremental Gradient Method with Support for Non-Strongly Convex Composite Objectives. In: Ghahramani, Z., Ed., Advances in Neural Information Processing Systems, MIT Press, 1646-1654.
[17] Nguyen, L.M., Liu, J., Scheinberg, K., et al. (2017) SARAH: A Novel Method for Machine Learning Problems Using Stochastic Recursive Gradient. Proceedings of the 34th International Conference on Machine Learning, Sydney, 6-11 August 2017, 2613-2621.
[18] 董萍. 求解大规模优化问题的Gauss-Seidd型惯性邻近交替线性极小化算法[D]: [硕士学位论文]. 南京: 南京信息工程大学, 2023.
[19] 刘浩洋. 最优化计算方法[M]. 北京: 高等教育出版社, 2020.
[20] 刘浩洋. 最优化: 建模、算法与理论[M]. 北京: 高等教育出版社, 2020.
[21] Nesterov, Y., et al. (2018) Lectures on Convex Optimization: Volume 137. Springer.
[22] Liu, T. and Takeda, A. (2022) An Inexact Successive Quadratic Approximation Method for a Class of Difference-of-Convex Optimization Problems. Computational Optimization and Applications, 82, 141-173.
https://doi.org/10.1007/s10589-022-00357-z