1. 引言
1.1. 研究背景及意义
随着科技快速的发展,如今数字化技术与网络化技术日新月异,大数据正在飞速增长,人类已经迈入一个全新的时代。最优化问题的研究和发展一直受到广泛关注。大数据时代带来许多机遇的同时,也带来许多问题,例如工程、信息、生物等领域,所建立的模型可以转化为等式约束优化问题。
实际问题中一般所求的目标函数问题规模巨大,且可能是非光滑的,传统的内点法等算法往往无法求解这类问题。而根据ADMM算法的核心思想:先分解协调过程,将全局问题分解为多个较容易求解的局部子问题,再求解协调子问题而得到全局问题的解;运用ADMM算法等一阶算法求解这类问题更为适合,所以对ADMM算法的研究非常具有理论意义和应用价值,并且具有巨大的发展潜力。
1.2. 研究现状
Glowinski & Marrocco [1] 及Gabay & Mercier [2] 分别于1975年和1976年最先提出了ADMM算法,现在ADMM算法主要用于解决具有可分离变量的优化问题,它可以解决增广拉格朗日算法所不能解决的问题。50年代中期,有大量文献分析了相似的算法的性质,但当时这一类似算法主要用于解决偏微分方程问题。
本文主要研究以下具有分离结构的约束凸优化问题:
(1)
其中f和g是闭凸连续函数,
和
是一个给定的行满秩矩阵,
是一个给定的向量,
和
是非空闭凸集。
针对求解式(1)的算法目前已经有很多种,其增广拉格朗日函数为:
其中,
为拉格朗日乘子,
为罚参数。
经典的ADMM算法迭代步骤如下:
其中,
是给定的对称正定阵。
与增广拉格朗日乘子算法(ALM) [3] [4] [5] 相比,ALM算法可以同时求解两个分离的变量,而ADMM算法是对变量交替进行求解,这也是算法名字的由来。
我们可以将经典的ADMM算法看作是ALM算法的Gauss-Seidel [6] 形式,而Douglas-Rachford分裂算法 [7] [8] 是ADMM的一种对偶形式,并且邻近点算法(PPA) [9] [10] 可以说明D-R算法。
2011年,Boyd [11] 等人重新回顾总结并证明ADMM算法适用于大规模优化问题后,使得这种方法逐渐进入了学者们的视野。随后,ADMM算法因为其良好的理论性质备受学者们的追捧,其收敛性与计算复杂性有丰富的研究成果 [12] [13] [14] [15]。此外,ADMM算法在压缩感知 [16]、图像处理 [17]、信号处理 [18] [19]、机器学习 [20] 等领域也取得了重大进展。由于其广泛的应用性,该算法近十来年已经有了很多改进和推广。
ADMM下降算法 [21] 是ADMM算法的一种改进,我们定义:
,
算法的迭代步骤如下
其中
为最优步长,
是给定的对称正定阵,
是延长因子(一般
时会使收敛速度加快)。
并行分裂ADMM下降算法 [22] 的迭代步骤如下,定义:
在ADMM下降算法中,要得到
,都要用到上一步的结果
,而并行分裂ADMM下降算法可以弥补这一不足,
的获得是独立不依赖于
的,
和
是并行分解的,这也是称之为并行分裂的原因。并行分裂ADMM下降算法在实际应用中可以大大地加快收敛的速度。
文献 [23] 考虑改善步长收缩算法 [24] [25] 的固定扩张步长没有充分利用下降量函数的不等式放缩,将算法中不变的延长因子改为使用随机数生成的延长因子,并称为随机步长收缩算法,这一改进方便选定步长且其取值更加丰富。
本文将上述并行分裂ADMM下降算法和随机步长收缩算法的思想相结合,提出了带随机步长的并行分裂ADMM下降算法,并在一定的假设条件下证明了算法的收敛性,且数值实验表明新算法是有效的。
2. 预备知识
下面简单回顾一些在随后的证明中要用到的一些基础知识。
引入拉格朗日乘子
,将式(1)转化为下列变分不等式,也就是寻找
,使得
(2)
再记
为上式的非空解集,
是
中的一个解。
为了分析的便利,我们引入以下记号
定义2.1 [26] 设
,对称正定阵
,则向量x在矩阵G意义下的范数定义为
定义2.2 [27] 设
是一列随机变量,若
,恒有
则称
依概率收敛到X,记作
。
定理2.1 [27] 设
,则必有子序列
a.s. (几乎必然地)。
定理2.2 [27] Markov不等式:对
、
,有
定理2.3 [28] 设
是闭凸集,
和
为可微凸函数。设
满足
,即
的充分必要条件是
定理2.4 [27] Jenson不等式:设X是一个随机变量,f是一个凸函数,则有
如果f是一个凹函数,则有
3. 带随机步长的并行分裂ADMM下降算法及其收敛性
3.1. 带随机步长的并行分裂ADMM下降算法
步0初始化
,
,
,
,容许度
;
步1当
时,停机;否则依次计算
(3)
(4)
(5)
步2计算
(6)
其中
(7)
(8)
步3计算
返回步1。
注1
为服从区间
上的某种独立同分布的随机分布序列,
的数学期望
;
注2 当
取为固定值时,该算法退化为并行分裂的ADMM下降算法。
3.2. 收敛性
在该算法的收敛性分析中还需利用下述引理。
引理3.1 当
为单调连续算子时,由新算法依次计算得到的
满足
(9)
证明由(3)~(5)可得
(10)
(11)
将上述式子简单整理写为向量格式,即可得到(9)。
引理3.2给定
,
是由(3)~(5)产生得到的,
由(8)所定义,则有
(12)
证明首先,根据矩阵G和
的定义,
(13)
根据Cauchy-Schwarz不等式,得
(14)
(15)
把(14) (15)带入到(13)中,得
从而直接得到引理中3.2中的结果。
引理3.3给定
,
是由(3)~(5)产生得到的,则对任意的
,有
(16)
证明因为
,
,
,由(8)可得
(17)
另一方面,因为
,
,从(10) (11)可得到
(18)
把(17)和(18)相加,并利用
和
的单调性,得
整理得到
(19)
由于
且
,从(19)我们直接得到(16)。
引理3.4给定
,
是由(3)~(5)产生得到的,则对任意的
,有
(20)
证明首先,使用矩阵G的定义,有
(21)
将(16)代入(21)右边的最后一项得到
利用
,从上面的不等式我们得到
(22)
因为
,再由
的定义,我们可以直接得到(20)。
引理3.5给定
,
是由(3)~(5)产生得到的,定义
(23)
(24)
则有
(25)
证明由(23) (24)和(20)可知
(26)
(26)的右侧是
,得证。
注1 引理3.5中
是迭代点和最优点距离的下降量,因其含有未知量
,从而无法计算;
是
的一个下界函数,此函数不含未知量
,相对易于计算。
注2 注意到
是关于
的二次函数,最大值在
处取得,且
。
定理3.1当
时,由(3)~(6)产生的迭代序列
收敛,并且存在
使得对任意的
,
有
(27)
其中
。
证明由于G是对称正定阵,根据(5)和
,得
(28)
(29)
(30)
(31)
其中(28)由(20)可得,即
;(29)由
可得;(30)由
可得;(31)由(12)可得。
根据(5)和
,可得
即
。
故
(32)
由(32)可知,因
独立同分布,且
,所以
(33)
其中(33)是由Jenson不等式得到的,
是一个凸函数,故
;再令
。即(28)得证。
推论3.1当
时,
为新算法产生的序列,则有
1) 序列
和
是有界的;
2) 序列
是严格单调递减且有界的;
3)
。
下面给出新算法的依概率收敛的证明。
定理3.2由新算法产生的序列
依概率收敛于
,即
。
证明根据上面推论3.1中的2),有
(34)
(35)
对于,由(10) (11)和(6)得:
即:
(36)
(37)
由(34)和(36) (37)得
(38)
由于
有界,故该序列至少存在一个聚点,设
是
的一个聚点,且存在子序列
收敛于
,那么子序列
依概率收敛到
,即
。
再由(35)和(38)可得
即
因此,
。
由
可知,
。
又因为
,则对任意
,存在
使得
,
根据推论,
是严格单调递减的。因此,对任意
,有
(39)
即
。
由定理2.2和(39)可知,对任意
,存在
,只要
,就有
即
。
故
依概率收敛到
,即
。
4. 数值实验
我们考虑求解下列等式约束二次规划问题
其中P和Q是对称正定阵,
,
,
,
,
,
,
。
我们令
,其中的最优取值是通过反复测试确定的。同时,
是在区间
上选取的服从正态分布的随机数。在新算法运行前,我们对矩阵
进行Cholesky分解,来化简对子问题的求解。我们取
作为停机准则。
我们在每组
设置下,测试了几组不同设置的问题。然后将几种算法数值实验的结果进行比较,见表1。
Table 1. Numerical experimental results of four algorithms
表1. 四种算法的数值实验结果
5. 结语
本文基于并行分裂ADMM下降算法和改善步长的收缩算法,提出了一种求解结构型凸优化问题的新算法——带随机步长的并行分裂ADMM下降算法,文章证明了新算法的收敛性。数值实验结果显示,在求解结构型凸优化问题时,新算法的迭代步数及CPU运行时间均优于文章中的其他4类算法,并且新算法的计算效率对数据维度的增长有较好的鲁棒性,进一步说明新算法可用于处理一些高维数据的问题。
本文在ADMM算法基础上进行算法改进的研究,并取得了一些新的成果,但还有许多问题值得我们更深一步的研究。在随后的研究中,我们主要考虑以下几个方面:
1) 本文考虑的目标函数是带有两块的结构型凸优化问题,后面还可以考虑新算法能否推广到带有三块及多块的结构型凸优化问题的情况;
2) 能否加入Nesterov加速等其他加速算法,使算法的计算效率进一步提高;
3) 以后还可测试一些实际问题,比如图像降噪、信号处理等问题。
NOTES
*第一作者Email: 809667206@qq.com
#通讯作者Email: 809776206@qq.com