Barzilai-Borwein型算法的探讨
Discussion on Barzilai-Borwein Algorithm
DOI: 10.12677/AAM.2022.114238, PDF, HTML, XML, 下载: 399  浏览: 939 
作者: 黄亚楠:长沙理工大学数学与统计学院,湖南 长沙
关键词: Barzilai-Borwein型算法负梯度算法初始步长算法的应用Barzilai-Borwein Algorithm Negative Gradient Algorithm Initial Step Size Application of the Algorithm
摘要: 本文介绍了八种负梯度算法,根据特点对其进行了比较,并对不同维数的严格凸二次函数进行了计算,绘制图表观察数据,发现BB型算法更具优势,维数越大优势越大。选取不同的初始步长可以改变算法的效果,特别是当矩阵条件数越大时,初始步长的选取越关键,本文考虑了四种选择初始步长的方法,分别将其放入算法中进行数值实验,结果表明,选取Hessian矩阵最小特征值的倒数效果最好。最后,介绍了负梯度算法在深度学习中的应用。
Abstract: This paper introduces eight kinds of negative gradient algorithms, compares them according to their characteristics, calculates strictly convex quadratic functions of different dimensions, draws graphs and observes data, and finds that BB algorithm is more advantageous, the larger the dimension is, the greater the advantage is. Selecting different initial step size can change the effect of the algorithm, especially when the number of matrix conditions is larger, the selection of the initial step size is more critical. This paper considers four methods of selecting the initial step size, and puts them into the algorithm for numerical experiments. The results show that the reciprocal of the minimum eigenvalue of the Hessian matrix is the best. Finally, the application of negative gradient algorithm in deep learning is introduced.
文章引用:黄亚楠. Barzilai-Borwein型算法的探讨[J]. 应用数学进展, 2022, 11(4): 2242-2258. https://doi.org/10.12677/AAM.2022.114238

1. 引言

Barzilai-Borwein (BB)算法 [1] 是1988年提出的一种负梯度算法,它可以追溯到1847年Cauchy提出的最速下降法(SD) [2],在当时产生了很大的影响。由于收敛速度慢,迭代次数过多,SD算法并没有引起人们的重视,为了提高负梯度算法的收敛速度,减少了迭代次数,Barzilai和Borwein提出了BB算法,并与SD进行了比较,给出了二次收敛和渐近收敛的证明,实验结果表明,BB算法在严格凸二次函数的极小化方面具有更强的竞争力。

BB算法提出后,负梯度算法越来越受到人们的关注。Raydan [3] 等人利用位移幂法(计算矩阵特征值和特征向量),得到了BB算法对n维严格凸二次函数具有全局收敛性。Dai [4] 在Raydan等人的基础上进一步证明BB算法对n维严格凸二次函数收敛速度是R-线性收敛的,虽然这一结果没有SD算法的Q-线性速度,但BB算法的实际计算效果要远好于SD算法。在此基础上Fletcher [5] 等人通过忽略递归关系中的某些项,定义了该方法的简化版本,给出了n维BB算法的渐近收敛。

2003年Dai [6] 等人在BB算法的基础上,提出了交替使用BB步长的交替步梯度法(AS),并分析在2维的情况下AS算法是两步Q-超线性收敛的,在n维情情况下AS算法是R-线性的收敛性,对比BB算法发现当矩阵A维数越大,AS算法的迭代次数比BB算法的迭代次数就越少,说明AS算法是一种很有潜力的BB型算法,为解决大规模问题提供了很好的选择。不仅如此在2006年预处理BB算法(ABB) [7] 提出,实验结果表明ABB算法明显优于已有BB型算法。本文在此基础上分析了多种负梯度算法,并应用到了不同维数的严格凸二次函数中,分析比较了数值结果,发现初始步长选择合适可以减少迭代次数和时间,数值结果表明不同的初始步长产生的迭代次数不同,为求解大规模问题提供了新的选择,例如信号处理 [8]、机器学习 [9] 和零售问题 [10] [11] [12]。

2. Barzilai-Borwein步长的选取

考虑严格凸二次函数的极小化问题:

min x n f ( x ) = 1 2 x T A x b T x (2.1)

中BB步长 α k 是如何选取的,其中矩阵 A n × n 是对称正定的,向量 b n 。利用SD算法和BB算法进行求解时,发现SD算法求解效果不好,尤其当A的条件数( c o n d ( A ) = A A 1 )很大时,效率很低,而BB算法表现良好。

负梯度算法的迭代格式均为 x k + 1 = x k a k f ( x k ) ,其中 a k 表示步长, f ( x k ) 表示梯度,经过计算梯度可以写成 f ( x k ) = A x k b 。BB型算法的基本思想源于拟牛顿算法,它希望步长 a k 使矩阵 D k = α k I 满足拟牛顿方程:

D k s k 1 = y k 1 (2.2)

记: s k 1 = x k x k 1 y k 1 = f ( x k 1 ) f ( x k 1 ) (2.3)

D k 为函数 f ( x ) x k 点处的Hessian矩阵 A k 的逼近,利用上一步的迭代信息,使得矩阵 D k 具有一定的拟牛顿性质,在二范数的意义下取极小:

α k = arg min α k > 0 D k 1 s k 1 y k 1 2 2 (2.4)

对这个极小化问题求解,并把解记为 α k B B 1 得到:

α k B B 1 = s k 1 T s k 1 s k 1 y k 1 (2.5)

根据对称性使得矩阵 D k 的逆 D k 1 也有一定的拟牛顿性质,同样的在二范数的意义下取极小:

α k = arg min α k > 0 s k 1 D k y k 1 2 2 (2.6)

对这个极小化问题求解,并把解记为 α k B B 2 得到:

α k B B 2 = s k 1 T y k 1 y k 1 T y k 1 (2.7)

通常把 α k B B 1 称为长BB步长,把 α k B B 2 称为短的BB步长利用SD算法中:

x k x k 1 = α k f ( x k ) (2.8)

f ( x k ) f ( x k 1 ) = A ( x k x k 1 ) = A ( α k f ( x k ) ) (2.9)

带入到BB算法得到:

s k 1 = x k x k 1 = α k f ( x k ) (2.10)

y k 1 = f ( x k ) f ( x k 1 ) = A ( x k x k 1 ) = A ( α k f ( x k ) ) (2.11)

那么 α k B B 1 可以写成:

α k B B 1 = ( α k 1 f ( x k 1 ) ) T ( α k 1 f ( x k 1 ) ) ( α k 1 f ( x k 1 ) ) T A ( α k 1 f ( x k 1 ) ) = f ( x k 1 ) T f ( x k 1 ) f ( x k 1 ) T A f ( x k 1 ) (2.12)

同样的 α k B B 2 可以写成:

α k B B 2 = ( α k 1 f ( x k 1 ) ) T A ( α k 1 f ( x k 1 ) ) ( α k 1 f ( x k 1 ) ) T A T A ( α k 1 f ( x k 1 ) ) = f ( x k 1 ) T A f ( x k 1 ) f ( x k 1 ) T A 2 f ( x k 1 ) (2.13)

与SD算法和MG (Minimum Gradient) [4] 算法的步长相比:

α k S D = arg min α k > 0 f ( x k α f ( x k ) ) = f ( x k ) T f ( x k ) f ( x k ) T A f ( x k ) (2.14)

α k M G = arg min α k > 0 f ( x k α f ( x k ) ) = f ( x k ) T A f ( x k ) f ( x k ) T A 2 f ( x k ) (2.15)

BB步长是取SD算法或MG算法的上一步步长,在实际计算中,BB算法的数值结果明显优于SD算法和MG算法。BB型算法的迭代过程中,函数值并不严格减小。数值实验表明,BB型算法实际上是一种非单调下降方法,在求解严格凸二次函数时具有优势。

3. 算法介绍

负梯度算法设计较为简单,计算量小,储存变量少,对初始点没有特别要求,许多算法的初始方向都是最速下降方向(即负梯度方向)。由于BB步长没有严格的规定,BB型算法也逐渐增多,接下来将普通的负梯度法和BB型算法两两分组进行介绍。

3.1. 最速下降法和Barzilai-Borwein-1算法

最速下降法是一种最古老的优化算法,它的收敛速度与目标函数的性质有极强相关性,例如矩阵的维数,矩阵的条件数,但其算法简单以目标函数的负梯度方向为搜索方向,具体算法如下:

算法1 (SD算法):令 { x k } 为SD算法求解问题(2.1)过程中的迭代序列

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长: α k = f ( x k ) T f ( x k ) f ( x k ) T A f ( x k )

步骤5定义下一步迭代:取 x k + 1 = x k a k f ( x k ) k = k + 1 转步骤2。

SD算法每次迭代的计算量和储存量少,对初始点的要求不高,可以比较快地从初始点到达极小点附近,但在接近极小点时会出现锯齿现象,所以每次迭代移动的步长很小,具有明显的周期性,侧面说明该下降方向是规则出现的,使收敛速度很慢,BB-1算法继承了SD算法的优点同时避免了锯齿现象的产生,由于BB-1步长的特点,函数值并不严格减小,但收敛速度快和迭代次数少,在求解严格凸二次函数时具有优势。

算法2 (BB-1算法):令 { x k } 为BB-1算法求解问题(2.1)过程中的迭代序列,

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长: α k = s k 1 T s k 1 s k 1 y k 1

步骤5定义下一步迭代:取 x k + 1 = x k α k f ( x k ) k = k + 1 转步骤2。

3.2. 最小梯度法和Barzilai-Borwein-2算法

最小梯度法(MG)是在SD算法的基础上使函数值 f ( x ) 沿着射线 { x k α k f ( x k ) : α > 0 } 最小化,一定程度上加速了收敛速度,减少了迭代次数,但同样会在接近极小点时出现锯齿现象,而BB-2算法继承了MG算法优点的同时,避免了锯齿现象加速了收敛速度,减少了迭代次数和迭代时间。

算法3 (MG算法):令 { x k } 为MG算法求解问题(2.1)过程中的迭代序列

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长: α k = f ( x k ) T A f ( x k ) f ( x k ) T A 2 f ( x k )

步骤5定义下一步迭代:取 x k + 1 = x k a k f ( x k ) k = k + 1 转步骤2。

算法4 (BB-2算法):令 { x k } 为BB-2算法求解问题(2.1)过程中的迭代序列,

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长: α k = s k 1 T y k 1 y k 1 T y k 1

步骤5定义下一步迭代:取 x k + 1 = x k a k f ( x k ) k = k + 1 转步骤2。

3.3. 交替最小化梯度法和交替梯度法

交替最小化梯度法(AM)是交替使用步长 α k S D α k M G ,受矩阵条件数的影响较小,交替梯度法(AS)是在经典BB算法的基础上,交替使用步长 α k S D α k B B 1 ,这两种算法在接近极小点时不会出现锯齿现象,在求解大规模问题时具有优势。

算法5 (AM算法):令 { x k } 为AM算法求解问题(2.1)过程中的迭代序列,

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长:当k为奇数时 α k = f ( x k ) T f ( x k ) f ( x k ) T A f ( x k ) ,当k为偶数时 α k = f ( x k ) T A f ( x k ) f ( x k ) T A 2 f ( x k )

步骤5定义下一步迭代:取 x k + 1 = x k a k f ( x k ) k = k + 1 转步骤2。

算法6 (AS算法):令 { x k } 为AS算法求解问题(2.1)过程中的迭代序列,

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长:当k为奇数时 α k = f ( x k ) T f ( x k ) f ( x k ) T A f ( x k ) ,当k为偶数时 α k = s k 1 T s k 1 s k 1 y k 1

步骤5定义下一步迭代:取 x k + 1 = x k a k f ( x k ) k = k + 1 转步骤2。

3.4. 预处理SD算法和预处理BB算法

预处理SD算法结合了SD算法和MG算法的优点,对两者步长进行判选择,从而使迭代次数减少加快函数下降,选择不同的 κ , δ ( 0 , 1 ) ,迭代次数不同。预处理BB算法是在预处理最速下降法(ASD)的基础上提出的,它结合了BB-1算法和BB-2算法的优点,对两者步长进行判选择,从而使迭代次数减少加快函数下降,选择不同的 μ ( 0 , 1 ) ,迭代次数不同,为解决大规模问题提供选择。

算法7 (ASD算法):令 { x k } 为ASD算法求解问题(2.1)过程中的迭代序列,

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1 κ , δ ( 0 , 1 )

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长:若 α k M G / α k S D > κ α k = α k M G ,否则 α k = α k S D δ α k M G

步骤5定义下一步迭代:取 x k + 1 = x k a k f ( x k ) k = k + 1 转步骤2。

算法8 (ABB算法):令 { x k } 为ABB算法求解问题(2.1)过程中的迭代序列,

步骤1初始化参数: x 0 n ,误差 ε k = 1 ,最大迭代次数 i M a x ,初始步长 a 1 μ ( 0 , 1 )

步骤2收敛性检验:若 f ( x k ) ε ,输出 x k 作为近似的数值解;

步骤3确定下降搜索方向:计算 d k = f ( x k )

步骤4选取步长: α k B B 2 / α k B B 1 < μ α k = α k B B 2 ,否则 α k = α k B B 1

步骤5定义下一步迭代:取 x k + 1 = x k a k f ( x k ) k = k + 1 转步骤2。

此外还有很多关于BB步长的研究例如使 α k = α k N B B = α k B B 1 α k B B 2 的新BB [13] 算法、在循环BB算法

(CBB)基础上使 α k = α k C A B B { α k B B 2 α k B B 2 / α k B B 1 < κ α k C B B 的自适应循环BB [8] (CABB)算法、令

α k s t a b = x k + 1 x k f ( x k ) 使 α k = min { α k B B , α k s t a b } 的BBstab [9] 算法,这些都是在经典BB算法的基础上优化BB

步长进而产生的新算法,这些都是在改变迭代步长,但数值研究表明,初始 α 1 的选取可以影响算法的迭代次数和运行时间,选取初始步长的方法如下:

1) 采用任一种一维寻优法,此时 α k = arg min α k > 0 f ( x k α f ( x k ) ) f ( x k α f ( x k ) ) α 唯一元函数,利用任一种一维寻优都可以求得 α 1

2) 微分法,由 α f ( x k α f ( x k ) ) = φ ( α ) 对于一些简单的情况可以直接令 φ ( α ) = 0 求出近似的最优步长 α 1 的值。

3) 直接赋值,可以直接令 α 1 = 1

4) 选取Hessian矩阵最小或最大特征值的倒数 1 λ min 1 λ max

利用上述介绍的算法解决不同维数的严格凸二次函数,同时利用上述方法选取初始步长 α 1 进行数值实验,观察算法产生的迭代次数、迭代时间、函数值的变化。

4. 数值实验与比较

本节通过上述八种优化算法求解(2.1)进行数值实验,为了避免偶然性造成的误差,随机生成(0, 100)内的2、4、10、20、30个正整数作为 { λ 1 , λ 2 , , λ n } 令(2.1)中 A = d i a g ( λ 1 , λ 2 , , λ n ) b = e n ,选取不同的初始步长 α 1 观察迭代次数、迭代时间。设置相关参数误差 ε = 10 8 i M a x = 10000 κ = 0.5 δ = 0.5 μ = 0.5 x 1 = 0 A 1 = d i a g ( 30 , 2 ) b 1 = e 2 A 2 = d i a g ( 82 , 89 , 34 , 71 ) b 2 = e 4 A 3 = d i a g ( 89 , 56 , 9 , 69 , 95 , 5 , 97 , 13 , 61 , 86 ) b 3 = e 10 A 4 = d i a g ( 80 , 61 , 25 , 37 , 53 , 21 , 92 , 37 , 5 , 52 , 60 , 64 , 34 , 45 , 75 , 38 , 61 , 99 , 61 , 88 ) b 4 = e 20 A 5 = d i a g ( 13 , 9 , 20 , 11 , 19 , 50 , 99 , 98 , 76 , 71 , 17 , 21 , 28 , 23 , 20 , 53 , 48 , 48 , 18 , 76 , 63 , 27 , 67 , 73 , 1 , 21 , 59 , 67 , 60 , 60 ) b 5 = e 30 ;求得 A 1 A 2 A 3 A 4 A 5 的条件数分别为15、2.62、19.4、19.8、99。

本文所有实验在Windows操作系统(主频2.59 GHz的64位CPU,运行内存8 GB)平台上MatlabR2018b

软件和Jupyter Notebook (py34)的环境中进行。方法一取初始步长 α 1 = f ( x 1 ) T f ( x 1 ) f ( x 1 ) T A f ( x 1 ) ,方法二取初始步长 α 1 = 1 ,方法三取初始步长 α 1 = 1 λ min ,方法四取初始步长 α 1 = 1 λ max 。利用python语言编写程序整理出八种算法选取不同初始步长的迭代次数,如表1所示:

Table 1. The number of iterations of 8 algorithms

表1. 8种算法的迭代次数

整理出程序运行所需要的时间,为了更方便地观察将时间扩大1000倍,如表2所示:

Table 2. Iteration time of 8 algorithms

表2. 8种算法的迭代时间

将这八种算法的迭代次数绘图,如图1~8所示:

Figure 1. Gradient descent

图1. 最速下降法

Figure 2. Barzilai-Borwein-1 algorithm

图2. Barzilai-Borwein-1算法

Figure 3. Minimum gradient method

图3. 最小梯度法

Figure 4. Barzilai-Borwein-2 algorithm

图4. Barzilai-Borwein-2算法

Figure 5. Alternating minimization gradient method

图5. 交替最小化梯度法

Figure 6. Alternating gradient method

图6. 交替梯度法

Figure 7. The fastest descent method of pretreatment

图7. 预处理最速下降法

Figure 8. Preprocessing Barzilai-Borwein algorithm

图8. 预处理Barzilai-Borwein算法

从图中可以看出,条件数对一般的负梯度算法影响较大,而BB算法更稳定,在解决大规模问题时更有竞争力。BB-1与BB-2算法相比,后者在矩阵维数较小时没有明显的优势,但随着矩阵维数的增加差距逐渐减小,甚至有稍微的优势。ASD算法对步长进行了选择,迭代次数大大减少,且当矩阵条件数越大其优势越发明显。ABB算法对BB步长进行了选择,实验结果表明,当矩阵维数较小时,ABB算法更接近BB-2算法;当矩阵维数较大时,ABB算法更接近BB-1算法。BB型算法比一般的负梯度算法更复杂,计算和存储的变量更多,但在运行时间上仍占优势。实验数据表明初始步长选择方法一和方法四的效果相似,方法三的效果最好,特别是当矩阵的维数和条件数越大时越有优势,这也反映出选择合适的初始步长可以改变算法的效果。

5. 负梯度算法的应用

负梯度算法广泛应用于图像重建 [14]、超分辨率图像技术 [15]、文本识别等大规模问题。其中图像重建的方法主要分为两类:第一种是直接利用数学反计算求横截剖面,称为解析图像重建;第二种是一系列的区域迭代,称为迭代图像重建。迭代法能够充分利用系数的稀疏性,具有占用内存少、程序设计简单、无误差积累等优点,图像重建的求解方案:

步骤1:将需要重建的图像放入直角网格,利用发射源和探测器进行扫描。

步骤2:将每个像素按照扫描次序排列,第j个像素中 x j 表示射线吸收系数, x j 为常数,第j个像素与第i条射线相交的长度用 α i j 表示, α i j 代表第j个像素沿第i条射线的贡献值,用 y i 性表示沿第i方

条射线方向的总吸收值,写成线性方程 y i = j = 1 N α i j x j , i = 1 , 2 , , N

步骤3:将线性方程组写成矩阵形式 A X = Y ,其中 X , Y 都是向量A是投影矩阵。

步骤4:将 A X = Y 转化为极小化问题 min f ( x ) = A X Y 2 2

步骤5:利用负梯度算法求解极小化目标函数 f ( x ) 。对CT (Computed tomography)图9进行图像重建,结果如图10所示:

Figure 9. The original image

图9. 原图像

Figure 10. The processed image

图10. 处理后的图像

可以看出,经过处理的图像显示了原图像中不容易观察到的地方。虽然图像有一定的分辨率,但仍然不够清晰。超分辨率图像技术是通过优化算法将低分辨率图像转化为高分辨率图像。高分辨率图像具有较高的像素密度,使图像质量更细腻、更自然、纹理更清晰,这是图像增强领域中一个非常重要的问题。传统的超分辨率技术通常采用负梯度算法求解,求解方案如下:

步骤1:假设模型,一般假设超分辨率模型为 Y k = D k H k F k X + V k , k = 1 , 2 , , N ,其中向量X表示待求的高分辨率图像;向量 Y k 表示所观察的低分辨率图像; D k , F k , H k 分别表示下采样矩阵、模糊矩阵、运动矩阵; V k 表示附加的高斯噪声。

步骤2:在超分辨率模型中将这些估计量的定义重写为最小化问题

X ^ = arg min X [ k = 1 N ρ ( Y k , D k H k F k X ) ] , k = 1 , 2 , , N ,其中 ρ 为模型和测量值之间的“距离”,令 D k H k F k = W k , k = 1 , 2 , , N ,当 ρ 是残差的二范数时可以得到最小二乘方程 X ^ = arg min X [ k = 1 N W k X Y k 2 2 ] , k = 1 , 2 , , N

步骤3:为了避免因低分辨率图像提供数据不足而造成的伪影,引入正则化项 λ J ( X ) ,那么问题将

改写为 X ^ = arg min X [ k = 1 N W k X Y k 2 2 + λ J ( X ) ] , k = 1 , 2 , , N ,令 k = 1 N W k X Y k 2 2 = E ρ ( X ) 可以写成 X ^ = arg min X f ( X ) = arg min X { E ρ ( X ) + λ J ( X ) }

步骤4:利用负梯度算法求解极小化目标函数 f ( X ) 。对低分辨率图11使用超分辨率技术,结果如图12所示:

Figure 11. The original image

图11. 原图像

Figure 12. The processed image

图12. 处理后的图像

原图像的分辨率为:250 × 250而处理后的图像为:434 × 363,不仅如此,图像的大小也从40.6 KB减小到了11.7 KB。超分辨率技术不仅提高了图像的分辨率,还减少了图像占用的内存。虽然图像的分辨率有所提高,但如何捕捉图像中的文字信息呢?字符识别技术适用于纸张打印、图片等字符的识别,识别结果以文本的形式存储在计算机中,如车牌识别就可以将优化算法和BP神经网络结合,可以选择负梯度算法来寻找最优的连接权值,这样可以提高字符识别算法的准确率,达到预期的效果。

最优化问题在深度学习中占有非常重要的地位,很多深度学习模型最终都会归结为求解最优化问题,求解大规模最优化问题通常采用数值计算方法,而负梯度算法就是最经典的数值计算方法,具有存储容量小,结构简单,易于实现的优点,是最简便也是最常用的优化算法之一,在训练类算法中,负梯度算法通常用于求解极小化问题。在现实生活中,需要根据不同的数据选择合适的负梯度算法,以降低计算成本,提高算法的整体效率。

6. 结论与期望

随着计算机技术和算法语言的快速发展,各种优化算法不断被提出,为解决大规模问题提供了新的选择。本文对八种负梯度算法进行了讨论和比较。同时,将这些算法用于解决不同维数的严格凸二次函数。通过对比实验数据,发现BB型算法在迭代次数和迭代时间上都比一般的负梯度算法更有优势,并且矩阵的条件数越大优势越大。在数值实验中,发现选择不同的初始步长会产生不同的效果,通过比较发现Hessian矩阵最小特征值的倒数是最佳选择。最后,介绍了负梯度算法在图像重建、超分辨率图像技术、文本识别中的应用。

由于BB步长没有严格的规定,新的BB型算法不断被提出,理论知识不断被完善,它们在解决特殊问题时具有或多或少的优势。许多书籍在介绍优化算法时对BB型算法的介绍较为笼统,网上关于BB型算法的语言代码也不多,大家对BB型算法只有一个大概的印象,希望通过本文大家对BB型算法的发展、理论知识、特点有一个详细的认识。本文推广了BB型算法,为BB型算法的进一步研究提供了参考,后续将会对BB步长和共轭梯度进行研究,结合两者的优点设计出一种新的BB型算法。

参考文献

[1] Barzilai, J. and Borwein, J.M. (1988) Two-Point Step Size Gradient Methods. IMA Journal of Numerical Analysis, 8, 141-148.
https://doi.org/10.1093/imanum/8.1.141
[2] Cauchy, A. (1847) Méthode générale pour la résolution des systemes déquations simultanées. Comptes rendus de l’Académie des Sciences Paris, 25, 536-538.
[3] Raydan, M. (1993) On the Barzilai and Borwein Choice of Steplength for the Gradient Method. IMA Journal of Numerical Analysis, 13, 321-326.
https://doi.org/10.1093/imanum/13.3.321
[4] Dai, Y.H. and Liao, L.Z. (2002) R-Linear Convergence of the Barzilai and Borwein Gradient Method. IMA Journal of Numerical Analysis, 22, 1-10.
https://doi.org/10.1093/imanum/22.1.1
[5] Roger, F. (2005) On the Barzilakborwein. Optimization and Control with Applications, 96, 235-256.
[6] Dai, Y.H. (2003) Alternate Step Gradient Method. Optimization, 52, 395-415.
https://doi.org/10.1080/02331930310001611547
[7] Zhou, B., Gao, L. and Dai, Y.H. (2006) Gradient Methods with Adaptive Step-Sizes. Computational Optimization and Applications, 35, 69-86.
https://doi.org/10.1007/s10589-006-6446-0
[8] Wan, Z., Guo, J., Liu, J. and Liu, W. (2018) A Modified Spectral Conjugate Gradient Projection Method for Signal Recovery. Signal, Image and Video Processing, 12, 1455-1462.
https://doi.org/10.1007/s11760-018-1300-2
[9] Sopyła, K. and Drozda, P. (2015) Stochastic Gradient Descent with Barzilai-Borwein Update Step for SVM. Information Sciences, 316, 218-233.
https://doi.org/10.1016/j.ins.2015.03.073
[10] Chen, X., Liu, Y. and Wan, Z. (2016) Optimal Decision Making for Online and Offline Retailers under BOPS Mode. The ANZIAM Journal, 58, 187-208.
https://doi.org/10.1017/S1446181116000201
[11] Li, Y., Wan, Z. and Liu, J. (2017) Bi-Level Programming Approach to Optimal Strategy for Vendor-Managed Inventory Problems under Random Demand. The ANZIAM Journal, 59, 247-270.
https://doi.org/10.1017/S1446181117000384
[12] Zhang, X., Huang, S. and Wan, Z. (2016) Optimal Pricing and Ordering in Global Supply Chain Management with Constraints under Random Demand. Applied Mathematical Modelling, 40, 10105-10130.
https://doi.org/10.1016/j.apm.2016.06.054
[13] Li, T. and Wan, Z. (2019) New Adaptive Barzilai-Borwein Step Size and Its Application in Solving Large-Scale Optimization Problems. The ANZIAM Journal, 61, 76-98.
https://doi.org/10.1017/S1446181118000263
[14] 李化欣, 潘晋孝. 最速下降法在图像重建中的应用[J]. 科技情报开发与经济, 2006, 16(3): 155-156.
[15] Farsiu, S., Robinson, M.D., Elad, M. and Milanfar, P. (2004) Fast and Robust Multiframe Super Resolution. IEEE Transactions on Image Processing, 13, 1327-1344.
https://doi.org/10.1109/TIP.2004.834669