求解约束极小极大问题的隐式梯度加速方法
Accelerated Implicit Gradient-Based Methods for Solving Constrained Minimax Problems
摘要: 求解约束极小极大问题的隐式梯度(GBAL)算法基本思路是,采用增广拉格朗日方法处理内层优化问题,再利用隐式梯度信息对外部变量进行迭代更新。在此基础上,本文提出了一种求解约束极小极大问题的隐式梯度加速算法,通过引入Nesterov加速梯度算法的一个变体算法更新外部变量来提升算法性能。理论分析表明,在内层问题解映射满足Lipschitz连续性且目标函数对外层变量为凸的条件下,所提出的加速算法实现了R-线性收敛速率,通过数值实验验证,加速算法在计算效率和收敛性方面均展现出优越性能。
Abstract: The fundamental approach of the Implicit Gradient-Based (GBAL) algorithm for solving constrained minimax problems involves using the augmented Lagrangian method to address the inner optimization problem, followed by iterative updates of the external variables utilizing implicit gradient information. Building upon this, this paper introduces an accelerated implicit gradient algorithm for solving constrained minimax problems, which enhances the algorithm’s performance by incorporating a variant of the Nesterov accelerated gradient algorithm to update the external variables. Theoretical analysis demonstrates that under the conditions where the solution mapping of the inner problem satisfies Lipschitz continuity and the objective function is convex with respect to the outer variables, the proposed accelerated algorithm achieves an R-linear convergence rate. Numerical experiments confirm that the accelerated algorithm exhibits superior performance in terms of computational efficiency and convergence.
文章引用:胡清莹. 求解约束极小极大问题的隐式梯度加速方法[J]. 应用数学进展, 2025, 14(4): 1035-1050. https://doi.org/10.12677/aam.2025.144225

1. 引言

极小极大问题(minmax problem)起源于博弈论中的基础数学问题,是最优化领域中一类典型的优化问题。随着计算机技术的飞速发展,约束最优化方法作为一种有效的最优化方法,在工业工程设计,优化管理等多方面的应用,越来越受到研究者的重视[1],以下是带约束的极小极大问题的常见形式:

min xX max yY f( x,y ), (1)

其中 X={ x n : g i ( x )0,i 1 , h j ( x )=0,j 1 } Y={ y m : g i ( x,y )0,i 2 , h j ( x,y )=0,j 2 }

尽管(1)和无约束的极小极大问题似乎密切相关,但前者实际上更具挑战性。例如,若 f( x,y ) 关于 x 是凸的,关于 y 是凹的时,无约束的极小极大问题很容易解决,但问题(1)通常是NP-困难的,即使对于 f( x,y ) 是强凸强凹情况也是一样。此外,经典的极小极大不等式[2]不适用于这类问题。综上,为求解无约束的极小极大问题开发的现有算法不能直接应用于求解(1)。但另一方面,与无约束的极小极大问题相比,(1)可用于对更广泛的应用进行建模,所以研究其解法也有着极其重要的意义。

在本文关注以下带约束的极小极大问题:

(P) min xX max yY( x ) f( x,y )

其中 Y( x )={ y m :h( x,y )=0,g( x,y )0 } ,函数 f: n×m h: n×m m 1 g: n×m m 2 是连续可微的, X n 是一个闭凸集。

2. 预备知识

基于梯度方法是利用梯度信息来指导搜索方向,该方法已经在求解无约束双层优化问题中显示出成效[3]。求解约束极小极大问题的隐式梯度(GBAL)算法扩展了基于梯度方法用于处理约束极小极大问题。首先定义内层问题 ( P x )

( P x ) max y m f( x,y )s.t.h( x,y )=0,g( x,y )0.

假设函数 f,h g 在某个 ( x * , y * ) 的邻域内是连续可微的,并且对变量 y 是二次连续可微的。用 S( x ) 表示问题 ( P x ) 的可行集。问题 ( P x ) 的拉格朗日函数定义如下:

L( x,y,λ,μ ):=f( x,y )+ λ T h( x,y ) μ T g( x,y ),

其中 h= ( h 1 ,, h m 1 ) T ,g= ( g 1 ,, g m 2 ) T ,且 ( λ,μ ) m 1 × m 2 是拉格朗日乘子。

定义集合

α:={ j: g j ( x,y( x ) )=0, μ j ( x )>0 }, β:={ j: g j ( x,y( x ) )=0, μ j ( x )=0 }, γ:={ j: g j ( x,y( x ) )<0, μ j ( x )=0 }.

z( x ):=( y( x ),λ( x ), μ α ( x ) )

M( x ):=[ R( x ) Q( x ) 0 S( x ) ],N( x ):=[ K( x ) 0 ],

其中 S( x ):= I | γ |

R( x ):=[ yy 2 L( x,y( x ),λ( x ),μ( x ) ) y h ( x,y( x ) ) T y g α ( x,y( x ) ) T y h( x,y( x ) ) 0 0 y g α ( x,y( x ) ) 0 0 ], Q( x ):=[ y g γ ( x,y( x ) ) T 0 0 ],K( x ):=[ yx 2 L( x,y( x ),λ( x ),μ( x ) ) x h( x,y( x ) ) x g α ( x,y( x ) ) ].

假设2.1. a) 假设 h,h 2 h 是Lipschitz连续的,并且各自的常数为 L h 0 >0, L h 1 >0 L h 2 >0

b) 假设 g,g 2 g 是Lipschitz连续的,并且各自的常数为 L g 0 >0, L g 1 >0 L g 2 >0

假设2.2. a) 假设 f, x f, y f, yx 2 f yy 2 f y 上是Lipschitz连续的,各自的常数为 L f 0,2 >0, L f 1,2 >0, L f 2,2 >0, L f 21,2 >0 L f 22,2 >0

b) 假设 x f, y f, yx 2 f yy 2 f x 上是Lipschitz连续的,各自的常数为 L f 1,1 >0, L f 2,1 >0, L f 21,1 >0 L f 22,1 >0

假设2.3. 假设内层问题的雅可比唯一性条件成立。

在假设2.3成立的条件下,拉格朗日乘子是有界的,有如下假设成立。

假设2.4. 假设存在常数 ,使得对于任何满足KKT条件的 ( λ,μ ) ,以下成立:

λ,μ .

在假设2.3成立的条件下,使用标准的隐函数定理,可以得到如下结论,说明内层问题解的存在性与局部与唯一性:

引理2.1. 设 ( x * , y * )X× m 是一个点,在此点附近函数 f,h g 都是二次连续可微的。设存在 ( λ * , μ * ) m 1 × m 2 使得问题 ( P x * ) 的雅可比唯一性条件在 ( y * , λ * , μ * ) 处满足,则存在 δ 0 >0 ε 0 >0 ,以及一个二次连续可微的映射 ( y,λ,μ ): B δ 0 ( x * ) B ε 0 ( y * )× B ε 0 ( λ * )× B ε 0 ( μ * ) ,使得当 x B δ 0 ( x * ) 时,问题 ( P x ) 的雅可比唯一性条件在 ( y( x ),λ( x ),μ( x ) ) 处满足。

在假设内层问题具有唯一局部解的情况下,极小极大问题(P)可以简化为以下单层问题:

min xX ϕ( x ):=f( x,y( x ) ):y( x )=arg max yY( x ) f( x,y ) .

为了解决这个问题,GBAL算法的基本思路如下:首先在每次迭代中使用增广拉格朗日法得到 y( x ) 的值。然后,基于通过链式法则计算的 ϕ 的梯度更新变量 x ,具体如下:

ϕ( x )= x f( x,y( x ) )+y ( x ) T y f( x,y( x ) ),

其中 y( x ) 在雅可比唯一性条件成立的前提下,可以使用隐函数定理获得。然而除非内层问题有闭式解,否则 y( x ) 不能被直接使用,这就限制了这仅适用于非常特定的问题。为了突破这一限制,GBAL算法提出通过隐函数定理来估计 y( x ) 的值,这需要用到以下引理。

引理2.2. 假设引理2.1中的条件成立。则对于任意 x B δ 0 ( x * ) 和在引理2.1中定义的 ( y( x ),λ( x ),μ( x ) ) ,以下结论成立。

a) 梯度函数 z( x ) 可以表示为:

z( x )=R ( x ) 1 K( x ). (2)

b) 存在常数 0< δ 1 < δ 0 0< ε 1 < ε 0 ,使得对于 ( x,y,λ,μ ) B δ 1 ( x * )× B ε 1 ( y * )× B ε 1 ( λ * )× B ε 1 ( μ * ) ,矩阵 R( x,y,λ,μ ) 是非奇异的,其中 R( x,y,λ,μ ) 是通过将 R( x ) 中的 y( x ),λ( x ) μ( x ) 替换为 y,λ μ 来定义的。此外,存在 η>0 ,使得

R ( x,y,λ,μ ) 1 η .

给出目标函数 f 的近似梯度如下:

¯ f( x ¯ , y ¯ ):= x f( x ¯ , y ¯ )+ U λ ¯ , μ ¯ ( x ¯ , y ¯ ) y f( x ¯ , y ¯ ), (3)

其中 U λ ¯ , μ ¯ ( x ¯ , y ¯ ):= { [ E 0 0 ]z( x ¯ , y ¯ , λ ¯ , μ ¯ ) } T z( x ¯ , y ¯ , λ ¯ , μ ¯ ) 是将(2)中的 y ¯ , λ ¯ μ ¯ 替换为 y( x ¯ ),λ( x ¯ ) μ( x ¯ ) 来定义的。

下面是近似梯度与原始梯度之间的一些连续属性和误差界限。

引理2.3. 在假设2.1,2.2,2.3和2.4成立的情况下,以下陈述成立:

a) 假设存在 ( x ¯ , y ¯ , λ ¯ , μ ¯ ) B δ 1 ( x * )× B ε 1 ( y * )× B ε 1 ( λ * )× B ε 1 ( μ * ) ,且 ( y( x ),λ( x ),μ( x ) ) 如引理2.1所给出,则:

¯ f( x ¯ , y ¯ )f( x ¯ ,y( x ¯ ) ) L 1 y ¯ y( x ¯ ) + L 2 λ ¯ λ( x ¯ ) + L 3 μ ¯ μ( x ¯ ) , (4)

其中 L 1 := L f 1,2 +η C K L f 2,2 + L U y L f 0,2 L 2 :=η L h 1 L f 0,2 + η 2 C K L h 1 L f 0,2 L 3 :=η L g 1 L f 0,2 + η 2 C K L g 1 L f 0,2 C K := L f 2,1 + L h 1 + L g 1 + L h 0 + L g 0 L U y :=η L K y + η 2 C K L R y L K y := L f 21,2 + L h 2 + L g 2 + L h 1 + L g 1 L R y := L f 22,2 + L h 2 + L g 2 +2 L h 1 +2 L g 1

b) 对于 x ¯ B δ 1 ( x * ) y( x ¯ ),λ( x ¯ ) μ( x ¯ ) x 上是Lipschitz连续的,常数为 L y =η C K

c) 对于 x ¯ B δ 1 ( x * ) f x 上是Lipschitz连续的,常数为 L f ,即对于任意给定的 x ¯ 1 , x ¯ 2 B δ 1 ( x * ) ,有:

f( x ¯ 1 ,y( x ¯ 1 ) )f( x ¯ 2 ,y( x ¯ 2 ) ) L f x ¯ 1 x ¯ 2 , (5)

其中 L f :=( L 1 + L 2 + L 3 ) L y + L f 1,1 +η C K L f 2,1 + L U x L f 0,2 L U x :=η L K x + η 2 C K L R x L R x := L f 22,1 + L h 2 + L g 2 +2 L h 1 +2 L g 1 L K x := L f 21,1 + L h 2 + L g 2 + L h 1 + L g 1

以下是具体的GBAL算法:

算法1. 求解约束极小极大问题的隐式梯度(GBAL)算法

输入: x 0 X y 0 m ζ>0 和非负序列 { α k } k0

1:初始化 k=0 y ¯ 0 = y 0

for k=0,1,2, do

2:利用算法2求解内层问题 ( P x k ) ,得到 y ¯ k , λ ¯ k μ ¯ k

3:如果 ¯ f( x k , y ¯ k )<ζ 则停止,其中 ¯ f 的定义在(3)中给出;

4:更新

x k+1 =arg min uX { ¯ f( x k , y ¯ k ),u + 1 2 α k u x k 2 }; (6)

end for

其中使用的非精确增广拉格朗日算法[4]如下:

算法2. 非精确增广拉格朗日算法

输入: y 0 m , w 0 m 和固定常数 x k ,乘子 λ 0 m 1 , μ 0 + m 2 ,非负序列 { c t } t0 ,参数 σ[ 0,1 ) 和整数 t k

for t=1,2,, t k do

1:定义

v t = y L c t ( x k , y t1 , λ t1 , μ t1 )

2:找到 y t m 使得

2 c t | w t1 y t , v t |+ v t 2 σ( h( x k , y t ) 2 + min{ 1 c t μ t1 ,g( x k , y t ) } 2 )

3:更新

λ t = λ t1 + c t h( x k , y t ), μ t =max{ 0, μ t1 + c t g( x k , y t ) }, w t = w t1 c t v t .

end for

其中 c>0 L c 是问题 ( P x ) 的增广拉格朗日函数:

L c ( x,y,λ,μ ):=f( x,y )+ i=1 m 1 ( λ i h i ( x,y )+ c 2 h i ( x,y ) 2 ) + 1 2c i=1 m 2 [ ( max{ 0, μ i +c g i ( x,y ) } ) 2 μ i 2 ].

以下是关于算法2收敛速率的结论。

引理2.4. [5] S( x ) 是问题 ( P x ) 的解集, M( x ) 是问题 ( P x ) 的对偶问题的解集。假设 S( x ) M( x ) 都是非空的,则以下结论成立。

a) 整个序列 p t :=( λ t , μ t ) 收敛到问题 ( P x ) 对偶问题的解。

b) 对于 y( x k )S( x k ) 和任意充分大的 t ,有:

y t y( x k ) κ( 1+ σ ) c t p t1 p t , (7)

因此

lim t y t y( x k ) =0 .

其中 κ 是引用[5]中的一个误差界比例系数。

c) 如果额外满足

liminf t c t >2κ( σ+ σ ),

那么对于 p( x k )M( x k ) 和任意充分大的 t ,有:

p t p( x k ) ρ t p t1 p( x k ) , (8)

其中

ρ t := κ 1+σ c t 2 2κ( σ+ σ ) c t + κ 2 ( 1+σ ) ,

并且

limsup t { ρ t }<1 .

3. 求解约束极小极大问题的隐式梯度加速算法

3.1节介绍了Nesterov加速梯度算法变体。3.2节将提到的Nesterov加速梯度算法变体应用到GBAL算法中,提出了求解约束极小极大问题的隐式梯度加速(aGBAL)算法,并对其进行了收敛性分析。最后的3.3节进行了数值实验的测试,验证了所提出的加速算法的加速性能。

3.1. Nesterov加速梯度算法变体

Nesterov加速梯度算法(Nesterov Accelerated Gradient, NAG)由Nesterov于1983年提出[1] [6],旨在解决传统梯度下降法在优化光滑凸函数时收敛速度不足的问题。为了更好地处理复杂目标函数,下面引入一个NAG变体[1] [7],这个算法通过引入动量权重和正则化项来增强稳定性,以更好地适应不同的优化问题。

定义动量权重如下,其中为了对目标函数的强凸性进行动态调节,引入了广义参数 λ k 0

η k = θ k ( μ f + λ k ) θ k 2 μ f μ f + λ k θ k 2 μ f ,

则中间点

x k md = η k x k +( 1 η k ) x k ag

λ k =0 时,就退化为经典Nesterov形式,此时 η k = θ k / ( 1+ θ k ) ,与NAG中 γ k =1/ ( k+2 ) 的参数设计相同。

迭代点的更新通过求解以下优化问题实现:

x k+1 =arg min uX f( x k md ),u + μ f 4 u x k md 2 + ( 1 θ k ) μ f + λ k 4 θ k u x k 2 ,

其目标函数可视为梯度项与复合二次正则项的组合。当 λ k =0 θ k 满足递推关系:

θ k+1 2 =( 1 θ k+1 ) θ k 2 ,

该问题等价于Nesterov的校正步骤,其解析解可显式写为:

x k+1 = x k md 2 θ k μ f f( x k md ).

3.2. 隐式梯度加速算法

结合上一节所提到的Nesterov加速梯度算法的变体,提出了下方求解约束极小极大问题的隐式梯度加速(aGBAL)算法。

算法3. 求解约束极小极大问题的隐式梯度加速(aGBAL)算法

输入: x 0 X, y 0 m ,ζ>0 以及非负序列 { α k } k0 , { λ k } k0

1:初始化 k=0, x 0 ag = x 0 y ¯ 0 = y 0

for k=0,1,2, do

2:定义

η k = θ k ( μ f + λ k ) θ k 2 μ f μ f + λ k θ k 2 μ f x k md = η k x k +( 1 η k ) x k ag . (9)

3:利用算法2求解内层问题 ( P x k md ) ,得到 y ¯ k ,  λ ¯ k μ ¯ k

4:如果 ¯ f( x k md , y ¯ k )<ζ ,则停止,其中 ¯ f 的定义见(3);

5:更新

x k+1 =arg min uX { ¯ f( x k md , y ¯ k ),u + μ f 4 u x k md 2 + ( 1 θ k ) μ f + λ k 4 θ k u x k 2 },

x k+1 ag =arg min uX { ¯ f( x k md , y ¯ k ),u + 1 2 α k u x k md 2 }.  ( 10 )

end for

注意到,如果 ¯ f( x k md , y ¯ k )=f( x k md ,y( x k md ) ) ,则(9)和(10)构成的就是上述Nesterov加速梯度变体。以下,分析此算法的主要收敛特性。

定理3.1. 假设序列 { y ¯ k , x k , x k md , x k ag } k0 是通过算法3生成的,并且满足假设2.1,2.2,2.3和2.4以及引理2.4的假设。取 k 0 0 ,使得对于任意 k k 0 ,都有 ( x k , y ¯ k , λ k , μ k ) B δ 1 ( x * )× B ε 1 ( y * )× B ε 1 ( λ * )× B ε 1 ( μ * ) ,其中 δ 1 ε 1 在引理2.2中给出了定义。步长选择满足:

α k 1 L f ,k k 0 (11)

θ k 2 α k ( μ f + λ k ) 4 ,k k 0 (12)

a) 如果 f 是关于 x 是强凸函数,参数为 μ f >0 ,且满足

λ k 0 Γ k 0 +1 = λ k 0 +1 Γ k 0 +2 =, (13)

选择 γ k = θ k ,则对于任意 N k 0 +1 ,有:

f( x N ag ,y( x N ag ) ) f * Γ N [ f( x k 0 ,y( x k 0 ) ) f * + μ f + λ k 0 Γ k 0 +1 1 4 x * x k 0 2 + 1 2 μ f k= k 0 N1 ( 6 θ k + α k μ f ) T k 2 Γ k+1 ] (14)

其中

T k := L 1 κ( 1+ σ )( 1+ ρ k ) c k i= k 0 +1 k1 ρ i p k 0 p( x k ) +( L 2 + L 3 ) i= k 0 +1 k ρ i p k 0 p( x k ) ,

Γ k 0 +1 :={ 1, γ k 0 =1 1 γ k 0 , γ k 0 <1 , Γ k := Γ k 0 +1 i= k 0 +1 k1 ( 1 γ i ),k k 0 +2,

0< γ k α k μ f 2 ,k k 0 . (15)

其中 L 1 , L 2 , L 3 的定义见(4), κ, ρ k c k 的定义见(7)和(8)。

b) 如果 f 关于 x 是凸函数, X 有界,且满足(13),则对于任意 N k 0 +1 ,有:

f( x N ag ,y( x N ag ) ) f * Γ N [ ( 1 γ k 0 )[ f( x k 0 ,y( x k 0 ) ) f * ] Γ k 0 +1 + λ k 0 Γ k 0 +1 x * x k 0 2 + k= k 0 N1 1 Γ k+1 ( θ k D x T k + α k T k 2 2 ), (16)

其中在 Γ k 中取 γ k = θ k

Proof. 首先证明a)。注意到子问题(10)的强凸性,对 xX ,有:

¯ f( x k md , y ¯ k ), x k+1 x μ f 4 [ x x k md 2 x x k+1 2 x k+1 x k md 2 ] + ( 1 θ k ) μ f + λ k 4 θ k [ x x k 2 x x k+1 2 x k+1 x k 2 ], (17)

并且对 uX ,有:

¯ f( x k md , y ¯ k ), x k+1 ag u 1 2 α k [ u x k md 2 u x k+1 ag 2 x k+1 ag x k md 2 ]. (18)

u=( 1 θ k ) x k ag + θ k x k+1 ,借助 2 的凸性,得出:

u x k md 2 = η k ( 1 θ k ) 1 η k ( x k+1 x k )+ θ k η k 1 η k ( x k+1 x k md ) 2 η k θ k ( 1 θ k ) 1 η k x k+1 x k 2 + θ k ( θ k η k ) 1 η k x k+1 x k md 2 ,

将(9)中 η k 的表达式代入上式,有:

u x k md 2 θ k 2 [ ( μ f + λ k ) θ k μ f ]( 1 θ k ) μ f + λ k θ k μ f θ k λ k x k+1 x k 2

+ θ k ( θ k θ k ( μ f + λ k ) θ k 2 μ f μ f + λ k θ k 2 μ f ) μ f + λ k θ k ( μ f + λ k ) μ f + λ k θ k 2 μ f x k+1 x k md 2 = θ k 2 ( μ f + λ k θ k μ f θ k μ f θ k λ k + θ k 2 μ f ) μ f + λ k θ k μ f θ k λ k x k+1 x k 2 + θ k 2 θ k 2 ( μ f + λ k θ k 3 μ f μ f + λ k θ k 2 μ f μ f + λ k θ k ( μ f + λ k ) μ f + λ k θ k 2 μ f x k+1 x k md 2 = θ k 2 ( 1 θ k μ f θ k 2 μ f μ f + λ k θ k μ f θ k λ k ) x k+1 x k 2 + ( μ f + λ k θ k 2 μ f ) θ k 2 θ k 2 ( μ f + λ k )+ θ k 3 μ f μ f + λ k θ k ( μ f + λ k ) x k+1 x k md 2 = θ k 2 ( 1 θ k μ f ( 1 θ k ) ( 1 θ k ) μ f +( 1 θ k ) λ k ) x k+1 x k 2 + θ k 2 ( θ k μ f θ k 2 μ f ) ( 1 θ k ) μ f +( 1 θ k ) λ k x k+1 x k md 2 = θ k 2 ( 1 θ k μ f μ f + λ k ) x k+1 x k 2 + θ k 2 ( 1 θ k ) θ k μ f ( 1 θ k ) μ f +( 1 θ k ) λ k x k+1 x k md 2 = θ k 2 [ ( 1 θ k μ f μ f + λ k ) x k+1 x k 2 + θ k μ f μ f + λ k x k+1 x k md 2 ] (19)

此外,由引理2.3 c)的光滑性,得到:

f( x k+1 ag ,y( x k+1 ag ) )f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ), x k+1 ag x k md + L f 2 x k+1 ag x k md 2 . (20)

将(17)乘以 θ k ,并将其与(18)相加,有:

¯ f( x k md , y ¯ k ), θ k ( x k+1 x )+ x k+1 ag u θ k μ f 4 [ x x k md 2 x x k+1 2 x k+1 x k md 2 ] + ( 1 θ k ) μ f + λ k 4 [ x x k 2 x x k+1 2 x k+1 x k 2 ] + 1 2 α k [ u x k md 2 u x k+1 ag 2 x k+1 ag x k md 2 ].

将(19)代入上式,注意到对于项 x k+1 x k md x k+1 x k ,可以合并同类项,即:

[ 1 2 α k ( θ k 3 μ f μ f + λ k ) θ k μ f 4 ] x k+1 x k md 2

= 2 θ k 3 μ f α k θ k μ f ( μ f + λ k ) 4 α k ( μ f + λ k ) x k+1 x k md 2 = θ k μ f [ 2 θ k 2 α k ( μ f + λ k ) ] 4 α k ( μ f + λ k ) x k+1 x k md 2 ,

[ θ k 2 2 α k ( 1 θ k μ f μ f + λ k ) ( 1 θ k ) μ f + λ k 4 ] x k+1 x k 2 =[ θ k 2 ( μ f + λ k θ k μ f ) 2 α k ( μ f + λ k ) ( 1 θ k ) μ f + λ k 4 ] x k+1 x k 2 = 2 θ k 2 ( μ f + λ k θ k μ f )[ ( 1 θ k ) μ f + λ k ] α k ( μ f + λ k ) 4 α k ( μ f + λ k ) x k+1 x k 2 = 2 θ k 2 μ f ( 1 θ k ) α k ( 1 θ k ) μ f ( μ f + λ k )+2 θ k 2 λ k α k λ k ( μ f + λ k ) 4 α k ( μ f + λ k ) x k+1 x k 2 = [ 2 θ k 2 α k ( μ f + λ k ) ][ ( 1 θ k ) μ f + λ k ] 4 α k ( μ f + λ k ) x k+1 x k 2 ,

整理可以得到:

¯ f( x k md , y ¯ k ), θ k ( x k+1 x )+ x k+1 ag u 1 4 ( 1 2 θ k 2 α k ( μ f + λ k ) ){ θ k μ f x k+1 x k md 2 +[ ( 1 θ k ) μ f + λ k ] x k+1 x k 2 } + θ k μ f 4 ( x x k md 2 x x k+1 2 )+ ( 1 θ k ) μ f + λ k 4 ( x x k 2 x x k+1 2 ) 1 2 α k ( u x k+1 ag 2 + x k+1 ag x k md 2 ),

结合不等式(20),并定义 Δ k md :=f( x k md , y ¯ k )f( x k md ,y( x k md ) ) ,可以获得:

f( x k+1 ag ,y( x k+1 ag ) ) ( 1 θ k )[ f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ), x k ag x k md ] + θ k [ f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ),x x k md + μ f 4 x x k md 2 ] 1 2 α k { ( 1 L f α k ) x k+1 ag x k md 2 + u x k+1 ag 2 } θ k μ f 4 x x k+1 2 + ( 1 θ k ) μ f + λ k 4 [ x x k 2 x x k+1 2 ]+ Δ k md , θ k ( x k+1 x )+ x k+1 ag u . (21)

可以将上式末尾的内积表达式分解为三部分:

Δ k md , θ k ( x k+1 x k md )+ θ k ( x k md x )+ x k+1 ag u ,

对每一部分内积 Δ k md , 应用Cauchy-Schwarz不等式 a,b α 2 a 2 + 1 2α b 2 ,对于第一部分 θ k Δ k md , x k+1 x k md ,选择 α 1 = 4 μ f ,得到:

θ k Δ k md , x k+1 x k md 2 θ k μ f Δ k md 2 + θ k μ f 8 x k+1 x k md 2 .

对于第二部分 θ k Δ k md , x k md x ,选择 α 2 = 2 μ f ,得到:

θ k Δ k md , x k md x θ k μ f Δ k md 2 + θ k μ f 4 x x k md 2 .

对于第三部分 Δ k md , x k+1 ag u ,选择 α k ,得到:

Δ k md , x k+1 ag u α k 2 Δ k md 2 + 1 2 α k u x k+1 ag 2 .

将上述三个不等式相加,合并同类项,最终得到不等式:

Δ k md , θ k ( x k+1 x )+ x k+1 ag u ( 3 θ k μ f + α k 2 ) Δ k md 2 + θ k μ f 4 [ 1 2 x k+1 x k md 2 + x x k md 2 ]+ 1 2 α k u x k+1 ag 2 . (22)

由函数 f 关于 x 的强凸性,可以得到:

f( x k md ,y( x k md ) ), x k ag x k md f( x k ag ,y( x k ag ) )f( x k md ,y( x k md ) ) μ f 2 x k ag x k md 2 , f( x k md ,y( x k md ) ),x x k md f( x,y( x ) )f( x k md ,y( x k md ) ) μ f 2 x x k md 2 ,

将上式代入(21)并结合(22),可以得出:

f( x k+1 ag ,y( x k+1 ag ) )( 1 θ k )f( x k ag ,y( x k ag ) )+ θ k f( x,y( x ) )+ ( 1 θ k ) μ f + λ k 4 x x k 2 λ k + μ f 4 x x k+1 2 + 6 θ k + μ f α k 2 μ f Δ k md 2 .

x= x * 代入上述不等式,再将两边减去 f( x * ,y( x * ) ) ,可以得到:

f( x k+1 ag ,y( x k+1 ag ) )f( x * ,y( x * ) ) ( 1 θ k )f( x k ag ,y( x k ag ) )+ θ k f( x * ,y( x * ) )+ ( 1 θ k ) μ f + λ k 4 x x k 2 λ k + μ f 4 x x k+1 2 + 6 θ k + μ f α k 2 μ f Δ k md 2 f( x * ,y( x * ) ) =( 1 θ k )[ f( x k ag ,y( x k ag ) )f( x * ,y( x * ) ) ]+ ( 1 θ k ) μ f + λ k 4 x x k 2 λ k + μ f 4 x x k+1 2 + 6 θ k + μ f α k 2 μ f Δ k md 2 ,

结合 γ k = θ k ,并重新排列项后,可以得到:

e k+1 ( 1 γ k ) e k + λ k 4 [ x x k 2 x x k+1 2 ]+ 6 θ k + μ f α k 2 μ f Δ k md 2 , (23)

其中 e k :=f( x k ag ,y( x k ag ) )f( x * ,y( x * ) )+ μ f 4 x x k 2 。由引理2.4有:

p k1 p k p k1 p( x k md ) + p k p( x k md ) ( 1+ ρ k ) p k1 p( x k md ) ,

因此

y k y( x k md ) κ( 1+ σ )( 1+ ρ k ) c k p k1 p( x k md ) ,

联系(4)和(8)可以得到:

Δ k md = ¯ f( x k md , y ¯ k )f( x k md ,y( x k ) ) L 1 κ( 1+ σ )( 1+ ρ k ) c k p k1 p( x k md ) +( L 2 + L 3 ) p k p( x k md ) L 1 κ( 1+ σ )( 1+ ρ k ) c k i= k 0 +1 k1 ρ i p k 0 p( x k md ) +( L 2 + L 3 ) i= k 0 +1 k ρ i p k 0 p( x k md ) := T k .

对不等式(23)两边除以 Γ k+1 ,并结合上式以及(13),(7)和(4),将它们求和后,得出(14)。

现在证明b)。如果 f 关于 x 是凸函数,将 μ f =0 代入(21)再进行放缩,可以得到:

f( x k+1 ag ,y( x k+1 ag ) )( 1 θ k )[ f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ), x k ag x k md ] + θ k [ f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ),x x k md ] 1 2 α k u x k+1 ag 2 + λ k 4 [ x x k 2 x x k+1 2 ]+ Δ k md , θ k ( x k+1 x )+ x k+1 ag u , (24)

对最后一个内积应用Cauchy-Schwarz不等式,有:

Δ k md , θ k ( x k+1 x )+ x k+1 ag u = Δ k md , θ k ( x k+1 x ) + Δ k md , x k+1 ag u θ k x x k+1 Δ k md + α k 2 Δ k md 2 + 1 2 α k x k+1 ag u 2 . (25)

因为 f 是凸函数,根据凸函数的一阶条件,分别对变量 x k ag x 有:

f( x k ag ,y( x k ag ) )f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ), x k ag x k md , f( x,y( x ) )f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ),x x k md .

将第一个不等式乘以 ( 1 θ k ) ,第二个乘以 θ k ,然后相加:

( 1 θ k )f( x k ag ,y( x k ag ) )+ θ k f( x,y( x ) ) ( 1 θ k + θ k )f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ),( 1 θ k )( x k ag x k md )+ θ k ( x x k md ) =f( x k md ,y( x k md ) )+ f( x k md ,y( x k md ) ),( 1 θ k )( x k ag x k md )+ θ k ( x x k md ) . (26)

将(25)和(26)代入(24),可以得到:

f( x k+1 ag ,y( x k+1 ag ) )( 1 θ k )f( x k ag ,y( x k ag ) )+ θ k f( x,y( x ) ) + λ k 4 [ x x k 2 x x k+1 2 ]+ θ k x x k+1 Δ k md + α k 2 Δ k md 2 .

结合(13)以及 X 的有界性,与a)类似可以推导出(16)。

接下来的结果中,通过选择适当算法参数来分析算法3的收敛速率。

推论3.1. 假设序列 { y ¯ k , x k , x k md , x k ag } k k 0 由算法3生成,并且满足定理3.1的条件。对于每个 k c k ρ k 固定为 { c k := c 0 } { ρ k := ρ 0 } 。步长选择满足如下条件:

α k = 1 3 L f , λ k = 4 Γ k+1 α k ,k k 0 . (27)

a) 如果 f 关于 x 是强凸的且参数为 μ f >0 ,并且有:

θ k 2 = α k μ f 4 + Γ ¯ k+1 , (28)

其中 Γ ¯ k = Γ k ,且选择 γ k = θ k ,则对于任意的 N k 0 +1 ,有:

f( x N ,y( x N ) ) f * ( 1γ ) N k 0 [ f( x k 0 ,y( x k 0 ) ) f * + μ f +12 L f 4 x * x k 0 2 + 7 [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] 2 2 μ f ρ 0 ( 1 ρ 0 ) ], (29)

其中

γ k =γ=min( 1 2 μ f 3 L f ,1 ρ 0 ),k k 0 . (30)

M= max xX p k 0 p( x k ) ,A= L 1 κ( 1+ σ ) c 0 ,B= L 2 + L 3

b) 如果 f 关于 x 是凸函数, X 有界且 γ k = θ k = 1 ( Nk ) 2 ,则对于任意 N k 0 +1 ,有:

f( x N ,y( x N ) ) f * ( 1γ ) N k 0 [ f( x k 0 ,y( x k 0 ) ) f * + [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] 2 6 L f ρ 0 ( 1 ρ 0 ) +12 L f D X 2 + ( 1 ρ 0 ) π 2 D X 6 ρ 0 [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] ], (31)

Proof. 首先,证明步长的定义是良好的。结合(15),(27),(28)和(30)可知:

γ k θ k , Γ ¯ k+1 Γ k+1 , λ k Γ k+1 = 4 α k ,k k 0 ,

这确保了条件(12)和(13)的满足。因为 Γ ¯ k = Γ k ,且 γ k = θ k ,所以:

Γ ¯ k+1 = Γ k+1 =( 1 γ k ) Γ k =( 1 γ k ) Γ ¯ k =( 1 θ k ) Γ ¯ k ,

代入(28),得到 θ k 2 = α k μ f 4 +( 1 θ k ) Γ ¯ k ,这表明:

θ k = Γ ¯ k + Γ ¯ k 2 +4 Γ ¯ k + α k μ f 2 ,k k 0 ,

并且有 θ k ( 0,1 )

定义 M= max xX p k 0 p( x k ) ,和 A= L 1 κ( 1+ σ ) c 0 B= L 2 + L 3 ,结合(15)和(30)有:

Γ k+1 = ( 1γ ) k k 0 +1 ρ 0 k k 0 +1 , T k [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] ρ 0 k k 0 . (32)

因此,可以从几何级数的求和公式和条件 0< ρ 0 <1 中得到:

k= k 0 N1 α k T k 2 Γ k+1 [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] 2 3 L f k= k 0 N1 ρ 0 2k2 k 0 ρ 0 k k 0 +1 = [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] 2 3 L f k= k 0 N1 ρ 0 k k 0 1 = [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] 2 3 L f ( 1 ρ 0 + 1 ρ 0 N k 0 1 1 ρ 0 ) [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] 2 3 L f ( 1 ρ 0 + 1 1 ρ 0 ) = [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] 2 3 L f ρ 0 ( 1 ρ 0 ) . (33)

将(27)和(33)代入(14),注意到 6 θ k + α k μ f 7 可以得出(29)。

其次,结合(32),(33)和 γ k = θ k = 1 ( Nk ) 2 ,得到:

k= k 0 N1 θ k D X T k Γ k+1  ( 1 ρ 0 ) D X [ AM( 1+ ρ 0 ) ρ 0 1 +BM ] k= k 0 N1 θ k ρ 0 k k 0 ρ 0 k k 0 +1 ( 1 ρ 0 ) π 2 D X 6 ρ 0 [ AM( 1+ ρ 0 ) ρ 0 1 +BM ], (34)

这些加上不等式(16),就可以推导出(31)。

可以看出,此算法在目标函数关于外层变量强凸的情况时具有R-线性局部收敛速率,同时在处理关于外层变量凸的目标函数时,算法随着目标值接近局部极小值也达到了R-线性局部收敛速率。

4. 数值实验

本节的数值实验均在一台配备12代Intel(R) Core(TM) i5-1240P1.70GHz处理器和16 GB RAM的笔记本电脑上使用MATLAB R2018a实现,操作系统为Windows 11。基于文献[8],采用以下自适应方法来控制 σ 。初始 σ 设置为0.99。如果在迭代到t步时,算法的起始点 y= y t1 已经满足误差标准,就将 σ 更新为 σσ/ 10 。相反,如果内层循环未能在所需精度内找到子问题的解,就将 σ 更新为 σmin{ 0.99,10σ }

接下来,考虑如下含有非线性约束的极小极大问题 ( P 1 )

f( x,y )= 1 m [ 1 2 y 2 b T y+ y T Wx ]+ λ 2 x 2 , g( x,y )=c x 2 +d y 2 e,

其中矩阵 W m×n 的行是从高斯分布 N( 0,I ) 中生成的。参数 c,d e 被限制在区间 ( 0,1 ) 内随机选取。在后续实验中,设置 n=m=10,b=0 λ=1/m

在这里,内层算法的迭代步长设置为0.4,外层迭代步长 α k =0.2 ,最大迭代数 K=1000 。固定参数 μ f =1, λ k =1 { θ k } 是生成的从0.5到1均匀递增的1000点序列。这样选取的理由如下:若目标函数 f 的强凸系数未知时,通常可设 μ f =1 进行标准化,这样做既不影响算法收敛性分析且因为在增广拉格朗日框架下, μ f λ k 共同调节梯度下降和惩罚项的权重,设为1可简化参数调节。同时若问题约束较温和或初始点 x 0 接近可行域,固定 λ k =1 可避免动态调整的复杂性。初始 θ k =0.5 表示较弱动量,随着迭代逐步增至1,逐步增强加速效果,符合Nesterov加速梯度的理论框架,且均匀递增序列可避免突变导致的振荡,确保优化过程平稳收敛。

图1展示了aGBAL算法与GBAL算法相比解决问题 ( P 1 ) 更优越的性能。

Figure 1. The variation trends of the errors of the GBAL algorithm and the aGBAL algorithm in solving problem (P1) with CPU time

1. GBAL算法与aGBAL算法解决问题(P1)的误差随CPU时间的变化趋势

5. 结论

我们通过对GBAL算法的外层迭代进行加速,提出了求解约束极小极大问题的隐式梯度加速算法。理论分析表明,在目标函数关于外层变量为凸的情况下,加速算法达到了R-线性收敛速率。这一改进使得算法在处理相关优化问题时更具竞争力。

参考文献

[1] Boyd, S. and Vandenberghe, L. (2004) Convex Optimization. Cambridge University Press.
https://doi.org/10.1017/CBO9780511804441
[2] Nesterov, Y., et al. (2018) Lectures on Convex Optimization, Volume 137. Springer.
[3] Ghadimi, S. and Wang, M. (2018) Approximation Methods for Bilevel Programming. arXiv: 1802.02246.
[4] Zhao, X. and Chen, L. (2020) The Linear and Asymptotically Superlinear Convergence Rates of the Augmented Lagrangian Method with a Practical Relative Error Criterion. Asia-Pacific Journal of Operational Research, 37, Article ID: 2040001.
https://doi.org/10.1142/S0217595920400011
[5] Robinson, S.M. (1976) An Implicit-Function Theorem for Generalized Variational Inequalties. Technical Summary Report No.1672, Mathematics Research Center, University of Wisconsin-Madison.
[6] Nesterov, Y. (1983) A Method of Solving a Convex Programming Problem with Convergence Rate . Doklady Akademii Nauk SSSR, 269, 543-547.
[7] Nesterov, Y. (2004) Introductory Lectures on Convex Optimization: A Basic Course. Kluwer Academic Publishers.
https://doi.org/10.1007/978-1-4419-8853-9
[8] Eckstein, J. and Silva, P.J.S. (2012) A Practical Relative Error Criterion for Augmented Lagrangians. Mathematical Programming, 141, 319-348.
https://doi.org/10.1007/s10107-012-0528-9