基于Bregman距离的非精确邻近点算法求解拟凸多目标优化问题
An Inexact Proximal Point Method with Bregman Distance for Quasi-Convex Multiobjective Optimization
摘要: 本文针对无约束拟凸多目标优化问题,提出了一种基于Bregman距离的非精确邻近点算法,该算法在正则化项中引入Bregman距离以替代传统欧几里得距离。研究中考虑了该算法的两种误差准则(绝对误差准则和相对误差准则),并在温和假设条件下建立收敛性理论:当目标函数连续可微时,两种准则下算法生成的序列均收敛到问题的帕累托稳定点;当目标函数真凸且下半连续时,序列收敛到问题的弱帕累托最优点。进一步地,通过引入一个额外的增长条件证明了:若正则化参数有界,采用相对误差准则的算法具有线性收敛速率;若该参数收敛至零,则可实现超线性收敛。
Abstract: This paper proposes an inexact proximal point algorithm based on Bregman distance for solving unconstrained quasi-convex multiobjective optimization problems, where the Bregman distance is employed in the regularization term. Two error criteria (absolute error criterion and relative error criterion) for the algorithm are considered. Under some mild assumptions, it is proven that: when the objective functions are continuously differentiable, the sequences generated by the algorithm under both criteria converge to the Pareto stationary points of the problem; when the objective functions are proper convex and lower semicontinuous, the sequences converge to the weak Pareto optimal points of the problem. Furthermore, by introducing an additional growth condition, it is shown that the convergence rate of the method using the relative error criterion is linear if the regularization parameters are bounded, and superlinear if these parameters converge to zero.
文章引用:谭莉, 李小兵. 基于Bregman距离的非精确邻近点算法求解拟凸多目标优化问题[J]. 应用数学进展, 2025, 14(10): 332-346. https://doi.org/10.12677/aam.2025.1410445

1. 引言

邻近点算法(Proximal Point Method, PPM) [1]通过引入正则化项将复杂原问题转化为一系列易于求解的子问题,在单目标优化问题中展现出卓越的求解能力。随着研究的深入,学者们将邻近点算法扩展至多目标优化领域,提出了标量化邻近点算法(Scalarized Proximal Point Method, SPPM)。该方法通过引入标量化函数将多目标问题转化为单目标问题,从而借助成熟的单目标优化理论进行求解。然而,当目标函数为拟凸且局部Lipschitz连续时,精确求解往往计算成本高昂,甚至不可行。

本文提出一种基于Bregman距离的非精确邻近点算法,用于求解无约束拟凸多目标优化问题。该方法在正则化项中采用Bregman距离替代欧几里得范数,并允许Fréchet ε -次微分的非精确计算。受Rockafellar [2]精度准则的启发,我们提出两种误差准则,并在温和假设下证明:当目标函数真且下半连续时,算法序列收敛于弱帕累托最优点;当目标函数拟凸且Lipschitz连续时,序列收敛于帕累托稳定点。进一步地,在附加增长条件下,我们证明采用相对误差准则的算法具有线性收敛速率,且当正则化参数趋于零时可实现超线性收敛。

2. 预备知识

在本文中, , 表示 n 维实欧几里得空间 n 的内积, 表示其对应的范数。设 B( x,ε ) 表示以 x 为中心、半径 ε>0 的闭球,并用 B 表示 n 的单位闭球。用 表示转置符号。 f( x ) 表示 f x 处的梯度。对任意非空子集 C n C 的指示函数 δ C ( ) 定义为:当 xC 时, δ C ( x )=0 ,否则(即 xC 时), δ C ( x )=+ 。集合 C 是闭集当且仅当 δ C ( ) 下半连续。

定义2.1 f: n ¯ ={ + } 是真下半连续函数,且 ε 是任意非负实数。 f xdom f 处的Fréchet ε -次微分定义为

^ ε f( x )={ v n : liminf h 0 f( y )f( x ) v,h h ε }.

显然,当 ε=0 时,Fréchet ε -次微分就退化为Fréchet次微分,记为 ^ f( x ) 。根据[3],我们可以得到这两种次微分之间的如下关系

v ^ ε f( x )v ^ ( f( )+ε x )( x ). (1)

以下结果确保了真函数的极小值点集合非空的充分条件。

命题2.1 [4] 若真函数 f: n ¯ x ¯ dom f 处有局部极小值,则 0 ^ f( x ¯ )

引理2.1 [4] f: n ¯ 是下半连续且强制的真函数,则其最优值 f * 是有限的,且以下集合是非空且紧的。

arg min x n f( x ):={ xdomf:f( x )f( y ),ydomf }.

下面给出Bregman距离的定义并研究其关键性质(参见[5]),这些性质是我们算法的理论基础。

定义2.2 ϕ: n ¯ int( dom ϕ ) 上严格凸且可微。与 ϕ 相关联的Bregman距离 D ϕ :dom ϕ×int( dom ϕ ) 定义为

D ϕ ( x,y ):=ϕ( x )ϕ( y ) ϕ( y ),xy .

Bregman距离不是严格意义上的距离, D ϕ ( x,y )0 ,当且仅当 x=y 时等号成立。此外,一般来说它既不对称,也不满足三角不等式。当 ϕ( )= 1 2 2 时, D ϕ ( , ) 就退化为半欧几里得距离的平方。

引理2.2 [6] ϕ: n ¯ 是真闭严格凸函数,在点 a,b,c,d n 处有限,且在 a,b n 处可微,则有

ϕ( a )ϕ( b ),cd = D ϕ ( c,b )+ D ϕ ( d,a ) D ϕ ( c,a ) D ϕ ( d,b ). (2)

为确保算法的良定性,对 ϕ 做如下假设。

(A1) ϕ 局部Lipschitz连续;

(A2) ϕ 是强凸函数。

命题2.2 D ϕ ( x,y ) 是满足假设(A1)和(A2)的Bregman距离。则对每个 y n D ϕ ( ,y ) y 处是局部Lipschitz连续且强制的。

证明:固定 y n 。由假设(A1),存在 δ>0 L >0 ,使得对任意 xB( y,δ ) ,有 ϕ( x ) L 。由定义2.2知,对任意 x 1 , x 2 B( y,δ ) ,有

D ϕ ( x 1 ,y ) D ϕ ( x 2 ,y ) = ϕ( x 1 )ϕ( x 2 ) ϕ( y ), x 1 x 2 = ϕ( ξ ), x 1 x 2 ϕ( y ), x 1 x 2 ϕ( ξ )ϕ( y ) x 1 x 2 2 L x 1 x 2 .

所以函数 D ϕ ( ,y ) y 处局部Lipschitz连续。

固定 y n 。由假设(A2),存在 σ>0 ,使得对所有,有:

ϕ( x )ϕ( y )+ ϕ( y ),xy + σ 2 xy 2 .

由定义2.2,显然

D ϕ ( x,y ) σ 2 xy 2 . (3)

x + 取极限,可得

lim x + D ϕ ( x,y ) lim x + σ 2 xy 2 =+.

因此 D ϕ ( ,y ) 是强制函数。

m 中,符号 + m 表示非负象限, ++ m 表示正象限。设 x,y m 为两个向量。本文中考虑的偏序关系 _ ( ) + m ( ++ m ) 诱导,定义为: x _ y( xy )yx + m ( yx ++ m )

本文研究以下无约束多目标优化问题:

min x n F( x ):= ( f 1 ( x ),, f m ( x ) ) , (4)

其中每个目标函数 f i : n ¯ 是真拟凸函数,且。如果多目标函数的每个分量函数是拟凸的(或凸的、连续可微的、可微的、连续的、下半连续的),则称该多目标函数是拟凸的(或凸的、连续可微的、可微的、连续的、下半连续的)。

J F ( x ) 表示 F x 处的雅可比矩阵,即 J F ( x ) m×n 中的一个矩阵,其元素 ( J F ( x ) ) ij = f i ( x ) x j ,其中 i=1,,m j=1,,n 。我们可以将其表示为: J F ( x )= ( f 1 ( x ),, f m ( x ) ) 。若多目标函数 F: n m 是可微的,且对任意 x,y n ,都满足以下条件:

J F ( x )( yx )0F( y )F( x ),

则称 F 是伪凸的。

2.1 上述伪凸向量值函数的定义可参考[7]。若 F 是按分量伪凸的,那么 F 是伪凸的,反之不成立。此外,伪凸函数是拟凸函数(参见[8])。

定义2.3 决策向量 x * n

1) 问题(4)的帕累托最优点,如果不存在 x n ,使得 F( y ) _ F( x * ) F( x )F( x * )

2) 问题(4)的弱帕累托最优点,如果不存在 x n ,使得 F( y )F( x * )

3) 问题(4)的帕累托稳定点,如果对所有 v n ,都有 J F ( x * )v( ++ m )=

众所周知,每个帕累托最优点也是弱帕累托最优点,且每个弱帕累托最优点也是帕累托稳定点。此外,当 F 是伪凸函数时,问题(4)的帕累托稳定点也是弱帕累托最优点(也可参见[8])。

3. 算法

在本节中,我们针对多目标优化问题(4)提出一种基于Bregman距离的非精确标量化邻近点算法(ISPPMB),然后给出该算法的一些基本性质,这些性质将在收敛性分析中用到。为此,对问题(4)中的函数 F 作如下假设:

(H1) F0 ,即对任意 i=1,,m x n ,有 0 _ f i ( x )

(H2) F 是拟凸的;

(H3) f i : n ¯ ( i=1,2,,m ) 是真下半连续函数,且 dom F= i=1 m dom  f i

(H4) ( F( x 0 ) + m )F( n ) + m -完备的。即对每个满足 a 0 = x 0 且对所有 k 都有 F( a k+1 ) _ F( a k ) 的序列 { a k } n ,存在 a n ,使得对所有 k ,都有 F( a ) _ F( a k )

假设(H4)已在诸多关于凸或拟凸向量优化的邻近点算法研究工作中被采用,可参考文献[9][10][11]。显然,若每个目标函数 f i ( x ) 均为强制函数,则水平集 Ω k :={ x n :F( x ) _ F( x k ) } 为紧集,此时假设(H4)自然成立。

本文所考虑的ISPPMB算法如下。

Algorithm 1. 基于Bregman距离的非精确标量化邻近点算法(ISPPMB)

初始化: x 0 n 为任意初始点。选择满足假设(A1)和(A2)的Bregman函数 ϕ( ) 。设置 k:=0

迭代步骤:给定 x k , 找到 x k+1 Ω k e k+1 n 使得:

e k+1 ^ ε k ( F( ), z k + δ Ω k ( ) )( x k+1 )+ α k ( ϕ( x k+1 )ϕ( x k ) ), (5)

其中, Ω k :={ x n :F( x ) _ F( x k ) } α k >0 { z k } + m \{ 0 } z k =1

停止准则: x k+1 = x k x k+1 是帕累托稳定点,则停止。否则,令 kk+1 并返回迭代步骤。

命题3.1 F: n m 满足假设 (H1)、(H2)和(H3)。那么,ISPPMB算法是良定的。

证明:采用数学归纳法进行证明。对于 k=0 ,由于 x 0 是初始点,结论成立。假设 x k 存在,定义函数 φ k ( x ): n ¯ 如下:

由假设(H1), F0 ,由于 z k + m \{ 0 } z k =1 F( ), z k 有下界,因此函数 φ k 是真函数。由假设(H3)可知 F( ), z k 下半连续,且由命题2.2可知 α k D ϕ ( x, x k ) 局部Lipschitz连续。假设(H2)和(H3)意味着 Ω k 是闭凸集,因此 δ Ω k ( ) 凸且下半连续。于是有 φ k 下半连续。此外,由命题2.2,可知 D ϕ ( , x k ) 是强制的,那么 φ k 也是强制的。因此, φ k 是下半连续且强制的真函数,那么由引理2.1可知,存在 x k+1 Ω k φ k 的极小值点。即通过命题2.1得到 x k+1 满足

0 ^ φ k ( x k+1 )= ^ ( F( ), z k + δ Ω k ( )+ α k D ϕ (, x k ) )( x k+1 ) = ^ ( F( ), z k + δ Ω k ( ) )( x k+1 )+ α k ( ϕ( x k+1 )ϕ( x k ) ) ^ ϵ k ( F( ), z k + δ Ω k ( ) )( x k+1 )+ α k ( ϕ( x k+1 )ϕ( x k ) ). (6)

即式(5)在 e k+1 =0 时成立。因此,ISPPMB算法的迭代步骤是良定的。

从命题3.1的证明中还可以看出,如果对某个 k ,有 x k+1 = x k ,那么

0 ^ ( F( ), z k + δ Ω k ( ) )( x k+1 ),

这意味着 x k+1 是优化问题 min{ F( ), z k :x Ω k } 的临界点。此外,如果 x k+1 是这个优化问题的极小值点,那么可以验证 x k+1 是问题(4)的弱帕累托最优点。因此,我们假设对所有 k ,都有 x k+1 x k ,并且每次迭代的 x k 都不是帕累托稳定点,也就是说,由ISPPMB算法生成的序列 { x k } 是无穷的。

接下来,我们给出Fréchet ε -次微分的有用性质。命题3.2的证明参考[10]

命题3.2 假设(H2)和(H3)满足。设 ε + z m \{ 0 } ,且 E n 是闭凸集。若 xdom FE q ^ ε ( F( ),z + δ Ω ( ) )( x ) ,且 F( y ) _ F( x ) (其中 yE ),则

q,yx ε yx .

定义集合

(7)

结合假设(H1)~(H4),显然 Ω 是闭凸集, Ω Ω k Ω

引理3.1 F: n m 为满足(H1)、(H3)和(H4)的函数, { x k } 是由ISPPMB算法生成的序列。若 x ^ { x k } 的一个聚点,则 x ^ Ω

证明: x ^ n 是序列 { x k } 的一个聚点,那么存在子序列 { x j k }{ x k } ,使得 x j k x ^ 。下面将证明 x ^ Ω

任取 z + m \{ 0 } 。由于对每个 k ,都有 x k+1 Ω k ,由 Ω k 的定义可得 F( x k )F( x k+1 ) 。于是:

这表明序列 { F( x k ),z } 是递减的。进一步,由假设(H1)可知,序列 { F( x k ),z } 有下界。因此, { F( x k ),z } 是收敛的,于是:

F( x ^ ),z = lim k+ F( x k ),z = inf k { F( x k ),z } F( x k ),z .

由上述不等式可得:

这意味着 F( x k )F( x ^ ) + m ,即对所有 k ,有 F( x ^ ) _ F( x k ) 。结合式(7)可得 x ^ Ω

4. 收敛性分析

在本节中,通过分别考虑两种误差准则(绝对误差和相对误差),分析了ISPPMB算法两种变体的收敛性:当 F 拟凸且连续可微时,算法生成的序列收敛到问题(4)的帕累托稳定点;而当 F 伪凸且连续可微(或真凸且下半连续)时,该序列收敛到问题(4)的弱帕累托最优点。

4.1. 带有绝对误差准则的ISPPMB算法

在本小节中,假设ISPPMB算法生成的误差序列 { e k+1 } 满足以下估计准则:

(E1) k=0 + δ k <+, δ k =max{ e k+1 α k , ε k α k }.

引理4.1 { x k } 是由ISPPMB算法生成的序列。若假设(H1)~(H4)和(E1)成立,那么对于每个 x ^ Ω

D ϕ ( x ^ , x k ) 收敛,且 { x k } 是有界的。此外, lim k+ D ϕ ( x k+1 , x k )=0

证明: x ^ Ω 。由(5)可知,存在 q k+1 ^ ε k ( F( ), z k + δ Ω k ( ) )( x k+1 ) ,使得

e k+1 = q k+1 + α k ( ϕ( x k+1 )ϕ( x k ) ). (8)

由命题3.2可得

q k+1 , x ^ x k+1 ε k x ^ x k+1 . (9)

在式(2)中取 a= x k b=c= x k+1 d=x ,得到:

(10)

对(8)两端与 x x k+1 作内积后,将(10)代入等式右端第二项,并令 x= x ^ ,得到

e k+1 , x ^ x k+1 = q k+1 , x ^ x k+1 + α k ( D ϕ ( x ^ , x k ) D ϕ ( x k+1 , x k ) D ϕ ( x, x k+1 ) ).

上述等式结合(9),得到

D ϕ ( x ^ , x k )= D ϕ ( x k+1 , x k )+ D ϕ ( x ^ , x k+1 )+ 1 α k e k+1 , x ^ x k+1 1 α k q k+1 , x ^ x k+1 D ϕ ( x k+1 , x k )+ D ϕ ( x ^ , x k+1 ) e k+1 α k x k+1 x ^ ε k α k x ^ x k+1 D ϕ ( x k+1 , x k )+ D ϕ ( x ^ , x k+1 )2 δ k x k+1 x ^ , (11)

其中第二个不等式由(E1)中 δ k 的定义得到。注意到,对任意 a ,有 a a 2 + 1 4 。在(11)中令 a= x k+1 x ^ ,得到

D ϕ ( x ^ , x k ) D ϕ ( x k+1 , x k )+ D ϕ ( x ^ , x k+1 )2 δ k x k+1 x ^ 2 1 2 δ k D ϕ ( x k+1 , x k )+( 1 4 σ δ k ) D ϕ ( x ^ , x k+1 ) 1 2 δ k . (12)

其中第二个不等式由(3)得到。由此还可推出

D ϕ ( x ^ , x k+1 )( 1+ 4 σ δ k 1 4 σ δ k ) D ϕ ( x ^ , x k )+ δ k 2( 1 4 σ δ k ) .

由于假设(E1)保证了 lim k+ δ k =0 ,那么对于固定常数 ϵ( 0, σ 4 ) ,存在 k 0 ,使得对任意 k k 0 ,有 0< 14ϵ σ < 14 δ k σ <1 ,进而 4 δ k /σ 1 4 δ k /σ < 4 δ k /σ 1 4ϵ/σ δ k 2( 14 δ k ) < δ k 2( 1 4ϵ/σ ) 。结合(E1),有

k=1 + 4 σ δ k 1 4 σ δ k <+ k= k 0 + δ k 2( 1 4 σ δ k ) <+.

因此,由[12]可知 D ϕ ( x ^ , x k ) 收敛,因此序列 { x k } 是有界的。

最后,对(12)进行整理,有

D ϕ ( x k+1 , x k ) D ϕ ( x ^ , x k ) D ϕ ( x ^ , x k+1 )+ 4 σ δ k D ϕ ( x ^ , x k+1 )+ 1 2 δ k .

考虑到 D ϕ ( x ^ , x k ) 收敛,且 lim k+ δ k =0 ,于是可得 lim k+ D ϕ ( x k+1 , x k )=0

命题4.1 若假设(H1)~(H4)和(E1)成立,那么由ISPPMB算法生成的序列 { x k } 收敛到 Ω 中的某个点。

证明:由引理4.1可知, { x k } 有界,因此存在 { x k } 的聚点 x ^ 以及子序列 { x j k }{ x k } ,使得 lim k+ x j k = x ^ 。根据引理3.1,有 x ^ Ω 。然后再次应用引理4.1,可知 D ϕ ( x ^ , x k ) 收敛。因此,结合这一点以及 lim k+ x j k = x ^ ,可直接得出 lim k+ x k = x ^

接下来,证明当正则化参数 { α k } 有界时,由ISPPMB算法生成的序列 { x k } 收敛到问题(4)的帕累托稳定点。为此,我们对 F 考虑以下假设:

(H5) F: n m n 上的连续可微函数。

定理4.1 假设(H1)、(H3)、(H4)、(H5)和(E1)成立,且存在正常数 α ¯ ,使得 0< α k α ¯ 。那么由ISPPMB算法生成的序列 { x k } 收敛到问题(4)的帕累托稳定点。

证明:显然,假设(H5)比(H3)更强。那么,根据命题4.1,存在 x ^ Ω ,使得 lim k+ x k = x ^ 。此外,由于序列 { z k } 是有界的,存在子序列 { z j k }{ z k } ,使得 lim k+ z j k = z ¯ ,其中 z ¯ + m \{ 0 } z ¯ =1 。根据(5),有

e j k +1 ^ ε j k ( F( ), z j k + δ Ω j k ( ) )( x j k +1 )+ α j k ( ϕ( x j k +1 )ϕ( x j k ) ). (13)

由于 F 是连续可微的,根据(1),有

^ ε j k ( F( ), z j k + δ Ω j k ( ) )( x j k +1 )= ^ ( F( ), z j k + δ Ω j k ( )+ ε j k x j k +1 )( x j k +1 )

= F( ), z j k ( x j k +1 )+( δ Ω j k ( )+ ε j k x j k +1 )( x j k +1 ) = i=1 m f i ( x j k +1 ) ( z j k ) i + N Ω j k ( x j k +1 )+ ε j k B,

其中第三个等式由[13]以及 ( )( 0 )=B 成立。将上式应用于(13),可知存在 v j k N Ω j k ( x j k +1 ) h j k B ,使得

e j k +1 = i=1 m f i ( x j k +1 ) ( z j k ) i + v j k + ε j k h j k + α j k ( ϕ( x j k +1 )ϕ( x j k ) ). (14)

由于 v j k N Ω j k ( x j k +1 ) ,有

(15)

x ¯ Ω 。显然, x ¯ Ω j k 。将式(14)两端同时与 x ¯ x j k +1 作内积

e j k +1 , x ¯ x j k +1 = i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 + v j k , x ¯ x j k +1 + ε j k h j k , x ¯ x j k +1 + α j k ϕ( x j k +1 )ϕ( x j k ), x ¯ x j k +1 .

在(10)和(15)中令 x= x ¯ 并带入上式,同时注意到(E1)中 δ k 的定义以及 0< α k α ¯ ,可得

0 i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 + ε j k h j k , x ¯ x j k +1 + α j k ( D ϕ ( x ¯ , x j k ) D ϕ ( x j k +1 , x j k ) D ϕ ( x ¯ , x j k +1 ) ) e j k +1 , x ¯ x j k +1 i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 + ε j k x ¯ x j k +1 + α j k ( D ϕ ( x ¯ , x j k ) D ϕ ( x ¯ , x j k +1 ) )+ e j k +1 x ¯ x j k +1 i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 +2 α j k δ j k x ¯ x j k +1 + α j k ( D ϕ ( x ¯ , x j k ) D ϕ ( x ¯ , x j k +1 ) ) i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 +2 2 σ α ¯ δ j k D ϕ ( x ¯ , x j k +1 ) + α ¯ ( D ϕ ( x ¯ , x j k ) D ϕ ( x ¯ , x j k +1 ) ), (16)

其中,第四个不等式应用了(3)。在(16)中令 k+ ,并应用引理4.1和(E1),可得

i=1 m z ¯ i f i ( x ^ ), x ¯ x ^ 0. (17)

另一方面,由于 x ¯ Ω ,可得 F( x ¯ ) _ lim k+ F( x k )=F( x ^ ) 。由 F 的拟凸性,对每个 i{ 1,2,,m } ,有 f i ( x ^ ), x ¯ x ^ 0 (参考[14])。据此以及(17),同时注意到 z ¯ + m \{ 0 } ,于是有

i=1 m z ¯ i f i ( x ^ ), x ¯ x ^ =0.

因此,对任意 x ¯ Ω ,有

(18)

假设 x ^ 不是问题(4)的帕累托稳定点。那么存在 v n ,使得 J F ( x ^ )v ++ m ,即

(19)

所以,由 F 的连续可微性,存在 t ¯ >0 ,使得

这意味着 x ^ +tvΩ 。因此在(18)中取 x ¯ = x ^ +tv t( 0, α ¯ ] ,对所有满足 z ¯ i >0 i{ 1,,m } ,有

f i ( x ^ ), x ^ +tv x ^ = f i ( x ^ ),tv =t f i ( x ^ ),v =0,

进而 f i ( x ^ ),v =0 ,这与(19)矛盾。因此, x ^ 是帕累托稳定点。

推论4.1 假设条件(H1)、(H4)、(H5)和(E1)成立, F 是伪凸的,且存在正常数 α ¯ 使得 0< α k α ¯ 。那么由ISPPMB算法生成的序列 { x k } 收敛到问题(4)的弱帕累托最优点。

证明:由注2.1可知,伪凸函数也是拟凸的,并且当 F 是伪凸函数时,问题(4)的帕累托稳定点也是它的弱帕累托最优点(见第2节)。因此,结论可直接由定理4.1推出。

4.2. 带有相对误差准则的ISPPMB算法

在本小节中,我们研究ISPPMB算法满足另一种误差准则时的收敛性质:设 { x k+1 } { e k+1 } 是由ISPPMB算法生成的序列,且误差序列 { e k+1 } 满足以下条件:

(E2) e k+1 2 α k 2 η k 2 D ϕ ( x k+1 , x k ); (E2.1) ε k 2 α k 2 η k 2 D ϕ ( x k+1 , x k ); (E2.2) k=1 + η k 2 <+.

引理4.2 { x k } 是由ISPPMB算法生成的序列。若假设(H1)~(H4)以及(E2)、(E2.1)、(E2.2)成立,那么存在 k 0 ,使得对于所有 k k 0 和所有 x ^ Ω ,有

D ϕ ( x ^ , x k+1 )( 1+ 8 η k 2 18 η k 2 ) D ϕ ( x ^ , x k ) 1 2 D ϕ ( x k+1 , x k ). (20)

其中 η k = η k σ 。此外,对于所有 x ^ Ω D ϕ ( x ^ , x k ) 收敛, { x k } 是有界的,且 lim k+ D ϕ ( x k+1 , x k )=0

证明:通过使用引理4.1第一部分中直到(11)第一个不等式的证明过程,然后利用条件(E2)、(E2.1)和式(3),对任意 x ^ Ω ,我们有:

D ϕ ( x ^ , x k ) D ϕ ( x k+1 , x k )+ D ϕ ( x ^ , x k+1 ) e k+1 α k x k+1 x ^ ε k α k x ^ x k+1 D ϕ ( x k+1 , x k )+ D ϕ ( x ^ , x k+1 )2 2 σ η k D ϕ ( x k+1 , x k ) D ϕ ( x ^ , x k+1 ) . (21)

η k = η k σ ,注意到,对任意 a,b ,有 2ab a 2 + b 2 。因此:

2 2 η k D ϕ ( x k+1 , x k ) D ϕ ( x ^ , x k+1 ) = 2 2 η k 2 2 1 2 2 η k D ϕ ( x k+1 , x k ) 2 2 η k D ϕ ( x ^ , x k+1 ) 1 2 D ϕ ( x k+1 , x k )+8 η k 2 D ϕ ( x ^ , x k+1 ).

将此关系代入(21)并整理各项,可得:

( 18 η k 2 ) D ϕ ( x ^ , x k+1 ) D ϕ ( x ^ , x k ) 1 2 D ϕ ( x k+1 , x k ).

由于(E2.2)保证了 η k = η k σ 0 ( σ>0 ),存在 k 0 ,使得对任意 k k 0 ,有 0<18 η k 2 1 。利用上述不等式,有

D ϕ ( x ^ , x k+1 )( 1+ 8 η k 2 18 η k 2 ) D ϕ ( x ^ , x k ) 1 2 D ϕ ( x k+1 , x k ).

因此不等式(20)得证。

显然,由(20)可知,对任意 x ^ Ω k k 0 ,有以下式子成立

D ϕ ( x ^ , x k+1 )( 1+ 8 η k 2 18 η k 2 ) D ϕ ( x ^ , x k ).

由于 η k 2 = η k 2 σ 0 + (由(E2.2)),对于所有 ϵ( 0, 1 8 ) ,存在 k 0 ˜ ,使得对所有 k k 0 ˜ ,有 0<18ϵ<18 η k 2 <1 ,因此 8 η k 2 18 η k 2 < 8 η k 2 18ϵ 。再结合条件(E2.2),意味着

k=1 + 8 η k 2 18 η k 2 <+.

因此,由[12]可知 D ϕ ( x ^ , x k ) 收敛,因此序列 { x k } 是有界的。

最后,再次由关系(20),我们有

1 2 D ϕ ( x k+1 , x k )( 1+ 8 η k 2 18 η k 2 ) D ϕ ( x ^ , x k ) D ϕ ( x ^ , x k+1 ).

对上述不等式两边取极限,并考虑到 D ϕ ( x ^ , x k ) 收敛,且 η k 0 ,于是可得 lim k+ D ϕ ( x k+1 , x k )=0

下面命题4.2的证明与命题4.1类似,在证明过程中我们只需将引理4.2的应用改为引理4.2的应用。

命题4.2 若假设(H1)~(H4)以及(E2)、(E2.1)、(E2.2)成立,那么由ISPPMB算法生成的序列 { x k } 收敛到 Ω 中的某个点。

定理4.2 假设(H1)、(H2)、(H4)、(H5)以及(E2)、(E2.1)、(E2.2)成立,且存在正常数 α ¯ ,使得 0< α k α ¯ 。那么由ISPPMB算法生成的序列 { x k } 收敛到问题(4)的帕累托稳定点。

证明:由命题4.2可知,存在 x ^ Ω ,使得 lim k+ x k = x ^ 。此外,由于序列 { z k } 是有界的,存在子序列 { z j k }{ z k } ,使得 lim k+ z j k = z ¯ ,其中 z ¯ + m \{ 0 } z ¯ =1 。然后,使用定理4.1中(16)第二个不等式的相同证明过程,对任意 x ¯ Ω ,我们可得:

0 i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 + ε j k x ¯ x j k +1 + α j k ( D ϕ ( x ¯ , x j k ) D ϕ ( x ¯ , x j k +1 ) )+ e j k +1 x ¯ x j k +1 i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 +2 2 σ α j k η j k D ϕ ( x j k +1 , x j k ) D ϕ ( x ¯ , x j k +1 ) + α j k ( D ϕ ( x ¯ , x j k ) D ϕ ( x ¯ , x j k +1 ) )

i=1 m f i ( x j k +1 ) ( z j k ) i , x ¯ x j k +1 +2 2 σ α ¯ η j k D ϕ ( x j k +1 , x j k ) D ϕ ( x ¯ , x j k +1 ) + α ¯ ( D ϕ ( x ¯ , x j k ) D ϕ ( x ¯ , x j k +1 ) ), (22)

其中,第二个不等式应用了条件(E2)、(E2.1)和式(3),第三个不等式考虑了 0< α k α ¯ 。在(22)中令 k+ ,并应用引理4.2和(E2.2),可得

i=1 m z ¯ i f i ( x ^ ), x ¯ x ^ 0.

再次遵循定理4.1中(17)之后的证明过程,于是可得 x ^ 是问题(4)的帕累托稳定点。

推论4.2 假设条件(H1)、(H4)、(H5)以及(E2)、(E2.1)、(E2.2)成立, F 是伪凸的,且存在正常数 α ¯ 使得 0< α k α ¯ 。那么由ISPPMB算法生成的序列 { x k } 收敛到问题(4)的弱帕累托最优点。

证明:通过采用与推论4.1的证明类似的讨论,可知所需结果可直接由定理4.2得到。

定理4.3 假设条件(H1)、(H3)、(H4)以及(E2)、(E2.1)、(E2.2)成立, F 是凸的,且存在正常数 α ¯ 使得 0< α k α ¯ 。那么由ISPPMB算法生成的序列 { x k } 收敛到问题(4)的弱帕累托最优点。

证明:与定理4.2证明的开头类似,我们有 lim k+ x k = x ^ (其中 x ^ Ω ),且存在子序列 { z j k }{ z k } ,使得 lim k+ z j k = z ¯ (其中 z ¯ m \{ 0 } z ¯ =1 )。

注意到式(5),有

e j k +1 = q j k +1 + α j k ( ϕ( x j k +1 )ϕ( x j k ) ), (23)

其中 q j k +1 ^ ε j k ( F( ), z j k + δ Ω j k ( ) )( x j k +1 ) 。由于 F 是凸的,可得

q j k +1 ^ ε j k ( F( ), z j k + δ Ω j k ( ) )( x j k +1 ) =( F( ), z j k + δ Ω j k ( )+ ε j k x j k +1 )( x j k +1 ).

然后,根据凸函数的次梯度不等式,对所有 x Ω j k ,有

F( x )F( x j k +1 ), z j k q j k +1 ,x x j k +1 ε j k x x j k +1 . (24)

对式(23)两端与 x x j k +1 做内积,容易验证对任意 x n

q j k +1 ,x x j k +1 = e j k +1 ,x x j k +1 α j k ϕ( x j k +1 )ϕ( x j k ),x x j k +1 e j k +1 ,x x j k +1 α j k ( D ϕ ( x, x j k ) D ϕ ( x j k +1 , x j k ) D ϕ (x, x j k +1 ) ) e j k +1 x x j k +1 α j k ( D ϕ ( x, x j k ) D ϕ ( x, x j k +1 ) ),

其中第二个不等式由(10)得到。将此关系代入式(24),并考虑条件(E2)、(E2.1)、(3)以及关于参数 { α k } 的有界性假设,我们可得对所有 x Ω j k

F( x )F( x j k +1 ), z j k e j k +1 x x j k +1 α j k ( D ϕ ( x, x j k ) D ϕ ( x, x j k +1 ) ) ε j k x x j k +1 α j k ( D ϕ ( x, x j k ) D ϕ ( x, x j k +1 ) )2 α j k η j k x j k x j k +1 x x j k +1 α ¯ ( D ϕ ( x, x j k ) D ϕ ( x, x j k +1 ) ) 4 σ α ¯ η j k D ϕ ( x j k +1 , x j k ) D ϕ ( x, x j k ) , (25)

假设 x ^ 不是问题(4)的弱帕累托最优点。那么,存在 x ˜ n 使得 F( x ˜ )F( x ^ ) ,这意味着 x ˜ Ω ,因此 x ˜ Ω j k 。将 x= x ˜ 代入式(25),同时利用引理4.2和条件(E2.2),令 k+ 可得

F( x ˜ )F( x ^ ), z ¯ 0. (26)

然而,由 z ¯ m \{ 0 } F( x ˜ )F( x ^ ) ,可得 F( x ˜ )F( x ^ ), z ¯ <0 ,这与式(26)矛盾。因此, x ^ 是问题(4)的弱帕累托最优点。

2.1 为了实现带有相对误差准则的ISPPMB算法,我们需要使用一些迭代算法来求解一个隐式包含问题,并验证条件(E2)、(E2.1)和(E2.2)是否满足(参见[9])。我们使用以下步骤来找到满足条件(5)、(E2)、(E2.1)和(E2.2)的 x k+1 e k+1

1) 选择序列 { α k } { η k } ,使得对于某个正实数 α ¯ ,有 0< α k α ¯ ,且 k=0 + η k 2 <+ 。此外,定义序列 { z k } ,使得对于所有 k=0,1, ,都有 z k =1

2) 寻找 x k+1 。使用数值方法(例如,使用MATLAB软件工具中的fmincon或patternsearch函数)来找到问题的稳定点的近似点 x k+1 Ω k ,该问题为

min{ F( ), z k + α k D ϕ ( , x k ):x Ω k }.

3) 计算 f i ( x k+1 ) (对于所有 i=1,,m )以及 N Ω k ( x k+1 ) 。注意,如果对于所有 i=1,,m ,都有 f i ( x k+1 )< f i ( x k ) ,那么 N Ω k ( x k+1 )=0

4) 计算 E k+1 = α k η k D ϕ ( x k+1 , x k )

5) 寻找 e k+1 。找到 g k i f i ( x k+1 ) (对于所有 i=1,,m )以及 p k N Ω k ( x k+1 ) ,使得:

e k+1 E k+1 ,

其中

e k+1 = i=1 m z k i g k i + α k ( ϕ( x k+1 )ϕ( x k ) )+ p k ,

上述误差向量的构造可转化为如下线性逆问题:

Gbl,

其中 G=[ g k 1 g k 2 g k p p k 1 e 1 p k 2 e 2 p k n e n ] e i =( 0,0,,1,0,,0 ) 是第 i 个位置为1的标准向量, p k =( p k 1 ,, p k n ) 是未知的 n×( p×n ) 矩阵, b=( z k 1 , z k 2 ,, z k p ,1,1,,1 ) p+n 是已知向量,且 l=( E k+1 p c k 1 , E k+1 p c k 2 ,, E k+1 p c k n ) n c k = α k ( ϕ( x k+1 )ϕ( x k ) ) 也是已知的。

5. 收敛速度

在本节中,我们旨在估计ISPPMB算法满足相对误差准则时的收敛速率。为此,我们需要额外的假设。定义集合

Z:=ΩS,

其中 S 表示问题(4)的帕累托稳定点集。

2022年,Papa Quiroz和Cruzado[9]以及赵晓芃[11]等人在欧氏空间框架下,利用一类增长条件研究了多目标优化问题中非精确邻近点算法的收敛速度。受此启发,本文基于Bregman距离引入如下增长条件,以分析所提出算法ISPPMB的收敛速度:

(H6) 对于 x ¯ Z lim k+ x k = x ¯ ,存在 δ=δ( x ¯ )>0 τ=τ( x ¯ )>0 ,使得对所有 wB( 0,δ ) n ,以及所有满足 w ^ ε k ( F( ), z k + δ Ω k ( ) )( x k+1 ) x k+1 ,都有

D ϕ ( x ¯ , x k+1 )τ w 2 .

若对所有 x n ,有 ϕ( x )= 1 2 x 2 ,且

^ ε k ( F( ), z k + δ Ω k ( ) )( x k+1 )=°( F( ), z k )( x k+1 )+ N Ω k ( x k+1 ),

那么假设(H6)就退化为参考文献[9]中所使用的增长条件。

定理5.1 { x k } { e k+1 } 是由ISPPMB算法生成的序列。假设(H1)-(H6)以及(E2)、(E2.1)、(E2.2)成立,且存在正常数 α ¯ ,使得 0< α k α ¯ 。那么序列 { x k } 线性收敛到问题(4)的帕累托稳定点。此外,若 lim k+ α k =0 ,则收敛是超线性的。

证明:根据定理4.2,我们可知 { x k } 收敛到问题(4)的帕累托稳定点,记为 x ¯ 。设 δ τ 是假设(H6)中与 x ¯ 对应的正常数。由(5),存在 q k+1 ^ ε k ( F( ), z k + δ Ω k ( ) )( x k+1 ) ,使得

e k+1 = q k+1 + α k ( ϕ( x k+1 )ϕ( x k ) ).

然后,由假设(E2)和 0< α k α ¯ 可得:

q k+1 e k+1 + α k ϕ( x k )ϕ( x k+1 ) ( α k η k + α k L 2 σ ) D ϕ ( x k+1 , x k ) α ¯ ( η k +L 2 σ ) D ϕ ( x k+1 , x k ) , (27)

其中,第二个不等式应用了假设(A1)。由于 η k 0 (由(E2.2))且 D ϕ ( x k+1 , x k )0 (由引理4.2),存在 k 1 ,使得对任意 k k 1 ,有 q k+1 δ 。因此,由(H6)和(27)第二个不等式,对任意 k k 1 ,有

D ϕ ( x ¯ , x k+1 )τ q k+1 2 τ α k 2 ( η k +L 2 σ ) 2 D ϕ ( x k+1 , x k ),

将此与引理4.2中的(20)结合,对于所有 kmax{ k 0 , k 1 } ,可得

( 1+ 1 2τ α k 2 ( η k +L 2 σ ) 2 ) D ϕ ( x ¯ , x k+1 )( 1 1 8 σ η k 2 ) D ϕ ( x ¯ , x k ),

(28)

其中

β k = 1 1 8 σ η k 2 2 τ 2 ( η k +L 2 σ ) 2 2 τ 2 ( η k +L 2 σ ) 2 + 1 α k 2 . (29)

由于对所有 k ,有 0< α k α ¯ ,我们有

β k r k := 1 1 8 σ η k 2 2 τ 2 ( η k +L 2 σ ) 2 2 τ 2 ( η k +L 2 σ ) 2 + 1 α ¯ 2 .

显然,由于 η k 0 ,有

r k 1+ 4 τ 2 L 2 σ 4 τ 2 L 2 σ + 1 α ¯ 2 .

于是,存在 k 2 ,使得对于所有 k k 2 ,有

β k r k < 1 2 ( 1+ 4 τ 2 L 2 σ 4 τ 2 L 2 σ + 1 α ¯ 2 )<1.

这一点,结合(28),意味着对于所有 kmax{ k 0 , k 1 , k 2 } ,有

D ϕ ( x ¯ , x k+1 ) 1 2 ( 1+ 4 τ 2 L 2 σ 4 τ 2 L 2 σ + 1 α ¯ 2 ) D ϕ ( x ¯ , x k ),

{ x k } 线性收敛到 x ¯

此外,若 lim k+ α k =0 ,则应用这一点以及 lim k+ η k =0 在(29)中,可得 lim k+ β k =0 ,这与(28)一起意味着

收敛是超线性的。

结合定理4.3,通过使用与定理5.1类似的证明方法,我们可得到以下结果,因此此处省略证明。

定理5.2 假设(H1)、(H3)、(H4)、(H6)以及(E2)、(E2.1)、(E2.2)成立, F 是凸的,且存在正常数 α ¯ 使得 0< α k α ¯ 。那么由算法3.1生成的序列 { x k } 线性收敛到问题(4)的一个弱帕累托最优点。此外,若 lim k+ α k =0 ,则收敛是超线性的。

6. 总结

本文提出了一种基于Bregman距离的非精确邻近点算法,用于求解无约束拟凸多目标优化问题。该方法引入Fréchet次微分的非精确计算,并结合绝对误差与相对误差两种准则,建立了算法的收敛性理论。结果表明,在适当假设下,算法生成的序列可收敛至帕累托稳定点或弱帕累托最优点。进一步地,在附加增长条件下,证明了相对误差准则下的算法具有线性收敛速率,且当正则化参数趋于零时可实现超线性收敛。

本文的理论分析基于若干关键假设,这些假设在保证理论严密性的同时,也带来了一定的应用局限性。未来的研究方向之一是将帕累托稳定点的概念推广至不可微情形,弱化现有假设以拓展算法的适用性。该工作将进一步丰富拟凸多目标优化的理论体系,并推动其在机器学习等领域的实际应用。

参考文献

[1] Kaplan, A. and Tichatschke, R. (1998) Proximal Point Methods and Nonconvex Optimization. Journal of Global Optimization, 13, 389-406. [Google Scholar] [CrossRef
[2] Rockafellar, R.T. (1976) Monotone Operators and the Proximal Point Algorithm. SIAM Journal on Control and Optimization, 14, 877-898. [Google Scholar] [CrossRef
[3] Treiman, J.S. (1986) Clarke’s Gradients and Epsilon-Subgradients in Banach Spaces. Transactions of the American Mathematical Society, 294, 65-78. [Google Scholar] [CrossRef
[4] Rockafellar, R.T. and Wets, R.J.B. (1998) Variational Analysis. Springer.
[5] Bregman, L.M. (1967) The Relaxation Method of Finding the Common Point of Convex Sets and Its Application to the Solution of Problems in Convex Programming. USSR Computational Mathematics and Mathematical Physics, 7, 200-217. [Google Scholar] [CrossRef
[6] Yang, L. and Toh, K.C. (2022) Bregman Proximal Point Algorithm Revisited: A New Inexact Version and Its Inertial Variant. SIAM Journal on Optimization, 32, 1523-1554. [Google Scholar] [CrossRef
[7] Goh C.J. and Yang X.Q. (2002) Duality in Optimization and Variational Inequalities. Taylor and Francis.
[8] Bento, G.C., Cruz Neto, J.X., Oliveira, P.R. and Soubeyran, A. (2014) The Self Regulation Problem as an Inexact Steepest Descent Method for Multicriteria Optimization. European Journal of Operational Research, 235, 494-502. [Google Scholar] [CrossRef
[9] Papa Quiroz, E.A. and Cruzado, S. (2022) An Inexact Scalarization Proximal Point Method for Multiobjective Quasiconvex Minimization. Annals of Operations Research, 316, 1445-1470. [Google Scholar] [CrossRef
[10] Papa Quiroz, E.A., Apolinário, H.C.F., Villacorta, K.D. and Oliveira, P.R. (2019) A Linear Scalarization Proximal Point Method for Quasiconvex Multiobjective Minimization. Journal of Optimization Theory and Applications, 183, 1028-1052. [Google Scholar] [CrossRef
[11] Zhao, X., Qi, M., Jolaoso, L.O., Shehu, Y., Yao, J. and Yao, Y. (2024) An Inexact Proximal Point Method for Quasiconvex Multiobjective Optimization. Computational and Applied Mathematics, 43, Article No. 309. [Google Scholar] [CrossRef
[12] Polyak B.T. (1987) Introduction to Optimization. Transactions of the American Mathematical Society, 294, 65-78.
[13] Zalinescu, C. (2002) Convex Analysis in General Vector Spaces. World Scientific Publishing. [Google Scholar] [CrossRef
[14] Boyd, S. and Vandenberghe, L. (2004) Convex Optimization. Cambridge University Press. [Google Scholar] [CrossRef