基于修正的指数函数的概率约束问题的对偶算法
A Dual Algorithm for Probabilistic Constraint Problems Based on Modified Exponential Functions
摘要: 本文通过连续可微的非凸函数所形成的概率约束,来分析概率约束问题。描述了潜在的概率函数的水平集的切锥和法锥。进一步,基于p-有效点的概念,形成这些问题的一阶和二阶最优性条件。对于离散分布函数的这种情况,产生一个基于修正的指数函数的对偶算法来解决概率约束问题。
Abstract: In this paper, the problem of probability constraints is analyzed by means of the probability constraints formed by continuously differentiable non-convex functions. The tangent and normal cones of the level set of potential probability functions are described. Further, based on the concept of p-efficient points, the first and second order optimality conditions of these problems are formed. For this case of the discrete distribution function, a dual algorithm based on the modified exponential function is generated to solve the probability constraint problem.
文章引用:张微, 张瑛珏, 王禹钧. 基于修正的指数函数的概率约束问题的对偶算法[J]. 应用数学进展, 2024, 13(11): 5025-5031. https://doi.org/10.12677/aam.2024.1311485

1. 引言

近年来,概率约束优化问题成为备受关注的研究热点之一。该类问题在随机优化领域具有重要的理论意义和应用价值,已经广泛地应用于很多实际问题中。

很多实际问题可以通过概率约束优化问题进行解决,如现金匹配、风险优化、供应链管理、水资源管理等,该类问题均可建模为:

minf( x ) s.t.  Pr[ g( x )Y ]p,        xD, (1)

其中, f: n g: n m 是二次连续可微函数,且

g( x )=( g 1 ( x ), g 2 ( x ),, g m ( x ) ).

D n 是一个闭凸集, Y m 是随机变量, p( 0,1 ) 为置信水平,Pr代表概率。

对于概率约束优化问题,国内外众多学者给出过不同的研究方法,Ruszczynski等学者[1]在2000年关于“包含整数值随机变量的概率约束优化问题”作出研究,基于p-有效点的定义,推导出各种等价问题的形式,又引入r-凹离散概率分布的概念解决“具有离散随机变量的概率约束优化问题”;Ruszczynski [2]在2002年针对“具有概率约束的随机优化问题”进行研究,这些约束涉及具有离散分布的随机变量,提出解决概率约束优化问题的“有效不等式和一般迭代算法”;Ruszczynski等人[3]在2004年,引入了p-有效点的概念后,将其应用于得到带有概率约束的非线性随机优化问题的等价问题以及最优性的充分必要条件中,从而提出了“概率约束问题的对偶方法”;Luedtke [4]在2010年针对联合概率约束线性规划的可行域非凸的问题,提出一个“混合整数规划公式”。Ruszczynski等人[5]又在2012年又提出了增广Lagrange方法。

非线性Lagrange函数是经典的Lagrange函数的修正形式,它关于乘子向量或约束函数是非线性函数;基于非线性Lagrange函数建立的求解非线性优化问题的对偶方法即为非线性Lagrange方法。由于对偶方法对原始变量的可行性没有限制。因此其在求解约束优化问题中扮演着重要的角色。Hestenes [6]与Powell [7]在1969年各自独立提出了近似增广Lagrange函数来求解具有等式约束的非线性优化问题。Boggs & Tolle [8]在1980年引入了一类新的乘子法,发展了对偶理论,对于具有不等式约束问题,Bertsekas [9]在1982年提出了非凸规划问题的修正的指数Lagrange函数,Polyak [10]在1992年给出了修正的Frish函数和修正的Carroll函数,提出相应的对偶算法。鉴于非线性优化问题对偶算法的有效性,本文基于修正的指数函数求解概率约束优化问题(1)的对偶算法。

2. 概率约束优化问题(1)的近似形式

定义2.1 [3]问题(1) Y的分布函数为

F Y ( y )=Pr[ y m :Yy ] .

定义2.2 [3]对于 p( 0,1 ) v m 被称为概率分布函数 F Y 的一个p-有效点,如果 F Y ( v )p ,并且不存在 yv yv ,使得 F Y ( y )p

对于 p( 0,1 ) ,记

={ v j | v j p-, jJ }

Yp-有效点集,其中J是一个任意集合。

对于 p( 0,1 ) ,由于分布函数的单调性和右连续性易知,Y的分布函数的水平集

L p ={ y m :  F Y ( y )p }

是非空闭集,水平集 L p 的凸包 co L p 也是闭的[3]

则问题(1)表示为

minf( x ) s.t.  g( x ) L p ,        xD. (2)

定义

K j = v j + + m ,  v j , jJ.

命题2.1 [5]水平集可表示为

L p = jJ K j .

S m+1 表示 m+1 中的单纯形,即

S m+1 ={ α m+1 : i=1 m+1 α i =1,   α i 0, i=1,,m+1 },

p-有效点集的凸包 co 表示如下:

co={ i=1 m+1 α i v j i :  α S m+1 , j i J },

那么, L p 的凸包 co L p 也有下述表示。

命题2.2 [5]对于每个 p( 0,1 ) ,有 co L p =co+ + m

对于任意 p( 0,1 ] L p co co L p 有下界[3]

co L p 中的极点是p-有效点。记 0 co L p 的极点集, 0 非空,且它包含于p-有效点集 [5]

引理2.1 [5]集合 co L p 有如下表示:

co L p =co 0 + + m ,

问题(2)中 L p 凸化后,问题(2)转化为下述问题

minf( x ) s.t.  g( x )co L p ,        xD. (3)

3. 求解问题(3)的对偶算法

记问题(3)的可行域为

Φ={ x|xD, g( x )co L p }.

K D ( x ^ ) N D ( x ^ ) T D ( x ^ ) 分别表示 D x ^ 处的可行方向锥,法锥,切锥。

给定可行点 x ^ Φ ,则存在 ω ^ co y ^ + m ,使得 g( x ^ )= ω ^ + y ^ 。记 x ^ 处的积极约束指标集为

I 0 ( x ^ )={ i| y ^ i =0, i=1,,m }.

对于向量 δ K D ( x ^ ) ,一个p-有效点 ω i 0 的凸组合存在

i I 0 ( x ^ ) , g i ( x ^ )+ g i ( x ^ ),δ > ω i 0 . (4)

条件(4)等价于问题(3)在可行点 x ^ 处的Robinson’s约束规范条件[5]

定义Lagrange函数

L( x,u )=f( x ) u,g( x ) .

定理3.1 [5] x ^ 是问题(3)的一个局部最优解,且在 x ^ 处满足条件(4),则存在一个向量 u ^ + m ,使得

x L( x ^ , u ^ ) N D ( x ^ ) , u ^ N co L p ( g( x ^ ) ) , (5)

Λ( x ^ ) 为满足(5)中出现的Lagrange乘子的集合。记 Jg( x ) gx处的Jacobian。

定理3.2 [5] x ^ Φ 满足条件(4)和(5),且对于 uΛ( x ^ ) ,以及使得

f( x ^ ),δ =0 u,Jg( x ^ )δ =0

成立的每个非零的 δ T D ( x ^ ) ,有下述不等式成立,

δ, x 2 L( x ^ ,u )δ >0 , (6)

x ^ 是问题(3)的一个局部极小值。

IJ 是问题(3)的p-有效点集中的极点集, | I | 是它的基数,我们考虑由问题(3)转化成的近似问题:

minf( x ) s.t.  g( x ) jI λ j v j ,        xD, λ S | I | . (7)

I=J 时,(7)与(3)重合。

考虑Bertsekas (1982) [9]提出的修正的指数函数

F( x,u,k )= f 0 ( x ) k 1 i=1 m u i [ 1 e k f i ( x ) ];

其中, k>0 是惩罚参数,则问题(2)的修正的指数函数

F ρ,| I | ( x,λ,u )=f( x ) ρ 1 i=1 m u i [ 1 e ρ( g i ( x ) jJ λ j v i j ) ] .

其中, F ρ,| I | : m × S m+1 × m ,子集 IJ ρ>0 是惩罚参数。

对偶算法 下述算法中,我们用 ε 作为一个准确参数

步骤0:选择一个p-有效点 v 1 ,使得存在一点 x ˜ D ,满足 g( x ˜ )> v 1

J 1 ={ v 1 } k=1 。且选择 u 1 0

步骤1:求解主问题

min x,λ F ρ,k ( x,λ, u k )        xD,λ S k .

( x k , λ k ) 是这个问题的解。

步骤2:如果 k>1 u k u k1 <ε ,那么停止,否则继续步骤3。

步骤3:计算

u i k+1 = u i k e ρ[ g i ( x ) jI λ j v i j ] , i=1,,k .

步骤4:找到一个p-有效点 v k+1 作为问题 min zco L p u k+1 ,z 的解,令

J k+1 ={ v k+1 } J k .

步骤5:令 kk+1 ,然后转到步骤1。

接下来,做如下假设:

(A1) 存在一个数 κ>0 ,使得随机向量Y的两个实现间的距离大于 κ

(A2) 集合 D 凸且紧致。

定理3.3 [5]存在一个有限子集 IJ ,使得问题(2)与问题(3)的局部一阶最优性条件等价。

因此,问题(3)在 ( x ^ , λ ^ ) 处关于 u ^ 的一阶最优性条件是:

x L( x ^ , u ^ ) N D ( x ^ ) , v I Τ u ^ N S | I | ( λ ^ ) .

定理3.4在假设(A1)和(A2)成立的基础上,假设问题(3)有可行域非空,则参数 ρ>0 的修正的指数函数方法产生的序列 { x k } { u k } 的聚点 x ^ u ^ ,满足(3)的一阶最优性条件,此外,若 x ^ 满足条件(6)和(4),那么 x ^ 是(3)的一个局部极小解。

证明:由于在(A1)下,只存在许多有限的p-有效点,算法没有产生p-有效点的非有限序列。因此,在某次迭 k 0 后,没有新的p-有效点在步骤4中产生,当 D 紧致, { x k } 有一个收敛到子序列的聚点。由于g的连续性, { g( x k ) } kK 有一个聚点 g( x ^ ) 。我们记 z k = j J k λ j k v j 。由于有限个p-有效点存在,集合

co={ i=1 m+1 α i v ji ,α S m+1 ,jiJ }

是有界的且 { z k } kK co L P 中有一聚点,我们记作 z ^ 。相似地,序列 { λ k } 有聚点 λ ^ S k 0 z ^ = j J k λ ^ j k v j 。我们可以选择一个迭代序列 K{ 1,2,3, } 以至于这些聚点是相关子序列的极限。记 J={ i: z ^ <g( x ^ ) } 我们注意到对于足够大的 kK ρ 足够大的时候,我们得到 u i k =0 。而且,根据算法步骤3,对于 iJ ,有

u i k+1 = u i k e ρ[ g i ( x ) jI z i k ] . (8)

我们将证明对于 iJ z ^ i = g i ( x ^ ) 。假设对于某个 iJ z ^ i > g i ( x ^ ) 成立,那么 lim k u i k = 。此外,k足够大时,修正的指数函数有如下形式:

F ρ,k ( x k , λ k , u k )=f( x ) ρ 1 i=1 k u i k [ 1 e ρ( g i ( x ) z i k ) ] .

因此, lim k F ρ ( x k , λ k , u k )= 。另一方面,设 λ ˜ = ( 1,0,,0 ) Τ S J k ,我们得到 ( x ˜ , λ ˜ )D× S J k 。当k足够大时,得到

F ρ,k ( x ˜ , λ ˜ , u k )=f( x ˜ ) ρ 1 i=1 k u i k [ 1 e ρ( g i ( x ˜ ) v i 1 ) ] ,

所以

F ρ,k ( x ˜ , λ ˜ , u k )f( x ˜ )< F ρ,k ( x k , λ k , u k ) .

这和 ( x k , λ k ) 是步骤一中主问题的解的结论是矛盾的,因此 z ^ i g i ( x ^ ) ,这表明对于所有的 iJ z ^ i = g i ( x ^ ) 。结合(8)式得到, { u k } 有一个聚点 u ^ ,使得对于所有 i: u ^ >0 ,有 z ^ i = g i ( x ^ )

在步骤1中主问题的最优性条件是:

f( x k )+ i=1 k u i k e ρ( g i ( x ) jI λ j k v i j )+1 g i ( x k ) Ν D ( x k ) (9)

V J 0 Τ u k Ν S k 0 ( λ k ) (10)

对于足够大的 kK ,我们可以改写(9)式为

F( x k , u k+1 ) Ν D ( x k ) (11)

条件(10)意味着

0 u k , V J 0 ( λ λ k ) = u k , V J 0 λ z k (12)

假设存在一点 ωco L p \co{ v j ,j J k } 使得 u k ,ω z k <0 ,应用这个假设和(12),我们得到

u k ,ω v k = u k ,ω z k + u k , z k v k > u k , z k v k 0 .

即不等式 u k ,ω v k >0 ,这与步骤四中,问题 min zco L p u k+1 ,z 的最优性条件 u k N co L p ( z ) 是矛盾的,这说明 u k Ν co L p ( v k ) 。因此, u k Ν co L p ( z k ) ,结合(11),表明

F( x k , u k+1 ) Ν D ( x k ) (13)

u k+1 Ν co L p ( z k+1 ) (14)

kκ 上取极限,并应用(06年的文献)到(13)~(14),我们得到

F( x ^ , u ^ ) Ν D ( x ^ ) , u ^ Ν co L p ( g( x ^ ) ) ,

因此, x ^ 满足问题(3)的条件(5),根据定理4,点 x ^ 是(3)的局部极小解。

本文通过运用在p-有效点的概念下产生的基于修正的指数函数的对偶算法来解决概率约束问题,目前该方法仍存在不完善之处,在后续的研究中将进一步探索其可应用的范围,以及在实际问题中的运用,望能更好地为社会创造价值。

NOTES

*通讯作者。

参考文献

[1] Dentcheva, D., Prékopa, A. and Ruszczynski, A. (2000) Concavity and Efficient Points of Discrete Distributions in Probabilistic Programming. Mathematical Programming, 89, 55-77.
https://doi.org/10.1007/pl00011393
[2] Dentcheva, D., Prékopa, A. and Ruszczyński, A. (2002) Bounds for Probabilistic Integer Programming Problems. Discrete Applied Mathematics, 124, 55-65.
https://doi.org/10.1016/s0166-218x(01)00329-8
[3] Dentcheva, D., Lai, B. and Ruszczyński, A. (2004) Dual Methods for Probabilistic Optimization Problems. Mathematical Methods of Operational Research, 60, 331-346.
https://doi.org/10.1007/s001860400371
[4] Luedtke, J., Ahmed, S. and Nemhauser, G.L. (2008) An Integer Programming Approach for Linear Programs with Probabilistic Constraints. Mathematical Programming, 122, 247-272.
https://doi.org/10.1007/s10107-008-0247-4
[5] Dentcheva, D. and Martinez, G. (2011) Augmented Lagrangian Method for Probabilistic Optimization. Annals of Operations Research, 200, 109-130.
https://doi.org/10.1007/s10479-011-0884-5
[6] Hestenes, M.R. (1969) Multiplier and gradient methods. Journal of Optimization Theory and Applications, 4, 303-320.
https://doi.org/10.1007/bf00927673
[7] Powell, M.J.D. (1969) A Method for Nonlinear Constraints in Minimization Problems. In: Fletcher, R. Ed., Optimization, Academic Press, 283-298.
[8] Boggs, P.T. and Tolle, J.W. (1980) Augmented Lagrangians Which Are Quadratic in the Multiplier. Journal of Optimization Theory and Applications, 31, 17-26.
https://doi.org/10.1007/bf00934785
[9] Bertsekas, D.P. (1982) Constrained Optimization and Lagrange Multiplier Methods. Academic Press.
[10] Polyak, R. (1992) Modified Barrier Functions (Theory and Methods). Mathematical Programming, 54, 177-222.
https://doi.org/10.1007/bf01586050