一种解决半定规划问题的投影神经网络方法
A Projection Neural Network Method for Solving Semidefinite Programming Problems
摘要: 本文研究了半定规划(SDP)问题的神经网络方法。首先提出了一种基于投影算子的神经网络方法,然后,建立了神经网络平衡点与半定规划问题最优解之间的等价性,并证明了平衡点具有Lyapunov稳定性。数值模拟进一步证明了该网络的有效性。通过利用投影映射和SDP问题的结构,该神经网络方法可以有效地解决优化任务,为解决各种半定规划问题提供了一个实用的计算框架。
Abstract: This paper studies the neural network method for semidefinite programming (SDP) problems. Firstly, a neural network method based on projection operator is proposed. Then, the equivalence between the equilibrium point of the neural network and the optimal solution of the semidefinite programming problem is established, and it is proved that the equilibrium point has Lyapunov stability. Numerical simulation further proves the effectiveness of the network. By using the structure of projection mapping and SDP problem, the neural network method can effectively solve the optimization task, and provides a practical computational framework for solving various semidefinite programming problems.
文章引用:张柯冕, 张杰, 杨嘉妮. 一种解决半定规划问题的投影神经网络方法[J]. 计算机科学与应用, 2025, 15(10): 232-239. https://doi.org/10.12677/csa.2025.1510263

1. 引言

近年来,由于半定规划(SDP)问题在工程和组合优化中的广泛应用,已引起了广泛关注。半定规划问题包含线性规划、最小–最大特征值问题、最大行列式问题以及对数切比雪夫逼近问题等多个重要优化问题作为特例[1],这类问题在控制理论、图论、统计学、结构优化、组合优化以及其他学科领域频繁出现[2] [3]

神经网络方法特别适用于实时优化问题,具备多项显著优势。其类似电路的结构易于通过模拟电路或专用硬件实现,支持低功耗、高并行运算,满足高实时性需求。通过设计能量函数,该方法将约束优化转化为动态系统平衡点求解,简化了传统内点法中复杂的障碍函数设计。此外,连续时间神经网络可直接借助动态系统理论和常微分方程数值方法有效求解约束优化问题,并具有快速收敛能力,适用于实时计算场景。

本文旨在提出一种新的基于投影算子的神经网络来解决半定规划问题。首先,我们回顾了半定规划问题和神经网络的定义。然后,构建了投影神经网络,分析了所提神经网络的平衡点和半定规划问题的解是等价的,并证明了平衡点是Lyapunov稳定的,最后通过数值实验展示了所提方法的有效性。

通过本文的研究,我们希望能够为解决半定规划问题的方法研究提供新的思路。

2. 预备知识

2.1. 半定规划问题

我们考虑半定规划问题[4]

( P ) min C,X         s.t. A i ,X = b i ,   i=1,2,,m,    X0, (1)

和其对偶问题:

( D ) max b T y          s.t.     i=1 m y i A i +S=C,    S0, (2)

其中, C, A i ,X,S n 阶矩阵,并且 X,S 是对称矩阵, b,y R m C,X , A i ,X 是矩阵的迹积, 表示半正定,也就是对于实对称矩阵 A B AB 表示 AB 是半正定的。

半定规划问题和对偶半定规划问题的解满足最优性条件[5]

{ A i ,X = b i ,   i=1,2,,m,   X0, i=1 m y i A i +S=C,   S0, X,S =0. (3)

x=vec( X ) 并且定义 u= ( x T , y T ) T 。如果 X * y * 满足(3)中的最优性条件,那么称 u * = ( x * T , y * T ) T 是半定规划问题的一组解。

2.2. 一阶微分方程

一阶微分方程基本形式为

y ˙ ( t )=( y( t ) ),     y( t 0 )= y 0 n , (4)

这里 : n n 是一个映射。

定义1. 若点 y * =y( t * ) 满足 ( y * )=0 ,则称 y * 为微分方程(4)的平衡点。若存在 y * 的一个领域 Ω * n ,使得 ( y * )=0 ,且对所有 y Ω * \{ y * } ,都有 ( y )0 ,则称 y * 为孤立平衡点。

2.3. 投影算子

P Ω : n Ω 是一个投影算子,定义为 P Ω ( u )=arg min vΩ uv 。若 Ω= Ω 1 × m ,其中 × 表示笛卡尔积, Ω 1 n 2 ,则对任意 u= ( x T , y T ) T n 2 +m ,有 P Ω =( P Ω 1 ( x ) y )

引理1. [6]对于任意的 ( A,B ) S + m × S + m ,其中 S + m 为所有 m×m 实对称半正定矩阵的集合,我们有 A,B =0 当且仅当 A= P S + m ( AB )

命题1. S + n 为所有 n×n 实对称半正定矩阵的集合,有以下等式成立:

vec( P S + n ( X ) )= P vec( S + n ) ( vec( X ) )

命题2. 如果 Ω 是一个 n 上的闭凸子集,那么在闭凸集上的投影的一个基本性质是

[ u P Ω ( u ) ] T [ P Ω ( u )v ]0,  u n ,  vΩ (5)

3. 投影神经网络

接下来,我们介绍所提出的投影神经网络模型

du dt = P Ω [ uβ( Mu+q ) ]u, u( t 0 )= u 0 ,   β>0, (6)

其中 Ω=vec( S + n )× m

M=( 0 A ¯ T A ¯ 0 ), A ¯ = ( a 1 , a 2 ,, a m ) T , a i =vec( A i ),( i=1,2,,m ),

q=( c b ),c=vec( C ), u 0 { u= ( x T , y T ) T n 2 +m |xvec( S + n ),y m },

β 是尺度参数,用以表征神经网络的收敛速率。为了便于我们的分析:

定理1. u * = ( x * T , y * T ) T 是神经网络(6)的一个平衡点,则 u * 满足半定规划问题的最优性条件(3)。反之,若 X * S + n 是半定规划问题(1)的一个最优解,则存在 y * m ,使得 u * = ( vec ( X * ) T , y * T ) T 是神经网络(6)的一个平衡点。

证明:假设 u * = ( x * T , y * T ) T 是神经网络(6)的一个平衡点,那么 P Ω [ u * β( M u * +q ) ] u * =0 ,因此

u P Ω [ u β( M u +q ) ] =( x y ) P Ω [ ( x y )β( vec( i=1 m y i A i )+c        A 1 , X b 1                  A m , X b m ) ] =( x y ) P Ω [ ( x β( cvec( i=1 m y i A i ) )       y 1 β( A 1 , X b 1 )                     y m β( A m , X b m ) ) ] =( x y )( P vec( S + n ) [ x β( cvec( i=1 m y i A i ) ) ] y 1 β( A i , X b 1 )                   y m β( A m , X b m ) )

根据命题1,得出

P vec( S + n ) [ x β( cvec( i=1 m y i A i ) ) ]=vec[ P S + n [ X β( C i=1 m y i A i ) ] ]

代入原式得

u P Ω [ u β( M u +q ) ] =( x vec[ P S + n [ X β( C i=1 m y i A i ) ] ] β( A i , X b 1 )              β( A m , X b m ) ) =0

我们有

{ X = P S + n [ X β( C i=1 m y i A i ) ] A i , X = b i ,    i=1,2,3,,m.

A= X ,B=β( C i=1 m y i A i ) 代入到引理1中,我们得到

{ A i , X = b i ,    i=1,2,3,,m, C i=1 m y i A i _ 0,    X _ 0, X ,C i=1 m y i A i =0.

这与(3)是等价的,即 u * = ( x * T , y * T ) T 满足半定规划问题的最优性条件。反之亦然。

证毕。

定理2. 神经网络(6)的平衡点 u * = ( x * T , y * T ) T 在Lyapunov意义上是稳定的。

证明:令 u * = ( x * T , y * T ) T 是神经网络(6)的一个平衡点,我们有

u * = P Ω [ u * β( M u * +q ) ] u *

考虑以下函数:

V( u )=β [ F( u ) ] T [ u P Ω [ uβF( u ) ] ] 1 2 u P Ω [ uβF( u ) ] 2 + 1 2 u u * 2 ,   uΩ

这里 F( u )=Mu+q 。显然, F( u ) 是连续可微的,并且 V( u * )=0

Ω=vec( S + n )× m (它是 n 2 +m 的一个闭凸子集)、 uβF( u ) n 2 +m uΩ 代入(5),我们有

[ uβF( u ) P Ω [ uβF( u ) ] ] T [ P Ω [ uβF( u ) ]u ]0,

那么

β [ F( u ) ] T [ u P Ω [ uβF( u ) ] ] u P Ω [ uβF( u ) ] 2 .

因此

V( u ) 1 2 u P Ω [ uβF( u ) ] 2 + 1 2 u u * 2 0,  uΩ,

且显然有

V( u )>0,  uΩ,u u * .

与文献[7]中定理3.2的证明类似,我们可知:

V( u )=βF( u )+( βF( u ) I n )[ u P Ω [ uβF( u ) ] ]+u u * ,

其中, I n n 阶单位矩阵。因此,沿着神经网络(6)的轨迹 u=u( t, u 0 )( t0 ) ,我们有

dV[ u( t ) ] dt = [ V( u ) ] T du dt = [ u u * +βF( u ) ] T [ u P Ω [ uβF( u ) ] ]+ u P Ω [ uβF( u ) ] 2 β [ u P Ω [ uβF( u ) ] ] T F( u )[ u P Ω [ uβF( u ) ] ].

因为 F 是可微的,并且

F( u )=M=( 0 A ¯ T A ¯ 0 ),

这是一个反对称矩阵,因此

β [ u P Ω [ uβF( u ) ] ] T F( u )[ u P Ω [ uβF( u ) ] ]=0.

uβF( u ) R n 2 +m , u * Ω 代入(3)中,我们得到

[ uβF( u ) P Ω [ uβF( u ) ] ] T [ P Ω [ uβF( u ) ] u * ] = [ uβF( u ) P Ω [ uβF( u ) ] ] T [ P Ω [ uβF( u ) ]u+u u * ] = [ u P Ω [ uβF( u ) ] ] T [ βF( u )+u u * ] u P Ω [ uβF( u ) ] 2 βF ( u ) T ( u u * ) = [ βF( u )+u u * ] T [ u P Ω [ uβF( u ) ] ] u P Ω [ uβF( u ) ] 2 β ( u u * ) T F( u ) 0.

这意味着,

[ βF( u )+u u * ] T [ u P Ω [ uβF( u ) ] ] u P Ω [ uβF( u ) ] 2 +β ( u u * ) T F( u ).

因此

dV[ u( t ) ] dt β ( u u * ) T F( u ). (7)

对于任意的 uΩ ,我们有

( u u * ) T F( u )= ( u u * ) T [ F( u )F( u * ) ]+ u T F( u * ) u * T F( u * ).

由神经网络(6)和最优性条件(3),我们得到

u * T F( u * )=( x * T , y * T )( vec( i=1 m y i * A i )+c A 1 , X * b 1 A m , X * b m ) =( x * T , y * T )( vec( i=1 m y i * A i )+c 0 0 ) = X * ,C i=1 m y i * A i =0.

因此

( u u * ) T F( u ) = ( u u * ) T [ F( u )F( u * ) ]+ u T F( u * ) = ( u u * ) T M( u u * )+( x T , y T )( vec( i=1 m y i * A i )+c 0 0 ) = ( u u * ) T M( u u * )+ X,C i=1 m y i * A i .

上式结合反对称矩阵 M,X S + n ,C i=1 m y i * A i S + n ,β>0 以及(7),得到

dV[ u( t ) ] dt β ( u u * ) T F( u )β X,C i=1 m y i * A i 0

这意味着神经网络(6)的平衡点在Lyapunov意义上是稳定的。

证毕。

4. 数值实验

下面的例子是根据文献[8],经过适当修改而改编的。

考虑半定规划问题(1)和其对偶问题(2),令 n=3,m=2

A 1 =( 1 0 0 0 0 2 0 0 0 0 2 0 0 0 0 4 ), A 2 =( 3 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 ),

b=( 3 1 ),C=( 3 0 0 0 0 2 0 0 0 0 8 0 0 0 0 16 ).

实验在MATLAB R2022上进行,所使用的常微分方程求解器为ode45。图1展示了基于神经网络(6)的 y( t ) 的轨迹,参数取 β=100 ,初始点取 X 0 = I 4 y 0 =( 1 1 )

Figure 1. y( t ) trajectory based on neural network (6)

1. 基于神经网络(6)的 y( t ) 轨迹

5. 结论

本文提出了一种新的基于投影算子的神经网络来解决半定规划问题。

致 谢

本人衷心感谢张杰老师在学术道路上的悉心指导。

参考文献

[1] Vandenberghe, L. and Boyd, S. (1996) Semidefinite Programming. SIAM Review, 38, 49-95. [Google Scholar] [CrossRef
[2] Boyd, S., El Ghaoui, L., Feron, E. and Balakrishnan, V. (1994) Linear Matrix Inequalities in System and Control Theory. Society for Industrial and Applied Mathematics. [Google Scholar] [CrossRef
[3] Mohar, B. and Poljak, S. (1993) Eigenvalues in Combinatorial Optimization. In: Brualdi, R.A., Friedland, S. and Klee, V., Eds., Combinatorial and Graph-Theoretical Problems in Linear Algebra, Springer, 107-151. [Google Scholar] [CrossRef
[4] Alizadeh, F. (1995) Interior Point Methods in Semidefinite Programming with Applications to Combinatorial Optimization. SIAM Journal on Optimization, 5, 13-51. [Google Scholar] [CrossRef
[5] Bi, H., Zhao, X. and Ren, J. (2022) A New Projection Contraction Algorithm for Semidefinite Programming. Procedia Computer Science, 208, 627-634. [Google Scholar] [CrossRef
[6] Tseng, P. (1998) Merit Functions for Semi-Definite Complemetarity Problems. Mathematical Programming, 83, 159-185. [Google Scholar] [CrossRef
[7] Fukushima, M. (1992) Equivalent Differentiable Optimization Problems and Descent Methods for Asymmetric Variational Inequality Problems. Mathematical Programming, 53, 99-110. [Google Scholar] [CrossRef
[8] Bazaraa, M.S., Jarvis, J.J. and Sherali, H.D. (2011) Linear Programming and Network Flows. John Wiley & Sons.