一种求解半定线性互补问题的神经网络方法
A Neural Network Approach for Solving Semi-Definite Linear Complementarity Problem
摘要: 本文提出了一种新颖的投影神经网络方法,用于求解半定线性互补问题(SDLCP)。理论分析表明,在特定条件下,所提方法能够保证指数稳定性。并且通过MATLAB仿真实验给出了数值算例,充分证明了所提投影神经网络模型的有效性。本文提出的神经网络框架为求解半定线性互补问题提供了一种具有前景且切实可行的方法,具有广阔的应用潜力。
Abstract: This paper proposes a novel projection neural network method for solving the Semi-Definite Linear Complementarity Problem (SDLCP). Theoretical analysis shows that under specific conditions, the proposed method can guarantee exponential stability. Moreover, an example is presented through MATLAB simulation experiments, which fully demonstrates the effectiveness of the proposed projection neural network model. The neural network framework proposed in this paper provides a promising and practical approach for solving the Semi-Definite Linear Complementarity Problem, with broad application potential.
文章引用:邓雯, 张杰, 张柯冕. 一种求解半定线性互补问题的神经网络方法[J]. 动力系统与控制, 2025, 14(4): 346-352. https://doi.org/10.12677/dsc.2025.144035

1. 引言

互补问题最早由数学家莱姆克和豪森于1964年在研究博弈论中的纳什均衡时提出。近年来,由于具备并行性、动态演化能力以及易于硬件实现等优势,神经网络方法已被广泛应用于各类互补问题的求解。廖立志等人[1]首次提出了一种基于无约束极小化重构的神经网络模型,用于求解线性互补问题(LCP)。此后,他们将这一框架扩展到了非线性互补问题(NCP)的场景中[2]。侯彬等人[3]聚焦于一类更具一般性的广义垂直互补问题(GVCP),并提出了一种基于对数–指数平滑函数的神经网络模型。这些研究充分体现了神经网络在处理各类互补问题时的适应性与方法多样性。

对于半定线性互补问题,以往最常用内点法进行求解。有些学者基于新核函数的原始对偶内点法求解半定线性互补问题,但非正交方向增加分析难度,部分参数下内迭代次数偏高。也有基于Chen-Mangasarian类平滑函数和光滑Fischer-Burmeister函数的非内点连续方法,但缺点是线性搜索耗时、部分问题迭代次数多。据我们所知,利用神经网络方法求解半定线性互补问题(SDLCP)的研究仍极为有限。

在此背景下,本文旨在采用投影神经网络模型来求解SDLCP。

2. 预备知识

2.1. SDLCP定义

S n 表示所有 n×n 实对称矩阵构成的空间, S + n 表示 S n 中对称半正定矩阵构成的锥。给定一个线性变换 L: S n S n 及一个矩阵 Q S n ,半定线性互补问题[4]是要找到一个矩阵 X S n ,使得

X S + n , F( X )L( X )+Q S + n ,  X,F( X ) =0 (1)

其中 X,F( X ) 表示矩阵乘积 XF( X ) 的迹。

2.2. 投影算子

P S + n : S n S + n 为一个投影算子,其定义为

P S + n =arg min Y S + n XY F

其范数为Frobenius范数。

2.3. 谱分解

考虑对角矩阵 D=diag( d 1 , d 2 ,, d n ) ,定义 D + diag( d 1 + , d 2 + ,, d n + ) ,确保所有对角元素均为非负。对于 X S n ,假设 X=UD U Τ 是谱分解,其中 U 是正交矩阵, D 是对角矩阵,定义 X + U D + U Τ 。本文中将对 P S + n 进行谱分解处理,如下

P S + n ( X )= X +

2.4. 矩阵向量化

将矩阵 X S + n 的向量化定义为按列堆叠其元素得到 R n 2 中的一个向量,记为 vec( X )

vec( X )=( X 11 X 21 X n1 X 12 X 22 X nn ) R n 2

定义1:设 F: S n S + n 是定义在 S n 上的一个映射。若存在常数 μ>0 ,使得对于所有 X,Y S n ,不等式

F( X )F( Y ),XY μ XY F 2

成立,则称映射 F( X ) 是强单调的,其中 μ 称为强单调常数。

引理1[5]对任意 X S n ,Y S + n

X P S + n ( X ), P S + n ( X )Y 0

成立,并且对于任意 U,V S n ,有

P S + n ( U ) P S + n ( V ) F UV F

引理2[6] S + n S n 为非空闭凸集, X * S + n F: S n S + n 为连续映射,则

X X * ,F( X * ) 0, X S + n

X * = P S + n ( X * αF( X * ) )

等价,其中 α>0

引理3[7] F ˜ :D R n 2 R n 2 在开凸集 D 上可微,定义函数 g

g( x )= 0 1 ( x x 0 ) Τ F ˜ ( x 0 +t( x x 0 ) )dt

F ˜ ( x ) 是对称的,则 Jg( x )= F ˜ ( x )

命题1[8]若对于任意初始点 x( t 0 ) R n 2 ,如果对于 t t 0 ,满足条件

x x * c 0 x( t 0 ) x * exp( η( t t 0 ) )

其中 c 0 η 是与初始点无关的正常数,那么该系统是全局指数稳定的。

3. 投影神经网络的构造

模型构造

用于求解半定线性互补问题(SDLCP)的投影神经网络可定义如下:

dX dt = P S + n ( XαF( X ) )X

其中 α 是正常数。投影操作利用前文提及的谱分解来处理,如下所示:

P S + n ( XαF( X ) )= ( XαF( X ) ) +

为便于后续对神经网络稳定性的证明与计算,我们引入以下定义:

x=vec( X ), x * =vec( X * )

F ˜ ( x )=vec( F( X ) )

P ˜ S + n ( xαF( x ) )= P S + n ( XαF( X ) )

在这些定义下,神经网络可表示为:

dx dt = P ˜ S + n ( xαF( x ) )x (2)

4. 指数稳定性证明

定理1:设 F ˜ ( x ) 的雅可比矩阵对称且满足利普希茨条件。如果 F ˜ ( x ) R n 2 上是强单调的,那么神经网络(2)是指数稳定的。

证明:定义如下李雅普诺夫函数:

V( x )= 0 1 ( x x * ) Τ [ G( x * +t( x x * ) )G( x * ) ]dt

其中

G( x )=x+ F ˜ ( x )

因此,可以得到

dV( x ) dx =x+α F ˜ ( x ) x * α F ˜ ( x * )

由中值定理可得

G( x+t( x x * ) )G( x * )= 0 1 JG( x+st( x x * ) ) ( x x * )sds

因此,我们有

V( x )= 0 1 0 1 ( x x * ) Τ JG( x+st( x x * ) ) ( x x * )sdsdt

因为 J F ˜ ( x ) 满足李普希兹条件,所以 J F ˜ ( x ) R n 2 上是有界的。因此存在 L>0 ,使得 J F ˜ ( x ) L 。因此,我们有

V( x )( 1+L ) 0 1 0 1 x x * 2 sdsdt 1+L 2 x x * 2

根据文献[9]中的(9),我们有

[ P S + n ( xF( x ) ) x * ] Τ F( x * )0 (3)

在引理2.1中,令 X=xα F ˜ ( x ) Y= x * ,我们有

[ P S + n ( xF( x ) ) x * ] Τ [ xα F ˜ ( x ) P ˜ S + n ( xF( x ) ) ]0 (4)

由(3)和(4)可得

[ P ˜ S + n ( xαF( x ) ) x * ] Τ [ α F ˜ ( x )+α F ˜ ( x * ) P ˜ S + n ( xαF( x ) )+x ]0

因此,

[ x x * +α F ˜ ( x )α F ˜ ( x * ) ] Τ [ P ˜ S + n ( xαF( x ) )x ] α ( x x * ) Τ [ F ˜ ( x ) F ˜ ( x * ) ] x P ˜ S + n ( xαF( x ) ) 2 .

F ˜ ( x ) 的强单调性,我们有

dV( x ) dt = dV( x ) dx dx dt = [ x x * +α F ˜ ( x )α F ˜ ( x * ) ] Τ [ P ˜ S + n ( xF( x ) )x ] α ( x x * ) Τ [ F ˜ ( x ) F ˜ ( x * ) ] x P ˜ S + n ( xF( x ) ) 2 α ( x x * ) Τ [ F ˜ ( x ) F ˜ ( x * ) ] k 1 x x * 2 kV( x ),

其中 k= 2 k 1 1+L 。进一步,

V( x )V( x 0 ) e k( t t 0 ) , t t 0

另一方面,

V( x )= 0 1 0 1 ( x x * ) Τ ( I n +αJ F ˜ ( x+st( x x * ) ) )( x x * )sdsdt 0 1 0 1 x x * 2 sdsdt = 1 2 x x * 2 .

因此,我们有

x( t ) x * 2 2V( x 0 ) e k t t 0 2 , t t 0

综上所述,神经网络(2)指数稳定。

5. 数值实验

1:在SDLCP中,取 L( X )=AX A Τ ,其中

A=( 17.25 1.75 1.75 1.75 1.75 1.75 16.25 2 0 0 1.75 2 16.25 2 0 1.75 0 2 16.25 2 1.75 0 0 2 16.25 )

Q=( 9.25 1.25 1.25 1.25 1.25 1.25 8.25 1.5 0 0 1.25 1.5 8.25 1.5 0 1.25 0 1.5 8.25 1.5 1.25 0 0 1.5 8.25 )

取初始值为

X 0 =( 0.0620 0 0 0 0 0 0.0620 0 0 0 0 0 0.0620 0 0 0 0 0 0.0620 0 0 0 0 0 0.0620 )

我们在MATLAB中实现了该模型,并采用ODE45方法对投影神经网络进行求解,从而模拟解轨迹的演化过程如图1所示。

Figure 1. The evolution of x i ( t ) over time

1. x i ( t ) 随时间的轨迹图

从数值实验的图像可以看出, x i ( t ) 的轨迹收敛,充分证明了文章所提出的投影神经网络的有效性与可行性。

6. 总结

本文针对半定线性互补问题(SDLCP),提出新颖的投影神经网络求解方法。先以投影算子、谱分解等为基础构建模型,再通过李雅普诺夫函数证明其在特定条件下的指数稳定性,最后经MATLAB实验验证了方法的有效性。未来可将模型拓展至非线性SDLCP,优化稳定性判定条件,结合硬件提升计算效率,还可探索其在控制理论、量子化学等领域的实际应用。

致 谢

感谢张杰老师对本论文的悉心指导。

参考文献

[1] Liao, L.-Z. and Qi, H.-D. (1999) A Neural Network for the Linear Complementarity Problem. Mathematical and Computer Modelling, 29, 9-18. [Google Scholar] [CrossRef
[2] Liao, L., Qi, H. and Qi, L. (2001) Solving Nonlinear Complementarity Problems with Neural Networks: A Reformulation Method Approach. Journal of Computational and Applied Mathematics, 131, 343-359. [Google Scholar] [CrossRef
[3] Hou, B., Zhang, J. and Qiu, C. (2022) A Neural Network for a Generalized Vertical Complementarity Problem. AIMS Mathematics, 7, 6650-6668. [Google Scholar] [CrossRef
[4] Gowda, M.S., Song, Y. and Ravindran, G. (2003) On Some Interconnections between Strict Monotonicity, Globally Uniquely Solvable, and P Properties in Semidefinite Linear Complementarity Problems. Linear Algebra and Its Applications, 370, 355-368. [Google Scholar] [CrossRef
[5] Kinderlehrer, D. and Stampacchia, G. (2000) An Introduction to Variational Inequalities and Their Applications. Society for Industrial and Applied Mathematics. [Google Scholar] [CrossRef
[6] Friesz, T.L., Bernstein, D., Mehta, N.J., Tobin, R.L. and Ganjalizadeh, S. (1994) Day-to-Day Dynamic Network Disequilibria and Idealized Traveler Information Systems. Operations Research, 42, 1120-1136. [Google Scholar] [CrossRef
[7] Ortega, J.M. and Rheinboldt, W.C. (1970) Iterative Solution of Nonlinear Equations in Several Variables. Academic Press.
[8] Xia, Y. and Feng, G. (2007) A New Neural Network for Solving Nonlinear Projection Equations. Neural Networks, 20, 577-589. [Google Scholar] [CrossRef] [PubMed]
[9] Xia, Y. and Wang, J. (2004) A General Projection Neural Network for Solving Monotone Variational Inequalities and Related Optimization Problems. IEEE Transactions on Neural Networks, 15, 318-328. [Google Scholar] [CrossRef] [PubMed]