求解绝对值方程的SOR-Like-PSS迭代法
SOR-Like-PSS Iteration Method for Solving Absolute Value Equations
摘要: 本文结合预条件移位分裂迭代法,提出了一种求解绝对值方程的SOR-like-PSS迭代法,证明了该方法的收敛性。数值实验表明,SOR-like-PSS迭代法收敛到精确解的迭代步数以及耗时都比SOR-like法更优。
Abstract: This paper develops a SOR-like-PSS iteration method through the incorporation of preconditioned shift-splitting (PSS) for solving absolute value equations, with rigorous convergence analysis. Numerical experiments demonstrate that the proposed SOR-like-PSS method requires fewer iterations and less computational time than conventional SOR-like approaches to achieve machine-precision solutions.
文章引用:宋昌晓. 求解绝对值方程的SOR-Like-PSS迭代法[J]. 应用数学进展, 2025, 14(10): 309-322. https://doi.org/10.12677/aam.2025.1410443

1. 引言

本文研究绝对值方程(Absolute Value Equation, AVE)的求解问题,其基本形式为:

Ax| x |=b (1)

其中 A=( a ij ) n×n 为n阶实系数矩阵, b n 为实常数向量, | x | 表示由向量 x 的分量的绝对值组成的向量。

绝对值方程AVE (1)在科学与工程计算中具有广泛应用。例如,线性规划、二次规划及双矩阵博弈等问题均可转化为线性互补问题(LCP) [1] [2]。基于模方法,LCP可重新表述为形如(1)的绝对值方程组[3]。特别地,文献[4]-[9]提出了一系列基于模的矩阵分裂迭代方法来求解LCP的解。

近年来,许多学者对AVE (1)的唯一可解性进行了研究,如Wu和Li在[10]中给出了AVE (1)唯一可解的两个充要条件和一些充分条件。AV (1)的更多可解性条件可以在[11]等参考文献中找到。为了逼近其数值解,一些学者已经提出了大量的方法来求解AVE (1),包括修正或广义牛顿法[1] [12],矩阵分裂迭代法[13],Picard型方法[14],神经网络模型方法[15] [16]等。

文献[17]通过将绝对值方程(1)转化为一个等价的块结构非线性方程组,提出了一类基于块系数矩阵分裂的SOR-like迭代法。受这一方法的启发,后续研究进一步发展了多种基于等效2 × 2块形式的迭代方法,用于求解绝对值方程。这些方法主要包括:不动点迭代方法[18],修正不动点(MFPI)迭代方法[19]、移位分裂不动点迭代方法[20]、预条件移位分裂不动点迭代方法[21]。这些方法的核心思想是利用矩阵分裂技术或等效变换,将原始问题转化为更适合迭代求解的形式,并结合预条件、松弛因子等策略来加速收敛。

本文在此基础上,结合预条件移位分裂迭代法[22],提出了一种SOR-like-PSS迭代法。我们严格证明了在参数选取适当时,该方法的迭代序列收敛于AVE (1)的解。进一步的数值实验表明,SOR-like-PSS迭代法在计算效率与求解精度上均表现出显著优势,验证了其可行性与有效性。

本文的组织结构如下。在第1节中,我们给出了一些将在整篇论文中使用的符号和预备工作。在第2节中,我们提出了一种求解AVE (1)的SOR-like-PSS迭代法,并证明了所提出的迭代方法的收敛性。实验结果和参数选择分别在第3和4节中给出,第5节为结论。

2. 预备知识

在下文中,我们给出论文所用到的一些数学符号和基本定义。

n×n 表示所有实 n×n 矩阵的集合,且 n = n×1 。向量 x n 的第 i 个分量记为 x i ( i=1,,n ) 。对于 x n sign( x ) 表示一个向量,其分量根据 x 对应分量的正负或零分别取1、−1或0。 | x | 表示一个向量,其第 i 个分量为 | x i |

符号 I 表示 n×n 单位矩阵。若 x=( x 1 , x 2 ,, x n ) n ,则 diag( x ) 表示一个 n×n 的对角矩阵,其 ( i,i ) 位置元素为 x i 。设 A=( a ij ),B=( b ij ) n×n ,如果对所有的 i,j 都有 a ij b ij ( a ij > b ij ) ,则记为 AB( A>B ) 。若矩阵 A R n×n 的所有元素满足 a ij 0( a ij >0 ) ,则称其为非负(正)矩阵。对于矩阵 A n×n A 2 表示其谱范数,定义 A 2 :=max{ Ax 2 :x n , x 2 =1 } ,其中 x 2 为2-范数。 P 表示向量或矩阵的 p -范数。 表示向量或矩阵的 范数。

以下命题已在文献[10]的命题4中得证。

命题1 [3] A n×n 非奇异。若 A 1 2 <1 ,则对于任意 b n ,绝对值方程(1)存在唯一解。

为后文分析求解绝对值方程(AVE)的SOR-like-PSS法的收敛性,我们给出以下引理。

引理1 [23]-[25]对于任意向量 x,y n ,有以下结论:

(1) | x || y | 2 xy 2

(2) 若 0xy ,则 x P y P

(3) 若 xy P 是非负矩阵,则 PxPy

引理2 [23] [24]对于任意矩阵 A,B n×n ,若 0AB ,则 A P B P

引理3 [23] [26]实二次方程 x 2 ax+b=0 的两个根的模均小于1的充要条件是 | b |<1 | a |<1+b

3. 预条件移位分裂SOR-Like迭代法(SOR-Like-PSS)

y=| x | ,则AVE(1)等价于

{ Axy=b, | x |+y=0. (2)

其可以被重新表述为下面的2 × 2块非线性方程

Az:=( A I D( x ) I )( x y )=( b 0 ):=b (3)

其中 D( x )=diag( sign( x ) ) x n

注意,(3)式也是非线性的,因为矩阵 D( x ) 依赖于变量 x 。在实际计算中,求解(3)式也是相当复杂的。

A=DU

其中

D=( A 0 0 I ) =( 0 0 D( x ) 0 ) U=( 0 I 0 0 )

那么我们可以得到下面的不动点方程

( Dω )z=[ ( 1ω )D+ωU ]z+ωb

其中参数 ω>0 。即

( A 0 ωD( x ) I )( x y )=( ( 1ω )A ωI 0 ( 1ω )I )( x y )+( ωb 0 ) (4)

基于不动点方程(4),我们可以建立如下的矩阵分裂迭代法来求解AVE (1),称为SOR-like迭代法。

算法1 (用于求解绝对值方程组的SOR-like迭代法[17])

A n×n 是一个非奇异矩阵,且 b n 。给定初始向量 x ( 0 ) R n y ( 0 ) n ,对于 k=0,1,2,

到序列 { x ( k ) , y ( k ) } k=0 + 收敛,计算:

{ x (k+1) =( 1ω ) x (k) +ω A 1 ( y (k) +b ), y (k+1) =( 1ω ) y (k) +ω| x (k+1) |. (5)

通过使用矩阵A的以下预条件移位分裂(the preconditioned shift-splitting,简称PSS) [22]

A= 1 2 ( αP+A ) 1 2 ( αPA )

其中参数 α 是一个正的常数, P 是对称正定矩阵,矩阵 αP+A n×n 是非奇异的,从而得到以下方程:

{ x*=( 1ω )x*+ω ( αP+A ) 1 [ ( αPA )x*+2( y*+b ) ] y*=( 1ω )y*+ω| x* | (6)

这就得到了下面的用于AVE(1)的SOR-like-PSS方法,其中 ( x*,y* ) 是(6)式的解对。

算法2 (用于求解绝对值方程组的SOR-like-PSS迭代法)

A n×n b n 。设 α 是一个正的常数,使得 αP+A n×n 是非奇异的。 给定初始向量 x ( 0 ) n y ( 0 ) n ,使用以下迭代方法计算 ( x ( k+1 ) , y ( k+1 ) ) ,其中 k=0,1,2, ,直到 { x ( k ) , y ( k ) } k=0 + 满足停机准则:

{ x ( k+1 ) =( 1ω ) x ( k ) +ω ( αP+A ) 1 [ ( αPA ) x ( k ) +2( y ( k ) +b ) ] y ( k+1 ) =( 1ω ) y ( k ) +ω| x (k+1) | (7)

其中 ω α 是正的常数, P 是对称正定矩阵。

注1 若矩阵 A 是半正定的,则矩阵 αP+A 非奇异的条件自然成立。即使矩阵 A 是奇异的,我们也总能找到一些足够大的参数来保证矩阵 αP+A 是非奇异的。因此,SOR-like-PSS方法比SOR-like方法具有更广泛的应用范围。

在本节剩余部分,假设AVE(1)存在唯一解。 ( x*,y* ) 是(6)的解对,而 ( x ( k+1 ) , y ( k+1 ) ) 是由SOR-like-PSS迭代(7)生成的序列。迭代误差定义为:

e k x =x* x ( k ) e k y =y* y ( k )

通过估计上述两个迭代误差,可以得到相应的收敛定理。

定理1 设 α 是一个正的常数,使得 αP+A n×n 是非奇异的。记

a=| 1ω | c=ω ( αP+A ) 1 ( αPA ) 2 d=2ω ( αP+A ) 1 2

以及

E ( k ) =( e k x e k y )

则我们有

E ( k+1 ) T( α,ω ) E ( k ) (8)

其中,

T( α,ω ):=( a+c d ω( a+c ) ωd+a )

此外,当参数 α ω 满足

a+c+d<1 0<ω< 2 1+a+c+d (9)

则对于任何初始向量,由SOR-like-PSS迭代生成的迭代序列 { x ( k ) } k=0 + 收敛于AVE(1)的唯一解 x*

证明:由(6)、(7)式,得

e k+1 x =( 1ω ) e k x +ω ( αP+A ) 1 [ ( αPA ) e k x +2 e k y ] (10)

e k+1 y =( 1ω ) e k y +ω( | x* || x (k+1) | ) (11)

由(10)式,我们能够得到

e k+1 x 2 ( a+c ) e k x 2 +d e k y 2 (12)

由(11)式和引理1,有

e k+1 y 2 | 1ω | e k y 2 +ω | x* || x (k+1) | 2 | 1ω | e k y 2 +ω x* x (k+1) 2 =a e k y 2 +ω e k+1 x 2 (13)

重新排列(12)式和(13)式,有

( 1 0 ω 1 )( e k+1 x 2 e k+1 y 2 )( a+c d 0 a )( e k x 2 e k y 2 ) (14)

G=( 1 0 ω 1 )0

(14)式左乘非负矩阵 G ,根据引理1,我们有

( e k+1 x 2 e k+1 y 2 )( a+c d ω( a+c ) ωd+a )( e k x 2 e k y 2 ) (15)

它可以被重写为

E ( k+1 ) T( α,ω ) E ( k ) (16)

取不等式(16)两边的 -范数并根据引理1的(2),则(8)式得证。

由于

T( α,ω ) =max{ a+c+d,ω( a+c+d )+a }

我们有

T( α,ω ) <1{ a+c+d<1 ω( a+c+d )+a<1 { a+c+d<1 | 1ω |<1ω( a+c+d ) { a+c+d<1 1ω( a+c+d )>0 ω( a+c+d )1<1ω<1ω( a+c+d ) { a+c+d<1 ω< 1 a+c+d 0<ω< 2 1+a+c+d

{ a+c+d<1 0<ω< 2 1+a+c+d

由(16)式,我们推断

0 E ( k ) T( α,ω ) E ( k1 ) T( α,ω ) k E ( 0 )

因此,如果满足条件(9),则我们有 lim k E ( k ) =0

由于

E ( k ) =max{ e k x , e k y }

它遵循

lim k e k x =0 lim k e k y =0

这意味着迭代序列 { x ( k ) , y ( k ) } k=0 + 在条件(9)下收敛于 ( x*,y* ) 。这就证明了定理。

通过一个新的加权范数,使用不同的误差估计,我们可以得到另一个收敛定理如下。

定理2 假设定理1的条件满足, a,c,d 的定义同定理1一致,记

| ( e k x , e k y ) | ω := e k x 2 2 + ω 2 e k y 2 2 .

则有下面不等式成立:

| ( e k+1 x , e k+1 y ) | ω M( α,ω ) 2 | ( e k x , e k y ) | ω . (17)

其中,

M( α,ω ):=( a+c ωd a+c ωd+a )

此外, M( α,ω ) 2 <1 当且仅当参数 α ω 满足

a( a+c )<1 2 ( a+c ) 2 + ω 2 d 2 + ( ωd+a ) 2 a 2 ( a+c ) 2 1<0 (18)

也就是说,如果条件(18)成立,则对于任何初始向量,由SOR-like-PSS迭代生成的迭代序列 { x ( k ) } k=0 + 收敛于AVE(1)的唯一解 x*

证明:设

Q=( 1 0 0 ω 1 )

易知 Q0

(15)式左乘非负矩阵 Q ,根据引理1,我们有

( e k+1 x 2 ω 1 e k+1 y 2 )( a+c ωd a+c ωd+a )( e k x 2 ω 1 e k y 2 ) (19)

取不等式(19)两边的2范数并根据引理1的(2),得到

| ( e k+1 x , e k+1 y ) | ω M( α,ω ) 2 | ( e k x , e k y ) | ω

下证 M( α,ω ) 2 <1

λ H( α,ω ):=M ( α,ω ) Τ M( α,ω ) 的特征值,由于

H( α,ω )=( 2 ( a+c ) 2 ( a+c )( a+2ωd ) ( a+c )( a+2ωd ) ω 2 d 2 + ( ωd+a ) 2 )

我们有

tr( H( α,ω ) )=2 ( a+c ) 2 + ω 2 d 2 + ( ωd+a ) 2

det( H( α,ω ) )= a 2 ( a+c ) 2

因此, λ 是以下实二次方程的根

λ 2 ( 2 ( a+c ) 2 + ω 2 d 2 + ( ωd+a ) 2 )λ+ a 2 ( a+c ) 2 =0

根据引理3可以得出, M( α,ω ) 2 <1 当且仅当

a( a+c )<1 2 ( a+c ) 2 + ω 2 d 2 + ( ωd+a ) 2 a 2 ( a+c ) 2 1<0

由(17)式,我们得到

0 | ( e k x , e k y ) | ω M( α,ω ) 2 | ( e k1 x , e k1 y ) | ω M( α,ω ) k | ( e 0 x , e 0 y ) | ω

因此,当满足条件(18)时,我们有 lim k | ( e k x , e k y ) | ω =0

根据定义

| ( e k x , e k y ) | ω := e k x 2 2 + ω 2 e k y 2 2

我们有

lim k e k x 2 =0 lim k e k y 2 =0

这意味着迭代序列 { x ( k ) , y ( k ) } k=0 + 在条件(18)下收敛于 ( x*,y* ) 。这就证明了定理。

定理2表明,为了获得SOR-like-PSS方法的收敛性,我们需要找到其中 M( α,ω ) 2 <1 成立的条件。这里,我们给出了比定理2中更简单的收敛条件。

推论1 设定理1的条件满足, a,c,d 的定义同定理1, M( α,ω ) | ( e k x , e k y ) | ω 如定理2所定义。若

c< 17 3 4 d< 17 1 8 (20)

7 17 4 <ω<min{ 17 3 4d , 17 +1 4 } (21)

M( α,ω ) 2 <1 ,即也就是说,当条件(20)~(21)成立时,SOR-like-PSS方法是收敛的。

证明:设 η=max{ a,c,ωd } ,我们有

0M( α,ω )=( a+c ωd a+c ωd+a )( 2η η 2η 2η )=η( 2 1 2 2 ):=ηK

其中

K=( 2 1 2 2 )

根据引理2,可以得到

M( α,ω ) 2 ηK 2 =η K 2 =η 3+ 17 2

θ= 17 3 4 。因此,如果 η<θ ,则我们有 M( α,ω ) 2 <1 。然后,

η<θ { a=| 1ω |<θ c<θ ωd<θ { 1θ<ω<1+θ c<θ ω< θ d { c<θ 1θ<ω<min{ θ d ,1+θ } 1θ< θ d { c< 17 3 4 7 17 4 <ω<min{ 17 3 4d , 17 +1 4 } d< θ 1θ = 17 1 8

因此,如果满足条件(20)~(21),则迭代序列 { x ( k ) , y ( k ) } k=0 + 收敛于 ( x*,y* )

4. 数值实验

本节通过两个算例验证SOR-like-PSS法的有效性和可行性。我们将SOR-like-PSS法与SOR-like法[17]以及FPI-SS法[20]从迭代步数(表示为“IT”)、以秒为单位的CPU耗时(表示为“CPU”)和绝对残差(表示为“RES”)等方面进行比较,绝对残差定义为

RES( x ( k ) ):= A x ( k ) | x |b 2

在下面所有实验中,我们选择 P=I+H ,其中 H= A+ A Τ 2 ,所有初始向量 x ( 0 ) y ( 0 ) 都选择为零向量,当 RES 10 6 或最大迭代步数 k max 超过500时,所有的迭代都将终止。所有计算均在一台配备3.60 GHz中央处理(Intel(R) Core(TM) i7-7700 CPU @ 3.6 0GHz)和8GB内存的个人计算机上使用MATLABR2017 a上实现。

算例1 [5] 设绝对值方程(1)的系数矩阵 A n×n ,定义 A= A ^ +μI n×n ,其中

A ^ =Tridiag( I,S,I )=[ S I 0 0 0 I S I 0 0 0 I S 0 0 0 0 S I 0 0 I S ] n×n

是一个块三角矩阵,

S=tridiag( 1,4,1 )=[ 4 1 0 0 0 1 4 1 0 0 0 1 4 0 0 0 0 4 1 0 0 1 4 ] m×m

是一个三角矩阵, n= m 2 。设 x= ( 0.5,1,0.5,1,,0.5,1 ) Τ n 是绝对值方程(1)的精确解。

算例1在 μ=1 μ=4 时的最优实验参数、IT、CPU和RES列于表1表2

Table 1. Numerical results of Example 1 with μ=1

1. 算例1在 μ=1 时的数值结果

Method

n

502

1002

1502

2002

SOR-like

ω opt

0.82

0.82

0.82

0.82

IT

11

12

12

12

CPU

0.0211

0.2080

0.6257

1.1916

RES

9.0602e-07

3.6667e-07

4.7014e-07

5.6475e-07

FPI-SS

ω opt

0.90

0.90

0.90

0.90

α opt

5.51

5.51

5.51

5.51

IT

14

14

14

14

CPU

0.0326

0.1982

0.5184

0.9921

RES

4.8485e-07

6.8766e-07

8.4315e-07

9.7425e-07

SOR-like-PSS迭代法

ω opt

0.99

0.99

0.99

0.99

α opt

1.29

1.29

1.29

1.29

IT

7

7

7

7

CPU

0.0217

0.1961

0.3962

0.7304

RES

2.8643e-07

4.5397e-07

6.0753e-07

7.5567e-07

Table 2. Numerical results of Example 1 with μ=4

2. 算例1在 μ=4 时的数值结果

Method

n

502

1002

1502

2002

SOR-like

ω opt

0.92

0.92

0.92

0.92

IT

8

9

9

9

CPU

0.0164

0.1883

0.7615

1.0446

RES

5.5132e-07

7.3638e-08

1.1178e-07

1.4993e-07

FPI-SS

ω opt

0.94

0.94

0.92

0.94

α opt

8.88

8.84

8.78

8.80

IT

10

10

11

11

CPU

0.0185

0.1244

0.3368

0.6825

RES

7.7974e-07

9.8700e-07

9.5461e-07

6.7937e-07

SOR-like-PSS迭代法

ω opt

0.99

0.99

0.99

0.99

α opt

1.07

1.07

1.07

1.07

IT

6

6

6

6

CPU

0.0246

0.1528

0.3511

0.7446

RES

2.1027e-07

3.4315e-07

4.7011e-07

5.9496e-07

算例2 [5] 设绝对值方程(1)的系数矩阵 A n×n ,定义 A= A ^ +μI n×n ,其中

A ^ =Tridiag( 1.5I,S,0.5I )=[ S 0.5I 0 0 0 1.5I S 0.5I 0 0 0 1.5I S 0 0 0 0 S 0.5I 0 0 1.5I S ] n×n

是一个块三角矩阵,

S=tridiag( 1.5,4,0.5 )=[ 4 0.5 0 0 0 1.5 4 0.5 0 0 0 1.5 4 0 0 0 0 4 0.5 0 0 1.5 4 ] m×m

是一个三角矩阵, n= m 2 。设 x= ( 0.5,1,0.5,1,,0.5,1 ) Τ n 是绝对值方程(1)的精确解。

算例2在 μ=1,μ=4 时的最优实验参数、IT、CPU和RES列于表3表4

Table 3. Numerical results of Example 2 with μ=1

3. 算例2在 μ=1 时的数值结果

Method

n

502

1002

1502

2002

SOR-like

ω opt

0.79

0.79

0.79

0.79

IT

15

15

15

15

CPU

0.3892

1.5757

3.1612

6.7889

RES

4.2355e-07

5.7706e-07

6.9771e-07

8.0051e-07

FPI-SS

ω opt

0.90

0.91

0.91

0.88

α opt

5.34

5.40

5.38

5.26

IT

15

15

15

16

CPU

0.1524

0.5283

1.6408

3.0823

RES

5.8616e-07

8.3084e-07

9.9359e-07

9.2265e-07

SOR-like-PSS迭代法

ω opt

0.99

0.99

0.99

0.99

α opt

1.29

1.29

1.29

1.29

IT

7

7

7

7

CPU

0.0296

0.3821

0.8144

1.2769

RES

2.8643e-07

4.5397e-07

6.0753e-07

7.5567e-07

Table 4. Numerical results of Example 2 with μ=4

4. 算例2在 μ=4 时的数值结果

Method

n

502

1002

1502

2002

SOR-like

ω opt

0.93

0.93

0.93

0.93

IT

8

8

8

8

CPU

0.1478

1.1199

1.7352

3.1458

RES

2.3886e-07

4.5917e-07

6.7920e-07

8.9916e-07

FPI-SS

ω opt

0.95

0.95

0.93

0.94

α opt

8.62

8.67

8.50

8.09

IT

11

11

11

12

CPU

0.0922

0.7353

2.9834

2.1956

RES

4.6536e-07

6.8277e-07

9.0588e-07

9.7296e-07

SOR-like-PSS迭代法

ω opt

0.99

0.99

0.99

0.99

α opt

1.06

1.06

1.06

1.06

IT

7

8

8

8

CPU

0.0619

0.4147

0.9071

1.4777

RES

9.3860e-07

1.1337e-07

1.3198e-07

1.4828e-07

我们发现,SOR-like-PSS迭代法收敛到精确解的迭代步数以及耗时都比SOR-like法以及FPI-SS法更优。

5. 参数选择

本文提出的SOR-like-PSS方法包含两个关键参数:松弛参数 ω( 0,2 ) 和正则化参数 α>0 。这两个参数对算法的收敛速度有显著影响。然而,目前尚无有效的理论准则用于确定其最优值。因此我们通过数值实验的方式,在不同问题规模和矩阵类型下测试了参数组合(α, ω)对迭代次数的影响。实验结果表明,在多数测试问题中,当 ω[ 0.8,1.2 ] α[ 1,2 ] 时,算法收敛最快且稳定性良好。

下面,我们以算例1中 μ=1 的情形为例,进行参数敏感性分析。如图1所示,在固定参数 α=1.3 的情况下,SOR-like-PSS方法的迭代次数对参数 ω 表现出显著的敏感性。当 ω 从0增加到约0.8时,迭代步数迅速下降,表明算法收敛速度加快;而在区间 [ 0.8,1.2 ] 内,迭代步数达到最低点并保持稳定,说明此时算法具有最优的收敛性能和较高的计算效率。当 ω>1.2 时,迭代步数急剧上升并趋于最大值500次,显示算法在此区间内收敛性能显著下降甚至不收敛。因此,区间 [ 0.8,1.2 ] 是选择 ω 的理想范围。

图2展示了固定参数 ω=0.99 时,SOR-like-PSS方法在不同问题规模(n = 2500, 10000, 22500, 40000)下的迭代次数随参数 α 变化的整体趋势。当 α<0.5 时,所有曲线均维持在最大迭代步数500次(即未收敛),表明算法在此区间内无法有效收敛;随着 α 增大,迭代次数显著下降,并在区间 [ 1,2 ] 内趋于稳定,显示出良好的收敛性能和鲁棒性;当 α>2 时,迭代步数有所上升,但仍保持在相对较低的水平,未出现急剧增长,这说明算法在该区域仍具备一定的稳定性,但性能不如 α[ 1,2 ] 时理想。结合图3的精细扫描结果可知,当 α[ 1.2,1.4 ] 时,迭代步数达到最小,因此该区间为 α 的最优选择范围。

Figure 1. IT vs. relaxation parameter ω for different problem sizes with fixed α=1.3

1. α=1.3 ,不同问题规模下迭代步数随松弛参数 ω 的变化

Figure 2. IT vs. regularization parameter α for different problem sizes with fixed ω=0.99

2. ω=0.99 ,不同问题规模下迭代步数随正则参数 α 的变化

Figure 3. Local changes in IT vs. α for different problem sizes with fixed ω=0.99

3. ω=0.99 ,不同问题规模下迭代步数随正则参数 α 的局部变化

6. 结论

本文将系数矩阵的预条件移位分裂与SOR-like迭代法相结合,提出了求解绝对值方程(AVE)的SOR-like-PSS迭代法,并且给出了SOR-like-PSS迭代法的收敛条件。此外,通过两个线性互补问题的数值算例,我们证明了SOR-like-PSS迭代法在迭代步数和计算时间方面均优于SOR-like迭代法。但是,在理论上如何选择最佳的SOR-like-PSS迭代法中所涉及的参数需要进一步的研究。

参考文献

[1] Noor, M.A., Iqbal, J., Noor, K.I. and Al-Said, E. (2012) On an Iterative Method for Solving Absolute Value Equations. Optimization Letters, 6, 1027-1033. [Google Scholar] [CrossRef
[2] Caccetta, L., Qu, B. and Zhou, G. (2011) A Globally and Quadratically Convergent Method for Absolute Value Equations. Computational Optimization and Applications, 48, 45-58. [Google Scholar] [CrossRef
[3] Mangasarian, O.L. and Meyer, R.R. (2006) Absolute Value Equations. Linear Algebra and Its Applications, 419, 359-367. [Google Scholar] [CrossRef
[4] Bai, Z.Z. (2010) Modulus-Based Matrix Splitting Iteration Methods for Linear Complementarity Problems. Numerical Linear Algebra with Applications, 17, 917-933. [Google Scholar] [CrossRef
[5] Bai, Z.Z. and Zhang, L.L. (2013) Modulus‐Based Synchronous Multisplitting Iteration Methods for Linear Complementarity Problems. Numerical Linear Algebra with Applications, 20, 425-439. [Google Scholar] [CrossRef
[6] Ke, Y.F. and Ma, C.F. (2014) On the Convergence Analysis of Two-Step Modulus-Based Matrix Splitting Iteration Method for Linear Complementarity Problems. Applied Mathematics and Computation, 243, 413-418. [Google Scholar] [CrossRef
[7] Zhang, L.L. (2011) Two-Step Modulus-Based Matrix Splitting Iteration Method for Linear Complementarity Problems. Numerical Algorithms, 57, 83-99. [Google Scholar] [CrossRef
[8] Zheng, N. and Yin, J. (2013) Accelerated Modulus-Based Matrix Splitting Iteration Methods for Linear Complementarity Problem. Numerical Algorithms, 64, 245-262. [Google Scholar] [CrossRef
[9] Zheng, N. and Yin, J.F. (2014) Convergence of Accelerated Modulus-Based Matrix Splitting Iteration Methods for Linear Complementarity Problem with an H+-Matrix. Journal of Computational and Applied Mathematics, 260, 281-293. [Google Scholar] [CrossRef
[10] Wu, S.L. and Li, C.X. (2018) The Unique Solution of the Absolute Value Equations. Applied Mathematics Letters, 76, 195-200. [Google Scholar] [CrossRef
[11] Hladík, M. and Moosaei, H. (2023) Some Notes on the Solvability Conditions for Absolute Value Equations. Optimization Letters, 17, 211-218. [Google Scholar] [CrossRef
[12] Wang, A., Cao, Y. and Chen, J. (2019) Modified Newton-Type Iteration Methods for Generalized Absolute Value Equations. Journal of Optimization Theory and Applications, 181, 216-230. [Google Scholar] [CrossRef
[13] Ali, R. and Pan, K. (2023) Two New Fixed Point Iterative Schemes for Absolute Value Equations. Japan Journal of Industrial and Applied Mathematics, 40, 303-314. [Google Scholar] [CrossRef
[14] Salkuyeh, D.K. (2014) The Picard-HSS Iteration Method for Absolute Value Equations. Optimization Letters, 8, 2191-2202. [Google Scholar] [CrossRef
[15] Cui, L.-B. and Hu, Q. (2022) A Chord-Zhang Neural Network Model for Solving Absolute Value Equations. Pacific Journal of Optimization, 18, 77-89.
[16] Mansoori, A., Eshaghnezhad, M. and Effati, S. (2017) An Efficient Neural Network Model for Solving the Absolute Value Equations. IEEE Transactions on Circuits and Systems II: Express Briefs, 65, 391-395. [Google Scholar] [CrossRef
[17] Ke, Y. and Ma, C. (2017) SOR-Like Iteration Method for Solving Absolute Value Equations. Applied Mathematics and Computation, 311, 195-202. [Google Scholar] [CrossRef
[18] Ke, Y. (2020) The New Iteration Algorithm for Absolute Value Equation. Applied Mathematics Letters, 99, Article 105990. [Google Scholar] [CrossRef
[19] Yu, D., Chen, C. and Han, D. (2022) A Modified Fixed Point Iteration Method for Solving the System of Absolute Value Equations. Optimization, 71, 449-461. [Google Scholar] [CrossRef
[20] Li, X., Li, Y. and Dou, Y. (2023) Shift-Splitting Fixed Point Iteration Method for Solving Generalized Absolute Value Equations. Numerical Algorithms, 93, 695-710. [Google Scholar] [CrossRef
[21] Lv, X.M. and Miao, S.X. (2024) An Inexact Fixed Point Iteration Method for Solving Absolute Value Equation. Japan Journal of Industrial and Applied Mathematics, 41, 1137-1148. [Google Scholar] [CrossRef
[22] Dou, Y., Yang, A. and Wu, Y. (2017) A New Uzawa-Type Iteration Method for Non-Hermitian Saddle-Point Problems. East Asian Journal on Applied Mathematics, 7, 211-226. [Google Scholar] [CrossRef
[23] Bai, Z.Z. and Pan, J.Y. (2021) Matrix Analysis and Computations. Society for Industrial and Applied Mathematics.
[24] Varga, R.S. (2009) Matrix Properties and Concepts. In: Springer Series in Computational Mathematics, Springer, 1-30. [Google Scholar] [CrossRef
[25] Bai, Z.Z. and Evans, D.J. (1997) Matrix Multisplitting Relaxation Methods for Linear Complementarity Problems. International Journal of Computer Mathematics, 63, 309-326. [Google Scholar] [CrossRef
[26] Young, D.M. (2014) Iterative Solution of Large Linear Systems. Elsevier.