分布式时滞系统LQR最优控制问题的PI算法
PI Algorithm for LQR Optimal Control Problem of Distributed Time-Delay System
摘要: 本文将基于模型的策略迭代方法推广到了分布式时滞系统的线性二次最优控制问题(LQR)的求解,证明了由该迭代方法得到的性能指标是递减的,且控制器收敛于最优控制器。
Abstract: This paper extends the model-based policy iteration method to the solution of the Linear Quadratic Regulator (LQR) problem for distributed delayed systems. It is demonstrated that the performance criterion obtained through this iterative method is monotonically decreasing, and the controller converges to the optimal controller.
文章引用:陈甲敏, 孙小淇. 分布式时滞系统LQR最优控制问题的PI算法[J]. 理论数学, 2025, 15(2): 104-113. https://doi.org/10.12677/pm.2025.152052

1. 引言

最优控制理论自20世纪50年代发展以来,成为了现代控制理论中的一个重要分支。最优控制问题通常涉及在给定的动态系统和性能指标下,寻找一个控制策略,以实现系统性能的最优化。最优控制在航空航天、机器人、自动化、能源管理等领域[1] [2]具有广泛的应用价值。因此,如何设计有效的控制算法,尤其是线性二次最优控制(LQR)问题,一直是学术界和工程界研究的重点。

Kharitonov V [3]对各种时滞系统做出了详细的研究,线性二次最优控制问题[4] [5] (LQR)是一类经典的最优控制问题,目标是使得系统的状态和控制代价最小化。其优点在于通过求解相应的代数里卡蒂方程(Algebraic Riccati Equation, ARE)和最优控制律,可以得到明确且易于实现的控制策略。近年来,随着计算机技术和数学优化算法的发展,LQR的应用已扩展到多个复杂的工程系统中,如无人驾驶、智能电网、航空航天等领域。此外,分布式时滞系统的应用广泛,涵盖了从生物学、工程到经济学等多个领域。其核心特征是当前系统状态受到过去历史状态的影响,目前尤其在火箭发动机室燃料燃烧的稳定和控制方面[6]有着很重要的应用。

最近,基于自适应动态规划(ADP)技术[7],已经为各种重要类别的线性、非线性或周期性动力系统以及最优稳定化、跟踪和输出调节问题提供了策略迭代(PI)和价值迭代(VI)方法[8] [9]

受到Kleinman提出的无时滞线性系统基于模型的PI算法[10]的启发,本文为分布式时滞系统提出了一种新的基于模型的PI算法。在给定一个可容许的初始控制器的情况下,证明了每次迭代中更新的次优控制器的稳定性以及学习得到控制器序列收敛于(未知的)最优控制器。

2. 问题描述和预备工作

2.1. 问题模型介绍

考虑线性分布式时滞系统的形式

x ˙ ( t )=Ax( t )+Bx( th )+ h 0 E( θ )x( t+θ )dθ+Du( t ) (1)

初值函数 x( θ )=φ( θ ) θ[ h,0 ] h + x( t ) n u( t ) m mn A,B n×n D n×m E( θ ) n×n ,并且这里 E( θ ) 是一个连续的矩阵函数当 θ[ h,0 ] 时,设二次型性能指标如下:

J= 0 x T ( t )Qx( t )+ u T ( t )Ru( t )dt (2)

这里 Q n×n R m×m Q>0 R>0 ,我们的目标是在给定任意一个初始函数 φ 的情况下,寻找一个最优控制 u * 使得(2)式的值最小。

定义1 如果一个控制 u( t ) 使得系统(1)是全局渐近稳定(GAS)的,并且使得二次型性能指标(2)的值是有限的,对于所有的 x( θ )=φ( θ ) θ[ h,0 ] ,则称该控制 u( t ) 是可容许的。

评论1:(2)式的性能指标是一种非常有效的形式,能够综合考虑系统状态的偏差(如误差)和控制输入的能量(如力度、功率)。这种设计理念非常符合许多实际工程问题的要求,即系统不仅需要保持稳定,还需要在满足性能要求的同时,减少过度的能量消耗。通过这个目标函数,LQR方法使得系统状态趋于理想值的同时,控制输入不会过大,避免了不必要的能量消耗。例如:我们希望系统能够较早地到达0的

平衡状态并且能量损耗不能过高,就可以采取(2)的形式作为性能指标,因为 0 x T ( t )Qx( t )dt 可以理解为对系统状态的惩罚,由于Q的正定性,如果系统到达平衡态的时间越长,这个积分的值往往会越大, 0 u T ( t )Ru( t )dt 可以理解为能量损耗的计算,因为R的正定性,只要能量在某一时间段内有损耗,这个积

分的值便会记录下这一时间段的损耗,使得(2)的值偏高。所以寻找一个方法来减小(2)的值有很重要的实际意义。

2.2. 主要定理

定理1 (Ross [11]) 如果存在一个可容许的控制 u * = u * ( x t ) 和一个非负连续标量函数 V( x t ) (当 x t =0 V( x t )=0 )。

满足以下两个条件:

V ˙ ( x t )| u= u * +g( x t , u * ( x t ) )=0,     t0, (3)

V ˙ ( x t )| u= u * +g( x t , u * ( x t ) ) V ˙ ( x t )| u= u L ( x t ) +g( x t , u L ( x t ) ),     t0, (4)

这里g为(2)中被积函数,则 u * 是使得二次型性能指标(2)的值最小的最优控制,此外 V( φ )=J( φ, u * )

证:对(3)式两端从0到 进行积分,并且考虑到可容许控制 u * = u * ( x t ) 使得系统(1)渐近稳定,这意味着 V( )=0 ,从而得到 V( φ )= 0 g( x t , u * ( x t ) )dt =J( φ, u * )

将(3)代入(4)我们可以得到 V ˙ ( x t )| u= u L ( x t ) g( x t , u L ( x t ) ) ,然后对该等式两边从0到 积分,我们可以得到 V( φ ) 0 g( x t , u L ( x t ) ) =J( φ,u ) ,即 J( φ, u * )J( φ,u ) ,因此 u * 是可容许控制中的最优控制。

定理2 线性控制 u * ( x t )= R 1 D T P 0 x( t ) R 1 D T h 0 P 1 ( θ )x( t+θ )dθ,t0 是最优控制。并且相应的最小二次性能指标为 V ( x 0 )= x T ( 0 ) P 0 x( 0 )+2 x T ( 0 ) h 0 P 1 ( θ )x( θ )dθ+ h 0 h 0 x T ( ξ ) P 2 ( ξ,θ )x( θ )dξdθ

如果

A T P 0 + P 0 A P 0 D R 1 D T P 0 + P 1 T ( 0 )+ P 1 ( 0 )+Q=0 d P 1 ( θ ) dθ =( A T P 0 D R 1 D T ) P 1 ( θ )+ P 2 ( 0,θ )+ P 0 E( θ ),    θ[ h,0 ], P 2 ( ξ,θ ) ξ + P 2 ( ξ,θ ) θ = P 1 T ( ξ )D R 1 D T P 1 ( θ )+2 E T ( ξ ) P 1 ( θ ),     ξ,θ[ h,0 ], P 1 ( h )= P 0 B, P 2 ( h,θ )= B T P 1 ( θ ),   θ[ h,0 ]. (5)

证:我们取

V( x t )= x T ( t ) P 0 x( t )+2 x T ( t ) h 0 P 1 ( θ )x( t+θ )dθ+ h 0 h 0 x T ( t+ξ ) P 2 ( ξ,θ )x( t+θ )dξdθ.

这里 P 0 是正定矩阵, P 2 T ( ξ,θ )= P 2 ( θ,ξ )

V ˙ ( x t )= ( Ax( t )+Bx( th )+ h 0 E( θ )x( t+θ )dθ+Du( t ) ) T P 0 x( t )            + x T ( t ) P 0 ( Ax( t )+Bx( th )+ h 0 E( θ )x( t+θ )dθ+Du( t ) )            + ( Ax( t )+Bx( th )+ h 0 E( θ )x( t+θ )dθ+Du( t ) ) T h 0 P 1 ( θ )x( t+θ )dθ            + x T ( t ) h 0 P 1 ( θ ) x( t+θ ) θ dθ+ h 0 x T ( t+θ ) θ P 1 T ( θ )dθx( t )            + h 0 x T ( t+θ ) P 1 T ( θ )dθ( Ax( t )+Bx( th )+ h 0 E( θ )x( t+θ )dθ+Du( t ) )            + h 0 h 0 x T ( t+ξ ) ξ P 2 ( ξ,θ )x( t+θ )dξdθ + h 0 h 0 x T ( t+ξ ) P 2 ( ξ,θ ) x( t+θ ) θ dξdθ

V ˙ ( x t )+ x T ( t )Qx( t )+ u T ( t )Ru( t ) = x T ( t )( A T P 0 + P 0 A+Q )x( t )+2 x T ( th ) B T P 0 x( t )+2 x T ( t ) h 0 A T P 1 ( θ )x( t+θ )dθ +2 x T ( th ) h 0 B T P 1 ( θ )x( t+θ )dθ+2 x T ( t ) h 0 P 1 ( θ ) x( t+θ ) θ dξdθ + h 0 h 0 x T ( t+ξ ) ξ P 2 ( ξ,θ )x( t+θ )dξdθ + h 0 h 0 x T ( t+ξ ) P 2 ( ξ,θ ) x( t+θ ) θ dξdθ +2 h 0 x T ( t+θ ) E T ( ξ ) P 0 dθx( t )+2 h 0 h 0 x T ( t+ξ ) E T ( ξ ) P 1 ( θ )x( t+θ )dξdθ +2 u T ( t ) h 0 D T P 1 ( θ )x( t+θ )dθ+2 x T ( t ) P 0 Du( t )+ u T ( t )Ru( t )

由(4)得 ( V ˙ ( x t )+ x T ( t )Qx( t )+ u T ( t )Ru( t ) ) u =0

2 D T P 0 x( t )+2 D T h 0 P 1 ( θ )x( t+θ )dθ+2Ru( t )=0

所以

u * ( t )= R 1 D T P 0 x( t ) R 1 D T h 0 P 1 ( θ )x( t+θ )dθ (6)

此外 2 ( V ˙ ( x t )+ x T ( t )Qx( t )+ u T ( t )Ru( t ) ) u 2 =2R>0 ,所以我们可以得到 u * ( t )

V ˙ ( x t )+ x T ( t )Qx( t )+ u T ( t )Ru( t ) 的局部最小解。

对于(3)令 t=0 ,则 x( 0 )=φ( 0 )

可得 V ˙ ( φ )| u= u + φ T ( 0 )Qφ( 0 )+ u T ( t )R u ( t )=0

将(6)代入上式得:

φ T ( 0 )( A T P 0 + P 0 A P 0 D R 1 D T P 0 + P 1 T ( 0 )+ P 1 ( 0 )+Q ) φ T ( 0 )+2 φ T ( 0 )( P 0 B P 1 ( h ) )φ( h ) +2 φ T ( 0 ) h 0 ( P 0 E( θ ) P 0 D R 1 D T P 1 ( θ )+ A T P 1 ( θ ) d P 1 ( θ ) dθ + P 2 ( 0,θ ) )φ( θ )dθ +2 φ T ( h ) h 0 ( B T P 1 ( θ ) P 2 ( h,θ ) )φ( θ )dθ + h 0 h 0 φ T ( ξ )( P 2 ( ξ,θ ) ξ P 2 ( ξ,θ ) θ P 1 T ( ξ )D R 1 D T P 1 ( θ )+2 E T ( ξ ) P 1 ( θ ) )φ( θ )dξdθ=0

对于任意的 φ 均成立,所以:

A T P 0 + P 0 A P 0 D R 1 D T P 0 + P 1 T ( 0 )+ P 1 ( 0 )+Q=0 d P 1 ( θ ) dθ =( A T P 0 D R 1 D T ) P 1 ( θ )+ P 2 ( 0,θ )+ P 0 E( θ ),    θ[ h,0 ], P 2 ( ξ,θ ) ξ + P 2 ( ξ,θ ) θ = P 1 T ( ξ )D R 1 D T P 1 ( θ )+2 E T ( ξ ) P 1 ( θ ),     ξ,θ[ h,0 ], P 1 ( h )= P 0 B, P 2 ( h,θ )= B T P 1 ( θ ),   θ[ h,0 ]. (7)

证毕。

3. 基于模型的策略迭代

根据定理2,如果我们能求解偏微分方程组(7),我们就能得到最优控制器。但是由于(7)是非线性偏微分方程组,直接求解往往比较困难。因此我们提出了基于模型的PI算法来简化(7)的求解。首先我们给定一个初始的可容许的控制器 u 1 ( x t )= K 0,1 x( t ) h 0 K 1,1 ( θ )x( t+θ )dθ ,基于模型的PI算法过程如下:

1. 策略评估

i + ,ξ,θ[ h,0 ], P 0,i = P 0,i T >0, P 1,i ( θ ), P 2,i T ( θ,ξ )= P 2,i ( ξ,θ ) ,解以下PDEs:

A i T P 0,i + P 0,i A i + Q i + P 1,i ( 0 )+ P 1,i T ( 0 )=0, d P 1,i ( θ ) dθ = A i T P 1,i ( θ ) P 0,i D K 1,i ( θ )+ K 0,i T R K 1,i ( θ )+ P 2,i ( 0,θ )+ P 0,i E( θ ), P 2,i ( ξ,θ ) ξ + P 2,i ( ξ,θ ) θ = K 1,i T ( ξ )R K 1,i ( θ )2 K 1,i T ( ξ ) D T P 1,i ( θ )+2 E T ( ξ ) P 1,i ( θ ), P 1,i ( h )= P 0,i B, P 2,i ( h,θ ))= B T P 1,i ( θ ), (8)

在这里 A i =AD K 0,i Q i =Q+ K 0,i T R K 0,i

2. 策略改进

u i+1 ( x t )= K 0,i+1 x( t ) h 0 K 1,i+1 ( θ ) x t ( θ )dθ            = R 1 D T P 0,i x( t ) R 1 D T h 0 P 1,i ( θ )x( t+θ )dθ. (9)

用该公式更新控制器,并且里面也隐含了KP之间的关系。二次性能指标 V i ( x 0 )=J( x 0 , u i )

V i ( x 0 )= x T ( 0 ) P 0,i x( 0 )+2 x T ( 0 ) h 0 P 1,i ( θ )x( θ )dθ+ h 0 h 0 x T ( ξ ) P 2,i ( ξ,θ )x( θ )dξdθ.

评论2:我们对里卡蒂方程的中 P 1 T ( ξ )D R 1 D T P 1 ( θ ) 等非线性部分进行了修改,在第一次迭代中,由于我们给定了一个初始的可容许控制器 u 1 ( x t ) ,这就意味着 K 0,1 , K 1,1 ( θ ) 是已知的,代入到策略评估的过程中,我们可以求解得到 P 0,1 , P 1,1 ( θ ), P 2,1 ( ξ,θ ) ,根据KP的关系(也就是策略改进过程),我们立刻能得到一组新的 K 0,2 , K 1,2 ( θ ) ,然后继续代入策略评估过程,求解可得一组新的下标 + 1的P,依此一直进行下去,每次策略评估过程中的K都是由上一次迭代得到的计算结果,所以这样就能把难于求解的里卡蒂方程,转变为求解一系列非线性偏微方程组。

定理3给定一个初始的可容许控制器 u 1 ( x t ) ,对于 i + ,通过(8)(9)求解的 P 0,i P 1,i ( θ ) P 2,i ( ξ,θ ) u i+1 ( x t ) ,有以下性质成立。

1) V * ( x 0 ) V i+1 ( x 0 ) V i ( x 0 )

2) u i+1 是可容许的控制;

3) V i ( x 0 ), u i ( x t ) 分别收敛于 V * ( x 0 ) u * ( x t )

证明见附录。

4. 结论和思考

本文对分布式时滞系统的线性二次最优控制问题中最优控制器的求解进行了详细的推导,并得到了最优控制器中参数所满足的里卡蒂方程的表达式,而且这类里卡蒂方程的求解往往相当复杂,一般在只有一些特殊情况才能得到解析解。所以本文为了避免此类方程的求解,构造了一个与此方程相关的策略迭代,这极大地简化了求解的过程,并且多次迭代后得到的控制器是收敛于我们理论上的最优控制器。此类策略迭代能为各种时滞系统LQR最优控制器的求解简化提供一个参考。

基金项目

山东省自然科学基金(面上基金) ZR2024MA097。

附 录

2 = n L 2 ( [ h,0 ], n ) ( X ) 表示从X映射到X的有界线性算子, z i =[ r i , f i ( · ) ], z 1 , z 2 = r 1 T r 2 + h 0 f 1 T ( θ ) f 2 ( θ )dθ

定理3的证明

V i ( x t )= x T ( t ) P 0,i x( t )+2 x T ( t ) h 0 P 1,i ( θ )x( t+θ )dθ+ h 0 h 0 x T ( t+ξ ) P 2,i ( ξ,θ )x( t+θ )dξdθ

首先我们计算 V ˙ i ( x t ) 的展开式

V ˙ i ( x t )= ( Ax( t )+Bx( th )+ h 0 E ( θ )x( t+θ )dθ+Du( t ) ) T P 0,i x( t ) + x T ( t ) P 0,i ( Ax( t )+Bx( th )+ h 0 E ( θ )x( t+θ )dθ+Du( t ) ) +2 ( Ax( t )+Bx( th )+ h 0 E ( θ )x( t+θ )dθ+Du( t ) ) T h 0 P 1,i ( θ )x( t+θ )dθ +2 x T ( t ) h 0 P 1,i ( θ ) dx( t+θ ) dt dθ+ h 0 h 0 d x T ( t+ξ ) dt P 2,i ( ξ,θ )x( θ )dξdθ + h 0 h 0 x T ( t+ξ ) P 2,i ( ξ,θ ) dx( t+θ ) dt dξdθ

= ( Ax( t )+Bx( th )+ h 0 E ( θ )x( t+θ )dθ+Du( t ) ) T P 0,i x( t ) + x T ( t ) P 0,i ( Ax( t )+Bx( th )+ h 0 E ( θ )x( t+θ )dθ+Du( t ) ) +2 ( Ax( t )+Bx( th )+ h 0 E ( θ )x( t+θ )dθ+Du( t ) ) T h 0 P 1,i ( θ )x( t+θ )dθ + 2 x T ( t ) P 1,i ( θ )x( t+θ )| θ=h θ=0 2 x T ( t ) h 0 d P 1,i ( θ ) dθ x( t+θ )dθ + h 0 x T ( t+ξ ) P 2,i ( ξ,θ )x( t+θ )dθ| ξ=h ξ=0 h 0 h 0 x T ( t+ξ ) P 2,i ( ξ,θ ) ξ x( t+θ )dξdθ

= x T ( t )( A T P 0,i + P 0,i A+ P 1,i ( 0 )+ P 1,i T ( 0 ) )x( t )+2 x T ( t )( P 0,i B P 1,i ( h ) )x( th ) +2 x T ( t ) h 0 ( P 0,i E( θ )+ A T P 1,i ( θ )+ P 2,i ( 0,θ ) d P 1,i ( θ ) dθ )x( t+θ )dθ +2 x T ( th ) h 0 ( B T P 1,i ( θ ) P 2,i ( h,θ ) )x( t+θ )dθ h 0 h 0 x T ( t+ξ )( P 2,i ( ξ,θ ) θ + P 2,i ( ξ,θ ) ξ +2 E T ( ξ ) P 1,i ( θ ) )x( t+θ )dξdθ +2 u T ( t ) D T P 0,i x( t )+2 u T ( t ) h 0 D T P 1,i ( θ )x( t+θ )dθ

= x T ( t )( Q K 0,i T R K 0,i + K 0,i T D T P 0,i + P 0,i D K 0,i )x( t ) +2 x T ( t ) h 0 ( P 0,i D K 1,i ( θ ) K 0,i T R K 1,i ( θ )+ K 0,i T D T P 1,i ( θ ) )x( t+θ )dθ h 0 h 0 x T ( t+ξ )( K 1,i T ( ξ )R K 1,i ( θ )2 K 1,i T ( ξ ) D T P 1,i ( θ ) )x( t+θ )dξdθ +2 u T ( t ) D T P 0,i x( t )+2 u T ( t ) h 0 D T P 1,i ( θ )x( t+θ )dθ

h 0 R 1 D T P 1,i ( θ )x( t+θ )dθ= h 0 K 1,i+1 ( θ )x( t+θ )dθ= m i+1

u i+1 = R 1 D T P 0,i x( t ) m i+1 = K 0,i+1 x( t ) m i+1 ,并且注意到 R 1 R=E ,所以我们可以在适当的地方添加 R 1 R

则可得到:

x T ( t )( Q K 0,i T R K 0,i + K 0,i T D T P 0,i + P 0,i D K 0,i )x( t ) = x T Qx+ ( u i + m i ) T R( u i m i )+ ( u i m i ) T R R 1 D T P 0,i x+ x T K 0,i T R R 1 D T P 0,i x = x T Qx+ ( u i + m i ) T R( u i m i )+ ( u i m i ) T R( u i+1 m i+1 )+ ( u i m i ) T R( u i+1 m i+1 ) = x T Qx u i T R u i m i T R m i 2 u i T R m i +2 u i T R u i+1 +2 u i T R m i+1 +2 m i T R u i+1 +2 m i T R m i+1

2 x T ( t ) h 0 ( P 0,i D K 1,i ( θ ) K 0,i T R K 1,i ( θ )+ K 0,i T D T P 1,i ( θ ) )x( t+θ )dθ =2 x T P 0,i B ( R T ) 1 R m i 2 x T K 0,i T R m i +2 x T K 0,i T R h 0 R 1 D T P 1,i ( θ )x( t+θ )dθ =2 ( u i+1 + m i+1 ) T R m i +2 ( u i + m i ) T R m i 2 ( u i + m i ) T R m i+1 =2 u i+1 T R m i 2 m i+1 T R m i +2 u i T R m i +2 m i T R m i 2 u i T R m i+1 2 m i T R m i+1

h 0 h 0 x T ( t+ξ )( K 1,i T ( ξ )R K 1,i ( θ )2 K 1,i T ( ξ ) D T P 1,i ( θ ) )x( t+θ )dξdθ = h 0 x T ( t+ξ ) K 1,i T ( ξ )dξR h 0 K 1,i ( θ )x( t+θ )dθ +2 h 0 x T ( t+ξ ) K 1,i T ( ξ )dξR R 1 D T h 0 P 1,i ( θ )x( t+θ )dθ = m i T R m i +2 m i T R m i+1

2 u T ( t ) D T P 0,i x( t )+2 u T ( t ) h 0 D T P 1,i ( θ )x( t+θ )dθ =2 u T ( t )R R 1 [ D T P 0,i x( t )+ h 0 D T P 1,i ( θ )x( t+θ )dθ ] =2 u T ( t )R u i+1

将以上得到的4处结果合并可得

V ˙ i ( x t )= x T ( t )Qx( t ) u i T ( t )R u i ( t )+2 u i+1 T R u i 2 u T ( t )R u i+1 (10)

i=1 时,系统(1)被可容许控制 u 1 ( x t ) 驱动时,根据(10),我们有 V ˙ 1 ( x t )= x T Qx u 1 T R u 1

对上式从0到 积分得: V 1 ( x 0 )= 0 x T ( t )Qx( t )+ u 1 T ( t )R u 1 ( t )dt=J( x 0 , u 1 )<

接下来我们使用 u 2 ( x t ) 驱动系统(1),根据(10)式,可得:

V 1 ( x t )= x T Qx u 1 T R u 1 2 u 2 T R( u 2 u 1 )= x T Qx u 2 T R u 2 ( u 2 u 1 ) T R( u 2 u 1 )

对上式两端从0到 积分得:

J( x 0 , u 2 )= V 1 ( x 0 ) V 1 ( x ) 0 ( u 2 u 1 ) T R( u 2 u 1 )dt V 1 ( x 0 )< (11)

所以 u 2 ( x t ) 是全局渐近稳定的控制器,所以 u 2 ( x t ) 是可容许的控制器。

令(10)中的 i=2 并把 u T ( t ) 替换为 u 2 T ( t ) 可得:

V ˙ 2 ( x t )= x T Qx u 2 T R u 2

对该式从0到 积分得: J( x 0 , u 2 )= V 2 ( x 0 ) 。根据(11)我们有 V 2 ( x 0 ) V 1 ( x 0 )

i>1 时,假设1)和2)成立。当系统(1)被 u i 驱动时, V ˙ i ( x t )= x Qx u i R u i ,对该式从0到 积分得:

V i ( x 0 )= 0 x ( t )Qx( t )+ u i ( t )R u i ( t )dt=J( x 0 , u i )<.

当系统(1)被 u i 驱动时,并把 u T ( t ) 替换为 u i+1 T 可得:

V ˙ i ( x t )= x Qx u i+1 R u i+1 ( u i+1 u i ) R( u i+1 u i ).

对两端从0到 积分得: J( x 0 , u i+1 )= V i ( x 0 ) V i ( x ) 0 ( u i+1 u i ) R( u i+1 u i )dt V i ( x 0 )<

所以 u i+1 是全局渐近稳定的控制器, u i+1 是可容许的控制。2)得证。

当系统(1)被 u i+1 驱动时,通过(10)可得 V ˙ i+1 ( x t )= x T Qx u i+1 T R u i+1

同理可得 V i+1 ( x 0 ) V i ( x 0 ) ,因为 V * ( x 0 )=J( x 0 , u * ) 是最小值,所以 V * ( x 0 ) V i ( x 0 )

因此1) 2)得证。

所以我们有 V * ( x 0 ) V i ( x 0 ) V 1 ( x 0 )

定义 z 0 =[ x 0 ( 0 ) x 0 ( · ) ] Ρ i z 0 =[ P 0,i x( 0 )+ h 0 P 1,i ( θ ) x 0 ( θ )dθ h 0 P 2,i ( ·,θ ) x 0 ( θ )dθ+ P 1,i T ( · )x( 0 ) ]

易知 Ρ i 是对称并且是正定的,并且 V i ( x 0 )= z 0 , Ρ i z 0 ,此外 i + Ρ i+1 Ρ i Ρ i1 ,通过[12]定理6.3.2存在 Ρ p = Ρ p T >0 z 0 2 ,有 lim i Ρ i z 0 = Ρ p z 0 。因此 P 0,i , P 1,i ( θ ), P 2,i ( ξ,θ ) 逐点收敛于 P 0,p , P 1,p ( θ ), P 2,p ( ξ,θ ) 。根据收敛的性质,我们有

lim i P 0,i = lim i P 0,i+1 = P 0,p , lim i P 1,i ( θ )= lim i P 1,i+1 ( θ )= P 1,p ( θ ), lim i P 2,i ( ξ,θ )= lim i P 2,i+1 ( ξ,θ )= P 2,p ( ξ,θ )

由(8)可得:

( AD K 0,p ) T P 0,p + P 0,p ( AD K 0,p )+Q+ K 0,p T R K 0,p + P 1,p (0)+ P 1,p T ( 0 )=0, d P 1,p ( θ ) dθ = ( AD K 0,p ) T P 1,p ( θ ) P 0,p D K 1,p ( θ )+ K 0,p T R K 1,p ( θ )+ P 2,p ( 0,θ )+ P 0,p E( θ ), P 2,p ( ξ,θ ) ξ + P 2,p ( ξ,θ ) θ = K 1,p T ( ξ )R K 1,p ( θ )2 K 1,p T ( ξ ) D T P 1,p ( θ )+2 E T ( ξ ) P 1,p ( θ ), P 1,p ( h )= P 0,p B, P 2,p ( h,θ )= B T P 1,p ( θ ), (12)

K 0,p = R 1 D T P 0,p , K 1,p ( θ )= R 1 D T P 1,p ( θ ) (13)

将(13)代入(12),我们可以发现方程组的形式与(7)一致,所以可得 P 0,p , P 1,p ( θ ), P 2,p ( ξ,θ ) 是(7)的解,由于(7)解的唯一性,并且(7)的解为 P 0 * , P 1 * ( θ ), P 2 * ( ξ,θ ) ,所以 P 0,i , P 1,i ( θ ), P 2,i ( ξ,θ ) 逐点收敛于 P 0 * , P 1 * ( θ ), P 2 * ( ξ,θ ) ,所以3)得证。在算法收敛速度方面,如[13]所示,PI算法的收敛率在希尔伯特空间中是二次的,因此,对分布式时滞系统提出的基于模型的PI具有相同的二次收敛率。

NOTES

*通讯作者。

参考文献

[1] 张菊. 自动化技术在机械设计制造中的应用实践[J]. 机械管理开发, 2022, 37(2): 308-309.
[2] 黄建峰. 自动化技术在机械设计制造中的应用价值[J]. 黑龙江科学, 2021, 12(22): 116-117.
[3] Kharitonov, V. (2012) Time-Delay Systems: Lyapunov Functionals and Matrices. Springer Science & Business Media.
[4] Kwakernaak, H. and Sivan, R. (1972) Linear Optimal Control Systems. Wiley-Interscience.
[5] Lancaster, P. and Rodman, L. (1995) Algebraic Riccati Equations. Oxford University Press, 504.
[6] Xie, L., Fridman, E. and Shaked, U. (2001) Robust H/Sub ∞/ Control of Distributed Delay Systems with Application to Combustion Control. IEEE Transactions on Automatic Control, 46, 1930-1935.
https://doi.org/10.1109/9.975483
[7] Jiang, Y. and Jiang, Z. (2012) Computational Adaptive Optimal Control for Continuous-Time Linear Systems with Completely Unknown Dynamics. Automatica, 48, 2699-2704.
https://doi.org/10.1016/j.automatica.2012.06.096
[8] Jiang, Z., Bian, T. and Gao, W. (2020) Learning-Based Control: A Tutorial and Some Recent Results. Foundations and Trends® in Systems and Control, 8, 176-284.
https://doi.org/10.1561/2600000023
[9] Cui, L., Pang, B. and Jiang, Z. (2024) Learning-Based Adaptive Optimal Control of Linear Time-Delay Systems: A Policy Iteration Approach. IEEE Transactions on Automatic Control, 69, 629-636.
https://doi.org/10.1109/tac.2023.3273786
[10] Kleinman, D. (1968) On an Iterative Technique for Riccati Equation Computations. IEEE Transactions on Automatic Control, 13, 114-115.
https://doi.org/10.1109/tac.1968.1098829
[11] Ross, D.W. and Flügge-Lotz, I. (1969) An Optimal Control Problem for Systems with Differential-Difference Equation Dynamics. SIAM Journal on Control, 7, 609-623.
https://doi.org/10.1137/0307044
[12] Eidelman, Y., Milman, V. and Tsolomitis, A. (2004). Functional Analysis: An Introduction. American Mathematical Society.
https://doi.org/10.1090/gsm/066
[13] Burns, J.A., Sachs, E.W. and Zietsman, L. (2008) Mesh Independence of Kleinman-Newton Iterations for Riccati Equations in Hilbert Space. SIAM Journal on Control and Optimization, 47, 2663-2692.
https://doi.org/10.1137/060653962