基于奇异摄动强化学习的时变系统线性二次零和博弈研究
Singular Perturbation-Based Reinforcement Learning for Time-Varying Linear Quadratic Zero-Sum Games
DOI: 10.12677/AIRR.2023.124040, PDF, HTML, XML, 下载: 163  浏览: 266 
作者: 刘明相:广东工业大学自动化学院,广东 广州
关键词: 强化学习时变系统博弈论线性二次优化Reinforcement Learning Time-Varying Systems Game Theory Linear Quadratic Optimization
摘要: 本研究探讨了时变系统中的线性二次零和博弈问题,与以往依赖系统模型的方法有所不同。本文提出了一种无模型的强化学习算法,用于寻找纳什均衡解。首先,通过奇异摄动理论,将时变动态博弈问题转化为两个定常系统的博弈问题。接着,利用无模型的强化学习算法,确定这两个定常系统的纳什均衡,进而近似求解了时变系统的纳什均衡解。本文提出的算法框架将为处理基于强化学习的时变系统鲁棒控制问题或信息物理系统的弹性控制问题提供新的研究思路。
Abstract: This paper tackles the challenge of linear quadratic zero-sum games within dynamic systems that evolve over time. In contrast to previous methods that heavily rely on system models, this paper introduces a novel model-free reinforcement learning algorithm to determine Nash equilibrium solutions. To begin, the paper employs the singular perturbation theory to transform the time- varying dynamic game problem into two separate time-invariant dynamic game problems. Then, by leveraging a model-free reinforcement learning algorithm, it identifies Nash equilibria for these two time-invariant systems, effectively approximating the Nash equilibrium solution for the original time-varying system. The algorithm framework proposed in this paper introduces a fresh perspective for addressing robust control problems in dynamic systems with time variations. Additionally, it opens up new possibilities for robust control problems in time-varying systems or achieving resilient control in cyber-physical systems by harnessing the power of reinforcement learning.
文章引用:刘明相. 基于奇异摄动强化学习的时变系统线性二次零和博弈研究[J]. 人工智能与机器人研究, 2023, 12(4): 373-382. https://doi.org/10.12677/AIRR.2023.124040

1. 引言

二人零和微分博弈研究涉及微分方程驱动的系统中的冲突问题 [1] 。这种类型的博弈经常涉及到追捕–逃避博弈,其中一方(通常是追捕者)试图在尽可能短的时间内将另一方(逃避者)引导到一个特定的目标位置,这类问题在航空航天等领域中经常出现 [2] 。另一个例子是带有干扰的最优控制问题,其中第二个参与者被视为干扰源,控制器必须努力优化系统的性能,同时考虑到干扰的存在。这种情况下,通常需要研究最坏情况设计,以确保系统在最不利的情况下仍然能够正常运行 [3] ,在经济学文献中,这种情况有时也被称为奈特氏不确定性 [4] 。

对于连续时间线性系统,解决线性二次零和微分博弈问题通常需要求解广义博弈代数里卡提方程 [1] 。通过将克莱曼算法扩展到连续时间线性双人零和博弈中 [5] ,可以近似地离线求解博弈问题。在过去的研究中,一些学者采用了不同的方法来解决这个问题。Lewis和Feng等人在处理第一个控制器(即第一个玩家的动作)时使用了带有迭代的内部循环 [6] [7] 。而Van der Schaft以及Abu-Khalaf等人则设计了一种在处理第二个控制器(即第二个玩家的动作)时进行迭代的内部循环 [8] [9] 。尽管这些迭代算法可以近似求解博弈代数里卡提方程,但通常情况下,每个迭代步骤的代价函数仍然难以精确求解。以上研究均考虑定常系统,在过去的十年里,时变(动态)系统的控制和分析得到了广泛的研究。火箭着陆 [10] ,电子电路中的能量节约 [11] 等应用可归类为有限时域的时变系统。求解这类问题需要求解线性时变系统的时变里卡提方程或非线性系统的时变哈密顿–雅可比方程。与定常方程相比,求解时变方程则更加复杂和困难。此外,以上的算法都需要了解系统的全部或部分动力学知识。

强化学习最近在几个突出的决策问题上取得了令人瞩目的进展 [12] ,例如下围棋 [13] [14] 和玩实时策略游戏 [15] 。有趣的是,所有这些问题都可以表述为涉及两个对手或团队的零和马尔可夫博弈。强化学习被广泛应用于解决最优控制问题,如 [16] [17] [18] [19] ,它已被证明是处理具有未知动力学的线性或非线性系统的零和博弈问题的有效方法。文献 [20] 针对离散系统提出了对应的强化学习算法。文献 [21] 则针对连续系统提出了一种不使用任何系统动力学先验知识的线性二次零和博弈的强化学习算法。在 [20] 和 [21] 中提出的解决方案适用于在假设状态的全部知识可供反馈的情况下。文献 [22] [23] 提出基于输出反馈的强化学习算法用于处理线性二次零和博弈。值得注意的是,以上提到的强化学习算法都针对时不变系统,在处理时变系统是则不适用。在文献 [24] 中,作者提出了一种针对离散时变系统的策略迭代法来寻找控制器。而文献 [25] 则关注了连续时间周期系统,文献 [26] 则是专注于无限时域情况下设计基于值迭代的学习控制器。此外,文献 [27] 针对时变的连续系统提出了强化学习方法。然而,对于有限时域内时变系统的博弈问题,目前尚未进行充分的相关研究。

为了解决上述问题,本文借鉴了开创性工作 [28] 中解决具有给定边界条件的有限视界时变问题的思想。其核心理念是:当成本函数需要在较长时间段内进行优化时,时变系统呈现出双时间尺度的特性。文献 [28] 的研究表明,这种时变系统可以被简化成两个定常系统。最终,原始系统的结果可以通过叠加解决初始边界问题和终端边界问题的结果来逼近。进一步地,我们应用了离线学习的思想 [29] 来估计这两个边界问题的纳什均衡。通过将原系统的复杂性简化成两个相对简单的问题,最终成功地无模型地学习了这两个独立的纳什均衡。该方法使得处理有限视界时变系统的博弈问题变得更加可行和高效。

综上所述,我们提出的模型的主要贡献如下

针对时变系统的线性二次动态博弈问题,基于奇异摄动的强化学习方法近似地学习到了纳什均衡的次优解。

为后续研究时变系统的 H 控制问题,时变的信息物理系统的弹性控制问题提供了强化学习求解的新思路。

本文的剩余部分结构安排如下:第二节描述时变系统线性二次动态博弈的问题。在这一节中,将详细讨论时变系统的性质以及线性二次动态博弈的背景和关键问题。第三节利用奇异摄动方法将原问题描述为两个双时间尺度的子问题。本节将介绍奇异摄动方法的应用,将复杂的问题分解为两个不同时间尺度下的子问题,以便更好地理解和解决。第四节概述了估计系统纳什均衡的强化学习算法。在这一节中,将介绍用于估计系统纳什均衡的强化学习算法的关键原理和方法。第五节给出本文的结论和未来进一步研究方向。

这一结构安排清晰地指导了读者在文章中的导向,使他们能够逐步理解问题、方法和结论,并为未来的研究提供了一个有益的参考点。

2. 问题描述

考虑由线性动力系统表示的时变系统如下

d x d t = A ( t ) x ( t ) + B ( t ) u ( t ) + D ( t ) w ( t ) (1)

其中, x ( t ) R n 为系统状态, u ( t ) R m w ( t ) R d 分别表示玩家一和玩家二的控制输入,矩阵 A ( t ) n × n B ( t ) n × m D ( t ) n × d 分别表示关于时间 t [ 0 , T ] 的光滑的函数且矩阵信息未知。玩家一(玩家二)的目标为最小化(最大化)如下所示有限时域的问题

J = 0 T x T ( t ) Q ( t ) x ( t ) + u T ( t ) R u ( t ) u ( t ) w T ( t ) R w ( t ) w ( t ) d t (2)

其中,权值矩阵 Q ( t ) 半正定, R u ( t ) R w ( t ) 正定,且均为关于时间 t [ 0 , T ] 的光滑的函数。 x ( 0 ) = x 0 x ( T ) = x T 分别表示初始状态和终端状态。动态零和博弈的问题为寻找鞍点 ( u * , w * ) 满足如下所示的纳什均衡不等式

J ( x ( 0 ) u * w ) J ( x ( 0 ) u * w * ) J ( x ( 0 ) u w * ) (3)

假设 ( A ( t ) ; B ( t ) ) 可控, ( A ( t ) ; Q ( t ) ) 可观 [30] ,T相对较大,即相对于控制目标,系统变化较慢。

为求解该问题,定义如下的哈密尔顿函数

H = x T ( t ) Q ( t ) x ( t ) + u T ( t ) R u ( t ) u ( t ) w T ( t ) R w ( t ) w ( t ) + λ T ( t ) ( A ( t ) x ( t ) + B ( t ) u ( t ) + D ( t ) w ( t ) ) (4)

其中, λ ( t ) n 为协态变量,且满足如下方程

λ ˙ ( t ) = x H = Q ( t ) x ( t ) A T ( t ) λ ( t ) (5)

最小化目标函数(2)的动态系统(1)的纳什均衡解 ( u ( t ) , w ( t ) ) u H = 0 w H = 0 决定

{ u ( t ) = ( R u ( t ) ) 1 B ( t ) λ ( t ) w ( t ) = ( R w ( t ) ) 1 D ( t ) λ ( t ) (6)

本文的目标为不需要知道系统矩阵 A ( t ) B ( t ) 学习由(6)给出的时变系统(1)的纳什均衡解 ( u ( t ) , w ( t ) )

3. 奇异摄动的设计

本节将根据文献 [27] [28] 的结果,利用奇异摄动的方法将时变系统的求解问题转化为初始边界和终端边界的博弈问题,当T足够长且系统矩阵 A ( t ) B ( t ) 已知时,控制问题可实现次优解。这为下一节推导无模型的强化学习算法做铺垫。

通过引入缩放变量 τ ,将时间段0到T归一化为区间 [ 0 , 1 ]

τ = t T (7)

定义

ε = 1 T (8)

结合公式(1) (5)可得如下系统

ε [ d x d τ d λ d τ ] = [ A ( τ ) 0 Q ( τ ) A T ( τ ) ] [ x λ ] + [ B ( τ ) 0 ] u + [ D ( τ ) 0 ] w (9)

对应的代价函数为

J = T * 0 1 x T ( τ ) Q ( τ ) x ( τ ) + u T ( τ ) R u ( τ ) u ( τ ) w T ( τ ) R w ( τ ) w ( τ ) d t (10)

对应的鞍点表达式为

{ u ( τ ) = ( R u ( τ ) ) 1 B ( τ ) λ ( τ ) w ( τ ) = ( R w ( τ ) ) 1 D ( τ ) λ ( τ ) (11)

定义哈密尔顿矩阵

H M = [ A ( τ ) B ( R u ( τ ) ) 1 B T ( τ ) D ( R w ( τ ) ) 1 D T ( τ ) Q ( τ ) A T ( τ ) ] (12)

假设 H M 对任意时间 τ [ 0 , 1 ] 均偏离虚轴。

参考文献 [31] ,对系统(9)进行解耦,结果如下所示

[ x λ ] = [ I I P a ( τ , ε ) P b ( τ , ε ) ] [ x a x b ] (13)

[引理2.3, [31] ]中表明,在本文的假设下,对于足够小的 ε ,矩阵(12)是非奇异的。因此,结合(12),系统(9)可以转换为奇异摄动系统如下

ε d x a d τ = A ( τ ) x a + B ( τ ) u a + D ( τ ) w a (14)

ε d x b d τ = A ( τ ) x b + B ( τ ) u b + D ( τ ) w b (15)

其中,

u a = ( R u ( τ ) ) 1 B ( τ ) P a ( τ , ε ) x a (16)

u b = ( R u ( τ ) ) 1 B ( τ ) P b ( τ , ε ) x b (17)

w a = ( R w ( τ ) ) 1 D ( τ ) P a ( τ , ε ) x a (18)

w b = ( R w ( τ ) ) 1 D ( τ ) P b ( τ , ε ) x b (19)

此处的 P a ( τ , ε ) 0 , P b ( τ , ε ) 0 为以下微分里卡提方程的两个根

ε P ˙ = A T ( τ ) P P A ( τ ) + Q ( τ ) + P ( B ( τ ) ( R u ( τ ) ) 1 B T ( τ ) D ( τ ) ( R w ( τ ) ) 1 D T ( τ ) ) P (20)

接下来,考虑时间尺度的变化,将奇异摄动系统(14)~(15)转化为边界系统,定义变量如下

γ = τ ε , β = 1 τ ε (21)

结合(21),令奇异摄动系统中的(14)~(20)中参数 ε 趋于零,可得初始边界系统如下

d x a d γ = A ( 0 ) x a + B ( 0 ) u a + D ( 0 ) w a (22)

对应的反馈形式解为

u a ( γ ) = K a x a = ( R u ( 0 ) ) 1 B T ( 0 ) P a ( 0 ) x a ( γ ) (23)

w a ( γ ) = L a x a = ( R w ( 0 ) ) 1 D T ( 0 ) P a ( 0 ) x a ( γ ) (24)

对应的代价函数为

J ( x a , u a , w a ) = 0 x a T Q ( 0 ) x a + u a T R u ( 0 ) u a w a T R w ( 0 ) w a d γ (25)

同理可得终端边界系统如下

d x b d β = A ( 1 ) x b + B ( 1 ) u b + D ( 1 ) w b (26)

对应的反馈形式解为

u b ( β ) = K b x b = ( R u ( 1 ) ) 1 B T ( 1 ) P b ( 1 ) x b ( β ) (27)

w b ( β ) = L b x b = ( R w ( 1 ) ) 1 D T ( 1 ) P b ( 1 ) x b ( β ) (28)

对应的代价函数为

J ( x b , u b , w b ) = 0 x b T Q ( 1 ) x b + u b T R u ( 1 ) u b w b T R w ( 1 ) w b d β (29)

文献 [31] 中的定理2.1表明,如果解决了初始和终端这两个线性定常系统的博弈问题,当 ε 足够小时,两个边值问题解将近似于原始博弈问题(1)~(5)的解如下

x ( τ ) = x a ( γ ) + x b ( β ) + Ο ( ε ) (30)

λ ( τ ) = P a ( 0 ) x a ( γ ) + P b ( 1 ) x b ( β ) + Ο ( ε ) (31)

u ( τ ) = K a x a ( γ ) + K b x b ( β ) + Ο ( ε ) (32)

w ( τ ) = L a x a ( γ ) + L b x b ( β ) + Ο ( ε ) (33)

其中 Ο ( ε ) 为高阶项,在下一节中,我们将依赖于以上的结果,开发强化学习算法在无需系统矩阵 A ( t ) B ( t ) 信息的情况下来求解初始和终端的博弈问题(22)~(29),进而逼近时变系统的纳什均衡解。

4. 强化学习算法

在本节中,我们将提出强化学习算法以无模型的方式分别求解两个初始边界系统和终端边界系统对应的纳什策略,并结合文献 [31] 中的定理2.1,逼近时变系统的纳什均衡解。

4.1. 初始边界的博弈问题

本节目标是在不了解系统动力学的情况下,学习(22)~(25)中所述系统的纳什均衡,从而纳什均衡优化了(25)中描述的成本函数。注意到 P a ( 0 ) 是代数Riccati方程的解:

0 = A T ( 0 ) P a ( 0 ) P a ( 0 ) A ( 0 ) + Q ( 0 ) + P a ( 0 ) ( B ( 0 ) ( R u ( 0 ) ) 1 B T ( 0 ) D ( 0 ) ( R w ( 0 ) ) 1 D T ( 0 ) ) P a ( 0 ) (34)

首先回顾状态反馈积分强化学习方程如下 [21] [29]

x a T ( t ) P a ( 0 ) x a ( t ) = t t + δ t x a T Q ( 0 ) x a + ( u a + e 1 ) T R u ( 0 ) ( u a + e 1 ) ( w a + e 1 ) T R w ( 0 ) ( w a + e 1 ) d υ + x a T ( t + δ t ) P a ( 0 ) x a ( t + δ t ) (35)

其中 e 1 e 2 为具有边界的探测噪声。

将上式表示为克罗内克积形式( )如下

ψ T [ [ v e c ( P a k ) ] [ v e c ( K a k + 1 ) ] [ v e c ( L a k + 1 ) ] ] = θ (36)

其中, θ = t t + δ t x a T Q ( 0 ) x a + u a T R u ( 0 ) u a w a T R w ( 0 ) w a d υ

ψ = [ x a T x a T 2 t t + δ t ( x a e 1 ) T d υ ( I n R u ( 0 ) ) 2 t t + δ t ( x a e 2 ) T d υ ( I n R w ( 0 ) ) ] T

[ x a T x a T | t t + δ t ] [ v e c ( P a k ) ] = [ x a T x a T | t t + δ t ] [ v e c ( K a k ) ]

由于方程(36)为一维方程,所以无法保证解的唯一性。本文将使用最小二乘法来解决系统参数未知的问题,对任意正整数N, Φ = [ ψ 1 , , ψ N ] Θ = [ θ 1 , , θ N ] T ,可得如下N维方程

Φ T [ [ v e c ( P a k ) ] [ v e c ( K a k + 1 ) ] [ v e c ( L a k + 1 ) ] ] = Θ (37)

当样本数量 N n ( n + 1 ) 2 + n m 1 + n m 2 时, Φ T 列满秩,则可以得到参数如下所示

[ [ v e c ( P a k ) ] [ v e c ( K a k + 1 ) ] [ v e c ( L a k + 1 ) ] ] = ( Φ Φ T ) 1 Φ Θ (38)

在学习过程结束时(即收敛结束时),反馈增益为 K a = K a k + 1 L a = L a k + 1 ,则初始边界系统(22)的纳什均衡为 ( K a x a , L a x a )

4.2. 终端边界的博弈问题

遵循与初始边界的博弈问题相同的步骤,反馈增益矩阵的初始化值应该满足 K b > 0 , L b < 0 。则终端边界系统(26)~(29)对应的反馈纳什均衡为 ( K b x b , L b x b )

综合以上阐述,提出强化学习算法如下所示

本节中描述的学习过程,结合文献 [31] 中的定理2.1中的结果,只要 ε 足够小或T足够大,强化学习学习得到的最优策略 u l e a r n e d = u a + u b w l e a r n e d = w a + w b ,该结果可近似原始时变系统的纳什均衡。

5. 结论与展望

本研究针对有限时间内的时变线性二次动态博弈问题,提出了一种无模型的强化学习算法。首先,利用奇异摄动理论,将有限时间内的时变系统转化为两个时间尺度的无限时间内的定常系统。随后,我们引入策略迭代的强化学习算法,分别求解这两个动态系统的对应纳什均衡解。最终,通过奇异摄动理论的应用,逼近原始系统的纳什均衡解。未来的研究方向包括将本文所提出的算法框架用于解决时变系统的 H 控制问题或信息物理系统的弹性控制问题。

参考文献

参考文献

[1] aşar, T. and Olsder, G.J. (1998) Dynamic Noncooperative Game Theory. Society for Industrial and Applied Mathematics, Philadelphia.
https://doi.org/10.1137/1.9781611971132
[2] Ho, Y., Bryson, A. and Baron, S. (1965) Differential Games and Optimal Pursuit-Evasion Strategies. IEEE Transactions on Automatic Control, 10, 385-389.
https://doi.org/10.1109/TAC.1965.1098197
[3] Başar, T. and Bernhard, P. (2008) H∞-Optimal Control and Related Minimax Design Problems: A Dynamic Game Approach. Birkhäuser, Boston.
https://doi.org/10.1007/978-0-8176-4757-5
[4] Dow, J. and Werlang, S.R.D.C. (1994) Nash Equilibrium under Knightian Uncertainty: Breaking down Backward Induction. Journal of Economic Theory, 64, 305-324.
https://doi.org/10.1006/jeth.1994.1071
[5] Kleinman, D. (1968) On an Iterative Technique for Riccati Equation Computations. IEEE Transactions on Automatic Control, 13, 114-115.
https://doi.org/10.1109/TAC.1968.1098829
[6] Feng, Y., Anderson, B.D. and Rotkowitz, M. (2009) A Game Theoretic Algorithm to Compute Local Stabilizing Solutions to HJBI Equations in Nonlinear H∞ Control. Automatica, 45, 881-888.
https://doi.org/10.1016/j.automatica.2008.11.006
[7] Vamvoudakis, K.G. and Lewis, F.L. (2012) Online Solution of Nonlinear Two-Player Zero-Sum Games Using Synchronous Policy Iteration. International Journal of Robust and Nonlinear Control, 22, 1460-1483.
https://doi.org/10.1002/rnc.1760
[8] Van Der Schaft, A.J. (1992) L/Sub 2/-Gain Analysis of Nonlinear Systems and Nonlinear State-Feedback H/Sub Infinity/Control. IEEE Transactions on Automatic Control, 37, 770-784.
https://doi.org/10.1109/9.256331
[9] Abu-Khalaf, M., Lewis, F.L. and Huang, J. (2006) Policy Iterations on the Hamilton-Jacobi-Isaacs Equation for H∞ State Feedback Control with Input Saturation. IEEE Transactions on Automatic Control, 51, 1989-1995.
https://doi.org/10.1109/TAC.2006.884959
[10] Szmuk, M. and Acikmese, B. (2018) Successive Convexification for 6-DoF Mars Rocket Powered Landing with Free-Final-Time. 2018 AIAA Guidance, Navigation, and Control Conference, Kissimmee, 8-12 January 2018, 617-630.
https://doi.org/10.2514/6.2018-0617
[11] Mahdavi, J., Emaadi, A., Bellar, M.D. and Ehsani, M. (1997) Analysis of Power Electronic Converters Using the Generalized State-Space Averaging Approach. IEEE Transactions on Circuits and Systems I: Fundamental Theory and Applications, 44, 767-770.
https://doi.org/10.1109/81.611275
[12] Sutton, R.S. and Barto, A.G. (2018) Reinforcement Learning: An Introduction. MIT Press, Cambridge.
[13] Silver, D., Huang, A., Maddison, C.J., Guez, A., Sifre, L., Van Den Driessche, G., Hassabis, D., et al. (2016) Mastering the Game of Go with Deep Neural Networks and tree Search. Nature, 529, 484-489.
https://doi.org/10.1038/nature16961
[14] Silver, D., Schrittwieser, J., Simonyan, K., Antonoglou, I., Huang, A., Guez, A., Hassabis, D., et al. (2017) Mastering the Game of Go without Human Knowledge. Nature, 550, 354-359.
https://doi.org/10.1038/nature24270
[15] Vinyals, O., Babuschkin, I., Chung, J., Mathieu, M., Jaderberg, M., Czarnecki, W.M. and Ewalds, T. (2019) AlphaStar: Mastering the Real-Time Strategy Game StarCraft II. DeepMind Blog.
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
[16] Vrabie, D., Pastravanu, O., Abu-Khalaf, M. and Lewis, F.L. (2009) Adaptive Optimal Control for Continuous-Time Linear Systems Based on Policy Iteration. Automatica, 45, 477-484.
https://doi.org/10.1016/j.automatica.2008.08.017
[17] Zhang, H., Luo, Y. and Liu, D. (2009) Neural-Network-Based Near-Optimal Control for a Class of Discrete-Time Affine Nonlinear Systems with Control Constraints. IEEE Transactions on Neural Networks, 20, 1490-1503.
https://doi.org/10.1109/TNN.2009.2027233
[18] Jiang, Y. and Jiang, Z.P. (2012) Computational Adaptive Optimal Control for Continuous-Time Linear Systems with Completely Unknown Dynamics. Automatica, 48, 2699-2704.
https://doi.org/10.1016/j.automatica.2012.06.096
[19] Jiang, Y., Shi, D., Fan, J., Chai, T. and Chen, T. (2022) Event-Triggered Model Reference Adaptive Control for Linear Partially Time-Variant Continuous-Time Systems with Nonlinear Parametric Uncertainty. IEEE Transactions on Automatic Control, 68, 1878-1885.
https://doi.org/10.1109/TAC.2022.3169847
[20] Al-Tamimi, A., Lewis, F.L. and Abu-Khalaf, M. (2007) Model-Free Q-Learning Designs for Linear Discrete-Time Zero-Sum Games with Application to H-Infinity Control. Automatica, 43, 473-481.
https://doi.org/10.1016/j.automatica.2006.09.019
[21] Li, H., Liu, D. and Wang, D. (2014) Integral Reinforcement Learning for Linear Continuous-Time Zero-Sum Games with Completely Unknown Dynamics. IEEE Transactions on Automation Science and Engineering, 11, 706-714.
https://doi.org/10.1109/TASE.2014.2300532
[22] Rizvi, S.A.A. and Lin, Z. (2018) Output Feedback Q-Learning for Discrete-Time Linear Zero-Sum Games with Application to the H-Infinity Control. Automatica, 95, 213-221.
https://doi.org/10.1016/j.automatica.2018.05.027
[23] Rizvi, S.A.A. and Lin, Z. (2020) Output Feedback Adaptive Dynamic Programming for Linear Differential Zero-Sum Games. Automatica, 122, Article ID: 109272.
https://doi.org/10.1016/j.automatica.2020.109272
[24] Pang, B., Bian, T. and Jiang, Z.P. (2019) Adaptive Dynamic Programming for Finite-Horizon Optimal Control of Linear Time-Varying Discrete-Time Systems. Control Theory and Technology, 17, 73-84.
https://doi.org/10.1007/s11768-019-8168-8
[25] Pang, B., Jiang, Z.P. and Mareels, I. (2020) Reinforcement Learning for Adaptive Optimal Control of Continuous-Time Linear Periodic Systems. Automatica, 118, Article ID: 109035.
https://doi.org/10.1016/j.automatica.2020.109035
[26] Pang, B. and Jiang, Z.P. (2020) Adaptive Optimal Control of Linear Periodic Systems: An Off-Policy Value Iteration Approach. IEEE Transactions on Automatic Control, 66, 888-894.
https://doi.org/10.1109/TAC.2020.2987313
[27] Reddy, V., Eldardiry, H. and Boker, A. (2022) Singular Perturbation-Based Reinforcement Learning of Two-Point Boundary Optimal Control Systems. 2022 American Control Conference (ACC), Atlanta, 8-10 June 2022, 3323-3328.
https://doi.org/10.23919/ACC53348.2022.9867376
[28] Wilde, R. and Kokotovic, P. (1972) A Dichotomy in Linear Control Theory. IEEE Transactions on Automatic control, 17, 382-383.
https://doi.org/10.1109/TAC.1972.1099976
[29] Jiang, Y. and Jiang, Z.P. (2012) Robust Adaptive Dynamic Programming. In: Lewis, F.L. and Liu, D., Eds., Reinforcement Learning and Approximate Dynamic Programming for Feedback Control, Wiley-IEEE Press, New York, 281-302.
https://doi.org/10.1002/9781118453988.ch13
[30] Lewis, F.L., Vrabie, D. and Syrmos, V.L. (2012) Optimal Control. John Wiley & Sons, New York.
https://doi.org/10.1002/9781118122631
[31] Kokotović, P., Khalil, H.K. and O’reilly, J. (1999) Singular Perturbation Methods in Control: Analysis and Design. Society for Industrial and Applied Mathematics, Philadelphia.
https://doi.org/10.1137/1.9781611971118