AIRR  >> Vol. 8 No. 2 (May 2019)

    一种新的基于数据驱动的神经动态规划方法
    A New Data-Driven Neural Dynamic Programming Algorithm

  • 全文下载: PDF(1026KB) HTML   XML   PP.46-56   DOI: 10.12677/AIRR.2019.82006  
  • 下载量: 363  浏览量: 880   科研立项经费支持

作者:  

李星科,陈学松:广东工业大学应用数学学院,广东 广州

关键词:
最优控制神经动态规划Q函数神经网络 Optimal Control Neural Dynamic Programming Q-Function Neural Network

摘要:

为了实现无模型离散时间非线性动态系统的最优控制,提出了一种新的基于数据驱动的神经动态规划方法。该方法利用Q函数的残差与基函数的内积为零,同时控制策略的残差与基函数的内积也为零,从而得到控制方程。接着使用离线数据集与在线数据来迭代更新神经网络的系数,从而得到近似最优的控制策略,本文还证明了该算法是收敛的。

A new data-driven neural dynamic programming method for model-free discrete-time nonlinear dynamic system is proposed in this paper. The residual of the Q-function and the control strategy are operated to be zero with the basis function through the inner product. Then the coefficients of the neural network are updated by the offline trained data and the online data. Finally the optimal control strategy is obtained and the convergence of this algorithm is proved.

1. 引言

无论是在控制理论还是工程领域,最优化控制问题都是一个重难点。最优控制问题的求解依赖于求解HJB方程,由于系统一般是非线性的,导致对于求解HJB方程很困难,难以得到解析解 [1] 。

Bellman在1957年首次提出了动态规划方法。动态规划对于求解最优控制问题是一个行之有效的方法。该方法适应广泛:离散系统,连续系统,非线性系统,以及随机系统等等。但是该方法是一种逆向计算方法,随着解的时间维度增加,且由于控制变量维数大容易造成“维数灾难”问题。于是近年来,针对未知的复杂非线性系统的最优控制问题,自适应动态规划应运而生。与传统的动态规划相比,由于其采用函数近似结构来逼近系统模型,评价指标 [2] ,和控制策略,避免了因时间逆向计算造成的“维数灾难”问题。自适应动态规划可用于大规模非线性系统 [3] ,其应用也相当广泛;例如:机器人运动规划 [4] ,无人驾驶汽车 [5] ,污水处理系统 [6] 等等。

LIU等采用值迭代的自适应动态规划,并证明其收敛条件是迭代性能指标函数初始化为任意半正定函数 [7] 。根据此收敛条件,提出了一种基于自适应动态规划的协同优化算法 [8] 。该协同优化算法令迭代的残差快速减小,大幅提高了自适应动态规划的收敛速度。LIU等对于离散的非线性系统采用基于策略迭代的自适应动态规划方法 [9] ,证明了该迭代控制律可以使系统稳定,并说明其是收敛的。LUO等则分别对于连续时间非线性系统采用基于策略迭代的自适应动态规划方法 [10] ,该策略迭代的实现使用基于神经网络的最小二乘方法并证明该方法是收敛的。文献 [11] 针对离散时间非线性系统,提出了策略梯度自适应动态规划算法,并证明了该算法中Q函数能收敛到最优值。

由于神经网络良好的自适应与自学习等特点 [12] ,本文采用神经网络与动态规划结合的自适应动态规划对无模型的最优控制问题进行求解。对于神经网络的权重系数采用离线数据集与在线数据结合进行更新。

2. 问题描述

本文所描述的离散时间非线性系统为:

x k + 1 = f ( x k + u k ) , k = 0 , 1 , 2 , (1)

其中 x k R n 为状态向量, u k R m 为控制向量。此外X和U为一个完备集合, D = { ( x , u ) | x X , u U } 。系统(1)在X上稳定,函数 f ( x , u ) 在集合D上连续,且 f ( 0 , 0 ) = 0 x = 0 是系统(1)的一个稳定状态。本文考虑的是无模型的最优控制问题,即函数 f ( x , u ) 的具体解析式是不知道的。优化目标是找到一个稳定的反馈控制 u k = u ( x k ) ,使得性能指标函数(2)最小。

V u ( x 0 ) = l = 0 P ( x l , u l ) . (2)

其中 P ( x , u ) = S ( x ) + W ( u ) W ( u ) 为正定函数。

3. 策略梯度自适应动态规划

对于上述最优控制问题,由于该系统是非线性的且系统模型 f ( x , u ) 的解析式并不知道。为了克服这些困难,引入了策略梯度自适应动态规划来求解该最优控制问题。

定义1对于系统(1),如果 u ( x ) 在X上连续,且 x X V u ( x ) < ,则称控制 u ( x ) 是可控的,记 u ( x ) U ( X ) 。基于自适应动态规划理论,定义值函数 V u ( x k ) 为:

V u ( x k ) = l = k P ( x l , u l ) . (3)

易知:

V u ( x k ) = P ( x k , u k ) + V u ( x k +1 ) . (4)

记最优值函数为:

V * ( x ) = min u V u ( x ) . (5)

对应的最优控制为:

u * ( x ) = arg min u V u ( x k ) . (6)

根据自适应动态规划,为了更好求解该最优控制问题,下面引入Q函数:

Q u ( x k , a ) = P ( x k , a ) + l = k + 1 P ( x l , u l ) . (7)

且易知 Q u ( x k , u ) = V u ( x k ) ,Q函数也可以表示为:

Q u ( x k , a ) = P ( x k , a ) + Q u ( x k + 1 , u ) = P ( x k , a ) + V u ( x k + 1 ) . (8)

对应最优控制 u * ( x ) 的最优Q函数为:

Q * ( x k , a ) = Q u * ( x k , a ) = P ( x k , a ) + V * ( x k + 1 ) . (9)

相应的最优控制为:

u * ( x ) = arg min u V u ( x ) = arg min a Q * ( x , a ) . (10)

为了求解该最优控制问题,通过迭代的思想,希望利用Q函数的梯度信息来更新控制策略u,然后把控制策略u带入Q函数。策略梯度自适应动态规划算法的具体步骤如下:

步骤1:给定初始控制策略 u ( 0 ) U ( X ) 和允许误差 ε ,且令 i = 0

步骤2:估计Q函数:

Q ( i ) ( x k , a ) = P ( x k , a ) + Q ( i ) ( x k +1 , u ( i ) ) . (11)

步骤3:更新控制策略u:

u ( i + 1 ) ( x ) = u ( i ) ( x ) α a Q ( i ) ( x , a ) | a = u ( i ) . (12)

其中 α 为常数。

步骤4:若 Q ( i ) ( x k , a ) Q ( i + 1 ) ( x k , a ) ε ,则输出Q函数和控制策略,否则令 i = i + 1 ,返回步骤2。

对于系统(1),首先定义其Hamiltonian函数为:

H ( x k , u , V ) = V ( x k + 1 ) V ( x k ) + P ( x k , u ) = V ( f ( x k , u ) ) V ( x k ) + P ( x k , u ) . (13)

V ( i ) ( x k ) = V u ( i ) ( x k ) = l = k P ( x l , u ( i ) ( x l ) )

引理1 [11] 给定 u ( 0 ) ( x ) U ( X ) ,根据策略梯度自适应动态规划算法得到控制序列 { u ( i ) ( x ) } 。假设 a V ( i ) ( f ( x k , a ) ) a a V ( i ) ( f ( x k , a ) ) a W ( a ) a a W ( a ) 存在,且 A = u T H u u H u H B = u T H u H C = h α _ = B B 2 A C A α ¯ = B + B 2 A C A 。如果对于 i , x , a B 2 A C 0 α _ α α ¯ ,则:

1)

2) u ( i ) U ( X )

证明:1) 将Hamiltonian函数 H ( x k , u , V ( i ) ) u ( i ) 处进行二阶泰勒展开:

H ( x k , u , V ( i ) ) = H ( x k , u ( i ) , V ( i ) ) + ( u u ( i ) ) T u H ( x k , u ( i ) , V ( i ) ) + 1 2 ( u u ( i ) ) T u u H ( x k , u ( i ) , V ( i ) ) ( u u ( i ) ) + h ( u ) . (14)

根据式(8)和(13)易知:

a Q ( i ) ( x k , a ) = a V ( i ) ( f ( x k , a ) ) + a W ( a ) = u H ( x k , u , V ( i ) ) . (15)

a a Q ( i ) ( x k , a ) = a a V ( i ) ( f ( x k , a ) ) + a a W ( a ) = u u H ( x k , u , V ( i ) ) . (16)

由于 a V ( i ) ( f ( x k , a ) ) , a a V ( i ) ( f ( x k , a ) ) , a W ( a ) , a a W ( a ) ,对于 i 都存在,因此 u H , u u H 都存在。由式(12)和(14)~(16)易知:

H ( x k , u ( i + 1 ) , V ( i ) ) = H ( x k , u ( i ) , V ( i ) ) + ( u ( i + 1 ) u ( i ) ) T u H ( x k , u ( i ) , V ( i ) ) + 1 2 ( u ( i + 1 ) u ( i ) ) T u u H ( x k , u ( i ) , V ( i ) ) ( u ( i + 1 ) u ( i ) ) + h ( u ( i + 1 ) )

= H ( x k , u ( i ) , V ( i ) ) α a T Q ( i ) ( x k , u ( i ) ) u H ( x k , u ( i ) , V ( i ) ) + 1 2 α 2 a T Q ( i ) ( x k , u ( i ) ) u u H ( x k , u ( i ) , V ( i ) ) a Q ( i ) ( x k , u ( i ) ) + h ( u ( i + 1 ) ) = H ( x k , u ( i ) , V ( i ) ) α a T H ( x k , u ( i ) , V ( i ) ) u H ( x k , u ( i ) , V ( i ) ) + 1 2 α 2 a T H ( x k , u ( i ) , V ( i ) ) u u H ( x k , u ( i ) , V ( i ) ) H ( x k , u ( i ) , V ( i ) ) + h ( u ( i + 1 ) ) .

A = u T H u u H u H , B = u T H u H , C = h ,且 A 0 ,则:

H ( x k , u ( i + 1 ) , V ( i ) ) = H ( x k , u ( i ) , V ( i ) ) + 1 2 A α 2 B α + C . (17)

如果 B 2 A C 0 ,当 α _ α α ¯ 时,其中 α _ = B B 2 A C A α ¯ = B + B 2 A C A ,则:

1 2 A α 2 B α + C 0. (18)

H ( x k , u ( i + 1 ) , V ( i ) ) H ( x k , u ( i ) , V ( i ) ) 。根据Hamiltonian函数定义知: H ( x k , u ( i ) , V ( i ) ) = 0

故: H ( x k , u ( i + 1 ) , V ( i ) ) 0

2) 假设 u ( i ) ( x ) U ( X ) ,对于系统 x k + 1 = f ( x k , u ( i + 1 ) ) ,则对于Lyapunov函数 V ( i ) ( x k ) 有:

Δ V ( i ) ( x k ) = V ( i ) ( f ( x k , u ( i + 1 ) ) ) V ( i ) ( x k ) = V ( i ) ( f ( x k , u ( i + 1 ) ) ) V ( i ) ( x k ) + P ( x k , u ( i + 1 ) ) P ( x k , u ( i + 1 ) ) = H ( x k , u ( i + 1 ) , V ( i ) ) P ( x k , u ( i + 1 ) ) . (19)

H ( x k , u ( i + 1 ) , V ( i ) ) 0 ,知: Δ V ( i ) ( x k ) P ( x k , u ( i + 1 ) ) 0 。即: V ( i ) ( f ( x k , u ( i + 1 ) ) ) V ( i ) ( x k ) <

对于所有 x , u 0 ,根据定义1知: u ( i + 1 ) ( x ) U ( X ) 。由数学归纳法知,当 u ( 0 ) ( x ) U ( X ) ,有 u ( i ) ( x ) U ( X )

引理2 [11] 对于所有 ( x , a ) D ,根据策略梯度自适应动态规划算法得到序列 { Q ( i ) ( x , a ) }

满足:1) Q ( i ) ( x , a ) Q ( i + 1 ) ( x , a ) Q * ( x , a )

2) lim i Q ( i ) ( x , a ) = Q * ( x , a )

证明 1)由式(4)和(8)知:

Q ( i ) ( x k , u ( i + 1 ) ) = P ( x k , u ( i + 1 ) ) + V ( i ) ( f ( x k , u ( i + 1 ) ) ) = P ( x k , u ( i + 1 ) ) + V ( i ) ( f ( x k , u ( i + 1 ) ) ) V ( i ) ( x k ) + V ( i ) ( x k ) = H ( x k , u ( i + 1 ) , V ( i ) ) + V ( i ) ( x k ) H ( x k , u ( i ) , V ( i ) ) + V ( i ) ( x k ) = V ( i ) ( x k ) . (20)

且:

V ( i + 1 ) ( x k ) = P ( x k , u ( i + 1 ) ) + V ( i ) ( x k + 1 ) V ( i ) ( x k + 1 ) + V ( i + 1 ) ( x k + 1 ) = Q ( i ) ( x k , u ( i + 1 ) ) V ( i ) ( x k + 1 ) + V ( i + 1 ) ( x k + 1 ) V ( i ) ( x k ) V ( i ) ( x k + 1 ) + V ( i + 1 ) ( x k + 1 ) = P ( x k , u ( i ) ) + V ( i + 1 ) ( x k + 1 ) P ( x k , u ( i ) ) + P ( x k + 1 , u ( i ) ) + V ( i + 1 ) ( x k + 2 ) l = k P ( x l , u ( i ) ) = V ( i ) ( x k ) . (21)

则对于所有 ( x k , a ) D ,有:

Q ( i + 1 ) ( x k , a ) = P ( x k , a ) + V ( i + 1 ) ( x k + 1 ) P ( x k , a ) + V ( i ) ( x k + 1 ) = Q ( i ) ( x k , a ) . (22)

由于式(9)知:

Q ( i ) ( x k , a ) = P ( x k , a ) + V ( i ) ( x k + 1 ) P ( x k , a ) + V * ( x k + 1 ) = Q * ( x k , a ) . (23)

故可得: Q ( i ) ( x , a ) Q ( i + 1 ) ( x , a ) Q * ( x , a )

2) 由式(12)知,当i趋于 时有:

u = u α a Q ( x , a ) | a = u . (24)

即:

α a Q ( x , a ) | a = u = 0. (25)

由式(8)知:

(26)

则有:

a W ( a ) | a = u + a V ( f ( x k , a ) ) | a = u = 0. (27)

又由式(4)知:

(28)

上式对u求导得:

u W ( u ) | u = u * + u V * ( f ( x k , u ) ) | u = u * = 0. (29)

易知式(27)和(29)是一样的,由唯一性得:

V ( x ) = V * ( x ) . (30)

由式(26)得:

Q ( x k , a ) = P ( x k , a ) + V ( x k + 1 ) = P ( x k , a ) + V * ( x k + 1 ) = Q * ( x k , a ) . (31)

由结论1)知,序列是单减序列,记 lim i Q ( i ) ( x , a ) = Q ( x , a ) ,则有:

lim i Q ( i ) ( x , a ) = Q * ( x , a )

4. 基于数据驱动的神经动态规划及其实现

首先定义一个数据 ( x , a , x ˜ ) 其中 为当前状态x执行控制动作a后得到状态向量。 x ˜ 的获得是通过实际系统输入控制动作a后得到,而不是使用系统模型f的数学解析式。如图1,是策略梯度自适应动态规划算法的结构。其中包括两个部分:离线数据集和在线数据。离线数据集。M为数据的数量,其中离线数据集 S M 可以通过实际系统随机采样获得,其结构如图2。在线数据 s k = ( x k 1 , u k 1 , x k ) ,其分别是在时刻 k 1 和k的在线状态和控制信息,其获得的结构图如图3图1的大概流程是:首先,给定一个初始控制 u ( 0 ) ,根据离线数据集 S M 通过策略梯度自适应动态规划算法步骤2,得到 Q ( 0 ) ( x , a ) 。其次,将初始控制 u ( 0 ) 通过实际系统作用于当前状态 x 0 ,得到下一状态 x 1 ,即得到在线数据 s 1 。然后,将 Q ( 0 ) ( x , a ) u ( 0 ) 通过策略梯度自适应动态规划算法步骤3,得到 u ( 1 ) 。最后,将 s 1 加入离线数据集 S M 作为新的离线数据集,以此重复循环,则可得到在线数据 s 2 , s 3 , ,控制序列 u ( 2 ) , u ( 3 ) , 和Q函数序列 Q ( 2 ) ( x , a ) , Q ( 3 ) ( x , a ) ,

Figure 1. Policy gradient adaptive dynamic programming algorithm

图1. 策略梯度自适应动态规划算法

Figure 2. Collect offline data sets

图2. 收集离线数据集

Figure 3. Collect online data

图3. 收集在线数据

4.1. 神经动态规划的实现设计

由于根据策略梯度自适应动态规划算法,要求去计算未知的Q函数 和控制策略 u ( i ) ( x ) ,为了实现该过程,下面引入执行―评价神经网络。其中用执行网络来逼近控制策略 u ( x ) ,用评价网络来逼近Q函数 Q ( x , a ) 。首先介绍俩组线性无关的基函数: Φ ( x ) = { ϕ j ( x ) } j = 1 Ψ ( x , a ) = { ψ j ( x , a ) } j = 1 。其中 ϕ j ( 0 ) = 0 , ψ j ( 0 , 0 ) = 0 。根据代数理论,控制策略 u ( x ) 和Q函数 Q ( x , a ) 可以如下线性表示:

u ( x ) = j = 1 υ j ϕ j ( x ) . (32)

Q ( x , a ) = j = 1 θ j ψ j ( x , a ) . (33)

根据函数逼近理论,Q函数 Q ( i ) ( x , a ) 和控制策略 u ( i ) ( x ) 可以被有限维基函数近似表示:

(34)

Q ¯ ( i ) ( x , a ) = j = 1 L 2 θ j ( i ) ψ j ( x , a ) = Ψ L T ( x , a ) θ ( i ) . (35)

其中 υ ( i ) = [ υ 1 ( i ) υ L 1 ( i ) ] T θ ( i ) = [ θ 1 ( i ) θ L 2 ( i ) ] T 分别为执行网络和评价网络的权重系数向量,但其是未知的。 Φ L ( x ) = [ ϕ 1 ( x ) ϕ L 1 ( x ) ] T Ψ L ( x , a ) = [ ψ 1 ( x , a ) ψ L 2 ( x , a ) ] T 分别为执行网络和评价网络的激活函数向量。则该神经网络的输出可以表示为:

u ^ ( i ) ( x ) = j = 1 L 1 υ ^ j ( i ) ϕ j ( x ) = Φ L T ( x ) υ ^ ( i ) . (36)

Q ^ ( i ) ( x , a ) = j = 1 L 2 θ ^ j ( i ) ψ j ( x , a ) = Ψ L T ( x , a ) θ ^ ( i ) . (37)

其中 θ ^ ( i ) = [ θ ^ 1 ( i ) θ ^ L 2 ( i ) ] T 分别为 υ ( i ) θ ( i ) 的近似估计。由于神经网络有误差,在用 u ^ ( i ) ( x ) Q ^ ( i ) ( x , a ) 估计 u ( i ) ( x ) Q ( i ) ( x , a ) 时会产生残差,定义Q函数残差为:

σ Q ( i ) ( x , a , x ˜ ) = Q ^ ( i ) ( x , a ) Q ^ ( i ) ( x ˜ , u ^ ( i ) ) P ( x , a ) = Ψ L T ( x , a ) θ ^ ( i ) Ψ L T ( x ˜ , u ^ ( i ) ) θ ^ ( i ) P ( x , a ) = Ψ L T ( x , a ) θ ^ ( i ) Ψ L T ( x ˜ , Φ L T ( x ˜ ) υ ^ ( i ) ) θ ^ ( i ) P ( x , a ) . (38)

下面的目标是,在满足残差趋于0的条件下,基于数据驱动来计算 υ ^ ( i ) θ ^ ( i ) 。任意 s 1 ( x , u ) U ,定义内积 s 1 ( x , u ) , s 2 ( x , u ) D = D s 1 ( x , u ) , s 2 ( x , u ) d ( x , u ) 。令:

(39)

将(38)式带入(39)式得:

[ Ψ L ( x , a ) , Ψ L T ( x , a ) D Ψ L ( x , a ) , Ψ L T ( x ˜ , Φ L T ( x ˜ ) υ ^ ( i ) ) D ] θ ^ ( i ) Ψ L ( x , a ) , P ( x , a ) D = 0. (40)

则可得:

(41)

在计算 θ ^ ( i ) 时,其中涉及许多积分,根据蒙特卡洛积分方法,令: I D = D d ( x , a ) 。首先基于离线数据集 S M 来计算 θ ^ ( 0 )

Ψ L ( x , a ) , Ψ L T ( x , a ) D = D Ψ L ( x , a ) Ψ L T ( x , a ) d ( x , a ) = I D M l = 1 M Ψ L ( x l , a l ) Ψ L T ( x l , a l ) = I D M η 0 . (42)

其中 η 0 = l = 1 M Ψ L ( x l , a l ) Ψ L T ( x l , a l ) 。同理可得:

Ψ L ( x , a ) , Ψ L T ( x ˜ , Φ L T ( x ˜ ) υ ^ ( 0 ) ) D = I D M ρ 0 . (43)

(44)

ξ 0 = l = 1 M Ψ L ( x l , a l ) P ( x l , a l ) 。则可得:

θ ^ ( 0 ) = ( η 0 ρ 0 ) 1 ξ 0 . (45)

图4,基于离线数据集 S M 可以计算出 θ ^ ( 0 ) ,当 i = k 时,对于在线数据 s k ,此时把在线数据 s k 加入到离线数据集 S M 作为新的离线数据集 S M + s k ,且用其来计算 θ ^ ( k )

Ψ L ( x , a ) , Ψ L T ( x , a ) D = I D M + 1 η k . (46)

Ψ L ( x , a ) , Ψ L T ( x ˜ , Φ L T ( x ˜ ) υ ^ ( k ) ) D = I D M + 1 ρ k . (47)

Ψ L ( x , a ) , P ( x , a ) D = I D M +1 ξ k . (48)

Figure 4. Neural dynamic programming algorithm

图4. 神经动态规划算法

其中 η k = η 0 + Ψ L ( x k 1 , a k 1 ) Ψ L T ( x k 1 , a k 1 )

ρ k = l = 1 M Ψ L ( x l , a l ) Ψ L T ( x ˜ l , Φ L T ( x ˜ l ) υ ^ ( k ) ) + Ψ L ( x k 1 , a k 1 ) Ψ L T ( x k , u k ) .

则由(41)式知,当 i = k 时:

θ ^ ( k ) = ( η k ρ k ) 1 ξ k . (49)

接着需要计算执行网络的权重系数 υ ^ ( i ) ,由神经动态规划算法步骤3更新控制策略时,用 u ^ ( i ) ( x ) 替换 u ( i ) ( x ) 会产生误差,定义控制策略残差为:

σ u ( i ) ( x ) = u ( i + 1 ) ( x ) u ( i ) ( x ) + α a Q ( i ) ( x , a ) | a = u ( i ) = Φ L T ( x ) υ ^ ( i + 1 ) Φ L T ( x ) υ ^ ( i ) + α a Φ L T ( x , Φ L T ( x ) υ ^ ( i ) ) θ ^ ( i ) . (50)

同理在计算 υ ^ ( i ) 时要满足控制策略残差趋于0:

(51)

即:

Φ L ( x ) , Φ L T ( x ) X υ ^ ( i + 1 ) Φ L ( x ) , Φ L T ( x ) X υ ^ ( i ) + α Φ L ( x ) , a Φ L T ( x , Φ L T ( x ) υ ^ ( i ) ) X θ ^ ( i ) = 0. (52)

则可得:

υ ^ ( i + 1 ) = υ ^ ( i ) α Φ L ( x ) , Φ L T ( x ) X 1 × Φ L ( x ) , a Φ L T ( x , Φ L T ( x ) υ ^ ( i ) ) X θ ^ ( i ) . (53)

根据蒙特卡洛积分方法,令: I X = X d x 。基于离线数据集 ,当 i = k 时,对于在线数据 s k ,此时把在线数据 s k 与离线数据集 S M 结合,且用其来计算 υ ^ ( k )

(54)

Φ L ( x ) , a Ψ L T ( x , Φ L T ( x ) υ ^ ( k ) ) X = I X M + 1 F k . (55)

其中 Γ k = Γ 0 + Φ L ( x k ) Φ L T ( x k ) ,且 Γ 0 = l = 1 M Φ L ( x l ) Φ L T ( x l )

F k = l = 1 M Φ L ( x l ) a Ψ L T ( x l , Φ L T ( x l ) υ ^ ( k ) ) + Φ L ( x k ) a Ψ L T ( x k , Φ L T ( x k ) υ ^ ( k ) ) 。则由(53)可得:

υ ^ ( k + 1 ) = υ ^ ( k ) α Γ k 1 F k θ ^ ( k ) . (56)

4.2. 神经动态规划算法

步骤1:收集离线数据集 S M ,计算

步骤2:给定一个初始允许误差 ε 和初始控制策略 u ^ ( i ) ( x ) U ( X ) ,并令 i = 0

步骤3: 使用 S M s i + 1 计算 η i , ρ i , ξ i 。 并根据(49)式计算 θ ^ ( i )

步骤4:使用离线数据集 和在线状态数据 x i ,计算 Γ i , F i ,并根据(56)式计算 υ ^ ( i + 1 )

步骤5:若 θ ^ ( i ) θ ^ ( i + 1 ) ε ,则输出 θ ^ ( i + 1 ) υ ^ ( i + 1 ) ;否则令 i = i + 1 ,返回步骤3,继续循环。

5. 结束语

本文提出了一种基于数据驱动的神经动态规划方法。该方法不依赖于系统的数学解析式,采用神经网络与动态规划结合的方式对最优控制问题进行求解。其分别利用Q函数的残差和Q函数的基函数做内积为零,控制策略的残差与控制策略的基函数做内积为零;并使用离线数据集与在线数据来迭代更新神经网络的系数,最后得到所需的控制策略。该方法能将离线数据与在线数据有效结合,使得系数更新更加完善。并且证明该算法是收敛的;且收敛到最优值。

基金项目

广东省自然科学基金项目(No.2018A030313505),广东省科技计划项目(No.2017B010124003, No.2017 B090909001)。

文章引用:
李星科, 陈学松. 一种新的基于数据驱动的神经动态规划方法[J]. 人工智能与机器人研究, 2019, 8(2): 46-56. https://doi.org/10.12677/AIRR.2019.82006

参考文献

[1] 张化光, 张欣, 罗艳红, 杨珺. 自适应动态规划综述[J]. 自动化学报, 2013, 39(4): 303-311.
[2] 林小峰, 丁强. 基于评价网络近似误差的自适应动态规划优化控制[J]. 控制与决策, 2015, 30(3): 495-499.
[3] Lakovos, M., Simone, B., Elias, B.K. and Petros, A.L. (2017) Adaptive Optimal Control for Large-Scale Nonlinear Systems. IEEE Transactions on Automatica Control, 62, 5567-5577.
https://doi.org/10.1109/TAC.2017.2684458
[4] 赵金刚, 戈新生. 基于动态规划的机器人运动规划最优控制[J]. 控制工程, 2017, 24(11): 2374-2379.
[5] 田涛涛, 侯忠生, 刘世达, 邓志东. 基于无模型自适应动态规划的无人驾驶汽车横向控制方法[J]. 自动化学报, 2017, 43(11): 1931-1940.
[6] 乔俊飞, 王亚清, 柴伟. 基于迭代ADP算法的污水处理过程最优控制[J]. 北京工业大学学报, 2018, 44(2): 200-206.
[7] 刘毅, 章云. 基于值迭代的自适应动态规划的收敛条件[J]. 广东工业大学学报, 2017, 34(5): 10-14.
[8] 刘毅, 章云. 一种基于自适应动态规划的协同优化算法[J]. 广东工业大学学报, 2017, 34(6): 15-19.
[9] Liu, D.R. and Wei Q.L. (2014) Policy Iteration Adaptive Dynamic Programming Algorithm for Dis-crete-Time Nonlinear Systems. IEEE Transactions on Neural Networks Learning Systems, 2014, 25, 621-634.
https://doi.org/10.1109/TNNLS.2013.2281663
[10] Luo, B., Wu, H.N., Huang, T.W. and Liu, D.R. (2014) Data Based Approximate Policy Iteration for Affine Nonlinear Continuous-Time Optimal Control Design. Automatica, 50, 3281-3290.
https://doi.org/10.1016/j.automatica.2014.10.056
[11] Luo, B., Liu, D.R., Wu, H.N., Wang, D. and Lewis, F.L. (2017) Policy Gradient Adaptive Dynamic Programming for Data-Based Optimal Control. IEEE Transactions on Cybernrtics, 47, 3341-3354.
https://doi.org/10.1109/TCYB.2016.2623859
[12] 王鼎, 穆朝絮, 刘德荣. 基于迭代神经动态规划的数据驱动非线性近似最优调节[J]. 自动化学报, 2017, 43(3): 366-375.