强化学习方法的理论与应用研究
Theoretical and Applied Research on Reinforcement Learning Methods
DOI: 10.12677/CSA.2022.123056, PDF, HTML, XML, 下载: 352  浏览: 1,978 
作者: 林 晨:华南理工大学数学学院,广东 广州
关键词: 人工智能强化学习理论应用Artificial Intelligence Reinforcement Learning Theory Application
摘要: 强化学习是机器学习的一个重要分支,是人工智能领域的一大发展方向。本文讨论基于马尔可夫决策过程的强化学习基本框架,对强化学习基本模型进行分析,指出了强化学习的目标,对其中的理论推导进行拆解。文章从理论角度研究了深度强化学习的基础演员/评论家方法(actor-critic),探讨了确定性策略梯度方法(DPG)的内涵。文章分析了近几年效果良好的双延迟深度确定性策略梯度(TD3)学习方法。文章研究了现阶段强化学习的研究方向与典型方法。文章关注了强化学习的应用,从现阶段强化学习应用领域、强化学习可以处理的问题以及强化学习遇到的挑战等方面分析强化学习,剖析了强化学习的应用现状并对未来发展方向进行了预测。
Abstract: Reinforcement Learning is an important branch of machine learning and a major development direction in the field of artificial intelligence. The article discusses the basic framework of Reinforcement Learning based on Markov Decision Process. The article analyzes the basic model, points out the goals and disassembles the theoretical derivation of Reinforcement Learning. The article analyzes actor-critic method from a theoretical perspective which is the basis of Deep Reinforcement Learning and talks about the insight of Deterministic Policy Gradient method. The article analyzes Twin Delayed Deep Deterministic policy gradient method that works well in recent years. The article studies the current research direction and typical methods of Reinforcement Learning. The article focuses on the application of Reinforcement Learning and analyzes the uses of Reinforcement Learning from an application perspective of Reinforcement Learning, problems that Reinforcement Learning can solve and the challenges that Reinforcement Learning faces. The article finally analyzes the application status of Reinforcement Learning and predicts the future of Reinforcement Learning.
文章引用:林晨. 强化学习方法的理论与应用研究[J]. 计算机科学与应用, 2022, 12(3): 554-564. https://doi.org/10.12677/CSA.2022.123056

1. 强化学习概述

强化学习是一种机器学习方法,可用于处理机器人控制、路径规划、棋类游戏等现实问题。强化学习不需使用数据集即可完成训练目标,但复杂问题对计算机性能要求高。通俗来讲,强化学习如同小孩子学习问题,成功了获得奖励,失败了受到惩罚,在许多次之后,小孩子就明白了什么该做什么不该做。

强化学习的流程可参考萨顿的强化学习工具书 [1],该书系统性分析了强化学习的过往研究内容。强化学习的基本框架如下:我们首先假设讨论的环境是马尔可夫决策过程(Markov Decision Process, MDP),也即满足未来状态仅与当前状态有关,而与历史状态无关。在时间t时,根据我们训练好的策略π,依据环境状态s选取动作a,并根据设定的奖励惩罚规则获得奖励或惩罚r,之后获得新的状态 s 。强化学习的任务是最大化累加和奖励函数,该累加和可以用如下的公式进行表示: R t = i = t T γ i t r ( s i , a i ) ,这其中 0 < γ < 1 ,意味着近期奖励更受重视,而远期奖励对现在的影响则小一些。

强化学习的目标是找出最优策略 π θ ,这里θ是参数,意思是整体的角度寻求平均期望回报的优化,基本公式如下: J ( θ ) = E s ~ P π , a i ~ π [ R 0 ] ,其中等式右边代表基于状态分布 p ( s ) 的期望价值 。借助演员/评论家方法 [2],我们则能使用确定性策略梯度方法 [3] 针对策略 π θ 以如下的微分方程公式对策略进行优化: θ J ( θ ) = E s ~ P π [ a Q π ( s , a ) | a = π ( s ) θ π θ ( s ) ] ,其中 Q π ( s , a ) = E s i ~ p π , a i ~ p π [ R t | s , a ] 称之为评论家或价值函数。关于价值函数的优化,我们可以使用Q学习优化方法,近年的领先方法则是一种基于时序差分方法的Q学习方法 [4],对价值函数进行更新: Q π ( s , a ) = r + γ E s , a [ Q π ( s , a ) ] ,其中 a ~ π ( s ) 意味着策略是具有连续性的。

强化学习从零开始借助与环境的交互进行采样,并逐步优化策略,进而实现智能体的决策优化。强化学习与深度学习结合,则构成了深度强化学习,深度强化学习是现在强化学习研究的主要内容。

2. 演员/评论家方法的内涵

上文提到的演员/评论家方法主要是设立一个演员一个评论家,直观来说,其中演员负责展示强化学习策略的效果,评论家则负责考核效果好坏。演员/评论家方法在2000年有了明确论述,研究人员详细讨论了演员/评论家方法的理论基础。

基于仅含演员的强化学习方法与仅含评论家的强化学习方法各有侧重点,集成两部分形成演员/评论家方法,能大大提高算法效率。

演员评论家方法首先论证了该方法的数学原理的合理性,它提出了两个假定:

第一,该方法假定对于状态动作空间下的数对 ( s , a ) ( S × A ) 之映射 θ μ θ ( s , a ) 是二阶可微,并且一阶导有界,这里S指代有限状态空间,A指代有限动作空间,而 μ θ ( s , a ) 表状态s时采取动作a的概率。另一方面,假定存在实数空间中的n维价值函数 ψ θ ( s , a ) 并满足公式:

μ θ ( s , a ) = μ θ ( s , a ) ψ θ ( s , a ) (1)

这里映射 θ ψ θ ( s , a ) 是有界的并且对任何确定的状态和动作一阶导数有界。

第二, 该方法假定马尔科夫链 { s n } 以及 { s n , a n } 不可分且非周期,并且在随即平稳策略 μ θ 下,通过公式:

η θ ( s , a ) = π θ ( s ) μ θ ( s , a ) (2)

可以求得 η θ ( s , a ) ,这里 π θ ( s ) 是有关状态的平稳概率。

基于以上假定,当 μ θ ( s , a ) 不为零的时候可得:

ψ θ ( s , a ) = μ θ ( s , a ) μ θ ( s , a ) = ln μ θ ( s , a ) (3)

又设从实数域上n维到1维的平均费用函数:

λ ( θ ) = s S , a A g ( s , a ) η θ ( s , a ) (4)

并通过如下泊松公式:

λ ( θ ) + V θ ( s ) = a A μ θ ( s , a ) [ g ( s , a ) + y p s y ( a ) V θ ( y ) ] (5)

求解微分费用函数 V θ ( s ) ,此外设Q函数 q θ : S × A R ,定义为:

q θ ( s , a ) = g ( s , a ) λ ( θ ) + y p s y ( s ) V θ ( y ) (6)

为了便于计算讨论,定义了两个实值价值函数 q 1 q 2 之间的函数内积为:

q 1 , q 2 θ = s , a η θ ( s , a ) q 1 ( s , a ) q 2 ( s , a ) (7)

延续定义,首先有定理1:

θ i λ ( θ ) = x , u η θ ( s , a ) q θ ( s , a ) ψ θ i ( s , a ) = q θ , ψ θ i θ (8)

其中, ψ θ i ( s , a ) 代表 ψ θ 的第i个元素。

我们设 Ψ θ { ψ θ i ; 1 i n } 这组参数为 θ 的基向量的生成向量,另设投影算子 Π θ : R | S | | A | Ψ θ ,其格式为 Π θ q = argmin q ^ Ψ θ q q ^ θ ,有 q θ , ψ θ θ = Π θ q θ , ψ θ θ

基于上述讨论,可以得到一种更好的时序差分方法,

λ k + 1 = λ k + γ k g ( s k , a k ) (9)

r k + 1 = r k + γ k ( g ( s k , a k ) λ k + Q r k θ k ( s k + 1 , a k + 1 ) Q r k θ k ( s k , a k ) ) z k (10)

这里 λ k 是正步长参数。

这样我们可以得到演员/评论家方法,其中 s * 是状态集中的某个状态。

时序差分方法的不含额外参数评论家方法: z k + 1 = z k + ϕ θ k ( s k + 1 , a k + 1 ) ,其中 s k + 1 s * ;而若 s k + 1 = s * ,则 z k + 1 = ϕ θ k ( s k + 1 , a k + 1 )

时序差分方法的含额外参数评论家方法: z k + 1 = α z k + ϕ θ k ( s k + 1 , a k + 1 ) ,其中 0 α < 1

演员方法: θ k + 1 = θ k β k Γ ( r k ) Q r k θ k ( s k + 1 , a k + 1 ) ψ θ k ( s k + 1 , a k + 1 ) ,这里 β k 是正步长 Γ ( r k ) > 0 ,是正则化因子满足 Γ ( ) 李普希兹连续并且存在 c > 0 使得 Γ ( r ) c 1 + r

下面我们讨论算法的收敛性。我们首先进行假定:对于n维实数空间中的 θ ,定义 m × m 的矩阵 G ( θ ) = s , a η θ ( s , a ) ϕ θ ( s , a ) ϕ θ ( s , a ) T ,并假设 G ( θ ) 是一致正定。又假定步长序列 { γ k } 以及 { β k } 正的并且非增并满足 δ k > 0 , k , k δ k = , k δ k 2 < ,其中 δ k 代表 β k γ k ,并且假定 β k γ k 0 。我们可以得到定理2和定理3。

定理2:

在一个有TD (1)评论家的演员/评论家算法中,

lim inf k λ ( θ k ) = 0 , w . p .1. (11)

{ θ k } 依概率1有界,则

lim k λ ( θ k ) = 0 , w . p .1. (12)

定理3:

对任意 ε > 0 ,有足够接近1的 α ,使得

lim inf k λ ( θ k ) ε , w . p .1 (13)

关于具体的方法,形式如下:

Q r θ ( s , a ) = j = 1 m r j θ j ( s , a ) (14)

其中 r = ( r 1 , , r m ) R m 代表评论家的参数向量,特征 θ j , j = 1 , , m 是依赖于演员的参数向量 θ 并用于评论家。

最终我们可以将演员的参数更新方式确定为如下形式:

θ k + 1 = θ k β k Γ ( r ( θ k ) ) Q r ( θ k ) θ k ( s k + 1 , a k + 1 ) ψ θ k ( s k + 1 , a k + 1 ) + β k e k (15)

其中 e k 是渐进可忽略误差。

使用上述的参数更新公式更新参数,就可以逐步优化智能体采用的策略。演员/评论家方法是深度强化学习的基础框架,为之后的深度强化学习框架的提出打下基础。

3. 确定性策略梯度方法的内涵

确定性策略梯度方法是针对策略梯度方法、演员/评论家方法以及异策演员/评论家方法的更新。

如前文所述,基于马尔可夫决策过程的强化学习方法可以用求解平均期望回报策略优化,可为如下形式:

J ( π θ ) = S p π ( s ) A π θ ( s , a ) r ( s , a ) d a d s = E s ~ p π , a ~ π θ [ r ( s , a ) ] (16)

其中 p π ( s ) 是有关策略参数的状态分布。

关于随机梯度下降定理,最早是计算智能研究员萨顿于1999年提出的,基本公式如下:

θ J ( π θ ) = S p π ( s ) A θ π θ ( a | s ) Q π ( s , a ) d a d s = E s ~ p π , a ~ π θ [ θ log π θ ( a | s ) Q π ( s , a ) ] (17)

关于随机演员/评论家方法,实际应用中,主要是分设两个不同的组分:一个是演员,要做的是调整真实的根据待求的随机策略 π θ ( s ) ,针对其中的 θ 进行参数优化;另一个是评论家,它做的事情是评价策略性能的好坏。

关于异策演员/评论家方法,求其平均期望回报的公式有变化:

J β ( π θ ) = S p β ( s ) V π ( s ) d s = S A p β ( s ) θ π θ ( a | s ) Q π ( s , a ) d a d s (18)

微分形式如下:

θ J β ( π θ ) S A p β ( s ) θ π θ ( a | s ) Q π ( s , a ) d a d s = E s ~ p β , a ~ β [ π θ ( a | s ) β θ ( a | s ) θ log π θ ( a | s ) Q π ( s , a ) ] (19)

这其中, β ( a | s ) π θ ( a | s ) 是行动策略。

以上是确定性策略梯度的前述内容,而关于确定性策略梯度的更新方向,分为同策确定性演员/评论家方法以及异策确定性演员/评论家方法。

同策演员/评论家方法的参数更新采用如下公式计算:

δ t = r t + γ Q w ( s t + 1 , a t + 1 ) Q w ( s t , a t ) (20)

w t + 1 = w t + α w δ t w Q w ( s t , a t ) (21)

θ t + 1 = θ t + α θ θ μ θ ( s t ) a Q w ( s t , a t ) | a = μ θ ( s ) (22)

异策演员/评论家方法的平均期望回报采用如下公式计算:

J β ( μ θ ) = S p β ( s ) V μ ( s ) d s = S p β ( s ) Q μ ( s , μ θ ( s ) ) d s (23)

θ J β ( μ θ ) S p β ( s ) θ μ θ ( a | s ) Q μ ( s , a ) d s = E s ~ p β [ θ μ θ ( s ) a Q μ ( s , a ) | a = μ θ ( s ) ] (24)

而异策演员评论家方法的参数更新采用如下公式计算:

δ t = r t + γ Q w ( s t + 1 , μ θ ( s t + 1 ) ) Q w ( s t , a t ) (25)

w t + 1 = w t + α w δ t w Q w ( s t , a t ) (26)

θ t + 1 = θ t + α θ θ μ θ ( s t ) a Q w ( s t , a t ) | a = μ θ ( s ) (27)

而关于相似异策确定性演员/评论家方法,形式如下:

δ t = r t + γ Q w ( s t + 1 , μ θ ( s t + 1 ) ) Q w ( s t , a t ) (28)

θ t + 1 = θ t + α θ θ μ θ ( s t ) ( θ μ θ ( s t ) T w t ) (29)

w t + 1 = w t + α w δ t ( s t , a t ) (30)

v t + 1 = v t + α v δ t ( s t ) (31)

确定性策略梯度方法是后续发展论文的很重要的论述基础,因为之前的方法是使用随机策略梯度方法,之后的深度确定性策略梯度方法以及TD3方法都是基于确定性策略梯度方法提出的。

4. TD3针对过往方法的更新

TD3的全称是“Twin Delayed Deep Deterministic policy gradient algorithm”,是文章《Addressing function approximation error in actor-critic methods》 [5] 中提出的方法,是一种近年应用较为广泛的深度强化学习方法。TD3相比于深度确定性策略梯度方法有深度神经网络的加入。

该方法针对过往的强化学习更新方向有四个。

首先是针对演员/评论家方法中的过估计误差问题的改进。TD3将原有的演员/评论家方法中的价值函数 y = r + γ max a Q ( s , a ) 参考双Q学习,将学习目标变成如下形式:

y 1 = r + γ Q θ 2 ( s , π θ 1 ( s ) ) (32)

y 2 = r + γ Q θ 1 ( s , π θ 2 ( s ) ) (33)

同时考虑到演员/评论家方法的高估价值函数问题,TD3方法直接选取如下形式的价值函数:

y 1 = y 2 = r + γ min i = 1 , 2 Q θ i ( s , π θ 1 ( s ) ) (34)

优化的第二个方向是TD3借用了TD误差思想,将价值函数的更新加入TD误差变为如下形式:

Q θ ( s , a ) = r + E [ Q π ( s , a ) ] δ ( s , a ) (35)

对上述价值函数,迭代计算方法如下:

Q θ ( s t , a t ) = E s i ~ p π , a i ~ π i = t T [ γ i t ( r i δ i ) ] (36)

优化的第三个方向是进行目标网络优化,更新思路是在TD误差小的情况下去更新目标网络的参数 θ

θ τ θ + ( 1 τ ) θ (37)

优化的第四个方向是目标值的再优化,具体是借用近似策略有近似目标值的思想,加入扰动项:

y = r + E [ Q θ ( s , π θ ( s ) + ) ] (38)

目标更新加入噪声之后计算公式如下:

y = r + γ Q θ ( s , π θ ( s ) + ) (39)

~ c l i p ( N ( 0 , σ ) , c , c ) (40)

可以看出,TD3方法基于过往方法的问题从多个角度进行优化,理论推导是严谨的。事实上,在经过1million时间步之后,对于Openai Gym的MuJoCo实验环境中,TD3在最大平均返回值上均是最高,优于DDPG、PPO、TRPO、ACKTR、SAC等强化学习方法。

根据实验结果,TD3方法可用于连续空间的控制问题,在机器人控制、平面游戏挑战等方面都可以应用。

5. 强化学习最新研究方向概述

前文详细剖析了强化学习在过往研究中的经典方法。本部分将重点关注近年强化学习领域的最新研究方向进行分析。值得关注的重要方向包括了可解释强化学习,序列建模强化学习和样本利用效率高的强化学习。

5.1. 可解释强化学习

可解释强化学习(Explainable Reinforcement Learning)是强化学习的最新研究方向,它属于可解释人工智能(Explainable Artificial Intelligence)的范畴。事实上,机器学习具有“黑盒”性质,即人类将越来越多的问题交给深度神经网络(Deep Neural Network)解决,人们却不了解其中的训练逻辑与原理。考虑到人类已经将机器学习应用到生活的各个方面,人类对机器学习“黑盒”性质的担忧是存在的。为了解决人类的担忧,可解释人工智能就诞生了。可解释人工智能旨在将“黑盒”机器学习进行科学分析,论证各种机器学习算法的可信任性与可依赖性。而强化学习作为机器学习重要分支,也产生了可解释强化学习相关研究。

有2021年的综述文章 [6] 系统性分析了过往可解释强化学习的研究成果,并对未来可解释强化学习的发展方向进行预测。

具体的可解释强化学习有若干方向研究。有2020年的文章 [7] 提出了使用因果模型对各种无模型强化学习方法进行因果解释,并使用编码方法对有关联的变量进行架构。另一篇2020年的文章 [8] 提出了不同的架构,该框架基于智能体与环境的交互的视频段,分析智能体感兴趣的元素从而解释智能体的行为,该方法有助于人类理解智能体何时会更新策略这一关键点。有文章 [9] 结合了决策树与因果模型进行建模,该方法使用循环神经网络(Recurrent Neural Network)学习机会链,并借助决策树提高准确性。另有文章 [10] 结合了其他学科的思路,使用突变和重组的思想设计了新的使用虚拟神经程序员,具有较高的可解释性。关于强化学习应用的可解释性,有文章 [11] 使用概率模型对应用强化学习的机器人行为进行解释,并对机器人决策行为的合理性进行论证。

5.2. 序列建模强化学习

自然语言处理(Natural Language Processing)是近年有突破性进展的领域,其中自注意力架构因其能在长时间范围内整合信息并进行扩展而有效地提升了自然语言处理能力。最典型且应用广泛的架构是Transformer架构,这个架构是2017年的文章 [12] 中提出的。将Transformer及其类似架构进行适当转换或是改变应用于强化学习方向是研究人员的目标,而与之相关的方法就是序列强化学习。

有2020年的文章 [13] 论证了在强化学习环境中Transformer原始架构是难以优化的,文章中提出的方法对原始Transformer架构进行了修改,显著提高了其稳定性和学习速度。基于前述研究,2021年研究人员在一篇文章 [14] 中提出了新的建模思路,直接将强化学习转换为序列建模思路,借助Transformer架构对状态、动作、奖励等进行系统化建模,并在模仿学习、目标条件强化学习以及离线强化学习领域取得了良好效果。另一篇2021年的文章 [15] 大幅修改Transformer架构,提出了Decision Transformer架构,该方法在实验效果方面达到或是超过了最先进的无模型离线强化学习方法。

5.3. 样本利用效率高的强化学习

强化学习的训练通常是无样本开始的,其数据集是通过步步采样得到的。当我们要提升强化学习训练效率时,提高强化学习采样样本利用率是十分重要的。基于提升样本利用率的必要性,近年相关研究较多。

2021年的文章 [16] 针对样本高效学习提出了一种结合原型表示的强化学习方案,文章提出了一种自我监督的强化学习框架,并将之应用于复杂的连续控制任务实现了加速下游策略探索的目标。另一篇2021年的文章 [17] 使用未标记的数据预训练编码器并对数据进行微调以应用于不同任务;该方法还采用了隐动力学与无监督目标条件强化学习组合方法以更好地利用样本。有文章 [18] 分析了过往数据增强方法的瓶颈,引入了一种叫软数据增强(Soft Data Augmentation, SODA)方法;文章提出的方法对编码器使用软约束,目标是最大化增强和非增强数据的隐表示之间的互信息。

6. 强化学习应用分析

6.1. 强化学习常用框架

强化学习的方法需要进行测试,测试方法一般均为线上模拟的形式,常见的环境包括Gym、CopellaSim、Pybullet等。

Gym是最广泛应用的强化学习测试框架,该框架为Openai团队制作的,Gym环境 [19] 包括了各种强化学习的测试环境如Atari游戏测试环境,MuJoCo机器人测试环境等。Gym环境为开源环境,是强化学习新方法的一般性验证环境。其中的Atari游戏环境主要是二维界面的游戏测试,一般设定明确的目标。MuJoCo机器人测试环境包括机器人的移动以及机械臂的抓取等操作。

CoppeliaSim是专门为机器人相关实验建立的非开源模拟器,在机器人领域有一定的应用,可进行强化学习方法的实验模拟,但接口相对Gym的MuJoCo环境更为复杂。

Pybullet为力学模拟、机器人控制相关的深度强化学习实验框架,实验设计复杂度介于Gym环境与CoppeliaSim环境之间。

6.2. 强化学习能处理的问题

成熟的强化学习方法如TD3可以应用于复杂的连续空间问题,但一般而言,强化学习针对高精度问题的求解并不理想,需要提出更好的强化学习方法或者将强化学习与其他机器学习方法进行融合。强化学习能解决多种问题,应用广泛。

Gym框架下的不同环境是强化学习能处理的问题。强化学习的基本验证框架是Gym,各种基础性算法如actor-critic算法、DPG算法等多是基于Gym的基本环境如连杆问题、小车上山问题、平衡问题等进行效果验证。近期算法如TD3等广泛应用的算法则使用Atari游戏,Mujoco机器人环境等进行对比实验。

棋类游戏是强化学习能解决的。强化学习能处理的最经典问题是在围棋。DeepMind研究团队在此方面多有研究,AlphaGo是其初始版本,之后则提出了AlphaGo Zero与AlphaZero,其提出的最新方法则是Mu-zero方法 [20]。Mu-zero方法的特点是不仅能完成围棋方面由于AlphaZero的更好效果,也能在将棋与Atari游戏方面有突出效果。另有人提出了较为简单的五子棋强化学习方法 [21],该方法使用蒙特卡洛树结合卷积神经网络,训练要求低且效果好。

机器人领域是强化学习可发展的领域,这主要是由于强化学习的性质决定的。强化学习不需要人为标注数据,这样强化学习就有自己学习数据表达方式的能力。从另一方面讲,强化学习需要的是探索未知空间,这与机器人的应用有相似之处。关于机器人控制方面,基本思路是将原问题进行分治,有2019年的研究 [22] 对现实中困难的机器人控制问题进行剖析,将其分解为可用常规反馈控制解决的子问题以及可以使用强化学习解决的子问题两部分,最终通过两个控制信号的叠加解决原问题。关于机器人手眼标定方面,2022年的最新研究 [23] 提出了较为完善的强化学习辅助方法,能完成标定任务。

自动驾驶领域是强化学习的最前沿一个研究方向。一篇2021年的综述文章 [24] 系统叙述了深度强化学习算法已经应用的自动驾驶任务,分析了现阶段强化学习遇到的关键挑战。具体到应用方法,一篇2021年的文章 [25] 提出了强化学习与监督学习结合的方法,该方法对先验知识进行编码,并使用图神经网络(Graph Neural Network)对不同车辆的相互影响建模;这种方法在T形交叉口性能优于最先进的方法。有文章 [26] 提出了一种端到端的深度强化学习方法,该方法引入序列化隐空间模型,并在拥挤的城市场景中有好效果。

6.3. 强化学习的挑战

强化学习应用范围广,数学论证基础完善,思路直观。但强化学习也有多方面的挑战,包括采样效率低、回报值稀疏、输入样本噪声多等问题。

不妨以具体场景为例探讨强化学习的多种挑战。

马里奥游戏在世界范围广受欢迎,这是一种基本符合有限马尔可夫决策过程(Finite Markov Decision Process, FMDP)的游戏环境。所谓基本符合FMDP过程,指的是智能体在上一帧与当前一帧是有关系的,但同时考虑到马里奥的具体运动方式,譬如大跳与右上跳,这样的动作都是有惯性的;换句话讲,在某些情境下,智能体不进行操作也会延续之前的运动方式,而这有时是无法仅通过上一帧的情景与动作决定之后的行进方式。马里奥游戏相比于Atari游戏虽说都是二维场景下,但是更为复杂。马里奥游戏的单局基本时长是300秒,这导致了在单次从出发点到终止的采样过程是漫长的。马里奥游戏的直观奖励就是到终点与否,而智能体未到终点则不会有奖励。

关于上述问题的解决马里奥游戏在现在的解决方法主要还是依靠搭建特定平台进行实验。最常见的是在Github上开源的基于Openai的gym库的Mario-bros环境。简要说来,该环境对于原始游戏进行简化,标记了相应的智能体与可交互物体,并对函数的奖励与惩罚有了明确的定义。该环境相比于原始游戏进行了加速处理,一般最长在三十秒内完成一次游戏。这样做产生了新的问题:首先我们难以找到最合适的回报函数定义,因为原始游戏并没有这样的额外回报值;其次虽说游戏加速了十倍左右,但相比于一般情况的需要至少40000次游戏的强化学习实验采样,耗费时间仍然很长。事实上,采样耗费了大量的时间,而真正计算的时间并不多,也就是说GPU算力利用效率是不高的。

与此形成对比的围棋,为何效果就会很好呢?一方面围棋是状态全可见的,就是fully observed MDP,这样状态可知,动作可知,且这是严格意义的马尔可夫决策过程;另一方面围棋的自对弈交互过程能达到非常快的情形,没有马里奥游戏那样长的采样时间。除此之外,马里奥游戏的干扰项是存在的,譬如其背景颜色、非固定模式的怪物移动,马里奥游戏还是当前状态部分可见的,意味着即将到来的环境是不可知的。

通过马里奥游戏与围棋的对比,我们不难看出解决一个复杂些的强化学习问题的解决的困难之处:在连续的环境下,首先需要对问题进行建模,建构的框架需要基本符合马尔可夫决策过程;需要缩短单次采样的时间,使得在短期内能获得更多的采样数据;对于回报函数稀疏的长过程问题,得到回报所需的操作数过多,在过程中要增添过程回报值,逐步训练智能体;若是环境状态非完全可见且随机变化,则训练出良好的策略是困难的。

6.4. 强化学习的发展前景

强化学习的基本框架是从零开始学习的,这种性质使得它对于棋类游戏、简单机械臂导引标定等框架确定,目标直接的环境有良好效果。

未来强化学习发展方向可分为三点:

1) 数学推导的完善。强化学习数学推导严谨,但复杂的环境或是非马尔可夫决策过程的场景无法进行严格的数学推导,需要提出完整的数学论述。强化学习调参困难,需要给出一套行之有效逻辑严谨的调参方法。

2) 与其他机器学习方法的结合。强化学习从零开始,这与一般智能体的成长逻辑不符,需要借助迁移学习等机器学习方法预先让智能体有知识可参照。深度学习与强化学习的结合可提高强化学习的采样与利用样本能力。

3) 针对特定问题的突破。强化学习在围棋方面的突破使得强化学习广受关注,也刺激了强化学习领域的发展,新领域的突破有发展空间。未来强化学习会在自动驾驶、船舶导航、医疗手术、机器人控制等领域有更多突破。

7. 总结

本文对强化学习的理论进行了剖析,分析了其中的数学推理合理性,讨论并分析了强化学习的广泛应用的基础方法,着重关注了其中的核心表达形式。文章分析了当下强化学习的主要研究方向及其典型方法。文章分析了当下强化学习的具体应用领域,对强化学习应用中的共同点与存在的问题进行了论述。文章基于现阶段强化学习的发展提出了自己的分析,并对未来强化学习的发展方向进行了展望。

参考文献

[1] Sutton, R.S. and Barto, A.G. (2018) Reinforcement Learning: An Introduction. MIT Press, Cambridge, 54-93.
[2] Konda, V.R. and Tsitsiklis, J.N. (2000) Actor-Critic Algorithms. Advances in Neural Information Pro-cessing Systems. NIPS Conference, Denver, Colorado, 29 November-4 December 1999.
[3] Silver, D., Lever, G., Heess, N., et al. (2014) Deterministic Policy Gradient Algorithms. International Conference on Machine Learning, Bei-jing, 21-26 June 2014, 387-395.
[4] Watkins, C.J.C.H. and Dayan, P. (1992) Q-Learning. Machine Learning, 8, 279-292.
[5] Fujimoto, S., Hoof, H. and Meger, D. (2018) Addressing Function Approximation Error in Actor-Critic Methods. International Conference on Machine Learning, Stockholm, 10-15 July 2018, 1587-1596.
[6] Heuillet, A., Couthouis, F. and Díaz-Rodríguez, N. (2021) Explainability in Deep Reinforcement Learning. Knowledge-Based Sys-tems, 214, Article ID: 106685.
https://doi.org/10.1016/j.knosys.2020.106685
[7] Madumal, P., Miller, T., Sonenberg, L., et al. (2020) Explainable Reinforcement Learning through a Causal Lens. Proceedings of the AAAI Con-ference on Artificial Intelligence, New York, 7-12 February 2020, 2493-2500.
[8] Sequeira, P. and Gervasio, M. (2020) Interestingness Elements for Explainable Reinforcement Learning: Understanding Agents’ Capabilities and Limi-tations. Artificial Intelligence, 288, Article ID: 103367.
https://doi.org/10.1016/j.artint.2020.103367
[9] Madumal, P., Miller, T., Sonenberg, L., et al. (2020) Distal Ex-planations for Explainable Reinforcement Learning Agents. arXiv:2001.10284.
[10] Liventsev, V., Härmä, A. and Petković, M. (2021) Neurogenetic Programming Framework for Explainable Reinforcement Learning. Proceedings of the Genetic and Evolutionary Computation Conference Companion, Lille, 10-14 July 2021, 329-330.
[11] Cruz, F., Daze-ley, R., Vamplew, P., et al. (2021) Explainable Robotic Systems: Understanding Goal-Driven Actions in a Reinforcement Learning Scenario. arXiv:2006.13615.
[12] Vaswani, A., Shazeer, N., Parmar, N., et al. (2017) Attention Is All You Need. 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, 4-9 December 2017, 11 p.
[13] Parisotto, E., Song, F., Rae, J., et al. (2020) Stabilizing Transformers for Reinforcement Learning. International Conference on Machine Learning, Virtual, 12-18 July 2020, 7487-7498.
[14] Janner, M., Li, Q. and Levine, S. (2021) Offline Reinforcement Learning as One Big Sequence Modeling Problem. arXiv:2106.02039.
[15] Chen, L., Lu, K., Rajeswaran, A., et al. (2021) Decision Transformer: Reinforcement Learning via Sequence Modeling. arXiv:2106.01345.
[16] Yarats, D., Fergus, R., Lazaric, A., et al. (2021) Reinforcement Learning with Prototypical Representations. International Conference on Machine Learning, Virtual, 18-24 July 2021, 11920-11931.
[17] Schwarzer, M., Rajkumar, N., Noukhovitch, M., et al. (2021) Pretraining Representations for Da-ta-Efficient Reinforcement Learning. 35th Conference on Neural Information Processing Systems (NeurIPS 2021), Vir-tual, 6-14 December 2021, 14 p.
[18] Hansen, N. and Wang, X. (2021) Generalization in Reinforcement Learning by Soft Data Augmentation. 2021 IEEE International Conference on Robotics and Automation (ICRA), Xi’an, 30 May-5 June 2021, 13611-13617.
https://doi.org/10.1109/ICRA48506.2021.9561103
[19] Brockman, G., Cheung, V., Pettersson, L., et al. (2016) OpenAI Gym. arXiv:1606.01540.
[20] Schrittwieser, J., Antonoglou, I., Hubert, T., et al. (2020) Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model. Nature, 588, 604-609.
[21] Gu, B. and Sung, Y. (2021) Enhanced Reinforcement Learning Method Combining One-Hot Encoding-Based Vectors for CNN-Based Alternative High-Level Decisions. Applied Sciences, 11, Article No. 1291.
https://doi.org/10.3390/app11031291
[22] Johannink, T., Bahl, S., Nair, A., et al. (2019) Residual Reinforcement Learning for Robot Control. 2019 International Conference on Robotics and Automation (ICRA), Montreal, 20-24 May 2019, 6023-6029.
https://doi.org/10.1109/ICRA.2019.8794127
[23] Zhang, R., Lv, Q., Li, J., et al. (2022) A Reinforcement Learn-ing Method for Human-Robot Collaboration in Assembly Tasks. Robotics and Computer-Integrated Manufacturing, 73, Article ID: 102227.
https://doi.org/10.1016/j.rcim.2021.102227
[24] Kiran, B.R., Sobh, I., Talpaert, V., et al. (2021) Deep Reinforce-ment Learning for Autonomous Driving: A Survey. IEEE Transactions on Intelligent Transportation Systems, 1-18.
https://doi.org/10.1109/TITS.2021.3054625
[25] Ma, X., Li, J., Kochenderfer, M.J., et al. (2021) Reinforcement Learning for Autonomous Driving with Latent State Inference and Spatial-Temporal Relationships. 2021 IEEE Interna-tional Conference on Robotics and Automation (ICRA), Xi’an, 30 May-5 June 2021, 6064-6071.
https://doi.org/10.1109/ICRA48506.2021.9562006
[26] Chen, J., Li, S.E. and Tomizuka, M. (2021) Interpretable End-to-End Urban Autonomous Driving with Latent Deep Reinforcement Learning. IEEE Transactions on Intelligent Transportation Systems, 1-11.
https://doi.org/10.1109/TITS.2020.3046646