面向电子商务仓储的深度强化学习物流车导航技术
Indoor Logistics Vehicle Navigation Technology Based on Deep Reinforcement Learning for E-Commerce Warehousing
摘要: 在各个领域逐渐智能化的情况下,电商经济也正在向智能化过渡,机器人导航技术的持续进步及其与物流运输的深度融合,正逐步推动室内物流运输向智能化方向发展。然而,当前大多数室内物流小车采用的基于同时定位与建图(SLAM)技术的导航方法存在一定的局限性。这类方法依赖于地图先验知识,不仅需要投入大量的人工成本和高精度的传感器,而且在环境发生变化时,物流小车往往难以有效完成导航任务,甚至在特定环境下可能引发安全问题。针对这一问题,本文提出了一种新型的基于深度强化学习的导航模型。该方法在TD3 (Twin Delayed Deep Deterministic Policy Gradient)这一经典深度强化学习算法的基础上,构建了适用于智能物流小车的导航框架。通过在仿真环境中的训练,本方法实现了移动机器人在未知环境中的自主导航。实验结果表明,相较于传统导航算法,本方法在导航准确率上具有显著优势。
Abstract: In the context of increasing intelligence across various fields, the e-commerce economy is also transitioning towards intelligence. The continuous advancement of robot navigation technology and its deep integration with logistics transportation are gradually driving the direction of indoor logistics towards intelligence. However, most indoor logistics vehicles currently adopt navigation methods based on Simultaneous Localization and Mapping (SLAM) technology, which have certain limitations. These methods rely on map prior knowledge, requiring significant manual labor and high-precision sensors. Moreover, when the environment changes, logistics vehicles often struggle to effectively complete navigation tasks and may even cause safety issues in specific environments. In response to this problem, this paper proposes a new type of navigation model based on deep reinforcement learning. This method constructs a navigation framework suitable for intelligent logistics vehicles on the basis of the classic deep reinforcement learning algorithm TD3 (Twin Delayed Deep Deterministic Policy Gradient). Through training in a simulation environment, this approach has achieved autonomous navigation of mobile robots in unknown environments. Experimental results show that this method has a significant advantage in navigation accuracy compared to traditional navigation algorithms.
文章引用:曾以春, 李黔黔, 滚流海, 李志文, 雷乔之, 李熔鑫. 面向电子商务仓储的深度强化学习物流车导航技术[J]. 电子商务评论, 2024, 13(4): 5731-5739. https://doi.org/10.12677/ecl.2024.1341810

1. 引言

近年来,电子商务领域经历了显著的增长,然而,传统的物流模式已成为制约其发展的瓶颈。伴随着科技的持续进步,社会各领域逐步实现智能化,这进一步提升了公众对生活品质的期望。在此背景下,高昂的物流成本和漫长的配送延迟已不再为消费者所容忍。传统的物流手段难以满足日益增长的客户需求,从而影响了专业人员在全球化市场中的竞争力[1]。信息通信技术的迅猛发展推动了包括全球供应链管理在内的多个领域向数字化转型的深刻变革[2]。智能化供应链的构建为电子商务企业赢得了竞争优势[3]。在电商经济供应链中,物流智能化扮演着至关重要的角色,其对电商经济的深远影响不容忽视。

在过去几十年,由于SLAM技术[4],机器人导航技术得到了很好的发展,相应地,电子商务领域,物流也变得更加智能化。对于SLAM而言,操作人员根据位置和环境地标生成地图,地图的精度在很大程度上影响接下来的导航。这种依赖于地图先验知识的导航方式需要高昂的人工成本以及高精度的传感器,而且在某些环境里面还有可能导致安全问题等。因此,开发一种简单的无地图导航策略显得格外重要。2013年,Mnih等人提出了深度强化学习(Deep Reinforcement Learning, DRL)的概念[5],他们提出了深度Q网络(DQN),该网络仅基于图像输入就能学会玩Atari 2600游戏,并且取得了较好的成绩。自那时起,研究人员提出了许多使用DRL算法处理自主导航任务的方法。这些方法将导航描述为马尔可夫决策过程(MDP),其中传感器观测作为状态,目标是最大化行动的预期回报。这种导航方法不需要地图,而且可以降低对传感器精度的依赖。后来,Mnih等人在2015年在《自然》杂志上发表了关于DQN的相关工作,报告称经过训练的网络在玩了49款游戏后可以达到与人类相当的水平[6]。这一发表引发了广泛的关注,越来越多的研究人员意识到强化学习的各种优点,越来越多的人加大了强化学习在各个领域里面的应用的力度,包括但不限于机器人导航。但DQN及其变种只能处理离散和低维的动作空间,许多实际任务,尤其是物理控制任务,具有连续和高维的动作空间,为了解决这个问题,可以将动作空间离散化,但动作的数量将随着自由度的增加而指数级增长。2015年,Lillicrap等人在文献[7]中提出了DDPG,它使用基于策略梯度的方法来直接优化策略,可以用于具有连续动作空间的问题。如今,强化学习在机器人导航领域的应用越来越成熟,很多人在此领域提出了各种方法,提出了各种导航机制。在[8]中,他们利用激光扫描作为输入,提出了一种通过深度强化学习(DRL)进行目标驱动的未知环境探索的自主导航系统。除了激光扫描,也有的研究人员利用视觉图像开发基于DRL的导航系统[9]-[12]。有的学者将DRL与其他技术相结合,带来了不错的效果,在[13]中,他们提出了一种新颖的目标引导的变压器增强强化学习(GTRL)方法,将物理目标状态作为场景编码器的输入,以指导场景表征与目标信息相结合,实现高效的自主导航。他们都为导航技术的研究提供了巨大的学术价值。

在基于深度强化学习迅速发展的背景下,为了解决传统室内物流车导航存在的人工成本大,依赖高精度传感器等问题,我们设计了一个基于深度强化学习的物流车导航模型,使智能物流车能够在连续动作空间中进行导航,该模型以TD3为框架,我们在仿真环境下训练该模型,考虑到折扣因子以及奖励函数等对模型的影响较大,我们进行了大量的实验,不断探索折扣因子以及奖励函数等对模型的影响,加快模型收敛速度。我们与其他导航方法对比,评估我们模型的性能。本文希望能为智能物流提供一种可行的智能物流车导航模型,同时也希望能够为电商经济作出贡献。

2. 相关工作

在过去几十年里,机器人导航技术发展迅速,各种各样导航算法被提出。Dijkstra算法是一种用于寻找图中两点间最短路径的算法,它适用于没有负权边的加权图,并且可以找到从单一源点到所有其他点的最短路径,目前,有很多相关的学术论文供广大学者研究[14]-[16]。A*算法是一种启发式搜索算法[17],它结合了最佳优先搜索和Dijkstra算法的优点,通过一个估价函数来估算到达目标的最小成本,并优先探索这些路径,尽管A*算法通常比Dijkstra算法更快找到最短路径,但在某些情况下,特别是在高维空间中,其计算成本可能高于Dijkstra算法。RRT (Rapidly-exploring Random Tree)是一种用于路径规划的随机算法[18],相比于Dijkstra算法而言,RRT不需要预先知道环境的全局信息,也不需要构建一个完整的图来表示环境,它通过随机探索来逐渐构建路径,这使得RRT非常适合于未知或动态变化的环境,而且RRT通过随机采样来探索环境,这可以减少不必要的计算,特别是在障碍物分布稀疏的环境中。RRT* (Rapidly-exploring Random Tree with Optimization)是一种改进的RRT算法[19],旨在解决RRT算法在找到的路径可能不是全局最优路径的问题,RRT通过在路径上随机扩展并选择新的扩展点,以提高路径的效率和安全性。这使得RRT能够找到更短、更平滑的路径,虽然RRT*增加了路径优化步骤,但这一步骤通常只需要计算较少数量的扩展点,因此其总体计算效率可能仍然高于RRT。遗传算法(Genetic Algorithm,GA)是一种启发式搜索和优化算法,它受自然界中遗传和自然选择过程的启发,遗传算法(GA)是解决约束和不约束优化问题最早建立的一些启发式方法之一[20],为了解决路径规划问题,通常在应用GA之前对环境地图进行网格化,目前有很多相关的技术[21] [22],GA的优势在于它能够处理非线性、多峰的复杂优化问题,并且不需要问题的显式数学模型,然而,GA也存在一些局限性,如可能陷入局部最优解、计算成本较高以及参数设置对结果的影响较大等。

近年来,基于深度强化学习导航的技术迅速发展,深度强化学习是一种将深度学习与强化学习相结合的算法框架,用于解决需要大量经验学习复杂决策的问题。在导航技术领域,DRL算法可以用来训练机器人或无人地面车辆(UGV)在复杂环境中自主导航,避开障碍物,并到达目标位置,DRL算法能够处理高维环境信息,如激光雷达(LiDAR)或摄像头数据,通过深度神经网络(如卷积神经网络CNN)提取环境特征,DRL算法能够在实时环境中做出快速决策,这对于实时导航至关重要。2013年,Mnih等人提出了深度强化学习(DRL)的概念[5],他们提出了深度Q网络(DQN),深度Q网络(DQN)的主要贡献在于它将Q学习算法与深度神经网络相结合,使得强化学习算法能够处理高维输入,如图像和视频,并能够解决传统强化学习方法中难以处理的样本效率和稳定性问题。2015年,Lillicrap等人在文献[7]中提出了DDPG (Deep Deterministic Policy Gradient, DDPG),深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)是一种用于连续控制任务的深度强化学习算法,DDPG是Actor-Critic方法的一种变体,它结合了深度神经网络和确定性策略梯度算法,使得算法能够处理高维连续动作空间的问题。异步优势演员–评论家(Asynchronous Advantage Actor-Critic, A3C) [23]是演员–评论家(Actor-Critic)算法的一种扩展,它通过使用多个独立的代理在不同的环境中并行学习,并共享参数,从而提高了学习效率,A3C的成功使得强化学习算法能够处理大规模的复杂环境,并在多个Atari 2600游戏、模拟器环境和机器人控制等领域取得了显著的成就。软演员–评论家(Soft Actor-Critic, SAC)是演员–评论家(Actor-Critic)算法的一种变体[24],它通过引入熵正则化来鼓励探索,从而提高了算法的性能,SAC的成功使得强化学习算法能够处理连续控制任务,并在多个模拟器环境和机器人控制等领域取得了显著的成就。与A3C和DDPG等算法相比,SAC在性能和稳定性方面具有优势,特别是在需要探索的环境中。目前,很多研究人员在这些框架的基础上搭建自己的导航模型,我们在TD3 (Twin Delayed Deep Deterministic Policy Gradient)这一经典深度强化学习算法的基础上,构建了适用于智能物流小车的导航框架。

3. 方法

3.1. Value-Based Reinforcement Learning

基于价值的强化学习(Value-Based Reinforcement Learning)是一种强化学习的方法,它通过学习价值函数来指导决策过程。这种方法主要关注于预测状态(或状态–动作对)的价值,而不是直接学习策略。价值函数的目的是映射一个状态在该状态的期望价值,即从该状态开始并按照某种策略行动时,代理可以获得的期望折现回报。

对于一个代理,它在t时刻的奖励(Discounted Return)记为 U t

U t = R t +γ R t+1 + γ 2 R t+2 + γ 3 R t+3 +

通过对 U t 求期望,得到动作价值函数(Action-value function),记为 Q π ( s t , a t )

Q π ( s t , a t )=E[ U t | S t = s t , A t = a t ]

我们通过对动作价值函数求最大化,得到最优动作价值函数(Optimal Action-Value function),记为 Q * ( s t , a t )

Q * ( s t , a t )= max π Q π ( s t , a t )

最优动作价值函数反应了代理在状态t时刻,采取相应行为a的好坏程度,通过最优动作价值函数,可以使代理选择出最优行为。但是最优动作价值函数很难得到,于是,可以采取其他方法得到最优动作价值函数,DQN,使用卷积神经网络来表示最优动作价值函数,即使用神经网络 Q( s,a;w ) 近似 Q * ( s,a ) 。对于 Q( s,a;w ) ,其中,w是模型参数,s是模型输入,模型的输出是相应行为a的分数,通过这些分数的高低,可以指导代理选择动作。可以通过时序差分(Temporal-Difference, TD)学习算法训练 Q( s,a;w ) ,以下是一次迭代过程:

(1) 观测当前动作 s t 和执行的动作 a t

(2) 预测对应的值: q t =Q( s t , a t ; w t )

(3) 求导: d t = Q( s t , a t ;w ) w | w= w t

(4) 更新状态 S t+1 和奖励 r t

(5) 计算TD target: y t = r t +γ max a Q( s t+1 ,a; w t )

(6) 做梯度下降更新模型参数: w t+1 = w t α( q t y t ) d t

3.2. Policy-Based Reinforcement Learning

基于策略的强化学习(Policy-Based Reinforcement Learning)是强化学习的一种方法,其主要目标是找到最优策略 π ,以最大化期望的累积回报。这种方法的核心在于直接学习策略,而不是通过学习价值函数来间接指导策略。在基于策略的方法中,直接近似策略 π 而不需要学习价值函数。策略被参数化,例如,可以使用神经网络来表示策略 π 。这种方法的关键在于直接优化策略,以便在给定状态下选择能够最大化回报的行动。

对于一个代理,它在t时刻的奖励(Discounted return)记为 U t

U t = R t +γ R t+1 + γ 2 R t+2 + γ 3 R t+3 +

通过对 U t 求期望,得到行为价值函数,记为 Q π ( s t , a t )

Q π ( s t , a t )=E[ U t | S t = s t , A t = a t ]

通过对行为价值函数求期望,得到状态价值函数(State-value function),记为 V π ( s t )

V π ( s t )= E A [ Q π ( s t ,A ) ]

通过使用神经网络 π( a| s t ;θ ) 近似 π( a| s t ) ,则 V π ( s t ) 可以用 V( s t ;θ ) 近似,则可以得到策略梯度(Policy Gradient),记为 V( s;θ ) θ

V( s;θ ) θ = E A~π( |s;θ ) [ logπ( A|s;θ ) θ Q π ( s,A ) ]

采用蒙特卡洛近似计算期望,通过概率密度函数 π( |s;θ ) 采样动作 a ,则

g( a,θ )= logπ( a|s;θ ) θ Q π ( s,a )

使用 g( a,θ ) 近似策略梯度 V( s;θ ) θ 。使用策略梯度更新策略网络的步骤如下:

(1) 观测t时刻状态 s t

(2) 根据策略网络 π( | s t ; θ t ) 随机采样得到 a t

(3) 计算价值函数: q t Q π ( s t , a t )

(4) 计算导数: d θ,t = logπ( a t | s t ,θ ) θ | θ= θ t

(5) 计算近似策略梯度: g( a t , θ t )= q t d θ,t

(6) 更新策略网络: θ t+1 = θ t +βg( a t , θ t )

3.3. Actor-Critic Methods

Actor-Critic方法是强化学习领域中的一种重要算法,它结合了基于策略的方法(Actor)和基于价值的方法(Critic)。这种混合方法旨在解决单独使用每种方法时的局限性,在Actor-Critic框架中,一个代理(即“行动者”)学习一个策略来做出决策,而一个价值函数(即“评论家”)评估行动者所采取的行动。同时,评论家通过估计这些行动的价值或质量来评估它们,Actor-Critic方法的关键在于其两个主要组成部分:行动者和评论家。行动者的目标是学习一个最大化预期奖励的policy,而评论家的目标是学习一个准确的价值函数,用于评估行动者的行动。其具体流程如图1所示。

Figure 1. Actor-Critic algorithm flowchart

1. Actor-Critic方法流程图

在强化学习的上下文中,策略网络负责映射环境状态s到动作的概率分布π (a|s),从而生成动作a。在此基础上,价值网络对状态–动作对(s, a)进行评价,输出一个动作值q (s, a)。策略网络的参数优化目标为最大化由价值网络评估的期望回报。为了确保策略网络的自我改进过程的有效性,价值网络的评估必须具备较高的准确性。因此,价值网络亦需经历持续的参数更新过程。价值网络的参数更新依赖于接收到的即时奖励r,并通过时序差分(Temporal-Difference, TD)学习算法来调整其神经网络参数。具体而言,该过程旨在最小化价值网络预测的q值与实际获得的回报之间的差异,从而提高价值网络在强化学习中的评估能力。

4. 实验及结果分析

我们在装配了NVIDIA GeForce RTX 4060的计算机上训练我们的导航模型,我们每次微调超参数后需要训练两天,我们在测试时每次固定500个回合进行测试。我们在探索超参数对模型的收敛速度影响时,我们对比了三个指标,平均奖励,平均回合长度,成功率。在实验过程中,我们不断探索超参数对模型的影响,折扣因子决定了智能体对未来奖励的重视程度。折扣因子接近1时,智能体会更加重视长期奖励,而折扣因子接近0时,智能体则更倾向于考虑即时奖励。奖励函数在深度强化学习导航模型中扮演着至关重要的角色,它定义了智能体的学习目标,塑造其行为,影响收敛速度和鲁棒性,平衡探索与利用,解决稀疏奖励问题,因此,设计一个合适的奖励函数对于模型的学习效率、稳定性和最终性能至关重要。

首先我们探索最佳折扣因子,我们发现折扣因子不能过小,否则无法短时间收敛,或者无法收敛,于是,我们设置了四个折扣因子,0.60000,0.80000,0.90000,0.99999,除了0.99999以外,其余的折扣因子都无法使模型快速收敛,于是,我们将模型的折扣因子选为0.99999。最佳折扣因子确定以后,我们通过调整奖励函数,观察其对模型的影响,我们对比观察相应的平均奖励,平均回合长度,成功率等指标。

图2为奖励r = 100 (到达目标)和r = −100 (碰撞)的各指标变化图,我们选取了500个回合做测试,由图可知,每个回合的奖励大多数集中在70~100之间,这些大多是导航成功获得的奖励,也有一些奖励很小,这些是导航失败导致的。回合长度集中在20~100之间,这些大多是导航成功的回合长度,而有些回合长度为500,代表到了最大步数后没有到达目标点。成功率是累计的平均成功率,每个回合结束时,就会统计平均成功率,所以前面时,平均成功率不稳定,随着回合的增加,成功率越来越稳定,最终的成功率为0.814。

Figure 2. Chart of indicator changes with reward r = 100 (reaching the target) and r = −100 (collision)

2. 奖励r = 100 (到达目标)和r = −100 (碰撞)的各指标变化图

图3r = 120 (到达目标)和r = −120 (碰撞)时的各指标变化图,由于改变了奖励函数,所以奖励大多数集中在了100附近,这些都是到达目标的奖励,而那些负奖励则是碰撞后的奖励。值得注意的是,每个片段到达目标点的长度相较于r = 100 (到达目标)和r = −100 (碰撞)而言整体变少,同时,成功率也偏大一些,最终稳定在0.820附近。

Figure 3. Chart of indicator changes with reward r = 120 (reaching the target) and r = −120 (collision)

3. 奖励r = 120 (到达目标)和r =−120 (碰撞)的各指标变化图

图4r = 140 (到达目标)和r = −140 (碰撞)时的各指标变化图,相比于r = 120 (到达目标)和r = −120 (碰撞)而言,平均长度偏低一些,但是成功率也偏低一些,最终的平均成功率为0.810,我们计算出这三组不同的指标,如表1所示。

Figure 4. Chart of indicator changes with reward r = 140 (reaching the target) and r = −140 (collision)

4. 奖励r = 140 (到达目标)和r = −140 (碰撞)的各指标变化图

Table 1. Calculation values of various indicators corresponding to different reward values

1. 不同奖励值对应的各指标计算值

不同奖励值

平均奖励

平均回合长度

成功率

r = 100 (到达目标)和r = −100 (碰撞)

62.678

101.408

0.814

r = 120 (到达目标)和r = −120 (碰撞)

73.405

96.738

0.820

r = 140 (到达目标)和r = −140 (碰撞)

89.387

91.314

0.810

表1可知,奖励函数的设定对于模型的影响较大,一个较为适合的奖励函数会加快模型的收敛速度以及提升模型的性能,奖励函数过大或者过小都会使模型不能快速收敛,我们调整到达目标以及碰撞时的奖励,而其他的奖励不变,我们通过大量的实验,最终确定了最佳奖励函数,r = 120 (到达目标)和r = −120 (碰撞),在这两个值附近的其他值与之相差不大,这个值训练出来的模型成功率最高,然而r = 140 (到达目标)和r = −140 (碰撞)时,模型的平均回合长度最低。

5. 总结与展望

面向电子商务仓储的深度强化学习物流车导航技术,正引领着物流自动化和智能化的新浪潮。该技术巧妙地将深度学习的感知能力与强化学习的决策优势相结合,针对物流和仓储管理的具体挑战,实现了物流车在复杂仓储环境中的自主导航与精准定位。我们提出的导航技术不仅为电商经济在物流领域提供了一种高效的解决方案,还极大地减少了人工干预,降低了运营成本,并提升了货物处理的准确性和速度。展望未来,我们将不懈追求技术创新,持续优化算法以应对更加多样化的仓储场景,增强导航系统的稳定性和适应性。同时,我们也将探索与人工智能其他领域的融合,如机器视觉和自然语言处理,以进一步提升物流车的智能水平,推动电子商务仓储向更加智能、高效的方向发展。

参考文献

[1] Rejeb, A., Simske, S., Rejeb, K., Treiblmaier, H. and Zailani, S. (2020) Internet of Things Research in Supply Chain Management and Logistics: A Bibliometric Analysis. Internet of Things, 12, Article ID: 100318.
https://doi.org/10.1016/j.iot.2020.100318
[2] Inamdar, Z., Raut, R., Narwane, V.S., Gardas, B., Narkhede, B. and Sagnak, M. (2020) A Systematic Literature Review with Bibliometric Analysis of Big Data Analytics Adoption from Period 2014 to 2018. Journal of Enterprise Information Management, 34, 101-139.
https://doi.org/10.1108/jeim-09-2019-0267
[3] Raam, R. and Bhandari, R. (2014) Impact of Technology on Logistics and Supply Chain Management. IOSR Journal of Business and Management, 2, 19-24.
http://www.iosrjournals.org
[4] Yousif, K., Bab-Hadiashar, A. and Hoseinnezhad, R. (2015) An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics. Intelligent Industrial Systems, 1, 289-311.
https://doi.org/10.1007/s40903-015-0032-7
[5] Mnih, V., Kavukcuoglu, K., Silver, D., Graves, A., Antonoglou, I., Wierstra, D. and Riedmiller, M. (2013) Playing Atari with Deep Reinforcement Learning.
[6] Mnih, V., Kavukcuoglu, K., Silver, D., Rusu, A.A., Veness, J., Bellemare, M.G., et al. (2015) Human-Level Control through Deep Reinforcement Learning. Nature, 518, 529-533.
https://doi.org/10.1038/nature14236
[7] Lillicrap, T.P., Hunt, J.J., Pritzel, A., Heess, N., Erez, T., Tassa, Y., Silver, D. and Wierstra, D. (2015) Continuous Control with Deep Reinforcement Learning.
[8] Cimurs, R., Suh, I.H. and Lee, J.H. (2022) Goal-Driven Autonomous Exploration through Deep Reinforcement Learning. IEEE Robotics and Automation Letters, 7, 730-737.
https://doi.org/10.1109/lra.2021.3133591
[9] 何聪. 基于深度强化学习的机器人视觉导航算法[D]: [硕士学位论文]. 南京: 东南大学, 2021.
[10] Zhu, Y., Mottaghi, R., Kolve, E., Lim, J.J., Gupta, A., et al. (2017) Target-Driven Visual Navigation in Indoor Scenes Using Deep Reinforcement Learning. 2017 IEEE International Conference on Robotics and Automation (ICRA), Singapore, 29 May-3 June 2017, 3357-3364.
https://doi.org/10.1109/icra.2017.7989381
[11] Wu, K., Han, W., Abolfazli Esfahani, M. and Yuan, S. (2022) Learn to Navigate Autonomously through Deep Reinforcement Learning. IEEE Transactions on Industrial Electronics, 69, 5342-5352.
https://doi.org/10.1109/tie.2021.3078353
[12] 廉鹏飞. 基于融合时空特征的深度强化学习视觉避障与导航研究[D]: [硕士学位论文]. 北京: 北京化工大学, 2023.
[13] Huang, W., Zhou, Y., He, X. and Lv, C. (2024) Goal-Guided Transformer-Enabled Reinforcement Learning for Efficient Autonomous Navigation. IEEE Transactions on Intelligent Transportation Systems, 25, 1832-1845.
https://doi.org/10.1109/tits.2023.3312453
[14] Wang, H.J., Yu, Y. and Yuan, Q.B. (2011) Application of Dijkstra Algorithm in Robot Path-Planning. 2011 2nd International Conference on Mechanic Automation and Control Engineering, Hohhot, 15-17 July 2011, 1067-1069.
https://doi.org/10.1109/mace.2011.5987118
[15] Kang, H.I., Lee, B. and Kim, K. (2008) Path Planning Algorithm Using the Particle Swarm Optimization and the Improved Dijkstra Algorithm. 2008 IEEE Pacific-Asia Workshop on Computational Intelligence and Industrial Application, Wuhan, 19-20 December 2008, 1002-1004.
https://doi.org/10.1109/paciia.2008.376
[16] Liu, L., Lin, J., Yao, J., He, D., Zheng, J., Huang, J., et al. (2021) Path Planning for Smart Car Based on Dijkstra Algorithm and Dynamic Window Approach. Wireless Communications and Mobile Computing, 2021, Article ID: 8881684.
https://doi.org/10.1155/2021/8881684
[17] Loganathan, A. and Ahmad, N.S. (2023) A Systematic Review on Recent Advances in Autonomous Mobile Robot Navigation. Engineering Science and Technology, an International Journal, 40, Article ID: 101343.
https://doi.org/10.1016/j.jestch.2023.101343
[18] LaValle, S. (1998) Rapidly-Exploring Random Trees: A New Tool for Path Planning. Research Report 9811.
[19] Karaman, S., Walter, M.R., Perez, A., Frazzoli, E. and Teller, S. (2011) Anytime Motion Planning Using the RRT. 2011 IEEE International Conference on Robotics and Automation, Shanghai, 9-13 May 2011, 1478-1483.
https://doi.org/10.1109/icra.2011.5980479
[20] Holland, J.H. (1992) Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control, and Artificial Intelligence. The MIT Press.
https://doi.org/10.7551/mitpress/1090.001.0001
[21] Pehlivanoglu, Y.V. (2012) A New Vibrational Genetic Algorithm Enhanced with a Voronoi Diagram for Path Planning of Autonomous UAV. Aerospace Science and Technology, 16, 47-55.
https://doi.org/10.1016/j.ast.2011.02.006
[22] Samadi, M. and Othman, M.F. (2013) Global Path Planning for Autonomous Mobile Robot Using Genetic Algorithm. 2013 International Conference on Signal-Image Technology & Internet-Based Systems, Kyoto, 2-5 December 2013, 726-730.
https://doi.org/10.1109/sitis.2013.118
[23] Mnih, V., et al. (2016) Asynchronous Methods for Deep Reinforcement Learning. Proceedings of the 33rd International Conference on International Conference on Machine Learning, Volume 48, 1928-1937.
[24] Haarnoja, T., et al. (2018) Soft Actor-Critic Algorithms and Applications.