1. 引言
现代物流和城市配送需求的快速增长,使异构车队配送在实际场景中展现出高效的适用性,逐渐成为车辆路径规划问题(Vehicle Routing Problem, VRP)的重要研究方向。其中,异构有容量限制的车辆路径规划问题旨在优化不同类型车辆(如容量和速度差异)的配送路径,以实现运输成本、时间和资源利用率的综合优化。然而,由于车辆异质性和复杂约束的存在,HCVRP属于典型的NP难题,其高效求解具有重要的理论意义和实际价值。
传统的HCVRP求解方法可分为两大类:精确算法和启发式算法。Jabali等[1]通过混合整数非线性规划推导HVRP的上下界。但其时间和空间复杂度随问题规模增大而指数增长,限制了实际应用。启发式算法(如模拟退火[2]、粒子群优化[3]和遗传算法[4])通过启发式规则探索解空间,能够在有限时间内找到接近最优解。然而,这些方法往往依赖于特定问题的启发式设计,难以适应动态环境,且在多目标优化任务中的泛化能力有限。
近年来,深度学习和强化学习的快速发展为复杂路径规划问题提供了全新的解决方案。深度强化学习结合了深度学习的特征提取能力和强化学习的决策优化能力,在高维决策空间和动态环境中表现出色。谷歌团队[5]利用Transformer模型解决旅行商问题和CVRP,展示了基于注意力机制的节点特征提取能力。Kool等[6]进一步结合监督学习和强化学习,显著提升了解的准确性。然而,目前大部分方法主要聚焦于同质车队场景,缺乏对异构车队复杂特性和多目标约束的全面建模和高效求解。
针对上述研究现状与挑战,本文提出了一种基于深度强化学习的新型HCVRP求解框架,以高效解决异构车队的路径优化问题。本文的主要创新点如下:
(1) 引入Linformer模型[7]:通过低秩近似的注意力机制,大幅降低传统Transformer模型的计算复杂度,从而提升在大规模问题中的效率和性能。
(2) 设计多关系节点选择解码器:结合动态节点向量的实时更新机制,根据车辆状态和路径历史优化节点选择,显著提高解的质量。
为验证所提方法的有效性,本文在多组随机生成的数据集上进行了实验,并与现有启发式算法和深度强化学习方法进行了对比分析。实验结果表明,本文方法在解质量和计算效率方面均具有显著优势,为复杂物流场景中的HCVRP问题提供了新视角和有效工具。
2. 问题描述与模型构建
在本节中,我们针对异构有容量限制的车辆路径规划问题(HCVRP)提出了问题模型,并进一步将其重构为强化学习模型。表1总结了HCVRP模型中涉及的参数与变量定义,以便清晰描述模型结构。
Table 1. Parameter and variable descriptions
表1. 参数和变量描述
符号 |
描述 |
|
客户节点数量 |
|
异构车辆数量 |
|
节点集,
,包括客户节点和配送中心,其中
表示配送中心 |
|
节点
的坐标,
,
,是一个三维向量 |
|
客户节点集,
,去除了配送中心 |
|
每个节点的二维坐标标识 |
|
节点
的需求量,配送中心的需求为0 |
|
异构车辆集,
|
|
每辆车的容量 |
|
如果车辆
直接从客户
到
那么这个值为1;反之为0 |
|
车辆
在从客户
行驶到客户
之前的剩余容量 |
|
所有车辆统一速度/车辆
的速度 |
|
节点
和节点
之间的欧几里得距离 |
2.1. 问题描述
HCVRP问题可以描述为:本文所提到的HCVRP可以描述为:在一个配送区域内,包含一个配送中心
和若干客户节点
。配送中心内拥有一支由
辆异构车辆
组成的车队,每辆车具有不同的容量
和
。每个客户节点
具有特定的需求量
,所有车辆从配送中心出发,依次访问客户节点完成配送任务,并最终返回配送中心,其目标是最小化车队中的车辆的最大行驶时间(MM-HCVRP)或最小化车辆所有车辆的总行驶时间(MS-HCVRP)。
2.2. 模型构建
为简化分析,我们假设所有车辆的行驶速度相同,这种设定易于扩展到具有不同速度的车辆场景。HCVRP的数学模型定义如下:
MM-HCVRP目标函数:
(1)
MS-HCVRP目标函数:
(2)
受以下约束条件的限制:
(3)
(4)
(5)
(6)
(7)
(8)
其中约束条件(2)和(3)确保每个客户仅被访问一次,并且每条路线由同一辆车完成。约束条件(4)通过确保在服务客户前后,货物负载的差异等于该客户的需求,来保证需求的满足。约束条件(5)和(6)确保车辆不超过其最大容量,并且决策变量是二进制的。
2.3. 马尔可夫决策模型
强化学习特别适用于处理复杂的序列决策问题,在本文中,HCVRP可以看成是一个序贯决策的马尔可夫决策过程(markov decision process, MDP),MDP由元组
表示,其中:
(1) 状态空间(S):时间步骤
下的状态
由车辆状态
和节点状态
组成:
车辆状态:
,其中
。
是车辆
在步骤
时的剩余容量。在此模型中,每个步骤的时间间隔定义为所选车辆完成当前操作所需的时间,即访问下一个客户或配送中心。此定义确保每个决策步骤对应于车辆的实际操作,保持了在现实场景中车辆异步操作的实用性。
是车辆
在步骤
时的累计行驶时间。
是车辆
在步骤
时的部分路径,其中
表示车辆
在步骤
访问的节点。所有
车辆的部分路径(路径中节点的数量)的维度保持不变,这意味着如果车辆
在步骤
被选中服务节点
,则其他车辆将继续访问各自的最后服务节点。
在初始状态(即
)时,初始车辆状态设置为
,其中
是车辆
的最大容量。
节点状态:
,其中
。
表示节点
的位置,是一个二维向量。
表示节点
的需求,在节点被服务后,需求
设为零。
(2) 动作空间(A):动作
涉及选择一辆车和一个客户或配送中心进行访问。具体来说,
,表示在时间步
时,车辆
将服务节点
。每个步骤只选择一辆车。
(3) 状态转移规则(ρ):状态转移规则ρ将根据执行的动作
将状态
转移到下一个状态
。车辆状态
的元素更新如下:
(9)
(10)
(11)
其中,
是
的最后一个元素,即车辆
在步骤
时访问的最后一个客户,[·,·,·]表示连接操作。节点状态
的元素更新如下:
(12)
其中,任何未被访问的需求将保持为0。
(4) 奖励函数(R):对于MM-HCVRP,目标是最小化车队中车辆的最大行驶时间,奖励定义为该
值的负数,奖励通过在每个步骤中逐步累积每辆车的行驶时间来计算。奖励表示为
,其中
是所有车辆在步骤
时的增量行驶时间。对于MS-HCVRP,奖励定义为所有车辆的总行驶时间的负值,即
。具体来说,假设在步骤
和
时选择了节点
和
,并且这两个节点将由车辆
服务,奖励
被表示为一个m-维向量,如下所示:
(13)
其中,
是车辆
从节点
到节点
所花费的时间,奖励向量
中的所有其他元素均为0。
3. 求解算法设计
在本章中,我们提出了一种基于深度强化学习的模型来解决HCVRP。解决过程如图1所示。首先,我们展示了基于编码器–解码器结构的DRL模型,用于表示策略,其中在每个决策步骤中都会进行车辆和节点的选择,如图2所示。最后,我们描述了用于训练该模型的策略网络。
Figure 1. Solution process diagram
图1. 解法过程图
Figure 2. Model architecture diagram
图2. 模型架构图
在所采用的模型中,每个节点和配送中心的信息,以及车辆信息,输入到编码器中。编码器的输出与上下文信息一起被传递到解码器,以生成一系列信息。我们的目标是选择异构车辆访问每个节点(即选择一个最优序列),确保所有节点都被服务,同时最小化目标函数值。本文基于马尔可夫过程构建了解决方案,该过程包含若干元素,如状态
、动作
和策略
。在初始时刻,状态被初始化为
。策略
用于选择下一时间步的动作
,并将状态更新为
,直到达到终止状态
在时间
时为止。通过训练神经网络模型,优化训练参数
,使得模型学习到一个能够最小化随机策略的策略
。本文定义了一个随机选择策略
,其定义如下:
(14)
3.1. 嵌入层
嵌入层提取当前解的两个部分特征,包括每个节点的个体特征,并通过线性变换得到
。节点的个体特征是直观的,包括与问题实例相关的静态特征和与当前解高度相关的动态特征。静态特征包括:节点
的
轴坐标
、
轴坐标
和需求
。动态特征包括:在节点
处,车辆
的负载
和该车辆的容
量
。最终输入到HCVRP问题的是
,这些特征通过线性层转换为隐藏向量
。
3.2. 编码器
如图所示,编码器的结构由
个线性注意力层组成。每个线性注意力层由多头线性注意力机制和前馈网络组成。编码器的输入是每个节点的隐藏特征
,输出是每个节点的编码特征以及图的特征。
Figure 3. MHA and MHLA legend
图3. MHA和MHLA图例
首先,节点嵌入向量
被传递到具有
层的编码器中,其中编码器的每一层主要由多头线性注意力(MHLA) (如图3)和前馈层(FF)组成。线性自注意力机制的核心思想是在计算Key和Value时引入两个线性投影矩阵
,将原始的
和
从
维度变换为
维度。随后,使用缩放点积注意力计算一个
维的注意力矩阵
,并利用
计算每个注意力头的输出。计算过程如下:
(15)
(16)
其中,
是MHA第
层中的可学习参数。最后,将每个注意力头获得的注意力特征连接起来,以实现更好的特征表示。在每个注意力层的计算过程中,仅需要
的时间和空间复杂度。如果选择一个非常小的投影维度
,例如
,可以显著减少内存和空间消耗。MHA和MHLA的区别如图4所示。随后,使用前馈神经网络、残差连接和批量归一化来处理第
层多头注意力的输出,如公式(17)所示:
(17)
(18)
3.3. 解码器
3.3.1. 车辆选择解码器
车辆选择解码器用于生成选择特定车辆的概率分布。该概率分布主要依赖于两种嵌入:车辆特征嵌入和路径特征嵌入。这些嵌入反映了车辆和路径的特性,从而帮助模型做出有效的车辆选择决策。
(1) 车辆特征嵌入:为了捕捉每辆车在当前步骤的状态,我们定义车辆特征上下文
在步骤
的形式如下:
(19)
其中,
表示车辆
在步骤
时部分路径上的最后一个节点
的位置,
表示车辆
到步骤
为止的累计行驶时间。然后,车辆特征上下文通过可训练的参数
和
进行线性投影,并通过一个具有ReLU激活函数的512维前馈全连接层进一步处理,从而得到时间步
时的车辆特征嵌入
,表示如下:
(20)
(2) 路径特征嵌入:路径特征嵌入从所有车辆的现有部分路径中提取信息,帮助策略网络从先前步骤中访问的节点中学习。对于每辆车
在步骤
时,我们将其路径特征上下文
定义为其部分路径
中节点的嵌入排列(即,
是节点
的节点嵌入)。具体来说,每辆车的路径特征上下文
定义如下:
(21)
其中,
(第一维的大小为
,因为在步骤
时,
应包含
个元素),
表示车辆
在其部分路径
中第
个节点的对应节点嵌入
。然后,所有车辆的路径特征上下文通过最大池化和连接操作进行聚合,以获得整个车队的路径特征
。该特征随后通过具有可训练参数
和
的线性投影以及一个512维的前馈全连接层进行处理,以获得时间步
时的路径特征嵌入
,表示如下:
(22)
(23)
(24)
最后,车辆特征嵌入
和路径特征嵌入
被连接在一起,并通过具有参数
和
的线性投影进行处理,然后通过softmax函数计算出概率向量,如下所示:
(25)
(26)
其中,
及其元素
表示在时间步
选择车辆
的概率。根据策略,可以通过贪婪地选择最高概率的车辆,或者根据概率向量
进行采样来选择车辆。选择的车辆
将作为节点选择解码器的输入。
3.3.2. 多关系节点选择解码器
我们设计了一个多关系节点选择解码器(如图4),以更好地捕捉节点之间的动态关系。给定来自编码器的节点嵌入和来自车辆选择解码器的选定车辆
,节点选择解码器输出一个针对所有未服务节点的概率分布
(先前步骤中已服务的节点会被屏蔽),用于确定选定车辆应该访问的节点。解码过程持续进行,直到车辆达到其容量限制,最终目标是通过学习的策略最大化奖励。
Figure 4. Node decoder and Multi-relational node decoder legend
图4. 节点解码器和多关系节点解码器图例
在基于注意力的强化学习模型中,上下文嵌入由图嵌入
、第一个选定节点
和最后一个选定节点
组成。
(27)
由于图嵌入是通过对所有节点嵌入进行平均静态生成的,因此唯一随时间变化的组件是最后选定的节点,这不足以捕捉状态转移的动态特征。在多关系节点选择解码器中,为了丰富上下文表示,上下文信息进一步修正如下:
(28)
(29)
(30)
(31)
其中,
和
是可训练参数,
是已访问节点的掩码矩阵,
表示节点嵌入。这里,
表示与已访问节点相关的节点嵌入,
表示与未访问节点相关的节点嵌入。通过计算已掩蔽关系
和
的平均值,得到已访问图嵌入
和未访问图嵌入
。这些嵌入与最后访问的节点
结合,形成增强的多关系上下文特征:
(32)
多关系上下文特征
表示当前时间步
时节点和车辆的总特征。然后,上下文向量被输入到多头线性注意力机制中。节点解码器和多关系节点解码器的结构如图4所示。与编码器架构中的MHLA不同,这里Query来自上下文向量,而Key和Value来自节点嵌入。其定义如下:
(33)
其中,
,
,
,
和
是可训练参数,类似于编码器。然后,通过将增强的上下文
与
进行比较,生成概率分布:
(34)
这里,
和
是可训练参数,我们使用
来将
截断在
范围内。解码器对客户点进行掩蔽操作。每个节点的选择概率使用softmax函数进行归一化:
(35)
在训练阶段,我们采用基于解码器输出概率
的采样解码方法。在测试阶段,我们使用贪婪解码方法,选择最高概率值
。
3.4. 训练策略
本文使用策略梯度方法来训练模型。目标函数
是期望奖励,基于参数
进行评估:
(36)
在训练过程中,我们使用两个网络来表示:
(1) 策略网络
,根据概率分布
解码以获得样本的总成本;
(2) 基准网络
,用于评估训练过程中的性能,并通过
来消除训练的方差。在每个训练周期中,通过每次更新中的采样策略获得平均目标
,并使用Adam优化器更新参数
。
4. 实验验证
本节展示了我们提出的深度强化学习方法在解决HCVRP中的实验评估,该问题涉及具有不同容量的车辆车队。车辆从配送中心出发,穿越客户节点以满足需求,目标是最小化所有车辆的总行驶时间或最大行驶时间。
4.1. 实验设置
我们设计了实验,旨在全面评估基于DRL的解决方案,特别是在涉及异构车队的场景下。车辆从中央配送中心出发,按照预定路线随机分布的客户需求进行配送。为了确保严格的评估,问题实例的生成和实验参数设置如下。
仓库和客户位置的坐标在单位正方形
内随机抽样。客户需求在集合
中随机分配,配送中心的需求固定为零。我们评估了两种车队组成,V3和V5,V3的容量为20、25和30,V5的容量为20、25、30、35和40。为了评估可扩展性,每个车队的客户数量分别为:V3为40、60、80和100,V5为80、100、120和140。
我们进行了实验,以评估两种HCVRP配置:MM-HCVRP和MS-HCVRP。在MM-HCVRP中,所有车辆的标准速度为1.0,以便在不同车辆容量的路径之间进行公平比较。在MS-HCVRP中,车辆的速度与其容量成反比,以防止大容量车辆的过度使用,并最小化总行驶时间。
训练过程中使用动态生成的实例,以确保模型对不同客户需求的鲁棒性和适应性。每个训练周期包括1,280,000次迭代,分为2,500个小批量。由于超过50个周期后收益递减,训练限制为50个周期。节点和车辆特征嵌入到128维空间中,并通过车辆和节点选择解码器处理。使用Adam优化器,初始学习率为10-4,每个周期衰减0.995。为了稳定训练,梯度范数被裁剪为3.0,并应用了0.05的衰减系数。
验证使用了每个问题规模1,280个实例,以确保实验之间的一致性。所有实验都在相同的硬件上进行,以消除计算差异带来的不一致性,确保公平的性能评估。
4.2. 比较分析
为了评估我们提出的基于DRL的方法的有效性,我们进行了比较分析,涉及几种经典的启发式算法和一种先进的DRL方法。由于获得MM-HCVRP的最优解的计算复杂性,尤其是在较大的实例中,启发式方法被用作基准,以提供实际的参考标准。为确保实验公平性,所有方法在相同数据集、硬件条件和时间限制下运行,并统一设置超参数和随机种子。此外,基准方法的启发式设计和深度学习模型均经过调整,以适应实验场景。
本研究中的基准方法包括:字符串移除的松弛诱导法(SISR)、蚁群优化算法(ACO)、萤火虫算法(FA)和基于深度强化学习的注意力模型(AM)。SISR [8]在解决CVRP及其变种时表现出色,通常在目标值和最优间隙方面优于LKH3启发式算法。ACO方法[9]专门为带时间窗的异构车辆路径规划问题进行了修改,通过并行构造所有蚂蚁的解来加速计算,显著减少计算时间。FA方法[10]是传统萤火虫算法的增强版本,旨在更有效地解决异构固定车队路径规划问题。最后,AM [6]是最先进的DRL方法,通过强化学习在决策过程中学习节点选择策略,用于构建TSP和CVRP问题的解。
为了确保比较的一致性,我们调整了基准配置,包括目标函数和相关参数,使其与MM-HCVRP的设置一致。具体来说,ACO和FA的迭代设置根据问题规模线性扩展,以增强性能,偏离了通常使用固定迭代次数的做法。对于SISR,我们遵循其原始的迭代策略,允许迭代次数随问题复杂度增加,从而确保在不同问题规模下公平比较算法性能。对于MS-HCVRP场景,使用与MM-HCVRP实验相同的启发式基准方法。
除了经典的基准方法,我们还使用两种不同的动作选择策略来评估我们的基于DRL的方法。第一种是贪婪动作选择策略,完全依赖于策略网络的输出。在每个决策步骤中,选择概率最高的车辆–节点对。我们在结果中将此策略表示为AM (Greedy)和Paper (Greedy)。第二种策略是采样动作选择,它基于解码器输出的概率分布进行采样,而不是选择具有最高概率的动作。每个动作的采样是根据其概率进行的,引入了解的多样性。概率是通过对解码器输出进行softmax操作定义的,每个动作采样S次,从采样集中选择最佳解。在我们的实验中,S被设置为1,280和12,800,相应的结果分别表示为AM (S = 1280)、Paper (S = 1280)和AM (S = 12800)、Paper (S = 12800)。
为了确保评估的可靠性,我们在MM-HCVRP和MS-HCVRP场景下,使用三辆车和五辆车的车队进行比较。结果呈现在表2、表3、表4和表5中,包括每种设置的关键指标,如平均目标值(Obj.)、最优间隙(Gap)和计算时间(Time)。由于优化MM-HCVRP的计算成本较高,最优间隙是通过将每个方法的目标值与所有试验中表现最好的方法进行比较计算的。报告的结果是三次独立运行的平均值,确保我们的发现具有可靠性和可重复性。
我们的分析表明,所提出的基于DRL的方法在提供竞争性解的质量的同时,显著减少了计算时间,特别是相比于传统的启发式方法。这些结果突出了我们方法在高效解决大规模异构车辆路径规划问题中的潜力。
从表2的实验结果可以看出,对于具有三辆车的MM-HCVRP和MS-HCVRP实例,精确求解器(SISR)在小规模问题(V3-C40和V3-C60)中实现了最小的平均目标值和最优间隙,并且计算时间相对较短。然而,随着问题规模的增大(V3-C80和V3-C100),SISR的计算时间呈指数增长,导致其在大规模问题中的计算效率降低,使其在现实应用中不具备实用性。
我们的DRL方法(Paper)在不同策略下(贪婪和采样(S = 1280和S = 12800))表现出色。特别是在V3-C100的MM-HCVRP实例中,Paper (S = 12800)达到了最低的平均目标值(9.00)和间隙(1.24%),优于其他基准方法。这证明了采样策略在提高解质量方面的有效性。增加采样大小理论上能带来更好的解,尽管计算时间较长。虽然S = 12800的计算时间(6.44秒)略长于S = 1280 (3.19秒)和贪婪策略(1.28秒),但仍显著短于SISR (1135秒)。
对于MS-HCVRP,Paper (S = 12800)提供了具有竞争力的结果,分别为127.29和2.15%,同时显著减少了与SISR和其他启发式算法相比的计算时间。这表明,尽管我们的DRL方法的计算时间可能稍高于AM算法,但它提供了更优的解质量,特别是在大规模问题中。
Table 2. Comparison of the DRL method and the benchmark method for three vehicles
表2. 三辆车的DRL方法与基准方法比较
|
方法 |
V3-C40 |
V3-C60 |
V3-C80 |
V3-C100 |
Obj. |
Gap |
Obj. |
Gap |
Obj. |
Gap |
Obj. |
Gap |
Min-max |
SISR |
4.00 |
0% |
5.58 |
0% |
7.27 |
0% |
8.89 |
0% |
ACO |
4.31 |
7.75% |
6.18 |
10.75% |
8.14 |
11.97% |
10.05 |
13.05% |
续表
|
FA |
4.49 |
12.25% |
6.30 |
12.90% |
8.32 |
14.44% |
10.11 |
13.72% |
AM (Greedy) |
4.85 |
21.25% |
6.57 |
17.74% |
8.32 |
14.44% |
9.98 |
12.26% |
AM (S = 1280) |
4.36 |
9.00% |
5.99 |
7.39% |
7.73 |
6.33% |
9.36 |
5.29% |
AM (S = 12800) |
4.31 |
7.75% |
5.92 |
6.09% |
7.66 |
5.36% |
9.28 |
4.39% |
Paper (Greedy) |
4.33 |
8.25% |
5.97 |
6.45% |
7.71 |
6.05% |
9.38 |
5.51% |
Paper (S = 1280) |
4.14 |
3.50% |
5.74 |
2.89% |
7.45 |
2.48% |
9.04 |
1.69% |
Paper (S = 12800) |
4.10 |
2.50% |
5.69 |
1.97% |
7.40 |
1.79% |
9.00 |
1.24% |
Min-sum |
Exact-solver |
55.43 |
0% |
78.47 |
0% |
102.42 |
0% |
124.61 |
0% |
SISR |
55.79 |
0.65% |
79.12 |
0.83% |
103.41 |
0.97% |
126.19 |
1.27% |
ACO |
60.11 |
8.44% |
86.05 |
9.66% |
113.75 |
11.06% |
140.61 |
12.84% |
FA |
59.94 |
8.14% |
85.36 |
8.78% |
112.81 |
10.14% |
138.92 |
11.48% |
AM (Greedy) |
66.54 |
20.04% |
91.19 |
16.21% |
117.22 |
14.45% |
141.14 |
13.27% |
AM (S = 1280) |
60.95 |
9.96% |
85.74 |
9.26% |
111.78 |
9.14% |
135.61 |
8.83% |
AM (S = 12800) |
60.26 |
8.71% |
84.96 |
8.27% |
110.94 |
8.32% |
134.72 |
8.11% |
Paper (Greedy) |
58.68 |
5.86% |
82.91 |
5.66% |
107.92 |
5.50% |
130.98 |
5.11% |
Paper (S = 1280) |
56.93 |
2.71% |
80.50 |
2.59% |
104.64 |
2.22% |
127.94 |
2.67% |
Paper (S = 12800) |
56.82 |
2.51% |
80.23 |
2.24% |
104.51 |
2.04% |
127.29 |
2.15% |
Table 3. Comparison of the calculation time of the DRL method and the benchmark method for three vehicles
表3. 三辆车的DRL方法与基准方法的计算时间比较
|
方法 |
V3-C40 |
V3-C60 |
V3-C80 |
V3-C100 |
Time |
Time |
Time |
Time |
Min-max |
SISR |
245 s |
468 s |
752 s |
1135 s |
ACO |
209 s |
317 s |
601 s |
878 s |
FA |
168 s |
285 s |
397 s |
522 s |
AM (Greedy) |
0.37 s |
0.54 s |
0.82 s |
1.07 s |
AM (S = 1280) |
0.88 s |
1.19 |
1.81 s |
2.51 s |
AM (S = 12800) |
1.35 s |
2.46 s |
3.67 s |
5.17 s |
Paper (Greedy) |
0.65 s |
0.74 s |
0.98 s |
1.28 s |
Paper (S = 1280) |
1.20 s |
1.32 s |
1.97 s |
3.19 s |
Paper (S = 12800) |
1.54 s |
2.84 s |
4.32 s |
6.44 s |
Min-sum |
Exact-solver |
71 s |
214 s |
793 s |
2512 s |
SISR |
254 s |
478 s |
763 s |
1140 s |
ACO |
196 s |
302 s |
593 s |
859 s |
FA |
164 s |
272 s |
388 s |
518 s |
AM (Greedy) |
0.49 s |
0.83 s |
1.01 s |
1.23 s |
AM (S = 1280) |
0.92 s |
1.17 s |
1.79 s |
2.49 s |
续表
|
AM (S = 12800) |
1.35 s |
2.31 s |
3.61 s |
5.19 s |
Paper (Greedy) |
0.54 s |
0.92 s |
1.05 s |
1.46 s |
Paper (S = 1280) |
1.09 s |
1.36 s |
2.18 s |
3.27 s |
Paper (S = 12800) |
1.52 s |
2.77 s |
4.41 s |
6.45 s |
在五辆车的实例中,我们的DRL方法的有效性得到了进一步验证。在V5-C140 MM-HCVRP实例中,从表4和表5的实验结果中显示,Paper (S = 12800)达到了最低的平均目标值(6.44)和间隙(1.74%),同时显著减少了计算时间(10.56秒),与SISR(1863秒)相比。尽管AM算法速度更快(8.73秒),但其解的质量不如我们的DRL方法。
对于MS-HCVRP,五辆车的结果进一步验证了我们方法的有效性。在V5-C140实例中,Paper (S = 12800)达到了最低的平均目标值(174.75)和间隙(1.08%),并且计算时间(10.91秒)表现良好。
Table 4. Comparison of the DRL method and the benchmark method for five vehicles
表4. 五辆车的DRL方法与基准方法比较
|
方法 |
V5-C80 |
V5-C100 |
V5-C120 |
V5-C140 |
Obj. |
Gap |
Obj. |
Gap |
Obj. |
Gap |
Obj. |
Gap |
Min-max |
SISR |
3.90 |
0% |
4.72 |
0% |
5.48 |
0% |
6.33 |
0% |
ACO |
4.50 |
15.38% |
5.56 |
17.80% |
6.47 |
18.07% |
7.52 |
18.80% |
FA |
4.61 |
18.21% |
5.62 |
19.07% |
6.58 |
20.07% |
7.60 |
20.06% |
AM (Greedy) |
4.84 |
24.10% |
5.70 |
20.76% |
6.57 |
19.89% |
7.49 |
18.33% |
AM (S = 1280) |
4.32 |
10.77% |
5.18 |
8.75% |
6.03 |
10.04% |
6.93 |
9.48% |
AM (S = 12800) |
4.25 |
8.97% |
5.11 |
8.26% |
5.95 |
8.58% |
6.86 |
8.37% |
Paper (Greedy) |
4.29 |
10.00% |
5.12 |
8.47% |
5.88 |
7.30% |
6.71 |
6.00% |
Paper (S = 1280) |
4.05 |
3.85% |
4.89 |
3.60% |
5.62 |
2.55% |
6.48 |
2.38% |
Paper (S = 12800) |
4.00 |
2.56% |
4.85 |
2.75% |
5.58 |
1.82% |
6.44 |
1.74% |
Min-sum |
Exact-solver |
102.42 |
0% |
124.63 |
0% |
- |
- |
- |
- |
SISR |
103.49 |
1.04% |
126.35 |
1.38% |
149.18 |
0% |
172.88 |
0% |
ACO |
118.58 |
15.78% |
146.51 |
17.56% |
171.82 |
15.18% |
200.73 |
16.11% |
FA |
116.13 |
13.39% |
142.39 |
14.25% |
167.87 |
12.53% |
196.48 |
13.65% |
AM (Greedy) |
128.31 |
25.28% |
152.91 |
22.69% |
177.39 |
18.91% |
201.85 |
16.76% |
AM (S = 1280) |
119.41 |
16.59% |
144.23 |
15.73% |
168.95 |
13.25% |
193.65 |
12.01% |
AM (S = 12800) |
118.04 |
15.25% |
142.79 |
14.57% |
167.45 |
12.25% |
192.13 |
11.13% |
Paper (Greedy) |
107.82 |
5.27% |
130.88 |
5.01% |
153.69 |
3.02% |
177.88 |
2.89% |
Paper (S = 1280) |
105.21 |
2.72% |
127.52 |
2.32% |
151.01 |
1.23% |
174.86 |
1.15% |
Paper (S = 12800) |
104.64 |
2.17% |
127.06 |
1.95% |
150.69 |
1.01% |
174.75 |
1.08% |
Table 5. Comparison of the calculation time of the DRL method and the benchmark method for five vehicles
表5. 五辆车的DRL方法与基准方法的计算时间比较
|
方法 |
V5-C80 |
V5-C100 |
V5-C120 |
V5-C140 |
Time |
Time |
Time |
Time |
Min-max |
SISR |
727 s |
1091 s |
1572 s |
1863 s |
ACO |
612 s |
890 s |
1285 s |
2081 s |
FA |
412 s |
541 s |
682 s |
822 s |
AM (Greedy) |
1.08 s |
1.31 s |
1.74 s |
1.93 s |
AM (S = 1280) |
1.88 s |
2.64 s |
3.38 s |
4.47 s |
AM (S = 12800) |
3.7 s |
5.19 s |
6.94 s |
8.73 s |
Paper (Greedy) |
1.22 s |
1.56 s |
2.26 s |
2.24 s |
Paper (S = 1280) |
2.41 s |
3.45 s |
4.88 s |
6.22 s |
Paper (S = 12800) |
4.93 s |
6.80 s |
9.42 s |
10.56 s |
Min-sum |
Exact-solver |
1787 s |
6085 s |
- |
- |
SISR |
735 s |
1107 s |
1580 s |
1881 s |
ACO |
608 s |
865 s |
1269 s |
1922 s |
FA |
401 s |
532 s |
677 s |
801 s |
AM (Greedy) |
0.82 s |
1.28 s |
1.45 s |
1.69 s |
AM (S = 1280) |
1.84 |
2.66 s |
3.63 s |
4.68 s |
AM (S = 12800) |
3.74 s |
5.20 s |
7.02 s |
8.93 s |
Paper (Greedy) |
1.11 s |
1.54 s |
1.99 s |
2.83 s |
Paper (S = 1280) |
2.53 s |
4.02 s |
5.07 s |
6.58 s |
Paper (S = 12800) |
5.16 s |
7.44 s |
8.86 s |
10.91 s |
通过比较三辆车和五辆车的结果,我们提出的DRL方法在不同规模和目标下表现出一致的性能。虽然精确求解器(SISR)在小规模问题中表现良好,但在大规模问题中的计算时间急剧增加,限制了其实际应用。而我们的DRL方法在显著减少计算时间的同时,保持了较高的解质量,特别是在大规模问题中。
与传统的启发式算法如ACO和FA相比,我们的方法在解的质量和计算效率上均展现出显著优势。使用采样策略(S = 1280和S = 12800)进一步提升了解的质量,验证了其有效性。尽管在某些情况下,计算时间可能略高于AM算法,但解的质量仍然优越,且计算时间处于可接受范围内。
总之,我们的方法在解决HCVRP问题方面展示了显著的优势。尽管本研究中进行的实验集中于较小规模的问题,但模型的架构设计——特别是Linformer和多关系节点选择解码器的集成——提供了固有的可扩展性优势。Linformer通过低秩近似有效管理了计算复杂性,使得该模型能够应用于更大的数据集,而计算负担不会显著增加。
5. 结论
本文提出了一种基于深度强化学习的新型HCVRP求解框架,通过引入低秩注意力机制的Linformer模型和动态节点特征建模,显著提升了解的质量和计算效率。本文的主要结论包括以下几点:(1) 计算复杂度的优化:Linformer 模型通过低秩近似的注意力机制,有效降低了传统 Transformer模型在处理大规模 HCVRP问题时的计算复杂度。(2) 解质量的提升:动态节点特征建模结合多关系解码器,能够在复杂场景下优化车辆路径,显著提升了解的质量,尤其是在多目标优化任务中的表现。