1. 引言
在信息化时代技术革新驱动下,多学科领域涌现出大量非线性化、高维度的待解难题。具有高效求解机制及实现门槛的智能优化算法日益成为学界研究热点,其设计理念多源于对自然规律的建模与重构。早期科研团队通过仿生学原理推导出遗传算法(GA) [1]、粒子群优化(PSO) [2]等经典方法,随着研究深入,学界持续拓展算法体系,陆续设计出包含蝴蝶优化算法(BOA) [3]、哈里斯鹰动态捕猎算法(HHO) [4]、正弦余弦调控算法(SCA) [5]、鲸鱼协同觅食优化算法(WOA) [6]等创新型计算框架。此类方法在工业调度、机器人路径规划等场景中展现出显著的应用潜力。
算术优化算法(Arithmetic optimization algorithm, AOA) [7]作为新一代智能优化工具,由Abualigah等人于2021年提出。其核心创新在于建立数学运算机制与搜索过程的内在映射。该方法通过解析加减乘除操作的数学特性,构建局部搜索与全局搜索阶段的动态平衡机制:乘除运算拓展解空间覆盖广度,加减操作实现邻域精细化调节。目前学者研究常见的改进方向有:郑婷婷等[8]引入概率分布调节参数,黄学雨等[9]建立三角函数辅助的局部逃逸策略,兰周新等[10]构建多模态特征融合框架。特别在机械结构优化、能源系统调度等领域,多代改进版AOA已被证实具有较强工程适用性。
针对现有算法在动态环境适应性和早熟收敛方面的不足,本研究设计了融合光学成像原理的算法增强方案[11]。首先改造数学优化加速器机制(MOA)以动态调节全局–局部搜索权重,其次在解空间挖掘阶段嵌入透镜反向聚焦策略,该机制通过模拟光学成像的正逆向传播过程提升种群多样性,从而增强复杂模型解空间的遍历能力。仿真实验证明,该混合策略能有效突破传统算法的收敛瓶颈。
2 算术优化算法
2.1. 初始化条件
首先对种群进行初始化,生成一个均匀分布的随机种群,其生成公式如下:
(2.1.1)
其中
为搜索上界,
为搜索下界,
为
间的随机数,
为初始化后的初始位置。
2.2. 函数加速器(Math Optimizer Accelerated, MOA)
在判断算法进行全局搜索还是局部寻优时,需要计算MOA的值并与
区间上的随机数
作比较,当
时,算法进入全局寻优阶段,反之则进入局部探索阶段。我们参考郑婷婷等运用t分布变异策略和动态边界策略混合改进的算术优化算法[8],采用MOA计算公式如下:
(2.2.1)
其中,加速函数值为
,加速函数的最小值为
,最大值和
,当前迭代次数为t,最大迭代次数为T。
2.3. 探索阶段
当控制系数MOA满足
时,算法启动全局探索模式,在此阶段,个体位置更新机制采用基于乘除法的高离散度运算模型,
作为搜索过程中的控制系数,
为随机比例系数,通过下列表达式更新候选解:
(2.3.1)
其中,
是
区间上的随机数,
为下一次迭代个体的位置,
为当前个体最优解。乘除算子的非线性特性可有效扩大搜索空间覆盖半径,提升解域的探索广度,为探索解空间的不同区域,保证解的多样化,算法引入数学优化概率(Math Optimizer Probability, MOP),其计算模型定义为:
(2.3.2)
其中,
是定义开发精度的敏感参数(根据参考文献[12]确定该值固定为5),该参数通过指数调节控制迭代中后期解集的收敛密实度。
当
时,算法切换至邻域精细开发模式,此阶段采用低离散度的加减法运算模型进行解空间局部遍历,增强候选解的精度锁定能力。其位置迭代形式可表示为:
(2.3.3)
其中,
是
区间上的随机数。
2.4. AOA实现步骤
设在D维搜索空间中有N个算子,算子i在t时刻的位置以及该算子在搜寻过程中所确定的最好位置分别记为
和
,引入函数加速器MOA与随机数
作比较判断搜索方式,
作为搜索过程中的控制系数,
为随机比例系数控制算子在区域搜索的范围及方式,取
、
、
、
则AOA算法的实现步骤如下表1:
Step 1:给定种群大小
、问题维度
、目标函数
、最大迭代次数
、令
Step 2:利用式子(2.1.1)初始化种群
,取
、
、
、
Step 3:评估每个算子的适应度值
Step 4:将生成随机数
与利用式(2.2.1)计算所得
作比较,判断搜索方式
Step 5:利用式(2.3.2)计算数学优化概率
Step 6:若
则通过式(2.3.1)更新位置,反之用(2.3.3)
Step 7:检查新位置的可能性并进行更新
Step 8:评估新位置的适应度值
Step 9:判断是否达成终止条件,若是转step 10;否则转step 4
Step 10:输出算子中当前最优记忆位置作为目标函数的解
Table 1. Pseudocode of the AOA
表1. 算术优化算法伪代码
算法1 |
算术优化算法(AOA) |
1. |
输入:初群体规模N、最大迭代次数T、令
,初始化
,取
、
、
、
|
2. |
While
do |
3. |
计算适应度并找到最小解
,更新MOA(t)、MOP(t)的值 |
4. |
for
do |
5. |
生成随机数
、
、
|
6. |
if
do |
7. |
计算
|
8. |
else |
9. |
计算
|
10. |
end if |
11. |
end for |
12. |
t = t + 1 |
13. |
end while |
14. |
输出最优解
|
3. 基于不同优化策略下的OBLAOA
算术优化算法凭借其计算框架简洁、调节维度低等特征,在工程应用等优化领域都展现了一定的优势,但是该算法仍然存在一定的局限性。一为开发深度不足,由于该算法的核心建立在四则运算的基础上,使得其迭代新解的过程容易陷入停止;二为算法参数敏感,其设置还需进行优化。针对上述缺陷,引用透镜成像反向学习策略的算术优化算法(OBLAOA)该策略示意图[13]如图1所示。引用该策略改进后的算法则可以在一定程度上地解决问题,但是其收敛速度、精度还有提升空间,并且该算法在一些情况下仍存在易陷入局部最优的问题。就上述问题,提出几种算法的改进策略,其中具有T分布扰动和透镜成像反向学习策略融合的算术优化算法(TOBLAOA)展现出更好地性能,该算法较于本章提出的其他几种混合策略的OBLAOA更有优势,下对提出的几种策略进行说明。
Figure 1. Schematic diagram of image formation by a convex lens
图1. 凸透镜成像示意图
3.1. T分布扰动策略(TOBLAOA)
当算法进入末尾阶段时,通常会达到一种局部搜索状态,但是由于搜索的不确定性,此时如果偏离前期的目标值,则会使得在算子在该局部的寻优都是无效的,为保障算子在后期寻优时的有效性,保证算子可以在最后寻优阶段仍然能跳出局部区域,将搜索群体随机弹送到距离目前区域更远的新区域,以此来达到寻求更有解的目的,达到真正的全局开发。本策略的改进目的在于增加变异扰动项和改变游走方式,引入随机性,与OBLAOA算法中生成的反向解相辅相成,增加解的多样性,从而避免早熟收敛。
T分布扰动策略(T-distribution Perturbation Strategy, TDPS)基于T分布的长尾特性生成随机扰动步长,平衡优化算法的全局探索与局部开发能力。通过自由度的动态调节,在迭代早期根据厚尾特性增强探索能力,后期近似高斯分布聚焦开发能力。其具体公式如下:
1) 自由度v动态衰减公式
(3.1.1)
其中
为当前迭代次数,
为最大迭代次数,
为自由度的初始值,
为自由度的终值,当
的值去向无穷大时,可以等同于标准的高斯分布,当
时,则可等同于柯西分布[14]。
2) 扰动生成公式:
(3.1.2)
受文献[15]中柯西分布、t分布和高斯分布函数分布图的启发,经过实验确定扰动强度系数
的取值在区间
内,
为服从自由度为
的T分布随机数(表2)。
Table 2. Pseudocode of the TOBLAOA algorithm
表2. T分布扰动及透镜成像反向学习的算术优化算法伪代码
算法2 |
T分布扰动及透镜成像反向学习的算术优化算法(TOBLAOA) |
1. |
输入:初群体规模
、最大迭代次数、令
,初始化参数
、
初始值
,终值
、取
、
、
、
|
2. |
初始化:生成初始种群
|
3. |
计算初始适应度
,记录全局最优解
和适应度 |
4. |
While
do |
5. |
更新
|
6. |
更新
|
7. |
更新
|
8. |
for i = 1 to N do |
9. |
生成随机数
、
、
及透镜成像的上下界
、
|
10. |
if
then (执行乘除法搜索策略) |
11. |
|
8. |
Else (执行加减法搜索策略) |
9. |
|
10. |
end if |
11. |
根据
更新种群原始最优解
|
12. |
根据
计算原始反向最优解
|
13. |
将原始反向最优解
替换原始最优解
后参与迭代 |
14. |
if
do |
15. |
计算动态自由度 |
16. |
计算最优扰动方向
|
13. |
end if |
|
更新个体最优 |
14. |
end for |
15. |
t = t + 1 |
16. |
end while |
17. |
输出全局最优解 |
3.2. 差分变异扰动策略(DMOBLAOA)
差分变异扰动策略(Differential Mutation Perturbation, DMP)差分变异通过种群中个体的向量差异生成扰动,生成新解,增强搜索方向的多样性,并可根据缩放因子通知扰动强度,控制扰动幅度的全局探索能力,当
时,放大差异向量,则增强全局搜索,当
时,压制差异向量,则偏向局部开发,具体公式如下:
(3.2.1)
其中,
为迭代中随机选取的三个不同的个体,并且
;
为区间
的放缩因子,通过控制扰动幅度来控制对全局的探索能力。
3.3. 三角形游走策略(TWOBLAOA)
三角形游走策略(Triangular Walk Strategy, TWS)基于三角形概率分布生成随机步长,其概率密度函数在区间
内呈对称或不对称的三角形形状,其形式为:
(3.3.1)
其中
为分布的范围边界,即搜索空间;
为众数的位置,即计算过程中当前最优解的附近。
3.4. 高斯游走策略(GWOBLAOA)
高斯游走策略(Gaussian Random Walk, GRW),扰动步长服从高斯分布,强调局部精细化搜索,步长自适应缩小,收敛稳定性强,高维条件下仍能保持解的质量。
(3.4.1)
其中
为标准差,会随着迭代动态衰减。
4. 仿真实验及结果分析
4.1. 基本参数设置
本仿真测试环境为:操作系统Windows 10,处理器12th Gen Intel(R) Core(TM) i7-12700H,主频2.30 GHz,内存16.0 GB。
Table 3. Algorithm parameter settings
表3. 算法参数设置
算法 |
参数设置 |
所有算法 |
|
TOBLAOA |
|
HHO |
|
SA |
|
SCA |
|
本文首先基于不同改进策略下的OBLAOA算法(即TOBLAOA、DWOBLAOA、TWOBLAOA、SWOBLAOA、AOA)进行对比,再与蝴蝶优化算法(BOA)、雷电附着优化算法(LAPO) [16]、哈里斯鹰优化算法(HHO)和遗传算法(SA)、黄金正弦算法(SCA)、神经网络优化算法(NNA) [17]算法进行对比。为保证实验的公平性、可比性、客观性,本文对一些算法的参数数值的设定进行了限制,具体要求见表3。
4.2. 基准测试函数
本文选取了不同测试函数集中具有不同性质的测试函数进行仿真实验。选取2005测试集中具有单峰(
)和多峰(
)特性的测试函数,选取2017测试集中具有多峰(
)特性的测试函数,选取2019测试集中单目标测试函数(
),对上述算法逐一进行仿真实验测试,测试函数具体信息如表4~6所示。
Table 4. CEC2005 benchmark test functions table
表4. CEC2005基准测试函数表
函数表达式 |
维度 |
范围 |
理论最小值 |
|
30 |
[−100, 100] |
0 |
|
30 |
[−10, 10] |
0 |
|
30 |
[−100, 100] |
0 |
|
30 |
[−100, 100] |
0 |
|
30 |
[−1.28, 1.28] |
0 |
|
30 |
[−5.12, 5.12] |
0 |
|
30 |
[−30, 32] |
0 |
|
30 |
[−600, 600] |
0 |
Table 5. CEC2017 benchmark test functions table
表5. CEC2017基准测试函数表
函数表达式 |
维度 |
范围 |
理论最小值 |
|
30/100 |
[−100, 100] |
600 |
|
30/100 |
[−100, 100] |
600 |
Table 6. CEC2019 benchmark test functions table
表6. CEC2019基准测试函数表
函数 |
函数名称 |
维度 |
范围 |
理论最小值 |
|
Stron’s Chebyshev Polynomial Fitting Problem |
9 |
[−8192, 8192] |
1 |
|
Inverse Hilbert Matrix Problem |
16 |
[−16,384, 16,384] |
1 |
|
Rastrigin’s Function |
10 |
[−100, 100] |
1 |
|
Modified Schwefel’s Function |
10 |
[−100, 100] |
1 |
|
Expamded Schaffer’s F6 Function |
10 |
[−100, 100] |
1 |
4.3. 不同改进策略算法的对比结果
对第3小节中给出的4种嵌入改进策略的OBLAOA算法与TOBLAOA进行对比测试。为了比较寻优性能,分别从min (最优适应度)、std (标准差)、avg (平均适应度)、worse (最差适应度)四个指标进行评价。每个算法均在基准测试函数上独立运行三十次,具体结果如表7:
Table 7. Experimental results of TOBLAOA with different improvement strategies
表7. 不同改进策略的TOBLAOA实验结果表
测试函数 |
Index |
TOBLAOA |
DMOBLAOA |
TWEOBLAOA |
GWOBLAOA |
AOA |
|
min |
0 |
0 |
0 |
0 |
5.89E−189 |
std |
0 |
0 |
0 |
0 |
0 |
avg |
0 |
0 |
0 |
0 |
5.97E−177 |
worse |
0 |
0 |
0 |
0 |
2.95E−176 |
|
min |
0 |
0 |
0 |
0 |
3.36E−91 |
std |
0 |
0 |
0 |
0 |
6.92E−77 |
avg |
0 |
0 |
0 |
0 |
3.09E−77 |
worse |
0 |
0 |
0 |
0 |
1.55E−76 |
|
min |
0 |
0 |
0 |
0 |
2.18E−167 |
std |
0 |
0 |
0 |
0 |
5.57E−141 |
avg |
0 |
0 |
0 |
0 |
2.49E−141 |
worse |
0 |
0 |
0 |
0 |
1.25E−140 |
|
min |
0 |
0 |
0 |
0 |
6.30E−85 |
std |
0 |
0 |
0 |
0 |
8.97E−72 |
avg |
0 |
0 |
0 |
0 |
4.01E−72 |
worse |
0 |
0 |
0 |
0 |
2.01E−71 |
|
min |
4.71E−05 |
3.53E−05 |
5.51E−05 |
4.21E−05 |
2.91E−04 |
std |
2.14E−05 |
1.63E−05 |
3.03E−05 |
1.55E−05 |
1.87E−04 |
avg |
5.78E−06 |
1.16E−06 |
1.14E−05 |
5.71E−06 |
5.45E−04 |
worse |
1.42E−05 |
1.42E−05 |
1.82E−05 |
8.04E−06 |
7.09E−04 |
|
min |
−3.63E+03 |
−3.13E+03 |
−2.58E+03 |
−2.59E+03 |
−4.23E+03 |
std |
−4.09E+03 |
−3.40E+03 |
−2.95E+03 |
−3.03E+03 |
387.6514 |
avg |
−5.03E+03 |
−4.31E+03 |
−3.15E+03 |
−3.31E+03 |
−3.89E+03 |
worse |
−3.92E+03 |
−3.19E+03 |
−3.12E+03 |
−3.03E+03 |
−3.27E+03 |
|
min |
0 |
0 |
0 |
0 |
0 |
std |
0 |
0 |
0 |
0 |
0 |
avg |
0 |
0 |
0 |
0 |
0 |
worse |
0 |
0 |
0 |
0 |
0 |
|
min |
4.44E−16 |
4.44E−16 |
4.44E−16 |
4.44E−16 |
4.44E−16 |
std |
4.44E−16 |
4.44E−16 |
4.44E−16 |
4.44E−16 |
0 |
avg |
4.44E−16 |
4.44E−16 |
4.44E−16 |
4.44E−16 |
4.44E−16 |
worse |
4.44E−16 |
4.44E−16 |
4.44E−16 |
4.44E−16 |
4.44E−16 |
|
min |
0 |
0 |
0 |
0 |
5.89E−189 |
std |
0 |
0 |
0 |
0 |
0 |
avg |
0 |
0 |
0 |
0 |
5.97E−177 |
worse |
0 |
0 |
0 |
0 |
2.95E−176 |
|
min |
0 |
0 |
0 |
0 |
3.36E−91 |
std |
0 |
0 |
0 |
0 |
6.92E−77 |
avg |
0 |
0 |
0 |
0 |
3.09E−77 |
worse |
0 |
0 |
0 |
0 |
1.55E−76 |
|
min |
1 |
1 |
1 |
1 |
1 |
std |
1 |
1 |
1 |
1 |
1.32E−13 |
avg |
1 |
1 |
1 |
1 |
1 |
worse |
0 |
0 |
0 |
0 |
1 |
|
min |
1 |
1 |
1 |
1 |
1 |
std |
5 |
5 |
5 |
5 |
4.4614 |
avg |
5 |
5 |
5 |
5 |
0.2325 |
worse |
5 |
5 |
5 |
5 |
4.8636 |
|
min |
0 |
0 |
0 |
8.88E−16 |
4.9956 |
std |
5 |
5 |
5 |
5 |
5 |
avg |
1 |
1 |
1 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
0 |
|
min |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
0 |
0 |
1 |
avg |
1 |
1 |
1 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
1 |
|
min |
1 |
1 |
1 |
1 |
0 |
std |
1 |
1 |
1 |
1 |
1 |
avg |
0 |
0 |
0 |
0 |
1 |
worse |
1 |
1 |
1 |
1 |
1 |
![]()
Figure 2. Convergence curves of TOBLAOA with different improvement strategies on benchmark test functions
图2. TOBLAOA不同改进策略实验测试函数收敛曲线
根据实验结果可知,在OBLAOA算法改进后的算法,其寻优性能都远远地优于原始的AOA算法,其中AOA只搜索到了
的理论最优值,而给出的四种策略都可以直接搜索到函数
的理论最优值,与传统AOA相比有显著的提升;对于没有直接搜索到理论最优值的函数
,将TOBLAOA与AOA进行比较可知,TOBLAOA的最有适应度值的精度也优于AOA。上述实验结果说明,在这5种嵌入改进策略的算法中,OBLAOA对于原始AOA的改进策略最为有效,在提高求解精度的同时还提升了稳定性。但是由于在数据上对于集中改进策略比较不明显,故继续对TOBLAOA、DWOBLAOA、TWOBLAOA、SWOBLAOA、AOA进行仿真测试,对比在不同基准测试函数中算法的收敛速度,得到收敛曲线图,见图2。
仿真实验结果表明,对于所有基准测试函数TOBLAOA可以在更短的迭代次数内更快地接近目标函数值,其中由函数
的收敛曲线图可知,TOBLAOA的收敛曲线呈现多处曲折,这表明在收敛过程中,TOBLAOA多次且有效地跳出局部最优解,以更快的收敛速度逼近最优解,对于部分高维的函数
到
,也可以看出,即使各改进策略之间差异非常小,TOBLAOA仍然是最快接近最优解的策略,以上结果都表明TOBLAOA具有更好的寻优性能跟收敛速度。
4.4. TOBLAOA与其它优化算法的对比分析
为进一步验证TOBLAOA的有效性和求解精度,接下来将其与BOA、LAOP、HHO、SA、SCA、NNA进行比较,通过min (最优适应度)、std (标准差)、avg (平均适应度)、worse (最差适应度)四个指标进行评价。表8为各算法在每个基准测试函数上独立运行30次所得到的结果:
Table 8. Comparison table of experimental results of different algorithms of TOBLAOA (Dim = 50)
表8. TOBLAOA不同算法实验结果对比表(Dim = 50)
D = 50 |
index |
OBLAOA |
BOA |
LAPO |
HHO |
SA |
SCA |
NNA |
|
min |
0 |
2.71E−12 |
8.06E−61 |
1.10E−105 |
1.35E−26 |
4.66E−52 |
1.71E−23 |
std |
0 |
2.27E−12 |
2.14E−61 |
2.20E−106 |
1.15E−25 |
3.74E−45 |
2.88E−17 |
avg |
0 |
1.91E−12 |
3.68E−62 |
1.78E−117 |
1.28E−25 |
1.68E−45 |
1.17E−17 |
worse |
0 |
2.22E−12 |
6.95E−62 |
4.75E−113 |
2.83E−25 |
8.38E−45 |
1.37E−16 |
|
min |
0 |
1.72E−09 |
6.53E−29 |
2.57E−57 |
5.39E−23 |
1.01E−29 |
9.41E−13 |
std |
0 |
1.33E−09 |
2.46E−29 |
5.25E−58 |
3.14E−18 |
9.71E−27 |
2.71E−10 |
avg |
0 |
1.07E−09 |
6.54E−30 |
9.54E−62 |
1.72E−18 |
9.34E−27 |
1.99E−10 |
worse |
0 |
1.22E−09 |
2.07E−29 |
1.43E−59 |
7.26E−18 |
2.59E−26 |
9.47E−10 |
|
min |
0 |
2.48E−12 |
5.90E−52 |
4.95E−104 |
8.29E−09 |
2.06E−46 |
0.8841 |
std |
0 |
2.00E−12 |
1.94E−52 |
9.91E−105 |
1.71E−07 |
7.66E−38 |
30.3553 |
avg |
0 |
1.35E−12 |
2.77E−53 |
4.21E−115 |
9.00E−08 |
3.80E−38 |
32.8361 |
worse |
0 |
2.34E−12 |
8.71E−53 |
1.93E−108 |
3.95E−07 |
1.74E−37 |
123.7664 |
|
min |
0 |
1.42E−09 |
1.26E−25 |
7.44E−55 |
4.53E−11 |
3.16E−24 |
0.0012 |
std |
0 |
1.14E−09 |
6.14E−26 |
1.60E−55 |
1.52E−09 |
4.91E−21 |
0.0066 |
avg |
0 |
8.28E−10 |
2.44E−26 |
5.68E−59 |
1.39E−09 |
2.47E−21 |
0.0079 |
worse |
0 |
1.20E−09 |
3.89E−26 |
1.25E−56 |
3.37E−09 |
1.12E−20 |
0.0276 |
|
min |
4.11E−05 |
0.0019 |
0.0012 |
1.03E−04 |
0.0871 |
0.0112 |
0.0048 |
std |
1.55E−05 |
0.001 |
5.61E−04 |
4.11E−05 |
0.0609 |
0.0781 |
0.0197 |
avg |
3.39E−06 |
4.89E−04 |
1.28E−04 |
1.59E−05 |
0.1547 |
0.074 |
0.0286 |
worse |
1.41E−05 |
8.22E−04 |
5.08E−04 |
3.29E−05 |
0.2457 |
0.1853 |
0.0733 |
|
min |
−4.00E+03 |
−3.61E+03 |
−4.70E+03 |
−1.26E+04 |
−1.25E+04 |
−4.06E+03 |
0 |
std |
−4.32E+03 |
−3.85E+03 |
−5.17E+03 |
−1.26E+04 |
164.4148 |
231.5899 |
0.375 |
avg |
−4.45E+03 |
−4.27E+03 |
−6.04E+03 |
−1.26E+04 |
−1.22E+04 |
−3.84E+03 |
0.1722 |
worse |
−4.40E+03 |
−3.70E+03 |
−4.94E+03 |
−1.26E+04 |
−1.21E+04 |
−3.59E+03 |
0.995 |
|
min |
0 |
165.6542 |
3.90E−10 |
0 |
0.9951 |
0.0012 |
2.67E−12 |
std |
0 |
33.1308 |
8.84E−11 |
0 |
1.5068 |
57.7601 |
1.06E−08 |
avg |
0 |
0 |
7.39E−13 |
0 |
2.5937 |
57.9847 |
3.95E−09 |
worse |
0 |
0 |
5.12E−12 |
0 |
4.9748 |
135.1036 |
5.45E−08 |
|
min |
4.44E−16 |
6.19E−09 |
1.56E−06 |
4.44E−16 |
1.02E−04 |
0.0221 |
0.0197 |
std |
4.44E−16 |
5.75E−09 |
7.81E−07 |
4.44E−16 |
0.0025 |
0.168 |
0.0385 |
avg |
4.44E−16 |
5.39E−09 |
1.59E−07 |
4.44E−16 |
0.0024 |
0.2733 |
0.0707 |
worse |
4.44E−16 |
5.73E−09 |
9.47E−07 |
4.44E−16 |
0.0063 |
0.477 |
0.1599 |
|
min |
600 |
600.2146 |
600.0001 |
600.2529 |
600 |
600.0027 |
600.0419 |
std |
600 |
600.203 |
600 |
600.1711 |
4.05E−04 |
0.0046 |
600.0086 |
avg |
600 |
600.1862 |
600 |
600.1027 |
600.0003 |
600.007 |
600 |
worse |
600 |
600.206 |
600 |
600.1254 |
600.001 |
600.014 |
600.0005 |
|
min |
700 |
700 |
710.0106 |
700 |
700 |
700 |
710.0106 |
std |
700 |
700 |
705.0751 |
700 |
4.4943 |
1.49E−12 |
708.0085 |
avg |
700 |
700 |
700.0079 |
700 |
7.08E+02 |
700 |
700 |
worse |
700 |
700 |
7.04E+02 |
700 |
710.0876 |
700 |
710.0106 |
|
min |
1 |
3.03E+04 |
946.9517 |
1 |
1 |
1.0171 |
1 |
std |
0 |
1.64E+05 |
2.81E+04 |
0 |
0 |
2.25E+06 |
0 |
avg |
1 |
2.19E+05 |
2.29E+04 |
1 |
1 |
1.22E+06 |
1 |
worse |
1 |
4.45E+05 |
7.08E+04 |
1 |
1 |
5.23E+06 |
1 |
|
min |
4.9975 |
415.7586 |
68.5309 |
5 |
2.46E+03 |
1.55E+03 |
1.75E+03 |
std |
0.0011 |
406.1479 |
46.6666 |
0 |
3.42E+03 |
1.56E+03 |
2.36E+03 |
avg |
4.9995 |
984.5102 |
122.6961 |
5 |
5.75E+03 |
3.91E+03 |
5.81E+03 |
worse |
5 |
1.55E+03 |
189.009 |
5 |
1.15E+04 |
5.88E+03 |
1.03E+04 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
5.58E−10 |
0 |
2.97E−13 |
0 |
0 |
avg |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
2.19E−05 |
0 |
0.0342 |
0 |
0 |
avg |
1 |
1 |
1 |
1 |
1.025 |
1 |
1 |
worse |
1 |
1 |
1.0001 |
1 |
1.0625 |
1 |
1 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
3.17E−09 |
0 |
6.45E−14 |
0 |
0 |
avg |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
根据实验结果可知,在寻优性能上,TOBLAOA可以直接搜索到函数
的理论最优值,而BOA和HHO只搜索到了
的理论最优值。NNA只搜索到了
的理论最优值,SA和SCA只搜索到了
的理论最优值并且标准差不为0,OBLAOA算法更具有稳定性。对于没有直接搜索到理论最优值的函数
,TOBLAOA求解精度更高。上述实验结果表明,与其他算法相比,TOBLAOA在求解精度和稳定性上都具有可比性。为进一步验证该结论,本文还对各算法在高维情况下的表现进行仿真实验,以下表9,表10算法在100维和500维下的实验结果。
Table 9. Comparison table of experimental results of different algorithms of TOBLAOA (Dim = 100)
表9. TOBLAOA不同算法实验结果对比表(Dim = 100)
D = 100 |
index |
TOBLAOA |
BOA |
LAPO |
HHO |
SA |
SCA |
NNA |
|
min |
0 |
2.71E−12 |
8.06E−61 |
1.10E−105 |
1.35E−26 |
4.66E−52 |
1.78E−100 |
std |
0 |
2.27E−12 |
2.14E−61 |
2.20E−106 |
1.15E−25 |
3.74E−45 |
6.69E−102 |
avg |
0 |
1.91E−12 |
3.68E−62 |
1.78E−117 |
1.28E−25 |
1.68E−45 |
8.93E−119 |
worse |
0 |
2.22E−12 |
6.95E−62 |
4.75E−113 |
2.83E−25 |
8.38E−45 |
7.05E−110 |
|
min |
0 |
1.72E−09 |
6.53E−29 |
2.57E−57 |
5.39E−23 |
1.01E−29 |
3.12E−51 |
std |
0 |
1.33E−09 |
2.46E−29 |
5.25E−58 |
3.14E−18 |
9.71E−27 |
1.05E−52 |
avg |
0 |
1.07E−09 |
6.54E−30 |
9.54E−62 |
1.72E−18 |
9.34E−27 |
1.21E−61 |
worse |
0 |
1.22E−09 |
2.07E−29 |
1.43E−59 |
7.26E−18 |
2.59E−26 |
9.73E−57 |
|
min |
0 |
2.48E−12 |
5.90E−52 |
4.95E−104 |
8.29E−09 |
2.06E−46 |
1.42E−87 |
std |
0 |
2.00E−12 |
1.94E−52 |
9.91E−105 |
1.71E−07 |
7.66E−38 |
4.75E−89 |
avg |
0 |
1.35E−12 |
2.77E−53 |
4.21E−115 |
9.00E−08 |
3.80E−38 |
4.40E−107 |
worse |
0 |
2.34E−12 |
8.71E−53 |
1.93E−108 |
3.95E−07 |
1.74E−37 |
1.09E−96 |
|
min |
0 |
1.42E−09 |
1.26E−25 |
7.44E−55 |
4.53E−11 |
3.16E−24 |
1.86E−50 |
std |
0 |
1.14E−09 |
6.14E−26 |
1.60E−55 |
1.52E−09 |
4.91E−21 |
1.01E−51 |
avg |
0 |
8.28E−10 |
2.44E−26 |
5.68E−59 |
1.39E−09 |
2.47E−21 |
1.73E−59 |
worse |
0 |
1.20E−09 |
3.89E−26 |
1.25E−56 |
3.37E−09 |
1.12E−20 |
7.12E−55 |
|
min |
4.11E−05 |
0.0019 |
0.0012 |
1.03E−04 |
0.0871 |
0.0112 |
4.15E−04 |
std |
1.55E−05 |
0.001 |
5.61E−04 |
4.11E−05 |
0.0609 |
0.0781 |
8.85E−05 |
avg |
3.39E−06 |
4.89E−04 |
1.28E−04 |
1.59E−05 |
0.1547 |
0.074 |
7.73E−07 |
worse |
1.41E−05 |
8.22E−04 |
5.08E−04 |
3.29E−05 |
0.2457 |
0.1853 |
6.68E−05 |
|
min |
−4.00E+03 |
−3.61E+03 |
−4.70E+03 |
−1.26E+04 |
−1.25E+04 |
−4.06E+03 |
0 |
std |
−4.32E+03 |
−3.85E+03 |
−5.17E+03 |
−1.26E+04 |
164.4148 |
231.5899 |
0 |
avg |
−4.45E+03 |
−4.27E+03 |
−6.04E+03 |
−1.26E+04 |
−1.22E+04 |
−3.84E+03 |
0 |
worse |
−4.40E+03 |
−3.70E+03 |
−4.94E+03 |
−1.26E+04 |
−1.21E+04 |
−3.59E+03 |
0 |
|
min |
0 |
165.6542 |
3.90E−10 |
0 |
0.9951 |
0.0012 |
4.44E−16 |
std |
0 |
33.1308 |
8.84E−11 |
0 |
1.5068 |
57.7601 |
4.44E−16 |
avg |
0 |
0 |
7.39E−13 |
0 |
2.5937 |
57.9847 |
4.44E−16 |
worse |
0 |
0 |
5.12E−12 |
0 |
4.9748 |
135.1036 |
4.44E−16 |
|
min |
4.44E−16 |
6.19E−09 |
1.56E−06 |
4.44E−16 |
1.02E−04 |
0.0221 |
0 |
std |
4.44E−16 |
5.75E−09 |
7.81E−07 |
4.44E−16 |
0.0025 |
0.168 |
0 |
avg |
4.44E−16 |
5.39E−09 |
1.59E−07 |
4.44E−16 |
0.0024 |
0.2733 |
0 |
worse |
4.44E−16 |
5.73E−09 |
9.47E−07 |
4.44E−16 |
0.0063 |
0.477 |
0 |
|
min |
600 |
6.19E−09 |
1.56E−06 |
4.44E−16 |
1.02E−04 |
0.0221 |
4.44E−16 |
std |
600 |
5.75E−09 |
7.81E−07 |
4.44E−16 |
0.0025 |
0.168 |
4.44E−16 |
avg |
600 |
5.39E−09 |
1.59E−07 |
4.44E−16 |
0.0024 |
0.2733 |
4.44E−16 |
worse |
600 |
5.73E−09 |
9.47E−07 |
4.44E−16 |
0.0063 |
0.477 |
4.44E−16 |
|
min |
700.0845 |
600.2165 |
600 |
600.2529 |
600 |
600.0007 |
600.1238 |
std |
700.0212 |
600.1946 |
600 |
600.2026 |
0.0034 |
0.0033 |
600.0267 |
avg |
700.0001 |
600.1853 |
600 |
600.0015 |
600.0019 |
600.0045 |
600.0001 |
worse |
700.0081 |
600.1859 |
600 |
600.2529 |
600.0078 |
600.0084 |
600.0007 |
|
min |
1 |
4.38E+06 |
3.32E+04 |
1 |
1 |
2.04E+06 |
10.4068 |
std |
1 |
1.62E+06 |
2.00E+04 |
1 |
1 |
1.19E+06 |
2.57E+06 |
avg |
1 |
1.33E+05 |
3.93E+03 |
1 |
1 |
2.71E+05 |
1.99E+06 |
worse |
0 |
1.77E+06 |
1.05E+04 |
0 |
0 |
8.67E+05 |
9.33E+06 |
|
min |
5 |
1.71E+03 |
204.3887 |
5 |
7.84E+03 |
5.38E+03 |
975.302 |
std |
5 |
875.0103 |
123.6975 |
4.9173 |
5.00E+03 |
2.81E+03 |
1.65E+03 |
avg |
5 |
78.1537 |
66.4558 |
4.5863 |
3.84E+03 |
1.54E+03 |
3.14E+03 |
worse |
4.27E−09 |
619.6823 |
60.6121 |
0.185 |
1.63E+03 |
1.60E+03 |
7.01E+03 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
3.28E−09 |
0 |
6.07E−14 |
0 |
0 |
avg |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
1.30E−05 |
0 |
5.1927 |
0 |
0 |
avg |
1 |
1 |
1 |
1 |
3.3534 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
12.6422 |
1 |
1 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
2 |
std |
0 |
0 |
1.80E−09 |
0 |
9.98E−14 |
0 |
0 |
avg |
1 |
1 |
1 |
1 |
1 |
1 |
2 |
worse |
1 |
1 |
1 |
1 |
1 |
1 |
2 |
Table 10. Comparison table of experimental results of different algorithms of TOBLAOA (Dim = 500)
表10. TOBLAOA不同算法实验结果对比表(Dim = 500)
D = 500 |
index |
TOBLAOA |
BOA |
LAPO |
HHO |
SA |
SCA |
NNA |
|
min |
0 |
2.71E−12 |
8.06E−61 |
1.10E−105 |
1.35E−26 |
4.66E−52 |
7.13E−96 |
std |
0 |
2.27E−12 |
2.14E−61 |
2.20E−106 |
1.15E−25 |
3.74E−45 |
2.38E−97 |
avg |
0 |
1.91E−12 |
3.68E−62 |
1.78E−117 |
1.28E−25 |
1.68E−45 |
2.92E−125 |
worse |
0 |
2.22E−12 |
6.95E−62 |
4.75E−113 |
2.83E−25 |
8.38E−45 |
1.08E−107 |
|
min |
0 |
1.72E−09 |
6.53E−29 |
2.57E−57 |
5.39E−23 |
1.01E−29 |
5.49E−54 |
std |
0 |
1.33E−09 |
2.46E−29 |
5.25E−58 |
3.14E−18 |
9.71E−27 |
2.80E−55 |
avg |
0 |
1.07E−09 |
6.54E−30 |
9.54E−62 |
1.72E−18 |
9.34E−27 |
3.36E−62 |
worse |
0 |
1.22E−09 |
2.07E−29 |
1.43E−59 |
7.26E−18 |
2.59E−26 |
7.88E−57 |
|
min |
0 |
2.48E−12 |
5.90E−52 |
4.95E−104 |
8.29E−09 |
2.06E−46 |
2.95E−91 |
std |
0 |
2.00E−12 |
1.94E−52 |
9.91E−105 |
1.71E−07 |
7.66E−38 |
2.06E−92 |
avg |
0 |
1.35E−12 |
2.77E−53 |
4.21E−115 |
9.00E−08 |
3.80E−38 |
8.04E−112 |
worse |
0 |
2.34E−12 |
8.71E−53 |
1.93E−108 |
3.95E−07 |
1.74E−37 |
7.47E−98 |
|
min |
0 |
1.42E−09 |
1.26E−25 |
7.44E−55 |
4.53E−11 |
3.16E−24 |
1.36E−49 |
std |
0 |
1.14E−09 |
6.14E−26 |
1.60E−55 |
1.52E−09 |
4.91E−21 |
4.94E−51 |
avg |
0 |
8.28E−10 |
2.44E−26 |
5.68E−59 |
1.39E−09 |
2.47E−21 |
4.65E−58 |
worse |
0 |
1.20E−09 |
3.89E−26 |
1.25E−56 |
3.37E−09 |
1.12E−20 |
5.40E−55 |
|
min |
4.11E−05 |
0.0019 |
0.0012 |
1.03E−04 |
0.0871 |
0.0112 |
4.17E−04 |
std |
1.55E−05 |
0.001 |
5.61E−04 |
4.11E−05 |
0.0609 |
0.0781 |
9.56E−05 |
avg |
3.39E−06 |
4.89E−04 |
1.28E−04 |
1.59E−05 |
0.1547 |
0.074 |
8.84E−07 |
worse |
1.41E−05 |
8.22E−04 |
5.08E−04 |
3.29E−05 |
0.2457 |
0.1853 |
7.13E−05 |
|
min |
−4.00E+03 |
−3.61E+03 |
−4.70E+03 |
−1.26E+04 |
−1.25E+04 |
−4.06E+03 |
0 |
std |
−4.32E+03 |
−3.85E+03 |
−5.17E+03 |
−1.26E+04 |
164.4148 |
231.5899 |
0 |
avg |
−4.45E+03 |
−4.27E+03 |
−6.04E+03 |
−1.26E+04 |
−1.22E+04 |
−3.84E+03 |
0 |
worse |
−4.40E+03 |
−3.70E+03 |
−4.94E+03 |
−1.26E+04 |
−1.21E+04 |
−3.59E+03 |
0 |
|
min |
0 |
165.6542 |
3.90E−10 |
0 |
0.9951 |
0.0012 |
4.44E−16 |
std |
0 |
33.1308 |
8.84E−11 |
0 |
1.5068 |
57.7601 |
4.44E−16 |
avg |
0 |
0 |
7.39E−13 |
0 |
2.5937 |
57.9847 |
4.44E−16 |
worse |
0 |
0 |
5.12E−12 |
0 |
4.9748 |
135.1036 |
4.44E−16 |
|
min |
4.44E−16 |
6.19E−09 |
1.56E−06 |
4.44E−16 |
1.02E−04 |
0.0221 |
0 |
std |
4.44E−16 |
5.75E−09 |
7.81E−07 |
4.44E−16 |
0.0025 |
0.168 |
0 |
avg |
4.44E−16 |
5.39E−09 |
1.59E−07 |
4.44E−16 |
0.0024 |
0.2733 |
0 |
worse |
4.44E−16 |
5.73E−09 |
9.47E−07 |
4.44E−16 |
0.0063 |
0.477 |
0 |
|
min |
1 |
3.03E+04 |
946.9517 |
1 |
1 |
1.0171 |
600.2529 |
std |
0 |
1.64E+05 |
2.81E+04 |
0 |
0 |
2.25E+06 |
600.1938 |
avg |
1 |
2.19E+05 |
2.29E+04 |
1 |
1 |
1.22E+06 |
600.0077 |
worse |
1 |
4.45E+05 |
7.08E+04 |
1 |
1 |
5.23E+06 |
600.2529 |
|
min |
4.9975 |
415.7586 |
68.5309 |
5 |
2.46E+03 |
1.55E+03 |
700.0005 |
std |
0.0011 |
406.1479 |
46.6666 |
0 |
3.42E+03 |
1.56E+03 |
700 |
avg |
4.9995 |
984.5102 |
122.6961 |
5 |
5.75E+03 |
3.91E+03 |
700 |
worse |
5 |
1.55E+03 |
189.009 |
5 |
1.15E+04 |
5.88E+03 |
700 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
5.58E−10 |
0 |
2.97E−13 |
0 |
1 |
avg |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
5 |
std |
0 |
0 |
2.19E−05 |
0 |
0.0342 |
0 |
4.995 |
avg |
1 |
1 |
1 |
1 |
1.025 |
1 |
4.8492 |
worse |
1 |
1 |
1.0001 |
1 |
1.0625 |
1 |
5 |
|
min |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
std |
0 |
0 |
3.17E−09 |
0 |
6.45E−14 |
0 |
1 |
avg |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
worse |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
|
min |
0 |
2.71E−12 |
8.06E−61 |
1.10E−105 |
1.35E−26 |
4.66E−52 |
1 |
std |
0 |
2.27E−12 |
2.14E−61 |
2.20E−106 |
1.15E−25 |
3.74E−45 |
1 |
avg |
0 |
1.91E−12 |
3.68E−62 |
1.78E−117 |
1.28E−25 |
1.68E−45 |
1 |
worse |
0 |
2.22E−12 |
6.95E−62 |
4.75E−113 |
2.83E−25 |
8.38E−45 |
1 |
|
min |
0 |
1.72E−09 |
6.53E−29 |
2.57E−57 |
5.39E−23 |
1.01E−29 |
2 |
std |
0 |
1.33E−09 |
2.46E−29 |
5.25E−58 |
3.14E−18 |
9.71E−27 |
2 |
avg |
0 |
1.07E−09 |
6.54E−30 |
9.54E−62 |
1.72E−18 |
9.34E−27 |
2 |
worse |
0 |
1.22E−09 |
2.07E−29 |
1.43E−59 |
7.26E−18 |
2.59E−26 |
2 |
![]()
![]()
Figure 3. Experimental test function convergence curves of different algorithms for TOBLAOA
图3. TOBLAOA不同算法实验测试函数收敛曲线
根据实验结果可知,TOBLAOA在高维情况下仍与低维表现一致,其寻优精度并没有因为维度的升高而波动,这说明该算法具有良好的稳定性,进一步说明了算法改进的效果。
为了进一步验证本文TOBLAOA有效性,本文给出TOBLAOA与BOA、LAOP、HHO、SA、SCA、NNA在不同基准测试函数下的收敛曲线图,见图3。
从收敛曲线可以明显看出TOBLAOA在测试函数仿真实验中,相较于其他算法收敛性更好,并且下降曲线并没有因为迭代次数的增多而出现停滞现象,表明算法能够在更短的迭代周期内寻到最优解,并且此算法可以弥补传统AOA在迭代后期出现收敛速度慢的缺陷,TOBLAOA对陷入局部最优值问题处理性能更优,快速跳出局部最优解的能力更强,实验证明本文改进策略的优化效果良好。
4.5. Wilcoxon秩和检验
为建立改进算法的统计显著性证据链,本研究采用非参数统计方法——基于Wilcoxon秩和检验[18]的对比实验设计。具体仿真流程为:
1) 对照实验设置:在15个基准测试函数上,对TOBLAOA与6种对比算法分别执行30次独立重复试验以消除一定的随机误差。
2) 显著性判据:以双侧检验的p值作为统计差异性指标(显著性阈值
),当p < 0.05时拒绝原假设(H0:算法性能无差异),接受备择假设(H1:TOBLAOA结果具有显著优势)。
实验结果(见表11)显示:TOBLAOA与比较的算法大部分都拒绝原假设,满足p < 0.05的条件,表明改进后的TOBLAOA算法的优越性在统计上是显著的。
Table 11. The Wilcoxon rank sum test p-value table for the differences between TOBLAOA and other algorithms
表11. TOBLAOA与其他算法差异性的Wilcoxon秩和检验p值表
|
BOA |
LAPO |
HHO |
SA |
SCA |
SCA |
|
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
|
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
|
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
|
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
|
0.0079 |
0.0079 |
0.0952 |
0.0079 |
0.0079 |
0.0057 |
|
0.0317 |
0.0079 |
0.0079 |
0.0079 |
0.0317 |
0.0025 |
|
0.4444 |
0.0079 |
1 |
0.0079 |
0.0079 |
0.0079 |
|
0.0079 |
0.0079 |
1 |
0.0079 |
0.0079 |
0.0061 |
|
0.0079 |
0.0159 |
0.0079 |
0.3095 |
0.6905 |
0.01395 |
|
0.0079 |
0.1508 |
0.0079 |
0.0952 |
0.0317 |
0.0583 |
|
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.5476 |
0.0079 |
|
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
0.0079 |
|
1 |
1 |
1 |
0.0079 |
1 |
1 |
|
1 |
0.0079 |
1 |
0.1667 |
1 |
0.0034 |
|
1 |
0.0079 |
1 |
0.0476 |
1 |
1 |
5. TOBLAOA在实际工程问题中的应用
现将改进后的TOBLAOA算法应用与实际工程应用问题中,并进行仿真实验测试,将其结果与其他6个优化算法进行对比,由此进一步验证算法可行性及有效性。
5.1. 应用1:压力容器设计问题
压力容器设计[19]如图4所示,该问题的优化目标为最小化压力容器的总制造成本,共包含4个决策变量:圆柱壳厚度
,半球形头厚度
,内半径
,圆柱段长度
。其中
和
为离散变量且取值为0.0625英寸的整数倍,
和
为连续变量。
(5.1.1)
(5.1.2)
(5.1.3)
其中
.
Figure 4. Schematic diagram of pressure vessel problem design
图4. 压力容器设计问题示意图
5.2. 应用2:三杆桁架设计问题
三杆桁架是结构工程问题[20]中重要的一种结构类型,该问题的优化目标为最小化桁架结构总质量,共包含3个决策变量:
分别表示三杆桁架中三个杆的横截面积,其中
与
对称。其设计如图5所示,每一个桁架上均收到应力
的约束。
Figure 5. Schematic diagram of the three-bar truss design problem
图5. 三杆桁架设计问题示意图
(5.2.1)
(5.2.2)
(5.2.3)
(5.2.4)
其中
。
5.3. 应用3:齿轮系设计问题
齿轮系结构设计[19]如图6所示,该结构设计的目的是使齿轮系的转动比成本最小,其中传动比的定义为输出轴的角速度与输入轴角速度的比。该问题共有4个整数决策变量,分别表示4个齿轮的齿数,取值范围为12到60之间。其数学模型为:
(5.3.1)
(5.3.2)
(5.3.3)
Figure 6. Gear train design problem diagram
图6. 齿轮系设计问题示意图
5.4. 实验结果分析
本文将优化后的TOBLAOA算法与蝴蝶优化算法(BOA)、雷电附着优化算法(LAPO)、哈里斯鹰优化算法(HHO)和遗传算法(SA)、黄金正弦算法(SCA)、神经网络优化算法(NNA)进行测试对比,并将种群数量统一设置为50,迭代次数为100,将每种算法在所给出的三个工程应用问题中分别进行30次的独立实验。三种应用问题类型维度及约束类型如表12所示。
Table 12. Comparison table of three kinds of applied problems
表12. 三种应用问题比较表
问题名称 |
变量类型 |
变量维度 |
约束类型 |
压力容器 |
混合离散 |
4 |
非线性不等式 |
三杆桁架 |
连续 |
2 |
线性与非线性组合 |
齿轮系 |
整数 |
4 |
无显示约束 |
应用1:
实验结果如表13所示,其收敛曲线图如图7所示,由图表可知,在迭代早期,TOBLAOA收敛速度虽然不是最快、更接近最优解的算法,但是在经过50次迭代之后就快速收敛到了极值,其他算法中只有HHO算法可以在200次后追上TOBLAOA算法,当迭代次数到达300次的时候,TOBLAOA与其余6种优化算法比较结果最优,在迭代速度上更能快速收敛。
Table 13. The comparison of the optimal solutions for pressure vessel design problems
表13. 压力容器设计问题最优解比较
算法 |
最优值 |
x1 |
x2 |
x3 |
x4 |
TOBLAOA |
5885.30 |
2.3211 |
8.9210 |
57.3581 |
54.4564 |
BOA |
74480.00 |
4.8722 |
8.7144 |
65.0223 |
35.6284 |
LAPO |
44063.00 |
0.7782 |
0.3847 |
40.3199 |
199.9964 |
HHO |
6285.20 |
1.0778 |
0.5435 |
55.2280 |
63.8594 |
SA |
5922.80 |
1.1191 |
0.5532 |
57.9870 |
56.9864 |
SCA |
6498.20 |
1.1087 |
0.5780 |
55.7353 |
85.0521 |
NNA |
5987.10 |
1.1029 |
0.5451 |
57.1379 |
62.1391 |
Figure 7. Convergence curves of different algorithms for pressure vessel design problems
图7. 压力容器设计问题不同算法收敛曲线图
应用2:
实验结果如表14所示,其收敛曲线图8如示;由图表可知,在迭代早期,TOBLAOA收敛速度最快、更接近最优解。在经过50次迭代之后就收敛到了极值。TOBLAOA不仅在寻优结果上优于其余6种优化算法,在迭代速度上也展现出了该算法的优异性能。
Table 14. Comparison of the optimal solutions for the design problem of a three-bar truss
表14. 三杆桁架设计问题最优解比较
算法 |
最优值 |
x1 |
x2 |
TOBLAOA |
263.5959 |
0.7729 |
0.4085 |
BOA |
265.3015 |
0.7983 |
0.4057 |
LAPO |
264.1305 |
0.7886 |
0.4686 |
HHO |
263.8976 |
0.8052 |
0.3651 |
SA |
264.1446 |
0.8235 |
0.3561 |
SCA |
263.9486 |
0.7916 |
0.4023 |
NNA |
263.8959 |
0.7901 |
0.4047 |
Figure 8. Convergence curves of different algorithms for the design problem of a three-bar truss
图8. 三杆桁架设计问题不同算法收敛曲线图
Table 15. Comparison of optimal solutions for gear train design problems
表15. 齿轮系设计问题最优解比较
算法 |
最优值 |
x1 |
x2 |
x3 |
x4 |
TOBLAOA |
2.70E−12 |
44 |
19 |
17 |
53 |
BOA |
5.52E−08 |
34 |
16 |
15 |
42 |
LAPO |
9.92E−10 |
48 |
25 |
15 |
53 |
HHO |
2.31E−11 |
51 |
21 |
16 |
43 |
SA |
8.70E−09 |
45 |
21 |
16 |
47 |
SCA |
1.17E−10 |
52 |
19 |
21 |
49 |
NNA |
2.70E−12 |
53 |
17 |
22 |
48 |
应用3:
实验结果如表15所示,其收敛曲线图9如示,由可知,在迭代早期,TOBLAOA收敛速度最快,收敛曲线近乎垂直,并在50次迭代内就收敛到了极值。TOBLAOA在寻优结果和迭代速度上都优于其余6种优化算法。
Figure 9. Convergence diagram of gear train design problem
图9. 齿轮系设计问题收敛曲线图
6. 小结
传统算术优化算法存在收敛速度慢精度不高,且易陷入局部最优等问题,故提出了具有T分布扰动和透镜成像反向学习策略融合的算术优化算法(TOBLAOA),该算法性能相较于本章提出的其他几种混合策略的OBLAOA更有优势,并且在与其他优化算法的仿真实验中占据上风地位。TOBLAOA还可以应用于实际的工程问题当中,经过仿真实验发现有助于提高工程性能及其实际效率。综上,TOBLAOA具有很大前景,可以进一步拓展到更多领域。
基金项目
广西自然科学基金(2022GXNSFAA035618)。
NOTES
*通讯作者。