1. 引言
随着航空航天技术的发展,对航空航天材料性能的要求越来越高[1] [2]。钛合金作为主要的航空航天材料,且硬度作为钛合金性能的重要指标之一,对其进行深入研究具有一定的现实价值[3]。赵永庆等人系统研究了钛合金热处理原理与工艺,为优化热处理工艺提供了全面的理论支持[4]。谢建新等人系统研究了机器学习在材料研发中的应用[5]。刘思序等基于软计算的聚类分析和迁移异常检测方法进行系列研究[6]。陈莉等人和苏辉等人将软计算技术分别应用于决策系统知识处理和船舶运动的智能控制[7] [8]。
Deshpande, YV, Andhare, AB and Padole, PM等人聚焦于Inconel 718切削齿的表面粗糙度预测,基于尺寸分析、响应面法我(RSM)及人工神经网络(ANN)构建预测模型[9]。Balonji S, Tartibu KL, Okokpujie PI等人致力于Al6061铝块加工过程中的表面粗糙度预测与监测,将人工神经网络(ANN)与基于自适应网络的模糊推理系统(ANFIS)两种方法分别与遗传算法(GA)和粒子群优化(PSO)相结合[10]。
对钛合金硬度的研究大多数都是探究电压值和电容值和钛合金硬度的关系,对于线圈匝数和放电次数的相关研究很少,且缺乏混合算法模型的应用。本文基于电磁脉冲强化钛合金棒件中,建立硬度预测模型,探究钛合金硬度增值和电压、电容、线圈匝数、冲击次数四因素之间的关系。
2. 实验原理
电磁脉冲表面强化(EPSS)是一种通过高能脉冲电磁场诱导材料表层发生塑性变形和微观组织优化的先进表面处理技术[11]。其基本原理可以主要分为两部分:电磁感应与力的产生、能量传递与转化。本文所用的电磁脉冲设备主要由四部分组成:PLC控制电路的高压开关、储能电容组、螺线管线圈以及待加工钛合金棒件。电磁脉冲设备的能量传递关系为电容器充电储能,线圈的磁场能量对毛坯做功,放电电流计算公式如下式(1) [12] [13]。
(1)
其中
为放电电流的最大波峰值,
,
为感应电流的角频率,
为时间。
本文利用电磁脉冲设备对钛合金棒件进行不同实验参数下的硬度强化,再利用显微维氏硬度测量设备对钛合金的维氏硬度进行测量。通过施加一定力
的按压头,在钛合金棒件上按压出正方形的压痕,要求压痕轮廓清晰,对角线测量精准[14]。依据公式(2)即可准确地测量出该按压点的维氏硬度。
(2)
其中,
是维氏硬度值,
是施加的力,
和
是压痕对角线长。
本文通过改变电压、电容、线圈匝数、并进行不同放电次数,实现不同的实验参数组合搭配,寻找实现钛合金维氏硬度最佳强化效果的参数组合。具体来说,建立基于BP神经网络的预测模型,并采用不同算法对BP神经网络分别进行优化。统一训练集和测试集分别占总数据量的0.7和0.3,训练集用来训练神经网络,寻找输入层和输出层的非线性关系;测试用来检验经过训练后的神经网络是否具有一定的预测能力和泛化能力。见下表1,本文章的数据总量为130。T19初始硬度过高,达到424.825可能是在对钛合金进行真空退火加工时,漏气氧化所导致。拟合效果进行对比分析时,主要聚焦于钛合金硬度增值测试集的均方根误差RMSE、平均绝对误差MAE、回归系数R共三个评价拟合效果的指标。
Table 1. General table of hardness data of titanium alloys
表1. 钛合金硬度数据总表
型号 |
电压 |
电容个数 |
线圈匝数 |
放电次数 |
硬度初值 |
平均硬度增值 |
T11 |
9000 |
2 |
7 |
5 |
367.79 |
5.325 6.214 4.412 5.182 6.235 |
T14 |
9000 |
1 |
7 |
5 |
363.96 |
4.245 5.342 4.412 4.368 5.223 |
T19 |
8000 |
2 |
7 |
2 |
424.825 |
0.925 1.741 2.412 1.823 0.634 |
T27 |
6000 |
5 |
7 |
5 |
367.155 |
17.855 19.127 18.249 16.247 18.286 |
T29 |
6000 |
5 |
3 |
5 |
361.71 |
19.434 20.347 19.638 18.963 19.129 |
|
T31 |
6000 |
5 |
15 |
4 |
368.725 |
12.683 11.765 13.412 12.956 11.458 |
T34 |
7500 |
3 |
15 |
4 |
370.3 |
16.745 17.467 17.898 17.102 16.469 |
3. 基于BP神经网络的预测研究
BP神经网络的拓扑结构通常由输入层、一个或多个隐藏层以及输出层组成。输入层接收输入数据,隐藏层进行特征提取以及复杂关系的映射,输出层给出最终的预测结果。BP神经网络的工作原理可以简单地理解为通过不断的正向传播和反向传播修正权值和阈值来降低拟合效果的误差。Kolmogorov定理已经证明,只要有足够的隐藏层节点,一个三层BP神经网络可以精确地逼近任意的非线性关系,所以本研究也将采用单层结构。
3.1. BP神经网络学习流程
(1) 初始化:随机初始化权重和偏置。令输入层神经元i的输入为
;i到隐藏层神经元j的权值为
;j的阈值为
,则有如下公式(3)。其中
表示Sigmoid传递函数,如下公式(4)。
(3)
(4)
(2) 前向传播:将信息从输入层经过隐藏层传递到输出层的过程。令隐藏层神经元j到输出层的权值
,阈值
,则可得到输出层输出
的公式如下(5)。
(5)
(3) 误差计算与反向传播(权值和阈值动态调整):在BP神经网络的学习过程中,误差计算与反向传播是其核心机制。通过持续的更新与迭代,该网络能够逐步降低误差。在这一过程中,调整连接隐藏层和输出层节点的权重与阈值,主要依据预测值与目标真实值之间的误差差异。误差的反向传播过程可以被划分为三个主要步骤。计算方式分别如下(6)~(8) [15]。
1) 计算预测值与期望(真实)输出值的误差
。
(6)
2) 计算输出层节点的误差
和隐藏层节点的误差
。
(7)
(8)
3) 使用误差
调整连接隐藏层和输出层的节点的权值
和阈值
,使用误差
调整连接输入层和隐藏层节点的权值
和阈值
。计算方式分别如下(9)~(12)。
(9)
(10)
(11)
(12)
其中参数
和
为学习参数;
为真实预测值;
为期望输出值。
(4) 计算全局误差
(13)
如果全局误差
低于初始设定的误差上限,或者迭代次数超过设定的最大迭代次数,训练结束,计算输出层结果;否则,循环交替进行步骤(2)~(3)。
目前在神经网络中,确定隐藏层节点数量尚未存在一个固定的计算公式。一种可行的方法是通过反复试验来确定隐藏层节点的数目。当前主要有以下几种隐藏层神经元节点个数的计算方法以提供大致的范围区间[15]。
Kolmogorov定理公式:3层BP神经网络,隐藏层节点数目只由输入层节点数目决定。
(14)
BP神经网络的隐藏层节点数量上限计算公式。
(15)
高斯启发公式:隐藏层节点个数由输入层节点数目和输出层节点数目共同决定。
(16)
上式子(14)~(16)式中,输入层、隐藏层、输出层神经元节点数量分别表示为
、
、
;训练样本数量表示为
,
为闭区间[5, 10]之间的任意正整数。由于本研究的输入层节点个数为4,分别为电压、电容、线圈匝数、放电次数;输出层为钛合金维氏硬度的增加值。利用以上公式(14)~(16)可得到神经网络隐藏层节点大致数目分布在[5, 13]之间。对于一些简单的优化问题,输入和输出直接的关系较为稳定和明显,可以选择较大的学习率(如0.1)可能可以快速收敛;而对于复杂的优化问题,选择较小的学习率(如0.01)可能更稳定,本文选择学习率为0.01。设定最大迭代次数net.trainParam.epochs = 1000,误差阈值net.trainParam.goal = 10−6,满足两者之一模型即可停止迭代。
采用单参数扫描法确定隐藏层节点个数。固定其他的关键参数不变,通过MATLAB不断调试,最终确定隐藏层最优节点个数为10。隐藏层节点个数、RMSE值、拟合效果见下表2。隐藏层节点个数为10的时候训练集和测试集的RMSE都比较小,数据拟合的效果较好。后文中GA-BP、PSO-BP神经网络都是在BP神经网络的基础上优化,并没有BP神经网络本身的拓扑结构,所以后文经优化的混合预测模型隐藏层节点个数仍取值为10。
Table 2. The number of nodes in the hidden layer of BP neural network, RMSE value, and the fitting effect index table
表2. BP神经网络隐藏层节点个数、RMSE值、拟合效果指标表
节点个数 |
训练集RMSE |
测试集RMSE |
训练集R |
测试集R |
整体R |
6 |
1.1248 |
3.2477 |
0.99859 |
0.97041 |
0.99506 |
7 |
2.8362 |
5.3276 |
0.98015 |
0.90615 |
0.96808 |
8 |
0.8507 |
1.2106 |
0.9982 |
0.9899 |
0.99723 |
9 |
2.4892 |
3.234 |
0.99853 |
0.97515 |
0.97847 |
10 |
0.62074 |
0.89908 |
0.99923 |
0.99486 |
0.99859 |
11 |
1.3005 |
3.8837 |
0.99897 |
0.97979 |
0.99373 |
3.2. 基于BP神经网络预测模型回归拟合
利用MATLAB进行BP神经网络拟合计算钛合金硬度增值结果如图1所示。从图1(a),图1(b)和表3可看出BP神经网络预测硬度增值的训练集和测试集的MAE值分别为0.51341和0.75769,RMSE值分别为0.62074和0.89908。真实值和预测值的曲线图基本保持吻合,没有出现偏差特别大的情况,且其他评价指标也均保持较为优秀值,整体误差较小。
并且从图1(c),图1(d)可以看出训练集和测试集的预测值大体保持在真实值回归线附近,测试集的聚集效果可能稍差一点。足以证明该BP神经网络预测模型可以预测出钛合金硬度增值的变化趋势。从表3可以看出预测硬度增值的测试集回归系数R = 0.99486,表明经过训练后的BP神经网络预测模型具有良好的预测能力和泛化能力。
4. 基于GA-BP神经网络的混合模型预测研究
4.1. 遗传算法学习流程
(1) 对问题进行编码
这是应用遗传算法解决问题的首要步骤。常见的编码方式包括二进制编码和实数编码(十进制编码),
(a) (b)
(c) (d)
Figure 1. BP neural network predicts hardness increase. (a) Comparison of the prediction results of the training set and RMSE values; (b) Comparison of the prediction results of the test set and RMSE values; (c) Predicted values of the training set VS true values of the training set; (d) Predicted values of the test set VS true values of the test set
图1. BP神经网络预测硬度增值。(a) 训练集预测结果对比及RMSE值;(b) 测试集预测结果对比及RMSE值;(c) 训练集预测值VS训练集真实值;(d) 测试集预测值VS测试集真实值
Table 3. Index table of hardness increment prediction by BP neural network
表3. BP神经网络预测硬度增值效果指标表
BP神经网络 |
训练/测试 |
决定系数R2 |
平均绝对误差MAE |
平均绝对百分比误差MAPE |
均方根误差RMSE |
回归系数R |
预测增值 |
训练集 |
0.99731 |
0.51341 |
0.082542 |
0.62074 |
0.99923 |
测试集 |
0.98184 |
0.75769 |
0.041298 |
0.89908 |
0.99486 |
本文选择实数编码。首先通过随机方法生成初始种群,种群中包含M个个体。通过实数编码方式将这些个体表示为与求解问题数据格式一致的实数串。遗传算法以此作为起点,开始优化过程。
(2) 定义适应度函数,生成初始化群体
遗传算法中的适应度函数对最优解的求解具有重要影响,所以适应度函数的合理设定显得尤为重要。个体是否能够进入下一代,取决于其适应度值的大小。适应度函数形象地体现了“适者生存”的进化规律。在本文中适应度函数的目的是最大化适应度值,即最小化测试集预测输出与实际输出之间的均方根误差。遗传算法会倾向于选择那些使误差最小的神经网络参数(误差越小,适应度值
越大),从而提高模型的预测性能。如下式(17)所示。
(17)
其中,
为训练集行数;
和
分别为训练集样本中第i个真实值和预测值。
由于本文的数据总量为130,训练集和测试集分别占比0.7和0.3,所以
故上式(17)可改写为式(18)。
(18)
(3) 对初始群体进化操作,具体包括选择、交叉、变异遗传算子,生成下一代种群[16]。
1) 选择:本文采用赌轮选择法,个体被选择概率
与其适应度值大小
成正比,如下公式(19):
(19)
其中,赌轮选择法可以形象地理解为按照概率值
大小,所有“基因”组成一个面积为1的赌轮盘,概率值
越大,在赌轮盘中占据的面积就越大,被选择的可能性就大。但也没有完全抛弃适应度值偏小的个体,都有可能被选中作为父代。这有效保证了“基因”群的多样性。
2) 交叉:为了更加符合真实的生物遗传进化,符合自然界信息交互的思想,遗传算法应用了交叉的方法,从而生成更加复杂的个体。选择两个不同的个体,通过加权的线性组合的方式,形成新的个体。假设染色体
和
在第
个位置进行交叉操作,方法如下式(20):
(20)
其中,
和
都是取自闭区间[0, 1]的控制参数。
3) 变异:自然界中物种的变异是物种能够保持多样性的重要之一。遗传算法也通过模仿折中变异操作来保持“基因”多样性,应对实验过程中因人为因素和客观因素导致的不确定性数据。形象可以表达为对“基因”中随机位置进行0~1反运算,例如,对旧个体
进行变异操作得到新个体
的操作过程如下式(21):
(21)
其中,
和
分别为
的上限和下限;
为(0, 1)之间的随机数;
为进化代数。
的定义如下式(22):
(22)
其中,
为最大进化代数;
为控制非一致性的参数,一般取值0.8。通过这样的计算可得
的取值在
之间,随着
的增加逐渐接近0。
上文中的BP神经网络拓扑结构为4-10-1。据此计算网络的初始权值为
个,阈值为
个,因此遗传算法初始群体中个体编码长度为:
。种群规模越大,每一代的计算量也越大,因此需要根据可用的计算资源来确定种群规模。通过多次实验,观察不同种群规模对算法性能的影响。选择在保证算法收敛性和求解效果的前提下,计算量较小的种群规模,本文确定遗传算法的种群规模pop_num = 10。其余参数设置为,遗传代数gen = 100;最大迭代次数net.trainParam.epochs = 1000;误差阈值net.trainParam.goal = 10−6。编码、选择、交叉、变异参数设置见下表4。
Table 4. Key parameter settings of genetic algorithm
表4. 遗传算法关键参数设置
MATLAB参数设置 |
参数设置含义 |
prec = [1e−6, 1] |
定义了实数编码的精度范围,从10−6到1 |
normGeomSelec = 0.09 |
归一化几何选择函数的参数,用于控制选择压力 |
arithXover = 2 |
算术交叉函数(Arithmetic Crossover)的参数,用于控制交叉操作 |
nonUnifMutation = [2 gen 3] |
非均匀变异函数(Non-Uniform Mutation)的参数,用于控制变异操作 |
4.2. GA-BP神经网络原理及流程
利用遗传算法优化BP神经网络可以大致分为三大步骤[16]。
(1) BP神经网络结构确定。
(2) BP神经网络参数(权值、阈值)优化:其中个体编码维度由BP神经网络拓扑结构决定,具体包含输入层、隐含层及输出层的神经元数量作为编码维度的依据。通过适应度函数评估个体性能高低,并执行选择、交叉、变异等遗传算子,筛选出适应度最高的个体作为下一代种群。迭代收敛后,将最优染色体解码,将其所包含的权值和阈值为BP神经网络中神经元连接权值、阈值进行新的赋值操作。
(3) 利用优化后的BP神经网络进行预测。
4.3. 基于GA-BP神经网络预测模型的回归拟合和对比分析
利用Matlab进行GA-BP神经网络拟合计算钛合金硬度增值的结果如图2所示。在图2(e)中适应度函数存在3个突变点,分别大致出现在第4、11、41代,在第3个突变点(41代)之后的大约1代时间,适应度值发生了急剧的下降,在经历前41代的平稳和骤降之后,适应度值在41代以后就达到了相对稳定,保持在0.0118左右。遗传算法优化的目的,就是利用遗传算法的全局寻优能力,找到最优“解”作为各神经元之间的初始权值和阈值。所以基本可以得出在预测硬度增值遗传算法中,最优参数值出现在41代以后。
从图2(b),图2(d)可以看出经遗传算法优化过的神经网络模型可以更好地预测钛合金的维氏硬度增值随电压、电容、线圈匝数、放电次数的变化而变化的规律,真实值和预测值的偏差更小。具体可以从表5看出,GA-BP神经网络预测模型成功将测试集的平均绝对误差MAE值从0.75769降到0.69921;均方根误差RMSE值从0.89908降到0.84161;回归系数R值从0.99486提升到0.99632。平均误差降低率为7.06%,回归系数提升约0.15%。
Table 5. Comparison table of evaluation indicators for BP vs. GA-BP test set
表5. BP VS. GA-BP测试集评价指标对比表
预测模型 |
MAE |
RMSE |
平均误差降低率 |
回归系数R |
R值提升率 |
BP |
0.75769 |
0.89908 |
无 |
0.99486 |
无 |
GA-BP |
0.69921 |
0.84161 |
7.06% |
0.99632 |
0.15% |
(a) (b)
(c) (d)
(e) (f)
Figure 2. Prediction of hardness increase by GA-BP neural network. (a) Comparison of the prediction results of the training set and RMSE values; (b) Comparison of the prediction results of the test set and RMSE values; (c) Predicted values of the training set VS true values of the training set; (d) Predicted values of the test set VS true values of the test set; (e) Fitness change curve; (f) Regression coefficient R of the test set
图2. GA-BP神经网络预测硬度增值。(a) 训练集预测结果对比及RMSE值;(b) 测试集预测结果对比及RMSE值;(c) 训练集预测值VS训练集真实值;(d) 测试集预测值VS测试集真实值;(e) 适应度变化曲线;(f) 测试集回归系数R
5. 基于PSO-BP神经网络的混合模型预测研究
5.1. 粒子群算法原理及流程
标准的PSO算法首先是将所有可能的解初始化为一组随机“粒子”(随机解),然后每个“粒子”分别通过跟踪当前的“最优粒子”来寻找全局最优解。假设存在一个n维空间m个粒子的群体,第i个“粒子”的位置和速度分别为
和
。在每次迭代中,每个“粒子”通过跟踪两个“最优粒子”来不断更新自己的位置和速度参数。第一个“最优粒子”是该“粒子”本身找到的理想最优解,也就是这个“粒子”心中的最优解
,另一个是整个种群当前找到的全局最优解
。找到这两个最优解后,粒子根据公式(23)更新自己的位置和速度参数。粒子群优化算法符号说明表如下表6所示。
(23)
其中,w为惯性权重;
和
为正的学习因子;
和
都为[0, 1]之间的随机数;
为最大限制速度,且
。
Table 6. Symbol description table of particle swarm optimization algorithm
表6. 粒子群优化算法符号说明表
符号 |
定义 |
典型值/范围 |
|
第i个粒子的位置向量(随机生成) |
D维实数向量 |
|
第i个粒子的速度向量(随机生成) |
D维实数向量 |
|
第i个粒子的个体历史最优位置 |
D维实数向量 |
|
粒子群的全局历史最优位置 |
D维实数向量 |
|
惯性权重(随迭代次数不断降低) |
0.4 → 0.9 (线性递减) |
|
学习因子(随迭代动态更新) |
c1 = 2.5 − 2*(i/maxgen) c2 = 0.5 + 2*(i/maxgen) |
|
均匀分布随机数 |
(0, 1) |
|
最大迭代次数 |
[100, 500] |
|
适应度收敛阈值 |
10−6 |
粒子群算法的主要步骤如下所示。
(1) 算法初始化:粒子群位置和速度参数初始化。
其中:
。
速度向量:
。
(2) 适应度评估与最优解记录:适应度计算与个体历史最优更新。
1) 计算第i个粒子的适应度
。
其中
为真实值,
为模型预测值,
为样本数量。
2) 若
,则更新个体最优:
,
。
3) 若
,则更新全局最优:
。
(3) 粒子状态更新:速度与位置迭代更新。
1) 速度更新公式:
。
2) 位置更新公式:
。
(4) 边界约束处理:解空间约束修正。
1) 速度钳制:
。
2) 位置截断:
。
(5) 终止条件判定:收敛性检验。满足其一即可:
1)
(最大迭代次数限制)。
2)
(适应度变化阈值)。
(6) 输出结果:全局最优解gbest及其适应度值
。
5.2. PSO-BP神经网络原理及流程
基于梯度下降的BP神经网络优化机制存在固有缺陷。目标函数曲面的局部极小点易导致训练停滞,且收敛速率受初始权值分布敏感影响。当前阶段基于粒子群算法优化BP神经网络主要聚焦在三个方面。权值阈值优化、拓扑结构优化、学习规则优化。实践证明拓扑结构优化具有很强的复杂性,学习规则优化也十分困难。基于此,目前大多数的优化方法都集中在网络连接权值和阈值的优化,所以本文章也将继续采用PSO算法优化BP神经网络的权值和阈值。具体的算法流程如下:
(1) 初始化:
为输入层神经元节点个数,
为隐含层神经元节点个数。
为输出层神经元个数.则粒子群的维位数D如下式(24),计算可得D值为
。
(24)
(2) 设置粒子群的适应度函数:本文选用BP神经网络的均方差(MSE)作为适应度函数。如下式(25)。
(25)
其中,
是对样本
的理论输出,
是对样本
的实际输出,M为样本的(矩阵行数)数量。
(3) 利用PSO算法优化过的BP神经网络的权值和阈值代替初始的权值和阈值再进行迭代计算。
粒子群维数D根据式(24)确定为61;采用均方差式子(25)作为适应度函数。种群更新次数maxgen = 45;种群规模sizepop = 5;最大迭代次数net.trainParam.epochs = 1000;误差阈值net.trainParam.goal = 10−6。
5.3. 基于PSO-BP神经网络预测模型的回归拟合和对比分析
利用Matlab进行PSO-BP神经网络拟合计算钛合金硬度增值的结果如图3所示。图3(e)中X轴(横轴)表示训练的轮次,从0到30轮;Y轴(纵轴)表示均方误差(MSE)。MSE越低模型的预测性能越好。
(a) (b)
(c) (d)
(e) (f)
Figure 3. Results of hardness increase prediction by PSO-BP neural network. (a) Comparison of prediction results of the training set and RMSE values; (b) Comparison of the prediction results of the test set and RMSE values; (c) Predicted values of the training set VS true values of the training set; (d) Predicted values of the test set VS true values of the test set; (e) The variation of mean square error (MSE) with training rounds (Epochs); (f) Regression coefficient R of the test set
图3. PSO-BP神经网络预测硬度增值结果。(a) 训练集预测结果对比及RMSE值;(b) 测试集预测结果对比及RMSE值;(c) 训练集预测值VS训练集真实值;(d) 测试集预测值VS测试集真实值;(e) 均方误差(MSE)随训练轮次(Epochs)的变化情况;(f) 测试集回归系数R
蓝色曲线代表训练集的MSE;绿色曲线代表验证集的MSE,该曲线的变化可以反映模型的泛化能力,即模型对未见过数据的预测能力;红色曲线代表测试集的MSE,该曲线通常在训练结束后绘制,用于评估模型在完全未见数据上的表现。在迭代24代之后达到最低的MSE值为0.00016308。
从图3(b),图3(d)可以看出经粒子群算法优化过的神经网络可以更加准确地预测钛合金的维氏硬度增值随电压、电容、线圈匝数、放电次数的变化而变化的规律,真实值和预测值的偏差更小。具体可以从表7看出,PSO-BP神经网络预测模型成功将测试集的平均绝对误差MAE值从0.75769降到0.68881;均方根误差RMSE值从0.89908降到0.83932;回归系数R值从0.99486提升到0.99874。平均误差降低率为7.86%,回归系数提升约0.39%。这说明了利用粒子群优化算法对BP神经网络进行优化以提高其预测精确度是行之有效的,且有效提升了遗传算法优化BP神经网络时,回归系数R没有得到明显的提升的缺点。
GA-BP神经网络和PSO-BP神经网络的具体优化情况对比如下表7所示,可以看出混合算法的预测精度确实优于单一的BP神经网络。针对钛合金硬度增值的预测,利用粒子群算法对BP神经网络的优化效果优于遗传算法,原因可能在于粒子群算法的参数更少、收敛速度更快、与BP神经网络的互补性更强。
Table 7. Comparison table of optimization situations between GA-BP and PSO-BP
表7. GA-BP VS. PSO-BP优化情况对比表
预测模型 |
MAE |
RMSE |
平均误差降低率 |
回归系数R |
R值提升率 |
BP |
0.75769 |
0.89908 |
无 |
0.99486 |
无 |
GA-BP |
0.69921 |
0.84161 |
7.06% |
0.99632 |
0.15% |
PSO-BP |
0.68881 |
0.83932 |
7.86% |
0.99874 |
0.39% |
6. 结论
根据电磁脉冲强化钛合金棒件的实验参数(电压、电容、线圈匝数、放电次数)和硬度增值作为实验数据,建立基于BP神经网络的钛合金硬度增值预测模型,并利用MATLAB实现模型计算。结果为,测试集的MAE值为0.75769;RMSE值为0.89908;R值为0.99486。针对BP神经网络依赖于初始参数的设置,易陷入局部最优解而导致算法意外终止而影响预测结果的缺陷。提出利用具有全局最优性的遗传算法和粒子群优化算法对BP神经网络连接神经元节点的权值和阈值进行优化。结果表明,混合算法分别将MAE值从0.75769降低到0.69921、0.68881;将RMSE值从0.89908降低到0.84161、0.83932;将R值从0.99486提升到0.99632、0.99874。平均误差降低率分别为7.06%、7.86%,R值提升率分别为0.15%、0.39%。验证了混合算法模型的可行性,虽不能完全预测,但对实验进行仍具有一定的指导作用。
NOTES
*通讯作者。