1. 引言
绝缘栅双极型晶体管具有高电压、高电流和高开关速度等优良特性,其涉及到各个领域,比如航空航天、军用领域、电子通讯、医疗器械、再生能源等。然而,由于IGBT器件在工作过程中会遭受高温、大电流和高压等恶劣环境,随着使用时间的增加,器件可能会发生各种故障和老化失效的问题 [1] 。IGBT发生故障后,不仅会导致整个电气系统瘫痪,还有可能发生连锁反应损坏其他相关部件,因此预测IGBT的寿命对于电力系统和工业应用具有重要意义 [2] [3] 。
目前研究方法可以分为基于物理模型的有限元仿真方法、基于解析模型的实验统计方法和基于数据驱动的方法三大类。
基于物理模型的有限元仿真方法:该方法主要是基于IGBT器件的物理特性和工作原理来建立数学模型,通过模拟器件的参数和环境条件来预测寿命。这些方法通常需要深入了解IGBT的物理特性和材料特性以及外部的应力因素。例如:黄小华 [4] 等人通过有限元仿真方法,找到了温度、热膨胀系数等因素对应力应变的影响,杜雄 [5] 等人借助IPOSIM仿真软件用物理热模型计算模块温度,然后使用基于能量的物理模型预估剩余寿命。物理模型方法能够在已知IGBT参数和运行环境的情况下较准确地预测寿命,但通常各参数的确定较为困难,所以在实际应用中非常受限。
基于解析模型的实验统计方法:该方法通过拟合模块的剩余寿命与模块电气参数的关系表达式,来计算剩余寿命。实验发现IGBT老化的循环总次数与温度的关系符合Coffin-Manson理论,毛娅婕 [6] 等人通过做大量的老化试验,求解了Coffin-Manson理论的待估参数,从而确定了结温与寿命的解析公式。Bayerer [7] 等人提出了Bayerer模型,除了结温,还增加了负载电流、阻断电压、升温时间、键合线直径等物理量,该模型考虑的因素更为全面,预测精度也更高。但是这种方法想要准确估计各参数的值,需要做大量的实验,并不适用与实际工况中需要快速结果的情况。
基于数据驱动的方法:该方法主要依赖于采集的IGBT工作数据,如电流、电压、温度、振动等,以及器件寿命数据,通过数据分析和机器学习技术来预测寿命 [8] 。国内外的研究包括使用监督学习算法如回归分析、支持向量机、神经网络等,以及无监督学习算法如聚类分析等来建立IGBT寿命预测模型 [9] 。起初,Alghassi A [10] 等人选择集电极–发射集电压作为老化参量,使用高斯回归和贝叶斯相结合的方法预测了IGBT模块的剩余寿命。Ahsan M [11] 等人选择集电极–发射极电压作为老化参量,通过比较神经网络和模糊推理两种方法,证明了神经网络方法在IGBT寿命预测中的优势。之后为提高预测精度,研究者们不断地对机器学习方法进行改进,比如Liu Z [12] 等人发现集电极–发射极的噪声较大,提出了一种改进的极限学习预测剩余寿命,并与同类算法进行比较发现该算法效果更好。
基于数据驱动的方法的研究思路大致是:确定老化参量,预测老化参量的未来趋势,确定失效标准进而推测老化参量。但当IGBT的应用场景不同,反映其老化的物理参量及其失效标准也会发生变化,很难将其统一。随着深度学习的不断发展,本文将采用卷积神经网络直接预测出其剩余寿命,预测更为直观,且预测精度更好。
2. 基于遗传算法改进的卷积神经网络
2.1. 卷积神经网络
卷积神经网络(Convolutional Neural Network, CNN)是深度学习中的经典模型。与传统神经网络相比,CNN通过卷积层中的卷积核提取输入数据的特征,通过池化层对有效特征进行提取,并通过局部连接对输入数据的相关性进行分析,权值共享和子采样,降低了相同网络规模下待训练的参数量与计算量。图1为典型的卷积神经网络结构图。可以看到,基本的CNN包括输入层、隐藏层、输出层,其中隐藏层包括三个环节:卷积层、池化层和全连接层 [13] 。
卷积层由一组卷积核组成,其作用是对输入矩阵进行递归操作,以提取相应的特征。卷积层从上一层神经网络取一小部分,选择一个卷积核放进被卷积层中,将卷积核乘以对应的被卷积层中的神经元的值,即可得到卷积结果。接着,再按固定的方向进行遍历并进行卷积计算,最终得到卷积结果。在训练过程中,卷积层需要设置移动步长(s),表示每次卷积核所移动的长度,则输出结果的大小可以表示为:
(1)
式中,
表示取整函数,
表示输入边长,
表示卷积核边长。
池化层通常在卷积层之后,通过对输入数据进行局部运算来降低卷积层输出的特征维数,降低后续网络训练复杂度。池化层有两种方式:平均池化和最大池化,公式如下所示。
(2)
(3)
经过卷积和池化运算,最后一个池化层的输出转化为了一维特征向量,作为输入送进全连接层,全连接层完成特征到输出层的映射,连接到网络的输出层,完成分类或预测。
在训练卷积神经网络时,需要更新的参数包括:卷积核、全连接层的权重以及激活函数的参数。网络训练结果受权重初始值影响较大,且初始参数为随机产生,可能使损失函数过早收敛,得到局部最优解,影响预测精度 [14] [15] 。
2.2. 遗传算法
遗传算法是一种随机全局搜索优化方法,它从任意初始种群出发,通过随机选择、交叉和变异操作,产生一群更适合环境的个体,使群体进化到搜索空间中越来越好的区域,最后收敛到一群最适应环境的个体,从而求得问题的优质解 [16] [17] [18] 。遗传算法具有良好的鲁棒性和全局搜索能力,算法的主要流程如图2所示。
(1) 创建初始种群:初始种群是随机选择的一组有效候选解(个体)。并确定种群的大小以及取值范围。
(2) 计算适应度:适应度函数的值是针对每个个体计算的。对于初始种群,此操作将执行一次,然后在应用选择、交叉和突变的遗传算子后,再对每个新一代进行。由于适应度计算之后的选择阶段通常认为适应度得分较高的个体是更好的解决方案,因此遗传算法专注于寻找适应度得分的最大值。
(3) 选择、交叉和变异:将选择,交叉和突变的遗传算子应用到种群中,就产生了新一代,该新一代基于当前代中较好的个体。选择操作负责在当前种群中选择有优势的个体;交叉操作从选定的个体创建后代;变异操作可以将每个新创建个体的一个或多个染色体值随机进行变化。
2.3. 基于遗传算法改进的卷积神经网络
传统的卷积神经网络的学习性能受超参数的选择和初始化参数的设置影响较大,为解决这一问题,本文提出了结合遗传算法优化的卷积神经网络模型,其基本框架如下图3所示。
基本思路是将卷积层和全连接层的各参数作为遗传算法的染色体,经选择、交叉、变异操作,得到参数的最优解,并用于卷积神经网络预测模型,具体步骤如下。
(1) 确定好需要优化的超参数和初始化参数,并确定解空间以及种群大小。
(2) 定义一个适应度函数,用来衡量个体的性能,本文需要衡量CNN模型的预测性能。
(3) 在解空间中随机选择初始种群,并对种群进行二进制编码。
(4) 将当前种群的参数赋值给卷积神经网络,计算适应度,执行遗传算法的迭代过程,即选择、交叉和编译操作,并选择优秀的个体用于下一代。
(5) 根据适应度函数值判断是否停止迭代,如果满足条件则进入下一步,否则重复第(4)步。
(6) 在遗传算法的最后一代,根据适应度函数值选择最佳的个体,作为卷积神经网络的最优参数,并用该网络进行预测。
卷积神经网络训练结果受权重初始值影响较大,容易陷入局部最优,影响预测效果,而遗传算法有很好的全局搜索能力,不容易陷入局部最优 [19] 。经遗传算法输出的最优参数集,更适合用于模型训练,基本上避免了陷入局部最优的问题,预测精度也更好。
3. 实验结果分析
3.1. 数据准备
本文的数据集采用了NASA公布的IGBT老化数据集,NASA研究人员在栅极施加方波电压进行加速老化实验,同时测量电气参数,经过418次开通–关断之后,IGBT模块出现了闩锁效应,认为IGBT彻底失效。测量的电气参数有栅极电压、集电极–发射极电压、集电极–发射极电流,由于电参数在一个周期内变化幅度较大,原始数据不适合放入模型,所以先对电参数进行特征提取,本文提取的特征如下表1所示。
为了剔除冗余特征,减少计算量,本文根据如下规则进行了特征选择。
(1) 特征与目标变量的相关性:剔除与剩余寿命的相关系数的绝对值小于0.3的特征。
(2) 特征之间的相关性:计算特征之间的相关性,选出相关性高于0.7的特征,从中剔除与剩余寿命相关性第的特征 [20] 。
最终进入模型的特征有:集电极–发射极电压的最大值、均值、绝对值均值,集电极–发射极电流的均方根、绝对值均值、均值、峰态、方差、偏态,下文用
表示。
由于经典的卷积神经网络是用于图像识别的二维卷积神经网络,再考虑到我们的数据是时间序列数据,而卷积神经网络不能之间学习特征之间的时序关系,所以本文的输入数据,除了本周期的电参量特征,再追加当下前5个周期的电参量特征,共同作为输入数据,现在输入数据转变成6 × 9的二维矩阵。最终卷积神经网络的输入表达式如式(4)所示:
(4)
3.2. 模型设计
相比图像处理,本数据集输入维度较小,是一个6 × 9的二维矩阵,因此本文选择的卷积核尺寸和数量也较小,卷积层1使用4个大小为2 × 2的卷积核来提取输入矩阵,并将矩阵的边缘部分用0填充,由于输入矩阵的维度较小,在卷积层1后暂不添加池化层。将卷积层1的运算结果输入到下一层,卷积层2又分别使用8个大小为2 × 2的卷积核继续提取特征,随后进入池化层,对数据进行平均池化,采用3 × 3的卷积核,步长为3,最后得到8张3 × 3的特征,将其展平,形成一个具有72个节点特征向量,全连接到一个节点中,该节点的输出即为当前时刻下IGBT的剩余寿命。卷积神经网络结构的参数如下表2所示。

Table 2. Structural parameters of convolutional neural networks
表2. 卷积神经网络结构参数
确定好卷积神经网络模型的结构,下一步用遗传算法求解卷积神经网络的各参数。根据结构可知,需要确定卷积层1、卷积层2和全连接层的卷积核初始化参数,以及激活函数、优化器、批量大小等超参数,这些参数共同组成了优化算法的种群。分别给出每个参数的可行域或映射关系,确定最终的解空间,并确定本文的种群大小为40。本文选择卷积神经网络预测的均方误差作为优化算法的适应度,具体表达式如式(5)。确定好这些信息,即可按照2.3的结构进行模型训练,得出最优参数解,最终得到最优的卷积神经网络寿命预测模型。
(5)
3.3. 模型评估
本文采用决定系数(r-square, R)、均方根误差(root mean squared error, RMSE)和绝对误差(mean absolute error, MAE)作为预测模型的评估标准,其具体公式如式(5)(6)(7):
(6)
(7)
式中
表示IGBT的真实剩余寿命,
表示模型预测的IGBT的剩余寿命,
表示IGBT实际剩余寿命的平均值。注意这里是寿命指的是剩余的开关周期数,并非剩余时间。
本文种群大小为40,遗传算法的终止进化代数为200,交叉率取0.8,变异率取0.005,以预测剩余寿命和实际剩余寿命的均方根误差作为适应度进行模型训练,并用测试集进行测试,验证模型效果,其预测效果如图4所示。
由图4可知,剩余寿命预测曲线与真实的剩余寿命曲线拟合度较高,模型的拟合优度
高达98.43%,均方误差为16.47。为了验证基于遗传算法优化的卷积神经网络的精确性和准确性,采用SVR模型、MLP模型、CNN模型进行试验对比,图5为各模型寿命预测效果的对比图,发现GA-CNN的剩余寿命预测曲线和真实剩余寿命曲线拟合地最好。

Figure 5. Comparison of RUL prediction results
图5. 寿命预测结果对比
之后,用决定系数、均方根误差和绝对误差作为预测模型的评估标准,其结果如下表3所示。相较于其他模型,GA-CNN的预测效果在
、MSE、MAE上都有显著提升。

Table 3. The errors of RUL prediction
表3. 寿命预测误差对比
4. 结论
传统的IGBT剩余寿命预测方法,通过输入前一段时期的电参数状态,预测未来的电参数状态,确定各参数的失效阈值,超过阈值判断为失效,这种方法对剩余寿命的预测既不稳定也不直接。本文选取合适的电参数特征作为输入,剩余寿命作为输出,可以直接预测任意状态下的剩余寿命。本文提出了基于遗传算法的卷积神经网络预测方法,其决定系数能够稳定高达98.43%,均方根误差稳定在16,相比于SVR、MLP和CNN方法,具有更高的精度和稳定性。