1. 引言
在实际生活中,在不同的领域会产生各种散乱数据的拟合问题,选择一个良好的方法是处理问题的关键。径向基函数有着良好的逼近效果,是处理散乱数据问题的一种较优方法 [1] 。径向基函数利用简单的一元函数作为基函数,使得自身可以有效的减少计算最优值点所需要的运算次数,在一定程度上为找到全局最优点节约了大量计算成本。
高斯径向基函数方法是插值多维散乱数据的有力工具,是在处理大规模散乱数据时常用的方法。目前,对于高斯径向基函数的最优形状参数取值有众多国内外的学者取得了不错的成果,使得高斯径向基函数在实际问题的数值模拟中插值逼近的精度或速度有一定的提升,在一定程度上推动了高斯径向基函数实际应用的范围。
秦伶俐 [2] 在径向基函数在无单元法应用中:探讨了求解微分方程基于径向基函数的无单元法,总结出了高斯的径向基函数和Multi-Quadric的径向基函数中的形状参数与微分方程求解精度的关系曲线,以及节点均匀分布时最佳取值的计算公式,在保证求解精度的前提下,验证出自由分布的节点适用于均匀分布节点下的自由参数形状公式,证明出在求解微分方程时基于径向基函数的无单元法对节点的分布位置不敏感。
徐咏梅 [3] 在高斯径向基核函数参数的GA优化方法中提出:利用GA的非线性优化的性质确定高斯径向基核函数参数的取值,通过实验证明使用该方法所确定的高斯径向基核函数参数应用于KFDA中具有良好的效果,模式分类的可分性测试度优于其他方法的分类效果。
高斯径向基函数是一种常见的径向基函数,形状参数c决定了其插值精度,不同的插值问题对应着不同的形状参数。目前来讲,对于各种高斯径向基函数插值形状参数选取问题还没有通用的方法,故对高斯径向基函数的形状参数选取方法进行研究具有重要的科研价值。
2. 径向基函数的定义
径向基函数(RBF) [4] 就是一个取值仅仅依赖于离原点距离的实值函数
,即
。如果满足:
,那么满足
的实值函数
就是径向函数,是仅仅由
控制的函数(其中的范数是Euclid范数)。
高斯径向基函数 [5] 的常用表法式为:
(1)
(1)式中: 是基函数为高斯函数的形状参数。
在二维空间中具体可表示为:
(2)
在三维空间中具体表示为:
(3)
上述(2) (3)两式中:
是网格中心坐标;
是径向基函数中心坐标;
是径向基函数分布半径。
这里介绍一些常见的径向基函数:
1) Kriging方法的Gauss分布函数:
(4)
2) Kriging方法的Markoff分布函数:
(5)
3) Hardy的Multi-Quadric函数:
(6)
(其中
为正实数)
4) Hardy的逆Multi-Quadric函数:
(7)
(其中
为正实数)
5) Duchon的薄板样条:
d为偶数时:
(8)
d为奇数时:
(9)
6) 紧支柱正定径向基函数:
紧支柱正定径向基函数是:全局形的函数通过一个多项式在给定的连续性条件和给定维数的自变量空间下截断产生的,同时满足正定和连续,一般情况下表示为:
(10)
其中
为某一给定的多项式,
当(
)时,
;
当(
)时,
。
3. 梯度下降法
梯度下降法(Gradient Descent) [6] 是机器学习中常见的迭代法,是一种一阶最优化算法,也称为最速下降法。梯度下降法可以用来处理任何非约束优化问题,普遍应用于神经网络参数的优化。
一般的梯度下降算法步骤为:
Step1:给定待优化连续可微的目标函数
,学习率
或步长d,以及函数的一组初始值
Step2:计算待优化函数梯度方向:
Step3:更新迭代:
Step4:更新参数(梯度方向、学习率)
Step5:如果到达收敛停止迭代输出最值,否则回到Step2继续迭代
由于梯度下降法是一阶优化算法 [3] ,因此可以从导数的定义去理解梯度下降法的梯度。在微积分中,函数
在点
上的导数定义为:
(11)
导数的几何意义就是函数
在
上的切线方向。从Taylor级数的角度来说,
在
附近的Taylor级数是:
(12)
对于临界点
,满足
。当
时,可以得到
是
的局部最小值;当
时,此时
是
的局部最大值。因此,当函数可导时,梯度方向就是函数的一阶导。
4. 基于改进的梯度下降法确定形状参数
对于高斯径向基函数最优形状参数确定,在选取初始形状参数后,并不能保证所选取的参数是当前的最优形状参数。因此,可以利用梯度下降法寻找到高斯径向基函数最优形状参数。故在处理最优形状参数选取问题时,需要针对性的对梯度下降法进行改进。改进主要针对目标函数、梯度方向、学习率三个方面进行:
1) 目标函数
基于最佳一致逼近原则当绝对最大误差(MAXERROR)最小时,此时的形状参数称为当前高斯径向基函数的最优形状参数。因此,基于最优形状参数与误差函数之间的关系,可以定义这样的目标函数:
(13)
(40)式中:
为原函数,具体表示为:
(14)
(40)式中:
为高斯径向基函数,
为常数,下式中c为形状参数,具体表示为:
(15)
2) 梯度
用差商公式近似代替导数Euler法:
初值问题的形式为:
(16)
首先将[a,b]区间等分即取等间距的插值间距,用向前差商近似代替代数:
(17)
可得:
。
由于构建的目标函数无法直接进行求导或求偏导,但是目标函数在固定区间上是连续函数,因此可以利用差商来代替导数,根据Euler法的差商公式改进后的梯度方向表示为:
(18)
3) 学习率
一般来说,需要有合适的学习率才能获得最优的算法模型,得出目标函数的最小值。在设定学习率时需要满足如下的条件:
(19)
其中i表示第i次更新。
对于学习率的具体数值没有参考标准,根据二分线性搜索(Bisection Line Search)的方法,针对本文讨论的问题进行学习率的数值实验。
数值实验1:
实验中目标函数为:
初始形状参数、插值间距、插值范围均取相同值,学习率、误差及运行次数实验结果如下:

Table 1. Learning rate verification results
表1. 学习率验证结果
由于高斯径向基函数对形状参数及其敏感,在梯度下降时,若梯度下降过快,会造成权重矩阵奇异,导致最终无法插值拟合出函数。根据上述数值实验可以看出,当学习率稍大时,插值拟合效果较差,误差较大,针对高斯径向基函数形状参数敏感问题,对迭代下降的步长设定一个阈值,使其避免因为迭代过快,造成无法拟合的情况。设定步长阈值的迭代公式表示为:
(20)
当
时,令
,否则
继续更新迭代,在此基础上,对学习率问题再次进行数值实验。
数值实验2:
实验中目标函数为:
初始形状参数、插值间距、插值范围均取相同值,学习率、误差及运行次数实验结果如下:

Table 2. Verification of the improved learning rate
表2. 改进后的学习率验证
根据表1、表2数值实验的结果,当学习率
时,误差函数相对最小,拟合效果相对最优,计算速度相对最快。
在对一般梯度下降法的目标函数、梯度、学习率针对性改进后,高斯径向基函数最优形状参数输出算法为:
Step1:既定的目标函数为
,学习率
,初始值设置为
Step2:计算待优化函数梯度方向:
Step3:更新迭代:
Step4:更新梯度方向:
Step5:若
,输出当前形状参数,否则转Step2继续迭代
5. 数值实验验证
数值实验3:
实验函数:
,随机取形状参数c = 100,基于改进后的梯度下降法得到的形状参数为c = 1.5348。
函数插值拟合图像为图1,误差函数图像为图2。
数值实验4:
实验函数:
,随机取形状参数c = 0.1,基于改进后的梯度下降法得到的形状参数为c = 80.435。
函数插值拟合图像为图3,误差函数图像为图4。
6. 结论
本文的主要工作是对高斯径向基插值形状参数的选取提供一个便捷的方法。本文首先对高斯径向基函数和梯度下降法的基本理论进行介绍,并针对目标函数、梯度方向、学习率三个方面对梯度下降法进行改进。经过数值实验,基于梯度下降算法得到的形状参数在对原函数进行插值后,通过图1、图3可以看出函数的拟合效果较好。通过图2、图4可以看出,插值函数与原函数之间的整体误差较小。说明改进后的梯度下降法选取高斯径向基插值形状参数的有效性。此方法的建立,为高斯径向基函数形状参数的选取提供了便捷的方法,为高斯径向基函数的实际应用推广奠定良好基础。
基金项目
本工作受到国家自然基金(No. 11601151)和河北省青年拔尖人才支持计划项目支持。