基于Geman-McClure损失的稳健变量选择
Robust Variable Selection Based on Geman-McClure Loss
DOI: 10.12677/SA.2023.122042, PDF, HTML, XML, 下载: 187  浏览: 316  科研立项经费支持
作者: 谢传琪, 王延新*:宁波工程学院理学院,浙江 宁波
关键词: 稳健变量选择高维数据Adaptive LASSOGeman-McClure损失Robust Variable Selection High-Dimensional Data Adaptive LASSO Geman-McClure Loss
摘要: 基于惩罚函数的最小二乘估计或似然估计是变量选择的有效方法。但当数据存在异常值时,罚最小二乘或似然估计的稳健性受到极大挑战。本文提出基于Geman-McClure损失的稳健变量选择方法,该损失函数能够有效抵制数据中异常值的影响。数值模拟和实际数据分析验证了该模型的有效性和稳健性。
Abstract: Least squares or likelihood estimation based on penalty function is an effective method for variable selection. However, the robustness of penalized least squares or likelihood estimation is greatly challenged when there are outliers in the data. In this paper, we propose a robust variable selection method based on the Geman-McClure loss, which is an effective loss function to counteract the influence of outliers in the data. Numerical simulations and analysis of real data validate the validity and robustness of the model.
文章引用:谢传琪, 王延新. 基于Geman-McClure损失的稳健变量选择[J]. 统计学与应用, 2023, 12(2): 391-397. https://doi.org/10.12677/SA.2023.122042

1. 引言

关于变量选择问题,很多学者做了大量研究。上世纪70年代,人们提出信息准则方法,如1973年Akaike [1] 提出AIC准则,1978年Schwarz [2] 在贝叶斯理论的基础下提出BIC准则。然而,随着变量维数的增加,基于准则选取变量的方法,计算复杂度会急剧增加,效率低下。近年来,变量选择的稀疏正则化方法已逐渐流行起来。1996年,Tibshirani [3] 提出了LASSO (Least Absolute Shrinkage and Selection Operator),该方法通过L1范数进行惩罚来压缩回归系数的大小,使绝对值较小的回归系数被自动压缩为0。尽管L1范数是凸函数且易于求解,但LASSO为有偏估计,并且变量选择的一致性需要满足一定的不可表示条件 [4] (Irrepresentable Condition)和系数Riesz条件 [5] (Sparse Riesz Condition)。为了解决上述问题,一系列非凸正则化方法被提出。2001年,Fan和Li [6] 提出了SCAD (Smoothly Clipped Absolute Deviation Penalty)罚,是一种近似无偏稀疏估计。2006年,Zou [7] 在LASSO的基础上提出了Adaptive LASSO,该方法是一种LASSO的改进。SCAD和Adaptive LASSO在一定条件下都满足Oracle性质。2010年,T. Zhang [8] 提出Capped L1实现模型的稀疏解。Zhang [9] 提出了MCP (Minimax Concave Penalty)惩罚。很多研究表明,非凸惩罚函数在理论分析以及应用中具有更优的表现 [10] 。

近些年,诸多高维数据变量选择研究工作的前提假设是误差分布为高斯分布或次高斯分布。然而许多实际数据如气候数据,保险理赔数据,电子商务数据等往往服从重尾分布,对于此类数据,上述方法并不适用。模型的稳健性受到极大挑战。统计学家针对具有重尾误差的情形提出了若干稀疏正则化方法,如基于Huber损失的高维M估计 [11] 、基于LAD [12] 或分位数的损失函数的估计、稳健M估计中拟似然估计方法 [13] 、基于梯度下降算法的稳健估计 [14] 、基于指数平方损失 [15] 或t型损失 [16] 的稳健回归、基于Wilcoxon得分函数的秩LASSO估计 [17] 等。

针对误差分布为重尾分布或数据存在异常值的高维模型,本文提出了一种基于Geman-McClure损失的稳健罚估计方法。该方法在X空间或Y空间存在离群值时,依旧能稳健且有效的进行变量选择。

2. 基于Geman-McClure损失的稳健模型

考虑线性回归模型

y = X T β + ε (1)

其中, y R N 为响应变量, X R N × p 为设计矩阵, β R p 为回归系数向量, ε R N 为误差向量且服从独立同分布 ε n N ( 0 , σ 2 ) n { 1 , 2 , , N }

高维数据变量选择的稀疏正则化方法的一般框架为:

β ^ = arg min β R p { i = 1 n ϕ ( y i x i T β ) + n j = 1 p p λ ( | β j | ) } (2)

其中, ϕ ( · ) 为损失函数, p λ ( | β j | ) 为罚函数, λ 0 。常见的罚函数如LASSO、SCAD、Adaptive LASSO和MCP等。鉴于Adaptive LASSO的优良统计性质 [7] ,本文选取Adaptive LASSO作为罚函数。Adaptive LASSO形式如下:

β ^ = arg min β R p 1 2 y X β 2 2 + λ p = 1 P w ^ p | β p | (3)

其中, 2 表示L2范数, λ 0 w ^ p 1 / | β ^ p O L S | γ 为第p个回归系数的权值, γ > 0 β ^ p O L S 为普通最小二乘估计的解。可以看出,Adaptive LASSO的实现需通过两步进行:1) 先进行最小二乘估计,将系数估计值的 γ 次方的倒数作为第p个变量的权值;2) 对每个变量赋予“量身定做”的权值后,将权值代入(3)式进行求解。

Adaptive LASSO采取的损失函数为平方损失,该损失注定了Adaptive LASSO不适合用于数据存在异常值的情形。本文在Adaptive LASSO以及Geman-McClure损失的基础上,提出一种稳健且有效的变量选择模型,形式如下:

β ^ = arg min β R p { 1 n i = 1 n ϕ ( y i x i T β ) + λ p = 1 P w ^ p | β p | } (4)

其中,Geman-McClure损失函数为 ϕ ( t ) = t 2 / ( γ + t 2 ) ,其中 t = y i x i T β 。该损失函数保证正常样本情况下,其自身灵敏度的同时,又降低了对异常样本的敏感程度,提高对变量选择的稳健性。

3. 模拟研究

在本例中,模拟数据由线性回归模型生成,

y = X T β + ε

其中变量个数为40,非零系数分别为 β 1 = 3 β 2 = 1.5 β 5 = 2 ,其余系数均为0,样本大小 n = 200 ,对于每种情况,重复模拟100次。

情景1: X i 中存在异常值。每个预测值 X i 均为40维正态分布的混合样本, ( 1 c % ) N ( 0 , 1 ) + c % N ( 3 , 3 2 ) ,其中c为异常样本比例,误差项服从标准正态分布。

情景2: y i 中存在异常值。每个预测值 X i 均服从标准正态分布,误差项服从 ( 1 c % ) N ( 0 , 1 ) + c % N ( 10 , 6 2 ) ,其中c为异常样本比例。

情景3:误差项为t分布,每个预测值 X i 均服从标准正态分布,误差项服从 t ( k ) ,其中 k = 2 , 3 , 5

为了与本文提出的方法比较,本模拟也利用Adaptive LASSO估计,用10折CV进行参数调节,通过使用R软件包“glmnet”来实现。而基于Geman-McClure损失和自适应LASSO的变量选择方法(以下简记为GM-ALASSO)采用BCGD算法 [18] 对模型进行求解。

为了评价模拟效果,我们计算了估计系数与真实系数之间均方误差的中位数(MSE);平均模型大小(即非零系数的数量),MS。更好的模型选择应该产生更准确的预测结果(即较小的MSE值)、更正确的模型大小(即MS)。此外,为了评估变量选择表现,我们还考虑了假阳性率(FPR)和假阴性率(FNR),定义如下

F P R = # o f s e l e c t e d u n i m p o rtant v α r i a b l e s # o f s e l e c t e d v a r i a b l e s , F N R = # o f r e m o v e d u n i m p o r tant v α r i a b l e s # o f r e m o v e d v a r i a b l e s .

当未选择变量时,FPR为0,当所有变量已选择,FNR为0。同时,我们还计算了Hamming距离(HD),其中HD = FN + FP,其中FN表示非零系数被判为零系数的平均次数,FP表示零系数被判为非零系数的平均次数。在结果上,更好的模型应具备更小的HD。

表格中,在标记为“Under fit”的列中,我们给出了200次重复实验中去除了任何非零系数的比例。同理,“Correct-fit”表示正确选择模型的概率,“Over-fit”列表示选择了一些噪声变量的概率。

表1可以看出,在X空间数据未被污染的情况下,Adaptive LASSO和GM-ALASSO估计的准确率均在0.9附近,两种方法的估计效果均良好,这证明了GM-ALASSO在X空间无污染情况下估计的有效性。然而,在X空间数据被污染的情况下,随着污染程度的增加,Adaptive LASSO变量选择的能力急剧下降,模型过拟合程度急剧增加,而GM-ALASSO基本稳定在0.7附近,过拟合程度也显著低于Adaptive LASSO,这证明了GM-ALASSO在X空间被污染情况下变量选择方法的稳健性。

Table 1. Scenario 1 estimated results

表1. 情景1估计结果

同理,从表2可看出,在Y空间数据未被污染的情况下,Adaptive LASSO和GM-ALASSO估计的准确率均较为良好,证实GM-ALASSO在Y空间未被污染情况下的有效性。在Y空间被污染的情况下,随着污染程度的加剧,GM-ALASSO的估计效果愈加强于Adaptive LASSO,模型的过拟合程度较Adaptive LASSO也较低,证实GM-ALASSO在Y空间存在污染情况下的有效性。但两者估计效果在Y空间被污染情况下的准确率均会高于在X空间存在污染的情况,说明GM-ALASSO对Y空间存在异常值的抵抗力更为强大。

Table 2. Scenario 2 estimated results

表2. 情景2估计结果

同理,从表3可看出,随着模型重尾程度的加剧,GM-ALASSO的变量选择能力会显著强于Adaptive LASSO,证明了GM-ALASSO在数据服从重尾分布情况下的稳健性。

Table 3. Scenario 3 estimated results

表3. 情景3估计结果

综合而言,GM-ALASSO在X空间或Y空间存在异常值时以及样本服从重尾分布的情况下的变量选择能力均强于Adaptive LASSO,模型整体的稳健性及有效性均较为良好。

4. 实证分析

模拟研究

在本节中,我们将GM-ALASSO变量选择方法应用于波士顿房价数据。该数据是统计数据分析类非常著名的一类数据集,其中包括决定房价的结构因素、环境因素和教育因素。同时,该数据集也属于公开研究的数据,本节采用的数据集来自R软件自带的波士顿数据集,可通过data (“Boston”)命令从R软件自带数据集中调出。包含13个可能影响房价的变量:crim (犯罪率)、zn (高于25000平方英尺房屋比率)、indus (非零售商业区比率)、nox (氮氧化物浓度)、rm (住宅平均房间数)、age (1940年前自住房比率)、dist (与波士顿五大就业中心的加权距离)、rad (高速公路便利指数)、tax (不动产税)、ptratio(学生–老师比例)、black (黑人比例)、lstat (低教育人口比例)、chas (查尔斯河虚拟变量)。响应变量medv (住房价格中位数)。

近年来,有许多方法对波士顿数据进行研究。例如分位数回归算法 [19] 、梯度下降算法 [20] 、SARCH模型、QPLSIM模型和QPLAM模型 [21] 、非参数方法和半参数方法探索数据结构 [22] 。这些方法都可以用来研究波士顿房价数据。波士顿数据集分为两部分:训练集有354个样本,测试集有152个样本。本文分别采用Adaptive LASSO和GM-ALASSO两种方法对波士顿房价数据进行变量选择。为了验证稳健性,将d%的数据进行污染,通过将d%的数据加上0.05×自身值。在本文中,d分别取0,3,5进行实验。将两种算法变量选择后的结果进行线性建模,结果见表4

表4可见,当数据不加污染时,虽然GM-ALASSO变量选择方法估计的RMSE以及MAE比Adaptive LASSO方法的要大,但是差别不大,说明在无污染的情况下,GM-ALASSO变量选择方法是有效的。但当数据被污染时,GM-ALASSO变量选择方法的RMSE以及MAE比Adaptive LASSO更小,且R2更大,说明GM-ALASSO在数据由污染时更稳健。从表5可见,在变量选择上,GM-ALASSO选取的变量较为稳定,随着污染的加剧,GM-ALASSO均只在无污染的前提下,新增变量dis,而Adaptive LASSO的波动较为明显,随着污染的加剧,变量选择的改变幅度也在增大,这也说明了GM-ALASSO变量选择在污染情况下的稳健性。

Table 4. Experimental results

表4. 实验结果

Table 5. Estimated regression coefficients for Boston house price data

表5. 波士顿房价数据的估计回归系数

5. 结论

本文在Adaptive LASSO变量选择的框架下提出了一种稳健且有效的变量选择方法,基于Geman-McClure损失提出一种新损失从而达到稳健的效果。模拟结果和实际数据表明,GM-ALASSO方法能够以比较高的概率选择正确的模型且具有较小的模型误差。与传统方法相比,GM-ALASSO方法更适合数据存在异常值的情况。此外,相关的理论性质尚未被讨论,这是未来的研究方向之一。

基金项目

宁波工程学院崇本基金项目(2022014);宁波市自然科学基金项目(2021J143, 2021J144)。

NOTES

*通讯作者。

参考文献

[1] Akaike, H. (1973) Information Theory and an Extension of the Maximum Likelihood Principle. In: Petrov, B.N. and Csaki, F., Eds., Second International Symposium on Information Theory, AkademiaiKiado, Budapest, 267-281.
[2] Schwarz, G. (1978) Estimating the Dimension of a Model. The Annals of Statistics, 6, 461-464.
https://doi.org/10.1214/aos/1176344136
[3] Tibshirani, R. (1996) Regression Shrinkage and Selection via the Lasso. Journal of the Royal Statistical Society: Series B (Methodological), 58, 267-288.
https://doi.org/10.1111/j.2517-6161.1996.tb02080.x
[4] Zhao, P. and Yu, B. (2006) On Model Selection Consistency of Lasso. The Journal of Machine Learning Research, 7, 2541-2563.
[5] Zhang, C.-H. and Huang, J. (2008) The Sparsity and Bias of the Lasso Selection in High-Dimensional Linear Regression. The Annals of Statistics, 36, 1567-1594.
https://doi.org/10.1214/07-AOS520
[6] Fan, J. and Li, R. (2001) Variable Selection via Nonconcave Penalized Likelihood and its Oracle Properties. Journal of the American Statistical Association, 96, 1348-1360.
https://doi.org/10.1198/016214501753382273
[7] Zou, H. (2006) The Adaptive Lasso and Its Oracle Properties. Journal of the American Statistical Association, 101, 1418-1429.
https://doi.org/10.1198/016214506000000735
[8] Zhang, T. (2008) Multi-Stage Convex Relaxation for Learning with Sparse Regularization. Proceedings of the 21st International Conference on Neural Information Processing Systems, Vancouver, 8-10 December 2008, 1929-1936.
[9] Zhang, C.-H. (2010) Nearly Unbiased Variable Selection under Minimax Concave Penalty. The Annals of Statistics, 38, 894-942.
https://doi.org/10.1214/09-AOS729
[10] Xu, X. (2010) Data Modeling: Visual Psychology Approach and L1/2 Regularization Theory. Proceedings of the International Congress of Mathematicians 2010 (ICM 2010), Hyderabad, 19-27 August 2010.
[11] Fan, J., Li, Q. and Wang, Y. (2017) Estimation of High Dimensional Mean Regression in the Absence of Symmetry and Light Tail Assumptions. Journal of the Royal Statistical Society Series B: Statistical Methodology, 79, 247-265.
https://doi.org/10.1111/rssb.12166
[12] Wang, H., Li, G. and Jiang, G. (2007) Robust Regression Shrinkage and Consistent Variable Selection through the LAD-Lasso. Journal of Business & Economic Statistics, 25, 347-355.
https://doi.org/10.1198/073500106000000251
[13] Avella-Medina, M. and Ronchetti, E. (2018) Robust and Consistent Variable Selection in High-Dimensional Generalized Linear Models. Biometrika, 105, 31-44.
https://doi.org/10.1093/biomet/asx070
[14] Prasad, A., Suggala, A.S., Balakrishnan, S. and Ravikumar, P. (2020) Robust Estimation via Robust Gradient Estimation. Journal of the Royal Statistical Society Series B: Statistical Methodology, 82, 601-627.
https://doi.org/10.1111/rssb.12364
[15] Lozano, A.C., Meinshausen, N. and Yang, E. (2016) Minimum Distance Lasso for Robust High-Dimensional Regression. Electronic Journal of Statistics, 10, 1296-1340.
https://doi.org/10.1214/16-EJS1136
[16] 钟先乐, 樊亚莉, 张探探. 基于t函数的稳健变量选择方法[J]. 上海理工大学学报, 2017, 39(6): 542-548.
[17] Wang, L., Peng, B., Bradic, J., Li, R. and Wu, Y. (2020) A Tuning-Free Robust and Efficient Approach to High- Dimensional Regression. Journal of the American Statistical Association, 115, 1700-1714.
https://doi.org/10.1080/01621459.2020.1840989
[18] Wang, X., Jiang, Y., Huang, M. and Zhang, H. (2013) Robust Variable Selection with Exponential Squared Loss. Journal of the American Statistical Association, 108, 632-643.
https://doi.org/10.1080/01621459.2013.766613
[19] 陈子亮, 卿清. 影响波士顿不同社区房价水平的因素分析——基于分位数回归方法[J]. 商, 2015(30): 278-279.
[20] 陈泽坤, 程晓荣. 基于梯度下降算法的房价回归分析与预测[J]. 信息技术与信息化, 2020(5): 10-13.
[21] Guo, H., Wu, C.J. and Yu, Y. (2015) Time-Varying Beta and the Value Premium: A Single-Index Varying-Coefficient Model Approach.
https://doi.org/10.2139/ssrn.2574080
[22] Qian, J. and Su, L. (2016) Shrinkage Estimation of Regression Models with Multiple Structural Changes. Econometric Theory, 32, 1376-1433.
https://doi.org/10.1017/S0266466615000237