基于弹性网惩罚的高维部分线性模型的稳健变量选择
Robust Variable Selection Based on High-Dimensional Partial Linear Model of Elastic Net Penalty
DOI: 10.12677/PM.2024.141006, PDF, HTML, XML, 下载: 64  浏览: 111  科研立项经费支持
作者: 童 画, 冯彬娟, 袁德美*:重庆工商大学数学与统计学院,重庆
关键词: 高维数据弹性网部分线性模型变量选择分位数回归High-Dimensional Data Elastic Net Partial Linear Model Variable Selection Quantile Regression
摘要: 高维数据下部分线性模型的变量选择方法大多基于最小二乘回归估计展开,但随着数据复杂性的提升,极端、异常等因素使得以往模型的估计效率直线下滑。为此,本文基于弹性网络法与分位数回归相结合的正则化理论,提出了一种应对高维数据下部分线性模型的稳健变量选择模型。该模型不仅可以有效处理强相关变量组的数据,还可以在面对离群点或存在异方差时仍达到较好的稳健性。此外,理论上证明了在一定条件下模型估计量的相合性和稀疏性,最后通过数值模拟,与其他变量选择方法作比较,进一步表明了该方法的优越性。
Abstract: Most of the variable selection methods of some linear models under high-dimensional data are based on least squares regression estimation, but with the increase of data complexity, extreme and abnormal factors make the estimation efficiency of previous model plummet. Therefore, based on the regularization theory combining elastic network method and quantile regression, this paper proposes a robust variable selection model to cope with some linear models under high-dimensional data. The model can not only effectively handle data for groups of strongly cor-related variables, but also achieve better robustness in the face of outliers or heteroscedasticity. In addition, the coherence and sparsity of model estimators under certain conditions are theoretically proved, and finally the superiority of this method is further demonstrated by numerical simulation and comparison with other variable selection methods.
文章引用:童画, 冯彬娟, 袁德美. 基于弹性网惩罚的高维部分线性模型的稳健变量选择[J]. 理论数学, 2024, 14(1): 41-52. https://doi.org/10.12677/PM.2024.141006

1. 引言

在数字化发展的今天,金融、气象、生物医学等诸多领域的数据中各指标之间的关系变得愈加错综复杂,简单地运用线性模型已经不足以分析各指标的联系。而半参数模型不仅具有强大的拟合能力,且不需要对数据做出过多的假设,十分适用于处理分布未知的复杂数据。部分线性模型 [1] 则是常见的一类半参数模型,因其同时具有线性模型和非参数模型的优点,吸引了广大统计学者的关注,成为了各领域处理数据的重要工具。

而随着大数据时代的到来,高维数据频繁出现在各个领域。高维数据的变量个数过多,往往在建模分析过程中容易导致“维数灾祸”,传统的变量分析方法已无力应对这种问题。对此,可同时进行变量选择和系数估计的正则化方法被学者们提出,其一般形式为“损失函数 + 惩罚函数”。当采用岭回归 [2] 作惩罚函数时,其通过有偏估计很好地解决了变量间多重共线性的问题,但这种方法只能限制模型回归系数尽可能地小,不具备稀疏性。LASSO [3] 惩罚虽然能实现稀疏变量的目的,但对于具有群组效应的特殊数据结构,它只能勉强选出该变量组的一个变量,容易忽略其他重要变量,对于高维数据中存在多重共线性时,LASSO的估计效果会变得很差。SCAD [4] 惩罚是对称且非凸性的,它虽然可以产生稀疏解,但其迭代算法却极其缓慢,难以适应高维数据情形。而Zou和Hastie [5] 提出了弹性网络法,因其结合了LASSO和岭回归惩罚项的优势,不仅可以解决多重共线性的问题,而且还能对变量进行有效筛选。

高维数据下的部分线性模型因其需要考虑线性协变量的选择和系数估计、光滑参数的选择、非参数函数的估计等方面的问题,因此如何在高维数据下对部分线性模型进行稳健的变量选择成为了一大挑战。目前,关于高维部分线性模型的变量筛选问题研究还不多。Xie和Huang [6] 运用SCAD惩罚来实现线性部分的稀疏性,并用多项式样条来估计非参数分量。杨宜平等 [7] 结合样条方法和Dantzig或Lasso变量选择方法,同时进行变量选择和未知参数估计,并证明了估计误差的非渐近界。Chen等 [8] 采用自适应弹性网对部分线性模型进行变量选择,并证明了其Oracle性质。Wang等 [9] 利用组Bridge和最小二乘估计讨论了高维部分线性模型的估计问题。赖秋楠等 [10] 提出了profile贪婪向前回归变量筛选方法,证明了在一定正则条件下所提PGFR方法具有筛选相合性。但这些文献大多都是基于最小二乘估计作为损失函数,而在实践中最小二乘估计对噪音较敏感,稳定性较差,特别是在面对高维数据中含有极端值、离群点或是呈现尖峰、厚尾分布时,其预测效果往往不佳。为了实现更稳健的估计,Koenker和Basset [11] 提出了分位数回归,因其不需要对误差分布作特定假设仍可获得全局分布的特征,且保持较高的稳健性,进而被不同领域广泛研究运用。

本文就将利用将弹性网络法和分位数回归相结合的正则化方法,对高维部分线性模型进行稳健变量选择。此方法不需要对模型中误差项的分布情况做任何假设,在面对高维数据中出现异常值或极端值时仍保持较好的稳健性,能够丰富具体地反应响应变量的分布特征。除此之外,这种组合的正则化方法还可以灵活处理高维数据中多重共线性与群组效应问题,能对变量间的强相关性信息进行变量筛选,产生稀疏解。理论上将证明该模型估计量的相合性和稀疏性,并通过数值模拟,与其他变量选择方法进行比较,表明该方法更有效更稳健。

2. 稳健变量选择过程

考虑如下部分线性模型:

Y = X T β + g ( Z ) + ε , (1)

其中, Y = ( y 1 , y 2 , , y n ) T 为n维响应变量; X = ( x 1 , x 2 , , x n ) T = ( x ˜ 1 , x ˜ 2 , , x ˜ p ) n × p 设计矩阵,且 p n β = ( β 1 , β 2 , , β p ) T 为p维未知参数向量; ε = ( ε 1 , ε 2 , , ε n ) T 为n维随机误差向量,与 ( X , Z ) 独立且期望为0,方差为 σ 2 g ( ) 为未知光滑函数,为避免维数灾难,假定Z为一维随机变量,且在闭区间 [ 0 , 1 ] 上取值。

对模型(1)两边关于Z求条件期望,可得

E ( Y | Z ) = { E ( X | Z ) } T β + g ( Z ) , (2)

由(2)式可得 g ( Z ) 的表达式,再将其代入(1)式,经整理得

Y E ( Y | Z ) = { X E ( X | Z ) } T β + ε , (3)

E ( X | Z ) E ( Y | Z ) 已知,则模型(3)即为标准的线性模型。

m X ( Z ) = E ( X | Z ) m Y ( Z ) = E ( Y | Z ) ,令 m ^ X ( Z ) m ^ Y ( Z ) 分别为 m X ( Z ) m Y ( Z ) 的估计量,本文采用核估计,即

m ^ X ( Z ) = i = 1 n K ( Z i Z h ) X i i = 1 n K ( Z i Z h ) ;

m ^ Y ( Z ) = i = 1 n K ( Z i Z h ) Y i i = 1 n K ( Z i Z h ) ,

其中 K ( ) 为核函数,h为窗宽。

Y ^ = Y m ^ Y ( Z ) X ^ = X m ^ X ( Z ) Y = ( y ^ 1 , y ^ 2 , , y ^ n ) T X ^ = ( x ^ 1 , x ^ 2 , , x ^ n ) T

则式(3)可改写为

Y ^ = X ^ T β + ε . (4)

在面对高维数据时( p = O ( n a ) , a > 0 ),为了确保模型的可识别性,提高模型拟合的精确度,假定真实的系数向量 β * 为稀疏的,即仅小部分系数非零。在不失一般性的情况下,我们定义 β * = ( ( β 1 * ) T , 0 T ) T ,用s表示真实回归系数的非零元素的数量,假定真实模型表示为

M * = supp ( β * ) = { 1 , 2 , , s } ,

其补集 M * c = { s + 1 , , p } 表示噪音协变量,即 β * 的前s个分量是非零的,设计矩阵可写为

X ^ = ( S , Q ) ,

其中, S = ( S 1 , S 2 , , S n ) T = ( x ^ 1 , x ^ 2 , , x ^ s ) Q = ( Q 1 , Q 2 , , Q n ) T = ( x ^ s + 1 , x ^ s + 2 , , x ^ p ) S 表示非零系数的信号协变量矩阵, Q 表示系数为零的噪音协变量矩阵。本文将设计矩阵 X ^ 的每一列标准化使得 x ^ i 2 = n i = 1 , 2 , , p

结合(4)式和线性模型的弹性网惩罚分位数估计 [12] ,可得求解 β * 的模型如下:

β ^ E n e t = arg min β R p { i = 1 n ρ i ( y ^ i x ^ i T β ) + n λ n β 1 + n μ n β 2 2 : = L n ( β ) } ,

其中, ρ τ ( u ) = u ( τ 1 ( u < 0 ) ) 0 < τ < 1 为分位数回归的损失函数, β 1 = i = 1 p | β i | β L 1 范数, β 2 = i = 1 p β i 2 β L 2 范数, n λ n β 1 + n μ n β 2 2 为弹性网惩罚项,其中 λ n , μ n > 0 为正则化系数。

3. 统计性质

本节将建立高维部分线性模型参数 β 的弹性网估计量 β ^ E n e t 的性质。参照文献Fan [13] ,定义预先知道协变量位置的Oracle正则化估计 β ^ o = ( ( β ^ 1 o ) T , 0 T ) T ,并且满足 β ^ o = arg min β L n ( β ) ,并做出如下假设条件:

(A1) ε 独立于 ( X , Z ) ,且满足 E ( ε | X , Z ) = 0 E ( ε 3 | X , Z ) <

(A2) 最佳窗宽 h = O ( n 1 / 5 )

(A3) Σ = cov ( X ˜ ) 是一个正定矩阵, sup E ( X 2 3 ) < s u p Z E ( X 2 3 | Z = z ) <

(A4) 核函数 K ( ) 的支撑集为 [ 1 , 1 ] ,存在常数 0 M 1 < M 2 ,核函数满足 M 1 K ( t ) t [ 1.1 ] M 2 ,且 K ( t ) d t = 1 t K ( t ) d t = 0 t 2 K ( t ) d t 0

(A5) m X ( ) m Y ( ) g ( ) 的二阶导数都是一阶Lipschitz连续的。

(A6) 存在常数 c 1 > 0 c 2 > 0 ,对任意满足 | u | c 1 的u, f i ( u ) 一致有界且不为0和 ,有

| F i ( u ) F i ( 0 ) u f i ( 0 ) | c 2 u 2 ,

其中, f i ( u ) F i ( u ) 分别为误差 ε i 的密度函数和分布函数。

(A7) 定义 H = diag { f 1 ( 0 ) , , f n ( 0 ) } ,则 n 1 S T H S 的特征值介于 c 0 c 0 1 之间,且

κ n = max i j | x i j | = o ( n s 1 ) .

(A8) 令 γ n = C 1 s ( λ n + μ n + log n / n ) C 1 为大于零的常数,有

n 1 Q T H S 2 , < λ n 2 γ n ,

其中,对于矩阵 A 与向量 x ^

A 2 , = sup x ^ 0 A x ^ / x ^ 2 ,

且对某些常数 b ( 0 , 1 ) ,有 log ( p ) = o ( n b )

条件(A1)~(A5)是研究半参数模型常用的假设条件,其中条件(A2)为核估计最优窗宽,条件(A4)是对核函数的一般假定。条件(A6)对噪音分布进行假设,任意 f i ( u ) 在0点周围是Lipschitz连续的,如常用的柯西分布就满足这一条件。条件(A7)对信号协变量矩阵 S 和设计矩阵 X ^ 的规模进行限制,当设计矩阵 X ^ 产生某种分布时, κ n 的界以渐近1的概率满足。条件(A8)对设计矩阵 X ^ 与子矩阵 Q , S 的列向量的相关性进行控制。

下面给出定理说明可用Oracle信息来确定信号协变量的位置,正则化估计 β ^ o 以趋于1的概率可估计出真实系数向量 β *

定理1 若 λ n s κ n 0 μ n s κ n 0 ,且满足条件(A1)~(A7),则存在常数 c 1 , c 2 > 0 ,使得

P ( β ^ 1 o β 1 * 2 γ n ) 1 c 1 n c 2 s ,

其中, γ n = C 1 s ( λ n + μ n + log n / n ) C 1 为大于零的常数。

定理2 假设条件(A1)~(A8)成立,若

max j | β j | = o ( λ n / μ n ) ,

γ n s 2 / 3 κ n 2 ( log 2 n ) 2 = o ( n λ n 2 ) ,

κ n 3 γ n 2 = o ( λ n ) ,

λ n > 2 ( 1 + c ) ( log p ) / n ,c为大于零的常数。那么,存在目标函数 L n ( β ) 的全局最小值 β ^ E n e t = ( ( β ^ 1 o ) T , β ^ 2 T ) T ,至少以 1 O ( c 1 n c 2 s ) 的概率满足:

1) β ^ 2 = 0

2) β ^ 1 o β 1 * 2 γ n

4. 定理证明

在证明上述定理前,本节先给出几个引理。

引理1 (Chen [14] )假设条件(A1)~(A5)成立,令 h = n 1 / 5 ( log n ) 1 / 5 ,则有

max 1 j p sup z | m ^ j ( z , 1 , h ) m j ( z ) | = O ( n 2 / 5 ( log n ) 2 / 5 ) .

引理2 (Fan [13] )假设条件(A7)成立,则对任意 t > 0 ,都有

P ( Z n ( M n ) 4 M n s / n + t ) exp ( n c 0 t 2 / ( 8 M n 2 ) ) .

引理3 (Bühlmann [15] )霍夫丁不等式:设独立随机变量 Z 1 , Z 2 , , Z n 来自某个空间 Γ γ Γ 上的实值函数,若存在正实数 C 1 , C 2 , , C n ,使得对任意的i满足 E ( γ ( Z i ) ) = 0 | γ ( Z i ) | < C i ,则对所有的 t > 0 ,有

P ( | i = 1 n γ ( Z i ) | t ) 2 exp ( t 2 2 i = 1 n C i 2 ) .

引理4 考虑以 β * 为中心的球形领域 R s 内:

N = { β = ( β 1 T , β 2 T ) T R P : β 2 = 0 , β 1 β 1 * 2 γ n } ,

其中序列 γ n 0 ,假设

1 + γ n s 3 / 2 κ n ( log 2 n ) = o ( n λ n ) ,

n 1 / 2 λ n ( log p ) 1 / 2 ,

κ n γ n 2 = o ( λ n ) ,

则当条件(A6)~(A8)成立时,有

P ( sup β N Q T ρ τ ( y ^ S β 1 ) n λ n ) o ( c 1 p c 2 ) ,

其中, ρ τ ( u ) = τ 1 { u 0 } c 1 , c 2 为大于零的常数。

定理1的证明:

v ^ n ( β ) = i = 1 n ρ τ ( y ^ i x ^ i T β ) ,则目标函数可写作

L n ( β ) = v ^ n ( β ) + n λ n β 1 + n μ n β 2 2 .

对于给定的一个常数 M n > 0 ,定义集合

A 0 ( M n ) = { β R P : β β * 2 M n , s u p p ( β ) s u p p ( β * ) } ,

然后,定义函数

Z n ( M n ) = s u p β A 0 ( M n ) 1 n | ( v ^ n ( β ) v ^ n ( β * ) ) E ( v ^ n ( β ) v ^ n ( β * ) ) | .

首先,结合引理1可知,对任意 β = ( β 1 T , 0 T ) T A 0 ( M n ) ,当n充分大时,有

E [ v ^ n ( β ) v ^ n ( β * ) ] 1 2 c 0 n β 1 β 1 * 2 2 , (5)

其中, M n = o ( κ n 1 s 1 / 2 ) c 0 f i ( ) 在0的某个领域内的一个下界。

接着证明不等式(5),令 a i = | S i T ( β 1 β 1 * ) | ,则对于任意 β A 0 ( M n ) ,根据Hölder不等式有

| a i | S i 2 β 1 β 1 * 2 s κ n M n 0 .

此时,再针对 S i T ( β 1 β 1 * ) 的符号进行讨论,当 S i T ( β 1 β 1 * ) > 0 时,依次根据 P ( ε i < 0 ) = τ ,Fubini定理,泰勒展开及条件(A6)可得

E [ ρ τ ( ε i a i ) ρ τ ( ε i ) ] = E [ 0 a i I ( 0 ε i t ) d t ] = 0 a i ( F i ( t ) F i ( 0 ) ) d t = 1 2 f i ( 0 ) a i 2 + o ( 1 ) a i 2 , (6)

其中, o ( 1 ) 对于 i = 1 , 2 , , n 一致成立。

S i T ( β 1 β 1 * ) < 0 时,可得式(6)右侧同样的结果。进一步,由条件(A7)得

E [ v ^ n ( β ) v ^ n ( β * ) ] = i = 1 n E [ ρ τ ( ε i a i ) ρ τ ( ε i ) ] 1 2 i = 1 n f i ( 0 ) a i 2 = 1 2 ( β 1 β 1 * ) T S T H S ( β 1 β 1 * ) 1 2 c 0 n β 1 β 1 * 2 2 . (7)

因此,结合式(6)和式(7)以及 v ^ n ( β ) 的定义,对于任意 β ( β 1 T , 0 T ) T A 0 ( M n ) ,可得式(5)成立。但所设定的估计器 β ^ o = ( ( β ^ 1 o ) T , 0 T ) T 可能不在 A 0 ( M n ) 集合中,因此,令 β ˜ ( β ˜ 1 T , 0 T ) T ,其中

β ˜ 1 = μ β ^ 1 o + ( 1 μ ) β 1 * , μ = M n / ( M n + β ^ 1 o β 1 * 2 ) ,

此时 β ˜ A 0 ( M n ) ,再根据目标函数为凸函数的性质以及 β ^ 1 o 的定义,可得

L n ( β ˜ ) μ L n ( β ^ 1 o , 0 ) + ( 1 μ ) L n ( β 1 * , 0 ) L n ( β 1 * , 0 ) = L n ( β * ) . (8)

结合式(8)与三角不等式,有

E [ v ^ n ( β ˜ ) v ^ n ( β * ) ] = { v ^ n ( β * ) E v ^ n ( β * ) } { v ^ n ( β ˜ ) E v ^ n ( β ˜ ) } + L n ( β ˜ ) L n ( β * ) + n λ n ( β 1 * 1 β ˜ 1 1 ) + n μ n ( β 1 * 2 2 β ˜ 1 2 2 ) n Z n ( M n ) + n λ n β 1 * β ˜ 1 1 + n μ n ( β 1 * 2 2 β ˜ 1 2 2 ) . (9)

定义事件

A n = { Z n ( M n ) 2 M n n 1 / 2 s log n } ,

根据引理2,可得

P ( A n ) 1 e x p ( c 0 s ( log n ) / 8 ) .

又由Cauchy-Schwarz不等式,有

n λ n β 1 * β ˜ 1 1 n λ n s M n ,

n μ n ( β 1 * 2 2 β ˜ 1 2 2 ) 2 C M n μ n β 1 * β ˜ 1 1 2 C M n μ n s M n ,

其中, C M = max { β 1 * , , β s * , β ˜ 1 , , β ˜ s } 。因此,在事件 A n 上,根据不等式(9)有

E [ v ^ n ( β ˜ ) v ^ n ( β * ) ] ( 2 s n ( log n ) + n λ n s + 2 C M n μ n s ) M n .

M n = 2 s / n + λ n s + μ n s ,由假设 λ n s κ n 0 μ n s κ n 0 和条件(A7)可知 M n = o ( κ n 1 s 1 / 2 ) ,再结合式(5),则在事件 A n 上有

1 2 c 0 n β ˜ 1 β 1 * 2 2 ( 2 s n ( log n ) + n λ n s + 2 C M n μ n s ) M n ,

进一步,得

β ˜ 1 β 1 * 2 O ( s ( log n ) / n + λ n s + μ n s ) .

根据 β 1 * β ˜ 2 M n ,可得 β ^ 1 o β 1 * 2 2 M n ,故在事件 A n 上,有

β ^ 1 o β 1 * 2 O ( s ( log n ) / n + λ n s + μ n s ) ,

可知事件 A n 发生的概率大于等于 1 c 1 n c 2 s ,定理1得证。

定理2的证明:

此处先给出引理4的证明,其是定理2证明的基石。对于固定的 j { s + 1 , s + 2 , , p } β = ( β 1 T , β 2 T ) T N 。定义

γ β , j ( x ^ i , y ^ j ) = x ^ i j [ ρ τ ( y ^ i x ^ i T β ) ρ τ ( ε i ) E [ ρ τ ( y ^ i x ^ i T β ) ρ τ ( ε i ) ] ] ,

其中, x ^ i T = ( x ^ i , , x ^ i p ) 是设计矩阵 x ^ 的第i行。

首先,需对引理4做如下分解:

sup β N 1 n Q T ρ τ ( y ^ S β 1 ) sup β N 1 n Q T E [ ρ τ ( y ^ S β 1 ) ρ τ ( ε ) ] + 1 n Q T ρ τ ( ε ) + max j > s sup β N 1 n i = 1 n | γ β , j ( x ^ i , y ^ i ) | ,

根据上式可知,若能证明以下各式至少以 1 O ( c 1 p c 2 ) 的概率成立,那么引理4可得证。

I 1 = sup β N 1 n Q T E [ ρ τ ( y ^ S β 1 ) ρ τ ( ε ) ] = o ( λ n ) , (10)

I 2 = 1 n Q T ρ τ ( ε ) = o ( λ n ) , (11)

I 3 = max j > s sup β N | 1 n i = 1 n γ β , j ( x ^ i , y ^ i ) | = o p ( λ n ) , (12)

首先证明 I 1 成立,将式(10)改写为

I 1 = max j > s sup β N | 1 n i = 1 n x ^ i j E [ ρ τ ( ε i ) ρ τ ( y ^ i x ^ i T β ) ] | . (13)

根据条件(A6),有

E [ ρ τ ( ε i ) ρ τ ( y ^ i x ^ i T β ) ] = F i ( S i T ( β 1 β 1 * ) ) F i ( 0 ) = f i ( 0 ) S i T ( β 1 β 1 * ) + I ˜ i ,

其中, F i ( t ) ε i 的累计分布函数,

I ˜ i = F i ( S i T ( β 1 β 1 * ) ) F i ( 0 ) f i ( 0 ) S i T ( β 1 β 1 * ) ,

对任意 j > s ,有

i = 1 n x ^ i j E [ ρ τ ( ε i ) ρ τ ( y ^ i x ^ i T β ) ] = i = 1 n ( f i ( 0 ) x ^ i j S i T ) ( β 1 β 1 * ) + i = 1 n x ^ i j I ˜ i .

结合式(13)及Cauchy-Schwarz不等式,可推出

I 1 1 n Q T H S ( β 1 β 1 * ) + max j > s | 1 n i = 1 n x ^ i j I ˜ i | . (14)

依次考虑不等式(14)右边的两项,由条件(A8)可得第一项的上界被限制为

1 n Q T H S ( β 1 β 1 * ) 1 n Q T H S 2 , β 1 β 1 * 2 < λ n 2 , (15)

再根据条件(A6)~(A7)及 | I ˜ i | C ( S i T ( β 1 β 1 * ) ) 2 ,可得第二项的上界被限制为

max j > s | 1 n i = 1 n x ^ i j I ˜ i | κ n n i = 1 n | I ˜ i | C κ n n i = 1 n ( S i T ( β 1 β 1 * ) ) 2 C κ n β 1 β 1 * 2 2 .

又因为 β N ,由假设条件 λ n 1 κ n γ n 2 = o ( 1 )

max j > s | 1 n i = 1 n x ^ i j I ˜ i | C κ n γ n 2 = o ( λ n ) , (16)

再将上述不等式(16)与式(15)代入式(14),可得 I 1 成立。接下来证明 I 2 ,根据引理3,如果 λ n > 2 ( 1 + c ) ( log p ) / n ,则有

P ( Q T ρ τ ( ε ) n λ n ) j = s + 1 p 2 exp ( n 2 λ n 2 4 i = 1 n x ^ i j 2 ) = 2 exp [ log ( p s ) n λ n 2 4 ] O ( c 1 p c 2 ) ,

因此, I 2 至少以概率 1 O ( c 1 p c 2 ) 成立。

现将利用Bühlmann [15] 中的推论14.4证明 I 3 成立。首先,对每个固定的j,定义函数空间 Γ j = { γ β , j : β N } ,则对任意的 γ β , j Γ j ,有 E [ γ β , j ( x ^ i , y ^ j ) ] = 0 。又因函数 ρ τ 有界,可得

γ β , j n ( 1 n i = 1 n γ β , j 2 ( x ^ i , y ^ i ) 2 ) 1 / 2 2 .

此外,对任意的 β ( β 1 T , β 2 T ) T N β ˜ ( β ˜ 1 T , β ˜ 2 T ) T N ,由条件(A6)和均值定理可得

E [ ρ τ ( y ^ i x ^ i T β ) ρ τ ( ε i ) ] E [ ρ τ ( y ^ i x ^ i T β ˜ ) ρ τ ( ε i ) ] = F i ( S i T ( β ˜ 1 β 1 * ) ) F i ( S i T ( β 1 β 1 * ) ) = f i ( a 1 i ) S i T ( β 1 β ˜ 1 ) , (17)

其中, a 1 i 介于 S i T ( β ˜ 1 β 1 * ) S i T ( β 1 β 1 * ) 之间。又因 f i ( u ) 一致有界,结合条件(A7)和式(17),有

| x ^ i j E [ ρ τ ( y ^ i x ^ i T β ) ρ τ ( ε i ) ] x ^ i j E [ ρ τ ( y ^ i x ^ i T β ˜ ) ρ τ ( ε i ) ] | C | x ^ i j S i T ( β 1 β ˜ 1 ) | C x ^ i j S i 2 β 1 β ˜ 1 2 C s κ n 2 β 1 β ˜ 1 2 , (18)

其中,C是大于零的常数。

由Bühlmann [15] 中引理14.27可知 R s 空间的球 N 可被 ( 1 + 4 γ n / δ ) s 个半径为 η 的球所覆盖,又因 ρ τ ( y ^ i x ^ i T β ) ρ τ ( ε i ) 只取3种结果,结合式(18)可得 Γ j 的覆盖数为 N ( 2 2 k , Γ j , 2 ) = 3 ( 1 + C 1 2 k γ n s 1 / 2 κ n 2 ) s 。因此,

对任意的 0 k ( log 2 n ) / 2 ,有

log ( 1 + N ( 2 2 k , Γ j , 2 ) ) 4 ( 1 + C 1 γ n s 3 / 2 κ n 2 ) 2 2 k .

又由Bühlmann [15] 中的推论14.4可知,对任意的 t > 0 ,有

P ( sup β N | 1 n i = 1 n γ β , j ( x ^ i , y ^ j ) | 8 n ( 3 1 + C 1 γ n s 3 / 2 κ n 2 log 2 n + 4 + 4 t ) ) 4 exp ( n t 2 8 ) ,

t = C ( log p ) / n ,其中 C > 0 为充分大的常数,则可得

P ( max j > s sup β N | 1 n i = 1 n γ β , j ( x ^ i , y ^ j ) | 24 n 1 + C 1 γ n s 3 / 2 κ n 2 log 2 n ) 4 ( p s ) exp ( C log p 8 ) 0 .

因此,若 1 + γ n s 3 / 2 κ n 2 log 2 n = o ( n λ n ) ,那么 I 3 至少以 1 O ( c 1 p c 2 ) 的概率成立,从而引理4得证。

下面接着证明定理2,由于 β ^ 1 o L n ( β 1 , 0 ) 的最小值点且满足KTT条件。若要证明 β ^ E n e t = ( ( β ^ 1 o ) T , 0 T ) R P 是目标函数 L n ( β ) 的全局最小值,只需验证如下条件

Q T ρ τ ( y ^ S β ^ 1 o ) < n λ n , (19)

其中,对任意n维向量 u = ( u 1 , , u n ) T ,有 ρ τ ( u ) = ( ρ τ ( u i ) , , ρ τ ( u n ) ) T ,则根据KKT条件及 L n ( β ) 为凸函数的性质,可知 β ^ E n e t L n ( β ) 的全局最小值点。定义事件

B 1 = { β ^ 1 o β 1 * 2 γ n } ,

B 2 = { s u p β N Q T ρ τ ( y ^ S β 1 ) < n λ n } ,

其中, γ n 同定理1中所定义,并且

N = { β = ( β 1 T , β 2 T ) R P : β 1 β 1 * 2 γ n , β 2 = 0 R P S } ,

那么,结合定理1和引理4可知

P ( B 1 B 2 ) 1 o ( c 1 n c 2 s ) .

又因为 β ^ N 属于事件 B 1 ,故在事件 B 1 B 2 上不等式(19)成立,定理2得证。

5. 数值模拟

本节将通过数值模拟来考察所提出方法的有限样本性质。从如下部分线性模型产生数据

Y = X T β + g ( Z ) + ε ,

其中,真实的回归参数被固定为 β = ( 0.5 , 1 , 2 , 1.5 , 0.8 , 1.75 , 0.75 , 0 , , 0 ) T ,参数数量 p = 400 ,样本容量 n = 100 ,协变量 X N p ( 0 , V ) ,其中 V i . j = 0.5 | i j | ;非参数函数 g ( Z ) = sin ( 2 π T ) ,其中T服从 [ 1 , 1 ] 上的均匀分布。

为了验证所提方法关于厚尾分布的稳健性,考虑如下误差分布:标准正态分布 ε N ( 0 , 1 ) ;混合正态分布 MN1 : ε 0.9 N ( 0 , 1 ) + 0.1 N ( 0 , 5 2 ) ;自由度为4的t分布 ε t ( 4 ) ;Laplace分布;Cauchy分布。本节将在这五种误差分布下,将所提的弹性网惩罚分位数回归(Q-EN)与弹性网惩罚最小二乘回归(EN)、Lasso惩罚分位数回归(Q-lasso)和Ridge惩罚分位数回归(Q-ridge)进行比较,其中 τ = 0.5 。通过计算以下4个值来评估所提方法:

1) L1 loss:即 β β * 的L1范数。

2) L2 loss:即 β β * 的L2范数。

3) FP:选入模型的噪音协变量的数量。

4) FN:未选入模型的信号协变量的数量。

程序重复运行100次,模拟结果如表1所示,其中各项数值为其均值。

Table 1. Simulation results of relevant covariates

表1. 相关协变量模拟结果

比较Q-EN和EN:在这五种误差分布情形下,Q-EN的L1损失和L2损失都较EN更低。当误差分布为MN1时,Q-EN比EN的FN更小。当误差分布为t4和Cauchy时,Q-EN较EN模型具有更小的FP。当误差分布为Laplace和 N ( 0 , 1 ) 时,EN的FP和FN都优于Q-EN。总体而言,在面对具有厚尾分布和异常值,如t4等情形时,分位数回归较最小二乘估计具有更稳健的特性。

比较Q-EN和Q-lasso、Q-ridge:在前四种误差分布情形下,Q-EN的L1损失和L2损失都明显更低。当误差分布为Cauchy时,虽然Q-ridge具有比Q-EN更低的L2损失,但它选择了模型中的所有变量,并没有进行有效的变量选择。当误差分布为 N ( 0 , 1 ) 、MN1、Laplace和t4时,Q-lasso具有更小的FP,表明Lasso惩罚项倾向于将真实有效的信号协变量选择到模型中。当误差分布为 N ( 0 , 1 ) 、MN1和Laplace时,相比Q-lasso,Q-EN具有更小的FN,说明Q-EN剔除大量不相关的预测因子,表现更好。

通过在不同的误差分布情形下,与其他变量方法进行比较,表明Q-EN的总体性能优于其他四种方法。Q-EN可以有效的进行变量筛选产生稀疏解,且在面对厚尾分布或异常值时仍表现优异。

6. 总结

针对高维数据下的部分线性模型变量选择问题,提出了将弹性网络法和分位数回归相结合的正则化方法。该方法可以有效地处理高维数据中的多重共线性与群组效应问题,还可以在面对数据含有极端值、离群点或是呈现尖峰、厚尾分布时,仍保持较好稳健性。理论结果表明,在一定条件下模型估计量具有相合性和稀疏性,可将不相关变量压缩至零,从而进行有效的变量选择。在数值模拟方面,通过比较不同惩罚函数和不同损失函数在五种误差分布下的估计效果,证实了所提估计方法优于其他变量选择方法,具有更强的稳健性和有效性。在实践应用中,所提模型方法可为生物医学、基因学等领域进行高维数据下的实证分析提供理论支撑。利用此模型方法对高维基因学数据进行基因检测分析,探究与疾病相关程度高的协变量基因,为药物研究提供方向,可推动相关药物研发领域的发展。

基金项目

重庆市自然科学基金(CSTB2022NSCQ-MSX1370)。

NOTES

*通讯作者。

参考文献

[1] Engle, R.F., Granger, C.W.J., et al. (1986) Semiparametric Estimates of the Relation between Weather and Electricity Sales. Journal of the American Statistical Association, 81, 310-320.
https://doi.org/10.1080/01621459.1986.10478274
[2] Hoerl, A.E., Kennard, R.W., et al. (1985) Practical Use of Ridge Regression: A Challenge Met. Journal of the Royal Statistical Society: Series C, 34, 114-120.
https://doi.org/10.2307/2347363
[3] Tibshirani, R. (1996) Regression Shrinkage and Selection via the Lasso. Journal of the Royal Statistical Society: Series B, 58, 267-288.
https://doi.org/10.1111/j.2517-6161.1996.tb02080.x
[4] Fan, J.Q. and Li, R.Z. (2001) Variable Selection via Nonconcave Penalized Likelihood and Its Oracle Properties. Journal of the American Statistical Association, 96, 1348-1360.
https://doi.org/10.1198/016214501753382273
[5] Zou, H. and Hastie, T. (2005) Regularization and Variable Selection via the Elastic Net. Journal of the Royal Statistical Society: Series B, 67, 301-320.
https://doi.org/10.1111/j.1467-9868.2005.00503.x
[6] Xie, H.L. and Huang, J. (2009) SCAD-Penalized Regres-sion in High-Dimensional Partially Linear Models. The Annals of Statistics, 37, 673-696.
https://doi.org/10.1214/07-AOS580
[7] 杨宜平, 薛留根, 王学娟. 高维部分线性模型中的变量选择[J]. 北京工业大学报, 2011, 37(2): 291-295.
[8] Chen, B., Yu, Y., et al. (2012) Profifiled Adaptive Elastic-Net Procedure for Partially Linear Models with High-Dimensional Covariates. Journal of Statistical Planning and Inference, 142, 1733-1745.
https://doi.org/10.1016/j.jspi.2012.02.035
[9] Wang, X.L. and Wang, M.Q. (2017) Adaptive Group Bridge Es-timation for High-Dimensional Partially Linear Models. Journal of Inequalities and Applications, 2017, 158.
https://doi.org/10.1186/s13660-017-1432-x
[10] 赖秋楠, 李玉杰, 李高容. 超高维部分线性模型的PGFR变量筛选[J]. 应用概率统计, 2017, 33(6): 608-624.
[11] Koenker, R. (2005) Quantiles Regression. Cambridge Univer-sity Press, Cambridge.
[12] Su, M.H. and Wang, W.J. (2021) Elastic Net Penalized Quantile Regression Model. Journal of Computational and Applied Mathematics, 392, Article ID: 113462.
https://doi.org/10.1016/j.cam.2021.113462
[13] Fan, J.Q., Fan, Y.Y., et al. (2014) Adaptive Robust Variable Se-lection. The Annals of Statistics, 42, 324-351.
https://doi.org/10.1214/13-AOS1191
[14] Chen, B.C., Yu, Y., Zou, H., et al. (2012) Profiled Adaptive Elastic-Net Procedure for Partially Linear Models with High-Dimensional Covariates. Journal of Statistical Planning and Inference, 142, 1733-1745.
https://doi.org/10.1016/j.jspi.2012.02.035
[15] Bühlmann, P. and Geer, S. (2011) Statistics for High-Dimensional Data: Methods, Theory and Applications. Springer, Heidelberg.
https://doi.org/10.1007/978-3-642-20192-9