纵向数据下变系数线性模型的惩罚秩回归
Penalized Rank Regression for Varying-Coefficient Linear Models with Longitudinal Data
摘要: 针对纵向数据变系数线性模型中数据具有组内相关性和组间独立性,以及组内协方差矩阵估计效率低的特点,本文基于修正的Cholesky分解和B样条函数处理非参数部分,对组内协方差矩阵提出更有效的估计,改善了不平衡纵向数据的估计效率。同时,文章结合了两个非凸惩罚函数SCAD和MCP实现稳健的变量选择,模拟研究和实证分析表明新方法能够获得更有效的估计,并且相同参数准则下,对高相关性的样本数据,MCP惩罚函数的显著性更强。
Abstract: For longitudinal data in varying coefficient linear models characterized by within-group correlation and between-group independence, as well as the low estimation efficiency of within-group covariance matrices, this paper proposes a more efficient estimation method for the within-group covariance matrix based on modified Cholesky decomposition and B-spline functions to handle the nonparametric components, thereby improving the estimation efficiency for unbalanced longitudinal data. Additionally, the study incorporates two non-convex penalty functions, SCAD and MCP, to achieve robust variable selection. Simulation studies and empirical analyses demonstrate that the proposed method yields more efficient estimates. Under the same parameter criteria, the MCP penalty exhibits stronger significance for highly correlated sample data.
文章引用:张雅斐. 纵向数据下变系数线性模型的惩罚秩回归[J]. 统计学与应用, 2025, 14(7): 334-345. https://doi.org/10.12677/sa.2025.147209

1. 引言

纵向数据是指通过对观测个体在不同时间节点上进行多次重复测量而获得的数据。因此,纵向数据分析可以对同一个体内部的变化规律以及协变量对响应变量的影响进行动态分析。在独立数据的回归分析中引入数据的组内相关性,提高统计推断的效率的同时,纵向数据分析也对统计方法提出了巨大的挑战[1]-[3]。常见的适用于纵向数据的模型,如边际回归模型、转移回归模型和混合效应模型。传统的参数回归模型只考虑参数部分,在处理实际问题,尤其是分析长期或动态环境下的数据时,模型解释能力不足。因此,考虑系数参数随时间变化是提升模型适应性的重要方向。变系数线性模型的首次提出是由Shumway [4],Cleveland [5]和Hastie以及Tibshirani [6]给出的。其他基于该模型的讨论和扩展可从Fan和Zhang [7]以及Chiang等人[8]的论文中得到。

传统的变系数线性模型通常利用最小二乘方法估计系数参数,然而其对异常值敏感且依赖误差分布假设。但秩回归作为一种能有效降低异常值影响的非参数回归方法,它的引入恰好弥补了这一缺陷。该方法也在纵向数据下得到了广泛研究,如将基于秩回归的方法运用到纵向数据中[9]-[11],并扩展到变量选择研究中。Fu等[12]基于独立性假设提出了基于秩的变量选择方法;Fu等[13]基于加权秩提出了带有SCAD (平滑裁剪绝对偏差)惩罚的Wilcoxon离散函数。但是在估计纵向数据的协方差矩阵时,大部分文献选择提前指定具体结构,如Jung等人[9]在独立工作结构下构造了广义的Wilcoxon-Mann-Whitney秩统计量,但得到的估计不是渐进有效的。Fu等人[14]在可交换结构下考虑了基于秩的估计函数,但是当组内相关结构不是可交换时估计效率会降低。因此,建立协方差模型,在更一般的相关结构下研究变系数模型是值得关注的话题。吕晶等[15]利用修正的Cholesky分解处理了纵向秩回归的组内相关性,提出了更加有效的无偏性秩回归得分函数。

以上提到的文献模型虽然在变系数估计方面取得了显著进展,但大多未系统解决变量选择问题。往往在实际建模中,研究者倾向于初始纳入过多变量以避免遗漏重要预测因子,但这一做法不可避免地导致模型过拟合、预测精度下降及计算效率损失。对此,Wang等人[16]结合了基差函数扩展和SCAD惩罚函数提出了正则化变量选择方法,成功识别并选出具有时变效应的重要变量。Zhang [17]提出了MCP (极小极大凹惩罚)惩罚函数,在保留SCAD惩罚优点的同时对回归系数进行有差别惩罚,从而得到更加精确的估计,同时证明了基于MCP惩罚的回归模型具有Oracle性质。但是相较SCAD惩罚函数,基于MCP惩罚的函数形式更为简洁、参数估计偏差更小、模型结果也更加精简。

综合上述讨论,本文结合B样条函数近似和修正的Cholesky分解提出一种纵向数据下变系数线性模型的秩回归方法。利用B样条光滑函数近似变系数参数,并在修正的Cholesky分解下估计更具一般性结v构的协方差工作矩阵。然而,基于秩回归的估计函数非凸,不连续且不可微。本文将利用Brown等人[18]提出的诱导光滑的方法获得更精确的估计。在光滑估计函数的基础下,文章分别添加了非凸惩罚函数SCAD和MCP进行对比分析,以针对不同相关性数据,实现更有效的变量选择。

2. 基于修正的Cholesky分解的秩回归

2.1. B样条近似

假定纵向数据 { ( t ik , X ik , Y ik ),1in,1k n i } 满足如下形式的变系数模型:

Y ik = X ik T β( t ik )+ ε ik , (1)

其中, Y ik 为响应变量, X ik = ( X ik 1 , X ik 2 ,, X ik p ) T 是一个 p 维协变量, β( t ik )= ( β 1 ( t ik ), β 2 ( t ik ),, β p ( t ik ) ) T β r ( t ) ( r=1,2,,p ) 是未知的非参数函数,并且 ε ik 是第 i 个个体在 t ik 时刻测得的零均值随机过程。

对于模型的非参数函数,利用B样条函数近似未知变系数 β r ( t ) ,可得到 β r ( t ) B r ( t ) γ r = h=1 H γ rh B rh ( t ) 。其中, B rh ( t )0 h=1 H B rh ( t ) =1 ,且控制点总数 H=h+m+1 m 为样条曲线的阶数, h 为内节点个数。经过上述样条近似,可得到如下模型:

Y ik r=1 p h=1 H X ik ( r ) γ rh B rh ( t ik )+ ε ik , (2)

现定义 π ( r ) ( · )= ( B r1 ( · ),, B rH ( · ) ) T 为标准化B样条基函数,定义 ( T,X )= ( X ( 1 ) π ( 1 ) ( T ) T ,, X ( p ) π ( p ) ( T ) T ) T ik =( T ik , X ik ) π ik ( r ) = π ( r ) ( t ik ) 。因此,(2)可以写为 Y ik ik T γ+ ε ik ,其中 γ= ( γ 1 T ,, γ p T ) T γ r = ( γ r1 ,, γ rH ) T

基于上面的近似,我们可以得到在 t ik 处的残差 ε ^ ik ( γ ^ )= Y ik ik T γ ^ 。对于模型(2),定义 S ik ε ik ( γ ) 的平均秩, S ik = M 1 j=1 n l=1 n j [ I{ ε jl ( γ )< ε ik ( γ ) } 1 2 ] ,其中 M= i=1 n n i ,记 S i ( γ )= ( S i1 ,, S i n i ) T S( γ )= { S 1 ( γ ) T ,, S n ( γ ) T } T

S( γ ) 有秩估计函数:

U OPT ( γ )= D ¯ T V 1 S( γ ), (3)

其中 V=Cov( S( γ ) ) D ¯ ={ D ¯ ik ,i=1,,n;k=1,, n i } S( γ ) 的期望关于 γ 的导数,且 D ¯ ik ( γ 0 )= M 1 j=1 n l=1 n j ( Π jl T Π ik T ) f ikjl ( 0 ) f ikjl ( · ) ε ik ε jl 的密度函数, D ¯ ik 涉及未知的密度函数 f ikjl ( · ) 。假设 f ikjl ( 0 ) 为常数,并在模型(3)中用 D ik T = Π ¯ Π ik 代替 D ¯ ik T

假定使用一个块对角矩阵 diag( V 1 ,, V n ) 作为 V 的工作协方差矩阵,可得到 γ 的估计函数为 U B ( γ )= i=1 n D i T V i 1 S i ( γ ) ,其中, V i =var{ S i ( γ ) }

2.2. 一般工作结构的秩估计函数

在以往的秩估计方法中,Jung和Ying [9]假定误差具有独立工作结构用于估计 β ,但估计结果 β ^ I 在其他工作结构情况下会严重损失估计效率。基于此,Fu和Wang [14]在可交换结构下提出了最佳秩估计函数,并利用矩方法估计协方差矩阵的逆中的参数 σ i 2 σ ii 。在该模型下,只有 ε i 具有可交换结构时, S i ε i 才具有相同的相关结构。因此,当 ε i 不具有可交换相关结构时, β ^ F 会损失估计效率。

已知上述两个模型只有在给定结构下的估计才是有效的,当误差具有其它结构时,估计效率大大降低。此时,修正的Cholesky分解可以保证协方差矩阵正定,同时提高数值计算的稳定性。故本文将基于修正的Cholesky分解建模,基于Yao和Li [19] V i =Cov{ S i ( γ 0 ) } 可进行如下分解,

Cov{ Φ i S i }= Φ i T V i Φ i = Λ i (4)

V i = ( Φ i 1 ) T Λ i Φ i 1 。其中, Φ i 是主对角元素均为1的下三角矩阵, Λ i =diag( d i1 2 ,, d i n i 2 ) n i × n i 的对角矩阵。记 e i = ( e i1 ,, e i n i ) T = Φ i S i Φ i 的第 ( k,l ) 个元素为 ϕ k,l ( i ) ( k=1,, n i ;l=1,,k1 ) ,则有如下关系式:

{ S i1 = e i1 S ik = ϕ k,1 ( i ) S i1 ++ ϕ k,k1 ( i ) S i,k1 + e ik ,i=1,2,,n;k=2,, n i

已知 Λ i 为对角矩阵,故 e ik 互不相关,且 var( e ik )= d ik 2 。根据Liu和Li [20]的思想,在此构造线性模型和非参数模型,引入 s×1 维系数向量 θ 和一维未知光滑函数估计自回归系数 ϕ k,l ( i ) = z k,l ( i )T θ 和更新方差 d ik 2 = d ik 2 ( t ik )=g( t ik ) 。此处取 z k,l ( i ) = ( 1, t ik t il ,, ( t ik t il ) s1 ) T

利用最小二乘法对参数向量 θ 进行估计,求解下面的最小二乘问题即可得到估计值 θ ^

θ ^ =argmin i=1 n k=2 n i ( S ^ ik S ^ i1 z k,1 ( i )T θ S ^ i,k1 z k,k1 ( i )T θ ) 2 =argmin i=1 n k=2 n i ( S ^ ik υ ^ ik θ ) 2 = ( i=1 n k=2 n i ( υ ^ ik υ ^ ik T ) ) 1 ( i=1 n k=2 n i ( υ ^ ik S ^ ik ) )

其中, υ ^ ik = ( l=1 k1 S ^ il z k,l,1 ( i )T ,, l=1 k1 S ^ il z k,l,s ( i )T ) T

根据Fan and Yao [21]的思想,对光滑函数 g( t ik ) 的估计可通过求解如下最小二乘问题得到:

( η ^ 1 , η ^ 2 )=argmin i=1 n k=2 n i [ e ^ ik 2 η 1 η 2 ( t ik t ) ] 2 K h ( t ik t )

其中, K h ( t ik t )= K( t ik t h )/h h为带宽, K( · ) 为核函数,通过上述问题的求解可知 d ik 2 ( t ik )= η ^ 1

结合上述讨论,可得到估计函数 U C ( γ )= i=1 n D i T V ^ i 1 S i ( γ ) 。估计函数的解记为 γ C ,求出结果需要对估计函数求导,但 S ik = M 1 j=1 n l=1 n j [ I{ ε jl ( γ )< ε ik ( γ ) } 1 2 ] 不可微,则采用Brown B和Wang [18]提出的诱导光滑方法得到 S ik 的近似式,即

S ¯ ik ( γ )= M 1 j=1 n l=1 n j [ Φ( ε ikjl / r ikjl )0.5 ] ,( i,k )( j,l ) (5)

得到诱导光滑秩估计函数为:

U ˜ C ( γ )= i=1 n D i T V ^ i 1 S ¯ i ( γ ) (6)

其中, Φ( · ) 表示标准正态的卷积分布函数, ε ikjl = ε ik ε jl r ikjl 2 = d ikjl T Ω d ikjl d ikjl = Π ik Π jl Ω γ ˜ C p×p 维协方差矩阵, γ ˜ C 为诱导光滑秩估计函数的解, S ¯ i ( γ )= ( S ¯ i1 ( γ ),, S ¯ i n i ( γ ) ) T 。此时 U ˜ C ( γ ) 函数的特性满足了我们的需求。

2.3. 迭代算法

已知上述求导结果,算法具体迭代步骤如下:

步骤1 给定初始值 γ ˜ ( 0 ) = ( 0,0,,0 ) T Ω ( 0 ) = n 1 I p

步骤2 利用第 m 次迭代得到的 γ ˜ ( m ) Ω ˜ ( m ) ,在下面公式的基础上更新 γ ˜ ( m+1 ) Ω ˜ ( m+1 )

γ ˜ ( m+1 ) = γ ˜ ( m ) ( U ˜ C ( γ ) γ | γ ˜ ( m ) , Ω ˜ ( m ) ) 1 U ˜ C ( γ ) (7)

Ω ˜ ( m+1 ) = ( U ˜ C ( γ ) γ | γ ˜ ( m ) , Ω ˜ ( m ) ) 1 Cov( U ˜ C ( γ ˜ ( m ) , Ω ˜ ( m ) ) ) ( ( U ˜ C ( γ ) γ | γ ˜ ( m ) , Ω ˜ ( m ) ) 1 ) T (8)

其中, Cov( U ˜ C ( γ ˜ ( m ) , Ω ˜ ( m ) ) )= i=1 n D i T V ^ i 1 S ˜ i ( γ ) S ˜ i T ( γ ) V ^ i 1 D i

步骤3 重复上述步骤2直至收敛。

3. 变量选择与惩罚秩估计函数

在实际情况中,真实的模型通常是未知的,并且我们不知道哪些系数为0,但提前假定系数为0往往会造成损失,因此为避免错误假设带来的损失,考虑到参数的稀疏性问题,我们在上述诱导光滑秩估计函数的基础下引入满足无偏性的SCAD惩罚函数和MCP惩罚函数改进模型,通过构建惩罚秩估计函数得到系数参数更一致的估计。

3.1. 非凸惩罚函数

SCAD惩罚函数 p λ SCAD ( | γ k | ) 形式如下:

p λ SCAD ( | γ | )={ λ| γ |, | γ |λ ( a 2 1 ) λ 2 ( | γ |aλ ) 2 / 2( a1 ) , λ<| γ |aλ ( a+1 ) λ 2 /2 , | γ |>aλ (9)

其中SCAD惩罚函数的一阶导为

p λ SCAD ( | γ | )={ λsign( | γ | ), | γ |λ ( aλsign( | γ | )| γ | )/ ( a1 ) , λ<| γ |aλ 0, | γ |>aλ

已知SCAD惩罚函数没有连续的二阶导数,但是对于该惩罚函数可以通过一个二次函数近似。现假定有初始值 γ 0 ,惩罚函数的近似函数如下所示:

k=1 p p λ SCAD ( | γ k | ) k=1 p 1 2 p λ SCAD ( | γ ˜ k | ) | γ ˜ k | | γ k | 2 = γ T M SCAD γ (10)

在近似式下,得到近似的秩估计函数:

U ˜ SCAD ( γ )= i=1 n D i T V ^ i 1 S ¯ i ( γ ) +n γ T M SCAD (11)

其中, γ= ( γ 1 T ,, γ p T ) T M SCAD =diag( p λ SCAD ( | γ ˜ 1 | ) 2| γ ˜ 1 | ,, p λ SCAD ( | γ ˜ p | ) 2| γ ˜ p | )

可得到近似的估计等式为: i=1 n k=1 n i D ik T V ^ ik 1 Δ ik ( γ ) +n k=1 p p λ SCAD ( | γ k 0 | )| γ k | =0 ,其中, γ k 0 为一个初始估计值,即非惩罚加权Wilcoxon估计量。

计算得到算法迭代式如下:

γ ˜ ( m+1 ) = γ ˜ ( m ) ( U ˜ SCAD ( γ ) γ ) 1 U ˜ SCAD ( γ ) (12)

Ω ˜ ( m+1 ) = ( U ˜ SCAD ( γ ) γ | γ ˜ ( m ) , Ω ˜ ( m ) ) 1 Cov( U ˜ SCAD ( γ ˜ ( m ) , Ω ˜ ( m ) ) ) ( ( U ˜ SCAD ( γ ) γ | γ ˜ ( m ) , Ω ˜ ( m ) ) 1 ) T (13)

其中, U ˜ SCAD ( γ ) γ = i=1 n k=1 n i D ik T V ^ ik 1 Δ ik ( γ ) +n M SCAD

Cov( U ˜ SCAD ( γ ˜ ( m ) , Ω ˜ ( m ) ) )= i=1 n D i T V ^ i 1 S ˜ i ( γ ˜ ( m ) ) S ˜ i T ( γ ˜ ( m ) ) V ^ i 1 D i +n M SCAD T γ ˜ ( m ) γ ˜ ( m ) T M SCAD

MCP惩罚函数也同样满足Oracle性质,且在处理特征之间有很高相关性数据时,表现要比SCAD惩罚函数更好。MCP惩罚函数的惩罚项 p λ MCP ( | γ k | ) 为:

p λ MCP ( | γ | )={ λ| γ | | γ | 2 2a , | γ |aλ 1 2 a λ 2 , | γ |>aλ (14)

MCP惩罚函数的一阶导为

p λ MCP ( | γ | )={ λsign( | γ | ) | γ | a , | γ |aλ 0, | γ |>aλ

同样利用二次函数对MCP惩罚近似,得到MCP惩罚下的秩估计函数为

U ˜ MCP ( γ )= i=1 n D i T V ^ i 1 S ¯ i ( γ ) +n γ T M MCP , (15)

其中, M MCP =diag( p λ MCP ( | γ ˜ 1 | ) 2| γ ˜ 1 | ,, p λ MCP ( | γ ˜ p | ) 2| γ ˜ p | ) 。则有估计等式 i=1 n k=1 n i D ik T V ^ ik 1 Δ ik ( γ ) +n k=1 p p λ MCP ( | γ k 0 | )| γ k | =0

同样可得算法迭代式:

γ ˜ ( m+1 ) = γ ˜ ( m ) ( U ˜ MCP ( γ ) γ ) 1 U ˜ MCP ( γ ) (16)

Ω ˜ ( m+1 ) = ( U ˜ MCP ( γ ) γ | γ ˜ ( m ) , Ω ˜ ( m ) ) 1 Cov( U ˜ MCP ( γ ˜ ( m ) , Ω ˜ ( m ) ) ) ( ( U ˜ MCP ( γ ) γ | γ ˜ ( m ) , Ω ˜ ( m ) ) 1 ) T (17)

其中, U ˜ MCP ( γ ) γ = i=1 n k=1 n i D ik T V ^ ik 1 Δ ik ( γ ) +n M MCP

Cov( U ˜ MCP ( γ ˜ ( m ) , Ω ˜ ( m ) ) )= i=1 n D i T V ^ i 1 S ˜ i ( γ ˜ ( m ) ) S ˜ i T ( γ ˜ ( m ) ) V ^ i 1 D i +n M MCP T γ ˜ ( m ) γ ˜ ( m ) T M MCP

3.2. 最佳调节参数选择

在(9)和(14)式中,还有参数a需要估计,a的不同取值会直接影响估计性能。对于(9)式中的参数a,Fan和Li [22]通过蒙特卡洛模拟得出a的最优值约等于3.7,(14)式的a在实际使用中通常默认为3。对于参数 λ ,本文使用BIC (贝叶斯信息准则)进行参数选择。具体计算式如下:

BIC λ =log( i=1 n D i T V ^ i 1 S ¯ i ( γ ) )+ df( λ )log( n ) n (18)

4. 模拟研究

数据来源于如下变系数模型

Y ik = k=1 n i X ik T β( t ik ) + ε ik ,i=1,,n;j=1,, n i (19)

其中 β 1 ( t )= 3 2 cos( ( t2 )π ) β 2 ( t )= ( 1 4 2t ) 2 β 3 ( t )= 2 3 + 5.54t 300 β p3 ( t )=0 t ik ~U( 1,1 ) X ik 1 服从 [ t ik ,3+ t ik ] 上的均匀分布,在 X ik 1 的条件下, X ik 2 产生于正态分布 N( 0, Σ 2 ) 生成的随机数加1,其中 Σ 2 = X ik 1 +1 X ik 1 +2 X ik 3 服从参数为0.8的伯努利分布,其余协变量 ( X ik 4 ,, X ik p3 ) 服从均值为0,协方差矩阵为 ϒ 的多元正态分布。

为对比不同相关性数据下惩罚函数变量选择的结果,考虑两种生成协变量的协方差矩阵,具体如下:

CASE Ⅰ协方差矩阵 ϒ=Cov( X ik r , X jl r )={ 15 e | t ik t il | , i=j 0, ij

CASE Ⅱ协方差矩阵 ϒ=Cov( X ik r , X jl r )={ 30 e 0.3| t ik t il | , i=j 0, ij

随机误差 ε i 服从多元正态分布 N( 0, Ξ i ) 。这里协方差矩阵 Ξ i 采用定义如下的矩阵 Ξ i = Δ i 1 B i ( Δ i T ) 1 ,其中 B i m i × m i 的对角矩阵且第 k 个对角元素为 sin( π ς ik ) 3 +0.5 ς ik ~U( 0,2 ) ,以及 Δ i 是对角元素全为1的下三角矩阵且第 ( k,l ) 个元素为 δ k,l i ( kl ) δ k,l i = W k,l ( i )T θ * ,其中 W k,l ( i ) = ( 1, ω ik ω il ) T θ * = ( 0.2,0.5 ) T ω ik ~U( 0,1 )

对于重复观测次数 n i ,此处我们考虑不平衡的情形,令 n i 取2到10之间的随机数。取 n=30,50,100 为小中大样本,模拟次数为100次。

为了体现模型评估的准确性,我们采用均方根平均误差(RASE)来对模型结果进行评价,RASE的具体计算表达式如下:

RASE= { n 1 i=1 n j=1 n i ( β ^ j ( U i ) β j ( U i ) ) 2 } 1 2 (20)

将本文方法下的估计结果记为 β PB SCAD β PB MCP ,与三种结构下的PGEE方法进行对比分析,估计结果记为 β PGEE indep β PGEE AR β PGEE CS 。具体见表1

Table 1. RASE results for CASE Ⅰ and CASE Ⅱ ( β PB SCAD β PB MCP (×10−1))

1. CASE Ⅰ和CASE Ⅱ的RASE结果(其中 β PB SCAD β PB MCP (×10−1))

n

p n

CASE Ⅰ

CASE Ⅱ

RASE

30

12

β PGEE indep

0.7663

0.2021

β PGEE AR

0.7637

0.1908

β PGEE CS

0.7025

0.2174

β PB SCAD

0.0946

0.0870

β PB MCP

0.0944

0.0870

15

β PGEE indep

0.6214

0.1936

β PGEE AR

0.7213

0.1523

β PGEE CS

0.6547

0.1237

β PB SCAD

0.0088

0.0073

β PB MCP

0.0077

0.0072

50

12

β PGEE indep

0.6688

0.1939

β PGEE AR

0.7633

0.1417

β PGEE CS

0.6981

0.0871

β PB SCAD

0.0855

0.0850

β PB MCP

0.0795

0.0747

15

β PGEE indep

0.5652

0.1543

β PGEE AR

0.5012

0.1540

β PGEE CS

0.4980

0.1246

β PB SCAD

0.0654

0.0531

β PB MCP

0.0554

0.0526

100

12

β PGEE indep

0.5165

0.2016

β PGEE AR

0.5275

0.2058

β PGEE CS

0.4932

0.2091

β PB SCAD

0.0393

0.0300

β PB MCP

0.0393

0.0290

15

β PGEE indep

0.3960

0.1180

β PGEE AR

0.3910

0.1324

β PGEE CS

0.2862

0.1461

β PB SCAD

0.0386

0.0319

β PB MCP

0.0376

0.0291

根据上面的表格,可以得到如下结论:

1) 不同维度下处理效果

为了体现本文提出的方法对不同维度样本数据的处理效果差异,逐步增加模型维数,分别取 p n =12 p n =15 。对比上述结果,在小中大三种样本类型下,模型维数越大,估计的均方根平均误差越小,说明模型的估计效率越高。

2) 不同协方差工作结构对估计结果的影响

基于文章研究,在相同惩罚函数和样本数据结构下,PGEE方法对应的模型平均误差略高于本文提出方法下的模型误差,说明利用修正的Cholesky分解处理变系数纵向秩回归模型的组内协方差矩阵是有效的,明显降低了估计效率。同时,在模拟研究中,会出现两种方法的模型误差非常接近的情况,这说明此时对协方差矩阵结构的两种估计都是正确的。总之,与现有方法相比,本文提出的方法具有更强的优势,主要原因在于它允许协方差结构具有更一般的形式,不需提前指定矩阵结构,从而可以达到更强的稳健性和有效性。

3) 不同协方差相关性对惩罚函数变量选择的影响

对比相同维度下CASE Ⅰ和CASE Ⅱ的模型结果,发现当样本协方差矩阵相关性变强时,CASE Ⅱ的模型平均误差更小。这是因为当变量高度相关时,MCP惩罚的硬阈值特性和无偏性使其能更有效地筛选关键变量并减少估计偏差,而SCAD的渐进惩罚可能导致冗余变量残留。结合两个惩罚的表达式分析, | γ |>aλ 时,MCP惩罚完全为0,而SCAD仍然存在轻微惩罚,为非零常数。

5. 模拟研究

我们将本文提出的方法应用到纵向孕酮数据中,该数据的具体表述见文章[23]。这项研究收集了34名女性的尿样,每个妇女的重复观测次数从11到28变化且这组数据共有492个观测值,每位女性的观测次数覆盖了完整的月经周期。但由于不同女性的周期长度不同,研究采用时间标准化,将每位女性的月经周期按比例缩放到28天的参考周期。同时,考虑到激素数据通常呈右偏分布,研究对原始孕酮值进行对数转换,使其更接近正态分布,便于后续统计分析。已经有一些学者利用线性模型分析这组数据,前面的文献旨在研究血清孕酮水平的对数与年龄(Age)、身体质量指数(BMI)和时间( t ij )的关系。Fan等人[24]利用Huber得分函数分析这组数据,尽管有界的Huber得分函数可以减弱响应变量中异常值的影响从而得到稳健估计,但是在非稳健估计情形下会损失一些效率。吕晶等人[15]利用修正的Cholesky分解对这组数据进行了有效的秩推断分析,但是文章并没有考虑变量选择时造成的模型损失。考虑到孕酮数据随时间变化的特殊性,本文建立了B样条近似下的变系数秩回归模型,叠加非凸惩罚函数进行变量选择,研究血清孕酮水平的对数与Age、BMI、 t ij 以及它们交互项之间的关系,具体模型如下:

Y ij = β 0 + β 1 Age i + β 2 BMI i + β 3 t ij + β 4 Age i t ij + β 5 BMI i t ij + β 6 t ij 2 + β 7 Age i BMI i + ε ij (21)

下面比较相同样本数据下,本文所提方法( β ^ PB SCAD β ^ PB MCP )、PGEE方法( β ^ PGEE CS , β ^ PGEE indep , β ^ PGEE AR )以及吕等人[15]提出的方法( β ^ C )的结果。表2列举了200次Bootstrap抽样得到的估计系数(Estimate)和对应的标准差(SE)。

表2可得如下结论:

1) 在上述所有方法中,本文提出的方法具有最小标准差,这说明本文提出的方法更有效;

2) 对比 β ^ PGEE CS β ^ PGEE indep β ^ PGEE AR 以及 β ^ PB SCAD β ^ PB MCP 可知,利用修正的Cholesky分解处理纵向秩回归协方差矩阵的结构是有效的,明显降低了模型估计过程中损失的效率;

3) 在本文提出的方法下, β ^ PB MCP β ^ PB SCAD 的标准差更小,说明同样作为非凸惩罚函数,在修正的Cholesky分解下的变系数纵向秩回归模型中,MCP惩罚函数对模型有效性的提高更显著。图1是对200次Bootstrap抽样的一次随机样本数据绘制得到的相关性热图。可知由于交互项的存在,变量 X 3 X 4 X 5 X 6 之间出现了强相关性,比较 β ^ PB MCP β ^ PB SCAD 对应的两种估计方法下得到的四个变量的标准差结果,可以看出,强相关下,MCP惩罚函数表现出更明显的优势;

Table 2. Estimated coefficients (×102) and standard deviations (×101) derived from the progesterone data

2. 孕酮数据中所得的估计系数(×102)以及标准差(×101)

Age

BMI

Time

Age*Time

BMI* Time

Time* Time

Age* BMI

β ^ C

Estimate

−5.0348

−5.3870

−15.481

0.2718

0.2670

−0.0201

0.1434

SE

5.6838

8.2926

1.8319

0.0344

0.0442

0.0243

0.2211

β ^ PGEE CS

Estimate

7.3184

11.5133

−4.2705

0.1122

0.0557

−0.0121

−0.2473

SE

1.4396

2.2622

1.1004

0.0244

0.0313

0.0173

0.0658

β ^ PGEE indep

Estimate

−7.2348

−12.870

−3.2181

0.1218

0.3670

−0.0211

0.1134

SE

5.1661

7.7001

1.4750

0.0321

0.0362

0.0339

0.1058

β ^ PGEE AR

Estimate

7.1611

11.6469

−3.8152

0.1128

0.0395

−0.0138

−0.2435

SE

1.4663

2.2829

1.1037

0.0244

0.0327

0.0176

0.0669

β ^ PB SCAD

Estimate

24.9950

39.2499

−3.5169

0.1956

−0.0744

−0.0484

−0.9459

SE

1.9106

3.0075

6.9158

0.1284

0.1664

0.0711

0.1113

β ^ PB MCP

Estimate

0.4673

0.7336

−2.6240

0.0725

0.0848

0.0049

0.1542

SE

0.6155

1.0663

2.9786

0.0671

0.0650

0.0382

0.0498

Figure 1. Bootstrap resampling-based correlation heatmap

1. Bootstrap随机抽样样本相关性热图

Figure 2. Boxplot of estimation results from 200 bootstrap resampling trials

2. 200次Bootstrap随机抽样估计结果的箱线图

4) 绘制上述五种方法的参数估计结果对应箱线图如下,结合图2的特点分析,MCP惩罚函数下的箱线图相对集中,说明估计结果的稳定性和一致性更强,而SCAD惩罚下的箱体较宽,这是因为SCAD惩罚对高相关性变量的处理不稳定,会导致系数被过度压缩或方向不一致。总之,根据箱线图分析可知,对于维度相同的样本数据,MCP惩罚函数对变量的选择更果断,能有效降低估计方差。

6. 结论

本文针对纵向数据中存在的时变效应与异质性结构,提出了一种基于变系数线性模型的稳健估计方法。该方法让每个变量的影响大小可以随时间变化,比如在研究药物疗效时,药物对病人的作用效果可能会随着治疗时间的推移逐渐增强或减弱。相比之下,传统方法只能假设药物的效果在整个治疗过程中保持不变,这往往不符合实际情况。同时,为进一步提升估计效率,本文设计了基于修正Cholesky分解的协方差矩阵估计方法,避免了预设参数结构的局限性,并通过惩罚秩回归技术实现了对离群值与厚尾分布的高鲁棒性。理论证明与数值模拟均表明,所提方法在参数估计的一致性、效率性及稳健性方面均优于现有方法。除了纵向数据,本文提出的方法还可扩展至非平稳时间序列分析与时变比例风险模型等场景,为复杂动态系统的统计建模提供了通用工具。

参考文献

[1] Diggle, P., Heagerty, P. and Liang, K.Y. (2002) Analysis of Longitudinal Data. Oxford University Press.
[2] Hsiao, C. (2003) Analysis of Panel Data. Cambridge University Press.
https://doi.org/10.1017/cbo9780511754203
[3] Song, X.K. (2007) Correlated Data Analysis: Modeling, Analytics, and Applications. Springer.
[4] Shumway, R.H. (1988) Applied Statistical Time Series Analysis. Prentice Hall.
[5] Cleveland, W.S., Grosse, E. and Shyu, W.M. (2017) Local Regression Models. In: Statistical Models in S, Routledge, 309-376.
https://doi.org/10.1201/9780203738535-8
[6] Hastie, T. and Tibshirani, R. (1993) Varying-Coefficient Models. Journal of the Royal Statistical Society Series B: Statistical Methodology, 55, 757-779.
https://doi.org/10.1111/j.2517-6161.1993.tb01939.x
[7] Fan, J. and Zhang, W. (1999) Statistical Estimation in Varying Coefficient Models. The Annals of Statistics, 27, 1491-1518.
https://doi.org/10.1214/aos/1017939139
[8] Chiang, C., Rice, J.A. and Wu, C.O. (2001) Smoothing Spline Estimation for Varying Coefficient Models with Repeatedly Measured Dependent Variables. Journal of the American Statistical Association, 96, 605-619.
https://doi.org/10.1198/016214501753168280
[9] Jung, S.H. and Ying, Z.L. (2003) Rank-Based Regression with Repeated Measurements Data. Biometrika, 90, 732-740.
https://doi.org/10.1093/biomet/90.3.732
[10] Wang, Y. and Zhu, M. (2006) Rank-Based Regression for Analysis of Repeated Measures. Biometrika, 93, 459-464.
https://doi.org/10.1093/biomet/93.2.459
[11] Wang, Y. and Zhao, Y. (2008) Weighted Rank Regression for Clustered Data Analysis. Biometrics, 64, 39-45.
https://doi.org/10.1111/j.1541-0420.2007.00842.x
[12] Fu, L. and Wang, Y. (2016) Variable Selection in Rank Regression for Analyzing Longitudinal Data. Statistical Methods in Medical Research, 27, 2447-2458.
https://doi.org/10.1177/0962280216681347
[13] Fu, L., Yang, Z., Cai, F. and Wang, Y. (2020) Efficient and Doubly-Robust Methods for Variable Selection and Parameter Estimation in Longitudinal Data Analysis. Computational Statistics, 36, 781-804.
https://doi.org/10.1007/s00180-020-01038-3
[14] Fu, L. and Wang, Y. (2012) Efficient Estimation for Rank‐Based Regression with Clustered Data. Biometrics, 68, 1074-1082.
https://doi.org/10.1111/j.1541-0420.2012.01760.x
[15] 吕晶, 郭朝会, 杨虎, 等. 纵向数据的有效秩推断基于修正的Cholesky分解[J]. 数学学报(中文版), 2018, 61(4): 549-568.
[16] Wang, L., Li, H. and Huang, J.Z. (2008) Variable Selection in Nonparametric Varying-Coefficient Models for Analysis of Repeated Measurements. Journal of the American Statistical Association, 103, 1556-1569.
https://doi.org/10.1198/016214508000000788
[17] Zhang, C. (2010) Nearly Unbiased Variable Selection under Minimax Concave Penalty. The Annals of Statistics, 38, 894-942.
https://doi.org/10.1214/09-aos729
[18] Brown, B.M. and Wang, Y. (2005) Standard Errors and Covariance Matrices for Smoothed Rank Estimators. Biometrika, 92, 149-158.
https://doi.org/10.1093/biomet/92.1.149
[19] Yao, W. and Li, R. (2012) New Local Estimation Procedure for a Non-Parametric Regression Function for Longitudinal Data. Journal of the Royal Statistical Society Series B: Statistical Methodology, 75, 123-138.
https://doi.org/10.1111/j.1467-9868.2012.01038.x
[20] Liu, S. and Li, G. (2015) Varying-Coefficient Mean-Covariance Regression Analysis for Longitudinal Data. Journal of Statistical Planning and Inference, 160, 89-106.
https://doi.org/10.1016/j.jspi.2014.11.008
[21] Fan, J. and Yao, Q. (1998) Efficient Estimation of Conditional Variance Functions in Stochastic Regression. Biometrika, 85, 645-660.
https://doi.org/10.1093/biomet/85.3.645
[22] Fan, J. and Li, R. (2001) Variable Selection via Nonconcave Penalized Likelihood and Its Oracle Properties. Journal of the American Statistical Association, 96, 1348-1360.
https://doi.org/10.1198/016214501753382273
[23] Zhang, D., Lin, X., Raz, J. and Sowers, M. (1998) Semiparametric Stochastic Mixed Models for Longitudinal Data. Journal of the American Statistical Association, 93, 710-719.
https://doi.org/10.1080/01621459.1998.10473723
[24] Fan, Y., Qin, G. and Zhu, Z. (2012) Variable Selection in Robust Regression Models for Longitudinal Data. Journal of Multivariate Analysis, 109, 156-167.
https://doi.org/10.1016/j.jmva.2012.03.007