基于投影重采样的多元非线性降维
On a Projective Resampling Method for Nonlinear Dimension Reduction with Multivariate Responses
摘要: 本文研究响应变量和预测因子均为向量的充分降维问题。投影重采样方法的核心思想是将多元响应投影到随机采样的方向上,以获取标量响应的样本,并反复应用单变量响应的降维方法来解决问题。该方法已被证明对多元线性降维有效。本文将投影重采样方法推广到非线性情境,并通过核映射提出了四种新的估计方法。研究结果表明,新方法具有优良的性质,并能在温和条件下完整恢复降维空间。最后,通过数值模拟和真实数据集分析验证了所提方法的有效性和可行性。
Abstract: This paper addresses the problem of sufficient dimension reduction where both the response and predictor are vectors. The core idea of projective resampling method is to project the multivariate responses along randomly sampled directions to obtain samples of scalar-valued responses. A univariate-response dimension reduction method is then applied repeatedly for solving the problem. This has proven effective for multivariate linear dimension reduction. In this paper, we extend the projective resampling method to nonlinear scenarios and use the mapping induced by kernels to develop four novel estimation methods. The research results suggest that the new methods exhibit excellent properties and ensure full recovery of the dimension reduction space under mild conditions. Finally, we validate the effectiveness and feasibility of the proposed methods through numerical simulations and real data analysis.
文章引用:申亮亮, 张俊英. 基于投影重采样的多元非线性降维[J]. 统计学与应用, 2024, 13(5): 1887-1898. https://doi.org/10.12677/sa.2024.135183

1. 引言

在经典情形,充分降维(Sufficient Dimension Reduction, SDR)考虑在给定 X p 的条件下, Y 1 的分布仅通过X的一组线性组合来依赖X [1]。如果存在一个矩阵 β p×d d<p ,使得 YX| β T X ,其中 表示独立性,那么由 β 的列向量张成的子空间表示中心子空间 S( Y|X )=span( β ) d称为中心子空间的维数。参考切片逆回归(Sliced Inverse Regression, SIR) [1],切片平均方差估计(Sliced Average Variance Estimate, SAVE) [2],轮廓回归(Contour Regression, CR) [3]和方向回归(Directional Regression, DR) [4]

近年来,一个重要的发展是将上述方法推广到多元响应变量情形。Setodji和Cook (2004) [5]提出了对多元Y进行高效分组的策略,并直接估计整个降维空间。Saracco (2005) [6]通过组合边际降维子空间来估计中心子空间,并且发展了估计的渐近分布。然而,这些方法受限于维度灾难,无法完全恢复中心子空间。Li等(2008) [7]提出的投影重采样方法(Projective Resampling Method, PR)克服了这两大难题,解决了响应变量是多维的问题。

随着数据生成和获取技术的快速发展,线性形式的 β T X 已经无法满足我们的需求,例如数据集中在流形时,线性方法通常无法寻找这种非线性结构。幸运的是,可以将数据嵌入希尔伯特空间的非线性映射,并且在这种空间中的线性方法可以捕捉低维结构。此时,可以通过核方法将数据映射到由核函数诱导的特征空间来解决问题。如果在希尔伯特空间中通过内积能够计算出低维结构的投影,就可以使用核技巧(kernel trick) [8]来获得简单且高效的估计方法。假设将p维数据通过特征映射 ϕ:X 投影到希尔伯特空间 中, β T X 可以表示为 β,ϕ( X ) 。估计标量Y的降维方法可参考Wu (2008) [9]提出的核切片逆回归(Kernel Sliced Inverse Regression, KSIR),Shotaro (2001) [10]、Bach和Jordan (2002) [11]、Fukumizu等(2007) [12]提出的核典型相关分析(Kernel Canonical Correlation Analysis, KCCA),以及Lee等人(2013) [13]提出的广义切片平均方差估计(Generalized Sliced Average Variance Estimator, GSAVE)。

然而,当响应Y是一个向量时,还没有好的估计方法。Li等(2008) [7]提出了投影重采样方法来处理多元线性降维,并验证了其具有良好的性质。然而,该方法未考虑非线性情形,因此在处理多元非线性降维问题时仍然存在挑战。受此启发,我们将投影重采样方法推广至非线性情形,使用核方法来估计 β,ϕ( X ) ,并且提出了四种新的降维方法。本文着重于研究这些方法的性质及适用条件。

本文的组织结构如下:第二节介绍了Mercer核,并推导了新的关系表达式。进一步,我们得到了四种新的非线性投影重采样方法。第三节给出了所提方法的理论性质。第四节通过模拟和实际数据集验证了这些方法的性质。最后,第五节对本文进行了总结。定理的证明见附录。

2. 非线性投影重采样方法

2.1. Mercer核和非线性降维

给定预测变量 XX p ,Mercer核[14]是一个连续且半正定的函数 k( , ):X×X ,其具有如下谱分解形式:

k( x,z )= j λ j ϕ j ( x ) ϕ j ( z )

其中 ϕ j 为特征函数, λ j 为相应的非负、非递增的特征值。Mercer核的一个重要性质是,每个核函数k唯一对应一个再生核希尔伯特空间(reproducing kernel Hilbert space, RKHS),如下所示:

={ f|f( x )= jΛ a j ϕ j ( x ) with  jΛ a j 2 λ j < }

其中集合 Λ:={ j: λ j >0 } 的基数即为再生核希尔伯特空间的维度,该维度可能是无穷的[14]

给定一个Mercer核,存在一个唯一的映射 ϕ X 到由该核的特征值和特征函数定义的希尔伯特空间。该映射的形式如下:

ϕ( x )=( λ 1 ϕ 1 ( x ), λ 2 ϕ 2 ( x ),, λ |Λ| ϕ |Λ| ( x ) )

ϕ( Y ) 由该映射所诱导的希尔伯特空间具有标准内积 k( x,z )= ϕ( x ),ϕ( z ) ,并且该空间与再生核希尔伯特空间是同构的,我们将两个希尔伯特空间都记作 [15]。当核k是无限维的情况下, ϕ:X l 2 。此外,在核方法中,表示定理的关键作用在于,将可能在无限维希尔伯特空间 上的优化问题简化为求解有限维的优化问题。

Z 中的随机元素,满足 E Z < ,其中 表示由内积 , 诱导的 中的范数。期望 E( Z ) 被定义为 中的一个元素,对于所有 a ,满足 a,E( Z ) =E a,Z 。若 E Z < ,则Z的协方差算子被定义为 E[ ( ZEZ )( ZEZ ) ] ,其中 ( zb )f= b,f a ,对于 f 。随机变量 XX 诱导了再生核希尔伯特空间中的一个随机元素 ϕ( X ) 。不失一般性,假设 E( ϕ( X ) )=0 ,并且有界性也意味着协方差算子 Σ XX =E[ ϕ( X )ϕ( X ) ] 是紧的,并且具有谱分解:

Σ XX = i=1 w i e i e i

其中 w i e i 分别为特征值和特征函数。类似地,随机变量 YX 诱导了再生核希尔伯特空间中的一个随机元素。因此,有 YY =E[ ϕ( Y )ϕ( Y ) ] YX =E[ ϕ( Y )ϕ( X ) ] XY =E[ ϕ( X )ϕ( Y ) ]

我们假设YX之间的关系具有如下模型:

Y=F( β 1 ,ϕ( X ) ,, β d ,ϕ( X ) ,ϵ )

其中 β j ,且误差项 ϵ 的分布独立于X。该模型意味着响应变量Y仅通过一个d维的总结统计量 S( Y|X )=( β 1 ,ϕ( X ) ,, β d ,ϕ( X ) ) 来依赖于X。虽然 S( Y|X ) 中是一个线性总结统计量,但它提取了原始预测变量X空间中的非线性特征。

Li (1991) [1]使用矩阵 [ var( X ) ] 1 var[ E( X|Y ) ] 的特征向量来估计线性充分降维中的 β ;而非线性特征则通过算子 T= [ var( ϕ( X ) ) ] 1 var[ E( ϕ( X )|Y ) ] 的特征函数来恢复。例如,Wu (2008) [9]提出的核切片逆回归(KSIR)方法首先将Y的样本分成若干个切片,然后取 ϕ( X ) 的切片均值来形成候选矩阵,并在此矩阵上进行谱分解。Lee 等(2016) [16]则考虑回归算子来处理给定YX的函数的条件期望。即,对于 f, Σ YY 1 Σ YX f=E[ f( X )|Y ]+ 。因此,Li (2018) [17]给出了T的两种形式:

T 1 = XX 1 XY YX XX 1 , T 2 = XX 1 XY YY 1 YX XX 1 ,

这些方法被称为广义切片逆回归(Generalized Sliced Inverse Regression, GSIR)。虽然KSIR在数值上与GSIR相似,但KSIR背后的理论基础却有很大不同:它假设 E[ ϕ( X )| β T ϕ( X ) ] 对于 ϕ( X ) 是线性的,而这一假设类似于线性充分降维(SDR)的假设。而GSIR并不需要这一假设。需要注意的是,中心化的Gram矩阵K是由核函数 k( , ) 定义的,其中 K ij = ϕ( x i ),ϕ( x j ) =k( x i , x j ) 。此外,我们可以为协方差算子中添加一个正则化项[17],以防止其不可逆。那么,

T n,1 = ( K X + ε X λ max ( K X ) I n ) 1 K X K Y K X ( K X + ε X λ max ( K X ) I n ) 1 , (1)

T n,2 = ( K X + ε X λ max ( K X ) I n ) 1 K X K Y ( K Y + ε Y λ max ( K Y ) I n ) 1 K X ( K X + ε X λ max ( K X ) I n ) 1 .(2)

其中 ε X ε Y 是通过交叉验证算法[13]获得的参数, λ max ( ) 表示一个矩阵最大的特征值。

根据矩阵的选择,GSIR可以分为两种形式,称为GSIR1和GSIR2,分别对应于表达式(1)和(2)的基矩阵。类似地,其他非线性方法也是在寻找不同的矩阵T来获得解。下一节将PR与这些核方法结合起来,发展出新的降维方法。

2.2. 投影重采样方法

回到多元非线性问题中,设XY的维度分别为pq。对于 u q ,考虑n个投影样本 ( X 1 , u T Y 1 ),,( X n , u T Y n ) 。假设给定一个用于单响应变量的基本方法,例如前文描述的GSIR1。则总体水平的矩阵T T=var{ E[ ϕ( X )| u T Y ] } 给出。那么,对于每一个 u q ,可以获得一个半正定矩阵 T n ( u ) ,它用于估计 S( u T Y|X ) 。最后,这些矩阵取平均值以估计 S( Y|X )

当然,实际操作中不可能对 q 中每一个u都执行 u T Y X的降维。Li等(2008) [7]提出,我们可以通过适当的分布生成一个有限集u。研究表明,只要这个集合相对于样本量足够大,基于该有限集u所得到的估计与对 q 中每一个u进行降维所得到的估计是渐近等价的。接下来我们给出对于给定d (其估计将在后续讨论)和给定的基估计矩阵 T n ( u ) 的具体算法:

算法1:PR-GSIR1算法

1) 选择蒙特卡洛样本大小 m n 满足 m n n趋于无穷的速度快,比如 m n =nlog( n ) m n = n 3/2 。取 G 1 ,, G m n 独立同分布于 N( 0, I q ) ,那么得到 m n 个投影 u j = G j / G j ,j=1,, m n

2) 对每个 u j ,j=1,, m n ,对 ( X 1 , u j T Y 1 ),,( X n , u j T Y n ) 使用GSIR1来计算 T n ( u j ) ,即:

T n ( u j )= ( K X + ε X λ max ( K X ) I n ) 1 K X K u j T Y K X ( K X + ε X λ max ( K X ) I n ) 1

这个过程得到了 m n 个矩阵。

3) 计算 T n, m n = m n 1 j=1 m n T n ( u j ) ,对 T n, m n 执行谱分解得到d个主特征向量 w ^ 1 ,, w ^ d ,那么总结统计量 S( Y|X ) 的估计为 ( K X + ε X λ max ( K X ) I n ) 1 w ^ i ,i=1,,d

上述方法是投影重采样与广义切片逆回归的第一种矩阵结合起来得到的新方法,我们把它命名为PR-GSIR1。需要注意的是,参数 ε X 是通过Lee等(2013) [13]提出的交叉验证算法得到的,在最后一步对求逆过程进行类似于岭回归的正则化是为了提高精确度。类似地,算法PR-GSIR2可以通过将算法1的第2步替换为 T n ( u j ) 来得到:

T n ( u j )= ( K X + ε X λ max ( K X ) I n ) 1 K X K u j T Y ( K u j T Y + ε u j T Y λ max ( K u j T Y ) I n ) 1 K X ( K X + ε X λ max ( K X ) I n ) 1

算法与第一种方法类似,我们不做过多解释。为了表明投影重采样适用于非线性充分降维,我们也将投影重采样与Akaho (2001) [10],Bach和Jordan (2002) [11]和Fukumizu等(2007) [12]发展的核典型相关分析结合起来,可以得到第三种方法(PR-KCCA)通过使用 T n ( u j )

T n ( u j )= ( K X + ε X λ max ( K X ) I n ) 1 K X K u j T Y ( K u j T Y + ε u j T Y λ max ( K u j T Y ) I n ) 2 K u j T Y K X ( K X + ε X λ max ( K X ) I n ) 1

但是,上述提到的三种方法都只适合于提取响应变量的条件均值,因此我们也引入使用广义切片平均方差估计得到的新方法,其对于提取响应的条件方差效果更好,我们会在第4节模拟部分验证。为了引入广义切片平均方差估计的算法,还需要建立一些关系。 1 n 是元素全是1的n维向量,矩阵 Q= I n 1 n 1 n T /n L X = ( 1 n , K X ) T L Y = ( 1 n , K Y ) T 。那么可以计算: C= L Y T ( L Y L Y T + ε Y I n+1 ) 1/2 L Y ,令 C i C的第i列,计算 Λ i =diag( C i ) C i C i T ,以及 Γ i =Q/n Λ i ,对于 i=1,,n 第四种降维方法(PR-GSAVE)的算法如下:

算法2:PR-GSAVE算法

1) 与算法1中第1步一致,得到 m n 个投影。

2) 对每个 u j ,j=1,, m n ,对 ( X 1 , u j T Y 1 ),,( X n , u j T Y n ) 使用GSAVE来计算 T n ( u j ) ,即:

T n ( u j )= 1 n i=1 n ( L X Q L X T + ε X λ max ( L X Q L X T ) I n+1 ) 1/2

L X Q Γ i Q Γ i Q L X T ( L X Q L X T + ε X λ max ( L X Q L X T ) I n+1 ) 1/2

这个过程得到了 m n 个矩阵。

3) 计算 T n, m n = m n 1 j=1 m n T n ( u j ) ,对 T n, m n 执行谱分解得到d个主特征向量 w ^ 1 ,, w ^ d ,那么总结统计量 S( Y|X ) 的估计为 ( L X Q L X T + ε X λ max ( L X Q L X T ) I n+1 ) 1/2 w ^ i ,i=1,,d

对上述PR-GSAVE中的投影体现在从 K Y K u j T Y 的改变。这4种方法的性质会在第4节的模拟部分验证。

在算法过程中,我们使用Zhu等(2006) [18]介绍的贝叶斯信息准则来确定中心子空间的维数d。其他贝叶斯信息准则可参考,在Wang和Yin (2008) [19],Li等(2010) [20]以及Guo等(2015) [21]。下一节研究非线性投影重采样方法的性质。

3. 非线性投影重采样的性质

3.1. 费希尔一致性

对于每个 u q ,令 T( u ) 是一个 p×p 的半正定矩阵满足 span[ T( u ) ]=S( u T Y|X ) ,其中 T( u ) 是非线性降维方法的总体水平矩阵。例如,对于广义切片逆回归, T( u )=var{ E[ ϕ( X )| u T Y ] } 。那么可以得到以下定理:

定理3.1:假设u是均匀分布在 S q 上的随机向量,对于每个固定的 u q T( u )0 都有 span{ T( u ) }=S( u T Y|X ) 。那么 span{ E[ T( u ) ] }=S( Y|X )

对于定理3.1需要说明的是,虽然使用均匀分布得到投影,但是分布的选取对定理证明并没有起到关键的作用。所以我们可以使用其他分布,例如算法中使用的正态分布。并且定理3.1表明,如果我们想估计 S( Y|X ) ,就可以用对 E[ T( u ) ] 的估计来代替。这表明了算法的可行性及合理性。而期望 E[ T( u ) ] 可以用蒙特卡洛近似来求解积分

S q T n ( u )λ( du )

来近似估计,其中 λ 是在 q 上的均匀分布。对于 T( u )0 的原因在于确保 E[ T( u ) ] 的贡献是可测的,即:对 q 中的两个不同的点 u 1 u 2 ,那么 T( u 1 ) T( u 2 ) 对积分 E[ T( u ) ] 的贡献不会被抵消。

3.2. n 一致性和蒙特卡洛效应

很明显,只要 T n ( u ) 对每个u都是 n 一致的并且满足一些均匀分布条件,那么执行蒙特卡洛过程无穷多次,可以得到估计量 T n, m n 将会收敛于 T n, E( T n ( u )| X 1 , Y 1 ,, X n , Y n ) ,那么 T n, m n 也是 n 一致的。假设 T n ( u ) 有以下展开式:

T n ( u )=T( u )+ E n Φ( X,Y,u )+ R n ( u ) (3)

其中,对每个u Φ( X,Y,u ) 这一项都是均值为0且有限二阶距。余项 R n ( u ) 满足

sup R n ( u ) = o p ( n 1/2 ) (4)

其中 表示矩阵的F范数。对于条件(3)和(4)的细节和应用可参考Fernholz (2012) [22]。下一个定理表明 T n, m n n 一致性。

定理3.2:如果条件(3)和(4)均成立, n=O( m n ) ,那么 T n, m n =E[ T( u ) ]+ O p ( n 1/2 )

该定理(参见Li等(2008) [7]——虽然仅展示了线性情况,但将其扩展到流形上的推导是直接的)告诉我们,为了实现对联合统计量 S( Y|X ) n 一致性,只需对 O( n ) 个随机采样u的边际统计量 S( u T Y|X ) 进行估计即可。接下来,我们研究 T n, m n T n, 渐进相等时, m n 的速度,这意味着蒙特卡洛效应会消失。令 vec( A ) 表示对矩阵A的向量化,令B表示矩阵 B=var{ E[ vec( Φ( X,Y,u ) )|X,Y ] } T=E[ T( u ) ] 。那么可以得到如下定理:

定理3.3:如果条件(3)和(4)均成立,那么当 n 时,

n [ vec( T n, )vec( T ) ] D N( 0,B )

并且也满足 lim n ( n m n )=0 ,那么当 n 时,

n [ vec( T n, m n )vec( T ) ] D N( 0,B )

这个定理(参见Li等(2008) [7]——虽然仅展示了线性情况,但将其扩展到流形上的推导是直接的)很明显地说明,如果 m n 趋于无穷的速度比n快,那么 vec( T n, m n ) vec( T n, ) 有相同的渐进正态分布。这就意味着使用 vec( T n, m n ) vec( T n, ) 来估计T是渐进一致的,也验证了3.1节中当 n 时用蒙特卡洛近似求积分的误差可以忽略。下一节我们通过模拟来检验新方法的性质及适用条件。

4. 模拟比较

4.1. 模拟数据对比

由于2.2节所述的原因,我们在充分预测因子出现在条件均值时比较PR-GSIR1与PR-GSIR2和PR-KCCA,同时在充分预测因子出现在条件方差比较PR-GSAVE与PR-GSIR1、PR-GSIR2和PR-KCCA。使用如下的可加高斯核:

k( x,z )= j=1 d exp( ( x j z j ) 2 2 σ 2 )

其中 σ=2 。为了验证我们的方法确实适用于非线性降维问题,我们还采用了Li等(2008) [7]提出的PR方法进行比较。由于该方法以SIR作为其基础算法,将其记作PR-SIR。

首先选择充分预测因子为条件均值,考虑以下三个模型:

模型I: Y 1 = X 1 2 + X 2 2 log( X 1 2 + X 2 2 )+ ϵ 1 ;  Y 2 = ϵ 2

模型II: Y 1 = X 1 1+ e X 2 + ϵ 1 ;  Y 2 = ϵ 2

模型III: Y 1 =sin( π( X 1 + X 2 ) 10 )+ ϵ 1 ;  Y 2 = ϵ 2

其中 X~N( 0, I p ),Xϵ,ϵ~N( 0,Δ ) ,Δ满足

Δ=( 1 0.5 0.5 1 )

X的维数是pY的维数q固定为3,生成的样本数为n,选择蒙特卡洛样本大小 m n =2000 。通过估计的充分预测因子与多维响应的接近程度来评估算法结果,由于只关注预测因子的单调函数,我们使用Spearman相关性作为接近程度的衡量标准。对于样本数 n=100,200 X的维数 p=10,20 的四种结合,分别产生模型I、模型II和模型III的100个样本。对于PR-SIR,切片的数量是10。然后求出相应的Spearman相关系数的平均值。结果见表1

Table 1. Average absolute Spearman correlation coefficients between estimated predictors and each Yi for PR-SIR, PR-GSIR1, PR-GSIR2, and PR-KCCA across different sample sizes and predictor dimensions for Models I, II, and III (100 Repetitions)

1. PR-SIR、PR-GSIR1、PR-GSIR2和PR-KCCA在不同样本数和不同预测因子维数,对于模型I、II和III,估计预测因子与每个Yi的Spearman相关系数绝对值在100重复得到的平均值

(n, p)

模型

PR-SIR

PR-GSIR1

PR-GSIR2

PR-KCCA

Y1

Y2

Y1

Y2

Y1

Y2

Y1

Y2

(100, 10)

I

0.24

0.16

0.92

0.71

0.82

0.39

0.83

0.38

II

0.47

0.10

0.87

0.71

0.82

0.54

0.79

0.57

III

0.42

0.13

0.83

0.74

0.79

0.60

0.79

0.61

(100, 20)

I

0.26

0.16

0.94

0.74

0.91

0.19

0.91

0.57

II

0.47

0.18

0.91

0.76

0.87

0.72

0.88

0.70

III

0.44

0.22

0.88

0.77

0.86

0.74

0.85

0.74

续表

(200, 10)

I

0.22

0.12

0.89

0.64

0.80

0.29

0.80

0.32

II

0.45

0.07

0.85

0.67

0.74

0.44

0.76

0.48

III

0.39

0.07

0.81

0.70

0.73

0.51

0.71

0.52

(200, 20)

I

0.22

0.15

0.93

0.75

0.88

0.42

0.90

0.48

II

0.49

0.10

0.89

0.78

0.87

0.65

0.87

0.62

III

0.44

0.11

0.86

0.76

0.85

0.71

0.85

0.71

从上表可以看出三种非线性方法都有着满意的结果,且PR-GSIR1的结果比另两种方法更佳。然而,PR-SIR效果较差,这验证了本文提出的方法确实适合于处理非线性降维问题。并且可以看出,这三种非线性方法均不受维数灾难的影响。

接下来,我们比较当预测因子只影响方差时,PR-GSAVE、PR-GSIR1、PR-GSIR2和PR-KCCA这四种方法的性质。前三个模型中,我们计算多元响应的每个分量与估计的充分预测因子之间的相关性,接下来我们提出一个新的标准来综合考虑多元响应与预测因子的相关程度。因为 YX|f( X ) ,对于 f( X ) 生成的可积函数类空间的正交补中的元素 g( X ) ,则有 Yg( X ) ,从而对于 u q u T Yg( X ) ,所以 u T Y g( X ) 的相关系数为0,因此一个好的估计应该使得 u T Y g( X ) 的相关系数尽可能小。

Figure 1. Boxplots of the absolute values of the correlation coefficients between u T Y and g( X ) obtained by the four methods in Model IV

1. 四种方法在模型IV得到的 u T Y g( X ) 的相关系数绝对值的箱线图

Figure 2. Boxplots of the absolute values of the correlation coefficients between u T Y and g( X ) obtained by the four methods in Model V

2. 四种方法在模型V得到的 u T Y g( X ) 的相关系数绝对值的箱线图

考虑以下两个模型:

模型IV: Y 1 = X 1 ϵ 1 ;  Y 2 = X 2 ϵ 2 ;  Y 3 = ϵ 3

模型V: Y 1 = X 1 1+ e X 2 ϵ 1 ;  Y 2 = X 3 1+ e X 4 ϵ 2 ;  Y 3 = ϵ 3

其中 X~N( 0, I 10 ),Xϵ,ϵ~N( 0,Δ ) ,Δ满足

Δ=( 0.5 0 0 0 0.5 0 0 0 0.5 )

生成的样本数 n=100 ,选择蒙特卡洛样本大小 m n =2000 。结果见图1图2

图1图2分别是模型IV,模型V产生来自 N( 0, I 3 ) 三维正态随机数 u 1 ,, u 200 ,使用四种方法计算 u T Y g( X ) 的复相关系数的箱线图,从图中可以看出,PR-GSAVE的效果是最好的,这验证了广义切片平均方差估计处理响应的条件方差效果更好。

4.2. 真实数据分析

实际数据集使用R软件程序包dr (下载网址:http://mirrors.xmu.edu.cn/CRAN/)中自带数据集ais,为澳大利亚体育研究所收集202名男女运动员身体各个指标的数据,选取瘦体重(lean body mass, LBM)、脂肪率(body fat percentage, Bfat)为2维响应变量,身高(height, Ht)、体重(weight, Wt)、红细胞数量(red blood cell count, RCC)、白细胞数量(white blood cell count, WCC)、红细胞比容(hematocrit, Hc)、血色素(hemoglobin, Hg)、血浆铁蛋白浓度(plasma ferritin concentration, Ferr)、体质指数(body mass index, BMI)、皮肤褶皱(skinfold thickness, SSF)为9维协变量,结果见图3图3为来自 N( 0, I 2 ) 三维正态随机数 u 1 ,, u 200 ,使用四种方法计算 u T Y g( X ) 的复相关系数的箱线图,可以看出PR-GSAVE的效果相对其他三种方法较差,而PR-GSIR1的效果最好。

Figure 3. Boxplots of the absolute values of the correlation coefficients between u T Y and g( X ) obtained by the four methods on the dataset of the athlete physical indicators

3. 四种方法在运动员身体指标数据集得到的 u T Y g( X ) 的相关系数绝对值的箱线图

综上分析,可以得出初步结论。对于一般的多元非线性降维问题,PR-GSIR1的效果应该是最好的,并且这种方法也是最简单的。这与线性降维中情况一致,即切片逆回归是简单且使用最广泛的方法之一。对于预测因子出现在条件方差的情形中,PR-GSAVE的效果就相对较好了,这也与线性中情况一致。我们可以将PR与其他降维方法结合,寻找更优的降维方法。

5. 结论

投影重采样基于这样一个事实:一个随机向量在所有方向上的投影唯一确定了该随机向量的联合分布。这一方法能够简单而有效地将多元响应降维转换为单变量响应降维,从而避免维数灾难,提高精确度。我们将投影重采样这种用于处理多元响应的降维技术与一般非线性降维方法相结合,得到了四种新的降维方法。令人振奋的是,我们的方法只需要在蒙特卡洛样本大小比n趋于无穷的速度快,就能保证良好的性质。在模拟实验中,我们验证了新方法的有效性,结果显示这些新方法仍然保留了原降维方法的特点。例如,PR-GSAVE能够更好地处理预测因子为条件方差的情况,这类似于广义切片平均方差估计和切片平均方差估计。我们也期望将投影重采样与其他核方法相结合,以获得更多具有良好性质的降维方法,这将成为未来的研究方向。

基金项目

本文得到山西省自然科学基金(项目编号:RD2200002021)的支持。

附录:证明

定理3.1的证明:

由于T表示 E[ T( u ) ] ,令P表示在 S( Y|X ) 上的投影函数, P T 是在 span( T ) 上的投影函数。

我们首先表明 span( T )S( Y|X ) 。根据统计量 S( Y|X ) 的定义, XY| β,ϕ( X ) 。因此,对 u S q ,有 X u T Y| β,ϕ( X ) 。这表明,对 u S q ,都可以得到 S( u T Y|X )S( Y|X ) ,或者等价地 span[ T( u ) ]S( Y|X ) 。令 wS( Y|X ) ,那么对 u S q 都有: wT( u ) ,因此 T,w = E[ T( u ) ],w =0 ,从而 wspan( T )

接下来我们证明 S( Y|X )span( T ) 。只需证明对 u q

E( e i u T Y |ϕ( X ) )=E( e i u T Y | P T ,ϕ( X ) )

因为 XY| P T ,ϕ( X ) 等价于 X|| u || Y | P T ,ϕ( X ) ,对所有 u S q 都足以证明上述表达式。并且由于特征函数是连续的,这足以证明对 S q 的一些密子集中的u上式均成立。这就证明了定理3.1。

NOTES

*第一作者。

#通讯作者。

参考文献

[1] Li, K. (1991) Sliced Inverse Regression for Dimension Reduction. Journal of the American Statistical Association, 86, 316-327.
https://doi.org/10.1080/01621459.1991.10475035
[2] Cook, R.D. and Weisberg, S. (1991) Sliced Inverse Regression for Dimension Reduction: Comment. Journal of the American Statistical Association, 86, 328-332.
https://doi.org/10.1080/01621459.1991.10475036
[3] Li, B., Zha, H. and Chiaromonte, F. (2005) Contour Regression: A General Approach to Dimension Reduction. The Annals of Statistics, 33, 1580-1616.
https://doi.org/10.1214/009053605000000192
[4] Li, B. and Wang, S. (2007) On Directional Regression for Dimension Reduction. Journal of the American Statistical Association, 102, 997-1008.
https://doi.org/10.1198/016214507000000536
[5] Setodji, C.M. and Cook, R.D. (2004) K-Means Inverse Regression. Technometrics, 46, 421-429.
https://doi.org/10.1198/004017004000000437
[6] Saracco, J. (2005) Asymptotics for Pooled Marginal Slicing Estimator Based on SIRα Approach. Journal of Multivariate Analysis, 96, 117-135.
https://doi.org/10.1016/j.jmva.2004.10.003
[7] Li, B., Wen, S. and Zhu, L. (2008) On a Projective Resampling Method for Dimension Reduction with Multivariate Responses. Journal of the American Statistical Association, 103, 1177-1186.
https://doi.org/10.1198/016214508000000445
[8] Scholkopf, B. and Smola, A.J. (2018) Learning with Kernels: Support Vector Machines, Regularization, Optimization, and beyond. MIT Press.
[9] Wu, H. (2008) Kernel Sliced Inverse Regression with Applications to Classification. Journal of Computational and Graphical Statistics, 17, 590-610.
https://doi.org/10.1198/106186008x345161
[10] Akaho, S. (2001) A kernel method for canonical correlation analysis. arXiv: cs/0609071.
[11] Bach, F.R. and Jordan, M.I. (2002) Kernel Independent Component Analysis. Journal of Machine Learning Research, 3, 1-48.
[12] Fukumizu, K., Bach, F.R. and Gretton, A. (2007) Statistical Consistency of Kernel Canonical Correlation Analysis. Journal of Machine Learning Research, 8, 361-383.
[13] Lee, K., Li, B. and Chiaromonte, F. (2013) A General Theory for Nonlinear Sufficient Dimension Reduction: Formulation and Estimation. The Annals of Statistics, 41, 221-249.
https://doi.org/10.1214/12-aos1071
[14] Mercer, J. (1909) Functions of Positive and Negative Type and Their Connection with Theory of Integral Equations. Philosophical Transaction of the Royal Society A, 209, 415-446.
[15] König, H. (2013) Eigenvalue Distribution of Compact Operators. Vol. 16, Birkhäuser.
[16] Lee, K., Li, B. and Zhao, H. (2016) Variable Selection via Additive Conditional Independence. Journal of the Royal Statistical Society Series B: Statistical Methodology, 78, 1037-1055.
https://doi.org/10.1111/rssb.12150
[17] Li, B. (2018) Sufficient Dimension Reduction: Methods and Applications with R. Chapman and Hall/CRC.
[18] Zhu, L., Miao, B. and Peng, H. (2006) On Sliced Inverse Regression with High-Dimensional Covariates. Journal of the American Statistical Association, 101, 630-643.
https://doi.org/10.1198/016214505000001285
[19] Wang, Q. and Yin, X. (2008) A Nonlinear Multi-Dimensional Variable Selection Method for High Dimensional Data: Sparse Mave. Computational Statistics & Data Analysis, 52, 4512-4520.
https://doi.org/10.1016/j.csda.2008.03.003
[20] Li, L., Li, B. and Zhu, L. (2010) Groupwise Dimension Reduction. Journal of the American Statistical Association, 105, 1188-1201.
https://doi.org/10.1198/jasa.2010.tm09643
[21] Guo, Z., Li, L., Lu, W. and Li, B. (2015) Groupwise Dimension Reduction via Envelope Method. Journal of the American Statistical Association, 110, 1515-1527.
https://doi.org/10.1080/01621459.2014.970687
[22] Fernholz, L.T. (2012) Von Mises Calculus for Statistical Functionals (Vol. 19). Springer Science & Business Media.