半监督学习下的特征筛选问题研究
Research on Feature Selection under Semi-Supervised Learning
DOI: 10.12677/AAM.2023.121040, PDF, HTML, XML, 下载: 154  浏览: 254 
作者: 叶雨薇:南京信息工程大学,江苏 南京
关键词: 特征筛选半监督学习分位数Feature Screening Semi-Supervised Learning Quantile
摘要: 相比于传统的监督学习算法,半监督学习下的特征筛选算法可以利用更多已知信息提高模型计算性能。本文利用样本特征的分位数推测总体特征的分布情况,基于无模型假设下给出相对稳健的半监督特征筛选结果,模拟发现该算法在标记样本量相对较少且各类样本量不均衡的情况下适用。实例借助TCGA中的肺腺癌(LUAD)和肺鳞癌(LUSC)数据集验证算法的有效性。
Abstract: Compared with the traditional supervised learning algorithm, the feature screening algorithm un-der semi-supervised learning can use more known information to improve the computational per-formance of the model. In this paper, the quantile of sample features is used to predict the distribu-tion of overall features, and a relatively robust semi-supervised feature screening result is given based on the model-free hypothesis. Simulation results show that this algorithm is applicable when the number of labeled samples is relatively small and the number of various samples is unbalanced. The effectiveness of the algorithm is verified by the data sets of lung adenocarcinoma (LUAD) and lung squamous cell carcinoma (LUSC) in TCGA.
文章引用:叶雨薇. 半监督学习下的特征筛选问题研究[J]. 应用数学进展, 2023, 12(1): 367-372. https://doi.org/10.12677/AAM.2023.121040

1. 引言

随着“互联网+”时代的到来,人类活动所产生的数据正以指数级爆炸式增长,利用数据信息辅助研究人员实现更为可靠的决策判断成为人民生活的迫切需求。特征筛选是数据分析和数据挖掘中的重要环节,其意义不仅在于显著减少运算时间、提高模型效率、降低过拟合风险、使回归或判别预测模型更为适用等,而且在很多情况下筛选出的特征具有一定的可解释性和潜在研究价值。

当前主流特征筛选方法为边际筛选方法,即仅考虑单个特征对响应变量的影响,不考虑特征之间的关系和对响应变量的影响。该方向算法整体上的优势在于运算速度快,处理超高维特征时相比于传统方法在计算的复杂性、准确性以及稳定性上效果更好。最早是由Fan和Lv [1] 提出利用皮尔逊相关系数搭建SIS (Sure Independence Screening)算法,比较常用的有Li等 [2] 利用距离相关系数提出的DC (Distance Correlation)-SIS算法、Cui等 [3] 利用条件分布函数和无条件分布函数之间的加权差构造的MV (Market Value)算法以及Mai提出 [4] 利用Kolmogorov-Smirnov (KS)检验进行的特征筛选思想并拓展到多分类情况下得到融合Kolmogorov过滤器(Fused Kolmogorov Filter, FKF)算法 [5]。

仅用训练集中的特征和标签数据而忽略测试集中的特征数据是浪费的。这一问题在测试集中样本量远大于训练集中样本量时尤为突出。于是半监督学习应运而生,其常用思路可分为在无监督学习的基础上加入类别或成对约束和在监督学习的基础上加入特征之间的结构信息,目前已应用于图像处理和模式识别、音频语料分析、识别相关特征辅助医学诊断以及处理结构活性定量关系结构活性定量关系(Quantitative Structure Activity Relationship, QSAR)数据集辅助药物设计。He等 [6] 率先提出利用局部和整体特征结构的一致性建立了无监督特征选择拉普拉斯计分(Laplacian Score, LS)算法为后续研究打下了基础,Zhao等 [7] 将部分标签信息加入直接拓展至半监督领域得到LSDF (Locality Sensitive Discriminant Analysis)算法,Cheng等 [8] 则是在其基础上加入最小二乘和分类信息增益度(Classification Information Gain degree, CIG)构建GSFS (Graph-based Semi-supervised Feature Selection)算法,Sheikhpour等 [9] 针对回归问题基于Laplacian散点矩阵和正则化 L 2 范数框架上提出SSCS (Semi-supervised Constraint Score)。

本文将Song等 [10] 在监督学习中的稳健加权分位数思想运用到半监督学习中,实现超高维数据下的半监督特征筛选问题,相比上述监督学习中的特征筛选算法具有更好的结果。

2. 半监督问题下的特征筛选算法

定义总体 ( X , Y ) ,其中离散型响应变量Y有 R n 个类别 { y 1 , , y R n } ,连续型特征变量 X = ( X 1 , , X p ) T 。从总体中抽取n个有类标签的样本组成的样本集 L = { ( x 1 , y 1 ) , , ( x n , y n ) } ,剩下的 N n ( N > n ) 个无类标签样本组成样本集 U = { x n + 1 , , x N } ,合并后得到总样本集 T = L U 。定义重要特征所在集合

D = { j : y = y r , X j F ( y | X j ) } ,

与之对应的不重要特征集合为 I = { 1 , 2 , , p } \ D

定义第j个特征 X j 下的 α ( 0 < α < 1 ) 分位数为 Q α ( X j ) inf { t : P ( X j t ) α } Y = y r X j α 的分位数为 Q α ( X j | Y = y r ) inf { t : P ( X j t | Y = y r ) α } , r = 1 , , R n ,Song等 [10] 在监督学习中综合得到加权分位指标 w j α r = 1 R n p r ( Q α ( X j | Y = y r ) Q α ( X j ) ) 2 ,其中 p r = P ( Y = y r ) 。又考虑到不能保证对任意 α w j α = 0 有Y和 X j 是独立的,给出稳健加权分位数

w j = 0 1 r = 1 R n p r ( Q α ( X j | Y = y r ) Q α ( X j ) ) 2 d α , j = 1 , , p . (1)

本文将公式(1)从监督学习背景推广至半监督学习,多个分位点取代连续型积分。取 M = 10 对区间 [ 0 , 1 ] 进行切片,此时可给出利用数据估计的半监督稳健加权分位数(Semi-supervised Robust Composite Weighted Quantile, SRCWQ)

w ^ j ( Q ) = 1 M k = 1 M r = 1 R n p ^ r ( Q ^ α k L ( X j | Y = y r ) Q ^ α k T ( X j ) ) 2 , (2)

其中, α k = ( 0.5 + k 1 ) / M , k = 1 , , M p ^ r = 1 n i = 1 n I { Y = y r } 。总样本集T下经验分布函数为 F ^ N , X j ( x ) 1 N i = 1 N I { X i j x } ,则对应分位数为 Q ^ α k T ( X j ) F ^ N , X j 1 ( α k ) ;已标记样本集L下经验条件分布函数为 F ^ n , X j | Y = y r ( x ) i = 1 n I { X i j x , Y = y r } i = 1 n I { Y = y r } ,对应分位数 Q ^ α k L ( X j | Y = y r ) = Δ F ^ n , X j | Y = y r 1 ( α k )

本文根据按照从大到小的顺序对p个特征的SRCWQ指标值进行排序,取前 d = [ n / log ( n ) ] 个组成重要特征集合D即为特征筛选所得结果。

3. 数值模拟

本文采用蒙特卡洛算法进行模拟,目标是对比不同情况下不同算法的特征筛选方法优劣。

取响应变量 Y = 0 或1,其中 Y = y r 下有重要特征 τ y r X i = μ τ y r + ε i μ τ y r 即表示除第 τ y r 个为1其余均为0的p维向量, ε ~ N ( 0 , Σ ) , Σ = I p 。设置默认参数:随机数种子100、已标记样本量个数 n = 50 、总样本量个数 N = 300 、重抽样次数 B = 200 ,特征维数 p = 2000 以及均衡状态 P ( Y = 0 ) = P ( Y = 1 )

将本文提出的半监督学习算法SRCWQ与传统监督学习算法DC [2]、MV [3] 以及FKF [5] 进行对比,利用以上参数构造模型1,从均衡状态、异常值以及协方差三个角度修改参数得到模型2~4。其中,模型2修改模型1中均衡状态为 P ( Y = 0 ) : P ( Y = 1 ) = 4 : 1 ,模型3为模型1中增加4个异常点,模型4修改模型1中协方差 Σ = ( σ a b ) p × p , σ a b = 0.3 | a b | , 1 a , b p

构造模型的评价指标 M M S ( a ) 、RSD、 P k 以及 P a 。在 B = 200 次循环中,每一次选中全部重要特征所需要选择的特征数量为 M M S b ( a ) , b = 1 , , B ,RSD为 M M S ( a ) 上下四分位数之差除以1.34,表示特征筛选结果的稳定性; P k 表示在前 d = [ n / log ( n ) ] 个所选特征中包含第k个重要特征的比例, P a 表示在前 d = [ n / log ( n ) ] 个所选特征中包含全部重要特征的比例。根据上述定义, M M S ( a ) 和RSD的数值越小越好,而 P k P a 则是越大越好。表1利用上述指标给出不同算法下不同模型的特征筛选结果情况,可以看到在样本不均衡分布和存在异常点时效果较好。

Table 1. Summary of feature screening results under different algorithms

表1. 不同算法下特征筛选结果情况汇总

4. 实例分析

本文利用公开数据集TCGA中肺腺癌(LUAD)和肺鳞癌(LUSC)的基因表达RNA序列数据集构造半监督数据集。原始数据来源于网址https://gdc.xenahubs.net,仅提取尾号为“01A”(表示患病)和“11A”(表示正常)的样本。考虑到基因探针信息一致,两数据集可以进行合并,总特征个数 p = 60488 ,其中60483个为基因编号,5个样本基因评价指标分别为alignment_not_unique (比对位置不唯一)、ambiguous (比对区域与多个基因都发生重叠)、no_feature (比对区域与任何基因都没有重叠)、not_aligned (无法比对上)以及too_low_aQual (比对质量低于设定阈值,默认是10)。从数据集中的样本名称提取活体组织检测结果,得到样本分类LUAD (对应类别1)、LUSC (对应类别2)以及Normal (正常,对应类别0)共3种情况,每类样本量分别为510、496以及107。于是可得总样本集T中样本量 N = 1113 ,按照类样本比例抽取5%的样本构成已标记样本集L,筛选特征个数 d = 13 ,重复抽样实验200次降低偶然性。

Table 2. Confusion matrix under three categories

表2. 三分类下的混淆矩阵

构造三分类混淆矩阵如表2所示,给出模型评价指标定义如下:

· 正确率: ( a 1 + a 5 + a 9 ) / ( a 1 + a 2 + a 3 + a 4 + a 5 + a 6 + a 7 + a 8 + a 9 ) ,表示模型分类性能,得分越高越好。

· LUAD误诊率: 1 a 5 / ( a 4 + a 5 + a 6 ) ,表示样本患LUAD但是诊断错误的概率,得分越低越好。

· LUSC误诊率: 1 a 9 / ( a 7 + a 8 + a 9 ) ,表示样本患LUSC但是诊断错误的概率,得分越低越好。

· LUAD和LUSC误诊率: 1 ( a 5 + a 9 ) / ( a 5 + a 6 + a 8 + a 9 ) ,表示样本患LUAD但被诊断为LUSC或样本患LUSC但被诊断为LUAD的概率,得分越低越好。

· 是否患病误诊率: ( a 2 + a 3 + a 4 + a 7 ) / ( a 1 + a 2 + a 3 + a 4 + a 5 + a 6 + a 7 + a 8 + a 9 ) ,表示样本患病但未被诊断出患病或样本不患病但被诊断出患病的概率,得分越低越好。

给出200次抽样实验中,每次选中的前13个特征结果。对特征频次进行从大到小排序后,选择前13个特征进行200次随机森林分类,给出每次分类下正确率结果,每个模型情况如图1(a)所示。其中可以看到SRCWQ在单次分类准确率和稳定性上优于其它算法。该算法下筛选出的重要基因如图1(b)所示,认为若该基因出现频次越高,则致病可能性越大。

(a) (b)

Figure 1. Schematic diagram of model evaluation under different algorithms

图1. 不同算法下的模型评价结果示意图

考虑到现实生活中数据的不完整性,对200次抽样实验中的每一次特征筛选结果做一次随机森林分类,给出每次分类下的误诊率如图2所示,从中可以看到SRCWQ相比于其它算法有更少的可能会出现误诊情况,尤其在是否患病的情况下较为突出。

Figure 2. Misdiagnosis rate under different algorithms

图2. 不同算法下的误诊率

5. 总结

综上,本文在Song等 [10] 基础上进行拓展,利用样本特征的分位数分布,提出了一种半监督学习下的特征筛选方法SRCWQ。经数值模拟验证,该算法在已标记样本量显著小于总样本量下,针对各类样本量不均衡或存在异常点的情况较为适用。经实例验证,该算法可借助大量无标记样本,对罕见病诊疗有一定的辅助判断作用。

参考文献

[1] Fan, J. and Lv, J. (2008) Sure Independence Screening for Ultrahigh Dimensional Feature Space. Journal of the Royal Statistical Society: Series B (Statistical Methodology), 70, 849-911.
https://doi.org/10.1111/j.1467-9868.2008.00674.x
[2] Li, R., Zhong, W. and Zhu, L. (2012) Feature Screening via Distance Correlation Learning. Journal of the American Statistical Association, 107, 1129-1139.
https://doi.org/10.1080/01621459.2012.695654
[3] Cui, H., Li, R. and Zhong, W. (2015) Model-Free Feature Screening for Ultrahigh Dimensional Discriminant Analysis. Journal of the American Statistical Association, 110, 630-641.
https://doi.org/10.1080/01621459.2014.920256
[4] Mai, Q. and Zou, H. (2013). The Kolmogorov Filter for Variable Screening in High-Dimensional Binary Classification. Biometrika, 100, 229-234.
https://doi.org/10.1093/biomet/ass062
[5] Mai, Q. and Zou, H. (2015) The Fused Kolmogorov Filter: A Nonpar-ametric Model-Free Screening Method. The Annalsof Statistics, 43, 1471-1497.
https://doi.org/10.1214/14-AOS1303
[6] He, X., Cai, D. and Niyogi, P. (2005) Laplacian Score for Feature Selec-tion. Advances in Neural Information Processing Systems, 18, 507-514.
[7] Zhao, J., Lu, K. and He, X. (2008) Locali-ty Sensitive Semi-Supervised Feature Selection. Neurocomputing, 71, 1842- 1849.
https://doi.org/10.1016/j.neucom.2007.06.014
[8] Cheng, H., Deng, W., Fu, C., Wang, Y. and Qin, Z. (2011) Graph-Based Semi-Supervised Feature Selection with Application to Automatic Spam Image Identification. In: Yu, Y., Yu, Z. and Zhao, J., Eds., Computer Science for Environmental Engineering and EcoInformatics. CSEEE 2011. Com-munications in Computer and Information Science. Springer, Berlin, Heidelberg, 259-264.
https://doi.org/10.1007/978-3-642-22691-5_45
[9] Sheikhpour, R., Sarram, M.A. and Sheikhpour, E. (2018) Semi-Supervised Sparse Feature Selection via Graph Laplacian Based Scatter Matrix for Regression Problems. Infor-mation Sciences, 468, 14-28.
https://doi.org/10.1007/978-3-642-22691-5_45
[10] Song, F., Lai, P. and Shen, B. (2020). Robust Composite Weighted Quantile Screening for Ultrahigh Dimensional Discriminant Analysis. Metrika, 83, 799-820.
https://doi.org/10.1007/s00184-019-00758-x