广义多粒度粗糙集特征选择算法研究
Researches on Feature Selection Algorithm for Generalized Multi-Granularity Rough Sets
DOI: 10.12677/HJDM.2023.133021, PDF, HTML, XML, 下载: 212  浏览: 306  科研立项经费支持
作者: 梁晓敏:烟台大学计算机与控制工程学院,山东 烟台
关键词: 粒计算特征选择广义多粒度粗糙集二元关系Granular Computing Feature Selection Generalized Multi-Granularity Rough Sets Binary Relationships
摘要: 随着信息技术的迅猛发展,产生了大量的数据,这些数据体量巨大、形式多样、产生迅速、价值密度低、商业价值高。如何使这些数据对人类社会的进步产生积极影响是一个难题。粗糙集理论可以直接对数据进行降维处理,发现数据中的隐含知识,促进社会进步。经典粗糙集理论基于单个二元关系,缺乏灵活性和普遍性,基于多个二元关系的粗糙集理论可以解决上述难题,因此,本文主要针对广义多粒度粗糙集进行了研究,引入元启发式算法,提出通过元启发式算法(蚁群算法)实现广义多粒度粗糙集特征选择算法。通过实验结果看出本文所提算法可以对数据集起到降维效果且得到的特征子集的分类精度和原数据集基本保持一致。
Abstract: With the rapid development of information technology, a large amount of data has been generated, which is huge in volume, diverse in form, rapid in generation, low in value density, and high in commercial value. How to make these data have a positive impact on the progress of human society is a challenge. Rough set theory can directly reduce the dimensionality of the data, discover the implicit knowledge in the data, and promote the social progress. The classical rough set theory is based on a single binary relationship, which lacks flexibility and universality. The rough set theory based on multiple binary relationships can solve the above problems. Therefore, this paper mainly focuses on the generalized multi-granularity rough set and introduces the meta-heuristic algorithm, and proposes to implement the generalized multi-granularity rough set feature selection algorithm by the meta-heuristic algorithm (ant colony algorithm). The experimental results show that the proposed algorithm can reduce the dimensionality of the data set and the classification accuracy of the obtained feature subsets is basically consistent with the original data set.
文章引用:梁晓敏. 广义多粒度粗糙集特征选择算法研究[J]. 数据挖掘, 2023, 13(3): 213-221. https://doi.org/10.12677/HJDM.2023.133021

1. 引言

粗糙集理论 [1] 是一个用于处理不确定的数学工具,经典粗糙集理论建立在单个二元关系上,不能用于处理具有多个二元关系的决策系统。Qian等 [2] 提出了基于多个二元关系的决策系统,称为多粒度粗糙集理论。多粒度粗糙集模型分为乐观多粒度粗糙集模型和悲观多粒度粗糙集模型,由于乐观多粒度粗糙集模型的构造过于放松,悲观多粒度粗糙集模型的构造过于严苛,因此,Xu等 [3] 提出了广义多粒度粗糙集模型。一些学者针对广义多粒度粗糙集理论进行了深入研究。Qian等 [4] 构造了一个广义层次决策表,并将多粒度和序贯三支决策相结合,提出了广义层次多粒度序贯三支决策模型。Xu等 [5] 通过考虑类与概念之间的相对和绝对定量信息,提出了两种广义多粒双定量决策理论粗糙集模型。Xu等 [6] 针对局部广义多粒度邻域粗糙集模型,提出了动态更新近似的方法。张先韬等 [7] 给出了广义多粒度粗糙集约简的一些基本性质,给出matlab计算的过程及计算实例。

在已有研究中,广义多粒度粗糙集特征选择的研究并不完善,未有人通过元启发式算法进行广义多粒度粗糙集特征选择算法的研究。元启发式算法是启发式算法的改进,由于其有较好的泛化性、较强的通用性,现已被广泛应用于各个领域。因此,本文首先介绍了广义多粒度粗糙集的相关概念,然后详细介绍了蚁群算法的基础知识,在此基础上提出通过元启发算法(蚁群算法)实现对广义多粒度粗糙集特征选择算法的研究。实验结果表明,本文所提的算法可以对高维数据进行降维,并且得到的特征子集并没有降低原数据集的分类精度。

2. 基本概念

四元组 D S = ( U , A T = C D , V , f ) 为决策系统,其中U为论域,C为条件属性集,D为决策属性集,V为 a k A T 的值域集,f为映射函数。

定义1 [8] 给定决策系统 D S = ( U , A T = C D , V , f ) ,对 X U ,粒度集 P = { P 1 , P 2 , , P m } P i C ( 1 i m ) ,通过特征函数 S X P i ( x ) 描述X和等价类 [ x ] P i 之间的包含关系,特征函数 S X P i ( x ) 定义为:

S X P i ( x ) = { 1 , [ x ] P i X 0 , ( 1 i m ),

其中 S X P i ( x ) 为x的特征函数。

定义2 [8] 给定决策系统 D S = ( U , A T = C D , V , f ) ,对 X U ,粒度集 P = { P 1 , P 2 , , P m } P i C ( 1 i m ) S X P i ( x ) 是x的支持特征函数, β ( 0.5 , 1 ] ,X在粒度集P上的广义多粒度粗糙集上近似集和下近似集定义为:

i = 1 m P i ¯ ( X ) β = { x U | i = 1 m ( 1 S X P i ( x ) ) m > 1 β } ,

i = 1 m P i _ ( X ) β = { x U | i = 1 m S X P i ( x ) m β } .

定义3 [8] 给定决策系统 D S = ( U , A T = C D , V , f ) ,对 X U ,粒度集 P = { P 1 , P 2 , , P m } P i C ( 1 i m ) ,X在粒度集P上的广义多粒度粗糙集正域、边界域以及负域定义为:

P O S i = 1 m P i ( X ) β = i = 1 m P i _ ( X ) β ,

B N D i = 1 m P i ( X ) β = i = 1 m P i ¯ ( X ) β i = 1 m P i _ ( X ) β ,

N E G i = 1 m P i ( X ) β = U ( P O S i = 1 m P i ( X ) β B N D i = 1 m P i ( X ) β ) .

定义4 [8] 给定决策系统 D S = ( U , A T = C D , V , f ) ,不可分辨关系 I N D ( D ) 在U上导出的划分为 U / D = { D 1 , D 2 , , D r } ( 1 r | U | ) ,粒度集 P = { P 1 , P 2 , , P m } P i C ( 1 i m ) β ( 0.5 , 1 ] ,决策类集合U/D在粒度集P上的广义多粒度粗糙集上近似集和下近似集定义为:

i = 1 m P i ¯ ( U / D ) β = { i = 1 m P i ¯ ( D 1 ) β , i = 1 m P i ¯ ( D 2 ) β , , i = 1 m P i ¯ ( D r ) β } ,

i = 1 m P i _ ( U / D ) β = { i = 1 m P i _ ( D 1 ) β , i = 1 m P i _ ( D 2 ) β , , i = 1 m P i _ ( D r ) β } .

决策类集合U/D在粒度集P上的正域和边界域定义为:

P O S i = 1 m P i ( U / D ) β = D l U / D i = 1 m P i _ ( D l ) β ,

B N D i = 1 m P i ( U / D ) β = D l U / D i = 1 m P i ¯ ( D l ) β D l U / D i = 1 m P i _ ( D l ) β .

性质1给定决策系统 D S = ( U , A T = C D , V , F , f ) ,对 A B C ,粒度集 P _ B = { B 1 , B 2 , , B m } B i B ( 1 i m ) i = 1 m B i = B ,粒度集 P _ A = { A 1 , A 2 , , A k } A l A ( 1 l k ) l = 1 k A l = A β ( 0.5 , 1 ] ,可得 P O S l = 1 k A l ( U / D ) β P O S i = 1 m B i ( U / D ) β P O S l = 1 k A l ( U / D ) β P O S i = 1 m B i ( U / D ) β 均不恒成立。

3. 广义多粒度粗糙集特征选择算法

元启发式算法包括遗传算法 [9] 、蜂群算法 [10] 、蚁群算法 [11] 等。接下来将详细介绍蚁群算法。

现实生活中,蚂蚁在觅食的过程中会在其经过的路径上留下信息素,后面的蚂蚁能感知到路径上的信息素,依据信息素指导自己的行为,选择具有信息素含量较多的路径可能性最大,也会留下信息素并对走过路径上的信息素加强。这样,大量蚂蚁组成的集体觅食行为就表现为对信息素正反馈的现象,进而逼近了最优路径。受现实生活中蚂蚁觅食的影响,Dorigo等 [11] 提出了蚁群优化算法。Jensen等 [12] 将蚁群优化算法用于粗糙集中的特征选择。Chen等 [13] 将粗糙集中求取核属性集的方法融合到利用蚁群优化算法进行特征选择的算法中。特征选择的过程中,将单个条件属性看做一个节点,节点和节点之间的路径就是特征选择的过程,首先计算决策系统的核属性集,然后定义最大迭代次数,在每次迭代过程中给定一个由蚁群组成的搜索空间,蚁群中的每只人工蚂蚁从核属性集开始构造解,随机选择一个节点,再依据概率公式进行下一个节点的选择直到满足构造解的停止条件。每轮迭代结束后,进行信息素的更新,迭代过程结束后得到最优特征子集。下面将详细说明通过蚁群算法对决策系统进行特征选择的过程。

启发式信息

定义5 [8] 给定决策系统 D S = ( U , A T = C D , V , f ) ,粒度集 P = { P 1 , P 2 , , P m } P i C ( 1 i m ) ,对 β ( 0.5 , 1 ] ,D关于粒度集P在广义多粒度粗糙集下的依赖度定义为:

r ( i = 1 m P i , D ) β = | P O S i = 1 m P i ( U / D ) β | | U | .

定义6 给定决策系统 D S = ( U , A T = C D , V , f ) ,粒度集 P _ C = { C 1 , C 2 , , C n } C i C ( 1 i n ) i = 1 n C i = C ,粒度集 P _ B = { B 1 , B 2 , , B m } B j B ( 1 j m ) j = 1 m B j = B ,粒度集 P _ A = { A 1 , A 2 , , A k } A l A ( 1 l k ) l = 1 k A l = A A B C β ( 0.5 , 1 ] ,若属性集B为DS的广义多粒度属性约简,那么B应该满足如下条件:

1) r ( j = 1 m B j , D ) β = r ( i = 1 n C i , D ) β

2) A B r ( l = 1 k A l , D ) β r ( j = 1 m B j , D ) β

定义7给定决策系统 D S = ( U , A T = C D , V , f ) ,粒度集 P _ B = { B 1 , B 2 , , B m } B i B ( 1 i m ) i = 1 m B i = B ,粒度集 P _ D B = { B d 1 , B d 2 , , B d m } B l B { b } ( d 1 l d m ) l = d 1 d m B l = B { b } B { b } B C β ( 0.5 , 1 ] ,对 b B 的内部属性重要度定义为:

S i g i n n e r ( b , B , D ) β = r ( i = 1 m B i , D ) β r ( l = d 1 d m B l , D ) β .

S i g i n n e r ( b , B , D ) β = 0 ,说明属性b是不重要的,当 S i g i n n e r ( b , B , D ) β 0 ,说明属性b是不可缺少的。

因此可以将核属性集定义为:

c o r e ( C ) = { b C | S i g i n n e r ( b , C , D ) β 0 } .

性质2广义多粒度粗糙集理论中,满足核属性集是约简集的交集,即:

c o r e ( C ) = R E D ( C ) .

证明:

给定决策系统 D S = ( U , A T = C D , V , f ) ,粒度集 P _ C = { C 1 , C 2 , , C n } C i C ( 1 i n ) i = 1 n C i = C β ( 0.5 , 1 ]

1) 设 a R E D ( C ) R R E D ( C ) 使得 a R ,满足 r ( j = 1 m R j , D ) β = r ( i = 1 n C i , D ) β (粒度集 P _ R = { R 1 , R 2 , , R m } R j R ( 1 j m ) j = 1 m R j = R ),因为 R C { a } C ,故 r ( j = 1 m R j , D ) β = r ( l = 1 o A C l , D ) β (粒度集 P _ A C = { A C 1 , A C 2 , , A C o } A C l C { a } ( 1 l o ) l = 1 o A C l = C { a } ),由定义7可得 r ( l = 1 o A C l , D ) β = r ( i = 1 n C i , D ) β ,即 a c o r e ( C ) ,因此可得 c o r e ( C ) R E D ( C )

2) 设 a c o r e ( C ) ,由定义7可得 r ( l = 1 o A C l , D ) β = r ( i = 1 n C i , D ) β (粒度集 P _ A C = { A C 1 , A C 2 , , A C o } A C l C { a } ( 1 l o ) l = 1 o A C l = C { a } )。 R C { a } ,使得 r ( j = 1 m R j , D ) β = r ( l = 1 o A C l , D ) β (粒度集 P _ R = { R 1 , R 2 , , R m } R j R ( 1 j m ) j = 1 m R j = R )且 A R r ( r = 1 k A r , D m c ) β r ( j = 1 m R j , D ) β (粒度集 P _ A = { A 1 , A 2 , , A k } A r A ( 1 r k ) r = 1 k A r = A ),即 R R E D ( C { a } ) ,又因为 R C { a } C ,那么 R R E D ( C ) ,因为 a R ,可得 a R E D ( C ) ,因此 R E D ( C ) c o r e ( C )

定义8给定决策系统 D S = ( U , A T = C D , V , f ) ,粒度集 P _ B = { B 1 , B 2 , , B m } B i B ( 1 i m ) i = 1 m B i = B ,粒度集 P _ A B = { B a 1 , B a 2 , , B a m } B l B ( a 1 l a m ) l = a 1 a m B l = B { b } B B { b } C β ( 0.5 , 1 ] ,对 b C B 的外部属性重要度定义为:

S i g o u t e r ( b , B , D ) β = r ( l = a 1 a m B l , D ) β r ( i = 1 m B i , D ) β .

给定决策系统 D S = ( U , A T = C D , V , f ) ,首先通过定义7计算DS中的核属性集core,每只人工蚂蚁构造解时从core开始,从候选属性集中随机选择一个节点 i C c o r e ,当前人工蚂蚁在节点i,对 j C { c o r e i } ,j关于i的启发信息定义为:

η i j = S i g o u t e r ( j , { c o r e i } , D ) β ,

如果 η i j < ε ,那么 η i j ε ,其中 ε > 0

可行解的构造

当前人工蚂蚁在节点i,依据概率选择下一个节点,概率计算如下:

p i j k ( t ) = τ i j a η i j b ( t ) l a l l o w e d k τ i l a η i l b ( t ) , j a l l o w e d k .

其中k表示蚂蚁数;t表示迭代次数; a l l o w e d k 表示候选属性集; τ i j 表示节点i到节点j路径上的信息素; η i j 表示节点j关于节点i的启发信息; a > 0 表示信息素相对于启发信息的相对重要性; b > 0 表示启发信息相对于信息素的相对重要性。若 a b ,人工蚂蚁选择下一个节点主要是依据信息素的大小;若 b a ,人工蚂蚁选择下一个节点主要是依据启发信息的大小。

只要满足以下两个条件之一,人工蚂蚁将停止解的构造:

1) r ( j = 1 n R j , D ) β = r ( i = 1 m P i , D ) β 。其中R是蚂蚁构造的当前解( R 1 , R 2 , , R n R j = 1 n R j = R P 1 , P 2 , , P m C i = 1 m P i = C );

2) 当前解的长度 | R | 大于临时最短属性集合的长度。

Table 1. A generalized multi-granularity rough set feature selection algorithm based on ant colony algorithm (GL-AFS)

表1. 基于蚁群算法的广义多粒度粗糙集特征选择算法

信息素的更新

每轮迭代结束时,可得到一个当前最优解,此时需要对每条路径上的信息素进行更新,信息素依据以下规则更新:

τ i j ( t + 1 ) = ρ τ i j ( t ) + Δ τ i j ( t ) .

其中 τ i j ( t ) 表示迭代t次时路径 ( i , j ) 上的信息素值; τ i j ( t + 1 ) 表示下一次迭代时路径 ( i , j ) 上的信息素值; ρ ( 0 < ρ < 1 ) 表示信息素蒸发的衰减常数; Δ τ i j ( t ) 表示路径 ( i , j ) 上存储的信息素值,计算方式如下:

Δ τ i j ( t ) = { q / | R ( t ) | ( i , j ) 0 .

其中q是给定的常数; R ( t ) 表示在迭代次数t时,当前得到属性集合的长度。

下面将给出通过蚁群算法实现广义多粒度粗糙集特征选择的算法,算法的具体描述见表1

表1中,步骤2用于计算广义多粒度粗糙集的依赖度,步骤3用于求取决策系统的核属性集,步骤4用于模拟蚂蚁觅食的过程,其中,步骤4.1.3为蚂蚁觅食结束的条件,步骤4.2为路径上信息素的更新。

4. 实验分析

本节将在运行时间和分类精度两个方面对所提出的算法进行验证。实验选用6组标准UCI数据集,所用数据集见表2。数据集通过WEKA3.6进行等频离散化,将数据集中名词性数据使用整数进行替换表示。实验所运行的硬件环境为:Windows10 64位操作系统;8192MB RAM内存;Intel Core i3-9100 CPU;软件环境为:Pycharm 2020;编程语言:Python。

Table 2. Dataset description

表2. 数据集描述

Table 3. Feature subset length comparison

表3. 特征子集长度比较

Table 4. KNN classification accuracy

表4. KNN分类精度

本节验证GL-AFS算法的有效性,进行了两方面的比较:特征子集长度的比较,见表3;特征子集分类精度的比较,见表4表5。为了满足多粒度的思想,实验任选3个属性看作一个粒度( n u m = 3 )、4个属性看作一个粒度( n u m = 4 )、5个属性看作一个粒度( n u m = 5 ),且满足粒度和粒度之间的交集为空,粒度的并集为条件属性集。实验参数:阈值 β = 0.6 a = 1 b = 0.01 ρ = 0.9 q = 0.1 ε = 0.001 、初始化信息素为0.5。算法运行停止的条件是:达到最大循环次数或三次迭代过程得到的特征集合相同。由于主要依据信息素进行特征选择、粒度选择的随机性使得蚁群算法每次得到的结果不同,为了保证实验的准确性,将GL-AFS算法运行20次,取特征选择结果长度的平均值放入表3中。通过表3可以看出通过本文提出的GL-AFS算法可以起到对高维数据集进行降维处理的效果。表4表5分别为GL-AFS算法运行20次,对每次得到的结果通过十折交叉验证的方法计算在KNN、SVM分类器上的分类精度,分别取20次的平均值。通过表4表5可以看出任选3个属性一个粒度、任选4个属性一个粒度、任选5个属性一个粒度通过GL-AFS算法得到特征集合的分类精度和条件属性集C下的得到的分类精度的数值相差不大。可以得出,通过GL-AFS算法可以得到和原数据分类性能相差不大的特征集合。

Table 5. SVM classification accuracy

表5. SVM分类精度

5. 总结

目前针对广义多粒度粗糙集特征选择的研究不完善,通过元启发式算法进行广义多粒度粗糙集特征选择未有人研究,因此,本文将元启发式算法(蚁群算法)用于广义多粒度粗糙集特征选择中具有很重要的研究意义。实验表明:本文所提算法不仅可以对高维数据实现降维的效果且得到的特征集合具有和原数据集相差不大的分类精度。

基金项目

本文受烟台市科技计划项目(编号:2022XDRH016)的资助。

参考文献

[1] Pawlak, Z. (1982) Rough Sets. International Journal of Computer and Information Sciences, 11, 341-356.
https://doi.org/10.1007/BF01001956
[2] Qian, Y.H., Liang, J.Y., Yao, Y.Y. and Dang, C.Y. (2009) MGRS: A Multi-Granulation Rough Set. Information Sciences, 180, 949-970.
https://doi.org/10.1016/j.ins.2009.11.023
[3] Xu, W.H., Zhang, X.T. and Wang, Q.R. (2012) A Generalized Mul-ti-Granulation Rough Set Approach. International Conference on Intelligent Computing, Zhengzhou, 11-14 August 2011, 681-689.
https://doi.org/10.1007/978-3-642-24553-4_90
[4] Qian, J., Hong, C.X., Yu, Y., Liu, C.H. and Miao, D.Q. (2022) Generalized Multigranulation Sequential Three-Way Decision Models for Hierarchical Classification. Information Sci-ences, 616, 66-87.
https://doi.org/10.1016/j.ins.2022.10.014
[5] Xu, W.H. and Guo, Y.T. (2016) Generalized Multigranulation Dou-ble-Quantitative Decision Theoretic Rough Set. Knowledge Based Systems, 105, 190-205.
https://doi.org/10.1016/j.knosys.2016.05.021
[6] Xu, W.H., Yuan, K.H. and Li, W.T. (2022) Dynamic Updating Approximations of Local Generalized Multigranulation Neighborhood Rough Set. Applied Intelligence, 52, 9148-9173.
https://doi.org/10.1007/s10489-021-02861-x
[7] 张先韬. 广义多粒度粗糙集属性约简和matlab计算[J]. 计算机工程与应用, 2016, 52(8): 43-48.
[8] Xu, W.H., Li, W.T. and Zhang, X.T. (2017) Generalized Multigranulation Rough Sets and Optimal Granularity Selection. Granular Computing, 2, 271-288.
https://doi.org/10.1007/s41066-017-0042-9
[9] Aram, K.Y., Lam, S.S. and Khasawneh, M.T. (2023) Cost-Sensitive Max-Margin Feature Selection for SVM Using Alternated Sorting Method Genetic Algorithm. Knowledge-Based Systems, 267, Article ID: 110421.
https://doi.org/10.1016/j.knosys.2023.110421
[10] Zhong, C.T., Li, G., Meng, Z., Li, H.J. and He, W.X. (2023) A Self-Adaptive Quantum Equilibrium Optimizer with Artificial Bee Colony for Feature Selection. Computers in Biology and Medicine, 153, Article ID: 106520.
https://doi.org/10.1016/j.compbiomed.2022.106520
[11] Dorigo, M. and Caro, G.D. (1999) Ant Colony Optimiza-tion: A New Meta-Heuristic. Congress on Evolutionary Computation (CEC99), Vol. 2, 1470-1477.
https://doi.org/10.1109/CEC.1999.782657
[12] Jensen, R. and Shen, Q. (2013) Finding Rough Set Reducts with Ant Colony Optimization. Proceedings of the UK Workshop on Computational Intelligence, 1, 15-22.
[13] Chen, Y.M., Miao, D.Q. and Wang, R.Z. (2010) A Rough Set Approach to Feature Selection Based on Ant Colony Optimization. Pattern Recognition Letters, 31, 226-233.
https://doi.org/10.1016/j.patrec.2009.10.013