混合决策信息系统下基于加权k近邻的属性约简
Attribute Reduction Based on Weighted k-Nearest Neighborhood in Hybrid Decision Information System
摘要: 属性约简是粗糙集理论的一项重要应用,大多数的邻域粗糙集模型只关注邻域粒完全包含在某些决策类中的对象,而忽略邻域粒不包含在任何决策类中的边界对象的可分性。本文采用k近邻来描述混合信息系统对象的粒化,利用边界对象邻域粒中对象的决策信息以及在各自决策类中的分布情况构造对象的评价函数,并基于此定义近似正域。进而在混合型信息系统上提出基于加权k近邻的约简定义,给出属性的重要性度量,以及基于加权k近邻的属性约简方法。最后在3个混合数据集上对约简结果的分类精度进行比较。与传统邻域粗糙集的属性约简算法相比,该算法能保证约简后数据有较高的分类精度。
Abstract: Attribute reduction is an important application of rough set theory. Most neighborhood rough set models only focus on the objects whose neighborhood granules are completely contained in some decision classes, but ignore the divisibility of boundary objects whose neighborhood granules are not contained in any decision classes. In this paper, the k-nearest neighborhood is used to describe the granulation of hybrid information system objects. The evaluation function of objects is constructed by using the decision information of objects in the neighborhood of boundary objects and their distribution in their decision classes. Then, the definition of reduction based on weighted k-nearest neighborhood is proposed in hybrid information system, the importance measure of attribute and the attribute reduction method based on weighted k-nearest neighborhood are given. Finally, the classification accuracy of the reduction results is compared on 3 mixed data sets. Compared with the traditional neighborhood rough set attribute reduction algorithm, the proposed algorithm in this paper can ensure the high classification accuracy of the reduced data.
文章引用:马达. 混合决策信息系统下基于加权k近邻的属性约简[J]. 应用数学进展, 2025, 14(4): 310-322. https://doi.org/10.12677/aam.2025.144164

1. 引言

属性约简是数据预处理的关键步骤[1],在模式识别和机器学习中有着广泛的应用[2] [3]。属性约简要求在保持原始数据集的决策能力不变的前提下,删除其中不相关的、冗余的属性信息,从而起到提高决策效率的作用。通过属性约简,能有效地简化决策规则和减少储存需求,从而降低计算复杂度[4]

粗糙集理论[5]是一种处理不确定知识的数据分析方法。经典粗糙集理论是建立在等价关系上的,只适用于离散数据。但是,当面对较复杂的实际问题时,可能呈现连续落在某个区间或者数值型与分类型混合的数据。因此,研究人员陆续提出多种信息系统[6]-[9]用于存放复杂数据。粗糙集理论在处理连续数据时,必须先将原始数据离散化,而数据离散化会导致大量的信息丢失。为了解决这一问题,Hu等[10]在连续型数据集上建立了邻域关系,并提出了邻域粗糙集模型,该模型可以对连续型数据直接进行处理。

目前已经提出了多种邻域粗糙集模型及相应的属性约简算法。文献[11]针对数值型信息系统提出了邻域粗糙集,并利用邻域粗糙集的依赖度构建了数值型信息系统属性约简算法;邻域粗糙集模型只关注邻域完全包含在某些决策类中的对象,因此文献[12]提出了一种最大决策邻域粗糙集模型,增加邻域与某些决策类交集最大的对象来扩展正域,并决策依赖度设计了属性约简算法;文献[13]提出了一种优势邻域粗糙集模型,并构造了一种并行属性约简算法来提高计算速度;文献[14]针对数值型信息系统,利用模糊邻域的概念定义对象的模糊决策,利用模糊邻域与模糊决策之间的关系,构造了一种模糊邻域粗糙集模型;为了处理动态混合信息系统,文献[15]对传统的邻域粗糙集进行了增量式学习的构造,提出了一种基于邻域熵的增量式属性约简算法;文献[16]在计算邻域关系之前充分挖掘属性与决策之间的相关性,对相关性高的属性赋予更高的权重,提出一种加权邻域粗糙集模型,同时设计出相应的属性约简算法;当对象之间存在类内差异时,选择单个属性子集来表示整个数据集可能会降低性能,为此文献[17]对每个类进行再分类,利用邻域粗糙集对每个类进行局部特征选择;文献[18]考虑了边界域的模糊性而导致分类错误的概率和类的不均匀分布,提出了一种基于邻域粗糙集理论的非平衡混合数据特征选择方法;文献[19]基于模糊粗糙集理论,对不同类型的属性定义不同的模糊关系,提出了一种基于模糊粗糙集的信息熵用于混合数据集的特征选择。

邻域粗糙集的目的是利用邻域信息粒来区分属于不同决策的对象。文献[20]结合 δ 单位邻域信息粒和k近邻信息粒,提出了一种在实值信息系统上的新的k近邻信息粒。在属性约简中,如何选择属性是一个至关重要的问题。依赖度通过比较正域和论域的基数比例来衡量邻域决策系统的分类能力。然而,基于正域的依赖度忽略了边界域中对象的可分性,为了提高分类能力,通过对边界域中的对象进行再划分来扩大正域。

针对混合决策信息系统,本文引入k近邻来描述对象的粒化,通过定义边界域中对象的评价函数来判断其可分性,定义近似正域来反映邻域决策系统的分类能力。由于提出的近似正域不是单调的,进而提出一种具有单调性的近似正域,并定义新的属性依赖度,基于此设计出一种启发式属性约简算法。通过实验验证本文提出的属性约简方法的有效性。

2. 预备知识

DIS=( U,A=CD,V,f ) 为决策信息系统[21],其中 U 表示非空有限对象集,称为论域; C 是条

件属性集, D 是决策属性集,且 CD= ;信息函数 f:U×A aA V a V a 是属性 a 的值域。

定义1 [20] 给定决策信息系统 DIS=( U,A=CD,V,f ) 。对任意 BC x i U x i 关于属性子集 B δ 邻域信息粒定义为:

δ B ( x i )={ x j U| Δ B ( x i , x j )δ }. (1)

其中 Δ B ( x i , x j )= aB ( f( x i ,a )f( x j ,a ) σ a ) 2 σ a 表示 V a 的标准差。

δ 邻域信息粒可得到 δ 邻域关系 N B δ ={ ( x i , x j )U×U| x j δ B ( x i ) } N B δ 满足自反性和对称性,但不满足传递性。 δ 邻域信息粒 δ B ( x i ) 构成 U 的一个覆盖。

定义2 [20] 给定决策信息系统 DIS=( U,A=CD,V,f ) 。对任意 BC x i U x i 关于属性子集 B k 近邻信息粒定义为:

κ B ( x i )={ x i 1 , x i 2 ,, x i k | x j U, x j x i h , Δ B ( x i , x j )> Δ B ( x i , x i h ),h=1,2,,k }. (2)

κ B ( x i ) 表示与 x i 距离最近的 k 个对象集合。由于 x i κ B ( x i ) ,因此 k 近邻信息粒 { κ B ( x i )| x i U } 构成 U 的一个覆盖。

文献[20]结合 δ 单位邻域信息粒和 k 近邻信息粒,引入了 x i 关于属性子集 B 的新的 k 近邻信息粒:

τ B ( x i )={ x j U| x j B( x i ) κ B ( x i ) }. (3)

其中 B( x i )={ x j U| Δ B ( x i , x j )1 }

同样,新的 k 近邻信息粒 { τ B ( x i )| x i U } 也构成了 U 的一个覆盖。

定义3 [20] 给定决策信息系统 DIS=( U,A=CD,V,f ) 。对任意 BC D j U/D D j 关于属性子集 B 的下、上近似定义为:

KN _ B ( D j )={ x i | τ B ( x i ) D j },  KN ¯ B ( D j )={ x i | τ B ( x i ) D j }. (4)

决策属性 D 关于属性子集 B 的下、上近似定义为:

KN _ B ( D )= j=1 r KN _ B ( D j ),  KN ¯ B ( D )= j=1 r KN ¯ B ( D j ). (5)

决策属性 D 关于属性子集 B 的正域[20]表示为:

KPO S B ( D )= KN _ B ( D ). (6)

决策属性 D 关于属性子集 B 的依赖度为:

γ B ( D )= | PO S B ( D ) | | U | . (7)

其中 | | 表示集合的基数。 γ B δ ( D ) 反映了 B 近似 D 的能力, γ B δ ( D ) 越大表示 B 近似 D 的能力越强。

3. 基于加权k近邻的属性约简

本节将文献[20]中信息粒的构造方法引入到混合决策信息系统中,提出混合决策信息系统上新的 k 近邻信息粒。同时关注边界域中对象邻域的决策信息,定义对象的评价函数来判断边界域对象的可分性,将边界域中能够区分的对象近似地划分到正域中,基于此提出近似正域的概念,进而讨论混合决策信息系统上的属性约简方法。

HDIS=( U,A=CD,V,f ) 为混合决策信息系统[11],其中 U 表示非空有限对象集,称为论域; C 是条件属性集, C= C c C n C c 表示分类型属性集, C n 表示数值型属性集, D 是决策属性集,且 CD= ;信息函数 f:U×A aA V a V a 是属性 a 的值域。

定义4 [18] 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) 。对任意 BC B= B c B n x i U ,邻域半径 δ[ 0,1 ] x i 关于属性子集 B δ 邻域信息粒定义为:

δ B ( x i )={ x j U| d B ( x i , x j )δ }. (8)

其中

d B ( x i , x j )= 1 | B | ( a k B n | f ^ ( x i , a k ) f ^ ( x j , a k ) | 2 + a l B c φ a l ( x i , x j ) ) , (9)

f ^ ( x i , a k )= f( x i , a k )min( V a k ) max( V a k )min( V a k ) , a k B n φ a r ( x i , x j )={ 0,f( x i , a r )=f( x j , a r ) 1,f( x i , a r )f( x j , a r ) , a r B c

定义5 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) 。对任意 BC B= B c B n x i U ,邻域半径 δ[ 0,1 ] x i 关于属性子集 B k 近邻信息粒定义为:

κ B ( x i )={ x i 1 , x i 2 ,, x i k | x j U, x j x i h , d B ( x i , x j )> Δ B ( x i , x i h ),h=1,2,,k }. (10)

x i 关于属性子集 B 新的 k 近邻信息粒定义为:

τ B ( x i )={ x j U| x j δ B ( x i ) κ B ( x i ) }. (11)

例1 考虑混合决策信息系统 HDIS=( U,A=CD,V,f ) ,其中 U={ x 1 , x 2 , x 3 , x 4 , x 5 , x 6 , x 7 , x 8 } C={ a 1 , a 2 , a 3 , a 4 , a 5 , a 6 , a 7 } C n ={ a 1 , a 2 , a 3 , a 4 , a 5 } C c ={ a 6 , a 7 } D={ d } (见表1)。

Table 1. Mixed decision information system HDIS=( U,A=CD,V,f )

1. 混合决策信息系统 HDIS=( U,A=CD,V,f )

U

a 1

a 2

a 3

a 4

a 5

a 6

a 7

d

x 1

0.22

1.02

0.30

0.81

1.52

1

健康

x 2

0.24

1.11

0.52

0.39

0.31

1

健康

x 3

2.10

0.06

0.95

1.01

2.98

2

健康

x 4

0.63

5.04

1.52

1.12

0.64

2

不健康

x 5

1.01

1.53

0.71

0.52

1.24

1

健康

x 6

0.10

2.05

1.13

0.73

0

1

健康

x 7

1.43

3.98

1.36

1.39

1.22

2

不健康

x 8

1.21

2.49

0.30

0.88

0.93

1

不健康

δ=0.4 k=3 时, τ C ( x 1 )={ x 1 , x 2 , x 5 } τ C ( x 2 )={ x 2 , x 6 , x 8 } τ C ( x 3 )={ x 3 } τ C ( x 4 )={ x 4 , x 7 } τ C ( x 5 )={ x 1 , x 5 } τ C ( x 6 )={ x 2 , x 6 } τ C ( x 7 )={ x 4 , x 7 } τ C ( x 8 )={ x 2 , x 8 } 。根据下、上近似的定义可得: KN _ C ( D )={ x 1 , x 3 , x 4 , x 5 , x 6 , x 7 } ,即 KPO S C ( D )={ x 1 , x 3 , x 4 , x 5 , x 6 , x 7 }

根据正域的定义,在例1中, x 1 k 近邻信息粒中对象决策都相同,我们认为 x 1 属于正域, x 2 k 近邻信息粒中对象决策不完全相同,我们认为 x 2 属于边界域。但是,边界域中可能存在一些可分的对象被误分,所以认为需要对边界域进行再划分。

本文通过分析邻域粒中对象的决策信息,寻找一种描述可分性的方式,找出存在于边界域中的可分对象。文献[22]中在数值型信息系统中,将对象的决策信息以及在各自决策类中的分布情况考虑到对象的评价标准中,为k近邻对象加权。本文借鉴文献[22]中对象 x 的评价准则,提出评价函数来量化边界域中对象决策的差异程度,从而刻画对象的可分性。

定义6 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) 。对任意 BC B= B c B n xU x B 上的评价函数为:

E B ( x )= x i [ x ] D τ B ( x ) ω B ( x i ) Si m B ( x, x i ) x i ( [ x ] D ) C τ B ( x ) ω B ( x i ) Si m B ( x, x i ) (12)

其中 x i [ x ] D τ B ( x ) ω B ( x i ) Si m B ( x, x i ) 表示 x 和它 k 近邻对象中与 x 决策相同的对象的加权相似度, x i ( [ x ] D ) C τ B ( x ) ω B ( x i ) Si m B ( x, x i ) 表示 x 和它 k 近邻对象中与 x 决策不相同的对象的加权相似度。

Si m B ( x, x i )=1 d B ( x, x i ) ,其中 d B ( x, x i ) 表示 x k 近邻对象 x i x 的公式(9)中的距离, ω B ( x i )=1 υ B ( x i ) ,其中

υ B ( x i ))= ( 1 | B | a k B ( υ a k ( x i ) ) 2 ) 1 2

υ a k ( x i )={ f ^ ( x i , a k ) f ¯ ( x i , a k ), a k B n | [ x i ] D ( [ x i ] a k ) c | | [ x i ] D | , a k B c

f ¯ ( x i , a k )= 1 | [ x i ] D | x j [ x i ] D | [ x i ] D | f ^ ( x j , a k )

x k 近邻中,与 x 决策相同的对象越多,其对应的 E B ( x ) 越大,表示对象 x 的邻域中与对象 x 决策相同的对象和决策不同的对象之间差异程度越大。因此,根据对象 x 的质量评价值,把评价函数值大的对象近似看作正域对象,认为和正域对象一样是可分的。

定义7 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) 。对任意 BC ,决策属性 D X 上关于 B 的近似可分集表示为:

S B ( D )={ x| E B ( x )α } (13)

D 关于 B 的近似正域表示为:

APO S B ( D )= KN _ B ( D )= j=1 r ( KN _ B ( D j ) S B ( D j ) ) (14)

由于近似正域即为决策属性 D j 关于属性集 B 的下近似和近似可分集的并集,且 k 近邻 τ B ( x i ) 的大小相对于 B 不是单调的,因此随着属性集 B 的增大,上面定义的近似正域不是单调的。但是单调函数更有利于设置属性约简的终止条件[20]为了简化属性约简,我们提出了一种计算近似正域的迭代策略,并将近似可分集考虑到计算中。

定义8 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) B 0 = B i = B i1 { b } bC B i1 i=1,2,,| C | 。子集族 { B 0 , B 1 ,, B | C | } C 的集合序列,记为 I( C ) 。决策类 D j 的近似正域定义为:

APO S B i ( D j )= k=1 i KN _ B i ( D j , X k ) S B i ( D j , KN ¯ B i ( D j , W i ) k=1 i KN _ B i ( D j , X k ) ). (15)

其中 X 1 = D j X k = D j h=1 k1 KN _ B h ( D j , X h ) S B h ( D j , KN ¯ B h ( D j , W i ) h=1 k KN _ B h ( D j , X h ) ) W 1 =U

W i = KN ¯ B i1 ( D j ) k=1,2,,i i=1,2,,| A |

则对任意 B i I( C ) APO S B i ( D )= j=1 r APO S B i ( D j )

性质1 对任意 B 1 , B 2 I( C ) XU ,若 B 1 B 2 ,则有 APO S B 1 ( D )APO S B 2 ( D )

证明:令 B 1 ={ b l 1 , b l 2 ,, b l k } B 2 = B 1 { b m 1 , b m 2 ,, b m t } ,根据定义8可得:

KN _ B 1 ( D j )= k=1 s KN _ { b l 1 , b l 2 ,, b l k } ( D j , X k ) ,其中 X 1 = D j X k = D j h=1 k1 R _ B h ( D j , X h ) k2 ,则有

KN _ B 2 ( D j )= k=1 s KN _ { b l 1 , b l 2 ,, b l k } ( D j , X k ) k=1 t KN _ B 1 { b m 1 , b m 2 ,, b m k } ( D j , X s+k )                  = KN _ B 1 ( D j ) k=1 t KN _ B 1 { b m 1 , b m 2 ,, b m k } ( D j , X s+k ).

其中 X s+k = D j X k h=1 k1 KN _ B 1 { b m 1 , b m 2 ,, b m k } ( D j , X s+h ) X k = D j h=1 k1 KN _ B h ( D j , X h )

因此 k=1 s KN _ B 1 ( D j , X k ) k=1 s+t KN _ B 2 ( D j , X k )

又有 S B i ( D j , KN ¯ B i ( D j , W i ) ) k=1 i KN _ B i ( D j , X k ) k=1 t KN _ B 1 { b m 1 , b m 2 ,, b m k } ( D j , X s+k )

所以 APO S B 1 ( D j )APO S B 2 ( D j ), D j U/D 。即 APO S B 1 ( D )APO S B 2 ( D )

定义9 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) 。对任意 BC ,决策属性 D 对于属性子集 B 的依赖度为:

γ B ( D )= | APO S B ( D ) | | U | (16)

性质2 给定混合决策信息系统 MDIS=( U,A=CD,V,f ) 。对任意 B i1 , B i I( C ) ,且 B i1 B i γ B i1 α ( D ) γ B i α ( D ) 分别是 D 对于属性子集 B i1 B i 的依赖度,则有 γ B i1 α ( D ) γ B i α ( D )

性质2表明,随着属性子集的增加,决策属性集 D 对于属性子集 B 的依赖度逐渐增大。这意味着在已有的属性子集中添加一个新属性,决策属性 D 对于属性子集 B 的依赖度的值不会减小。这为下文构造基于加权 k 近邻的属性约简算法提供了理论依据。

定义10 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) ,对任意 BC ,若 B 满足 γ B δ ( D )= γ C δ ( D ) ,且对任意 aB γ B{ a } δ ( D ) γ C δ ( D ) ,称 B 是混合决策信息系统的一个约简。

定义11 给定混合决策信息系统 HDIS=( U,A=CD,V,f ) ,对任意 BC aCB ,则属性 a 关于属性子集 B 的重要度定义为:

Sig( a,B,D )= γ B{ a } α ( D ) γ B α ( D ) (17)

我们可以得到 0Sig( a,B,D )1

根据上述结论,可以构造下述启发式属性约简选择算法。该算法从空集开始,在每个步骤中添加一个重要度最大的属性,直到依赖度不变。具体过程见算法1。

算法1 加权k近邻的属性约简

输入:混合决策信息系统 MDIS=( U,C,f,D,g )

输出:约简结果 red

Step 1 设置初始值 B k

Step 2 k=0

Step 3 计算属性全集的 γ C α ( D )

Step 4 从 C B k 中选择 Sig( a, B k ,D ) 最大的属性 a

Step 5 kk+1 B k B k1 { a } ,计算 γ B k α ( D )

Step 6 若 γ B k α ( D ) γ C α ( D ) ,则转步骤8;

Step 7 否则转步骤4;

Step 8 red B k

Step 9 输出约简结果 red

4. 实验

4.1. 实验环境

为验证本文算法的可行性,本文选取UCI上的3个数据集进行实验,3组数据均是含有数值型和分类型属性的混合决策数据集,但是部分存在缺失,在本文实验前已对数据进行预处理,表2所示为数据集的基本信息。

本文借鉴文献[20],采用KNN (K = 3)和RBF-SVM两个经典分类器对属性约简算法进行了评价。在实验中,SVM的所有参数都被设置为默认值。实验比较采用十倍交叉验证进行。也就是说,一个数据集被随机分成十个部分。对于每个循环,一个部分用于测试,其他部分用于执行属性约简。对简化后的测试数据,计算了3NN和SVM的分类精度。经过10次循环后,计算分类精度的平均值作为最终结果。

Table 2. Experimental data sets

2. 实验数据集

数据集

对象数

数值型属性数

符号型属性数

决策类数

German

1000

7

13

2

Heart1

270

7

6

2

Heart2

303

6

7

5

4.2. 参数分析

在本文提出的算法中,包含了邻域半径 δ k 和阈值 α 三个参数。由于不同的参数取值对约简结果有不同的影响,为分析在不同数据集下 δ k 和阈值 α 对分类准确率的影响,本组实验以0.1为步长在区

[ 0.1,0.4 ] 内选取邻域半径 δ ,以0.01 N为步长在区间 [ 0.01N,0.1N ] 内选取 k ,以1为步长在区间 [ 1, 2k 3 ]

内选取 α ,评估 δ k α 在不同取值下的约简结果在KNN和SVM两个分类器上对数据集分类精度的影响。

图1为数据集在KNN分类器上的分类精度;图2为数据集在SVM分类器上的分类精度。

(a) German

(b) Heart1

(c) Heart2

Figure 1. KNN classification accuracy

1. KNN分类器分类精度

(a) German

(b) Heart1

(c) Heart2

Figure 2. SVM classification accuracy

2. SVM分类器分类精度

4.3. 对比分析

本实验将所提出的属性约简算法与文献[11]的NRS属性约简算法和文献[22]的NNRS属性约简算法分别进行实验,通过属性约简的长度和约简结果的分类精度来比较各个算法。

Table 3. Comparison of the length for attribute reductions

3. 属性约简长度比较

数据集

原始数据

NRS

NNRS

本文算法

KNN

SVM

KNN

SVM

KNN

SVM

German

20

11

12

12

11

10

10

Heart1

13

12

11

10

12

7

9

Heart2

13

10

10

10

9

9

7

表3给出约简结果属性数量的比较。从表中可以看出,本文算法相对于原始属性集有效地删除了冗余属性。相较于其他算法,本文算法在所选数据集下得到的属性数量更少一些。这是由于本文的算法充分考虑了边界域的有效信息,在属性约简时会提高一些属性的选择能力,所以结果较好一些。

Table 4. KNN classification accuracy of attribute reductions

4. 属性约简的KNN分类精度

数据集

原始数据

NRS

NNRS

本文算法

German

70.3000

71.3000

71.5000

72.7000

Heart1

78.5185

79.6296

80.3704

81.8519

Heart2

50.6552

55.092

55.8034

56.8276

Table 5. SVM classification accuracy of attribute reductions

5. 属性约简的SVM分类精度

数据集

原始数据

NRS

NNRS

本文算法

German

73.7000

74.4000

73.9000

74.6000

Heart1

81.4815

83.3333

84.0741

84.8148

Heart2

56.023

57.5287

58.092

58.1954

通过表4表5观察可得,本文算法不管是在KNN分类器还是SVM分类器上都有较高的分类精度,因为本文的算法考虑了边界域中对象的有效信息,在属性约简时会提高一些属性的选择能力,有效地删除冗余的、无关的属性,并且不会降低邻域决策系统原有的分类性能,效果更好一些。

5. 结束语

本文针对混合决策信息系统,引入k近邻来描述混合决策信息系统中对象的粒化,通过定义边界域中对象的评价函数来判断其可分性,定义具有单调性的近似正域来反映邻域决策系统的分类能力,基于此定义新的属性依赖度,设计出一种启发式属性约简算法。本文主要针对完备的混合决策信息系统,之后将进一步研究不完备混合决策信息系统的属性约简。

参考文献

[1] Qian, Y., Liang, J., Pedrycz, W. and Dang, C. (2010) Positive Approximation: An Accelerator for Attribute Reduction in Rough Set Theory. Artificial Intelligence, 174, 597-618.
https://doi.org/10.1016/j.artint.2010.04.018
[2] Lin, Y., Hu, Q., Liu, J., Li, J. and Wu, X. (2017) Streaming Feature Selection for Multilabel Learning Based on Fuzzy Mutual Information. IEEE Transactions on Fuzzy Systems, 25, 1491-1507.
https://doi.org/10.1109/tfuzz.2017.2735947
[3] Zhu, P., Zhu, W., Hu, Q., Zhang, C. and Zuo, W. (2017) Subspace Clustering Guided Unsupervised Feature Selection. Pattern Recognition, 66, 364-374.
https://doi.org/10.1016/j.patcog.2017.01.016
[4] Yao, S., Xu, F., Zhao, P., et al. (2017) Feature Selection Algorithm Based on Neighborhood Valued Tolerance Relation Rough Set Model. Pattern Recognition and Artificial Intelligence, 30, 416-428.
[5] Pawlak, Z. (1982) Rough Sets. International Journal of Computer & Information Sciences, 11, 341-356.
https://doi.org/10.1007/bf01001956
[6] Guan, Y. and Wang, H. (2006) Set-Valued Information Systems. Information Sciences, 176, 2507-2525.
https://doi.org/10.1016/j.ins.2005.12.007
[7] Leung, Y., Fischer, M.M., Wu, W. and Mi, J. (2008) A Rough Set Approach for the Discovery of Classification Rules in Interval-Valued Information Systems. International Journal of Approximate Reasoning, 47, 233-246.
https://doi.org/10.1016/j.ijar.2007.05.001
[8] Dubois, D. and Prade, H. (1990) Rough Fuzzy Sets and Fuzzy Rough Sets. International Journal of General Systems, 17, 191-209.
https://doi.org/10.1080/03081079008935107
[9] Zeng, A., Li, T., Liu, D., Zhang, J. and Chen, H. (2015) A Fuzzy Rough Set Approach for Incremental Feature Selection on Hybrid Information Systems. Fuzzy Sets and Systems, 258, 39-60.
https://doi.org/10.1016/j.fss.2014.08.014
[10] HU, Q., YU, D. and XIE, Z. (2008) Neighborhood Classifiers. Expert Systems with Applications, 34, 866-876.
https://doi.org/10.1016/j.eswa.2006.10.043
[11] Hu, Q., Yu, D., Liu, J. and Wu, C. (2008) Neighborhood Rough Set Based Heterogeneous Feature Subset Selection. Information Sciences, 178, 3577-3594.
https://doi.org/10.1016/j.ins.2008.05.024
[12] Fan, X., Zhao, W., Wang, C. and Huang, Y. (2018) Attribute Reduction Based on Max-Decision Neighborhood Rough Set Model. Knowledge-Based Systems, 151, 16-23.
https://doi.org/10.1016/j.knosys.2018.03.015
[13] Chen, H., Li, T., Cai, Y., Luo, C. and Fujita, H. (2016) Parallel Attribute Reduction in Dominance-Based Neighborhood Rough Set. Information Sciences, 373, 351-368.
https://doi.org/10.1016/j.ins.2016.09.012
[14] Wang, C., Shao, M., He, Q., Qian, Y. and Qi, Y. (2016) Feature Subset Selection Based on Fuzzy Neighborhood Rough Sets. Knowledge-Based Systems, 111, 173-179.
https://doi.org/10.1016/j.knosys.2016.08.009
[15] Shu, W., Qian, W. and Xie, Y. (2020) Incremental Feature Selection for Dynamic Hybrid Data Using Neighborhood Rough Set. Knowledge-Based Systems, 194, Article 105516.
https://doi.org/10.1016/j.knosys.2020.105516
[16] Hu, M., Tsang, E.C.C., Guo, Y., Chen, D. and Xu, W. (2021) A Novel Approach to Attribute Reduction Based on Weighted Neighborhood Rough Sets. Knowledge-Based Systems, 220, Article 106908.
https://doi.org/10.1016/j.knosys.2021.106908
[17] Sewwandi, M.A.N.D., Li, Y. and Zhang, J. (2024) Granule-Specific Feature Selection for Continuous Data Classification Using Neighborhood Rough Sets. Expert Systems with Applications, 238, Article 121765.
https://doi.org/10.1016/j.eswa.2023.121765
[18] Chen, H., Li, T., Fan, X. and Luo, C. (2019) Feature Selection for Imbalanced Data Based on Neighborhood Rough Sets. Information Sciences, 483, 1-20.
https://doi.org/10.1016/j.ins.2019.01.041
[19] Zhang, X., Mei, C., Chen, D. and Li, J. (2016) Feature Selection in Mixed Data: A Method Using a Novel Fuzzy Rough Set-Based Information Entropy. Pattern Recognition, 56, 1-15.
https://doi.org/10.1016/j.patcog.2016.02.013
[20] Wang, C., Shi, Y., Fan, X. and Shao, M. (2019) Attribute Reduction Based on K-Nearest Neighborhood Rough Sets. International Journal of Approximate Reasoning, 106, 18-31.
https://doi.org/10.1016/j.ijar.2018.12.013
[21] 张文修, 梁怡, 吴伟志. 信息系统与知识发现[M]. 北京: 科学出版社, 2003.
[22] Wang, N. and Zhao, E. (2024) A New Method for Feature Selection Based on Weighted k-Nearest Neighborhood Rough Set. Expert Systems with Applications, 238, Article 122324.
https://doi.org/10.1016/j.eswa.2023.122324