基于粗糙集的主成分聚类方法
Principal Component Clustering Method Based on Rough Set
DOI: 10.12677/CSA.2022.125137, PDF, HTML, XML, 下载: 360  浏览: 1,994 
作者: 花遇春, 杨 璇, 熊文丹:长安大学理学院,陕西 西安
关键词: 主成分分析K-Means聚类粗糙集Principal Component Analysis K-Means Clustering Rough Set
摘要: 针对当前大规模高维数据难处理以及传统的二支聚类造成误分类等问题。本文首先根据主成分分析方法对数据进行降维处理,并将粗糙集理论与聚类相结合,提出了基于粗糙集的主成分聚类方法。最后,对陕西省内11个城市的25个经济指标进行实验分析,根据经济指标的聚类结果将城市进行三划分,提高了聚类的准确率。
Abstract: In view of the difficulties in processing large-scale high-dimensional data and the misclassification caused by traditional two-way clustering, firstly, this paper reduces the dimension of the data according to the principal component analysis method, and combines the rough set theory with clustering, and the principal component clustering method based on rough set are proposed. Finally, 25 economic indicators of 11 cities in Shaanxi Province are experimentally analyzed. According to the clustering results of economic indicators, the cities are divided into three groups, which improves the accuracy of clustering.
文章引用:花遇春, 杨璇, 熊文丹. 基于粗糙集的主成分聚类方法[J]. 计算机科学与应用, 2022, 12(5): 1378-1388. https://doi.org/10.12677/CSA.2022.125137

1. 引言

聚类是将样本按其自身的属性聚成若干类,以保证类内样本相似度尽可能高,而类间样本相似度尽可能低。经典的聚类方法有K-Means [1] 和K-Medoids [2]。Qian等 [3] 从聚类标准、聚类表示及算法框架角度分析了多个流行的聚类算法,该文在国内聚类算法领域具有一定的地位。Johannes等 [4] 从数据挖掘的角度分析了一些聚类方法。Hoppner等 [5] 提出了模糊聚类的方法,基于模糊集中隶属度以及数据区间隶属度来划分不同类,姚一豫等 [6] 用区间集表示聚类结果中的一个类,通过离散化数据集刻画类差异性以及类间相似性。这些都是传统的二支聚类,样本要么属于这个类,要么不属于这个类,聚类具有清晰的边界,这样会造成很大的误分类。

针对上述问题,本文首先对高维数据通过主成分分析方法进行降维,有效地处理了目前大规模高维数据集,并将粗糙集与聚类相结合,将聚类划分为三个不相交的区域,将不确定性的对象划分到边界域中,提高聚类的准确率。最后,本文选取了陕西省内11个城市的25个经济指标进行研究。根据这些经济指标将11个城市进行粗糙聚类。通过对经济指标的研究分析,得到陕西省各地区城市发展现状,为今后各城市经济发展提供一些依据。

2. 基本概念

2.1. 主成分分析

主成分分析 [7] [8] [9] (Principal Component Analysis,简称PCA)就是考虑各指标之间的相互关系,利用降维的方法将多个指标转换为少数几个互不相关的指标,从而使进一步研究变得简单的一种统计方法。主成分分析是1933年首先提出的一种“降维”的思想,在损失很少信息的前提下把多个指标转化为几个综合指标,称为主成分。主成分分析主要是使用降维的方法,使用较少的变量来代替原有的较多的变量。在变量转换过程中,采用了映射的原理。即较少的变量是原有较多属性变量的线性表示。具体内容如下:

假设原来的变量指标为 x 1 , x 2 , , x p ,它们的综合指标,即新变量指标为 z 1 , z 2 , , z m ( m p ) ,则

{ z 1 = l 11 x 1 + l 12 x 2 + + l 1 p x p z 2 = l 21 x 1 + l 22 x 2 + + l 2 p x p z m = l m 1 x 1 + l m 2 x 2 + + l m p x p (1)

其中, z 1 , z 2 , , z m 即为数据集的主成分,是原来变量指标的线性表示。 l i 1 , l i 2 , , l i p 是系数矩阵。主成分和原始变量之间的关系是通过系数矩阵来体现的。主成分满足互不相关的要求,这在线性数学中满足逆矩阵相乘的条件。否则,则求不出系数矩阵。 z 1 x 1 , x 2 , , x p 的线性组合中的方差最大指标; z 2 是与 z 1 不相关的 x 1 , x 2 , , x p 的线性组合中的方差最大指标。依此类推, z m z 1 , z 2 , , z m 1 都不相关的 x 1 , x 2 , , x p 的所有线性组合中的方差最大指标。这就使得主成分指标比原始指标具有某些更优越的性能。主成分分析不能看作是研究的结果,而应该在主成分分析的基础上继续采用其他方法解决问题。

2.2. 粗糙集

粗糙集(Rough Set) [10] [11] 是波兰数学家Pawlak在1982年首先提出的一种处理不确定、不精确性知识的数学方法。粗糙集作为一种较新的软计算方法,近年来越来越受到重视,其有效性已在许多科学与工程领域的成功应用中得到证实,是当前国际上人工智能理论及其应用领域中的研究热点之一。在粗糙集中,近似集理论是非常重要的一部分,通过近似集理论确定目标集的上、下近似,计算目标集的边界域及负域,并刻画出那些不确定的知识的粗糙程度。

定义1 [12] [13] 设信息系统是一个四元组 S = ( U , A t , V , f ) 。U是非空有限的对象集合,At是属性集

合, V = a A t V a 是属性值的集合, V a 属性a的值域,f是信息函数,且对任意 x U a A t f ( x , a ) V a

定义2 [12] [13] 给定信息系统 S = ( U , A t , V , f ) 。对于每一个属性子集 A A t ,等价关系 R A 定义如下:

R A = { ( x , y ) U × U | a A , f ( x , a ) = f ( y , a ) } . (2)

U / R A = { [ x ] R A | x U } 是论域U上的划分, [ x ] R A 表示论域U中对象x关于等价关系 R A 的等价类,为U中基于属性子集A的确定性知识。为方便表现,信息系统 S = ( U , A t , V , f ) 简记为 S = ( U , A t ) U / R A 简记为 U / A [ x ] R A 简记为 [ x ] A

例1表1给出信息系统 S = ( U , A t , V , f ) ,其中 U = { x 1 , x 2 , x 3 , x 4 , x 5 , x 6 } A t = { a 1 , a 2 , a 3 , a 4 }

Table 1. Information system

表1. 信息系统

表1中,属性集At产生的等价类为:

[ x 1 ] A t = { x 1 , x 6 } , [ x 2 ] A t = { x 2 , x 4 } , [ x 3 ] A t = { x 3 } , [ x 5 ] A t = { x 5 } ,

属性子集 A 1 = { a 2 , a 3 , a 4 } 产生的等价类为:

[ x 1 ] A 1 = { x 1 , x 6 } , [ x 2 ] A 1 = { x 2 , x 4 , x 5 } , [ x 3 ] A 1 = { x 3 } ,

属性子集 A 2 = { a 2 , a 4 } 产生的等价类为:

[ x 1 ] A 2 = { x 1 , x 3 , x 6 } , [ x 2 ] A 2 = { x 2 , x 4 , x 5 } .

定义3 [12] [13] 给定信息系统 S = ( U , A t , V , f ) 。对任意 X U A A t ,目标集X关于属性子集A的上近似 R ¯ A ( X ) 和下近似 R _ A ( X ) 分别定义为:

R ¯ A ( X ) = { x | x U , [ x ] A X ϕ } , R _ A ( X ) = { x | x U , [ x ] A X } . (3)

一般地,基于属性子集A和目标集X,可得目标集X与下近似的关系: R _ A ( X ) X ,即下近似 R _ A ( X ) 中的元素完全属于目标集X。同样可得目标集X与上近似的关系: X R ¯ A ( X ) ,即目标集X中的元素一定属于上近似 R ¯ A ( X )

对于目标集 X U ,若 R ¯ A ( X ) = R _ A ( X ) ,则目标集X称为可定义集;若 R ¯ A ( X ) R _ A ( X ) ,则目标集X称为粗糙集。如果给定属性子集A和目标集X,论域U被划分为如下三个不相交的区域 [14]:

1) P O S A ( X ) = R _ A ( X ) ,称为目标集X关于属性子集A的正域;

2) B N D A ( X ) = R ¯ A ( X ) R _ A ( X ) ,称为目标集X关于属性子集A的边界域;

3) N E G A ( X ) = U R ¯ A ( X ) ,称为目标集X关于属性子集A的负域。

因此,基于属性子集A和目标集X,论域U被划分为三个不相交的区域,如图1所示。

Figure 1. Three disjoint regions based on Pawlak rough set

图1. 基于Pawlak粗糙集的三个不相交区域

2.3. 聚类分析

K-Means算法最早由Steinhaus,Lloyd和MacQueen于20世纪五六十年代在不同的科学领域独立发现的 [1],是典型的基于距离的聚类算法之一。它采用距离作为相似性的评价指标,即认为两个样本的距离越近,其相似度就越大 [15]。具体算法见表2

Table 2. K-Means clustering

表2. K-Means聚类

计算所有距离的算法复杂度为 O ( k n ) ,因此算法1的复杂度为 O ( n )

3. 基于粗糙集的主成分聚类及实证分析

3.1. 基于粗糙集的主成分聚类

本节将粗糙集中的下、上近似与K-Means聚类相结合,将聚类中心改为:

R C ( i ) = e l o w e r × 1 N l o w e r × X C i X + e u p p e r × 1 N u p p e r × X C ¯ i X (4)

其中,e表示权重,upper表示粗糙集的上近似集,lower表示粗糙集的下近似集。 N l o w e r N u p p e r 分别表示第i个类的下近似集和上近似集的样本个数。本文运用一种基于主成分分析的粗糙集聚类算法。即对数据先进行主成分分析,然后进行粗糙集聚类,得到聚类中心,每个类都包含有上近似集和下近似集,下近似集中的对象表示确定属于该类的对象,上近似集的对象表示可能属于该类的对象。基于粗糙集的主成分聚类分析算法如表3

Table 3. Principal component clustering algorithm based on rough set

表3. 基于粗糙集的主成分聚类算法

计算所有距离的算法复杂度为 O ( k n ) ,因此算法2的复杂度为 O ( n )

3.2. 实验结果及分析

3.2.1. 数据集

本文研究的数据是陕西11个城市的25个经济指标数据。数据来源于由国家统计局主编的《陕西统计年鉴》第二部分。陕西省的11个城市分别为:西安市、铜川市、宝鸡市、咸阳市、渭南市、杨凌示范区、汉中市、安康市、商洛市、延安市、榆林市。25个经济指标为:年底常住人、城镇非私营单位就业人员年末人数、生产总值、房地开发投资、地方一般性支出、一般预算支出、城镇非私营单位就业人员工资总额、城镇非私营单位就业人员平均工资、城镇居民均可支配收入、农村居民人均可支配收入、农林牧渔业总产值、粮食产量、棉花产量、油料产量、规模以上工业总产值、邮电业务总量、固定电话、移动电话、社会消费品零售总额、进出口总值、出口总值、实际利用外直接投资额、卫生机构数、卫生机构床位数、卫生技术人员。如表4所示。

Table 4. The basic descriptions of data sets

表4. 数据基本描述

3.2.2. 实验结果

1) 传统聚类分析

a) 使用SPSS进行的数据分析,得出初始聚类中心见表5

Table 5. Initial cluster center table

表5. 初始聚类中心表

b) 表6为迭代历史,该表给出了迭代过程中类中心的变动量,可以看出本次聚类过程进行了2次就收敛了。

Table 6. Iteration history

表6. 迭代历史记录

c) 表7为聚类成员,该表给出了样本观测量所属类别以及与所属类中心的距离。从表7中可以看出,将11个城市分成了3类,{西安}为第一类,{铜川市、杨凌示范区、安康市、商洛市、延安市}为第二类,{宝鸡市、咸阳市、渭南市、榆林市、汉中市}为第三类。

Table 7. Cluster member

表7. 聚类成员

由于以上部分的分析都是在表中展示了聚类中心之间的距离以及各类城市的聚类类别,数据可视性较差。图2是本文根据K-Means聚类方法在R语言上绘制聚类成像图,使得各聚类成员所属类别以及各类别之间的距离更为清楚和可视化。

Figure 2. Clustering member based on K-means

图2. 基于K-means聚类成员图

2) 主成分聚类分析

由经典聚类分析的聚类结果得到:25个属性代表11个城市的经济指标,数据信息冗余量较大,而且很多信息在计算过程中对计算结果带来了干扰。所以需要先进行主成分分析以达到降维的目的。

这一部分利用主成分分析的结果作为聚类分析的数据源,对数据进行基于粗糙集的聚类分析。将这11个城市(示范区)进行基于粗糙集的聚类分析,得到最终的聚类中心和聚类的上近似集和下近似集中心。如表8所示:

Table 8. Final clustering center

表8. 最终聚类中心

根据聚类的上近似集中心和下近似集中心,可以的得到基于主成分降维后的粗糙集聚类结果如表9所示:

Table 9. Number of objects in the cluster

表9. 聚类中的对象个数

根据聚类的上、下近似集的聚类结果可得基于粗糙近似集的主成分聚类结果,如表10所示:

Table 10. Principal component clustering results based on rough approximation set

表10. 基于粗糙近似集的主成分聚类结果

图3根据基于粗糙近似集的主成分聚类方法在R语言上绘制聚类成像图,使得各聚类成员所属类别以及各类别之间的距离更为清楚和可视化。

Figure 3. Principal component clustering member based on rough approximation set

图3. 基于粗糙近似集的主成分聚类成员图

4. 总结

本文提出了基于粗糙集的主成分聚类方法。首先通过主成分分析将高维数据降维,解决了高维数据难处理的问题。进一步将粗糙集与聚类相结合,将数据集划分为不相交的三部分,降低了误分类的概率。最后对陕西11个城市的25个经济指标数据进行实验,将11个城市划分为三类,{西安}为第一类,{汉中市、安康市、商洛市、延安市}为第二类,{宝鸡市、咸阳市、渭南市、榆林市}为第三类。但从聚类的结果中可以看到存在一定的不合理性。例如,咸阳市毗邻西安市,实际的经济水平高于其他城市。在基于粗糙集的主成分聚类结果中,将11个城市划分为三类,第一类仍然为西安,陕西省省会城市经济发展水平远高于其他城市。第二类为中等发展城市,第三类为不发达城市。采用本文方法得到的聚类结果更为合理,层次更为鲜明,同时也与实际情况较为契合。

参考文献

[1] Jain, A.K. (2009) Data Clustering: 50 Years beyond K-Means. Pattern Recognition Letters, 31, 651-666.
https://doi.org/10.1016/j.patrec.2009.09.011
[2] Kaufamann, L. and Rousseeuw, P.J. (1987) Clustering by Means of Medoids. In: Dodge, Y., Ed., Statistical Data Analysis Based on the L1-Norm & Related Methods, North-Holland, Amsterdam, 405-416.
[3] Qian, W.N. and Zhou, A.Y. (2002) Analyzing Popular Clustering Al-gorithms from Different Viewpoints. Journal of Software, 32, 432-445.
[4] Grabmeier, J. and Rudolph, A. (2002) Techniques of Cluster Algorithms in Data Mining. Data Mining and Knowledge Discovery, 6, 303-360.
https://doi.org/10.1023/A:1016308404627
[5] Hoppner, F., Klawonn, F., Kruse, R., et al. (1999) Fuzzy Cluster Analysis: Methods for Classification, Data Analysis and Image Recognition. Wiley Press, Chichester, 1-48.
[6] Yao, Y.Y., Lingras, P., Wang, R.Z., et al. (2009) Interval Set Cluster Analysis: A Re-Formulation. Pro-ceedings of the 12th International Conference on Rough Sets, Fuzzy Sets, Data Mining and Granular Computing, Delhi, 16-18 December 2009, 398-405.
https://doi.org/10.1007/978-3-642-10646-0_48
[7] Nie, B., Du, J., Liu, H., et al. (2009) Crowds’ Classification Using Hierarchical Cluster, Rough Sets, Principal Component Analysis and Its Combination. 2009 International Forum on Computer Science-Technology and Applications, Chongqing, 25-27 December 2009, 287-290.
https://doi.org/10.1109/IFCSTA.2009.75
[8] Zhao, L. and Guo, Z. (2011) Face Recognition Method Based on Adaptively Weighted Block-Two Dimensional Principal Component Analysis. Third International Conference on Computational Intelligence, Communication Systems and Networks, CICSyN 2011, Bali, 26-28 July, 2011, 22-25.
[9] Zhang, X. and Ren, X. (2011) Two Dimensional Principal Component Analysis Based Independent Component Analysis for Face Recognition. 2011 International Conference on Mul-timedia Technology, Hangzhou, 26-28 July 2011, 934-936.
https://doi.org/10.1109/ICMT.2011.6002199
[10] Liu, G., Song, X. and Zhao, X. (2007) Rough Sets and Zadeh’s Extension Principles. Proceedings-2007 IEEE International Conference on Granular Computing, Fremont, 2-4 November 2007, 180-185.
https://doi.org/10.1109/GrC.2007.19
[11] 苗夺谦, 李道国. 粗糙集理论、算法与应用[M]. 北京: 清华大学出版社, 2008.
[12] Pawlak, Z. and Skowron, A. (2007) Rudiments of Rough Sets. Information Sciences, 177, 3-27.
https://doi.org/10.1016/j.ins.2006.06.003
[13] Pawlak, Z. (1984) Rough Classification. International Journal of Man-Machine Studies, 20, 469-483.
https://doi.org/10.1016/S0020-7373(84)80022-X
[14] Yao, Y.Y. (2015) Rough Sets and Three-Way Deci-sions. International Conference on Rough Sets & Knowledge Technology, Tianjin, 20-23 November 2015, 62-73.
https://doi.org/10.1007/978-3-319-25754-9_6
[15] 王平心, 刘强, 杨习贝, 等. 基于动态邻域的三支聚类分析[J]. 计算机科学, 2018, 45(1): 62-66+89.