多视图图卷积子空间聚类
Multi-View Graph Convolutional Subspace Clustering
DOI: 10.12677/pm.2024.149328, PDF, HTML, XML,    国家自然科学基金支持
作者: 王经纬, 唐科威:辽宁师范大学数学学院,辽宁 大连
关键词: 子空间聚类多视图聚类图卷积F范数加权机制Subspace Clustering Multi-View Clustering Graph Convolution F-Norm Weighting Mechanism
摘要: 子空间聚类在最近几年受到了广泛的关注,新近提出的自适应图卷积子空间聚类方法取得了很好的效果。但是该方法仅适用于单一视图的子空间聚类问题。本文将该方法拓展到多视图上,提出了多视图图卷积子空间聚类。该方法构建了F范数正则项以便更有效地挖掘每个视图中数据之间的关系,还构建了不同视图之间的加权机制来融合不同视图之间的信息。大量的实验证明,我们的方法是有效的。
Abstract: Subspace clustering has received extensive attention in recent years. Although the recently proposed adaptive graph convolutional subspace clustering performs well, it can only be applied to subspace clustering problem with a single view. This paper proposes multi-view graph convolutional sub-space clustering to extend this method to the multi-view situation. This method not only constructs F-norm regularization to more effectively mine the relationships between data in each view, but also builds a weighting strategy between different views to integrate their information. A large number of experiments have proved that our method is effective.
文章引用:王经纬, 唐科威. 多视图图卷积子空间聚类[J]. 理论数学, 2024, 14(9): 67-77. https://doi.org/10.12677/pm.2024.149328

1. 引言

近年来,子空间聚类由于其在运动分割[1]、人脸聚类[2]、图像处理[3]等方面的应用,已经获得了广泛的关注。它假设数据点样本可以由多个低维子空间的并集表示。在过去的几十年里,不同类型的子空间聚类方法被提出,其中基于谱聚类的方法在许多实际应用中广泛使用。基于谱聚类的方法通常包括三个阶段:首先,通过自表示模型得到自表示系数矩阵;然后,基于自表示系数矩阵构建亲和矩阵。最后,在学习到的亲和矩阵上通过谱聚类[4]得到最终的聚类结果。其中,经典方法包括低秩子空间聚类(Low-Rank Representation, LRR) [5]和稀疏子空间聚类(Sparse Subspace Clustering, SSC) [6],不同点在于这两个方法分别寻求自表示系数矩阵的低秩和稀疏性。对基于谱聚类的方法而言,亲和矩阵的块对角性十分重要,文章[7]给出了判断自表示系数矩阵块对角性的强制块对角(Enforced Block Diagonal, EBD)条件并提出了基于块对角表示的子空间聚类的方法(Block Diagonal Representation, BDR)。LRR和SSC都能保证块对角性质。最小二乘回归[8]对自表示系数矩阵采用F范数的正则化项,不仅仍能保证块对角性质,还有很快的计算速度。然而在实际问题中,同一数据往往存在不同的特征进行表示,例如,图像可以通过颜色、纹理、形状等来描述。这些不同的特征描述了数据中不同且部分独立的信息。因此,只使用一种特征对数据进行聚类存在片面性。由此,学者们研究了多视图子空间聚类问题,并且提出了诸多多视图子空间聚类的方法,这些方法基于两个重要的原则,共识原则或补充原则。

多视图子空间聚类就是融合多个视图的信息进行聚类的方法。很多多视图子空间聚类方法的思路源于前面基于谱聚类的方法,他们往往采用自表示的方式挖掘数据间的关系,同样采用构造亲和矩阵的方式获得聚类结果。只不过在多视图子空间聚类中,还需要对不同视图间的信息融合进行讨论。早期的多视图子空间聚类(Multi-View Subspace Clustering, MVSC) [9]方法采用一个公共的指标矩阵保证共同的聚类结构。基于低秩矩阵分解的秩一致性诱导多视图子空间聚类(Rank Consistency induced Multiview Subspace Clustering, RC-MSC) [10]方法通过因子分解和正交约束使得所有自表示系数矩阵具有相同的秩,从秩一致的角度实现结构一致性。但是这些方法并没有考虑到不同视图信息之间的互补性或者特异性。一些多视图子空间聚类方法[11] [12]同时研究了不同视图自表示系数矩阵之间的一致性和特异性,不同于文章[9]中的一致性策略,方法[12]采用了统一的和特殊的自表示系数矩阵。基于图的多视图聚类(Graph-based Multi-view Clustering, GMC) [13]在这种策略的基础上进行了自加权的扩展。但是文章[9]指出不同视图的自表示系数矩阵存在尺度不一的问题,上述方法并没有考虑该问题。在传统单视图的基于谱聚类的方法中,我们常常对数据进行降维的预处理,由此,文章[14]提出了学习潜在空间进行稀疏表示的思路。在多视图子空间聚类方法中,潜在多视图子空间聚类(Latent Multi-view Subspace Clustering, LMSC) [11]也采用了类似思路,该方法假设多个视图来自一个潜在空间从而学习一个统一的潜在数据表示,然后对这些潜在数据表示进行低秩子空间聚类,得到一个统一的自表示系数矩阵。在基于谱聚类方法的三个阶段中,最后的谱聚类也具有一定的计算量,锚图能够在降低计算量方面起到很大作用[15]。由此,文章[16]提出来一种具有线性阶复杂度的多视图聚类方法(Large-scale Multi-View Subspace Clustering, LMVSC)。虽然该方法提高了运算效率,但是对于锚图中数据点的选择不同,也会影响聚类效果,同时,该方法也没有考虑未被选择的点对其他数据点的影响,容易受到噪声或者离群点的影响。

最近,深度学习技术被用于子空间聚类问题中[2] [17]-[19],由于问题的无监督特性,自编码网络常常被使用[2] [17],这些方法也被推广到了多视图子空间聚类中[18] [19]。新近的工作受图卷积网络的启发,利用图卷积算子提出了自适应图卷积子空间聚类方法(Adaptive Graph Convolutional Subspace Clustering, AGCSC) [4],取得了很好的效果,但是该方法仅针对传统的单一视图子空间聚类问题。本文将自适应图卷积子空间聚类方法拓展到多视图上,提出了一种新的方法,称为多视图图卷积子空间聚类(Multi-view Graph Convolutional Subspace Clustering, MGCSC)。在扩展中,我们既考虑了每个视图中自表示系数矩阵的有效性,又考虑了视图间融合的有效性。我们使用了F范数来保证更多BDR条件的满足同时设计了加权因子来处理前面提到的尺度不一致问题。我们的主要贡献如下:

1) AGCSC方法采用了全新的策略处理子空间聚类问题,但是该方法只能处理单视图子空间聚类,我们将其扩展到多视图上。

2) 我们在扩展中对AGCSC进行了深入研究,在正则项中使用了F范数,一方面能够更好地满足块对角条件来提升在每个视图中学习的有效性,另一方面也对模型的求解提供了便利。

3) 在不同视图间的信息融合中,我们使用了加权因子学习策略,该策略能够自适应的对不同视图的信息进行有效整合,这也使得我们的方法取得了很好的聚类效果。

2. 相关工作

子空间聚类长期以来一直受到学者们的广泛关注,尤其是基于谱聚类的方法,这些方法往往利用数据自表示的方式得到自表示系数矩阵,由此构建亲和矩阵从而得到聚类结果。随着深度学习的发展,学者们尝试将深度网络运用到子空间聚类问题中。图卷积网络可以有效地学习数据的特征,其特征学习机制使用了线性变换、图卷积算子 S= D 1 2 M * D 1 2 和激活函数,其中 I n×n 是单位矩阵, M * =M+I D M * 的度矩阵,M可以是上面提到的亲和矩阵。文献[20]指出,不使用激活函数的简单图卷积网络也能在许多实际应用中取得很好的效果,文献[21]尝试性地将线性变换去掉直接使用图卷积算子S学习所学特征,AGCSC创新性地在子空间聚类中使用了该策略,即 F=SX ,其中F是所学特征,X是数据集。该策略完全不同于相关工作中常常使用的自表示策略。对于子空间聚类问题,AGCSC考虑M为亲和矩阵,同时要求自表示系数矩阵C满足性质 C= C T C1=1 C0 diag( C )=0 ,其中 1 n×1 = [ 1,1,,1 ] T C0 表示矩阵中的每个元素都是非负的, diag( C ) 表示由C的对角元形成的向量。经过推导可得 S= C+I 2 。此外,AGCGC还考虑了所学特征F对原始数据集的重建性质和自表示系数矩阵的重建作用,其模型构建如下:

min F,C = 2F( C+I )X F 2 +α XCF F 2 +β C C 2 F 2 s.t.C= C T ,C1=1,C0,diag( C )=0, (1)

其中, α β 是平衡各项的参数。块对角性质是子空间聚类问题中的一个重要性质,原文也对AGCSC的块对角性质进行了讨论,从文中命题1中的讨论我们发现,模型中的第二项对于使用了图卷积算子的第一项而言是必不可少的,第三项能满足的EBD条件的个数决定了其块对角性质,原文指出其模型能满足1个条件。不同于以往方法经常使用的自表示方式,AGCSC使用了一个全新的策略处理子空间聚类问题,取得了很好的效果,但是其模型仅仅适用于单一视图的子空间聚类问题。然而在大数据时代的今天,信息的来源往往是多样的,多视图子空间聚类方法也成为了近期的研究热点,这样的方法更符合经济社会发展的趋势,因此十分有必要推广该方法到多视图的情况,下面本文将对此展开讨论。

3. 多视图图卷积子空间聚类

3.1. 我们的模型

基于对AGCSC的研究,我们保留其模型中的第一项和第二项将其扩展使其适用于多视图数据:

min F v , C v , λ v ,W = v=1 V 2 F v ( C v +I ) X v F 2 + v=1 V α X v C v F v F 2 + v=1 V β C v F 2 + v=1 V λ v 2 C v W F 2 s.t.v, C v = C v T , C v 1=1, C v 0,diag( C v )=0, v=1 V λ v =1, (2)

其中 F v 是每个视图学习得到的特征, C v 是每个视图的自表示系数矩阵, X v 是每个视图的数据集。结合限制条件,第一项意味着我们使用了图卷积网络挖掘每个视图的特征,因此我们的方法命名为多视图图卷积子空间聚类(Multi-view Graph Convolutional Subspace Clustering, MGCSC)。对于多视图子空间聚类而言,每个视图中数据关系的挖掘和不同视图间信息的融合都是十分重要的。就单个视图中数据关系的挖掘而言,可以从块对角性质入手,这也是相关工作中经常考虑的一个方面,我们对每个视图的自表示系数矩阵使用了F范数的惩罚,文章[7]表明这种惩罚能够满足所有EBD条件从而能较好地挖掘数据间的关系,此外,使用F范数也十分便于得到模型的数值解。对于不同视图间的信息融合问题,文章[9]指出不同视图的自表示系数矩阵 C v 中元素值的大小可能会有很大的不同,为了解决 C v 之间的这种尺度不一的问题,我们构建了一个 C v 和统一自表示系数矩阵W之间的加权机制,即引入 λ v 2 C v W F 2 ,s.t。 v=1 V λ v =1 ,这里,W为统一的自表示系数矩阵,我们对加权因子也采用了学习策略,根据不同视图对整体贡献自适应学习视图系数,使得我们的方法能够自适应的融合不同视图的信息。得到W之后,构建亲和矩阵 L= | W |+| W T | 2 ,再由谱聚类得到最后的聚类结果。

3.2. 模型求解

我们采用交替方向迭代法(Alternating Direction Method, ADM) [22]对问题(2)进行优化。

为了求解问题(2),我们将其转化为以下等价问题:

min F v , C v , λ v ,W = v=1 V 2 F v ( C v +I ) X v F 2 + v=1 V α X v C v F v F 2                 + v=1 V β C v F 2 + v=1 V λ v 2 C v W F 2 s.t.v, C v = Z v , Z v = Z v T , C v 1=1, Z v 0,diag( Z v )=0, v=1 V λ v =1, (3)

其中是 Z v 辅助变量。式(3)的增广拉格朗日函数为:

Λ= v=1 V 2 F v ( C v +I ) X v F 2 + v=1 V α X v C v F v F 2 + v=1 V β C v F 2       + v=1 V λ v 2 C v W F 2 + v=1 V tr( Y 1,v T ( C v 11 ) ) + v=1 V tr( Y 2,v T ( C v Z v ) )       + v=1 V μ 2 ( C v 11 F 2 + C v Z v F 2 ), (4)

接下来,我们逐个讨论了关于每个变量 F v , C v , Z v , λ v ,W 和乘子 Y 1,v , Y 2,v ,μ 的子问题。

1) 固定其它,更新 { C v } v=1 V 。(4)式中所有项均含有 C v ,对(4)式关于 C v 求导,令导数为0,得:

C v =( 4 F v X v T 2 X v X v T +2α X v F v T +2 λ v 2 W Y 1,v 1 T Y 2,v +μ 11 T +μ Z v ) × ( 2 X v X v T +2α F v F v T +2βI+2 λ v 2 I+μ( 11 T +I ) ) 1 , (5)

2) 固定其他,更新 { F v } v=1 V 。在(4)中去除与 F v 无关的项,得到:

min F v v=1 V ( 2 F v ( C v +I ) X v F 2 +α X v C v F v F 2 ) ,

对上式关于 F v 求导,并且令导数为0,得:

F v = ( α C v T C v +4I ) 1 ( 2 C v X v +2 X v +α C v T X v ) (6)

3) 固定其他,更新 { Z v } v=1 V 。在(4) 中去除与 Z v 无关的项,得到:

min Z v v=1 V ( tr( Y 2,v T ( C v Z v ) )+ μ 2 C v Z v F 2 ) s.t. Z v = Z v T , Z v 0,diag( Z v )=0,

对上式进行配方,可得:

min Z v v=1 V 1 2 Z v ( C v + Y 2,v μ ) F 2 s.t. Z v = Z v T , Z v 0,diag( Z v )=0 (7)

我们可以运用[7]给出的如下引理1解决(7):

引理1:不妨令 A n×n A ^ =ADiag( diag( A ) ) ,则对于下列给出的问题:

min B 1 2 BA 2 , s.t.diag( B )=0,B0,B= B T

其解为 B * = [ A ^ v + A ^ v T 2 ] + ,其中 [ ] + 表示矩阵元素取正值,不是正值的要按0计算。

因此,由引理1可知,若令 A v = C v + Y 2,v μ ,则会得到 A ^ v = A v Diag( diag( A v ) ) ,对应问题(7)解为

Z v * = [ A ^ v + A ^ v T 2 ] + .(8)

4) 固定其他,更新 { λ v } v=1 V 。在(4)中去除与 λ v 无关的项,得到:

min λ v v=1 V λ v 2 C v W F 2 ,s.t. v=1 V λ v =1 (9)

用条件极值的方法求解(9),引入 λ 为拉格朗日乘子,再对(9)式做出其对应的拉格朗日函数为: v=1 V λ v 2 r v +λ( v=1 V λ v 1 ) ,其中 r v = C v W F 2 ,分别对拉格朗日函数每个变量求偏导并令其值为0。解得:

λ v = 1 r v v=1 V 1 r v , r v = C v W F 2 .(10)

5) 固定其他,更新W。在(4)中去除与W无关的项,得到 min W v=1 V λ v 2 C v W F 2 ,再关于W求导,并且令导数为0,得:

W= v=1 V λ v 2 C v v=1 V λ v 2 .(11)

根据上面给出的子问题结果,现将我们的数值算法过程整理如下:

输入:数据矩阵 { X v } v=1 V α,β>0

输出:W

Step 1:初始化 Z v =W= Y 1,v = Y 2,v =0 F v = X v μ= 10 6 μ max = 10 30 ρ=1.1 ε= 10 7

Step 2:由式(5)更新 C v ,式(6)更新 F v ,式(8)更新 Z v ,式(10)更新 λ v ,式(11)更新W

Step 3:更新乘子和参数 Y 1,v = Y 1,v +μ( C v 11 ) Y 2,v = Y 2,v +μ( C v Z v ) μ=min( μ max ,ρμ )

Step 4:验证收敛条件 C v 11 <ε C v Z v <ε ,若不满足收敛条件,重复Step2~Step3,直至满足条件。

上述算法步骤4中的无穷范数表示绝对值最大的元素值。

3.3. 复杂度分析

最后,我们对MGCSC的计算复杂度进行分析,MGCSC的时间复杂度主要依赖于对 { C v } v=1 V { F v } v=1 V 这两个变量的迭代更新,我们不仅需要计算一个 n×n 矩阵的逆,然后还需要计算两个 n×n 矩阵的乘法,这些运算的复杂度为 O( n 3 ) 。因此对于上述算法,每次迭代的时间复杂度为 O( V n 3 )

4. 实验

4.1. 实验设置

4.1.1. 数据集介绍

1) COIL-100 [23]数据集包含100个不同的物体类别,如动物、植物、家具等,每个对象的图像数量为72张。本文实验从COIL-100数据集中选取30类图像,每类取60张进行实验,分别提取LBP [13]特征和Garbor [14]特征。

2) UCI-digits [24]数据集由2000张10个手写数字(0~9)的图像组成,在该实验中我们提取了Fac(216)特征、Fou(76)特征和Kar(64)特征作为三种视图。

3) ORL [25]包含40个不同受试者的400张面部图像。每个受试者有10张不同的面部图像,这些图像是在不同的时间拍摄的,随着光线、面部表情和面部细节的变化而变化。该实验提取1024维灰度特征、3304维LBP和6750维Gabor特征。

4) 3Sources数据集,同文献[13]中一样,该数据集共由169个新闻故事组成,分属于6个大类。每条新闻都来自3个不同的新闻来源,分别是BBC,路透社和卫报。

以上4个数据集对应信息总结在表1中:

Table 1. Dataset information summary

1. 数据集信息汇总

数据集

COIL

UCI-digits

ORL

3Sources

样本点

1800

2000

400

169

视图

2

3

3

3

组类

30

10

40

6

特征

10

216

1024

3560

1024

76

3304

3631

-

64

6750

3068

4.1.2. 比较方法

为了验证我们提出的模型的有效性,我们首先进行了聚类实验,将我们的方法与一些单视图和多视图聚类方法进行比较。比较的方法包括:

1) 单视图(Single View, SV):

LRRbest [5]:对每个视图进行低秩表示,选择聚类效果最好的视图。

SPCbest [26]:对每个视图分别进行谱聚类,挑选聚类结果最好的视图。

2) 多视图(Multi View, MV):

Co-Reg SPC [27]:该方法对聚类假设进行共正则化,以实现相应的数据点应该在同一聚类中,从而达到聚类的要求。

Min-Disagreement [28]:该方法创建了一个二部图,并试图将分歧最小化。然后通过谱聚类得到最终结果。

RMSC [29]:提出一种鲁棒多视图谱聚类的马尔可夫链方法,具有低秩和稀疏分解的特点。

LMSC [11]:该方法通过学习不同视图之间统一的潜在表示进行聚类。

GMC [13]:该方法学习每个视图图矩阵和统一图矩阵,考虑了自加权策略。

LMVSC [16]:该方法提出了一种具有线性阶复杂度的大规模算法。该方法主要使用了锚图。

RC-MSC [10]:该方法寻求不同视图特异性自表示系数矩阵的低秩一致性结构。

4.1.3. 评价指标

为了评估性能,我们使用了准确性(Accuracy, ACC)、归一化互信息(Normalized Mutual Information, NMI)、F-score、Precision共计4个度量指标。对于所有指标,值越高表明聚类效果越好。

4.1.4. 参数设置

我们的模型中包含两个正参数 α β ,两个参数值的选取均对实验性能有影响。在上述实验过程中,我们通常选取 α β 为{10-5, 10-4, 10-3, 5-3, 0.01, 0.05, 0.1, 0.5, 1, 10, 100, 1000, 10000}之内的数。

4.2. 实验结果与分析

在这一小节中,我们首先展示了以上10种不同的方法分别在4个数据集上进行实验得到的结果,既包括单视图子空间聚类方法,又包括多视图子空间聚类方法,具体结果见表2~5,其中最好的结果都用粗体强调。

Table 2. Clustering performance of 10 methods on the COIL-100 dataset

2. 10种方法在COIL-100数据集上的聚类性能

类型

方法

ACC

NMI

F-score

Precision

SV

LRRbest

0.7209

0.7806

0.6743

0.5821

SPCbest

0.6545

0.8046

0.6164

0.5831

MV

Co-Reg SPC

0.6812

0.8176

0.6440

0.6119

Min-Disagreement

0.6773

0.8296

0.6384

0.5963

RMSC

0.6864

0.8223

0.6465

0.6137

LMSC

0.7117

0.8280

0.6642

0.7021

GMC

0.7011

0.8339

0.5569

0.4228

LMVSC

0.6600

0.8060

0.6208

0.6749

RC-MSC

0.7106

0.8107

0.6678

0.6201

MGCSC

0.7722

0.8470

0.7220

0.7538

Table 3. Clustering performance of 10 methods on the UCI-digits dataset

3. 10种方法在UCI-digits数据集上的聚类性能

类型

方法

ACC

NMI

F-score

Precision

SV

LRRbest

0.8047

0.7605

0.8044

0.8332

SPCbest

0.7481

0.6681

0.7501

0.7432

MV

Co-Reg SPC

0.8131

0.7413

0.8091

0.8175

Min-Disagreement

0.7912

0.7561

0.7167

0.6972

RMSC

0.8152

0.8221

0.8116

0.7975

LMSC

0.7886

0.7520

0.7863

0.8381

GMC

0.8560

0.8961

0.8341

0.7936

LMVSC

0.8935

0.8315

0.8127

0.8157

RC-MSC

0.9215

0.8484

0.9214

0.9215

MGCSC

0.9140

0.8422

0.8397

0.8418

Table 4. Clustering performance of 10 methods on ORL dataset

4. 10种方法在ORL数据集上的聚类性能

类型

方法

ACC

NMI

F-score

Precision

SV

LRRbest

0.7219

0.8668

0.6065

0.5318

SPCbest

0.7448

0.8863

0.6759

0.6265

MV

Co-Reg SPC

0.7442

0.8856

0.6798

0.6315

Min-Disagreement

0.7147

0.8662

0.6393

0.5900

RMSC

0.7125

0.8568

0.6322

0.5930

LMSC

0.8175

0.9079

0.7536

0.7900

GMC

0.6325

0.8035

0.3599

0.2321

LMVSC

0.6775

0.8246

0.5775

0.6650

RC-MSC

0.8375

0.9210

0.8228

0.7285

MGCSC

0.9300

0.9581

0.8848

0.9006

Table 5. Clustering performance of 10 methods on 3Sources dataset

5. 10种方法在3Sources数据集上的聚类性能

类型

方法

ACC

NMI

F-score

Precision

SV

LRRbest

0.3642

0.0892

0.3667

0.2570

SPCbest

0.5803

0.4797

0.5131

0.5346

MV

Co-Reg SPC

0.5852

0.5221

0.5554

0.6118

Min-Disagreement

0.5644

0.5215

0.5055

0.5268

RMSC

0.5669

0.5207

0.4859

0.5214

LMSC

0.6331

0.5283

0.5693

0.5386

GMC

0.6391

0.4504

0.5196

0.4007

LMVSC

0.4260

0.2729

0.3855

0.5019

RC-MSC

0.6213

0.5874

0.4650

0.6454

MGCSC

0.6462

0.5190

0.5950

0.6154

首先,在上述实验中,我们的方法都取得了很好的结果。实验结果表明:

1) 总体而言,基于多视图的方法其聚类性能显著高于基于单视图方法的聚类性能。例如,与LRRbest相比,MGCSC在ACC、NMI、F-score和Precision对ORL数据集得到了20.81%、9.13%、27.83%和36.88%的提高,对3Sources数据集得到了28.2%、42.98%、22.83%、35.84%的提高。原因是与单视图数据集相比,多视图数据集通常能为实验提供更多的互补性和一致性信息,因此在聚类的过程中对于数据点会有更加全面的概括,从而能够得到更好的聚类效果。

2) 在大多数情况下,我们提出的MGCSC比其他多视图聚类方法有更好的性能结果。在数据集COIL-100上,我们的方法相较于最新提出的RC-MSC方法,在ACC、NMI、F-score和Precision上分别提高了6.16%、3.63%、5.42%和13.37%。这说明我们的方法拥有更好的聚类效果。在UCI-digits上,我们的方法聚类效果虽然排在第二位,但仍然远好于其他方法。在3Sources数据集上,我们的方法在ACC和F-score上取得相较于其他方法最好的结果。

一个理想的统一的自表示系数矩阵应该通常具有块对角结构。接下来,我们展示了在ORL数据集上,由聚类效果最好的MGCSC方法和聚类效果次之的RC-MSC方法获得的对应于前10个类别样本的统一的自表示系数矩阵得到的分块结果。如图1(a)所示,MGCSC得到的统一的自表示系数矩阵表现出了更明显的块对角的特征,而如图1(b)所示,RC-MSC的分块效果不明显。可视化结果与聚类性能一致。这说明我们方法在该数据集上的聚类效果要比RC-MSC聚类效果好。

Figure 1. The effect of ORL top 10 categories on MGCSC and RC-MSC

1. ORL前10类在MGCSC和RC-MSC上的分块效果

最后,我们分析一下参数对MGCSC方法结果的影响。对于不同的数据集,不同的参数取值往往产生不同的聚类效果。为了防止随机性,对COIL-100、UCI-digits和ORL数据集我们都采取固定中心的策略,对3Sources数据集我们采取多次实验取均值的策略,我们的目的就是要找到聚类效果最好的情况下的最优参数。例如,在ORL数据集上通过调整这两个参数得到聚类结果的ACC性能如图2所示。从图中我们可以观察到,对于ORL数据集来说,当参数 α β 在一定范围内选择时,我们的方法聚类准确性较好。

Figure 2. The impact of α and β on MGCSC on the ORL dataset

2. ORL数据集上 α β 对MGCSC的影响

5. 结论

本文将AGCSC拓展到多视图上,提出多视图图卷积子空间聚类(MGCSC)的方法。该方法一方面在正则化项上应用F范数,既方便模型的求解,又使得聚类结果满足更多的块对角条件,另一方面将不同视图之间的信息通过加权因子自适应融合在一起,提高了聚类效果。通过大量子空间聚类实验证明,我们的方法在处理多视图数据集上是有效的。

基金项目

国家自然科学基金(62076115)。

参考文献

[1] Wang, S.P., Chen, Z.L., Du, S.D., et al. (2022) Learning Deep Sparse Regularizes with Applications to Multi-View Clustering and Semi-Supervised Classification. IEEE Transactions on Pattern Analysis and Machine Intelligence, 44, 5042-5055.
[2] Peng, X., Feng, J., Xiao, S., Yau, W., Zhou, J.T. and Yang, S. (2018) Structured Autoencoders for Subspace Clustering. IEEE Transactions on Image Processing, 27, 5076-5086.
https://doi.org/10.1109/tip.2018.2848470
[3] 郝雪, 彭国华. 基于SVD和稀疏子空间聚类的视频摘要[J]. 计算机辅助设计与图形学学报, 2017, 29(3): 485-492.
[4] Wei, L., Chen, Z., Yin, J., Zhu, C., Zhou, R. and Liu, J. (2023). Adaptive Graph Convolutional Subspace Clustering. 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Vancouver, 17-24 June 2023, 6262-6271.
https://doi.org/10.1109/cvpr52729.2023.00606
[5] Liu, G., Lin, Z., Yan, S., Sun, J., Yu, Y. and Ma, Y. (2013) Robust Recovery of Subspace Structures by Low-Rank Representation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 171-184.
https://doi.org/10.1109/tpami.2012.88
[6] Elhamifar, E. and Vidal, R. (2013) Sparse Subspace Clustering: Algorithm, Theory, and Applications. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 2765-2781.
https://doi.org/10.1109/tpami.2013.57
[7] Lu, C., Feng, J., Lin, Z., Mei, T. and Yan, S. (2019) Subspace Clustering by Block Diagonal Representation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 41, 487-501.
https://doi.org/10.1109/tpami.2018.2794348
[8] Lu, C., Min, H., Zhao, Z., Zhu, L., Huang, D. and Yan, S. (2012) Robust and Efficient Subspace Segmentation via Least Squares Regression. 12th European Conference on Computer Vision, Florence, 7-13 October 2012, 347-360.
https://doi.org/10.1007/978-3-642-33786-4_26
[9] Gao, H., Nie, F., Li, X. and Huang, H. (2015) Multi-View Subspace Clustering. 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, 7-13 December 2015, 4238-4246.
https://doi.org/10.1109/iccv.2015.482
[10] Guo, J., Sun, Y., Gao, J., Hu, Y. and Yin, B. (2022) Rank Consistency Induced Multiview Subspace Clustering via Low-Rank Matrix Factorization. IEEE Transactions on Neural Networks and Learning Systems, 33, 3157-3170.
https://doi.org/10.1109/tnnls.2021.3071797
[11] Zhang, C., Hu, Q., Fu, H., Zhu, P. and Cao, X. (2017). Latent Multi-View Subspace Clustering. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, 21-26 July 2017, 4333-4341.
https://doi.org/10.1109/cvpr.2017.461
[12] Luo, S., Zhang, C., Zhang, W. and Cao, X. (2018) Consistent and Specific Multi-View Subspace Clustering. Proceedings of the AAAI Conference on Artificial Intelligence, 32, 3730-3737.
[13] Wang, H., Yang, Y. and Liu, B. (2020) GMC: Graph-Based Multi-View Clustering. IEEE Transactions on Knowledge and Data Engineering, 32, 1116-1129.
https://doi.org/10.1109/tkde.2019.2903810
[14] Patel, V.M., Nguyen, H.V. and Vidal, R. (2013) Latent Space Sparse Subspace Clustering. 2013 IEEE International Conference on Computer Vision, Sydney, 1-8 December 2013, 225-232.
https://doi.org/10.1109/iccv.2013.35
[15] Chen, X. and Cai, D. (2011) Large Scale Spectral Clustering with Landmark-Based Representation. Proceedings of the AAAI Conference on Artificial Intelligence, 25, 313-318.
https://doi.org/10.1609/aaai.v25i1.7900
[16] Kang, Z., Zhou, W., Zhao, Z., Shao, J., Han, M. and Xu, Z. (2020) Large-Scale Multi-View Subspace Clustering in Linear Time. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 4412-4419.
https://doi.org/10.1609/aaai.v34i04.5867
[17] Ji, P., Zhang, T., Li, H.D., et al. (2017) Deep Subspace Clustering Networks. In: Proceedings of the 31st International Conference on Neural Information Processing Systems, Neural Information Processing Systems Press, Montreal, 23-32.
[18] Zhang, C., Liu, Y. and Fu, H. (2019) AE2-Nets: Autoencoder in Autoencoder Networks. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 2572-2580.
https://doi.org/10.1109/cvpr.2019.00268
[19] Tang, K.W., Xu, K.Q., Wei, J., et al. (2023) Selecting the Best Part from Multiple Laplacian Autoencoders for Multi-view Subspace Clustering. IEEE Transactions on Knowledge and Data Engineering, 35, 7457-7469.
[20] Wu, F.L., Souza, A., Zhang, T.Y., et al. (2019) Simplifying Graph Convolutional Networks. In: Proceedings of the 36th International Conference on Machine Learning, Omnipress, Madison, 6861-6871
[21] Cai, Y., Zhang, Z., Cai, Z., Liu, X., Jiang, X. and Yan, Q. (2021) Graph Convolutional Subspace Clustering: A Robust Subspace Clustering Framework for Hyperspectral Image. IEEE Transactions on Geoscience and Remote Sensing, 59, 4191-4202.
https://doi.org/10.1109/tgrs.2020.3018135
[22] Lin, Z.C., Chen, M.M. and Ma, Y. (2024) The Augmented Lagrange Multi Plier Method for Exact Recovery of Corrupted Low-Rank Matrices.
https://arxiv.org/abs/1009.5055
[23] Nene, S.A., Nayar, S. and Murase, H. (1996) Columbia Object Image Library (COIL-100). Columbia University, New York.
[24] Asuncion, A. and Newman, D. (2024) UCI Machine Learning Repository.
http://archive.ics.uci.edu/ml
[25] Samaria, F. and Harter, A. (1994) Parameterisation of a Stochastic Model for Human Face Identification. In: Proceedings of the IEEE Conference on Computer Vision and Patten Recognition, IEEE Computer Society Press, Los Alamitos, 138-142.
[26] Ng, A., Jordan, M. and Weiss, Y. (2001) On Spectral Clustering: Analysis and an Algorithm. In: Proceedings of the 14th International Conference on Neural Information Processing Systems, Curran Associates Inc., Red Hook, 849-856.
[27] Kumar, A., Rai, P. and Daume, H. (2011) Co-Regularized Multi-View Spectral Clustering. In: Proceedings of the 14th International Conference on Neural Information Processing Systems, Curran Associates Inc., Red Hook, 1413-1421.
[28] De, S. and Virginia, R. (2005) Spectral Clustering with Two Views. In: Proceedings of the International Conference on Machine Learning, Omnipress, Madison, 20-27.
[29] Xia, R., Pan, Y., Du, L. and Yin, J. (2014) Robust Multi-View Spectral Clustering via Low-Rank and Sparse Decomposition. Proceedings of the AAAI Conference on Artificial Intelligence, 28, 2149-2155.
https://doi.org/10.1609/aaai.v28i1.8950