基于质心的自适应字典学习的多视图低秩稀疏子空间聚类算法
Multi-View Low Rank Sparse Subspace Clustering Algorithm Based on Centroid Adaptive Dictionary Learning
DOI: 10.12677/CSA.2023.136128, PDF, HTML, XML, 下载: 211  浏览: 302  科研立项经费支持
作者: 李 祥, 由从哲*:江苏理工学院计算机工程学院,江苏 常州
关键词: 多视图低秩表示稀疏子空间聚类字典学习Multiple Views Low Rank Representation Sparse Subspace Clustering Dictionary Learning
摘要: 随着大数据时代的到来,图像处理逐渐向高维方向发展。而高维数据通常被认为位于多个低维数据的并当中。通过将高维子空间划分为几个低维子空间,可以更好地了解高维子空间的底层结构。现有的聚类方法大多通过在每个视图上构造一个关联矩阵来解决多视图子空间聚类问题。本文提出了一种基于自适应字典学习的多视图低秩稀疏子空间聚类方法。即在多视图低秩稀疏表示模型中,引入了一种基于正交约束的自适应字典学习策略。该方法从原始数据中自适应学习字典,使模型对噪声具有鲁棒性。同时,通过优化方法得到投影矩阵和低秩稀疏特征。在本文提出的算法上对三类标准数据集进行测试,结果表明,本文所提出的算法聚类效果优于其它同类型的算法。
Abstract: With the advent of the era of big data, image processing is gradually developing towards high-dimensional direction. High-dimensional data is generally considered to be in the union of multiple low-dimensional data. By dividing the high-dimensional subspace into several low-dimensional subspaces, we can better understand the underlying structure of the high-dimensional subspace. Most of the existing clustering methods solve the problem of multi-view subspace clustering by constructing an association matrix on each view. In this paper, an adaptive dictionary learning based multi-view low rank sparse subspace clustering method is proposed. In the multi-view low rank sparse representation model, an adaptive dictionary learning strategy based on orthogonal constraints is introduced. The method learns the dictionary adaptively from the original data and makes the model robust to noise. At the same time, the projection matrix and the low rank sparse feature are obtained by the optimization method. The results show that the proposed algorithm performs better than other algorithms of the same type in clustering three kinds of standard data sets.
文章引用:李祥, 由从哲. 基于质心的自适应字典学习的多视图低秩稀疏子空间聚类算法[J]. 计算机科学与应用, 2023, 13(6): 1297-1307. https://doi.org/10.12677/CSA.2023.136128

1. 引言

随着大数据时代的到来,高维数据的种类越来越多,高维图像的处理越来越复杂。而子空间聚类的应用也更加广泛,如图像处理,运动分割以及计算机视觉等 [1] 。虽然高维数据越来越复杂,但是学者们认为高维数据通常位于低维子空间中。例如,人脸图像由几十万个像素组成,这些像素位于若干个低维子空间的并中,如图1所示,高维空间yi由低维空间S1、S2及S3共同组成,子空间聚类的目的是通过利用多个低维结构来洞察高维数据的内在结构。并将高维数据划分到这些低维子空间中 [2] 。

为了解决子空间聚类算法中的亲和矩阵学习问题,提出了稀疏子空间聚类算法(sparse subspace clustering algorithm, SSC) [3] 。然而,SSC的缺点是在追求数据表示矩阵的整体稀疏性以提高计算效率时忽略了每个数据样本的稀疏性。为了解决这个问题,许多学者针对各种特征学习任务提出了低秩表示(LRR)模型 [4] 。

Figure 1. High-dimensional data composition schematic

图1. 高维数据组成示意图

2. 研究背景及相关工作

在本节中,我们概述了基于低秩表示的子空间聚类算法(LRR)和稀疏子空间聚类算法(SSC)。

2.1. 基于低秩表示的子空间聚类方法(LRR)

假设数据样本 X R d × n 为多个低维线性子空间的并,低维线性子空间表示为 U i = 1 k a i ,其中 a 1 , a 2 , a k 是低维子空间。数据样本 X = L + E ,其中 L R d × n 是低秩矩阵,E表示随机的噪声项。求D的低阶近似值的问题公式如下:

min L , E r a n k ( L ) + λ E 0 s .t . Y = L + E (1)

其中 λ 是一个参数,L是Y的低秩近似表示。但是由于秩函数的离散性,问题(1)很难解决。而且求噪声项E的 L 0 范数属于非凸问题,要求解也非常困难。所以使用秩函数的近似(即核范数)来代替秩函数 [5] ,而使用 L 0 的近似(即 L 1 范数)来代替 L 0 范数,问题(1)的公共凸松弛表示为:

min L , E C + λ E 1 s .t . Y = Y C + E and L = Y C (2)

公式(2)最优解能表示为 [6] :

C ^ = V V T (3)

其中,V为矩阵Y的奇异值分解后的右奇异矩阵,当数据矩阵被高斯白噪声污染时 [7] ,改写公式(1):

C + λ 2 Y Y C F 2 (4)

C ^ 的最优解表示为 [8] :

C ^ = V 1 ( I 1 λ Σ 1 2 ) V 1 T (5)

其中 U = [ U 1 U 2 ] Σ = [ Σ 1 Σ 2 ] V = [ V 1 V 2 ] 。矩阵根据集合 I 1 = { i : σ i > 1 λ } I 2 = { i : σ i < 1 λ } 进行划分 [9] 。

2.2. 基于稀疏表示的子空间聚类方法(SSC)

稀疏子空间聚类(SSC)的核心内容是使数据集中的任何一个数据点都可以用其它数据点的稀疏线性组合来代替,同时还能够捕获数据的局部结构 [10] ,它解决以下凸优化问题:

min C C 1 s .t . X = X C d i a g ( C ) = 0 (6)

当数据被高斯白噪声污染时,方程(6)可以表示为:

min C λ C 1 + 1 2 X C C F 2 s .t . d i a g ( C ) = 0 (7)

其中 λ 是稀疏正则化常数。方程(7)能够使用ADMM优化,且能够得到有效解决。

3. 基于质心的自适应字典学习的多视图低秩稀疏子空间聚类(Centroid ADLMLRSSC)

考虑到SSC主要捕获数据的局部结构,而LRR主要对数据的全局结构进行计算,该两种方法均有自身的缺陷,因此我们在本节提出一种基于质心的自适应字典学习的多视图低秩稀疏子空间聚类。

对于一个具有 n v 个视图的数据集X,其中每个 X ( i ) = { X j ( i ) R D ( i ) } j = 1 N 用它自己的一组 D ( i ) 特征来描述。

目标是找到一个联合表示矩阵C,该矩阵能够平衡不同视图之间的一致性,同时使得到的解兼具稀疏性和低秩性。

为了使表示矩阵 { C ( 1 ) , C ( 2 ) , , C n v } 跨越不同的视图,以获得共同的联合表示矩阵,制定了联合目标函数 [11] 。本节提出了一种ADLMLRSSC算法的正则化方案:基于质心的ADLMLRSSC。该算法强制不同视图之间的表示指向一个共同的质心。首先建立目标函数:

min C ( 1 ) , C ( 2 ) , , C ( n v ) v = 1 n v β 1 C ( v ) + β 2 C ( v ) 1 + λ ( v ) C ( v ) C F 2 s .t . X ( v ) = X ( v ) C ( v ) , d i a g ( C ( v ) ) = 0 , v = 1 , , n v (8)

这里的 C 表示共识变量。这个目标函数可以通过对观点和共识变量的交替最小化循环来最小化。就是重复以下两个步骤:

1) 固定共识变量 C ,并更新每个 C ( v ) , v = 1 , , n v

2) 固定 C ( v ) , v = 1 , , n v 和更新 C

固定除 C ( v ) 之外的所有变量,重写目标函数:

min C ( v ) β 1 C ( v ) + β 2 C ( v ) 1 + λ ( v ) C ( v ) C F 2 s .t . X ( v ) = X ( v ) C ( v ) , d i a g ( C ( v ) ) = 0 (9)

引入自适应字典学习,即将X替换为 P T X ,同时,使用ADMM解决凸优化问题。通过引入辅助变量 C 1 ( v ) , C 2 ( v ) , C 3 ( v ) A ( v ) ,可以得出以下公式:

min C 1 ( v ) , C 2 ( v ) , C 3 ( v ) , A ( v ) β 1 C 1 ( v ) + β 2 C 2 ( v ) 1 + λ ( v ) C 3 ( v ) C F 2 s .t . P T X ( v ) = P T X ( v ) A ( v ) , A ( v ) = C 2 ( v ) d i a g ( C 2 ( v ) ) , A ( v ) = C 1 ( v ) , A ( v ) = C 3 ( v ) (10)

可以推导出其增广拉格朗日函数是:

L { C i ( v ) } i = 1 3 , A ( v ) , { Λ i ( v ) } i = 1 4 = β 1 C 1 ( v ) + β 2 C 2 ( v ) 1 + λ ( v ) C 3 ( v ) C F 2 + μ 1 2 P T X ( v ) P T X ( v ) A ( v ) F 2 + μ 2 2 A ( v ) C 2 ( v ) + d i a g ( C 2 ( v ) ) F 2 + μ 3 2 A ( v ) C 1 ( v ) F 2 + μ 4 2 A ( v ) C 3 ( v ) F 2 + Λ 1 , P T X ( v ) P T X ( v ) A ( v ) + Λ 2 , A ( v ) C 2 ( v ) + d i a g ( C 2 ( v ) ) + Λ 3 , A ( v ) C 1 ( v ) + Λ 4 , A ( v ) C 3 ( v ) (11)

其中, Λ , X 表示的是矩阵的内积, { μ i > 0 } i = 1 4 表示的是惩罚参数,而 { Λ i ( v ) } i = 1 4 表示的是拉格朗日对偶变

量。为了解决这个凸优化问题,引入可变方向乘子法(ADMM)。用于收敛于由两个块凸可分问题组成的目标,但向量 C 1 ( v ) , C 2 ( v ) C 3 ( v ) 互不依赖,因此可以单独的以其中作为一个变量块观察。

1) 在迭代K + 1次时更新 A ( v )

给定迭代k次时的 { C i ( v ) } i = 1 3 { Λ i ( v ) } i = 1 4 ,将目标矩阵 A ( v ) 最小化:

A ( v ) = [ μ 1 X ( v ) T P P T X ( v ) + ( μ 1 + μ 2 + μ 3 ) I ] 1 × ( μ 1 X ( v ) T P P T X ( v ) + μ 2 C 2 ( v ) + μ 3 C 1 ( v ) + μ 4 C 3 ( v ) + X ( v ) T P Λ 1 Λ 2 ( v ) Λ 3 ( v ) Λ 4 ( v ) ) (12)

上式即由公式(13)对 A ( v ) 求偏导之后,设置其导数为零得出。求出低秩矩阵A后。给定一个矩阵 X m × n 和一个参数 d ( d < m ) ,P可以通过以下方程来求解:

min P P T X P T X A F 2 s .t . P T X X T P = I d (13)

其中,P由 P ^ = [ μ 1 , μ 2 , , μ d ] 给出,它由矩阵 R R T P = μ X X T P 对应于前d个最小特征值的d个特征向量组成, R = X X A

2) 在迭代K + 1次时更新 C 1 ( v )

给定迭代k + 1次的 A ( v ) 和迭代k次的 { Λ i ( v ) } i = 1 4 ,最小化目标函数中的 C 1 ( v )

min C 1 ( v ) L ( C 1 ( v ) , A ( v ) , A 3 ( v ) ) = min C 1 ( v ) β 1 C 1 ( v ) + μ 3 2 A ( v ) C 1 ( v ) + Λ 3 ( v ) μ 3 F 2 (14)

公式(16)中的 C 1 ( v ) 最小化表达式为:

C 1 ( v ) = Π β 1 μ 3 ( A ( v ) + Λ 3 ( v ) μ 3 ) (15)

其中, π β ( Σ ) 表示软阈值算子,定义为 π β ( Σ ) = ( | Σ | β ) + sgn ( Σ ) t + = max ( 0 , t )

Π β ( Y ) = π β ( Σ ) V T 表示的是对数据矩阵Y的奇异值 U Σ V T 执行软阈值运算,而 Y = A ( v ) + μ 3 1 Λ 3 ( v )

3) 在迭代K + 1次时更新 C 2 ( v ) :给定迭代K+1次后的 A ( v ) 和迭代k次后的 Λ 2 ( v ) ,最小化拉格朗日函数中的 C 2 ( v ) ,其更新方法同样使用软阈值算子更新,即:

C 2 ( v ) = π β 2 μ 2 ( A ( v ) + Λ 2 ( v ) μ 2 )

C 2 ( v ) = C 2 ( v ) d i a g ( C 2 ( v ) ) (16)

其中, Π β 表示软阈值算子按入口方向应用于 A ( v ) + μ 2 1 Λ 2 ( v )

4) 在迭代K + 1次时 C 3 ( v ) 的更新规则。

给定迭代k + 1次时的 A ( v ) 和迭代k时的 C Λ 4 ( v ) ,以上拉格朗日函数中目标相对于 C 3 ( v ) 的最小化即可以得到以下对 C 3 ( v ) 的求解公式:

C 3 ( v ) = 2 λ ( v ) + μ 4 2 λ ( v ) C + μ 4 A ( v ) + A 4 ( v ) (17)

更新 C 规则。将目标函数中关于 C 的偏导数设为零,即可得到 C 的封闭解:

C = v = 1 n v λ ( v ) C ( v ) v = 1 n v λ ( v ) (18)

5) 在迭代k+ 1次时双变量 { Λ i ( v ) } i = 1 4 的更新规则。

在迭代k + 1次时,固定 A ( v ) { C i ( v ) } i = 1 3 ,用以下等式更新对偶变量:

Λ 1 ( v ) = Λ 1 ( v ) + μ 1 ( X ( v ) X ( v ) A ( v ) ) Λ 2 ( v ) = Λ 2 ( v ) + μ 2 ( A ( v ) C 2 ( v ) ) Λ 3 ( v ) = Λ 3 ( v ) + μ 3 ( A ( v ) C 1 ( v ) ) Λ 4 ( v ) = Λ 4 ( v ) + μ 4 ( A ( v ) C 3 ( v ) ) (19)

为了将模型扩展到受加性高斯白噪声污染的数据,对(9)中的目标函数修改如下:

min C ( 1 ) , C ( 2 ) , , C ( n v ) v = 1 n v 1 2 X ( v ) X ( v ) C ( v ) β 1 C ( v ) + β 2 C ( v ) 1 + λ ( v ) C ( v ) C F 2 s .t . d i a g ( C ( v ) ) = 0 , v = 1 , , n v (20)

与干净数据的模型相比,唯一需要修改的更新规则是 A ( v ) ,在迭代k + 1次时更新 A ( v ) { C i ( v ) } i = 1 3 { Λ i ( v ) } i = 1 4 的更新规则与噪声项无关,因此这些变量的更新方式不变。给定迭代k次时的 { C i ( v ) } i = 1 3 { Λ i ( v ) } i = 1 4

使等式中 A ( v ) 最小化,为了简化公式,用Gram矩阵K来代替 X ( v ) T X ( v ) [12] 。

在由内积导出的多维矩阵中,对角元素提供不同特征图自身的信息,从而反映出自身的特征信息,其他位置元素则提供不同特征图之间的相关信息,从而反映不同特征之间的紧密程度 [13] 。所以Gram矩阵通常用于度量维度本身的属性以及各维度之间的关系。

A ( v ) = [ K + ( μ 1 + μ 2 + μ 3 ) I ] 1 × ( K + μ 2 C 1 ( v ) ) + μ 3 C 1 ( v ) + μ 4 C 3 ( v ) Λ 2 ( v ) Λ 3 ( v ) Λ 4 ( v ) (21)

重复这些更新步骤,直到各变量均收敛或达到最大迭代次数,即停止迭代计算。通过在每次迭代后都验证以下约束来检查收敛性,只有当所有变量均小于 ε ,才可以视作变量达到收敛条件:

A ( v ) C 1 ( v ) ε

A ( v ) C 2 ( v ) ε

A ( v ) C 3 ( v ) ε

A k ( v ) A k 1 ( v ) ε (22)

在基于质心的ADLMLRSSC中,不需要跨视图组合亲和矩阵,因为联合亲和矩阵可以直接从质心矩阵计算,即 W = | C | + | C | T 表1汇总了基于质心的ADLMLRSSC算法的步骤。

Table 1. Centroid-based ADLMLRSSC algorithm steps

表1. 基于质心的ADLMLRSSC算法的步骤

4. 基于核的质心的自适应字典学习的多视图低秩稀疏子空间聚类算法 (Centroid KADLMLRSSC)

拉普拉斯的谱分解使谱聚类能够分离具有非线性超曲面的数据点。然而,通过将数据点表示为其他数据点的线性组合,ADLMLRSSC算法学习了对数据的线性子空间结构建模的亲和矩阵。为了使算法在非线性子空间数据中也可以有良好的聚类效果,本节提出通过隐式将数据点映射到高维特征空间来求解再生核希尔伯特空间(Reproducing kernel Hilbert space, RKHS)中的ADLMLRSSC。

首先定义一个函数 Φ : X F 为将原始输入空间 X 映射到高维(可能是无限)特征空间 F 的函数。由于所提出的基于质心的KADLMLRSSC的损坏数据的更新规则仅依赖于点积 X ( v ) , X ( v ) = X ( v ) T X ( v ) , v = 1 , , n v ,因此该方法可在再生希尔伯特空间(RKHS)中求解,并可推广到非线性流形结构的建模中。

Φ ( X ( v ) ) = { Φ ( X i ( v ) ) F } i = 1 N 表示数据点集合 X ( v ) = { X i ( v ) D } i = 1 N 映射到高维特征空间。对于被噪声污染过的数据,基于质心的核ADLMLRSSC在希尔伯特空间中的目标函数为:

min C ( 1 ) , C ( 2 ) , , C ( n v ) v = 1 n v 1 2 Φ ( X ( v ) ) Φ ( X ( v ) ) C ( v ) F 2 + β 1 C ( v ) + β 2 C ( v ) 1 + λ ( v ) C ( v ) C F 2 s .t . d i a g ( C ( v ) ) = 0 , v = 1 , , n v (23)

由于 A ( v ) 是唯一依赖于 X ( v ) 的变量,因此 { C i ( v ) } i = 1 3 和对偶变量 { Λ i ( v ) } i = 2 4 的更新规则保持不变。

A ( v ) 迭代 k + 1 次时的更新规则。给定在迭代k次时的 { C i ( v ) } i = 1 3 和对偶变量 { Λ i ( v ) } i = 2 4 ,用Gram矩阵 K ( v ) 代替点积 Φ ( X ( v ) ) , Φ ( X ( v ) ) 可以得到 A ( v ) 的更新规则如下:

A ( v ) = K ( v ) + μ 2 C 2 ( v ) + μ 3 C 1 ( v ) + μ 4 C 3 ( v ) Λ 2 ( v ) Λ 3 ( v ) Λ 4 ( v ) K ( v ) + ( μ 2 + μ 3 + μ 4 ) I (24)

5. 实验及结果分析

5.1. 评价指标

本节使用五个不同的指标来评估聚类性能,对于所有这些指标,数值越高表示算法聚类性能越好。设由N个p维的数据 X = [ x 1 , x 2 , , x N ] T N × p ,真实数据共有R簇 { U 1 , U 2 , , U R } ,而聚类算法将数据划分为J簇 { V 1 , V 2 , , V J }

1) 精度(Precision):表示预测的正例样本中有多少是真正的正样本。

2) 召回率(Recall):表示示例中有多少正面示例被正确预测(全部找到)与所有的正面示例的比例。

3) F-分数(F-score):用于调和Precision和Recall这两个指标。

4) 标准化互信息(NMI):用于衡量两个数据分布的吻合程度。值越大表示结果与真实情况越吻合。

5) 调整后的rand指数(ARI):通常将ARI视作一个评估不同集群模型性能的通用指标。

5.2. 实验数据

3-sources dataset:该数据集是从三个在线新闻来源收集的新闻文章数据集:BBC、路透社和卫报。所有的词汇都储存在词袋中。在948篇文章中,使用了所有三个来源的169篇。数据集中的每一篇文章都用一个主要的主题类进行注释。

Reuters dataset:路透社数据集 [14] 包含了五种不同语言的文档特征及其在六个共同类别中的翻译。所有的文件都在文件袋里。使用原本用英文写的文件作为一个视图,并将其翻译成法文、德文、西班牙文和意大利文作为其他四个视图。从每个类别随机抽取了10份文件,得到了600份文件的数据集。

UCI Digit dataset:UCI数字数据集 [15] 可从UCI存储库获得。该数据集由200个从荷兰公用设施地图中提取的手写数字(0~9)示例组成。每个类中有200个示例,每个示例由六个特征集表示。根据C. Lu的实验,本实验使用了三个特征集:76个字符形状的傅里叶系数、216个轮廓相关和64个Karhunen-Love系数。

5.3. 参数设置

为了比较出各类算法的优势,将本文所提出的算法于原始类算法的数据进行对比,本实验一共包含四类算法,其中包含两类原始算法,即基于低秩表示的稀疏子空间聚类算法(LRSSC)与基于多视图的低秩稀疏子空间聚类算法(MLRSSC),而本文所提出的算法,即基于质心的ADLMLRSSC和基于质心的KADLMLRSSC,则需要通过实验来调整一系列参数,以使其效果达到最好。表2表3分别统计了Centroid ADLMLRSSC算法和Centroid KADLMLRSSC算法测试各数据集的参数设置。

5.4. 实验结果

为了实验的均衡性,在每个数据库上都运行代码20次,并取平均值,同时计算出这20个值的标准差,再与其它算法的结果进行比较,以对比出算法的稳定性。为了保证实验的公平性,实验参数均调整到使算法聚类效果达到最好,针对不同的数据集,通过实验调整了它的λ1、λ3以及最大迭代次数。其中,数值最大的指标数值我们用粗体标注出来,标准差用括号放于指标数值的下方。表4记录了五类算法测试三个数据集的实验结果。

Table 2. The Centroid ADLMLRSSC algorithm runs the parameter settings for each data set

表2. Centroid ADLMLRSSC算法运行各数据集的参数设置

Table 3. The Centroid KADLMLRSSC algorithm runs the parameter settings for each data set

表3. Centroid KADLMLRSSC算法运行各数据集的参数设置

Table 4. Experimental data of five algorithms on three data sets

表4. 五类算法测试三个数据集的实验数据

5.5. 实验分析

根据表4显示的实验结果,可以得出:

1) 在3-source数据集上,Centroid ADLMLRSSC的F-score比MLRSSC高出7.3 %,Precision比LRSSC高出15.2%,Recall比MLRSSC高出%,NMI比MLRSSC高出2.1%,Adj-RI比MLRSSC高出13.8%。表明本文的算法的主题分类的效果比较好。

2) 在Reuters数据库中,的F-score比Centroid KADLMLRSSC高出16.2%,Precision比Centroid KADLMLRSSC高出12.5%,NMI比Centroid KADLMLRSSC高出30.7%,Adj-RI比Centroid KADLMLRSSC高出30.5%。结果表明,Centroid ADLMLRSSC算法对手写数字的聚类效果比较好。

3) 在UCI digit数据库中,Centroid ADLMLRSSC的F-score比Centroid KADLMLRSSC高出10.7%,Precision比Centroid KADLMLRSSC高出10.1%,NMI比Centroid KADLMLRSSC高出9.1%,Adj-RI比Centroid KADLMLRSSC高出12.6%。可以看出算法对于文字图像识别相比有较大的优势。

6. 结语

本文提出了一种基于质心的自适应字典学习的多视图低秩稀疏子空间聚类算法Centroid ADLMLRSSC,并将其投影到希尔伯特空间当中,衍生出新的算法,即基于核的质心的自适应字典学习的多视图低秩稀疏子空间聚类算法(Centroid KADLMLRSSC),Centroid KADLMLRSSC强制对公共质心进行特定于视图的表示,以获取数据信息。该算法最大的特点是在联合字典学习的同时,可以得到一个兼顾稀疏性和低秩约束的亲和矩阵。不仅定义了优化问题,制定了目标函数,而且通过ADMM方法得到了目标函数的最优解。此外,通过引入三个不同领域的多视图数据集,我们的实验结果表明,该算法优于目前大多数多视图子空间聚类算法。

基金项目

本研究得到了国家自然科学基金(批准号:61902160,61806088,62002142)、江苏省高等院校自然科学基金(批准号:19KJB520006)和江苏省自然科学基金的支持(批准号:BK20201057)。

NOTES

*通讯作者。

参考文献

[1] Hashmi, A., Mali, H., Meena, A., Hashmi, M. and Bokde, N. (2022) Surface Characteristics Measurement Using Com-puter Vision: A Review. Computer Modeling in Engineering & Sciences, 135, 917-1005.
https://doi.org/10.32604/cmes.2023.021223
[2] Xu, K.Q., Tang, K.W. and Su, Z.X. (2022) Deep Multi-View Subspace Clustering via Structure-Preserved Multi-Scale Features Fusion. Neural Computing and Applications, 35, 3203-3219.
https://doi.org/10.1007/s00521-022-07864-4
[3] Ehsan, E. and René, V. (2013) Sparse Subspace Clustering: Algorithm, Theory, and Applications. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 2765-2781.
https://doi.org/10.1109/TPAMI.2013.57
[4] Xue, Z., Du, J.P., Du, D.W., Li, G.R., Huang, Q.M. and Lyu, S.W. (2019) Deep Constrained Low-Rank Subspace Learning for Multi-View Semi-Supervised Classification. IEEE Signal Processing Letters, 26, 1177-1181.
https://doi.org/10.1109/LSP.2019.2923857
[5] Jagtap, N. and Thepade, S.D. (2022) Reliable and Robust Low Rank Representation Based Noisy Images Multi-Focus Image Fusion. Multimedia Tools and Applications, 82, 8235-8259.
https://doi.org/10.1007/s11042-021-11576-7
[6] Yuan, G., Huang, S.L., Fu, J. and Jiang, X.W. (2022) Low Rank Representation and Discriminant Analysis-Based Models for Peer-to-Peer Default Risk Assessment. Journal of Systems and Information Technology, 24, 96-111.
https://doi.org/10.1108/JSIT-03-2020-0040
[7] Pacheco, C., Mavroudi, E., Kokkoni, E., Tanner, H.G. and Vidal, R. (2021) A Detection-Based Approach to Multiview Action Classification in Infants. 2020 25th International Confer-ence on Pattern Recognition (ICPR), Milan, 10-15 January 2021, 6112-6119.
https://doi.org/10.1109/ICPR48806.2021.9412822
[8] Pacheco, C., McKay, G.N., Oommen, A., Durr, N.J., Vi-dal, R. and Haeffele, B.D. (2022) Adaptive Sparse Reconstruction for Lensless Digital Holography via PSF Estimation and Phase Retrieval. Optics Express, 30, 33433-33448.
https://doi.org/10.1364/OE.458360
[9] Haeffele, B.D. and Vidal, R. (2020) Structured Low-Rank Matrix Factori-zation: Global Optimality, Algorithms, and Applications. IEEE Transactions on Pattern Analysis and Machine Intelli-gence, 42, 1468-1482.
https://doi.org/10.1109/TPAMI.2019.2900306
[10] Wen, Z., Hou, B. and Jiao, L. (2017) Discriminative Dictionary Learning with Two-Level Low Rank and Group Sparse Decomposition for Image Classification. IEEE Transactions on Cybernetics, 47, 3758-3771.
https://doi.org/10.1109/TCYB.2016.2581861
[11] Brbić, M. and Kopriva, I. (2020) L0-Motivated Low-Rank Sparse Subspace Clustering. IEEE Transactions on Cybernetics, 50, 1711-1725.
https://doi.org/10.1109/TCYB.2018.2883566
[12] Wang, J.L., Li, S., Ji, W.T., Jiang, T. and Song, B.Y. (2022) A T-CNN Time Series Classification Method Based on Gram Matrix. Scientific Reports, 12, Article No. 15731.
https://doi.org/10.1038/s41598-022-19758-5
[13] Ng, A.Y., Jordan, M.I. and Weiss, Y. (2001) On Spectral Clus-tering: Analysis and an Algorithm. Neural Information Processing Systems: Natural and Synthetic, NIPS 2001, Vancou-ver, 3-8 December 2001, 849-856.
[14] Lu, C., Yan, S. and Lin, Z. (2016) Convex Sparse Spectral Clustering: Sin-gle-View to Multi-View. IEEE Transactions on Image Processing, 25, 2833-2843.
https://doi.org/10.1109/TIP.2016.2553459
[15] Lewis, D.D., Yang, Y., Rose, T.G. and Li, F. (2004) RCV1: A New Benchmark Collection for Text Categorization Research. Journal of Machine Learning Research, 5, 361-397.