基于稀疏约束和对偶图正则化的受限概念分解算法及在数据表示中的应用
Constrained Concept Factorization Based on Sparseness Constraints and Dual Graph Regularization for Data Representation
DOI: 10.12677/CSA.2022.124106, PDF, HTML, XML, 下载: 282  浏览: 467  国家自然科学基金支持
作者: 翁宗慧, 由从哲:江苏理工学院,计算机工程学院,江苏 常州
关键词: 概念分解标签信息对偶图正则化LP平滑范数Concept Decomposition Algorithm Label Information Dual Graph Regularized LP Smoothness Constraint
摘要: 概念分解算法(CF)是一种经典的数据表达方式,已经被广泛使用于机器视觉、模式识别等领域。基本的CF方法是一种无监督的学习算法,无法利用数据中存在的先验知识,没有考虑数据空间流形和特征空间流形的几何结构信息,同时分解结果也不具有稀疏性。为了解决以上缺陷,本文提出了一种基于稀疏约束和对偶图正则化的受限概念分解算法(DCCFS)。该算法通过保持样本数据空间和特征空间中内蕴的几何结构信息不变,使得算法可以更加有效提取数据的特征,增强了算法的数据表达能力;利用数据中天然存在的类别性息,增强算法的鉴别能力;添加LP平滑范数提高了算法的稀疏性,使得分解结果更加准确、平滑。在COIL20图像数据集、PIE人脸数据集以及TDT2文本数据集上的聚类实验证明本文提出的DCCFS的聚类性能优于其他同类算法。
Abstract: Concept decomposition algorithm (CF) is a classical data representation that has been widely used in machine vision, pattern recognition and other fields. In response to the fact that the basic CF method is an unsupervised learning algorithm that does not consider the geometric structure information and the class information of the samples present in the data space and feature space, and also does not take into account the sparsity of the decomposition results, this paper proposes a novel method named constrained concept factorization based on sparseness constraints and dual graph regularization for data representation (DCCFS) to overcome the above defects. This method constructs the geometric structure information in the sample data space and feature space unchanged, which extracts the features of the data more effectively and enhances the data expression ability of the algorithm; by using the natural label information in the data to enhance the identification ability of the algorithm; DCCFS adds the smooth sparse constraint to make the matrix factorization process more stable, smooth, which makes sure that the results are more accurate. The experimental results on COIL20 image dataset, PIE face dataset and TDT2 text dataset show that the DCCFS method can provide better representation for high-dimensional data and effectively improve the clustering performance.
文章引用:翁宗慧, 由从哲. 基于稀疏约束和对偶图正则化的受限概念分解算法及在数据表示中的应用[J]. 计算机科学与应用, 2022, 12(4): 1031-1042. https://doi.org/10.12677/CSA.2022.124106

1. 引言

低秩矩阵分解是科学计算、数据挖掘和计算机视觉中最有用的工具之一。如何从高维数据中探索有效的数据低维表示方法至今仍是一个基础课题 [1] [2] [3]。近些年来,低维数据表示技术受到了研究人员的关注,并被广泛应用于数据挖掘、计算机视觉和信息检索等领域。常用的低维数据表示技术是矩阵分解,其目的是获得两个或多个低维矩阵,并使其乘积尽可能接近原始数据矩阵。使用矩阵分解技术可以保留原始高维图像的特征信息、挖掘出图像蕴含的现在的语义结构,有利于机器学习、计算机视觉等领域的进一步发展。一些典型的矩阵分解算法有主成分分析(principal component analysis, PCA) [4]、矢量量化(vector quantization, VQ) [5]、奇异值分解(singular value decomposition, SVD) [6]、线性判别分析(Linear discriminant analysis, LDA) [7]、非负矩阵分解(Non-negative matrix factorization, NMF) [8]、概念分解(Concept Factorization, CF) [9] 以及与深度学习技术相结合的一些列矩阵分解方法 [10] [11]。在以上矩阵分解方法中,非负矩阵分解(NMF)和概念分解(CF)作为两个有效的数据降维工具,受到了研究人员的青睐,已被广泛应用于数据分析的任务中。

假设存在一个高维矩阵,NMF的分解目标是将该高维矩阵转化为两个低维矩阵的乘积,使用两个低维矩阵(基矩阵和系数矩阵)的乘积来近似原始高维矩阵。同时,NMF还有一个最基本的附加条件,即两个低维矩阵中的所有的元素都是非负,只进行加法运算而不进行减法运算,因此,NMF是一个整体基于部分的图像表示方法,在心理和生理上具有较强的解释性。该附加条件使得NMF在处理图像、文档等聚类任务时优于PCA、SVD、LDA等传统数据降维算法。但是,NMF无法处理数据中由噪声造成的含有负元素的数据矩阵,这使得NMF在处理实际问题时具有局限性。为了解决此类问题,Xu等提出概念分解算法(CF)用于文本聚类以及图像表达。CF不仅可以解决由噪声引起的矩阵中含负元素问题,无需考虑正负,还可以处理高维数据,并可以很容易的对其进行核化,保留了NMF所有的优点。CF算法的核心思想是建立一个聚类模型,其中每个聚类由数据点的线性组合表示,每个数据点由聚类中心的线性组合表示。

Cai等在流形学习的基础上,利用流形学习的思想对基本的NMF和CF的模型中进行改进,提出了GNMF [12] 和LCCF [13]。主要工作是对基本的NMF和CF模型中施加图正则化以保证了数据间的几何流形结构不变。Liu等人 [14] 为了数据间存在的标签信息,将基本的CF模型改进为一种半监督的学习算法,提出了一种基于局部受限的概念分解(LC-CF)方法,LC-CF对基本的CF模型施加局部正则化约束,通过提取与部分已知标签信息一致的图像信息,并使具有相同标签的数据点在低维空间中被映射至同一点上。Tang [15] 在考虑数据流形的基础上,还考虑了特征流形,提出了ODGNMF算法,扩展了GNMF的学习能力。但是,以上的均从数据的先验知识方面对NMF或CF加以改进,没有考虑到算法的稀疏性。研究表明 [16] [17] [18],对算法施加稀疏约束,使得算法可以学习数据的稀疏表示,有效提高算法的鲁棒性,进一步提高分解结果稳定性、平滑性,使得算法具有更高的学习效率。

因此,本文提出了一种新的方法,称为基于稀疏约束和对偶图正则化的受限概念分解算法(Constrained Concept Factorization Based on Sparseness Constraints and Dual graph regularization, DCCFS)用于数据表示。DCCFS不仅利用流形学习的思想考虑了数据空间流形和特征空间流形上的内部几何结构,而且还利用了无参数的标记样本的标签信息,将基本的无监督CF算法扩展为半监督算法,增强了算法的鉴别能力,最后,加入了 L P 平滑约束以考虑算法的稀疏性。为了得到该算法的迭代式,我们提出了一种基于乘法更新算法的高效优化算法来解决所提出的模型。在几个公共数据集上的实验表明,我们提出的DCCFS方法优于相关的最先进方法。

2. 相关工作

2.1. 非负矩阵分解(NMF)

假设有一原始非负矩阵 X = [ x i j ] M × N 被分解成两个低维矩阵,分别为 U = [ u i k ] M × K V = [ v j k ] N × K ,两个低维矩阵得乘积无限逼近原始矩阵,则NMF的表达式如下:

O N M F = i = 1 N j = 1 M ( X i j ( U V T ) i j ) 2 = X U V T F 2 s .t . U 0 , V 0 (2.1)

其中 F 代表范德蒙范数, K min ( M , N ) 。M表示维度,N表示样本总数,U表示基矩阵,V表示系数矩阵也称作权重矩阵。使用交替乘性更新算法可得到NMF的迭代规则如下:

u i k u i j ( X V ) i j ( U V T V ) i j (2.2)

v j k v i j ( X T U ) i j ( V U T U ) i j (2.3)

由于 K min ( M , N ) ,此时基矩阵U和系数矩阵V的秩远小于原始矩阵X的秩,此时便实现了由高维矩阵到低维矩阵的降维。

2.2. 概念分解(CF)

假设有一矩阵 X = [ x i j ] M × N ,CF的任务是找到基矩阵 V = [ v i j ] N × K ,系数矩阵 W = [ w i j ] N × K v j 称为基向量,是数据样本的非线性组合, v j 可表示如下:

v j = i W i j X i ( W i j 0 ) (2.4)

其中 W = [ w i j ] N × K 。因此CF的目的是找到低秩矩阵WV,使得WV的乘积满足以下关系:

X X W V T (2.5)

使用Frobenius范数,CF的目标函数可表示为:

O C F = X X W V T F 2 s .t . W > 0 , V > 0 (2.6)

使用交替乘性更新算法求解 CF 的目标函数,CF的更新规则可以表示为:

W i j t +1 W i j t ( K V ) j k ( K W V T V ) j k (2.7)

V i j t +1 V i j t ( K W ) i j ( V W T K W ) i j (2.8)

其中, K = X T X

3. 基于稀疏约束和对偶图正则化的受限概念分解算法(DCCFS)

3.1. 引言

流形学习 [19] 表明,数据中存在有潜在的低维子流形,称之为数据流形。数据点间的几何拓扑结构都会在数据流形上显示。研究表明 [20],数据间的特征同样也分布在一个低维子流形上,可将之称为特征流形 [19],因此在对数据降维时,需要同时考虑到原始数据空间中存在的数据流性几何结构信息以及特征空间上的特征流形几何结构信息。通过构造数据图和特征图模型,刻画数据流形和特征流形的几何结构,可以保证数据在低维空间中仍然保持了高维空间中几何结构信息,保证算法学习的质量,因此该方法也被称为构造对偶图。

但是,该方法没有考虑到数据中潜在的类别信息。现实中的数据含有潜在的类别信息,人为的对这些类别信息添加标签,可以使之转化为标记信息。有效的利用样本中存在的标记信息将会提高算法的精度与数据表达能力,因此,在流形学习的基础上结合标记信息,将基本的CF算法从无监督转化为半监督是很有必要的。最后,考虑到算法的稀疏性,使用 L P 平滑约束可以滤除无用特征信息、防止过拟合、得到更加稀疏的特征向量,算法得到一个准确、平滑的解。

DCCFS通过 L P 平滑约束提高算法的稀疏性,构造偶图得到样本数据空间和特征空间的流形结构信息,提高了算法的数据的挖掘能力,最后将标签信息转化为硬约束,揭示隐藏语义,提高算法的学习能力。

3.2. 构造对偶图正则项

研究表明,样本的数据不仅存在于非线性的低维流形上(数据流形),数据的特征也存在于非线性流形上,称为特征流形。因此,可以构造数据流形和特征流形的最邻近图的几何结构来有效建模数据流形和特征流形的几何结构。

假设存在一个k最近邻数据图,其顶点对应于 { X 1 , , X N } ,使用0~1加权方案来构造k最近邻图,并定义数据权重矩阵如下:

S i j V = { 1 , if x j N p ( x i ) ; 0 , otherwise i , j = 1 , , n (3.1)

其中, N p ( x i ) x i p邻近集,数据图的拉普拉斯矩阵定义为:

L V = D V S V (3.2)

其中, D V 是对角线矩阵, D i i V = j S i j V

假设存在矩阵V为待求的低维数据表示, V = [ v 1 T , v 2 T , , v n T ] R n × k ,通过前文定义的 S V ,可以使用 1 衡量数据在低维表示的空间中的光滑程度,定义如下:

1 = 1 2 i , j = 1 n v i v j 2 S i j V = i = 1 n v i v i T D i i V i , j = 1 n v i v j T S i j V = T r ( V T D V V ) T r ( V T S V V ) = T r ( V T L V V ) (3.3)

其中, T r ( ) 表示矩阵的迹。为了尽可能使得数据集在低维空间中保持光滑,需要最小化 1 ,即如果两个数据点 x i x j 距离较近,则两点在低维空间中对应的点 v i v j 距离也是彼此接近的。此时通过最小化 1 ,保证高维空间中映射到低维空间中的点保持光滑。因此,式(3.3)也被称为数据图的拉普拉斯正则项。

同样的方法,构造一个p最近邻点特征图,其顶点对应于 { x 1 T , , x m T } ,然后使用0~1加权方案来构造特征矩阵,并定义数据权重矩阵如下:

S i j U = { 1 , if x j T M p ( x i T ) ; 0 , otherwise i , j = 1 , , m (3.4)

其中, M p ( x i T ) x i T p邻近集,特征图的拉普拉斯矩阵定义为:

L U = D U S U (3.5)

其中, D U 是对角矩阵, D i i U = j S i j U

U = [ u 1 T , u 2 T , , u m T ] R m × k 为待求的低维数据表示,使用 2 衡量数据在低维表示的空间中的光滑程度,定义如下:

2 = 1 2 i , j = 1 m u i u j 2 S i j U = i = 1 m u i u i T D i i U i , j = 1 m u i u j T S i j U = T r ( U T D U U ) T r ( U T S U U ) = T r ( U T L U U ) (3.6)

3.3. 构造受限矩阵

CF是一种无监督学习算法,没有考虑样本的类别信息,不能直接应用于标签信息可用的情况。相关研究表明将数据中的标签信息转化为硬约束可以有效提高算法的鉴别能力以及算法的聚类性能。假设数据集 { x i } i = 1 n 中前l个样本已标记,剩余 n l 个为未标记样本,数据集X可被划为C个集簇。前l个数据点都被标记为这些集簇中的一个。由此建立个指示矩阵 M l × c ,假设x被标记为第j个集簇,则 m i j = 1 否则 m i j = 0 ,此时矩阵A如下:

A = ( M l × c 0 0 I n l ) (3.7)

其中I是单位矩阵。为了充分利用标签信息,通过引入辅助矩阵Z施加标签约束。系数矩阵可以重写如下:

V = A Z (3.8)

3.4. DCCFS目标函数

为了充分利用数据的先验知识,如数据流形和特征流形的几何结构信息、标签信息以及算法的稀疏性,本文提出了一种新的图像表示方法DCCFS。DCCFS尽可能地考虑了更多的先验知识,因此与传统的CF方法相比具有更强的表示能力。拟议DCCFS方法的目标函数如下所示:

O F = X X W Z T A T F 2 + λ T r ( Z T A T L Z A Z ) + α T r ( W T L W W ) + 2 μ W p (3.9)

其中 L Z = L V = D Z S Z L W = X T L U X = X T ( D U S U ) X = D W S W A代表标签约束矩阵,而Z表示一个辅助矩阵,系数矩阵 V = A Z λ 0 α 0 μ 0 ,三者是正则化参数,均是用来平衡重建误差。P的取值在1和2间, L V L U 分别是数据图和特征图的拉普拉斯矩阵。

3.5. DCCFS目标函数求解

很明显,DCCFS的目标函数是非凸的,因此无法找到全局最优解,使用乘法迭代算法可解决此问题,具体做法为固定一个变量的情况下,对另一个变量的目标进行优化。另外,根据矩阵迹的特点, T r ( A T ) = T r ( A ) T r ( A B ) = T r ( B A ) ,此时可以实现DCCF模型的局部最小值。那么,公式(3.9)可以进一步改写如下。

O F = X X W Z T A T F 2 + λ T r ( Z T A T L Z A Z ) + α T r ( W T L W W ) + 2 μ W p = T r ( ( X X W Z T A T ) T ( X W Z T A T ) ) + λ T r ( Z T A T L Z A Z ) + α T r ( W T L W W ) + 2 μ W p = T r ( K ) 2 T r ( W T T K A Z ) + T r ( W T K W Z T A T A Z ) + λ T r ( Z T A T L Z A Z ) + α T r ( W T L W W ) + 2 μ W p (3.10)

利用乘性迭代算法,简化式(1.18)。由于 U 0 , V 0 ,假设 Ψ = [ ψ i k ] ϕ = [ φ j k ] 分别式关于UZ的拉格朗日乘数,因此,式(3.10)的拉格朗日函数L可写成如下:

L = O F + T r ( ψ W T ) + T r ( φ Z T ) (3.11)

LUZ的偏导数如下所示:

l W = 2 K A Z + 2 K W Z T A T A Z + 2 α L W W + ψ + 2 μ P W P 1 (3.12)

l Z = 2 A T K W + 2 A T A Z W T K W + 2 λ A T L Z A Z + Φ (3.13)

根据KKT条件, φ U = 0 ϕ V = 0 ,等式(3.12)和(3.13)可被改写为:

w i j t + 1 w i j t ( K A Z + α S W W ) i j ( K W Z T A T A Z + α D W W + μ P W P 1 ) i j (3.14)

z i j t + 1 z i j t ( A T K W + λ A T S Z A Z ) i j ( A T A Z W T K W + λ A T D A Z ) i j (3.15)

3.6. DCCFS算法具体步骤

本文提出的DCCFS算法迭代步骤如下表1所示:

Table 1. Iterative steps of DCCFS algorithm

表1. DCCFS算法迭代步骤

4. 数值实验

在本节中,为了评估所提出的DCCFS模型的有效性,我们在PIE、COIL20、TDT2三个公共数据集上进行了数值的实验。我们将我们提出的方法与其他方法包括KM、NMF、GNMF、CF、LCCF、GCF和DCCFS进行比较。在本实验中,将使用准确度(AC)和归一化互信息(NMI)作为所有方法的聚类评估指标。

4.1. 数据集介绍

本实验将在人脸数据集PIE、物体数据集COIL20以及文本数据集TDT2上进行。在本实验中,我们从PIE数据集中选取不同对象的11,554幅图像,图像分辨率为32 × 32,每张图片都是在不同的姿势和光照变化条件下收集的;COIL20数据集这包含了20种不同物体的图像(如具鸭、杯子等),每个物体360度,每5度拍摄一张图片,因此每个物体拥有72张图片,20个不同的物体则拥有1440张图片,图像大小为32 × 32;TDT2文本数据集共包含了56类,10,021个文档,在该数据集上本实验选取了每类数目大于10的样本用于聚类实验。

4.2. 实验介绍

在本实验中,我们从PIE数据集、COIL20数据集、TDT2数据集中随机选择K类样本进行实验,K的取值均为2到10。实验将所有挑选出来的实验图像混合放入集合X中,对于每个K值,所有方法运行20次取平均值,从而获取每种方法的准确度(AC)、归一化互信息(NMI)。实验结果如下表2~4所示:

Table 2. Clustering experimental results on PIE database

表2. PIE数据库上的聚类实验结果

Table 3. Clustering experimental results on COIL20 database

表3. COIL20数据库上的聚类实验结果

Table 4. Clustering experimental results on TDT2 database

表4. TDT2数据库上的聚类实验结果

4.3. 实验结果及实验结果分析

1) 表2~4分别为PIE、COIL20、TDT2三个数据集上的聚类实验。从表2中可以看出,DCCFS的平均AC和人平均NMI比基本的CF分别高6.63%和8.98%;比LCCF分别高出4.92%和7.8%;比GCF分别高2.46%和5.26%。从表3表4中也能得到类似的数据,充分说明了DCCFS的优越性。

2) 从表2~4可以看出,LCCF的聚类性能比基本的CF算法优秀,这是由于LCCF采用了流形学习的思想,保证了数据内部的几何结构不变,因此实验所展现出的LCCF聚类性能较CF优越;GCF在LCCF的基础上,不仅考虑了单边流形,同时考虑了双边流形,这说明了不仅保持原有数据空间的几何结构信息不变可以提高算法的学习质量,保持特征空间的几何结构信息同样也能增强效果,使得算法具有了更加优秀的数据挖掘能力,因此性能比LCCF更好。

3) 本章提出的DCCFS比GCF的聚类性能更好,主要原因是DCCFS考虑到了数据的标签信息以及算法分解的稀疏性。前者通过构造受限矩阵对标签信息施加硬约束,使得高维空间中属于同一类的样本可以投影到低维空间中的同一点上,将原本无监督的算法改造成了半监督的算法,提高了算法的鉴别能力和学习能力,后者通过人为添加 L P 平滑约束, L P 利用 L 1 范数可以有效增加稀疏, L 2 范数可以有效增加平滑的特点提高了算法的稀疏性,使得算法分解平稳、平滑、精确。

4.4. 参数选择

本文提出的DCCFS模型包含了四个参数 α , λ , μ , P ,因此需要研究模型对四个参数的敏感性。在CDNMFS模型中 α , λ 是对偶图参数,为方便起见,这里只需二者的值相等,即 α = λ 。设置P的取值为 1 < P < 2 ,设置 μ = ( 0 , 1 , 1 , 10 , 100 , 1000 , 2000 ) 。实验结果如图1~3所示,可以得到如下结论:

Figure 1. Evaluation experiment of regular term parameter α = λ

图1. 正则项参数 α = λ 的评估实验

Figure 2. Evaluation experiment of regular term parameter P

图2. 正则项参数P的评估实验

Figure 3. Evaluation experiment of regular term parameter μ

图3. 正则项参数 μ 的评估实验

1) 本文提出的DCCFS对于正则项参数 α λ 具有较好的不敏感性。从图1中可以看出,当两正则项参数取1~1000时,DCCFS可以取到较好的聚类性能,当超过1000时算法性能开始下降,但比其他同类算法优秀。

2) NMF、CF、LCCF、GCF的算法不含平滑约束,因此模型中不含P参数,所以这四种算法的聚类性能不随P值的变化而变化。从图2中可以看出,DCCFS的性能在大部分情况都很稳定且具有很高的性能,说明了DCCFS在P取值为1至2之间时实验效果理想。

3) 同理,NMF、CF、LCCF、GCF算法性能也不随 μ 的变化而变化。从图3中可以看出,无论 μ 取何值,DCCFS的聚类性能均优于其他算法,充分证明了对算法施加稀疏约束的设想是合理的。

5. 结论

本文主要做了以下工作:针对传统的CF算法无法在低维空间中保持原始空间中的几何结构信息、无法有效利用样本中实际存在的类别信息以及没有足够的稀疏性,本文提出了一种基于稀疏约束和对偶图正则化的受限概念分解算法(DCCFS)。本方法结合流形学习的思想在算法进行图像表达时添加对偶图正则项,进一步利用样本中的先验知识,考虑数据空间与特征空间的几何结构信息,通过构造了对偶图,使得算法的数据表示能力进一步得到了提升,可以挖掘出数据中蕴含的本质特征,提高了算法的聚类性能;为了利用数据中存在的标签性息,通过构造受限矩阵对标签信息施加硬约束,使得高维空间中属于同一类的样本可以投影到低维空间中的同一点上,将原本无监督的算法改造成半监督的算法。最后考虑到CF算法对稀疏性考虑的不够,DCCFS通过添加 L P 平滑约束,有效增加稀疏、有效增加平滑的特点使得算法可以学习数据的稀疏表示,使分解后的样本具有较高的稀疏性,算法分解平稳,分解结果平滑、精确。在三个公共数据集上的实验证明了本文提出CDDFS的有效性。

基金项目

国家自然科学青年基金,项目批准号:61902160,项目名称:基于潜在表示的不完整多视图子空间学习方法研究。

参考文献

[1] Wang, Q., He, X., Jiang, X., et al. (2020) Robust Bi-Stochastic Graph Regularized Matrix Factorization for Data Clus-tering. IEEE Transactions on Pattern Analysis and Machine Intelligence, 44, 390-403.
https://doi.org/10.1109/TPAMI.2020.3007673
[2] Peng, C., Zhang, Z., Kang, Z., et al. (2020) Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering. Information Sciences, 590, 106-141.
https://doi.org/10.1016/j.patcog.2020.107683
[3] Jiang, B., Ding, C. and Luo, B. (2018) Robust Data Representa-tion Using Locally Linear Embedding Guided PCA. Neurocomputing, 275, 523-532.
https://doi.org/10.1016/j.neucom.2017.08.053
[4] Deutsch, H.P. (2004) Principle Component Analysis. Palgrave Macmillan, London.
https://doi.org/10.1057/9781403946089_35
[5] Gray, R.M. (1990) Vector Quantization. In: Readings in Speech Recognition, Morgan Kaufmann Publishers, Burlington, 75-100.
https://doi.org/10.1016/B978-0-08-051584-7.50011-5
[6] Strang, G. (2003) Introduction to Linear Algebra. Wellesley-Cambridge Press, Wellesley.
[7] Abramson, N., Braverman, D.J. and Sebestyen, G.S. (2006) Pattern Recognition and Machine Learning. Publications of the American Statistical Association, 103, 886-887.
https://doi.org/10.1198/jasa.2008.s236
[8] Lee, D. (2000) Algorithms for Non-Negative Matrix Factorization. Proceedings of the 13th International Conference on Neural Information Processing Systems, Denver, January 2000, 535-541.
[9] Xu, W. and Gong, Y. (2004) Document Clustering by Concept Factorization. Proceedings 27th ACM/SIGIR, Sheffield, 25-29 July 2004, 202-209.
https://doi.org/10.1145/1008992.1009029
[10] Trigeorgis, G., Bousmalis, K., Zafeiriou, S. and Schuller, B.W. (2017) A Deep Matrix Factorization Method for Learning Attribute Rep-resentations. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 417-429.
https://doi.org/10.1109/TPAMI.2016.2554555
[11] Su, X., Hu, L., You, Z., et al. (2021) A Deep Learning Method for Repurposing Antiviral Drugs against New Viruses via Multi-View Nonnegative Matrix Factorization and Its Appli-cation to SARS-CoV-2. Briefings in Bioinformatics, 23, 1-15.
https://doi.org/10.1093/bib/bbab526
[12] Cai, D., He, X.F., Han, J.W., et al. (2011) Graph Regularized Nonnegative Matrix Factorization for Data Representation. IEEE Trans on Pattern Analysis and Machine Intelligence, 33, 1548-1560.
https://doi.org/10.1109/TPAMI.2010.231
[13] Cai, D., He, X.F., Han, J.W., et al. (2011) Locally Consistent Con-cept Factorization for Document Clustering. IEEE Trans on Knowledge and Data Engineering, 23, 902-913.
https://doi.org/10.1109/TKDE.2010.165
[14] Liu, H., Yang, G., Wu, Z., et al. (2014) Locality-Constrained Concept Factorization for Image Representation. IEEE Transactions on Cybernetics, 44, 1214-1224.
https://doi.org/10.1109/TCYB.2013.2287103
[15] Tang, J. and Wan, Z. (2021) Orthogonal Dual Graph-Regularized Nonnegative Matrix Factorization for Co-Clustering. Journal of Scientific Computing, 87, Article No. 66.
https://doi.org/10.1007/s10915-021-01489-w
[16] Ke, Q. and Kanade, T. (2005) Robust L1 Norm Factorization in the Presence of Outliers and Missing Data by Alternative Convex Programming. IEEE Computer Society Conference on Computer Vision & Pattern Recognition, Vol. 1, 739-746.
[17] Shen, B., Liu, B.D., Wang, Q.F., et al. (2014) Robust Nonnegative Matrix Factorization via L1 Norm Regularization by Multiplicative Updating Rules. In: Proceedings of the International Conference on Image Processing, IEEE Computer Society Press, Los Alamitos, 5282-5286.
https://doi.org/10.1109/ICIP.2014.7026069
[18] Leng, C., Zhang, H., Cai, G., et al. (2019) Graph Regularized Lp Smooth Non-Negative Matrix Factorization for Data Representation. IEEE/CAA Journal of Automatica Sinica, 6, 584-595.
https://doi.org/10.1109/JAS.2019.1911417
[19] Seung, H. and Lee, D. (2000) The Manifold Ways of Perception. Science, 290, 2268-2269.
https://doi.org/10.1126/science.290.5500.2268
[20] Gu, Q. and Zhou, J. (2009) Co-Clustering on Manifolds. Pro-ceedings of the 15th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD), Paris, 28 June-1 July 2009, 359-368.
https://doi.org/10.1145/1557019.1557063