基于重构残差保持的深度矩阵分解的多视图聚类
Multi-View Clustering Based on Deep Matrix Factorization with Local Residual Preserving
DOI: 10.12677/csa.2024.144083, PDF, HTML, XML, 下载: 47  浏览: 70 
作者: 李家庆:广东工业大学自动化学院,广东 广州
关键词: 多视图聚类深度矩阵分解重构残差图嵌入Multi-View Clustering Deep Matrix Factorization Reconstruction Residual Graph Embedding
摘要: 多视图聚类是机器学习中的一个基本问题,近年来,基于矩阵分解用于学习多视图数据获得广泛的关注,并且取得了不错的效果。然而,我们发现现有的多视图聚类方法大多主要关注多视图数据所蕴含的重要属性,即一致性和互补性,而忽略了属于单个视图的特定统计属性。为此,本文提出一个矩阵深度矩阵分解的局部残差保持的多视图聚类算法(LRPDMF),我们通过图嵌入的方式,捕捉到每个视图的特定统计属性,保证每一层的数据重构,相似的数据点具有相似的重建残差。在融合阶段的,我们利用这些学习到的特征,由于不同的视图可能会有不同的权重,我们利用自适应的方式将他们逼近到一个相似低维空间。在不同的数据集上,我们的LRPDMF与现在最先进的方法比较,获得不错的实验效果。
Abstract: Multi-view clustering is a fundamental problem in machine learning, and in recent years, the use of matrix factorization-based for learning multi-view data has gained widespread attention and achieved good results. However, we find that most of the existing multi-view clustering methods mainly focus on the important attributes embedded in multi-view data, i.e., consistency and complementarity, while ignoring the specific statistical properties belonging to individual views. To this end, in this paper, we propose a local residual preserving multi-view clustering algorithm with deep matrix factorization (LRPDMF), where we capture the specific statistical properties of each view by means of graph embedding, which ensures that the data is reconstructed at each layer and similar data points have similar reconstructed residuals. In the fusion phase, we utilize these learned features, and since different views may have different weights, we approximate them to a similar low-dimensional space using an adaptive approach. On different datasets, our LRPDMF obtains good experimental results when compared with the state-of-the-art methods.
文章引用:李家庆. 基于重构残差保持的深度矩阵分解的多视图聚类[J]. 计算机科学与应用, 2024, 14(4): 123-132. https://doi.org/10.12677/csa.2024.144083

1. 引言

在海量的数据中,如何挖掘到准确有效的数据成为机器学习关注一个重点。而无监督聚类是数据挖掘中一种有效的方法,它的目标是将具有相似属性的数据点分到相同的簇中。但寻找数据之间的相似性仍然是一个具有挑战性的问题。传统的聚类只是从单一视图获得聚类结果,但是面对数据激增的情况下,单单从单一试图获得聚类结果已经缺乏一些广泛使用的场景。一些研究也表明,与从单一视图中提取信息相比,从多视图中提取信息可以获得精确的聚类结果 [1] 。在这个大数据集时代,如何学习到准确的多视图信息变得尤为重要。

多视图学习问题的解决方案包括协同训练、多核学习(MKL)、图学习和子空间学习 [2] 。最早解决多视图学习问题的方法是协同训练 [3] 。通过交替训练未标记数据上的两个视图,协同训练可以最大限度地提高两个视图之间的相互一致性。联合训练在半监督学习和聚类中取得了巨大成功。MKL用于多视图学习 [4] 。MKL中的每个内核自然对应一个视图,不同内核的组合可以是线性或非线性,这两种方式都能提高学习性能。基于图的多视图学习方法是为每个视图构建一个图,并通过图融合使用多个视图的信息进行学习 [5] [6] 。对于基于子空间学习的多视图学习问题,我们假定每个视图都由一个潜在子空间生成,然后我们需要找到不同视图共享的潜在空间的表示 [7] 。基于子空间的学习方法应用于多视图学习有一个优势。潜在子空间的维度通常低于任何输入的维度,因此可以在一定程度上消除“维度诅咒”问题。获得潜在子空间后,所有视图都会被投射到这个子空间中,从而共同完成所需的任务。

近年来,矩阵分解也是一种常见的降维方法,近年来,用于多视图聚类的矩阵方法也取得了很不错的效果。Liu等人 [1] 提出了联合的非负分解矩阵的多视图聚类算法,不同视图生成一个不同的编码矩阵,约束不同视图的编码矩阵趋向一致,生成一个共享的编码矩阵。Liang等人 [8] 通过对基础矩阵和编码矩阵施加正交约束,可以很好地学习每个视图的信息多样性。单层的矩阵分解已经不能很好地学习到准确的特征,Trigeorgis等人 [9] 首次提出了深度矩阵分解,相比于单层的矩阵分解,深度矩阵分解能够更好地挖掘数据的潜在信息。Zhao等人 [10] 将深度矩阵分解用到多视图聚类当中,在最后一层的分解中,还利用图结构学习更抽象的特征。Li等人 [11] 提出了图约束的深度矩阵分解的多视图聚类算法,并对每一层的分解都加上图约束,更好地学习到了每个视图的特征。

但我们发现这些方法忽略了属于单个视图的特定统计属性。所以,我们提出了一个基于局部残差保持的深度矩阵分解的算法。为了能够保持每个视图的特有属性,我们用到了图嵌入的方法,确保每一个相似点能够分配到相似的重构残差。换句话说,在分解的过程中局部残差的保持有利于学到每个视图的特有属性。在融合策略上,我们将最后一层分解的矩阵,用自适应的方式强制集中起来,寻找到一个更加准确的潜在空间。

本篇文章的主要贡献点为:(1) 提出了局部残差保持与深度矩阵分解,并应用在多视图聚类中。(2)提出了一种新的融合策略,能更好地学习不同视图的信息。(3) 本文提出的方法与现有最先进的方法进行比较,取得了不错的效果,证明我们的方法是有效的。

2. 相关工作和基础知识

2.1. 注释

本文中的矩阵用大写字母表示。对于矩阵A,第个元素表示为 A i j 。我们将 A m × n 表示数据矩阵,其中m表示特征维度,n表示实例数。 A F 表示矩阵A的Frobenius范数, A T 表示矩阵A的转置, t r ( A ) 表示矩阵A的迹。I表示单位矩阵。

2.2. 深度半非负矩阵分解

在许多情况下,我们需要分析的数据是会相当复杂化,而单层的矩阵分解已经不能很好地完成任务。Trigeorgis等人 [9] 首次提出了深度半非负矩阵(Deep Semi-NMF)的方法,与单层矩阵分解,深度半非负矩阵分解能够更好地表示这些复杂的数据。对于数据我们可以由以下分解:

Q l 1 P l Q l Q 2 P 3 P l Q l Q 1 P 2 P l Q l (1)

其中l是层数。我们利用F范数Deep Semi-NMF构建损失函数,如下所示:

Ο DeepSemi-NMF = X P 1 P 2 P l Q l F 2 (2)

矩阵P的更新规则,当优化第i层的矩阵Pi时,我们固定其他的矩阵。我们设置 Ο DeepSemi-NMF P i = 0 ,能够得到:

P i = ϕ X Q i (3)

其中 ϕ = P 1 P 2 . P i 1 是Moore-Penrose伪逆。

更新Qi的规则与论文提到的更新过程相似 [12] ,我们能够得到下面的式子:

Q i Q [ φ T X ] + + [ φ T φ ] Q i [ φ T X ] + [ φ T φ ] + Q i (4)

其中 [ A ] + = | A | + A 2 [ A ] = | A | A 2 φ = P 1 P 2 P i

3. 提出方法

在本节我们会具体介绍我们的方法。

数学模型

深度半非负矩阵分解相较于单层的矩阵分解,能够更好地学习数据的隐藏信息,进而获得更好的聚类结果。但是我们发现现有的基于深度矩阵分解的多视图聚类算法,每一层的分解跟传统的矩阵分解类似,都忽略了重构残差。即在数据重构的时候,相似的数据点可能会分配到不相似的重构残差,这不利于学习每个视图的独特的特征。我们利用图嵌入的方法,在每一层的数据重构过程中,令每一层学习到Q和重构残差与原始数据能够保持相似结构。确保相似的数据点能够分配到相似的重构残差,更好的学习每个视图都有的特征。在视图融合策略上,我们利用自适应的方式让不同视图学习到的潜在空间相加,这样对于视图的重要性我们可以做到一个区分,重要视图占的比重更大,而不是所以视图都是在同一重要性,这有利于学到更好的潜在表达,提升算法灵活性。我们希望这些矩阵能够寻找到一个准确的共享潜在空间,根据论文提到 [13] ,基于对矩阵的广义低阶逼近,我们选择了一个宽松的谱嵌入结果FR,并将其用于潜在特征表示。这样,我们就可以使跨视角约束更加灵活,并获得更广阔的低维空间。当我们给定一个 X = { X 1 , X 2 , , X H } 具有H个视图的多视图数据, X ( v ) m v × n ,我们提出的局部残差保持的深度矩阵算法(LRPDMF)的目标函数为:

min P k ( v ) , Q k ( v ) , F , R , α ( v ) v = 1 H i = 1 n j = 1 n X * i ( v ) P 1 ( v ) P 2 ( v ) P l ( v ) ( Q l ) * j ( v ) 2 2 W i j ( v ) + v = 1 H α ( v ) ( H l ( v ) ) T H l ( v ) F R T s .t . Q k ( v ) 0 , F T F = I , v = 1 H α ( v ) = 1 , α ( v ) 0. (5)

其中, X * i ( v ) 表示 X ( v ) 的第i列, ( Q l ) * j ( v ) 表示 Q l ( v ) 的第j列。我们构造了一个0-1加权图 W ( v ) 来表示最近邻关系:

W i j ( v ) = { 1 , if X * i ( v ) ϕ q ( X * j ( v ) ) or X * j ( v ) ϕ q ( X * i ( v ) ) 0 , otherwise (6)

其中,其中 ϕ q ( X * i ( v ) ) 表示示例 X * i ( v ) 的最近邻居的集合。

4. 算法优化

为实现目标函数,我们使用迭代优化的策略更新参数。

4.1. 关于 P k ( v ) 的子问题

Q k ( v ) ,F,R, α ( v ) 被固定时,每一个 P k ( v ) 是相互独立的,且任意一个视图的 P k 也是相互独立的,因此我们以任意视图为例,关于 P k 的优化式子可以写成:

C = i = 1 n j = 1 n X * j ϕ P k ( Q k ) * i 2 2 W i j (7)

其中 ϕ = P 1 , P 2 , , P k 1

特别的,公式(7)可以进一步写成:

C = i = 1 n j = 1 n X * j ϕ P k ( Q k ) * i 2 2 W i j = t r ( X D X T 2 X W Q k T P k T ϕ T + ϕ P k Q k D Q k T P k T ϕ T ) (8)

其中W的行(或列)和是对角矩阵D的元素,即 D i i = j W i j

目标函数(8)对Pk求偏导数,有:

C P k = ϕ T X W ( Q k ) T + ϕ T ϕ P k Q k D Q k T (9)

我们设置 C P k = 0 ,很容易得到:

P k = ( ϕ T ϕ ) 1 ϕ T X W Q k T ( Q k D Q k T ) 1 (10)

4.2. 关于 Q k ( v ) 的子问题

P k ( v ) ,F,R,α(v)被固定时,且 k < l Q k ( v ) 是相互独立的,且任意一个视图的Qk也是相互独立的,因此我们以任意视图为例,关于Qk的优化式子可以写成:

C = i = 1 n j = 1 n X * i φ Q * J 2 2 W i j (11)

其中 φ = P 1 P 2 P k

特别地,公式(11)可以被进一步写成:

C = i = 1 n j = 1 n X * i φ Q * J 2 2 W i j = t r ( X D X T 2 X W Q k T φ T + φ Q k D Q k T φ T ) (12)

根据论文,我们可以得到Qk k < l的更新规则为:

Q k = Q k [ φ T X ] + W + [ φ T φ ] Q k D [ φ T X ] W + [ φ T φ ] + Q k D (13)

当k = l时, P k ( v ) ,F,R,α(v)被固定时。关于 Q l ( v ) 的优化式子可以写成:

C = i = 1 n j = 1 n X * i ( v ) φ ( Q l ) * j ( v ) 2 2 W i j ( v ) + α ( v ) Q l ( v ) Q l ( v ) + G F R T F 2 = t r ( X ( v ) D ( v ) X ( v ) T 2 X ( v ) W ( v ) ( Q l ( v ) ) T φ T + φ Q l ( v ) D ( v ) ( Q l ( v ) ) T φ T ) + β α ( v ) Q l ( v ) Q l ( v ) + G F R T F 2 (14)

其中 φ = P 1 P 2 P l G = o = 1. o v H α ( o ) ( Q l ( o ) ) T Q l ( o )

公式(14)可以进一步转换成拉格朗日函数:

L ( Q l ( v ) ) = t r ( X ( v ) D ( v ) X ( v ) T 2 X ( v ) W ( v ) ( Q l ( v ) ) T φ T + φ Q l ( v ) D ( v ) ( Q l ( v ) ) T φ T ) + β α ( v ) Q l ( v ) Q l ( v ) + G F R T F 2 t r ( η Q l ( v ) ) (15)

我们设置 L Q l ( v ) = 0

L Q l ( v ) = 2 ( φ T φ Q l ( v ) D ( v ) φ T X ( v ) W ( v ) 2 β α ( v ) Q l ( v ) R F T + 2 β ( α ( v ) ) 2 Q l ( v ) ( Q l ( v ) ) T Q l ( v ) + 2 β α ( v ) Q l ( v ) + 2 β α ( v ) Q l ( v ) G ) η = 0 (16)

从互补松弛条件,我们可以得到:

( φ T φ Q l ( v ) D ( v ) φ T X ( v ) W ( v ) 2 β α ( v ) Q l ( v ) R F T + 2 β ( α ( v ) ) 2 Q l ( v ) ( Q l ( v ) ) T Q l ( v ) + 2 β α ( v ) Q l ( v ) + 2 β α ( v ) Q l ( v ) G ) Q l ( v ) = η Q l ( v ) = 0 (17)

我们把两边都乘以 Q l ( v ) ,我们可以得到:

( φ T φ Q l ( v ) D ( v ) φ T X ( v ) W ( v ) 2 β α ( v ) Q l ( v ) R F T + 2 β ( α ( v ) ) 2 Q l ( v ) ( Q l ( v ) ) T Q l ( v ) + 2 β α ( v ) Q l ( v ) + 2 β α ( v ) Q l ( v ) G ) ( Q l ( v ) ) 2 = 0 (18)

公式(18)是一个不动点方程,我们可以得到 Q l ( v ) 的更新规则为:

Q l ( v ) = Q l ( v ) Z H S Z H V (19)

其中 Z H S = [ φ T X ( v ) ] + W ( v ) + [ φ T φ ] Q l ( v ) D ( v ) + 2 β α ( v ) Q l ( v ) [ R F T ] +

Z H V = [ φ T X ( v ) ] W ( v ) + [ φ T φ ] + Q l ( v ) D ( v ) + 2 β α ( v ) Q l ( v ) [ R F T ] + 2 β α ( v ) Q l ( v ) ( Q l ( v ) ) T Q l ( v ) + 2 β α ( v ) Q l ( v ) + 2 β α ( v ) Q l ( v ) G

4.3. 关于R的子问题

Q k ( v ) P k ( v ) ,F,α(v)被固定时,R的优化问题可以被写成:

min R β v = 1 H α ( v ) ( Q l ( v ) ) T Q l ( v ) F R T F 2 (20)

根据正交约束 F T F = I ,我们可以得到公式(20)的解析解如下:

R = v = 1 H α ( v ) ( Q l ( v ) ) T Q l ( v ) F (21)

4.4. 关于F的子问题

Q k ( v ) P k ( v ) ,R,α(v)被固定时,F的优化问题可以被写成:

min s .t . F T F = I β v = 1 H α ( v ) ( Q l ( v ) ) T Q l ( v ) F R T F 2 (22)

根据正交约束,公式(22)可以等价为:

max F T F ( F v = 1 H α ( v ) ( Q l ( v ) ) T Q l ( v ) R ) (23)

公式(23)是正交Procrustes问题,我们根据Fang等人 [14] 提出的求解方法。我们可以得到变量F的解析解:如果 S V D = ( v = 1 H α ( v ) ( Q l ( v ) ) T Q l ( v ) R ) = U S V T ,那么F = UVT

4.5. 关于α的子问题

Q k ( v ) P k ( v ) ,F,R被固定时,α的优化问题可以被写成:

min α v = 1 H α ( v ) ( Q l ( v ) ) T Q l ( v ) F R T F 2 s .t . v = 1 H α ( v ) = 1 , α ( v ) > 0 (24)

S = v = 1 H ( Q l ( v ) ) T Q l ( v ) ,Z = FRT。我们有:

S Z F 2 = t r ( S T S ) t r ( 2 S Z T ) (25)

因为 S = v = 1 H ( Q l ( v ) ) T Q l ( v ) ,所以S = ST,从而公式(25)可以被写成:

min α 1 2 α T A α f T α s .t . α 0 (26)

其中上述提到的变量定义如下:

f T = [ f 1 , f 2 , , f H ] , f v = t r ( ( Q l ( v ) ) T Q l ( v ) R F T ) , A p q = t r ( ( Q l ( p ) ) T Q l ( p ) ( Q l ( q ) ) T Q l ( q ) ) , α = [ α ( 1 ) , α ( 2 ) , , α ( H ) ] . (27)

根据二次规划,公式(26)可以被求解。

5. 实验评估与分析

5.1. 实验设置

实验中我们用到三个数据集,我们对这三个数据集进行了简明扼要的描述。表1汇总了这些数据集的统计数据。本次实验,我们与当前最先进的方法进行比较,分别为MultiNMF [1] ,LPDiNMF [15] ,NMFCC [8] ,DMF-MVC [10] ,MvDGNMF [11] 。为了评估模型的性能,本文采用了三个评估指标:准确率(ACC) [16] 、归一化信息(NMI) [16] 和纯度(Purity) [17] 。这些指标值越高,说明算法性能越好。为了进行严格和公正的比较,每种方法都重复10次,以减少初始误差的影响。我们记录了结果的平均值和标准偏差。所有方法我们都根据原始出版物中的参数进行配置。

Table 1. Statistics of the datasets

表1. 数据集统计

5.2. 聚类算法对比结果

表2表3表4、展示了我们的算法与其他多视图算法在三个真实数据集上的聚类性能比较。我们提出的算法在三个数据中都取得了最好的结果。根据这些表格,我们可以得出以下结论:与MultiNMF、LPDiNMF、NMFCC基于矩阵分解方法相比,我们的方法取得了更好的聚类结果。相比于单层的矩阵分解,深度矩阵分解能够更好地挖掘数据的潜在信息,不同层次的信息能够被更好地表达。这种能力使我们处于优势地位,获得了更好的聚类结果。与深度矩阵分解方法(如DMF-MVC、MvDGNMF)相比,我们的方法在所有数据集上都取得了更好的结果,虽然我们的方法都是基于深度矩阵分解的方法,但是他们都忽略了每一层的重构残差,从而每一个视图的独有特征没有很好地被学习到,而我们提出的局部残差保持,在每一层的分解中都确保相似的重构残差能够分配到相似的数据点,每个视图的独有特征能更好地学习到,所以我们的方法取得了最好的聚类结果。所以,我们提出的算法是有效的。

Table 2. Clustering performance on BBCSport (%)

表2. 在BBCSport数据集上的聚类结果

Table 3. Clustering performance on BBC (%)

表3. 在BBC数据集上的聚类结果

Table 4. Clustering performance on HW (%)

表4. 在HW数据集上的聚类结果

5.3. 收敛分析

为了验证算法的收敛特性,我们在三个不同的数据集上进行了测试,迭代曲线如图1图2图3所示。随着迭代次数的增加,目标函数值逐渐趋于平稳,最终实现收敛。这证明了我们所采用的迭代优化方法的有效性。

Figure 1. The objective function values of LRPDMF the versus number of iterations

图1. LRPDMF的目标函数值与迭代次数的关系

Figure 2. The objective function values of LRPDMF the versus number of iterations

图2. LRPDMF的目标函数值与迭代次数的关系

Figure 3. The objective function values of LRPDMF the versus number of iterations

图3. LRPDMF的目标函数值与迭代次数的关系

6. 总结

本文提出了一种局部残差保持的深度矩阵分解的多视图聚类算法,一方面,我们在每一层的分解都对局部残差进行了保持,所以我们能够更好地学习到每个视图的独有特征。另一方面,我们用自适应的方法来衡量不同视图的重要性,使其过滤掉一些无关信息,寻找到一个更加准确的潜在空间。在三个数据集上的实验证明了我们的算法是有效的。

参考文献

[1] Liu, J., Wang, C., Gao, J. and Han, J. (2013) Multi-View Clustering via Joint Nonnegative Matrix Factorization. Proceedings of the 2013 SIAM International Conference on Data Mining, Austin, 2-4 May 2013, 252-260.
https://doi.org/10.1137/1.9781611972832.28
[2] Yang, Y. and Wang, H. (2018) Multi-View Clustering: A Survey. Big Data Mining and Analytics, 1, 83-107.
https://doi.org/10.26599/BDMA.2018.9020003
[3] Blum, A. and Mitchell, T. (1998) Combining Labeled and Unlabeled Data with Co-Training. Proceedings of the Eleventh Annual Conference on Computational Learning Theory, New York, 24-26 July 1998, 92-100.
https://doi.org/10.1145/279943.279962
[4] Liu, J., Liu, X., Xiong, J., Liao, Q., Zhou, S., Wang, S. and Yang, Y. (2020) Optimal Neighborhood Multiple Kernel Clustering with Adaptive Local Kernels. IEEE Transactions on Knowledge and Data Engineering, 34, 2872-2885.
[5] Tang, C., Liu, X., Zhu, X., Zhu, E. and Gao, W. (2020) CGD: Multi-View Clustering via Cross-View Graph Diffusion. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 5924-5931.
https://doi.org/10.1609/aaai.v34i04.6052
[6] Tang, C., Zheng, X., Liu, X., Zhang, W., Zhang, J., Xiong, J. and Wang, L. (2021) Cross-View Locality Preserved Diversity and Consensus Learning for Multi-View Unsupervised Feature Selection. IEEE Transactions on Knowledge and Data Engineering, 34, 4705-4716.
https://doi.org/10.1109/TKDE.2020.3048678
[7] Chen, M.S., Huang, L., Wang, C.D., Huang, D. and Lai, J.H. (2021) Relaxed Multi-View Clustering in Latent Embedding Space. Information Fusion, 68, 8-21.
https://doi.org/10.1016/j.inffus.2020.10.013
[8] Liang, N., Yang, Z., Li, Z., Sun, W. and Xie, S. (2020) Multi-View Clustering by Non-Negative Matrix Factorization with Co-Orthogonal Constraints. Knowledge-Based Systems, 194, Article ID: 105582.
https://doi.org/10.1016/j.knosys.2020.105582
[9] Trigeorgis, G., Bousmalis, K., Zafeiriou, S. and Schuller, B.W. (2016) A Deep Matrix Factorization Method for Learning Attribute Representations. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 417-429.
https://doi.org/10.1109/TPAMI.2016.2554555
[10] Zhao, H., Ding, Z. and Fu, Y. (2017) Multi-View Clustering via Deep Matrix Factorization. Proceedings of the AAAI Conference on Artificial Intelligence, Vancouver, 20-27 February 2024, Vol. 31, 2921-2937.
https://doi.org/10.1609/aaai.v31i1.10867
[11] Li, J., Zhou, G., Qiu, Y., Wang, Y., Zhang, Y. and Xie, S. (2020) Deep Graph Regularized Non-Negative Matrix Factorization for Multi-View Clustering. Neurocomputing, 390, 108-116.
https://doi.org/10.1016/j.neucom.2019.12.054
[12] Ding, C.H., Li, T. and Jordan, M.I. (2008) Convex and Semi-Nonnegative Matrix Factorizations. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32, 45-55.
https://doi.org/10.1109/TPAMI.2008.277
[13] Cui, J., Fu, Y., Huang, C. and Wen, J. (2022) Low-Rank Graph Completion-Based Incomplete Multiview Clustering. IEEE Transactions on Neural Networks and Learning Systems, 1-11.
https://doi.org/10.1109/TNNLS.2022.3224058
[14] Wen, J., Han, N., Fang, X., Fei, L., Yan, K. and Zhan, S. (2018) Low-Rank Preserving Projection via Graph Regularized Reconstruction. IEEE transactions on Cybernetics, 49, 1279-1291.
https://doi.org/10.1109/TCYB.2018.2799862
[15] Wang, J., Tian, F., Yu, H., Liu, C. H., Zhan, K. and Wang, X. (2017) Diverse Non-Negative Matrix Factorization for Multiview Data Representation. IEEE Transactions on Cybernetics, 48, 2620-2632.
https://doi.org/10.1109/TCYB.2017.2747400
[16] Xu, W., Liu, X. and Gong, Y. (2003) Document Clustering Based on Non-Negative Matrix Factorization. Proceedings of the 26th Annual International ACM SIGIR Conference on Research and Development in Informaion Retrieval, New York, 28 July-1 August, 2003, 267-273.
https://doi.org/10.1145/860435.860485
[17] Wang, C.D., Lai, J.H. and Philip, S.Y. (2015) Multi-View Clustering Based on Belief Propagation. IEEE Transactions on Knowledge and Data Engineering, 28, 1007-1021.
https://doi.org/10.1109/TKDE.2015.2503743