基于图神经网络与多相似度融合的推荐系统性能研究
Enhancing Recommendation System Performance with Graph Neural Networks and Multi-Similarity Fusion
摘要: 随着数据规模和信息复杂性的增加,传统的推荐系统方法很难满足现代用户的个性化需求。图神经网络作为专门为处理图结构数据而构建的方法,其引入能使推荐系统更准确地分析复杂的用户行为并预测用户偏好,而多相似度方法能从不同角度度量用户或物品之间的相似性,有助于提升推荐精度。因此,本文通过引入动态融合权重α,有效整合了图神经网络与多相似度方法,以兼顾两种方法的优势,从而提升推荐性能。本实验在数据集MovieLens100k进行,通过RMSE、MAE、AUC和Precision四项指标来评估不同模型组合和动态融合权重α下的性能表现。实验结果表明,融合GNN与多相似度模型可显著提升推荐性能,其中以GraphSAGE融合Cosine + Jaccard相似度组合表现最优。此外,引入动态融合权重α实现了良好的调节效果,尤其在GraphSAGE模型中提升明显。
Abstract: With the increasing scale of data and complexity of information, traditional recommender systems struggle to meet modern users’ personalized demands. As a methodology specifically designed for graph-structured data, Graph Neural Networks (GNNs) enable recommender systems to analyze intricate user behaviors and predict preferences more accurately. Meanwhile, multi-similarity approaches measure user/item similarities from diverse perspectives, contributing to enhanced recommendation precision. To leverage the complementary strengths of both paradigms, this paper introduces a dynamic fusion weight α to effectively integrate GNNs and multi-similarity methods, thereby improving recommendation performance. Experiments conducted on the MovieLens-100k dataset evaluated performance under varying model combinations and α values using four metrics: RMSE, MAE, AUC, and Precision. Results demonstrate that fusing GNNs with multi-similarity models significantly enhances recommendation performance, with the GraphSAGE integrated with Cosine + Jaccard similarities achieving optimal results. Furthermore, the dynamic fusion weight α provides effective regulation, yielding particularly pronounced improvements in the GraphSAGE model.
文章引用:代梦飞. 基于图神经网络与多相似度融合的推荐系统性能研究[J]. 建模与仿真, 2025, 14(8): 373-384. https://doi.org/10.12677/mos.2025.148575

1. 引言

推荐系统通过社交媒体和电子商务等平台提供个性化推荐来提升用户体验,协同过滤作为推荐系统最常用的方法之一,虽表现出良好的效果,仍存在着稀疏性和冷启动问题。图神经网络在处理图结构数据时表现出显著优势,能够通过建模高阶关系和利用图结构信息,有效缓解协同过滤方法面临的稀疏性与冷启动问题。例如在推荐系统中,图神经网络(GNNs)擅长捕捉多样且细致的交互行为——包括用户间的购买、评分、社交关联等,同时也能建模物品间的共购关系与共性属性[1]。然而,单一GNN模型存在着局限性,它的性能高度依赖图结构的质量,在用户–物品交互稀疏场景下难以有效捕捉高阶关系,且往往忽视局部相似性信号。

因此,本文研究如何将相似度与GNN模型进行有效融合,提出了一种有效且易于实现的混合策略—基于GNN的加权相似度融合。首先,提出动态融合系数α,通过可调参数平衡GNN与协同过滤的预测贡献,保证模型的效果与效率;其次,通过实验系统评估对比了五种GNN结构(GCN、GIN、GAT、GraphSAGE、LightGCN)与三类相似度策略(Cosine、Jaccard、加权结合)的融合性能,探索多相似度融合GNN的表现优势以及融合权重α对模型的性能影响。最后,为探究GraphSAGE表现优异的原因,本文比较了6种不同聚合器对GraphSAGE的性能影响并分析原因。

2. 相关理论

推荐系统是克服信息过载的有效工具,被广泛应用于各种在线平台,通过挖掘用户行为数据来帮助其找到潜在偏好。然而,传统推荐方法常面临着冷启动等问题。图神经网络(GNN)通过有效地捕捉图结构信息,为推荐系统提供了新方向。如今,图神经网络已成为推荐系统的强大工具,用于解决复杂的用户–物品关系及动态行为等难题[2]

Najafabadi [2]等人通过集成Skip-Gram嵌入增强异质GNN的相似度建模能力,验证了其在提升推荐准确性和个性化方面的有效性。Hao等人[3]提出了IMGC-GNN模型,通过构建用户–上下文–应用三层图结构,并分别学习属性表征与交互表征,显著提升了上下文感知推荐系统的准确性。Shetty等人[4]提出SFEGNN方法,通过融合边权与结构特征重叠相似度高效提取加权图的多层级最优特征组合,在节点分类任务上精度显著提升。Wang等人[5]提出了一个通用的框架,将相似度度量结合到基于KNN记忆的协同过滤方法中,从而提高了最新的CF方法的预测精度。Wang等人[6]建立了GNN-FEIP模型,通过图划分与特征增强机制提升孤立节点的表达能力,从而缓解结构无效与过平滑问题,提升整体性能。Li等人[7]提出SR-GNN,通过融合语义相似度与关系特征显著提升了图神经网络在知识图谱补全任务中的表现。Liang等人[8]提出KerGNNT模型,通过图核显式度量用户–物品子图结构相似度,并将该相似度嵌入Transformer自注意力机制以优化表征,使推荐兼具高精度与可解释性。Li等人[9]以图神经网络为核心,提出了KGSL模型,利用知识图谱语义相似度构建物品相似图,通过跨图对比学习显式建模高阶相似结构,显著提升推荐效果。胡春华等人[10]提出了一种融合用户信任关系与社会声誉的图神经网络推荐算法TSR-GM,得到更准确度量的预测评分矩阵。尽管GNN混合方法在一定程度上提升了推荐性能,但现有的混合策略多为简单线性加权,需要引入更复杂的结构,来提升模型的泛化能力。

3. 方法

本实验基于公开数据集MovieLens100k (http://www.grouplens.org),包含943位用户对1682部电影的10万条评分,评分为1到5,每个用户都至少对20部5星电影进行了评分。主要包括以下步骤:

Step1:进行数据预处理,构建用户–物品评分矩阵,并划分训练集与测试集。

Step2:计算用户相似度,包括余弦相似度(Cosine)、Jaccard相似度(Jaccard)、结合相似度(Cosine + Jaccard)。

Step3:基于相似度矩阵进行Top-K邻居评分预测,生成UserCF评分矩阵。

Step4:使用GNN (GCN、GIN、GAT、GraphSAGE、LightGCN)模型对用户和物品进行建模,学习其特征表示,并用于评分预测值。

Step5:引入融合参数α,通过指数归一化调节UserCF与GNN的评分权重,构建最终预测评分。

Step6:采用RMSE、MAE、AUC、Precision四个指标对结果进行评估。

3.1. 结合相似度

相似度是衡量两个对象相似程度的度量,在协同过滤(CF)推荐系统中,会根据用户或项目的历史评分来计算相似度。在相似度计算中,余弦相似度只考虑了两个向量的共同子集的组成部分。杰卡德指标衡量的是集合之间的重叠程度,它的公式是将交集的大小除以并集的大小。Jaccard度量可用于调整余弦测量,使相似度更可靠,如Candillier等人[11]提出了将余弦相似度或皮尔逊相关系数与杰卡德指标结合起来的方法,并且也有许多其他研究表明了在相似度计算中使用杰卡德指标的性能。

因此,本文使用的相似度度量方法为余弦相似度与Jaccard指标相结合的方法[12]

A=( a 1 , a 2 ,, a n ) B=( b 1 , b 2 ,, b n ) 为从评分矩阵中提取的两个用户或两部电影的评分向量。结合相似度计算为:

Jaccard_sim( u,vB )=sim( u,v )* | uv | | uv | (1)

其中sim(A, B)是AB之间的余弦相似度。

余弦相似度计算为:

sim( A,B )= AB | A || B | = i=1 n A i B i i=1 n A i 2 i=1 n B i 2 (2)

其中,AB表示AB的点积,|A|和|B|分别表示AB的欧氏范数(即长度)。

Jaccard相似度计算为:

Jaccard( u,v )= | I u I v | | I u I v | (3)

其中, | I u I v | 是用户uv共同评分的电影数量, | I u I v | 是用户uv所有评分电影的总数。

3.2. 结合预测公式

r ^ ui = α * r ^ ui UserCF +( 1 α * ) r ^ ui GNN (4)

α * = e α 1 e1 (5)

其中,α是融合参数 [0, 1],步长为0.01; α * 为归一化指数形式的权重,用于增强模型变化权重的响应能力。

4. 实验结果和分析

4.1. 不同相似度在相同GNN策略下的推荐性能

为探究相似度计算方式对图神经网络推荐性能的影响,本文分别在五个固定GNN模型下对比了余弦相似度(cosine)、杰卡德相似度(jaccard)及其结合形式(cosine + jaccard)在RMSE,MAE,AUC和Precision四项指标上的表现,结果见图1

Figure 1. Recommendation performance of different similarity measures under identical GNN strategies

1. 不同相似度在相同GNN策略下的推荐性能

(1) GraphSAGE

GraphSAGE各项指标波动幅度最小,表现出最强的相似度适应性。其中在使用cosine + jaccard结合相似度时表现最佳:取得最低MSE (0.83709)和MAE (0.72040),并保持最高的Precision (0.84778)。这说明GraphSAGE能有效结合不同类型的相似度信息,融合策略能显著增强其作用。

(2) GAT

GAT性能受相似度稀疏性影响较为显著。在Jaccard相似度下,模型性能全面下滑,其MSE (0.88002)和MAE (0.74047)明显上升,AUC (0.77304)和Precision (0.83566)降至最低值。相比之下,Cosine和融合相似度表现较好。这说明GAT更适合使用密度较高的相似度信息,而Jaccard相似度过于稀疏,会削弱其学习效果。

(3) GCN

GCN评估指标间呈现反向变动的特征。Jaccard策略下,Precision指标(0.84497)虽最优,但伴随最高MSE (0.88042)和MAE (0.74301)。Cosine策略下实现了最佳MSE (0.85693)与AUC (0.78094)。

(4) GIN

GIN模型的表现和GCN相似。在Jaccard相似度下,MSE和MAE分别上升至0.89380和0.74393,AUC (0.77220)也明显下降,虽然在Precision (0.83661)指标上表现较好,但整体表现仍不如Cosine和结合相似度。

(5) LightGCN

LightGCN的指标波动幅度最大,表现出最强的相似度敏感性。在使用Jaccard相似度时,MSE (0.91205)达到最高,AUC和Precision降到最低,分别为0.76862和0.83085。虽然在Cosine相似度下整体指标表现有所提升,但始终落后于其他模型。这可能是由于LightGCN结构简单、对图结构变化缺乏鲁棒性,从而导致其对稀疏性和相似度表现出高度依赖。

综上,GraphSAGE在不同相似度设置下均保持最优或接近最优的表现,体现出其优秀的适应性与泛化能力。GAT和GCN模型对相似度变化呈现出中等敏感性,通过融合策略可取得相对平衡的表现。关于GIN和LightGCN模型,特别是后者在使用Jaccard相似度时性能显著下降,说明此类模型在处理稀疏邻接关系时存在局限性。

4.2. 不同GNN在相同相似度策略下的推荐性能

为全面评估图神经网络(GNN)模型在固定相似度策略下的推荐性能,本文基于MSE、MAE、AUC和Precision四项指标,分别在三个固定相似度策略下对比了GraphSAGE、GAT、GCN、GIN和LightGCN在四项指标上的表现,结果见图2

Figure 2. Recommendation performance of different GNNs under distinct similarity strategies

2. 不同GNN在不同相似度策略下的推荐性能

(1) 结合相似度

在融合了Cosine和Jaccard相似度的情况下,GraphSAGE的综合表现最优,取得最低的MSE (0.83709)和MAE (0.72040),同时获得最高Precision (0.84778)和AUC (0.78704)。相比之下,LightGCN在四项指标中均表现最差,其MSE (0.88932)与MAE (0.74319)显著高于其他模型。GCN和GIN的表现非常接近,但GIN的Precision (0.83674)略高于GCN (0.83535),GAT的Precision (0.83418)为同策略下最低。

(2) 余弦相似度

在仅使用Cosine相似度的情况下,GraphSAGE仍然保持最优,其MSE (0.83751)、MAE (0.72042)和AUC (0.78710)与结合相似度下的结果相比差异不大,Precision (0.84495)稍逊,但仍处于领先地位。GAT、GCN和GIN三个模型整体性能接近,其中GCN的Precision (0.84333)相对最优。LightGCN虽Precision (0.83858)有轻微提升,但所有指标仍落后于其他模型。

(3) 杰卡德相似度

在仅使用Jaccard相似度的情况下,所有模型性能普遍下降。虽然GraphSAGE仍保持相对最优,但MSE升高至0.84443,AUC和Precision分别下降至0.78443和0.84738。GAT、GCN、GIN的MSE显著升高,分别达0.88002、0.88042、0.89380,AUC均低于0.774,LightGCN性能衰减最剧烈,MSE升至0.91205,AUC降至0.76862。

综上,GraphSAGE是整体表现最优的模型,无论在结合相似度还是单一相似度下都能保持性能领先,展现出优异的鲁棒性。结合相似度通常优于单一相似度,能在多数模型上带来性能提升。Cosine相似度对大多数模型更友好,而Jaccard相似度单独使用时性能明显下降,尤其对LightGCN影响显著;LightGCN在所有实验场景中表现最差,表明其对相似度策略较为敏感。

4.3. 不同α下模型的性能分析

为验证图神经网络与相似度融合策略的有效性,本文通过调节融合权重α (范围0~1,步长0.01)评估了各模型在四个关键指标上的性能变化。

4.3.1. 不同权重α下各融合模型的评估结果分析

本文研究了权重α对融合模型性能的影响(见图3),并经过分析得出了最优参数配置(见表1)。

(1) MSE

GraphSAGE + Cosine + Jaccard在α = 0.46时达到最低MSE (0.837089),随着α向两端移动,GraphSAGE策略下的MSE均逐渐升高,左侧接近0.86,右侧接近0.92,呈明显的U型曲线。GAT + Consine的MSE在α = 0.72时下降至0.85725,GCN + Consine在α = 0.77时出现最优MSE = 0.85693,GIN整体波动最显著,GIN + Consine + Jaccard在α = 0.89时MSE达到局部最优为0.86786,说明其对α较为敏感。

Figure 3. Performance metrics of fusion models across varying α values

3. 不同权重α下各融合模型的四个评估指标

(2) MAE

GraphSAGE + Cosine在α = 0.66的MAE为0.71732,是所有模型中的最低值。GAT + Consine的MAE在α = 0.83处为0.72660,GIN + Consine的MAE在α = 0.93附近下降至约0.7283,GCN + Consine的MAE在α = 0.89处最小化,为0.72797。

(3) AUC

GraphSAGE + Cosine + Jaccard在α = 0.52处AUC达到0.78709,为所有模型最高值,其次是GAT + Consine在α = 0.78时AUC为0.78237,该模型在 α[ 0.72,0.78 ] 区间的AUC值始终保持在0.786以上,相比之下,GCN和GIN的最优AUC分别仅为0.78119和0.78118,与其有一定差距。

(4) Precision

GraphSAGE + Cosine + Jaccard在α = 0.31时精度达到0.85021,是全局领先。GAT + Jaccard最优精度为0.84236 (α = 0.86),GCN + Consine为0.85689 (α = 0.59),GIN + Jaccard为0.85130 (α = 0.73),均较GraphSAGE低。

Table 1. Optimal parameter configuration

1. 最优参数配置

模型组合

指标

最优α

最优值

GraphSAGE + Cosine + Jaccard

MSE

0.46

0.837089

GraphSAGE + Cosine

MAE

0.66

0.71732

GraphSAGE + Cosine + Jaccard

AUC

0.52

0.78709

GraphSAGE + Cosine + Jaccard

Precision

0.31

0.85021

4.3.2. 当α = 0/1与最佳α时的模型对比

为验证图神经网络与相似度融合策略的有效性,本文比较了α = 0 (仅用相似度)、α = 1 (仅用GNN)与最优化α (融合)下的性能表现,主要使用了MSE与MAE指标(见图4图5)。

融合模型在最优α下普遍优于其单一策略:对于所有融合模型,其在最优α下取得的MSE和MAE值,均低于该模型在仅用相似度(α = 0)或仅使用GNN (α = 1)时的表现。GraphSAGE + Cosine + Jaccard在最优α下获得了全局最优,以GraphSAGE + Cosine + Jaccard为例:关于MSE,best_α的0.837089,相比α = 0的0.85253和α = 1的0.89689明显更优;关于MAE,α = 0的0.72875和best_α = 0.720404,均优于α = 1的0.73683。这充分证明,通过最优融合比例α整合相似度与GNN,能有效提升模型预测精度,降低误差(MSE/MAE)。

综上,本实验结果充分验证了所提出的基于α融合的相似度与GNN框架的效果。通过在相似度与GNN模型之间引入α权重调节机制,实现了双重优势的互补,无论是从MSE还是MAE指标看,融合策略均优于单一模型(α = 0或α = 1)。最优α值的确定及其带来的性能提升,验证了引入动态融合权重α来整合相似度与GNN模型是合理且高效的。另外,GraphSAGE模型在 α [ 0.3,0.7 ] 区间展现出卓越的综合性能,其通过余弦相似度与Jaccard系数的特征结合,在四个评估指标上均取得最优或接近最优的表现,而其他三个对比模型在相同区间波动显著更大。

Figure 4. MSE values of each model under varying α

4. 不同α值下各模型MSE值

Figure 5. MAE values of each model under varying α

5. 不同α值下各模型MAE值

4.4. 综合性能排名

为进一步验证和研究各模型性能表现,本文定义模型的综合性能排名得分为:

= ( MSE+MAE+AUC+Precision )/4

Table 2. Ranking scores of four evaluation metrics for each model

2. 各模型四个评估指标排名得分

模型

MSE

MAE

AUC

Precision

排名得分

GraphSAGE + Consine + Jaccard

1

1

2

1

1.25

GraphSAGE + Consine

2

2

1

4

2.25

GraphSAGE + Jaccard

3

3

3

2

2.75

GAT + Consine + Jaccard

6

8

8

12

8.5

GAT + Consine

5

4

4

13

6.5

GAT + Jaccard

11

11

13

10

11.25

GCN + Consine + Jaccard

7

9

10

11

9.25

GCN + Consine

4

6

5

5

5

GCN + Jaccard

12

12

12

3

9.75

GIN + Consine + Jaccard

8

7

7

8

7.5

GIN + Consine

9

5

6

15

8.75

GIN + Jaccard

14

14

14

9

12.75

LightGCN + Consine + Jaccard

13

13

11

6

10.75

LightGCN + Consine

10

10

9

7

9

LightGCN + Jaccard

15

15

15

14

14.75

Figure 6. Ranking scores of four evaluation metrics for each model

6. 各模型四个评估指标排名得分

根据四项指标得分排名,对所有模型组合进行综合排序,越低为越优秀(见表2图6):GraphSAGE + Cosine + Jaccard组合在各指标下表现优秀且以综合得分1.25位居第一,远远领先大部分模型。GCN表现波动大,稳定性较差;LightGCN在所有组合中排名最低,表现最差。

本文系统研究了GNN推荐模型在多种相似度融合策略下的推荐性能表现,并提出了一种基于α权重调节的融合机制,实验结果得出:GraphSAGE在所有评估指标上均表现最好,是最优的GNN结构;多相似度融合策略明显优于单一相似度融合;α融合策略具有良好的调节性,特别是在GraphSAGE模型中效果显着;综合性能评估表明,不同模型对相似度策略的敏感度差异显着,LightGCN假设最差。

4.5. 不同聚合器下GraphSAGE的性能表现

针对GraphSAGE模型,本文采用了6种不同的聚合器(mean、max、sum、min、std、powermean),分别评估其对模型性能的影响(见表3)。

Table 3. Ranking scores of four evaluation metrics for each model

3. 各模型四个评估指标排名得分

聚合器

MAE

AUC

Precision

mean

0.8260

0.7715

0.9021

max

0.8326

0.7324

0.8466

sum

1.2117

0.6002

0.6364

min

0.8257

0.7694

0.9046

std

0.8246

0.7730

0.9347

powermean

0.8261

0.7701

0.8990

表3中可以看到,mean聚合器表现稳定,MAE和AUC值均良好,Precision值较高,说明其能较好地反映邻居节点的平均特征。max聚合器表现相对较差,特别是AUC和Precision值明显下降,这可能是由于只取邻居中特征最大的部分,而导致忽略了其他有用信息,无法全面捕捉邻居的多样性。sum聚合器表现最差,MAE值明显增大,Precision值下降,可能是因为邻居特征的直接相加导致了数值过度放大,从而影响模型稳定性。min聚合器和powermean聚合器的表现均与mean聚合器类似,说明它们也能平衡邻居信息。std聚合器表现最好,在三个指标上均最优,它通过反映邻居特征的变异性,提升了模型对邻居多样性的捕捉能力,从而带来了更好的表现。

GraphSAGE本质上是通过聚合邻居节点的特征来更新当前节点的表示,不同的聚合器在信息整合方式上存在差异:mean聚合器和powermean聚合器能通过平滑邻居信息,消除极值的影响,更好地反映整体特征趋势。std聚合器引入了邻居特征的分布信息,帮助模型捕捉邻居多样性,从而使得表示更丰富。max和sum则很容易放大噪声或极值,降低模型的泛化能力。因此,GraphSAGE采用均值或基于统计特征的聚合方法,能更好地平衡邻居信息的丰富性和稳定性,避免极值干扰,进一步提升推荐性能。

5. 总结

本文针对传统推荐方法存在的冷启动问题,提出了一种基于图神经网络与多相似度动态加权融合的推荐方法。该方法通过引入图神经网络,充分挖掘用户与物品之间的图结构关系,以增强特征表示能力,从而提升模型对用户偏好的学习效果。同时融合余弦相似度和杰卡德相似度结合机制,以提升用户相似度计算的稳定性和准确性。此外,本文还引入动态融合权重参数α,以进一步研究模型最佳性能。本研究最终验证了将图神经网络结构特别是GraphSAGE与多相似度融合,能够有效提升推荐系统的性能。另外,所提出的加权融合机制能有效提高模型的准确性,实现二者的良好优势互补。未来考虑在更大规模数据集上验证模型性能,同时考虑引入图注意力机制等进一步增强模型对复杂用户行为的建模能力。

参考文献

[1] Sun, J., Mei, S., Yuan, K., Jiang, Y. and Cao, J. (2024) Prerequisite-Enhanced Category-Aware Graph Neural Networks for Course Recommendation. ACM Transactions on Knowledge Discovery from Data, 18, 1-21.
https://doi.org/10.1145/3643644
[2] Najafabadi, M.K., Chen, R., Rezazadeh, J., Beheshti, A. and Shabani, N. (2025) From Theory to Practice: The Evolution and Comparative Analysis of Homogeneous Vs. Heterogeneous Graph Neural Networks in Recommender Systems. Neurocomputing, 624, Article 129446.
https://doi.org/10.1016/j.neucom.2025.129446
[3] Hao, Q., Wang, C., Xiao, Y. and Lin, H. (2022) IMGC-GNN: A Multi-Granularity Coupled Graph Neural Network Recommendation Method Based on Implicit Relationships. Applied Intelligence, 53, 14668-14689.
https://doi.org/10.1007/s10489-022-04215-7
[4] Shetty, R.D., Bhattacharjee, S. and Thanmai, K. (2024) Node Classification in Weighted Complex Networks Using Neighborhood Feature Similarity. IEEE Transactions on Emerging Topics in Computational Intelligence, 8, 3982-3994.
https://doi.org/10.1109/tetci.2024.3380481
[5] Wang, D., Yih, Y. and Ventresca, M. (2020) Improving Neighbor-Based Collaborative Filtering by Using a Hybrid Similarity Measurement. Expert Systems with Applications, 160, Article 113651.
https://doi.org/10.1016/j.eswa.2020.113651
[6] Wang, J., Guo, Y., Wang, Z., et al. (2022) Graph Neural Network with Feature Enhance Mento Isolated Marginal Groups. Applied Intelligence, 52, 16962-16974.
[7] Li, X., Tian, Y. and Ji, S. (2024) Semantic and Relational-Based Graph Neural Network for Knowledge Graph Completion. Applied Intelligence, 54, 6085-6107.
[8] Liang, S., Ma, J., Sun, F., et al. (2025) KerGNNT: An Interpretable Graph Neural Network Recommendation Model. Knowledge and Information Systems, 67, 5187-5213.
[9] Li, S., Jia, Y., Wu, Y., Wei, N., Zhang, L. and Guo, J. (2023) Knowledge-Aware Graph Self-Supervised Learning for Recommendation. Electronics, 12, Article 4869.
https://doi.org/10.3390/electronics12234869
[10] 胡春华, 邓奥, 童小芹, 等. 社交电商中融合信任和声誉的图神经网络推荐研究[J]. 中国管理科学, 2021, 29(10): 202-212.
[11] Candillier, L., Meyer, F. and Fessant, F. (n.d.) Designing Specific Weighted Similarity Measures to Improve Collaborative Filtering Systems. In: Perner, P., Ed., Lecture Notes in Computer Science, Springer, 242-255.
https://doi.org/10.1007/978-3-540-70720-2_19
[12] Kermany, N.R., Zhao, W., Batsuuri, T., Yang, J. and Wu, J. (2023) Incorporating User Rating Credibility in Recommender Systems. Future Generation Computer Systems, 147, 30-43.
https://doi.org/10.1016/j.future.2023.04.029