基于知识图谱注意力与残差增强图卷积的电子商务推荐算法
E-Commerce Recommendation Algorithm Based on Knowledge Graph Attention and Residual Enhanced Graph Convolution
摘要: 随着电子商务的快速发展,推荐系统已成为连接用户需求与平台资源的核心桥梁。传统推荐模型普遍存在语义关联挖掘不充分与特征传递易衰减等问题,难以满足用户对精准化、个性化推荐的需求。对此,本文提出一种基于知识图谱注意力与残差增强图卷积的电子商务推荐模型(E-KGARConv),该模型通过注意力机制和残差连接实现缓解深层图卷积中的梯度消失问题与充分挖掘知识图谱中对用户偏好更具指示性的核心关联。在ML-100K数据集上的实验表明,E-KGARConv的准确率(0.7043)、精准率(0.7135)、召回率(0.7828)均优于CKE、KGCN、KGAT等主流模型,相较于推荐性能较好的KGAT分别提升了0.4%、0.43%、0.89%,消融实验进一步验证残差连接与注意力机制的有效性。研究结果表明本文提出的E-KGARConv模型能够充分挖掘用户与商品的潜在关联,有效提升推荐性能,可为电子商务场景提供更贴合用户需求的优质推荐服务,同时也为后续知识图谱推荐算法的模块设计提供参考。
Abstract: With the rapid development of e-commerce, the recommendation system has become the core bridge connecting user needs and platform resources. The traditional recommendation model generally has problems such as insufficient semantic association mining and easy attenuation of feature transmission, which is difficult to meet the needs of users for accurate and personalized recommendation. In this regard, this paper proposes an e-commerce recommendation model (E-KGARConv) based on knowledge graph attention and residual enhanced graph convolution. The model alleviates the gradient disappearance problem in deep graph convolution through attention mechanism and residual connection and fully exploits the core association in the knowledge graph that is more indicative of user preferences. Experiments on the ML-100 K dataset show that the accuracy (0.7043), precision (0.7135), and recall (0.7828) of E-KGARConv are better than mainstream models such as CKE, KGCN, and KGAT. Compared with KGAT, which has better recommendation performance, it has increased by 0.4%, 0.43%, and 0.89%, respectively. The ablation experiment further verifies the effectiveness of the residual connection and attention mechanism. The research results show that the E-KGARConv model proposed in this paper can fully tap the potential association between users and commodities, effectively improve the recommendation performance, and provide a high-quality recommendation service that is more in line with user needs for e-commerce scenarios. It also provides a reference for the module design of subsequent knowledge graph recommendation algorithms.
文章引用:王兴隆, 张汉林, 许祖娟, 夏雨欣, 张利. 基于知识图谱注意力与残差增强图卷积的电子商务推荐算法[J]. 电子商务评论, 2025, 14(10): 813-822. https://doi.org/10.12677/ecl.2025.14103211

1. 引言

自20世纪末以来,电子商务迅速发展,已从在线购物平台演变为全球经济的关键组成部分。但随着用户的增多,电子商务领域面临着信息过载的挑战,用户在海量商品中寻找自己感兴趣的物品变得越来越困难。如何根据用户的历史记录与喜好为用户推荐符合其需求的资源(如电影、商品等)成为亟待解决的问题。为了解决这一挑战,推荐系统(Recommendation System, RS)应运而生[1],其通过分析用户的历史行为(如购买、点击、评分等)、物品属性信息以及其他上下文数据,预测用户可能感兴趣的商品或信息。推荐系统通过智能化筛选与过滤用户信息,以个性化方式辅助用户检索所需资源,显著缓解信息过载问题,并构建起连接用户与商品的高效桥梁。

传统推荐算法在处理用户与物品之间的交互数据时,主要是基于内容的过滤与协同过滤推荐算法。基于内容的过滤方法[2]通过分析用户过去喜欢的物品的特征,推荐具有相似特征的新物品。这种方法的优势在于它能提供较好的解释性,因为它依赖于物品的属性和用户的历史偏好。然而,它可能面临“冷启动”问题,即对于新用户或新物品,由于缺乏足够的历史数据,难以做出准确推荐。协同过滤方法[3]通过识别用户或物品之间的相似性来推荐物品。用户基的协同过滤通过查找与目标用户有相似喜好的其他用户来推荐物品,而物品基的协同过滤则通过分析用户对物品的评分模式来推荐相似物品。尽管传统推荐算法一定地缓解了信息过载,但面临数据稀疏性导致的推荐偏差[4]、冷启动等问题[5]

为了解决这些问题,研究者们开始探索将知识图谱(Knowledge Graph, KG)引入推荐系统[6]。通过将用户和商品的属性、类别、品牌等信息以图的形式表示,为推荐系统提供了丰富的辅助信息,并且提供了一种新的数据表达和推理方法。通过知识图谱,可以挖掘用户和商品之间的潜在关联,增强推荐结果的准确性和多样性,有效缓解了数据稀疏与冷启动问题。

由于社交网络和用户行为数据的关系日益复杂,尽管知识图谱能够为推荐系统提供丰富的结构化信息,但在面对动态用户行为和复杂高阶关系时,知识图谱往往显得不足。图卷积网络(GCN)的出现有效地解决了这一问题[7],它能够有效地处理图结构数据,通过卷积操作提取节点及其邻域的信息,从而更好地捕捉用户偏好和物品特性,提升推荐的准确性和实时性。

基于此,为了能更好地解决数据稀疏、冷启动、复杂关系等问题,本文提出一种面向电子商务场景的知识图谱注意力与残差增强图卷积推荐算法(E-KGARConv),通过利用数据准确与技术优化的方式提升推荐性能。算法的设计核心包括三部分:首先,利用知识图谱为基础,将商品实体与语义关系转化为图结构数据,利用KG的结构化信息填补用户–商品交互的语义空白,从数据层面缓解稀疏问题;其次,利用注意力机制拼接用户嵌入、邻居实体嵌入与关系嵌入,计算动态注意力权重,优先聚合与用户偏好强相关的邻居解决邻居权重区分不精准问题;最后,在GCN中引入残差连接,在特征经过线性变换后叠加原始商品嵌入,确保商品的核心属性保留,增强推荐结果的合理性与解释性。这种方式不仅克服了传统推荐算法的局限性,还能够在动态环境中灵活适应用户需求的变化,从而实现更智能的推荐服务。

2. E-KGARConv算法模型

本文提出的算法通过深度融合知识图谱语义结构、多跳图卷积与双注意力机制,解决推荐算法面临的数据稀疏性、冷启动与关键特征挖掘不足等问题,其整体框架如图1所示。由输入层、知识图谱嵌入层、多跳图卷积层、双注意力机制层、特征融合层与预测层组成,输入层负责对用户–物品交互数据与知识图谱数据进行预处理,输出高质量训练样本与结构化索引;知识图谱嵌入层将离散的实体与关系映射为低维稠密向量,为语义计算奠定基础;多跳图卷积层挖掘实体多阶邻居关联,捕捉知识图谱局部结构特征;双注意力机制层区分实体与关系的重要性,筛选对推荐决策关键的语义信息;特征融合层动态整合多源特征,避免数据信息冗余与丢失;预测层计算用户–物品交互概率,生成推荐列表,完成推荐任务。

Figure 1. E-KGARConv overall framework

1. E-KGARConv整体框架

2.1. 输入层

该模块的任务是接收原始数据并执行标准化预处理,将数据转换为模型可处理的结构化形式,主要处理的核心数据为用户–物品交互数据处理与知识图谱数据处理。

针对用户–物品交互数据处理,原始数据以三元组的形式存储,如公式(1)所示:

D int ={ ( u,i,r )|uU,iI,r } (1)

其中,U为用户集合,I为物品集合,r为交互标签(如评分、购买行为等)。

预处理步骤分为标签二值化、冷启动样本过滤、负样本均衡,标签二值化指将连续评分(如1~5分)或多类行为标签转换为二分类标签,定义正向交互(r = 1)为用户对物品的积极反馈(如评分 ≥ 4、点击、购买),负向交互(r = 0)为积极反馈(如评分 ≤ 2、无交互),主要是用于简化推荐任务的目标函数设计;冷启动样本过滤指过滤交互次数少于5的冷启动用户和物品以减轻数据稀疏性问题;负样本均衡主要是应对原始交互数据中负样本数量远多于正向样本,采用1:1负采样比例,从用户未交互的物品集合 I u 中随机选择负样本,构建均衡训练集 D int ,如公式(2)所示:

D int ={ ( u,i,1 )|( u,i,r>4 ) D int }{ ( u,i,1 )|j I u ,| j |=| { ( u,i,1 ) } | } (2)

其中, I u =I\{ i|( u,i,r ) D int } ,确保训练集中正负样本数量一致,避免模型训练偏向多数类。

针对知识图谱数据处理,原始知识图谱数据同样以三元组形式储存,如公式(3)所示:

D KG ={ ( h,t,r )|h,i,r } (3)

其中, 为实体集合(含物品、属性实体等), 为关系集合(如“电影→属于→科幻类型”等)。

预处理步骤为孤立实体过滤和邻接表构建,孤立实体过滤指移除无任何关联关系的实体,这类实体无法为推荐提供语义支撑,过滤后可以减少模型冗余计算;邻接表构建指的是生成实体–关系邻接表 A={ e{ ( t,r )|( e,t,r ) D KG } } ,其中箭头前表示实体e,后面为该实体关联的尾实体t与关系r的二元组列表,该表的构建使模型可快速查询任意实体的邻居信息,为后续多跳图卷积与注意力计算提供结构化索引。

2.2. 知识图谱嵌入层

该模块的目的是将知识图谱中离散的实体与关系映射至低维连续向量空间,在保留实体语义关联(如“作者–数据”的创作关系、“电影–类型”的从属关系等)的同时,将语义信息转化为可量化的向量特征,为后续图卷积与注意力计算奠定基础。本模型采用ComplEx复数嵌入模块[8],其优势在于能有效建模非对称关系,将实体与关系的嵌入向量定义为复数空间中的向量,同时捕捉实体的“属性特征”与关系的“方向特征”,实体嵌入表示如公式(4)所示:

e= e re + e im i d (4)

其中, e re d 为实部(表示实体的基础属性特征), e im d 为虚部(表示实体的关联属性特征),d为嵌入维度。

关系嵌入表示如公式(5)所示:

r= r re + r im i d (5)

其中,实部表示关系的基础语义,虚部表示关系的方向语义。

为得到知识图谱中任意三元组 ( h,t,r ) 的语义合理性得分,其计算公式如(6)所示:

f( h,t,r )=Re( hdiag( r ) t ¯ ) (6)

其中, t ¯ t 的共轭复数,用于建模关系的非对称,diag(r)将关系向量r转换为d × d的对角矩阵,实现关系对实体嵌入的调制,Re(.)表示取数的实部作为三元组最终的合理性得分。

为优化实体与关系的嵌入参数,利用边际损失[9]最大化正确三元组与错误三元组的得分差距,强制模型学习到符合知识图谱语义的嵌入表示,公式如(7)所示:

L KG = ( h,t,r ) D KG ( h,t,r ) D KG max( 0,γf( h,t,r )+f( h , t , r ) ) (7)

其中, D KG 为负样本生成的错误三元组, γ 为边际参数,实验中设为1,指正确与错误三元组的得分差距阈值, max( 0, ) 确保仅当错误三元组得分高于正确三元组得分减去边际 γ 时才产生损失。

训练完成后,提取实体嵌入的实部 e re 作为最终实体特征,输出实体嵌入矩阵 E | |×d 与关系嵌入矩阵 B | |×d

2.3. 多跳图卷积层

该模块的目的是挖掘知识图谱中目标物品实体的多阶结构关联,弥补传统单跳模型仅关注直接邻居、结构信息确实的局限,通过图卷积操作聚合多跳邻居特征,生成包含“实体–属性–属性关联”的局部结构特征向量。并且为了避免大规模知识图谱导致的计算量膨胀,采用固定数量采样策略,对目标物体i执行分层采用,以降低计算复杂度。目标物体i的1跳邻居采样过程为从邻接表A[i]中均匀采样K1 (实验中为16)个邻居,得到集合 N 1 ( i )={ ( e 1 ( 1 ) , r 1 ( 1 ) ),,( e K 1 ( 1 ) , r K 1 ( 1 ) ) } ,其中 e K ( 1 ) 为邻居实体, r K ( 1 ) 为其与i的关系。进而对于每个1跳邻居 e K ( 1 ) ,从其邻接表 A[ e K ( 1 ) ] 再采样K2 (实验中为8)个邻居,构成2跳邻居集合 N 2 ( i )

在完成对目标实体i的1跳与2跳邻居采样,得到邻居集合 N 1 ( i ) N 2 ( i ) 后,采用基于“层归一化 + ReLU激活”的图卷积操作逐层聚合多跳邻居信息,保证特征向量的稳定性与非线性表达能力。1跳特征聚合首先融合“实体–关系”语义,通过关系向量调整实体向量的语义方向,再通过平均池化与线性变换得到输出,如公式(8)所示:

e i ( 1 ) =ReLU( LayerNorm( W 1 1 K 1 ( e,r ) N 1 ( i ) ( e+r ) + b 1 ) ) (8)

其中, W 1 b 1 为可学习参数, LayerNorm( ) 为层归一化操作,ReLU为非线性激活函数。

类似地,基于已采样的2跳邻居集合 N 2 ( i ) ,2跳特征聚合捕捉更间接的关联信息,如公式(9)所示:

e i ( 2 ) =ReLU( LayerNorm( W 2 1 K 1 K 2 ( e,r ) N 2 ( i ) ( e+r ) + b 2 ) ) (9)

最终通过向量拼接融合1跳与2跳的特征,保留不同层次的结构语义,形成目标实体i的多跳图卷积表示,如公式(10)所示:

e i conv = e i ( 1 ) e i ( 2 ) (10)

其中, e i conv 2d 同时包含直接关联与间接关联信息,即为目标物品实体i的多跳图卷积结构特征。

2.4. 双注意力机制层

多跳图卷积层聚合的邻居特征中,包含大量对推荐决策冗余的信息,为了更好地解决知识图谱推荐的语义关联复杂、用户偏好多维等问题,基于现有的注意力模型进行改进,设计了双注意力机制。双注意力机制采用实体注意力和关系注意力分别聚焦核心邻居实体与关键关联关系筛选其中的关键语义信息降低冗余,并通过动态加权融合得到最终表示。实体注意力基于目标实体与邻居实体的语义相似度计算权重,语义关联性越强的邻居权重越高,其计算公式如(11)所示

α e ( e,i )= exp( a e ( e i e ) ) ( e , r ) N 1 ( i ) exp ( a e ( e i e ) ) (11)

其中, a e d 为可学习参数, 表示元素积,用于度量语义相似性, e i 为目标物品实体i的初始嵌入, e 为邻居实体嵌入。

加权后的特征表示如公式(12)所示:

e i att e = ( e,r ) N 1 ( i ) α e ( e,i )( e+r ) (12)

其中, e i att e d ,即为聚焦核心邻居实体的特征向量。

关系注意力依据关系类型对推荐任务的重要程度分配权重,关键关系获得更高权重,其计算公式如(13)所示:

α r ( r )= exp( a r r ) r N 1 ( i ) exp ( a r r ) (13)

其中, a r d 为可学习参数, N 1 ( i ) 表示1跳邻居中的所有关系类型, r 为关系的嵌入向量。

加权后的特征表示如公式(14)所示:

e i att r = ( e,r ) N 1 ( i ) α r ( r )( e+r ) (14)

其中, e i att r d ,为聚焦关键关系的特征向量。

为避免单一注意力机制的偏差,兼顾实体与关系的重要性,使用可学习系数 β 对两种注意力特征进行动态融合,其计算公式如(15)所示:

e i att =β e i att e +( 1β ) e i att r (15)

其中, β 在训练过程中自适应调整,最终输出 e i att d 为融合后的包含核心邻居实体与关键关联关系的语义特征向量,有效突出对推荐决策有显著影响的语义信息。

2.5. 特征融合层

本文提出的算法的推荐决策主要依赖三类核心特征:用户偏好特征( u R d ,通过嵌入层学习得到,表征用户的整体兴趣偏好)、物品交互特征( v i R d ,从用户–物品交互矩阵中学习,反映用户对目标物品的历史行为偏好)、知识图谱特征( e i KG = e i conv e i att R 3d ,由多跳图卷积特征与双注意力特征拼接而成,包含丰富的语义与结构信息)。

融合过程需要先将三类特征拼接为统一向量,公式如(16)所示:

f cat =u v i r i KG (16)

其中, f cat 5d 包含推荐决策所需要的全部信息。

通过全连接层与Sigmoid激活函数生成门控向量,控制各特征维度的保留比例,公式如(17)所示:

g=Sigmoid( W g f cat + b g ) (17)

其中,Sigmoid(.)为激活函数, W g 5d×5d b g 5d 为门控参数。

通过门控向量对拼接特征进行动态调整,同时引入全连接层增强特征的非线性表达能力,公式如(18)所示:

f=g( W f f cat + b f )+( 1g ) f cat (18)

其中, W f 5d×5d b f 5d 为特征融合的可学习参数,为最终输出的融合特征向量,充分聚合用户、交互和知识图谱信息。

2.6. 预测层

预测层是本文中模型的输出端,目的是基于融合特征向量,计算用户与物品的正向交互概率,并生成最终的推荐列表,完成从特征计算到推荐决策的闭环。通过全连接层与Sigmoid激活函数将融合特征映射至[0, 1]区间,计算公式如(19)所示:

y ^ u,i =Sigmoid( W p f + b p ) (19)

其中, W p 5d×1 b p 为预测层的可学习参数,为用户u对物品i的正向交互(如点击、购买)概率,值越大则用户对该物品的偏好程度越高,推荐优先级越高。

推荐列表生成时,先构建用户u未交互的候选物品集 I u =I/ { i|( u,i,r ) D int } ,进而计算各候选物品的交互概率,按降序排列并选取阶段前K个物品构建最终推荐列表 L u ={ j 1 , j 2 ,, j K | y ^ u, j 1 y ^ u, j 2 y ^ u, j K } 。至此,E-KGARConv 模型完成了融合知识语义与用户行为数据的端到端个性化推荐。

本文提出的E-KGARConv推荐模型,通过多跳图卷积聚合邻域信息,利用双注意力机制筛选关键语义特征,并借助门控融合层动态整合用户偏好、交互行为与知识语义等多源信息,最终以概率预测形式实现精准的个性化推荐。该模型兼具结构感知与语义理解能力,在提升推荐准确性的同时增强了可解释性。

3. 实验

3.1. 实验设置

本文使用的数据集是推荐系统领域经典的MovieLens-100K (ML-100K)数据集,包含丰富的用户–物品交互记录、商品–商品属性集合等信息,是验证推荐模型性能的基准数据集之一。经过对数据的预处理,最终包含涉及65,610个独特商品的97,466条用户–商品评分记录。实验平台搭载了12th Gen Intel(R) Core(TM) i5-12600KF 3.70 GHz处理器与NVIDIA GeForce RTX 4060TI显卡,操作系统为Windows。为使E-KGARConv算法在推荐任务中达到最优性能,我们结合任务特性与多轮实验验证进行参数调优,最终核心参数如表1所示。

Table 1. E-KGARConv model hyperparameter setting

1. E-KGARConv模型超参数设置

超参数

特征嵌入维度

128

邻居采样数

10

批次大小

1024

学习率

0.01

训练轮次

100

Dropout比率

0.5

为验证本文提出的E-KGARConv模型的性能优势,选取基于图神经网络的知识图谱推荐算法KGCN [10]、融合图注意力机制的推荐算法KGAT [11]与协同知识嵌入的推荐算法CKE [12]做对比实验,所有实验的训练集与测试集都按照数据集的9:1划分,以确保实验的公平性与可比性。

3.2. 评价指标

本文采用准确率(Accuracy)、精确率(Precision)与召回率(Recall)三个评价指标来全面评估E-KGARConv模型的推荐性能,所有指标均在测试集上计算。

准确率是衡量模型整体预测正确性的基础指标,用于判断模型在测试样本上的预测可靠性,取值范围为[0, 1],值越大表明模型的整体预测性越高,其计算公式如(20)所示:

Accuracy= TP+TN P+N (20)

其中,TP为模型正确预测为正类的样本数;TN为模型正确预测为负类的样本数;P为实际正类的样本总数;N为实际负类的样本总数。

精准率是评估模型对于预测正类的精准程度,取值范围为[0, 1],值越大表明模型的推荐列表精准度越高,其计算公式如(21)所示:

Precision= TP TP+FP (21)

其中,FP代表实际为负类但被模型预测为正类的样本数。

召回率是评估模型对用户潜在偏好的挖掘能力,取值范围为[0, 1],值越大表明模型对用户偏好的覆盖度越高,其计算公式如(22)所示

Recall= TP TP+FN (22)

其中,FN代表实际为正类但是被模型预测为负类的样本数。

3.3. 实验结果与分析

本文提出的E-KGARConv模型与CKE模型、KGCN模型、KGAT模型针对ML-100K数据集的Accuracy、Precision和Recall指标结果如表2所示:

Table 2. Accuracy, Precision and Recall results for each model

2. 各模型的Accuracy、Precision与Recall结果

模型

Accuracy

Precision

Recall

CKE

0.5882

0.6307

0.6301

KGCN

0.6412

0.6532

0.7565

KGAT

0.7012

0.7104

0.7758

E-KGARConv

0.7043

0.7135

0.7828

表1中可以看到,本文提出的E-KGARConv在三类指标上分别达到了0.7043、0.7135、0.7828。相较于CKE实现了较大的提升,证明我们的模型通过动态注意力引导的多跳图卷积能够更深度的捕捉知识图谱中用户–物品的语义关联;与KGCN相比,Accuracy提升了8.9%,Precision提升了9.23%,Recall提升了3.48%,证明我们的模型通过增强型注意力机制的动态分别权重,能够聚焦关键语义信息,减少冗余特征;与当前主流的KGAT相比,Accuracy提升了0.4%,Precision提升了0.43%,Recall提升了0.89%,证明我们的模型通过“残差连接 + 多跳聚合”,既保留了深层语义特征的完整性,又通过注意力筛选避免了信息过载。

这些结果表明,E-KGARConv模型在语义关联的精准捕捉与特征传递效率的优化上均表现突出,即通过动态注意力挖掘了知识图谱中对偏好用户更具指示性的核心关联,又通过多跳聚合与残差结构提升了特征传递的完整性。从三类指标的表现,有力验证了我们技术路线的有效性。

为进一步验证E-KGARConv模型各核心组件的贡献度,明确不同模块对性能提升的具体作用,设计了一系列消融实验。实验,基于基准模型(Baseline)逐步移除或添加关键组件,量化分析增强型注意力机制、残差连接等模块的必要性与协同效应,消融实验的设置与结果如表3所示。

Table 3. Results of E-KGARConv ablation experiment

3. E-KGARConv消融实验结果

模型

Accuracy

Precision

Recall

Baseline

0.6412

0.6532

0.7565

Baseline + attention

0.6388

0.6517

0.7532

Baseline + residual

0.7040

0.7128

0.7759

E-KGARConv

0.7043

0.7135

0.7828

从结果来看,Baseline模型的Accuracy为0.6432、Precision为0.6532和Recall为0.7565,性能显著低于E-KGARConv模型,验证我们添加模块实现了推荐性能的提升。仅添加注意力机制(Baseline + Attention)后,各项指标略低于基准模型,这一原因主要是缺少了高效的特征传递通道(如残差连接)时,注意力筛选的关键语义容易因为特征衰减丢失有效信息,表明注意力机制无法孤立生效,需要与其他模块协同体现价值。仅添加残差连接后,性能实现跨越提升,Accuracy提升9.8%,Precision提升9.1%,Recall提升2.6%,充分验证了残差连接缓解深层图卷积的梯度消失问题,稳定学习多跳语义关联,提升特征传递效率。E-KGARConv模型整合注意力机制和残差连接,最终在所有指标上达到最优,证明本文模型是合理并且有效的,为知识图谱推荐模型的设计提供参考。

4. 结论

本研究针对知识图谱推荐任务提出E-KGARConv模型,并在ML-100K数据集上通过对比实验与消融实验验证其性能。实验证明本模型在准确率、精准率、召回率都优于CKE、KGCN、KGAT等模型。其中较CKE显著提升,相较于KGCN分别提升8.9%、9.32、3.48%,相较于KGAT分别提升0.4%、0.43%、0.89%,充分体现模型在语义关联挖掘和特征利用上的优势。消融实验进一步证明注意力机制与残差连接的引入能够实现高效特征传递与关键语义筛选,使得模型实现最佳性能,出色地完成推荐任务。E-KGARConv模型通过优化知识图谱语义捕捉与特征传递效率,有效解决了传统模型的痛点,提高了预测准确率,为知识图谱推荐算法设计提供了可参考的实践方向。但研究仍存在局限,当前仅使用整体指标验证模型性能,未针对用户和物品进行分层实验,无法明确模型在不同数据特性场景下的优势,且双注意力机制的可解释性分析仅停留在权重统计层面,未深入拆解其对特定实体与关系的关注。未来将针对性优化,补充用户和物品的分层实验,并深化双注意力机制的可解释性分析。

参考文献

[1] 周惠宏, 柳益君, 张尉青, 等. 推荐技术在电子商务中的运用综述[J]. 计算机应用研究, 2004, 21(1): 8-12.
[2] 葛润霞. 基于内容聚类的协同过滤推荐系统研究[D]: [硕士学位论文]. 济南: 山东师范大学, 2008.
[3] 郭艳红. 基于协同过滤的推荐系统关键技术研究[M]. 大连: 大连理工大学出版社, 2013.
[4] 冷亚军, 王翔. 推荐系统中的稀疏性和可扩展性问题研究[J]. 内蒙古科技与经济, 2020(18): 72-73.
[5] 史海燕, 倪云瑞. 推荐系统冷启动问题研究进展[J]. 图书馆学研究, 2021(12): 2-10.
[6] 秦川, 祝恒书, 庄福振, 等. 基于知识图谱的推荐系统研究综述[J]. 中国科学: 信息科学, 2020, 50(7): 937-956.
[7] Wu, J., Wang, X., Feng, F., et al. (2021) Self-Supervised Graph Learning for Recommendation. Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval, 11-15 July 2021, 726-735.
[8] Trouillon, T., Welbl, J., Riedel, S., et al. (2016) Complex Embeddings for Simple Link Prediction. arXiv: 1606.06357.
[9] Bordes, A., Glorot, X., Weston, J., et al. (2014) A Semantic Matching Energy Function for Learning with Multi-Relational Data. Machine Learning, 94, 233-259. [Google Scholar] [CrossRef
[10] Wang, H., Zhao, M., Xie, X., et al. (2019) Knowledge Graph Convolutional Networks for Recommender Systems. arXiv: 1904.12575.
[11] Wang, X., He, X., Cao, Y., et al. (2019) KGAT: Knowledge Graph Attention Network for Recommendation. arXiv: 1905.07854.
[12] Zhang, F., Yuan, N.J., Lian, D., Xie, X. and Ma, W. (2016). Collaborative Knowledge Base Embedding for Recommender Systems. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, San Francisco, 13-17 August 2016, 353-362.[CrossRef