1. 引言
随着互联网用户数的指数级增长,海量数据涌入公众视野,用户迫切需要从这浩瀚的信息海洋中筛选出所需内容。为了提高信息利用率,推荐系统[1]作为一种有前景的解决方案应运而生。
多年来,研究人员提出了多种方法来提高推荐生成过程的效率,包括协同过滤、基于内容的过滤、基于人口统计的过滤等。混合推荐系统通过整合多种方法,旨在进一步提升推荐性能。近年来,深度学习在推荐系统中的应用展现了强劲的发展势头。
最近,推荐系统中的可解释性、数据稀疏性和冷启动问题备受关注,尤其是后两者成为本文重点。早期推荐系统多依赖协同过滤技术,虽简单高效,但存在冷启动、数据稀疏性及难以捕捉复杂交互等局限。现有方法通常基于显式反馈(如评分)或隐式反馈(如行为轨迹),显式反馈直接但稀缺,隐式反馈[2]常见但不确定性较高。混合推荐系统通过结合多种技术提升准确性。
本文方法结合深度学习技术,利用卷积神经网络和自定义过滤器捕捉用户与物品间的非线性关系,并通过全局池化层生成候选列表,减少参数并增强特征提取能力。在显式反馈学习中,用户–物品交互分为内耦合(用户–多物品)和外耦合(物品–多用户),通过深度自编码卷积网络提取特征。多隐式反馈模型则从用户相似性、用户积极性和物品评分历史三个角度生成隐式关系,补充显式反馈,缓解数据稀疏性问题。
本文的主要贡献包括:
通过一种仅依赖于基于内容信息的方法生成候选列表。
采用协同训练方法,利用交互学习模型和多隐式反馈学习模型训练用户–物品交互的复杂性。
研究了用户相似性、物品评分记录和用户积极性对评分预测增强的影响。
本文的其余部分结构如下:第2节回顾了相关研究工作;第3节介绍了本文提出的方法;第4节给出了实验结果和分析;第5节总结了本文的工作。
2. 相关工作
2.1. 基于内容的推荐方法
基于内容的推荐方法通过向用户推荐与其已评价物品相似的物品来实现推荐。Wang等人[3]提出了基于SoftMax回归和卡方特征选择的出版物推荐系统(PRS)。Pradhan和Pal [4]则结合Paper-Paper Peer Network (PPPN)和Venue-Venue Peer Network (VVPN),提出了基于内容和网络的学术视频推荐系统。此外,Elsevier Journal Finder [5]等工具通过关键词、标题和摘要匹配推荐期刊,其中Elsevier Journal Finder使用Okapi BM25+算法,仅需标题和摘要即可生成推荐。
2.2. 基于协同过滤的推荐方法
基于协同过滤的推荐方法[6]通过相似用户对物品的评价预测目标用户的偏好。早期研究中,协同过滤应用广泛,主要分为基于内容(用户/物品)和基于模型的方法[7]。基于内容的方法通过评分数据计算用户或物品的相似性生成推荐,而基于模型的方法则以矩阵分解(MF) [8]为代表,通过分解评分矩阵为用户和物品矩阵进行预测。奇异值分解(SVD) [9]是常用的矩阵分解模型。
2.3. 混合推荐方法
混合推荐方法通过整合多种推荐技术来弥补各自的不足,更好地适应用户–物品关系,并提高模型预测的准确性。R等人[10]提出了一种新颖的深度学习混合推荐系统,将辅助用户和物品信息融入深度神经网络,以缓解冷启动问题。Gridach [11]将推荐系统的概率软逻辑与神经网络结合,提出了新的NeuralPSL框架,有效解决了神经网络模型中的可解释性问题。此外,Raziperchikolaei等人[12]提出了神经表示预测模型,该模型由两个分别表示用户和物品的自编码器组成,旨在通过利用用户和物品属性来替代MF中的物品分解,从而促进预测任务。Ni等人[13]在电子商务应用背景下提出了基于意图感知马尔可夫链的顺序推荐模型。该模型利用矩阵分解技术有效捕捉用户–物品的持久偏好,同时结合高阶马尔可夫链方法准确表示用户意图的瞬时变化。
与上述工作不同,本研究结合了多种推荐方法和神经网络方法。所提出的方法同时利用了显式反馈和隐式反馈,通过多种训练方式有效利用显式反馈捕捉用户偏好,以及隐式反馈捕捉潜在用户偏好。在该范式下,显式反馈的研究主要包括用户与不同物品之间的交互以及多用户与物品之间的交互。多隐式反馈学习模型用于分析用户与物品之间的隐式交互,从而发现隐藏的潜在特征和关系。该方法旨在提高预测准确性,并实现非常精确的预测。
3. 算法模型
本研究提出了一种同时考虑显式和隐式输入的推荐系统。该方法利用基于内容的卷积神经网络生成候选推荐列表,并结合交互学习模型和多隐式反馈学习模型,直接从候选推荐列表中显示的评分数据中提取特征和潜在关系。整体模型框架如图1所示。
模型的第一步是使用卷积神经网络(convolutional neural network, CNN) [14]结合自定义过滤器,可以有效表示用户和物品的内容信息。CNN能够高效捕捉用户与物品之间的显著非线性关系,尤其是在高维空间中。在该方法中,优先使用十字形卷积过滤器而非小方形过滤器,旨在有效捕捉用户与物品之间的复杂关联。十字形卷积过滤器由两个不同的过滤器组成:垂直过滤器和水平过滤器。随后,通过全局平均池化层将CNN特征直接连接到输出节点。这种方法缓解了过拟合问题,并允许直接利用非线性交互进行评分预测。
此外,交互学习模型利用卷积神经网络学习内耦合和外耦合之间的交互信息。内耦合信息捕捉单个用户属性与多个物品属性之间的交互信息,而外耦合信息则捕捉多个用户属性与单个物品属性之间的交互信息。另一方面,多隐式反馈学习模型从三个角度分析用户在评分矩阵中提供的显式反馈:用户相似性、物品评分历史和用户积极性。其目标是构建用户特征空间和物品特征空间,最终通过矩阵乘法方法得出物品评分。
Figure 1. Algorithm flowchart
图1. 算法流程图
3.1. 问题描述
我们定义了一个推荐问题,涉及一组用户
(共m个用户)、一组物品
(共n个物品)以及一个包含用户与物品之间交互信息的评分矩阵R。评分矩阵R中的每个条目
表示用户u与物品i之间的交互信息。
本文的主要任务是利用用户对物品提供的显式反馈以及通过分析显式反馈得出的三种隐式关系,预测用户与物品之间交互(如浏览、点击和购买行为)的概率。
3.2. 基于内容的推荐方法
在本研究中,所采用的方法利用十字卷积过滤器捕捉用户与物品数据之间的显著非线性相关性,从而准确模拟用户–物品交互,如图2所示。首先,模型通过嵌入层整合用户和物品信息,生成外积矩阵。随后,嵌入向量被传递到卷积层以提取非线性特征。该卷积层通过两个十字卷积过滤器实现。最后,对特征应用全局平均池化进行降维。生成的降维特征随后用于基于特征图提供评分预测。
Figure 2. The architecture of the content-based method
图2. 基于内容方法的架构
在本研究中,所采用的方法利用十字卷积过滤器捕捉用户与物品数据之间的显著非线性相关性,从而能够准确模拟用户与物品之间的交互。
3.2.1. 数据嵌入
与项目内容相关的用户变量可以分为两类:离散变量和连续变量。离散变量用于表示用户和项目的独特属性或特征,例如职业状态、年龄、分类标签等。与连续变量不同,离散变量没有具有数值意义的数值。嵌入层通过权重矩阵将虚拟变量映射到特征空间,将其转换为稠密特征。将虚拟变量转换为稠密特征变量的公式如下:
(1)
其中,
表示第i类的嵌入向量,由权重矩阵映射生成;
表示第i类的独热编码;
是权重矩阵。对用户和项目变量进行嵌入后,所有与用户和项目相关的变量分别转换为连续特征向量。
3.2.2. 交叉卷积层
与传统卷积神经网络中常用的小型方形过滤器不同,本方法采用了一种由两个独立过滤器组成的十字过滤器:垂直过滤器和水平过滤器。变量
和
分别表示特征图的垂直和水平维度。垂直过滤器和水平过滤器的大小分别表示为
和
。图3展示了十字卷积过滤器的基本操作过程。
Figure 3. The sample of the content-based method.
图3. 基于内容方法的样例
在卷积阶段,采用十字卷积过滤器从用户–物品特征图中提取深层特征,并建模用户与物品之间的交互,以揭示用户嵌入向量和物品嵌入向量中包含的所有潜在交互特征。
交互特征图表示为
,专门用于卷积层。变量
和
分别表示用户和物品嵌入向量的维度。符号
表示第l个卷积层的第k个输出特征图,该特征图通过组织第i个用户特征和第j个物品特征生成。初始卷积层的输入数据表示为
。
(2)
表示第l个卷积层输出的特征数量。符号
表示激活函数。符号
表示第
个卷积层中第m个特征图使用的垂直卷积过滤器的第k个元素。
(3)
公式3展示了第一个卷积层的操作。值得注意的是,十字卷积过滤器能够从用户角度区分物品属性的相对重要性,以及从物品角度区分用户特征的有用性。
3.2.3. 候选列表生成
在候选列表生成阶段,为了缓解使用全连接层可能导致的过拟合问题,该方法采用全局平均池化层替代全连接层。全局平均池化层从最后一个卷积层的每个交互特征图中提取一个特征向量,并直接连接到输出节点。总之,从不同角度建模的交互特征图中提取有用的特征向量,并直接连接到输出节点,以预测评分并利用高阶特征向量生成候选列表。
3.3. 交互信息学习模块
在本研究中,如图4所示,反馈通过两种耦合信息表示:内耦合,表示用户与多个物品之间的交互信息;以及外耦合,表示多个用户与物品之间的交互信息。
首先,将用户和物品的属性信息嵌入到同一向量空间中,形成两个输入向量
和
。用户信息主要包括性别、年龄、职业等人口统计数据以及用户评分数据。物品数据主要包括类别等物品描述信息。我们假设函数
是特征向量
和
之间的交互矩阵,其中每个元素
表示用户向量的第u个元素与物品向量的第i个元素之间的耦合交互信息。
本研究将通过两种方式学习耦合交互矩阵
,即分别学习内耦合
和外耦合
。如图4所示,
表示用户与多个物品之间的交互信息,而
表示项目与多个用户之间的交互信息。对于内耦合(MeMe),首先将其放入展平层(Flatten Layer),然后输入到深度自编码卷积网络层(Deep Autoencoder ConvNet Layers)中学习其潜在特征向量,该网络包括多个编码器和解码器。公式如下:
(5)
其中,Conv2D表示非线性激活函数Relu,W表示过滤器,b表示偏置,*表示卷积操作。在分别学习内耦合和外耦合后,输出的交互信息通过连接层连接,然后输入到全连接层中进行评分预测。公式如下:
(6)
(7)
其中,δ表示激活函数,b表示偏置项。
Figure 4. Explicit information interaction learning model
图4. 显示交互信息学习模块
3.4. 多重隐式反馈学习模块
3.4.1. 隐式用户关系
事实上,人们在购买产品时很可能会参考朋友的意见,并受到这些产品的在线评论的影响。类似的现象也出现在用户在网站上的评分行为中。具有相似历史评分的用户在对新物品评分时会产生相似的结果。相似度越高,评分越接近。
在推荐系统领域,用户相似度通过评分数据计算得出。当两个用户之间的相似度较高时,我们认为他们之间存在隐式邻居关系。隐式邻居与用户在社交媒体上直接点击关注的“朋友”不同。用户在社交媒体上关注的朋友是显式信息,但实际上,这种信息并不绝对可靠。尽管用户在社交媒体上关注的一些朋友可能是现实生活中认识的,但用户与其朋友不一定具有相似的偏好。通过评分数据检测到的用户隐式邻居可以确保他们与用户自身的偏好相似。这种隐式信息是可靠的。隐式邻居的评分是预测目标用户对物品评分的重要依据。
我们使用用户相似度来判断两个用户是否为隐式邻居。用户相似度的值限定在[0, 1]范围内。在本文中,我们使用具有代表性的用户相似度度量方法,即皮尔逊相关系数PCC (Pearson Correlation Coefficient)。
(8)
其中,
是用户u和用户v共同评分的物品集合,
是用户u的平均评分。该公式的相似度范围为
,但由于我们只考虑正的隐式关系,因此使用公式
将相似度值限制在[0, 1]范围内。接下来,我们对用户相似度进行排序以找到隐式邻居。我们定义用户u的隐式邻居特征向量如下:
(9)
其中,
表示用户u的隐式邻居集合,
表示隐式邻居的影响向量,参数
用于对向量进行归一化。因此,我们使用隐式邻居特征向量
和用户隐藏特征向量
来表示用户u的偏好。
3.4.2. 用户评分记录
我们将每个项目的评分记录作为第二种隐式反馈。例如,用户的评分记录反映了项目的受欢迎程度以及喜欢该项目的人群。这些信息有助于更准确地预测结果。我们定义项目j的隐式特征向量
如下:
(10)
其中,
表示对项目j进行评分的用户集合,
表示用户w在用户集合
中的隐式影响,参数
用于对特征向量进行归一化。
3.4.3. 用户积极态度
在大多网购网站上评分通常用五个离散的数字[1~5]表示。此外,用户对物品的态度可以分为正面或负面。由于用户态度并非由用户直接提供,因此被视为隐式反馈。我们根据特定规则将评分矩阵转换为二元态度矩阵。从二元态度矩阵中,我们可以识别出每个用户持有正面态度的物品。当用户对物品的评分不低于3分时,用户可能对该物品持有正面态度;反之,如果评分低于3分,则可能持有负面态度。评分矩阵中未评分的物品仍标记为零。
在实践中,人们倾向于对他们喜欢的物品给予正面评价。如果他们对物品漠不关心或不喜欢,通常会忽略它。因此,我们只关注用户的正面态度。当我们准确知道某个物品属于正面类别时,可以预测用户会对类似类型的物品给予高评分。在本文中,我们选择用户的正面态度作为第三种隐式反馈。用户u的正面态度特征向量
如下:
(11)
其中,
表示用户u的正面态度项目集合,
表示对项目i的正面态度的隐式反馈。我们使用来评估用户u对项目i的态度:
(12)
3.4.4. 隐式反馈融合推荐
用户评分预测由两部分组成。第一部分是内在属性的偏移项,许多评分变化是由用户或项目本身引起的,与任何交互无关。例如,某些用户总是比其他用户给出更高的评分,而某些项目总是比其他项目获得更高的评分。在进行预测时,需要考虑全局平均评分、用户偏移和项目偏移。我们定义
表示以下偏移项:
(13)
其中,μ表示全局评分,即所有评分的平均值;
和
分别表示用户偏移和项目偏移。
第二部分是用户和项目特征向量的乘积。用户特征向量包括用户的潜在特征向量和隐式邻居。项目特征向量包括项目的潜在特征向量和评分记录。用户u对项目j的评分预测如下:
(14)
我们将这三种隐式反馈应用于公式(12)和(14)进行用户评分预测。公式(12)使用用户正面态度的隐式信息,而公式(14)使用项目评分记录和用户相似性中的隐式信息。
3.5. 融合模块
在本节中,交互学习模型与多隐式反馈学习模型相结合,增强了模型处理复杂交互关联的能力,并提高了推荐准确性。通过对交互学习模型中的预测评分和多隐式反馈模型中的预期评分进行加权,得到用户u对物品i的最终评分。在交互学习模型中,用户u对物品i的预测评分表示为,而在多隐式反馈学习模型中,预测评分分别表示为和。在融合模型中,将交互学习模型和多隐式反馈学习模型得到的三种不同预测评分结合起来,得到用户u对物品i的最终预测评分。
(15)
符号⊕表示向量连接操作。
如前所述,我们开发了一种新型推荐系统,该系统同时强调显式输入以及显式和隐式反馈的结合。
4. 实验分析
4.1. 数据集介绍
本研究使用了两个不同的真实世界数据集,分别是Book-Crossing [15]和Tafeng [16]。Book-Crossing 数据集包含用户对书籍的1,149,780条评分。此外,该数据集还包含用户的人口统计信息(如年龄和位置)以及书籍的相关参数(如作者、标题、ISBN等)。Tafeng数据集包含817,741条交易记录,涉及32,266个独立用户和23,812个独特物品。此外,Tafeng数据集还包含用户的人口统计变量(如客户ID、年龄和位置)以及物品的详细信息(如原始ID、子类别、数量、资产和价格)。表1展示了数据集的统计信息,包括物品数量、用户数量、评分数量以及稀疏度百分比等指标。数据集被划分为五个子集,其中四个子集作为训练集,第五个子集作为测试集,每次迭代时轮换使用。
Table 1. Datasets description
表1. 数据集介绍
数据集 |
用户数 |
项目数 |
评分数 |
稀疏度 |
Book-Crossing |
278,858 |
271,379 |
1,149,780 |
99.99% |
Tafeng |
32,266 |
23,812 |
817,741 |
85.96% |
4.2. 评价指标
我们使用三种常用的评估指标来评估所提出方法的有效性:平均绝对误差、均方根误差和命中率。MAE [17]和RMSE [18]的计算公式如下:
(16)
(17)
其中,
表示用户u对物品j的实际评分,
表示模型对同一用户–物品组合的预测评分,N表示现有评分数据的总数。MAE是预测值与实际值之间平均差异的度量,而RMSE是预测值与实际值之间平方差均值的平方根。
命中率的定义如下:
(18)
其中,users表示用户总数,hits表示用户评估集中的物品出现在Top-N推荐列表中的次数。
4.3. 基准模型
为了评估我们提出的方法的有效性,我们与多种广泛使用的基线推荐方法进行了对比分析,包括User-KNN [19]、Item-KNN [20]、SVD、SVD++ [21]、矩阵分解(Matrix Factorization, MF [21])以及基于深度学习的GHRS [22]。User-KNN和Item-KNN使用皮尔逊相似度度量,并设置邻居数量K = 20K = 20。SVD和SVD++的潜在向量维度设置为K = 20K = 20,学习率为0.005,正则化因子为0.02,训练轮数为50。GHRS的参数设置为k = 25,训练轮数为50,批量大小为64。
4.4. 实验结果与分析
4.4.1. 模型性能分析
表2和表3展示了在Book Crossing和Tafeng数据集上评估的多种模型的MAE和RMSE结果。这些表格展示了模型在整体数据、冷启动物品(Cold Items)和热门物品(Heavy Items)上的性能表现。每行中的最优结果以粗体标出。与其他方法相比,我们提出的方法在两个数据集上均表现出更优的性能。
Table 2. The MAE, RMSE results over the Book Crossing dataset
表2. MAE、RMSE在Book Crossing数据集上的结果
数据集 |
评价指标 |
推荐算法 |
UserKNN |
ItemKNN |
SVD |
SVD++ |
MF |
GHRS |
本算法 |
All Data |
MAE |
0.85 |
1.04 |
0.99 |
0.95 |
0.90 |
0.84 |
0.81 |
RMSE |
1.10 |
1.20 |
1.19 |
1.20 |
1.19 |
1.11 |
1.03 |
Cold Items |
MAE |
1.36 |
1.74 |
1.52 |
1.66 |
1.76 |
1.36 |
1.21 |
RMSE |
1.91 |
2.21 |
2.16 |
2.2 |
2.21 |
1.89 |
1.70 |
Heavy Items |
MAE |
1.45 |
1.45 |
1.33 |
1.43 |
1.52 |
1.21 |
1.23 |
RMSE |
1.42 |
1.72 |
1.62 |
1.72 |
1.89 |
1.31 |
1.36 |
根据表2和表3的结果,我们的方法在Book Crossing数据集中对冷启动物品的性能提升更为显著,这表明改进冷启动物品的预测具有重要价值,因为现实世界数据集中的大多数物品只有很少甚至没有交互数据。与Tafeng数据集相比,该方法在Book Crossing数据集中的冷启动物品上表现更优。此外,在稀疏度更高的Book-Crossing数据集中,性能提升率也更高。
Table 3. The MAE, RMSE results over the Tafeng dataset
表3. MAE、RMSE在Tafeng数据集上的结果
数据集 |
评价指标 |
推荐算法 |
UserKNN |
ItemKNN |
SVD |
SVD++ |
MF |
GHRS |
本算法 |
All Data |
MAE |
0.72 |
0.71 |
0.73 |
0.72 |
0.72 |
0.66 |
0.63 |
RMSE |
0.93 |
0.91 |
0.90 |
0.89 |
0.87 |
0.86 |
0.82 |
Cold Items |
MAE |
1.73 |
1.63 |
1.65 |
1.59 |
1.58 |
1.60 |
1.42 |
RMSE |
1.97 |
1.87 |
1.89 |
1.88 |
1.88 |
1.79 |
1.73 |
Heavy Items |
MAE |
1.41 |
1.34 |
1.35 |
1.30 |
1.31 |
1.29 |
1.30 |
RMSE |
1.49 |
1.42 |
1.52 |
1.5 |
1.52 |
1.40 |
1.41 |
Table 4. The HR results over the Book Crossing and Tafeng dataset
表4. HR在Book Crossing和Tafeng数据集上的结果
数据集 |
UserKNN |
ItemKNN |
SVD |
SVD++ |
MF |
GHRS |
本算法 |
Book Crossing |
0.051 |
0.048 |
0.0514 |
0.052 |
0.074 |
0.127 |
0.158 |
Tafeng |
0.239 |
0.208 |
0.285 |
0.291 |
0.301 |
0.419 |
0.489 |
表4展示了使用HR@10对Book-Crossing和Tafeng数据集的性能评估结果。显然,我们的方法在所有模型中表现最优。
因此,本研究的结果表明,我们提出的方法通过有效提升数据集的整体性能,展现了更高的预测准确性。此外,在稀疏数据集中改进冷启动物品预测方面,该方法优于其他模型。这表明所提出的方法能够有效缓解冷启动和数据稀疏性问题。
4.4.2. 隐藏层数分析
针对不同的隐藏层维度,我们的模型训练了40个周期。如图5所示,用户和物品潜在向量的维度取值范围为5到60。由于Book-Crossing数据集的高稀疏性,较高的维度能够带来更好的模型性能。相反,Tafeng数据集的稀疏性较低,因此较低的维度仍能使模型表现良好。较高维度的物品向量可以表示更多关于物品和用户的信息,但更高的维度也会增加模型复杂度,因此潜在向量的维度被设置为25。
Figure 5. MAE and RMSE results under different numbers of hidden layers
图5. 在不同隐藏层数下的MAE和RMSE结果
4.4.3. 隐式反馈的作用分析
该实验旨在确定每种隐式输入在推荐过程中的重要性。实验中,每次排除一种隐式反馈,并仅在另外两种隐式输入上训练本模型。实验结果如表5所示,其中集合{(用户相似性,物品评分记录,用户态度) = (0, 1, 1), (1, 0, 1), (1, 1, 0), (1, 1, 1), (0, 0, 0)}用于表示所选的隐式反馈。需要注意的是,值为1表示使用该隐式反馈,值为0表示不使用。向量(1, 1, 1)表示完整的本模型框架,而向量(0, 0, 0)表示完全不使用隐式反馈。
实验结果表明,本模型在包含所有三种隐式反馈时表现最优。两个数据集中不同反馈设置的MAE和RMSE结果按以下顺序排列:(1, 1, 1) < (0, 1, 1) < (1, 0, 1) < (1, 1, 0) < (0, 0, 0)(1, 1, 1) < (0, 1, 1) < (1, 0, 1) < (1, 1, 0) < (0, 0, 0)。
当仅使用两种隐式反馈时,推荐准确性有所下降。当不使用用户正面态度作为隐式反馈时,MAE和RMSE值分别为0.68和0.86,表明用户正面态度是三种隐式反馈中对用户评分影响最大的因素。然而,与不使用隐式反馈的方法相比,使用任何一种隐式反馈都能显著提高准确性。实验证实,在推荐过程中引入隐式反馈是有效且合理的。此外,包含用户正面态度能够带来最高的推荐准确性。
Table 5. Effects of different combinations of implicit feedbacks
表5. 不同组合隐式反馈模型的影响
Dataset |
Implicit Feedback |
MAE |
RMSE |
Book Crossing |
(1, 1, 1) |
0.81 |
1.03 |
(0, 1, 1) |
0.82 |
1.04 |
(1, 0, 1) |
0.82 |
1.05 |
(1, 1, 0) |
0.83 |
1.11 |
(0, 0, 0) |
0.88 |
1.18 |
Tafeng |
(1, 1, 1) |
0.63 |
0.82 |
(0, 1, 1) |
0.65 |
0.83 |
(1, 0, 1) |
0.66 |
0.84 |
(1, 1, 0) |
0.68 |
0.86 |
(0, 0, 0) |
0.71 |
0.89 |
4.4.4. 模块分析
为了验证候选列表和多隐式反馈学习模块对模型性能的提升效果,我们对比了以下三种方法:缺失候选列表的推荐方法(Without candidate list, WCL):不生成候选列表,直接使用完整数据集进行推荐。缺失多隐式反馈学习模块的推荐方法(Without implicit feedback, WIF):不使用多隐式反馈学习模块,仅依赖显式反馈进行推荐。完整的推荐方法:包含候选列表生成和多隐式反馈学习模块的完整模型。
如表6和表7示,WCL和本算法的实验结果表明,在使用基于内容的推荐方法生成候选列表后,模型在Book Crossing数据集上的MAE值分别降低了0.04、0.2和0.01,RMSE值分别降低了0.07、0.22和0.02。此外,模型在TaFeng数据集上的MAE值分别降低了0.04、0.15和0.02,RMSE值分别降低了0.02、0.09和0.02。因此,在使用基于内容的方法生成的候选列表后,模型在冷启动物品上的性能显著提升,能够有效解决冷启动问题。
Table 6. Effects of different functions
表6. 不同模块对模型的影响
数据集 |
评价指标 |
方法 |
WCL |
WIF |
本算法 |
All Data |
MAE |
0.85 |
0.88 |
0.81 |
RMSE |
1.10 |
1.18 |
1.03 |
Cold Items |
MAE |
1.41 |
1.34 |
1.21 |
RMSE |
1.92 |
1.81 |
1.70 |
Heavy Items |
MAE |
1.24 |
1.31 |
1.23 |
RMSE |
1.38 |
1.45 |
1.36 |
Table 7. Effects of different functions
表7. 不同模块对模型的影响
数据集 |
评价指标 |
方法 |
WCL |
WIF |
本算法 |
All Data |
MAE |
0.67 |
0.71 |
0.63 |
RMSE |
0.84 |
0.89 |
0.82 |
Cold Items |
MAE |
1.57 |
1.58 |
1.42 |
RMSE |
1.82 |
1.89 |
1.73 |
Heavy Items |
MAE |
1.32 |
1.36 |
1.30 |
RMSE |
1.43 |
1.52 |
1.41 |
5. 结论
本研究提出了一种新型电子商务推荐系统,该系统利用显式交互数据和多种形式的隐式反馈。所提出的方法使用三个不同的组件进行特征提取:用户–物品基本信息、用户显式反馈和多种隐式反馈。这些提取的特征随后被用于为用户提供个性化推荐。所提出的模型采用十字卷积过滤器从用户和物品的原始数据中提取特征,生成候选推荐列表。随后,使用交互学习模型和多隐式反馈学习模型直接从显式评分数据中提取特征和隐式关系。这些提取的特征进一步用于筛选候选集,最终生成最终的推荐物品集。
在包含真实产品信息和图书信息的数据集上进行的实验结果表明,所提出的模型在性能上优于现有技术,并展现出良好的可扩展性。在后续的研究中,我们计划引入注意力机制,以有效管理用户和产品特征的交互,从而进一步优化模型的性能。