文摘
顺序推荐算法可以预测下一个操作的用户建模用户交互序列的一个项目。然而,大多数顺序推荐模型只考虑项目的绝对位置序列,忽略了时间间隔之间的信息项目,和我不能有效的用户偏好的变化。此外,现有的模型在稀疏数据集上表现糟糕,使一个贫穷的短序列的预测效果。为了解决上述问题,一种改进的基于短序列的顺序推荐算法增强和时间self-attention机制提出了本文。在该算法中,反向预测模型训练第一,之前预测序列在用户条目。相反的预测模型是用于生成一批pseudo-historical项目前的初始项目短序列,达到提高短序列的目标。最后,绝对位置信息和时间信息的用户序列建模,以及time-aware self-attention模型被用来预测用户的下一个动作,产生推荐列表。各种实验是在两个公共数据集上进行。实验结果表明,本文提出的方法具有良好的性能在密集和稀疏数据集,和它的效果比艺术的状态。
1。介绍
随着互联网技术的发展,推荐系统已经成为人民日常生活不可缺少的工具之一(1- - - - - -4]。与传统方法相比,顺序推荐模型表现良好——顶部N推荐问题[5]。近年来,随着深度学习技术的发展,基于深度学习的顺序推荐模型被广泛应用,如电子商务购物平台,医疗卫生服务(6,7),和视听平台(8]。用户的交互行为等项目应用平台可以被视为一个行为序列的顺序。在此基础上,研究者提出了各种顺序推荐模型挖掘和分析user-item交互信息。这些模型的目的是为用户提供个性化的推荐列表包含项目帮助用户过滤出有价值的信息。
推荐模型基于马尔可夫链(MC) [9)方法是一个早期的顺序推荐的方法,它假定用户的下一个动作是由他的历史行为和推荐的问题转换成一个序列预测问题。近年来,随着深层神经网络的连续突破(款)在人工智能领域10- - - - - -12),研究人员试图将一系列深层神经网络模型引入到推荐和领域取得了一系列的成果(13- - - - - -15]。例如,黄等。16)结合传统的MC方法和递归神经网络(RNN)模型优化建议,提高推荐精度。基于long-short-term内存(LSTM)网络,徐et al。17)结合self-attention网络捕捉用户的复杂和动态行为偏好。灵感来自于语义理解模型,太阳et al。18]应用双向关注模型顺序建议,结合用户上下文信息和提出建议。现有的顺序推荐模型往往表现不佳时大量的短序列用户数据集(19]。此外,大多数现有的顺序推荐模型只考虑用户的绝对位置信息序列和假定每个项目都有相同的时间间隔,忽视项目之间的时间间隔的影响推荐结果,不能有效地捕获用户首选项(20.]。
上面介绍来解决这些问题,提出了一些改进的顺序推荐模型。例如,赵et al。21)采用双向long-short-term深处记忆网络和注意力机制来获取用户偏好的变化。刘等人。22)第一次使用反向训练短序列的方法扩大短序列,通过增强的短序列调整模型,可以实现特定结果稀疏数据集。Ahmadian et al。23)采用基于深度学习信任tag-aware推荐系统,通过稀疏编码器自动提取潜在的功能,这可以有效地解决数据稀疏的问题。李等人。24)采取了time-aware self-attention机制探索不同时间间隔的影响预测结果。这些方法的研究奠定了良好的基础顺序推荐模型,但是仍有一些问题没有很好的解决。例如,pseudo-historical物品所产生的直接反向训练不够准确,信息的时间间隔并不是充分挖掘捕捉用户首选项。
基于之前的研究,我们提出一个基于短序列顺序推荐模型增强和改进time-aware self-attentive机制来解决上述问题。首先在提出的模型中,数据集预处理将用户划分为长序列集和短序列集。然后,通过反向训练长序列集,生成一个反向预测模型。最后,短序列的模型转移,和一批pseudo-historical物品之前生成的初始项目短序列,提高短序列和解决数据稀疏的问题。同时,该模型采用一种改进的时间间隔self-attention机制,它不仅考虑了绝对位置信息对推荐效果的影响,还考虑了任意两个之间的时间间隔的影响信息商品的推荐结果。
本文提出的模型能够充分反映用户偏好随时间的变化,提高推荐系统的准确性。总的来说,本文的主要贡献如下:(1)pretrain反向预测模型,使用学习方法转移到反向预测短序列,并产生一批pseudo-historical项目前的初始项目短序列,从而达到提高短序列的目的。(2)结合的绝对位置信息和时间间隔信息项,改进time-aware self-attention机制是用来给重量和时间间隔的重量绝对位置不同的项目,充分利用用户行为偏好的变化,预测用户的下一个动作,并生成一个推荐列表。(3)两个真实数据集上进行了大量实验。结果证明该模型的有效性,可以在两个不同的指标上优于现有方法。此外,每个关键组件的影响在该模型讨论了推荐结果通过多个实验。
本文组织如下。部分2介绍了相关的工作。部分3给出了该模型的细节。部分4提供实验和分析的结果。部分5讨论了参数和算法的重要组成部分。部分6提供了结论。
2。相关的工作
2.1。顺序推荐模型
最早的顺序推荐模型主要是基于MC法(25]。这些MC-based模型在其他类型的推荐算法有明显改善的短期预测。然而,这种类型的模型不能捕获用户的长期行为特征序列和低精度和高计算复杂度在长期预测。
深度学习技术照耀在机器视觉领域和自然语言处理26,27),深度学习技术的引入到推荐系统也已成为研究人员关注的焦点。例如,Zhang et al。28)设计了一种新的基于递归神经网络的基于会话的推荐方法,融合用户的偏好信息和动态偏好信息。太阳et al。29日)提出了一个方法基于时间上下文感知和RNN,可以有效地捕获项目之间的相关性。此外,long-short-term内存(LSTM)和封闭的复发性单元(格勒乌)(RNNs两种流行的变体)也推荐领域的实现结果。例如,元et al。30.)计算全球用户序列的状态转换模型的用户兴趣偏好的变化,基于一种改进的格勒乌模型。赵et al。31日)提出了一个基于LSTM content-aware电影推荐模型,有效地利用长期和短期信息序列的内容感知和电影的建议。然而,大多数是简单的时间序列模型假定用户行为序列序列,不考虑项目之间的时间间隔的信息。与此同时,现有的模型对稀疏数据集和短序列表现不佳的用户。
2.2。Transformer-Based模型
注意机制取得了伟大的成果在大量的作品中,如图像处理(32,33和自然语言处理34]。注意机制的本质可以理解为选择一些重要的信息从大量的信息和给他们的权重,权重的大小代表信息的重要性。近年来,变压器,一个神经网络架构基于纯注意力机制,取得了良好的性能和机器翻译领域的影响(35]。灵感来自这,研究者transformer模型引入到推荐系统(36),取得了良好的效果。比起的的基于变压器模型使用扩展点积的关注,提出了如下: 在哪里 , , 三个矩阵代表查询、键和值,分别;是比例因子,它是用来避免内积值太大;和是归一化函数33]。
注意函数可以被描述为一个查询映射和一组键值对输出,查询,键值,输出向量。计算输出的加权和的值。transformer模型采用多线程机制,关注并行执行的关注功能,连接到每个输出值与线性项再次获得最终结果。多线程的注意机制,使模型关注的信息在同一时间不同地点的不同子空间。比起的体系结构的基于变压器模型如图1。
3所示。提出顺序推荐模型
在本文中,基于短序列的顺序推荐模型(SeTsRec)增强和颞self-attention机制,提出了在图所示2。首先,原始数据预处理,用户分为长序列集和短序列用户组;然后是长序列集相对地输入变压器网络训练反向预测模型。随后,灵感来自于转移学习方法(37),这个反向预测模型转移到短序列前用户生成一批pseudo-historical项目短序列的初始项目用户行为列表。通过结合pseudo-historical项目和短序列用户行为列表,一个增广的短序列序列生成增强短序列。最后,长序列和增强短序列作为训练的输入time-aware self-attention推荐模型和预测用户的下一个动作。本文提出的模型将详细描述如下。
3.1。问题描述
在顺序推荐的问题,我们假设 是系统用户组,在哪里是用户的数据集,然后呢 系统的项目集,在哪里是项目的数量在一个特定的数据集。用户吗 , 和 用户行为序列和时间序列,分别表示用户的行为序列的长度吗是 。序列中的每一项行为时间顺序的安排用户的互动,和时间序列中的每个元素代表实际的用户之间的交互作用时间和项 。在某一时刻,给定用户的行为序列和时间序列 ,该模型的目标是预测用户的下一个项目是最有可能接触,表示为 在哪里某一项的输出概率和吗是非线性函数,需要学习。
推荐系统通常为用户提供多个推荐结果,最后生成一个推荐列表包含物品。集 作为输出所有的候选人的可能性,根据候选人的输出概率,选择前面的推荐的项目,是著名的-N推荐系统的推荐问题。
3.2。短序列增强
顺序推荐算法的推荐方法,预测用户的下一个动作到挖掘用户行为序列中包含的信息。因此,用户行为序列信息的有效性是至关重要的。现有顺序推荐方法取得了良好的效果。然而,大多数现有的方法不能解决短序列的预测问题,通常稀疏数据集上表现不佳。处理限制问题顺序推荐模型的稀疏数据集,该方法在本文中利用学习转移到提高短序列在现有研究的基础上,将详细介绍如下。
3.2.1之上。反向预测模型
理想情况下,在机器学习领域,它总是希望使用的数据集模型训练密度和效率。然而,在实际的研究过程中,数据集通常有大量数据稀疏的现象。在稀疏数据集,经常有大量的缺失或零数据,使数据可用性非常差,带来许多困难建立推荐模型。
在这篇文章中,用户设置首先划分为一系列的用户组吗和一个短序列的用户集根据用户序列的长度。长序列的用户组是一个密集的数据等,短序列的用户设置是一系列用户的稀疏数据集。准备好了吗 ,行为序列可以获得。摘要长序列首先是逆转获得相反的顺序 ,然后反向序列输入变压器层培训,获得反向预测模型。为用户 ,这个反向预测模型的目的是预测序列的以前的项目 : 在哪里表示前一项的项序列中的 。虽然模型reverse-trained,变压器网络我也能够interitem相关性,已经证明了在以前的工作22]。
3.2.2。Pseudo-Historical项代
现有的方法往往把推荐任务的数据集作为一个整体,忽略不同用户的不同的数据质量在相同的数据集。具体地说,一些用户有更多的互动项目,和这些用户的数据是相对富裕的和可靠的;虽然一些用户交互数据的项,所以这些用户的数据是稀疏的,可以可怜的可用性。为了解决这个问题,本文运用学习方法将反向转移预测模型的一系列用户获得高于短序列的用户(38]。长序列反向预测的任务是作为源任务,和短序列反向预测的任务是作为目标的任务。通过充分挖掘丰富的数据信息提供的一系列用户,用户短序列数据稀疏问题的缓解,从而提高整个推荐质量。短序列集作为输入,反向预测模型用于生成假短序列用户的项目,即: 在哪里代表的行为序列短序列的用户集和表示前一项的项序列中的 。
对于一个数据集,我们定义的长度代表短序列的用户设置的门槛。也就是说,如果一个序列的长度(用 )小于 ,这个序列被认为是短序列;否则,序列被认为是一个长序列。
在本文中,我们表示生成的一组pseudo-historical项目 并将这组之前最初的项目最初的短序列形成一个增广短序列,在哪里是pseudo-historical项的总数由短序列生成的。图3显示了增强短序列集,黄色部分代表pseudo-historical生成项,和绿色的部分代表原来的短序列。在图3,它是假定 。生成的增强型短序列用
3.3。Time-Aware Self-Attention模型
现有顺序推荐模型简单地认为用户的行为列表顺序序列根据用户和项目之间的相互作用时间。此外,该项目被视为拥有相同的时间间隔。具体来说,如图4(一),如果用户A和用户B暴露在相同的项目,传统的方法将把项目之间的时间间隔的两个序列作为一个固定的值天,这将导致相同的结果为两种不同的用户。然而,这样的结果是不合理的,因为实际时间,用户a和用户B获得这些物品是不同的。
(一)
(b)
在实际的应用程序场景中,物品将之间的时间间隔不同,即使用户的行为列表完全相同的是由于不同的实际用户和项目之间交互作用时间。如图4 (b),尽管用户A和用户B暴露在相同的项目,项目之间的时间间隔是不同的。在这种情况下,如果模型可以结合不同的时间间隔之间的信息项目,可以更准确的推荐结果。解决上述问题,本文采用一种改进的time-aware self-attention模型。该模型的整体框架如图5将详细介绍如下。
3.3.1。时间间隔矩阵
在得到增强的用户行为序列 ,它作为模型输入长序列 。首先,两种不同类型的行为序列转换成固定长度的序列 : 在哪里代表输入模型的最大序列长度。如果序列的长度或大于 ,只有最新的项目被认为是;否则,填充条目被添加到左边的序列直到它的长度达到 。
同样,对于时间序列和 ,他们可以被转换成一个固定的序列 :
如果序列的长度或大于 ,只有最新的项目被认为是;否则,第一项对应的时间使用左侧的序列 ,和填充它,直到它的长度 。在这项研究中,时间的pseudo-historical项目中生成部分3.2。2,平均时间间隔 用于定义他们反过来,计算如下:
在获得用户的固定时间序列 ,定义任何物品之间的时间间隔 。由于不同频率和不同用户之间的交流互动项目,本文采用的相对长度项目之间的时间间隔,这是定义如下(24]:
最后,时间间隔矩阵的用户可以得到:
3.3.2。Time-Aware Self-Attention模块
(1)Time-Aware Self-Attention层。对于每个输入序列,一个嵌入层应用于用户行为序列转换成项目嵌入矩阵 ,绝对位置信息位置嵌入矩阵 ,信息和时间间隔时间间隔嵌入矩阵 (是潜在的维度):
然后一个新的序列 计算: 在哪里 通过输入项嵌入,嵌入绝对位置,和时间间隔嵌入,即 在哪里 , , ,分别代表的输入项矩阵值,查询和关键;是比例因子,它是用来防止内积太大;和是偏差项。
(2)逐点前馈网络。的self-attention层模型主要是基于线性组合实现绝对位置信息的组合和相对时间间隔的物品的信息。为了使模型具有非线性特征,考虑不同的潜在维度之间的相互作用,我们运用逐点地前馈网络的每个输出self-attention层: 在哪里是一个激活函数,ELU。使用ELU函数的主要原因是它可以解决死亡Relu问题,同时减少偏见的影响抵消,和学习速率更快。 代表矩阵和重量 代表偏差项。
(3)叠加Self-Attention块。self-attention层和逐点连续叠加的前馈网络,过度拟合,训练时间长等问题。为了解决这些问题,本文采用剩余连接,辍学,和归一化处理方法(层36]: 在哪里级产品; 代表的均值和方差 ;和 代表了规模因素和偏见。
具体工作流程如下:对于每个self-attention块,层正常化是首次应用于每个输入 ,这有利于稳定和加快神经网络的训练过程。然后,self-attention层应用于逐点的输出前馈网络,给模型nonlinearization特性。最后,一个辍学正则化技术应用于前馈网络的输出位置,为了缓解过度拟合问题,发生在深层神经网络。使用辍学正则化技术的主要原因是,它可以通过人为地破坏控制过度拟合数据,已被证明是有效的在不同的神经网络结构(39,40]。
3.3.3。预测层
的预测层获得决赛后表示项目的绝对位置和时间间隔,为了预测用户的可能的下一个动作,我们使用Softmax函数计算用户的交互概率与候选项 ,即: 在哪里代表了嵌入向量的物品和代表第一个序列 包含项目和他们的时间间隔 之间的 项。
3.3.4。模型推理
本文使用用户隐式交互数据。在隐式反馈,用户和项目之间的相互作用可以被视为一个二元分类问题,在1意味着用户喜欢一个项目和0意味着用户不喜欢或没有接触项目。因此,用户行为序列的物品可以被视为积极的样本。同时,用户并没有触及的所有物品被认为是负面的反馈,这是负样本取样。本文进行抽样的比例 。-为每个用户执行抽样时,原则是选择人气较高的那些项目,更具代表性。损失函数如下(30.]: 在哪里代表了预测候选项目;代表负样本; 是集,它代表了嵌入矩阵;和正则化参数,用于防止模型过度拟合。在培训过程中,亚当优化器是用来优化模型,这是一个随机梯度下降法(SGD)算法的变体(41]。亚当为自适应学习速率的优化算法,优化器通常用于任务稀疏数据场景,及其收敛速度快(42]。
总之,该算法的过程,算法1所示。
|
4所示。实验
4.1。设置的实验
以下4.4.1。数据集
为了验证本文算法的有效性,实验在两个公共数据集,即Movielens-1M数据集(用ML-1M,明白了https://files.grouplens.org/datasets/movielens/ml-1m.zip)和亚马逊数据集(用AM-BE,看到美https://snap.stanford.edu/data/amazon/productGraph/categoryFiles/reviews_Beauty_5.json.gz)。其中,ML-1M数据集是一个密集的数据集,以及AM-BE数据集是一个稀疏数据集。密集数据集ML-1M本文用于评估时间self-attention改善的有效性提出的模型,而稀疏数据集AM-BE是用来评估的有效性改善短序列增强该模型的方法。两个数据集的数据表中列出1,其中包含的信息,如用户、项目和时间戳。
在实验之前,这两个数据集预处理[17]。所有的数据集,我们对待评级行为隐含的反馈,其中“1”表示,有一个用户和项目之间的交互,相反,“0”意味着没有用户和项目间相互作用。然后,行为是根据时间顺序排序的实际用户和项目之间的相互作用生成用户的历史行为序列。
本文的分析方法用于训练和测试模式43]。即用户最后behavior-producing项被认为是真正的价值,这是作为测试集。最后second-behavior-producing项目是作为验证集,和所有其他剩余的物品作为训练集,分析方法的优点是不受随机样本划分方法和可以使用尽可能大的样本进行训练。适用于稀疏数据集。
4.1.2。评价指标
本文采用两个常用指标在前N推荐问题,即命中率(人力资源)和归一化累积折扣获得(NDCG) [29日评估模型的推荐性能。
命中率(人力资源)是一种常见的指标测量召回率,可以直观地衡量预测项目是否存在在第一项目的列表。命中率越大(HR),更准确的推荐。人力资源的计算如下: 在哪里代表所有项目在测试集,代表用户的推荐列表,上面的数量物品的测试集。
NDCG常被用来评估排名的推荐结果的准确性(44]。NDCG介绍位置影响因素的折扣低排名的建议。NDCG的计算如下: 在哪里是归一化因子,用于制造NDCG的值在0和1之间,代表了预测相关物品的位置在序列。如果项目是在测试集, 否则, 。
上述两个指标可以反映的性能建议列表。本文截取了前10名的推荐列表,即 ,并使用(电子邮件保护)和(电子邮件保护)推荐模型的性能进行评估。
备注1。本文提出的方法是基于深层神经网络学习技术转让,这需要更多的时间在这个过程中模型的训练。然而,该模型是离线训练和计算时间的预测是非常快。因此,计算复杂度不作为评价指标在这项研究中,这是一个常见的方法在文献中关于推荐问题[19,44]。
4.1.3。比较的方法
展示的效率提出了方法(用SeTsRec),比较各种方法用于本文包括推荐方法不考虑顺序,经典的推荐方法,和最新的推荐方法。在实验中,这些比较的设置方法是由他们的最优参数根据各自的论文声明。列出了比较方法如下:(一)流行(28]:流行是一个简单的基准方法产生推荐列表项人气排名的基础上,即物品等级更高的更受欢迎。(b)BPR (45]:贝叶斯个性化排序方法,它是一个典型的非顺序推荐使用矩阵分解方法。(c)FPMC [46):一个顺序推荐法结合矩阵分解和马尔可夫链方法。(d)GRU4Rec + (47:用户会话的RNN-based深度顺序推荐模型。(e)装箱机(48]:CNN-based顺序推荐法捕获高阶马尔可夫链嵌入矩阵应用卷积操作最近的术语。(f)SASRec [36]:先进的顺序推荐的方法,第一种方法使用self-attention-based顺序推荐模型。(g)TiSASRec [24]:一个最先进的顺序推荐模型,multiorder注意力机制适用于捕获个人和项目联系。
4.1.4。其他设置
这些实验是在计算机上与Windows 10系统和在实验中使用的编程语言是Python3.6。在这项研究中,该模型使用了两个self-attention块。因为不同的数据集有不同的稀疏,一些参数是不同的,比如最大序列长度和潜在的维度 。这些参数的设置将节中讨论5获取详细信息。提出深度的参数表中列出网络和实验环境2。
4.2。实验结果和分析
表3显示了该算法的实验结果和所有基线方法在两个不同的数据集有不同的指标。结果在表3显示效果最好的建议是通过该方法在这篇文章中,这证明本文模型的优越性。结果详细分析如下:(1)FPMC在大多数情况下,顺序推荐方法,GRU4Rec +,装箱机比非连续性推荐流行和BPR的方法。这表明考虑的必要性在推荐系统中用户行为的顺序列表。用户的行为序列订单信息可以有效地描述用户的偏好变化在一定程度上,可以有效地提高推荐系统的性能。(2)与三个古典顺序推荐方法相比,最近引起SASRec和TiSASRec方法优于所有其他基线方法在两种不同类型的数据集,这表明注意力机制可以有效地提高推荐系统的性能。(3)SeTsRec在本文提出的算法改进现有算法的基础上。通过短序列增强和一种改进的使用time-aware self-attention机制,它不仅适用于稠密数据集,也对稀疏数据集有最好的结果。密集数据集ML-1M,(电子邮件保护)和(电子邮件保护)所提出的方法提高了1.1%和1.7%,分别与第二TiSASRec最好的方法。AM-BE稀疏数据集,该方法的性能提高了9.4%和7.7%,分别与TiSASRec相比。与基线的方法相比,我们的模型采用一种改进的time-aware self-attention机制,可以自适应地调整项绝对位置信息和时间间隔信息分配不同的权重在两种不同类型的数据集。
5。讨论
实验的结果部分4表明,该模型具有更好的性能比艺术的状态。关键参数的影响将在本节中讨论。此外,本节中的烧蚀实验进行进一步讨论的改善提出模型的有效性。
5.1。对潜在的维度
首先,潜在的影响维度在推荐的性能结果讨论了我们的模型,并进行了一些实验,其他hyperparameters保持不变,而潜在的维度范围内的改变吗 。实验结果如图6和7。
(一)
(b)
(一)
(b)
它可以看到从图6(密集数据集ML-1M)模型的整体性能提高,增加潜在的维度和逐渐趋于收敛,随着潜在维度的增加。然而,稀疏数据集AM-BE,更大的潜在维度不会导致更好的性能。原因是太多的潜在维度将导致过度拟合,从而降低模型的性能在一个稀疏数据集。ML-1M数据集,本文算法收敛时 。考虑到模型的性能和时间成本,本文将潜在的维度 ML-1M数据集和集 在AM-BE数据集。
5.2。最大序列长度
该模型的另一个重要参数是最大序列长度 。讨论最大序列长度的影响输入模型的推荐结果的性能,进行了一些实验,最大序列长度改变的范围[80],同时保持其他hyperparameters不变。实验结果如图8和9。
(一)
(b)
(一)
(b)
它可以看到从图8(在密集数据集ML-1M)模型达到令人满意的性能,当序列长度 。因此,在考虑平衡模型的性能和时间成本,我们设置了最大序列长度 ML-1M数据集。AM-BE稀疏数据集,它可以观察到,该模型性能时并没有改变多少变化,这是因为AM-BE数据集的平均序列长度是4.4(见表1),甚至在一定程度的短序列增强,时间越长序列输入不提供更多有用的信息,但会增加时间成本模型。因此,设置为最大序列长度 在数据集AM-BE。
5.3。烧蚀实验
本节讨论的影响两个主要的改进模型,即短序列增强和time-aware self-attention机制。在这些烧蚀实验,该方法只基于短序列增强被定义为SeTsRec-Se,和方法只基于time-aware self-attention被定义为SeTsRec-Ts,和他们相比现有SASRec SeTsRec方法和我们提出的算法。实验结果如表所示4,数据10和11。结果详细分析如下。(1)密集数据集ML-1M, SeTsRec-Ts法优于SeTsRec-Se法和SASRec方法。实验结果表明,改进模型的短序列增强方法是有限的。在这种情况下,SeTsRec-Ts方法可以取得良好的成果,及其性能提高了1.4%和3.3%,分别的(电子邮件保护)和(电子邮件保护)与SASRec相比,这是接近SeTsRec本文改进的算法。(2)稀疏数据集AM-BE, SeTsRec-Se法比SeTsRec-Ts法和SASRec方法,及其性能提高了3.6%和3.2%,分别的(电子邮件保护)和(电子邮件保护),而SeTsRec-Ts。实验结果表明,有必要使用的方法提高短序列稀疏数据集。此外,模型效果不会太大改善,如果只有time-aware self-attentive机制方法。这是由于短序列的大部分用户稀疏数据集,这限制了整个模型的推荐效果。(3)总之,该算法不仅SeTsRec本文认为短序列增强缓解数据稀疏的问题,还结合了time-aware self-attention机制,充分考虑用户偏好随时间的变化。因此,它优于现有方法稠密和稀疏数据集。
6。结论
本文提出一种基于改进的短序列的顺序推荐算法增强和颞self-attention机制。该算法首先列车反向预测模型通过一系列用户数据集,在用户序列预测相反的建议。用户模型转移到短序列,和pseudo-historical物品的短序列生成用户提高短序列。加强短序列后,一种改进time-aware self-attention模型被采用,而自适应地分配不同的权重结合之间的时间间隔信息和绝对位置信息项。它可以深入我的用户偏好随时间的变化。实验结果表明,我们的方法优于现有的顺序推荐方法在不同的数据集。在未来,它可以被认为生成更准确pseudo-historical物品通过提高反向预测模型进一步改进推荐效果。
数据可用性
公开的数据集进行分析。这些数据可以发现https://files.grouplens.org/datasets/movielens/ml-1m.zip和https://snap.stanford.edu/data/amazon/productGraph/categoryFiles/reviews_Beauty_5.json.gz。
的利益冲突
作者宣称,他们没有利益冲突。
确认
这项工作得到了国家自然科学基金(61873086)和常州的科技支持计划(CE20215022)。