基于位置的社交网络,例如Yelp和TripAdvisor,允许用户与朋友分享有关访问的位置的经验,近年来越来越受欢迎。然而,随着更多地点可用,需要对能够提出个性化建议的准确系统的需求。通过提供此类服务,兴趣点推荐系统吸引了不同社会的许多兴趣,从而引起了改进的方法和技术。深度学习提供了一个令人兴奋的机会,通过利用其他数据更好地了解用户的偏好来进一步增强这些系统。在这项工作中,我们提出了据一世T.一种L.一世C> 基于文本和上下文嵌入的神经推荐器据/italic>(TCENR),一个深入的框架,采用上下文数据,例如用户的社交网络和位置的地理空间数据以及文本评论。为了充分利用这些输入,我们利用多种类型的深神经网络,最适合每种类型的数据。TCENR采用流行的多层情商,分析系统中的历史活动,而使用建议框架的两个变体实现了文本审查的学习。一个是基于卷积神经网络来从文本评论中提取有意义的数据,另一个采用经常性神经网络。我们所提出的网络在Yelp数据集上进行评估,并在准确性,均值平均误差,精度和召回方面占据了多个最先进的基线。此外,我们还提供进一步了解我们推荐系统的设计选择和超参数,希望阐明深入学习基于位置的社交网络推荐的利益。据/p>
在当今的信息时代,它已成为在做出任何决定之前具有可靠数据的先决条件。最好是,我们希望在投资我们的时间和金钱之前从志同道合的用户获得评论,以获得任何产品或服务。基于位置的社交网络(LBSN),例如Yelp,TripAdvisor和Foursquare,提供有关潜在位置的此类信息,同时允许用户与其朋友和其他具有类似品味的用户连接。事实上,这些网络正在获得普及。yelp最近(https://www.yelp.ca/factsheet每个月每月都有7200万个移动活跃的用户,而TripAdvisor每月达到3.9亿用户(https://www.tripadvisor.com/tripadvisorinsights/w828).但是,由于LBSNS拥有更多具有各种偏好的用户,并且每天正在添加其他位置,因此在查找适当的餐厅或地点访问之前,浏览所有可能性变得耗时。据/p>
兴趣点(POI)推荐,推荐系统(RS)的子领域,尝试为LBSN用户提供个性化建议。适当的剥削,它可以节省最终用户的时间和精力,并鼓励她将来在LBSN中以消费者和内容提供商在LBSN中使用。协作过滤(CF)可能是最突出的RS范例。它基于假设类似于过去活动的用户将具有相似的未来偏好。据/p>
虽然POI推荐方法通常试图解决与标准推荐系统类似的问题,但它们需要克服额外的挑战。首先,通常被称为冷启动问题的数据稀疏性是基于这样一个事实:大多数用户只会与可能的位置的一小部分进行交互,反之亦然。当采用CF方法时,在变化较大的情况下,很难根据过去相似的活动来表示用户和位置。对于系统很少或不知道过去的交互的用户和位置来说,这个问题更加严重,因为可用数据不足以完全捕获它们的特性。其次,与其他推荐方案不同,是否访问某个地点的决定不仅取决于目标用户的喜好,还取决于她的朋友的喜好[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B1"> 1据/xref>].它们可能分享系统未知的不同兴趣,从而为rs学习提供更复杂的决策过程。此外,与位置本身相关并未知的属性可能对该决定产生影响。例如,停车或方便的公共交通工具或该地区本身的普及可以是用户的决定性因素。这些挑战证明了经典的CF方法不足,并且易于过度使用以前的作品报告的数据[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2"> 2据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3"> 3.据/xref>].据/p>
通过利用社交网络(如社交网络)的常规方法来解决稀疏性的常见方法是通过使用上下文数据[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2"> 2据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B4"> 4.据/xref>]地理位置[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B5"> 5.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B6"> 6.据/xref>],类别[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B1"> 1据/xref>]和文字评论[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B7"> 7.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B8"> 8.据/xref>].近年来,深度神经网络已经热烈地采用了[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2"> 2据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B9"> 9.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B10"> 10据/xref>]采用此类复杂的上下文输入,同时能够处理大量可用数据。已经引入了不同的神经网络架构来改善推荐性能,例如多层的感知(MLP)[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3"> 3.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B11"> 11据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B12"> 12据/xref>,卷积神经网络(CNN) [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B13"> 13据/xref>-据XR.E.FR.E.F-T.yP.E.="bibr" rid="B15"> 15据/xref>],以及递归神经网络[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B16"> 16据/xref>-据XR.E.FR.E.F-T.yP.E.="bibr" rid="B18"> 18据/xref>].这些技术可以从添加上下文属性中获得极大的好处。随着越来越多的数据可用,整合这些特性为改进个性化的POI推荐过程提供了一个很好的机会,本文将对此进行说明。据/p>
虽然众多作品建立了基于深度学习的推荐系统的潜力,但大多数人都专注于单一类型的神经网络,最适合他们给定的任务。然而,在这项工作中,我们打算包含多种类型的神经网络,即MLP,CNN和RNN,以使用各种类型的输入提供POI推荐。首先,我们将描述我们提出的方法,据一世T.一种L.一世C>
基于文本和上下文嵌入的神经推荐器据/italic>(TCENR),一个框架,带有用户社交网络,地点的地理数据以及文本评论以及历史活动,提供个性化的Top-K POI建议。通过共同优化MLP和CNN,所提出的模型将在结合中学习相同用户位置交互的不同方面,因此将更适合捕获用户选择中的底层因素。然后我们将展示TCENR的延伸,表示为据一世NL.一世NE.-FO.R.mula>
我们工作的主要贡献如下:据L.是T.>
我们提出了TCENR,一个联合训练MLP和CNN提供POI建议的框架,以及一个变体,据一世NL.一世NE.-FO.R.mula>
在以下部分中,我们首先将背景介绍并向我们的模型引入相关的工作。在部分据XR.E.FR.E.F-T.yP.E.="sec" rid="sec3"> 3.据/xref>我们开发了拟议的框架,这些框架在部分中进行了评估和分析据XR.E.FR.E.F-T.yP.E.="sec" rid="sec4"> 4.据/xref>最后,我们总结了我们的工作,并介绍了下一步的工作据XR.E.FR.E.F-T.yP.E.="sec" rid="sec5"> 5.据/xref>.据/p>
包含有关用户和项目的其他数据是提供有意义的建议并减轻冷启动问题的常见策略。在POI推荐系统的区域,其中数据很稀疏,这种做法是必不可少的。据/p>
基于位置的社交网络通常丰富的上下文输入,目前为卢比提供了各种数据富集的机会。这些特征包括时间[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B9">
9.据/xref>,空间位置[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B19">
19据/xref>],用户的社交网络[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B4">
4.据/xref>],项目的元数据[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B1">
1据/xref>], 相片 [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B20">
20.据/xref>],以及人口统计数字[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B11">
11据/xref>].据/p>
上下文数据通常作为输入的一部分或作为正则化因子合并到RS中。参考[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B11">
11据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B21">
21据/xref>]利用基于mlp的网络在建模复杂关系方面的优势,将多个特征嵌入到输入中,然后将其输入到一系列非线性层中。最后一层的输出是用户-项目交互的表示,根据给定的上下文进行调整。序列性通常被引入到推荐系统中,通过及时处理过去用户和商品交互的序列。在POI推荐的情况下,它包括将签入序列输入到基于rnn的层,如长-短期记忆(LSTM) [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B22">
22据/xref>]或更简洁的门控循环单位(GRU) [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B23">
23据/xref>].据/p>
通常通过将输入空间划分为角色和区域来使用空间数据来完成。假设用户的行为在远离家庭时差异,以前的作品[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B5">
5.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B6">
6.据/xref>]为每个用户生成两个配置文件,其中一个用于在她的家庭区域中使用,而另一个用户在更远的位置。最近的方法[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B24">
24据/xref>-据XR.E.FR.E.F-T.yP.E.="bibr" rid="B26">
26据/xref>]在纳入模型之前,尝试将输入空间划分为地理区域,通常是通过层次结构。尽管基于区域和角色的方法能够更好地区分不同位置的用户行为,但它们不提供个性化的用户表示,并且可以忽略用户偏好的潜在变化从一个地区到另一个地区。例如,用户可能更喜欢访问位于不同地区的星巴克地点,离家近或远。中演示了使用附加数据丰富地理特征[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B25">
25据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B27">
27据/xref>在下一个位置预测,通过过去的核对序列部分地确定。然而,这些方法不是通用的,不能扩展到包括从社交网络或文本数据的附加功能。据/p>
此外,对于高度稀疏环境中的任务,如POI推荐、添加特定于用户或项目的输入,可能会降低模型的泛化能力。然而,采用相同的数据作为调节因子可以提高模型的性能,减少过拟合。在[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B4">
4.据/xref>],社交网络中连接用户之间的相似性用于约束矩阵分解(MF)模型。参考 [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2">
2据/xref>]利用社交网络和地理距离来强制为用户和地点实施类似的嵌入,从而提高模型概括用户和几个历史记录的位置的能力。据/p>
由于许多网站鼓励用户向其数字评级提供书面解释,因此文本审查是要集成到RS的最流行的数据类型之一。以前的作品采用了基于概率的方法,以使用文本输入来缓解数据稀疏问题[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B28">
28据/xref>-据XR.E.FR.E.F-T.yP.E.="bibr" rid="B31">
31据/xref>]。通过将每次评论表达为一袋文字,基于LDA的模型能够提取可用于表示用户兴趣和位置特征的主题[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B5">
5.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B6">
6.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B25">
25据/xref>].这些概率方法通常是在处理标准CF方法斗争的问题方面是成功的,例如与城镇外建议相似的用户缺乏足够的历史数据。但是,正如最近的作品所示[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B17">
17据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B32">
32据/xref>],未能保持单词的原始顺序并忽略其语义,妨碍了对给定评论的成功建模。另一方面,在评论上采用神经网络的新兴趋势允许在不丢失数据的情况下进行此类学习。这些实现通常可分为基于RNN的实现[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B17">
17据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B18">
18据/xref>]及美国有线电视新闻网[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B14">
14据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B15">
15据/xref>] 楷模。据/p>
基于RNN的推荐系统通常依赖于句子的顺序结构来学习他们的含义。在 [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B18">
18据/xref>],描述目标项的单词被馈送到双向RNN层。遵循GRU体系结构,该模型利用连续单词的累积上下文来更好地表示每个单词。为了保留和更新单词的上下文,递归模型必须管理大量参数。问题变得更加复杂在采用流行的LSTM范式时,如在[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B17">
17据/xref>].据/p>
在计算机视觉领域取得成功后[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B33">
33据/xref>]基于CNN的模型在其他领域获得了普及,例如文本建模[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B34">
34据/xref>].通过在给定文档上使用滑动窗口,这种网络能够通过识别相关的单词的相关子集来表示文本中的不同特征。参考 [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B15">
15据/xref>]遵循标准CNN结构,由表示每个单词语义的嵌入、生成局部特征的卷积层和识别最相关因素的最大池操作组成。在[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B14">
14据/xref>],开发了两个cnn来代表目标用户和项目基于他们的评论。所得到的向量被视为用户和项目的表示,然后将它们输入到非线性层以学习它们相应的评级。据/p>
我们声称,通过联合学习上下文和基于文本的深度模型,我们提出的方法将更好地利用协同过滤的优点,同时更适应其在稀疏场景中的缺点。这将通过学习用户和位置在直接交互中的相似性,以及从他们的书面评论中提取的潜在特征的相关性来实现。[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B35">
35据/xref>]建议的JRL,一个类似地尝试联合优化多种模型的框架,其中每个框架是负责通过专注于不同的输入来学习相同任务的独特视角。然而,虽然JRL是一般框架,但专注于许多类型的输入可扩展性,我们的建议方法为POI推荐的任务量身定制。据/p>
以下推荐系统旨在通过使用两个并行神经网络学习用户位置交互来改进POI推荐任务,如图所示据XR.E.FR.E.F-T.yP.E.="fig" rid="fig1">
1据/xref>.图左部分所示的基于上下文的网络,旨在利用社会和地理属性,并基于多层感知器结构来建模用户poi偏好[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2">
2据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3">
3.据/xref>].显示在图的右侧据XR.E.FR.E.F-T.yP.E.="fig" rid="fig1">
1据/xref>,卷积神经网络负责文本建模单元[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B14">
14据/xref>].它试图通过分析用户和地点评论的潜在意义来学习相同的偏好。两个网络中的每一个基于在合并层中定义的共享交互中单独地建模用户/ POI输入。据/p>
为了更好地捕获LBSN中用户和地点之间的复杂关系,我们选择采用多层的Perceptron架构。通过堆叠多层非线性,MLP能够学习其输入的相关潜在因子。它首先通过用户和位置向量提供尺寸据一世T.一种L.一世C>
N据/italic>和据一世T.一种L.一世C>
m据/italic>,其中每个输入元组据一世NL.一世NE.-FO.R.mula>
我们利用用户的社交网络以及位置的地理图来限制学习嵌入。两个softmax层取代表示据一世NL.一世NE.-FO.R.mula>
用户和位置嵌入被投影到合并层,并由连接操作符组合。使用连接而不是点积允许不同的嵌入结构,这反过来改善了生成的表示[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3">
3.据/xref>].作为以下神经网络的输入层,合并层可以表示为据一世NL.一世NE.-FO.R.mula>
为了提高模型的覆盖范围,引入了基于文本的网络。它与基于上下文的网络同时学习相同的交互作用,但使用的是自然语言输入。另外两个向量据一世NL.一世NE.-FO.R.mula>
由于培训上述上下文模型所需的大量参数,使用基于CNN的架构来实现文本网络,该架构通常比RNN更大地计算。用户的语义表示和位置的评论将送入卷积层,以检测最能捕获审查的含义的文本的部分。这些层生产据一世NL.一世NE.-FO.R.mula>
基于标准的CNN结构,卷积层产生的特征图通过池层减少:据D.一世S.P.-FO.R.mula>
然后,两个神经网络最终合并以产生预测据一世NL.一世NE.-FO.R.mula>
为了进一步调查通过在TCENR中的评论中集成文本建模组件来实现的增益,我们建议延伸,表示为据一世NL.一世NE.-FO.R.mula>
由于单词的上下文可以由其他前面和连续的单词或句子确定,因此我们所提出的方法采用双向GRU来嵌入用户嵌入,据一世NL.一世NE.-FO.R.mula>
要培训推荐模型,我们采用了一种尖锐的丢失目标函数,如[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2">
2据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3">
3.据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B14">
14据/xref>],其中预测值之间的差异据一世NL.一世NE.-FO.R.mula>
由于推荐任务的隐含反馈性质,算法的输出可以被视为二进制分类问题。随着在最后一个隐藏层上使用Sigmoid激活功能,可以定义输出概率据D.一世S.P.-FO.R.mula>
由于模型中还有两个输出,即用户的社交网络据一世NL.一世NE.-FO.R.mula>
我们同时最小化三个损失函数据一世NL.一世NE.-FO.R.mula>
为了优化组合损失函数,可以采用梯度下降的方法,更具体地,我们利用自适应力矩估计(ADAM)[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B38"> 38据/xref>].除了使学习速率优化过程更有效的情况下,这种优化器可以自动调整学习率并产生比标准梯度血换更快的收敛。为了避免在培训模型时避免额外的过度装备,整合了早期停止标准。模型参数用高斯分布初始化,而输出层的参数设置为遵循统一分布。据/p>
为了评估我们所提出的算法,我们使用Yelp的真实数据集(https://www.yelp.com/dataset/challenge)。它包括与用户的朋友和业务位置的文本评语的子集。由于模型评估中使用的有限资源,我们选择过滤数据集并保留一个简洁的子集,其中删除了少于100个书面评论或少于10位朋友的所有用户和位置。过滤的数据集包括141,028条评论和98.08%的评级矩阵的稀疏性。社会和地理图是随机散步构建的。将10%的原始顶点被采样为基本节点,而20和30顶点分别连接到用户和位置的每个基本节点,窗口大小为3.要构建POI图形,则会直接连接两个位置它们相距高达1公里。据/p>
为了测试我们的模型的性能,原始数据通过随机抽样分开到培训验证测试集,各自的比率为56%-24%-20%,导致78,899次培训实例。此外,输入数据对每个正极的4个负位置进行负面采样。据/p>
要有效地将我们的提案与其他替代方案进行比较,我们采用了相同的设置,适用于[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2"> 2据/xref>那据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3"> 3.据/xref>].MLP输入矢量用嵌入大小为10,而在合并结果的顶部添加了两个隐藏层。在塔架架构之后,每层的大小是其前身大小的一半,隐藏单元的数量分别为32和16,用于第一和第二层。据/p>
在CNN分量中,每个单词由具有50个单元的预制嵌入层表示,而卷积层的构造在窗口尺寸为10和3.它会在执行最大池后扁平的3个特征映射。使用池大小的操作。结果由带有32个单元的隐藏层进一步建模。在两个隐藏单元的合并之后,他们的交互使用其他8个单位的另一层学习。将三个损耗功能组合如(据XR.E.FR.E.F-T.yP.E.="disp-formula" rid="EEq15">
15据/xref>),我们遵循的结果[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2">
2据/xref>,并设置超参数据一世NL.一世NE.-FO.R.mula>
为了评估我们的算法,我们选择将其与以下七个经经验验证的框架进行比较:据L.是T.>
高通滤波器(据XR.E.FR.E.F-T.yP.E.="bibr" rid="B39">
39据/xref>].分层泊松矩阵分解。贝叶斯框架用于使用泊松分解建模隐式数据的框架。据/p>
nmf [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B40">
40据/xref>]:非负矩阵分解,一种仅仅需要额定值矩阵作为输入的CF方法。据/p>
地理贤者[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B5">
5.据/xref>]:使用地理数据和人群行为预测LBSN中的用户办理登机手续的生成方法。据/p>
LCAR [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B6">
6.据/xref>]:位置内容感知推荐系统。一种概率模型,用于利用LBSN和关于POI的内容信息的本地偏好。据/p>
neumf [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3">
3.据/xref>].神经矩阵分解。将MF与MLP的最先进的模型在隐式额定值上。据/p>
速度(据XR.E.FR.E.F-T.yP.E.="bibr" rid="B2">
2据/xref>].偏好和上下文嵌入。一个基于mlp的框架,添加了上下文图平滑的POI推荐。据/p>
Deepconn [据XR.E.FR.E.F-T.yP.E.="bibr" rid="B14">
14据/xref>].深度合作神经网络。一种基于cnn的方法,通过利用用户和位置的自然语言评论来联合学习明确的预测。据/p>
在评估我们的模型和基线的任务中,我们选择全面应用精度和均方误差(MSE)据一世T.一种L.一世C> N据/italic>测试样本,以及精度(Pre @ 10)并召回(REC @ 10),用于每个用户的平均前10个预测。据/p>
所提出的模型是在Tensorflow(https://www.tensorflow.org)顶部的keras(https://keras.io)实现。使用Nivida GTX 1070 GPU进行所有实验。据/p>
表中报告了我们提出的算法和七条基线的性能据XR.E.FR.E.F-T.yP.E.="table" rid="tab1">
1据/xref>以及TCENR在括号中的每种方法上的提高比率。所提出的结果基于三个个别执行的平均值。据/p>
yelp数据集的性能比较。与每种方法相比,TCENR的改进显示在括号中。据/p>
模型据/th>
精度据/th>
MSE据/th>
Pre@10据/th>
Rec@10据/th>
HPF.据/td>
0.8141.据/td>
0.1800据/td>
0.5526据/td>
0.3699据/td>
(1.69%)据/td>
(34.94%)据/td>
(18.51%)据/td>
(40.98%)据/td>
NMF据/td>
0.8222据/td>
0.1189.据/td>
0.3517.据/td>
(0.69%)据/td>
(1.51%)据/td>
(48.28%)据/td>
Geo-SAGE据/td>
0.7995据/td>
0.1807.据/td>
0.2912据/td>
0.4145据/td>
(3.55%)据/td>
(35.19%)据/td>
(124.89%)据/td>
(25.81%)据/td>
LCARS据/td>
0.8142据/td>
0.1612据/td>
0.6408据/td>
0.5127据/td>
(1.68%)据/td>
(27.36%)据/td>
(2.2%)据/td>
(1.72%)据/td>
neumf.据/td>
0.8273据/td>
0.1421.据/td>
0.6488据/td>
(0.07%)据/td>
(17.59%)据/td>
(0.94%)据/td>
速度据/td>
0.8239据/td>
0.1186.据/td>
0.6406据/td>
0.5049据/td>
(0.49%)据/td>
(1.26%)据/td>
(2.23%)据/td>
(3.29%)据/td>
Deepconn.据/td>
0.8037据/td>
0.1454.据/td>
0.5385据/td>
0.323据/td>
(3.01%)据/td>
(19.46%)据/td>
(21.62%)据/td>
(64.46%)据/td>
Tcenr.据/td>
0.1171据/td>
0.6549据/td>
0.8273据/td>
0.4738据/td>
(0.07%)据/td>
(10.07%)据/td>
从结果中可以见证,所提出的模型TCENR与所有基线相比,实现了整体的最佳结果。此外,发现它显着优于HPF,NMF,地理鼠标,LCAR,PACE和DeepConn据一世NL.一世NE.-FO.R.mula>
比较TCENR及其建议的扩展据一世NL.一世NE.-FO.R.mula>
为了进一步评估我们建议的框架和运行时的七个基线,图中给出了完全训练每个方法所需的平均时间据XR.E.FR.E.F-T.yP.E.="fig" rid="fig3">
3.据/xref>.如结果所示,TCENR与大多数基线具有竞争力,发现比DeepConn和LCAR更有效。报告的运行时间据一世NL.一世NE.-FO.R.mula>
Yelp数据集上所有模型的运行时间(秒)。据/p>
在本节中,我们讨论了几种设计选择对建议的模型的性能的影响。据/p>
模型的最终层的重要性,负责组合MLP和卷积网络的密集输出,需要密切关注,因为它影响了网络共同学习和预测本身的能力。要正确选择融合运算符,已考虑以下方法:据L.是T.>
使用连接将两个模型的最后一个隐藏层结合起来。使用此方法的模型将表示为据一世NL.一世NE.-FO.R.mula>
使用点积合并最后的隐藏层,生成一个名为据一世NL.一世NE.-FO.R.mula>
组合两种先前描述的方法,其中两个表示将通过串联和点产品共同学习。产生的模型将表示为据一世NL.一世NE.-FO.R.mula>
采用两个网络预测结果的加权平均值。表示为据一世NL.一世NE.-FO.R.mula>
如图所示据XR.E.FR.E.F-T.yP.E.="fig" rid="fig4">
4.据/xref>,采用更简单的加权平均值和点产品的方法导致TCENR的较差性能,展示了利用每个子网络学习的潜在特征的附加值。结合DOT产品的表现不佳的方法时据一世NL.一世NE.-FO.R.mula>
合并方法在准确性方面的比较。据/p>
虽然它是由[据XR.E.FR.E.F-T.yP.E.="bibr" rid="B3">
3.据/xref>],添加更多的层和单元到基于mlp的推荐具有积极的效果,CNN和额外的隐含层的使用表明这是一个值得研究的课题。为此,我们使用1-4个隐藏层来测试所提出的算法,用于学习在8到128个不同大小的隐藏单元中具有上下文正则化的用户-物品交互。测试集精度的结果如表所示据XR.E.FR.E.F-T.yP.E.="table" rid="tab2">
2据/xref>,其中隐藏图层的数量被定义为列,并且第一单元的大小作为行呈现。与以前的结果不同,我们发现具有32和16个隐藏单元的两个隐藏层导致我们数据集的最佳性能。据/p>
模型的不同层的准确性。据/p>
使用原始订单的书面评论允许通过寻找每几句话最佳表示,并最终为整个文本找到最佳表示,利用CNN和RNN的优势。但是,我们的最终数据集是由非常长的评论组成,在哪里完全学习单个用户或位置,需要超过20,000个单词,使其在计算上提取相关表示昂贵。为了从书面评论的顺序性中受益,同时保持解决方案可行的,单词数量限制在500-6000的范围内。可以从图中见证据XR.E.FR.E.F-T.yP.E.="fig" rid="fig5">
5.据/xref>,准确性的准确性略有提高,因为单词数量高达3000,而其他单词导致用户和位置的增加偏差,越来越长,又降低了模型的学习能力。据/p>
在准确性方面的单词比较数。据/p>
H = 1据/th>
H = 2据/th>
H = 3据/th>
H = 4据/th>
16据/td>
0.824据/td>
0.827据/td>
-据/td>
-据/td>
32据/td>
0.823据/td>
0.825.据/td>
-据/td>
64.据/td>
0.822据/td>
0.829据/td>
0.83据/td>
0.827据/td>
128据/td>
0.823据/td>
0.828据/td>
0.829据/td>
0.827据/td>
在本文中,我们开发了一个神经POI推荐系统TCENR。该模型利用关于用户、位置、空间数据、社交网络和文本审查的数据来预测用户对POIs的隐含偏好。TCENR为两种类型的用户位置交互建模:由上下文信息规范化的本地签入和用于描述用户体验的词语。我们进一步扩展了我们提出的方法据一世NL.一世NE.-FO.R.mula>
对于未来的工作,我们打算将模型评估扩展到额外的LBSN数据集。此外,我们计划通过在额外数据上分析其表现,在额外数据上分析其表现,在审查的新用户和地点,调查拟议的框架对冷启动问题的贡献。据/p>
用于支持本研究结果的数据可根据要求从相应作者处获得。据/p>
作者声明他们没有利益冲突。据/p>
这项工作得到了中国自然科学基金的支持(61572289)和NSERC Discovery补助金。据/p>