复杂性 复杂性 1099 - 0526 1076 - 2787 Hindawi 10.1155 / 2019/4932030 4932030 研究文章 通过利用位置信息预测的服务质量 http://orcid.org/0000 - 0002 - 3787 - 8832 程ydF4y2Ba 1 Fenfang 1 http://orcid.org/0000 - 0002 - 7878 - 4330 Zibin 1 2 姚明 1 荐新 1 学校的数据和计算机科学 中山大学 广州510006 中国 sysu.edu.cn 2 数字化生活的国家工程研究中心 中山大学 广州510006 中国 sysu.edu.cn 2019年 11 4 2019年 2019年 25 01 2019年 26 03 2019年 11 4 2019年 2019年 版权©2019梁陈等。 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

QoS(服务质量)(我们的方法可以应用于各种各样的服务;在本文中,我们专注于Web服务)性能集中相关位置由于网络距离和互联网用户和服务之间的联系。因此,考虑到服务和用户的位置信息是必要的。然而,位置信息已经被大多数以前的工作被忽视了。在本文中,我们把两个服务”,用户的位置信息。具体来说,我们提出一个位置感知服务质量预测的方法,称为LANFM,利用神经网络技术和分解机改善用户预期的经验。首先,信息(例如,id和位置)的服务和用户表示为嵌入向量利用神经网络技术。然后,各种嵌入向量的内积,特征向量的加权和,是用来预测QoS的值。应该注意的是,内积操作可获取服务和用户之间的交互,这有助于预测QoS值没有被调用的服务的用户。一组广泛的实验进行了一个真实的数据集上验证LANFM模型的有效性。

国家重点研究和发展项目 2017年yfb0202201 中国国家自然科学基金 61702568 U1711267 广东省引进创新和创业团队 2017年zt07x355 中央大学基础研究基金 17 lgpy117
1。介绍

Web服务是面向服务的体系结构技术,通过标准网络协议提供服务以支持不同网络上的机器的交互操作( 1]。指数增长的Web服务在互联网上,出现大量的Web服务有相同或相似的功能。这些Web服务有不同的QoS性能。Web服务是广泛的非功能属性描述的QoS ( 2]。一般来说,QoS非功能性性能标准的Web服务的列表,包括流行、响应时间、吞吐量、失效概率,和可用性。用户感受到的QoS将密切与网络状态、地理位置和服务运行时环境。

在现实中,只有一个Web服务被调用的一部分用户。结果,调用Web服务和用户之间的矩阵是稀疏的,因为大多数用户服务矩阵的条目都是null。评估Web服务是一个很好的方式获得准确的QoS的服务用户。然而,有很多的挑战在调用Web服务从客户端用户的角度评价的目的。首先,它是耗时和不切实际的用户调用每一个Web服务进行评估的目的,由于在互联网上大量的Web服务。其次,大多数Web服务供应商是商业公司。这些公司允许用户获取QoS信息通过调用Web服务,同时为用户可以非常昂贵。第三,是不够专业的没有经验的用户对Web服务进行评价。最后,定期进行服务调用给用户带来沉重的工作量不断观察服务的QoS性能。因此,如何准确预测QoS值正成为一个紧迫的问题,增强用户感受到的体验。

为了减轻这些关键的挑战,很多工作( 3- - - - - - 6]对QoS预测,同时,在大多数情况下,只有信息的用户id和服务利用id和用户的位置信息和服务很大程度上被人们忽视了。应该注意的是,Web服务的QoS性能是密不可分的位置。原因是网络用户和服务之间的距离和互联网连接对用户感受到的QoS性能在很大程度上的影响。因此,考虑到位置因素有助于提高QoS的预测结果。最近,一些作品( 7- - - - - - 12)已经注意到用户的位置QoS值的影响。这些调查主要是基于这样的观察:当调用相同的Web服务时,用户在不同的地方可能会通过不同的体验,由于不同的基础设施。然而,这些现有的QoS预测方法有高维度的缺点,时间复杂度高,和高费用,由于利用传统的基于用户/基于项目协同过滤和矩阵分解技术。的尺寸特征向量用于以前的工作相对来说比较高,基本上与时间复杂度 O ( N 2 ) ,它需要大量的人工工程特性。更多的创新和有效的方法需要使用服务信息和用户信息。这些方法促进解决上述缺点,进一步提高QoS预测的准确性。

克服上述现有QoS预测方法的缺点,我们宁愿利用神经网络和分解机技术。具体来说,分解机器的时间复杂度是线性的。另外,分解机只依赖于一个线性参数的数量( 13]。包埋技术在神经网络可以从高阶源项目数据空间到低阶目标空间,可以保持良好的结构不变性。高维度的问题可以解决了嵌入技术。Web服务之间的交互,用户可以通过学习十字架被分解机功能,即使从未用户调用的Web服务。分解机可以应用于处理数据稀疏和时间复杂度高的缺点。

基于QoS的预测问题的特点和嵌入和分解机的意义,在本文中,我们提出一个 l的位置, 一个器皿QoS的预测方法,利用 Neural网络和 Factorizationachine(称为LANFM),改善用户感受到的体验。本文从它的初步扩展会议版本( 14),主要利用了用户的id功能和服务的QoS id特性预测。此外,我们只考虑影响参数矩阵密度和尺寸嵌入向量(矩阵密度设置为10%)在会议论文。

特别是,本文的重大贡献可以总结为三个方面:

两个服务”,用户的位置信息是考虑。嵌入式的服务和用户的位置信息可以用于获取服务和用户之间的交互

基于额外的位置信息,可以增强用户和服务之间的交互。也就是说,该方法是一种增强神经因子分解为QoS预言机模型

一个真实的数据集用于验证LANFM模型的有效性。实证研究表明,考虑用户和服务的位置信息确实有助于提高QoS预测的准确性。影响矩阵的密度,嵌入向量的维数,分别和批处理大小进行评估

论文的其余部分安排如下。部分 2突出了一些相关工作协同过滤和位置感知QoS的预测。部分 3介绍了QoS预测问题,动机,和我们LANFM的框架模型。部分 4礼物的细节我们LANFM QoS值预测模型。部分 5介绍了一些实证研究,分析了实验结果。部分 6论文的结论。

2。相关工作和讨论

在本节中,我们提出的一些调查与研究问题相关的QoS的预测。

2.1。基于协同过滤的QoS的预测

目前,协同过滤技术是广泛应用于QoS的预测。这些基于协同过滤的方法主要分为三类:基于内存的,基于模型和混合。我们将分别介绍它们在以下段落。

基于内存的方法。这种方法措施之间的相似用户或服务利用用户和服务之间的历史调用日志。它包括基于用户的方法( 15, 16,基于项目的方法 17, 18),以及它们的混合( 4, 19]。例如,太阳et al。 20.)提出了一种新颖的方法来测量Web服务之间的相似性。进一步,他们提议预测QoS通过引入协同过滤正常恢复。熊等。 21)利用历史上的使用经验,提出了一种协作方法。他们旨在解决不平衡数据的QoS的预测问题。马等。 22)开采几个显著特征一些以前从未被发现的QoS的数据集。他们提出了一个强有力的预测方法实现这些特性来帮助预测QoS。

基于模型的方法。这种类型的方法预测QoS服务用户利用机器学习技术。这种类型的方法提出了一些代表在以下。郑et al。 5)提出了一个社区综合矩阵分解的方法来预测用户的QoS通过考虑用户和服务之间的调用历史记录。徐et al。 23)把用户的声誉考虑,提出了一个基于声誉的矩阵分解的方法来预测QoS的价值观。罗等。 24)提出了一种矩阵分解模型Tikhonov正则化条件和nonnegativity约束下的QoS的预测。吴et al。 14)嵌入用户id和分解机使用的服务id向量和预测用户的QoS。

混合方法。这种风格的方法集成了基于内存和基于模型的方法。混合方法通常统一相似性度量和矩阵分解的力量。例如,陈等人。 25聚集用户和服务的社区关系。然后,他们预测QoS值通过应用一个社区正规化矩阵分解的方法。苏et al。 6)首先结合直接相似性和传递间接相似的服务。进一步,他们提出了一个混合算法执行QoS预测通过集成非负矩阵分解模型和采用。Lo et al。 26)确定社区通过测量用户方面的相似性和服务端从不同的方面。然后,他们提出了一个关系正规化矩阵分解结构QoS的预测。

2.2。位置感知服务质量预测

用户和Web服务的位置信息是集中有关Web服务的QoS性能因为网络距离和互联网连接。考虑位置信息将做很多有利于提高QoS预测精度。

一些研究已经考虑到最近的位置信息。陈等人。 27)使用QoS的特点设计一个地区大规模服务的QoS的预测模型。Lo et al。 28)确定邻居通过考虑本地连接和地理信息。他们提出了一个新颖的基于位置的正规化矩阵分解模型来预测用户的QoS。他等。 29日]应用集群用户服务群体的位置信息,提出一种层次矩阵分解方法基于位置信息实现个性化的QoS的预测。陈等人。 11)将用户和服务分成几组采用用户位置信息和服务的位置信息,以及QoS的价值观。他们提出了一个创新的协同过滤模型选择服务最好的QoS性能,为用户。刘等人。 9服务QoS)提出了一个基于内存的方法预测利用用户的位置信息和服务。位置信息可以帮助为目的选择相似的邻居用户或目标服务。吴et al。 7)使用用户和服务之间的调用记录,并提出了一种广义上下文敏感的矩阵分解方法来预测服务的QoS值。旷et al。 8)利用用户的声誉和用户的和服务的位置信息,并提出了一种个性化的QoS预测方法解决数据稀疏的问题,冷启动,数据不能相信。

所有上面提到的研究是有用的预测QoS价值在一定程度上为用户。但最上面的方法受到的高维度,时间复杂度高,费用高。提出LANFM模型,我们采用嵌入特征提取技术代表服务的隐式向量和用户的位置信息。通过应用嵌入技术,我们可以解决高维度的缺点。此外,嵌入向量可以利用我潜在的服务和用户之间的相关性,即使用户没有调用服务。此外,该LANFM模型可以在线性时间计算;因此它可以解决时间复杂度高的问题。

3所示。动机和框架

在本部分中,我们定义要解决的问题 3.1。我们现在将位置信息的动力部分 3.2。我们介绍的框架提出LANFM模型部分 3.3

3.1。问题描述

我们的目标是实现准确充分利用QoS预测用户的QoS调用历史记录,服务的位置信息,用户的位置信息。问题的详细描述如下。

假设 U = { u 1 , u 2 , , u } 年代 = { 年代 1 , 年代 2 , , 年代 n } 是一组 用户和 n 服务,分别。 R × n 之间的矩阵是 用户和 n 服务。 j 的元素是 ,他们的许多价值观是失踪。我们的目标是预测中的缺失值矩阵 利用现有元素之间的关系。

一个例子是显示在图 1帮助理解QoS预测的问题。调用矩阵之间的用户(例如,U1, U2, U3, U4)和服务(例如,S1、S2、S3、S4, S5)是在图的上方 1。调用矩阵中的每个元素代表一个QoS属性值(例如,响应时间和吞吐量)。然后,我们调查的问题转化为如何准确预测丢失的元素调用矩阵基于现有元素。它可以发现,只有用户调用的服务的一部分。例如,U1调用S1, S3和S4。U4观察QoS信息S1, S2,和S5。仍存在少量的公共服务,尽管不是每个用户都有所有服务调用。我们可以完成调用矩阵通过应用协作过滤的概念的帮助下这些公共服务。完整的矩阵是下半部分所示。

QoS预测的一个例子。

3.2。动机

用户感受到的QoS(如吞吐量、可靠性和响应时间)将与网络状态、地理位置和服务运行时环境。网络性能与网络带宽、网络延迟和网络距离密集。在几个网络性能影响因素中,位置信息的关键因素之一。位置信息可以影响用户的行为( 30.]。一般来说,如果将Web服务部署在用户的网络(例如,一个局域网络或子网),然后,Web服务器更容易应对用户在很短的时间内。也就是说,用户和Web服务器之间的响应时间很短,当用户调用Web服务。相反,如果Web服务部署远离用户(例如,多个子网),将会有很长一段时间服务的Web服务器响应用户。这种现象是相同的,当用户访问本地网站,网页将很快对他/她。当用户访问国外网站,它通常是相对缓慢的回应他/她。这是因为远程请求和响应在互联网上经常需要路由和转发多次,这是耗时的。图 2显示了一个玩具的例子来说明为什么考虑服务和用户的位置信息来预测服务的QoS是很重要的。

一个玩具位置信息的影响的例子。

假设Alice和杰克是两个不同的服务用户。他们躺在两个远程网络。Web服务器(例如,S1、S2和S3)部署在不同的网络和提供类似的服务。当爱丽丝请求服务,服务器S1将回答爱丽丝和提供服务的要求,因为网络距离爱丽丝和S1更接近于S2和S3。然而,如果S1是无效的或具有较高的延迟,它不会回答爱丽丝。与此同时,爱丽丝是急于要求一个特定的服务。因此,爱丽丝想发送一个请求到S2和S3。她打算发送一个请求到S2,因为网络距离爱丽丝和S2更接近于S3。但是爱丽丝从未从S2请求服务;她不确定是否可以使用S2。 Thus, it is essential to predict the QoS on server S2 such that it can provide services to Alice in the condition that S1 is out-of-service and avoids wasting time. Based on the idea of collaborative filtering, if Lucy or other neighbors have requested a service on server S2 before, she/they can do a great favor for predicting the QoS on server S2. By considering users’ and services’ location information and predicting the QoS of services, we can select appropriate services for users and improve the user-perceived experience.

3.3。LANFM框架模型

本节介绍了框架的LANFM QoS值预测模型图 3。给出了详细的程序如下:

首先收集用户和服务的信息是存储在本地数据库中。一系列的数据处理后,用户的位置信息,服务的位置信息、用户服务调用矩阵(例如,用户感知的历史QoS信息服务),和其他可以获得额外的信息

用户信息(如用户id、用户ASN(自治系统编号)id、国家和用户id)和服务信息(例如,服务id、服务ASN id, id)和服务国家表示为一个炎热的编码向量(它是一种编码方式;n维的向量,只有一个元素为1,其余的都是0。细节将在部分 4)。此外,这些在一个炎热的编码向量作为输入特征向量为每个连接历史使用记录

在一个炎热的编码向量表示为嵌入向量利用神经网络技术。然后,用户之间的内积“嵌入向量和服务”嵌入向量是用于获取用户和服务之间的交互

成对可以预测用户服务的QoS值求和嵌入向量的内积和特征向量的加权和,即嵌入基于位置感知分解机模型

我们的LANFM模型的框架。

注意,一个(自治系统)是一个小单位,有权自主决定使用哪个路由协议在系统中。是一个独立可控的网络单元(例如,一所大学,一个企业或公司)。每一个单独的id。它被称为ASN。ASN很重要,因为ASN惟一地标识每个网络在互联网上。

3给我们LANFM的总体框架模型。我们的方法的核心部分是位置感知的分解机模型。为了更好的描述模型,我们给出一个例子如图 4。首先,用户信息(用户id、用户ASN id和用户id)和服务信息(服务id, ASN id, id)和服务国家表示为一个炎热的编码(例如,一个炎热的编码向量:(1 0)、(0 1 0)、(1 0 0 0 0)、(0 1 0)、(0 1 0 0),(1 0 0 0))。其次,在一个炎热的编码形式的用户信息和服务信息被表示为各种嵌入向量(例如, V 1 , V 4 , V 6 , V 12 , V 15 , V 18 )通过应用神经网络技术。第三,嵌入向量的内积(即。,theu年代er我nformation embedding vectors and the service information embedding vectors (e.g., V 1 , V 4 , V 4 , V 6 , V 6 , V 12 , V 12 , V 15 , V 15 , V 18 )),以及特征向量的加权总和(例如, w 1 x 1 , w 4 x 4 , w 6 x 6 , w 12 x 12 , w 18 x 18 ),是利用预测QoS的值。最后,预测得分成对可以获得用户服务(例如, y ^ )。

LANFM模型的一个例子。

4所示。位置感知分解机模型

在本节中,我们给我们的位置感知的细节分解机方法预测QoS的价值观。LANFM模型主要由三部分组成:位置信息处理,基于嵌入的分解机模型,模型的学习。这些组件的细节下面所示。

4.1。位置信息处理

处理Web服务和用户的位置信息提出了在这一节中,这是我们的位置感知的分解机模型的基础。

Web服务和用户的原始位置信息在我们的数据集提出了表 1 2,分别。Web服务的WSDL位置信息包括Web服务id、地址(URL),服务提供者名称,和服务的国家的名字。用户的位置信息由用户id、用户的IP地址、用户的国家名字,经度,纬度。获得更准确的服务的位置信息和用户的位置信息,我们WSDL映射地址和用户的IP地址ASN(从Web服务的WSDL地址是已知的,很容易将DNS(域名系统)的URL的IP地址,然后将IP地址映射到ASN)。映射操作是通过利用GeoLite自治系统号数据库(http://www.maxmind.com)。经过一系列的处理,最后表示Web服务的位置信息和用户的位置信息是相应的列在表中 3 4

原始位置信息的Web服务。

Web服务ID WSDL的地址 供应商的名字 国家的名字
1 http://www.clearsale.com.br/aplicacao/entrada.asmx?WSDL clearsale.com.br 美国

2 http://www.law.uni-sofia.bg/_vti_bin/People.asmx?wsdl uni-sofia.bg 保加利亚

3 http://www.etfo.ca/_vti_bin/Authentication.asmx?wsdl etfo.ca 加拿大

4 http://www.webxml.com.cn/WebServices/WeatherWebService.asmx?WSDL webxml.com.cn 中国

5 http://www.emris.cz/_vti_bin/BusinessDataCatalog.asmx?wsdl emris.cz 捷克共和国

原始用户的位置信息。

用户ID 用户的IP地址 国家 经度 纬度
1 12.108.127.138 美国 40.44 -79.96

2 122.1.115.91 日本 36 138年

3 128.233.252.11 加拿大 52.13 -106.67

4 129.242.19.196 挪威 69.67 18.97

5 202.38.99.68 中国 39.93 116.39

处理Web服务的位置信息。

Web服务ID 国家的名字 ASN
1 美国 33070年

2 保加利亚 5421年

3 加拿大 36031年

4 中国 23650年

5 捷克共和国 43541年

处理用户的位置信息。

用户ID 国家的名字 ASN
1 美国 7018年

2 日本 4713年

3 加拿大 22950年

4 挪威 224年

5 中国 4538年

注意,我们使用ASN自近而不是IP地址或WSDL地址的IP地址(例如,4.67.68.0和4.67.64.0)不一定属于相同或国家(例如,加拿大和日本)。这表明采用IP地址代表Web服务和用户的位置信息可能没有足够认识到邻居用户或邻居Web服务。此外,在互联网上用户之间的距离通常是测量利用互联网拓扑平坦的( 31日]。上述分析给出一个原因采用代表用户或服务的位置而不是其他地理位置。代表用户和服务的位置信息作为上述形式,对我们来说是准确的和容易衡量用户和Web服务之间的亲密关系。

4.2。基于嵌入的分解机模型

我们获得的用户id,用户的国家名称,用户的ASN,服务id、服务的国家名称,并通过位置信息处理服务的ASN。然后,我们把用户的国家名称和ASN用户的id和ASN id,分别。服务的国家名称和ASN也经历同样的转变。此外,我们利用一个炎热的编码来表示用户id、服务id、用户id,用户的ASN id, id服务的国家,服务的ASN id(即。,ID层图 5)。在一个炎热的编码是一种有效的编码方法,该方法使用 n 状态寄存器进行编码 n 州。每个国家都有自己的注册,并在任何时候,只有其中一个是有效的 32]。表 5给出了一个例子来表达七大洲,一个炎热的编码。

在一个炎热的七大洲的编码表示。

的名字 在一个炎热的编码
亚洲 1000000

非洲 0100000

北美 0010000

南美 0001000

南极洲 0000100

欧洲 0000010

大洋洲 0000001

嵌入向量的过程。

一个炎热的映射嵌入编码是通过一个完全连接层。嵌入是一个非常受欢迎的近年来神经网络技术。它试图从原始输入数据的交互学习功能。从高阶资源嵌入项目数据空间到低阶目标空间( 33]。LANFM模型可以推广到未被注意的功能组合和维护结构利用嵌入技术。例如,我们有两种功能:商品= { w 一个 t c h , n e c k l 一个 c e } 性别= { 一个 l e , f e 一个 l e } ,得到一组新的交叉特性:goods_gender = { w 一个 t c h - - - - - - 一个 l e , n e c k l 一个 c e - - - - - - f e 一个 l e , n e c k l 一个 c e - - - - - - 一个 l e , w 一个 t c h - - - - - - f e 一个 l e } 。交叉功能特性(也称为组合)设置意味着男性(或女性)购买手表(或一条项链)。假设我们获取收集信息的一个子集,男性购买一块手表,一个女性购买一个手表和一个女购买一条项链。但是我们没有得到的信息,一个男性购买一条项链,需要预测的可能性。很难通过上述方法处理这类问题。然而,我们LANFM模型可以通过学习处理问题的交叉特性和捕获的分布式表示商品和性别之间的交互。

映射的细节过程如下:首先,一个炎热的用户信息和服务信息的编码表示被视为的输入特性(即完全连接层。,一个炎热的编码层图 5)。接下来,完全连接层中的每个链接的权重计算。最后,用户信息和服务信息的嵌入表示是通过完全连接层(即。在图,嵌入层 5)。高维度的问题可以解决通过嵌入技术。注意,图中的红线 5代表每个维度值的嵌入向量。这个过程是一个位置感知的因子分解模型的一部分,最后嵌入向量是由随机梯度下降学习培训过程中。细节模型的学习将在以下小节。

X 表示输入特征向量。这是连接在一个炎热的编码表示的用户信息(如用户id、用户的ASN id,和用户的id)和服务信息(例如,服务id、服务的ASN id,和服务的国家id)。然后,基于嵌入的分解机模型方程的定义是 (1) y ^ X = w 0 + = 1 f w x + = 1 f - - - - - - 1 j = + 1 f V , V j x x j , f 特征向量的长度。 V th嵌入向量。 V , V j 各种嵌入向量的内积(例如,用户id嵌入向量,用户的国家嵌入向量,用户作为嵌入向量,服务id嵌入向量,服务的国家嵌入向量,和服务的嵌入向量)。 w 0 是全球的偏见, w 的重量吗 变量。前两个条件的公式表达的线性回归模型。第三项是认为协会的双向交叉的特征信息之间的任何两个不同的特性。

交叉特性的公式如下: (2) V , V j = l = 1 k v l · v j l , k 是一个hyperparameter决定嵌入向量的维数。 v l l th的价值 th嵌入向量的用户信息或服务信息。

各种嵌入向量之间的交互可以新配方如下: (3) = 1 f - - - - - - 1 j = + 1 f V , V j x x j = 1 2 l = 1 k = 1 f v l x 2 - - - - - - = 1 n v l 2 x 2 情商的推导过程细节。 3)( 13]。

4.3。模型的学习

LANFM模型估计的性能,我们进行损失函数来评估之间的误差估计价值和实际价值。数学上,损失LANFM模型表示为的函数 (4) 最小值 θ l y , y ^ = 1 2 = 1 j = 1 n j y j - - - - - - y ^ j 2 , 在哪里 j 指标函数。如果一个用户 u 使用一个服务 v j , j = 1;否则,它等于0。我们的目标是最小化的平方误差的总和。通过这种方式,我们可以实现最优的损失。

随机梯度下降法(SGD) [ 34)是一种通用的优化方法在机器学习和深入学习。随机抽取一个样本的样本集一次训练后通过梯度和更新它一次。在大样本的情况下,一个模型可以获得可接受的损失值没有训练所有的样品的。此外,损失函数的最终结果往往是附近的全局最优解。损失函数的优化给出了情商。 4可以由执行SGD) θ : (5) l y , y ^ θ = y ^ - - - - - - y y ^ θ , (6) y ^ θ = 1 , x , x j = 1 f v j l x j - - - - - - v l x 2 , 如果 θ = w 0 如果 θ = w 如果 θ = v l

下面的公式是用于更新模型参数: (7) θ = θ - - - - - - η · y ^ - - - - - - y y ^ θ 在哪里 θ 模型参数(例如, w , v l ), η > 0 是学习速率, η 控制梯度下降的速度。

4.4。复杂性分析

我们的位置感知的主要计算分解机模型的评估损失函数 l 及其对变量梯度。我们只需要计算所有的 l 在这个公式 j = 1 f v j l x j 在第一次迭代参数,因为 x j = 1 f v j l x j - - - - - - v l x 2 同事与 l 密切关注。然后,所有的梯度 v j l 可以很容易获得。显然,整个计算的复杂性 l 在这个公式 j = 1 f v j l x j O ( k f ) 。计算的复杂性,每个参数的梯度 O ( 1 ) j = 1 f v j l x j 是已知的。在获得参数的梯度,更新参数的时间复杂度 O ( 1 ) 。总的来说,有 k f + f + 1 LANFM模型中的参数估计。因此,我们LANFM模型的时间复杂度 O ( k f ) 。总之,我们的训练时间复杂性LANFM模型是线性的。上述分析过程表明LANFM模型的效率和可伸缩性。

5。实证研究

在本节中,我们进行了一系列实证研究公共数据集。此外,LANFM模型将与几个基准进行比较的方法来验证我们LANFM模型的有效性,分析实验结果。

下面的详细统计WSDream数据集描述了部分 5。1。评价指标部分所示 5。2。之间的性能比较,提出LANFM模型和其他基线方法介绍了部分 5。3。参数的影响(例如,矩阵密度,嵌入向量的维度,和批量大小 35)(每一批的数据的大小,即。,how many samples are trained in each iteration) and experimental results discussion are presented in Sections 5。4, 5。5, 5。6,分别。

5.1。数据集描述

我们实现一个真实的实验数据集的集合:WSDream (https://wsdream.github.io/dataset/wsdream_dataset1.html)。用户和服务的位置分布如图 6。WSDream数据集包括5825 339分布式用户,服务,和1974675年历史的用户和服务之间的调用日志。用户的数量的屁股和Web服务的屁股是137和1021。WSDream QoS属性数据集是响应时间和吞吐量。响应时间的值的范围从0到20。吞吐量值从0到1000不等。数据集描述在表的细节 6

统计数据的Web服务QoS的数据集。

统计数据
服务的用户数量 339年

Web服务的数量 5825年

Web服务调用的数量 1974675年

范围的响应时间 0-20s

范围的吞吐量 0 - 1000 kbps

用户数量的屁股 137年

用户数量的国家 31日

Web服务的屁股 1021年

Web服务的国家 74年

位置分布:(a)服务用户的位置分布,与339服务用户分布在31个国家;(b) Web服务的位置分布,分布在74个国家拥有5825 Web服务。之间有1974675调用记录用户(a)和(b)的服务。

服务用户的位置分布

Web服务的位置分布

在本文中,我们试图为用户预测上述两个QoS属性。LANFM模型适用于预测任何QoS属性,通过适当的修改用户服务的QoS属性调用矩阵。

5.2。评价指标

我们使用两个评价指标,平均绝对误差(MAE)和归一化平均绝对误差(NMAE)来衡量我们建议的方法的性能。这两个指标衡量预测值和真实值之间的距离( 36]。梅被表示为 (8) 一个 E = j r ^ j - - - - - - r j N , 和NMAE的数学表达式 (9) N 一个 E = 一个 E j r j / N 在这里, N 是预测QoS的数量值, r ^ j 是预测QoS的价值观, r j 是真正的QoS值的数据集。NMAE美和较小的值会导致一个更好的性能模型。

5.3。性能比较

评估我们的LANFM模型的性能,以下介绍了基线的方法进行比较。基线的方法从基于内存的协同过滤方法和基于模型的协同过滤方法混合协同过滤的方法:

UIPCC [ 4):这种方法结合基于用户的协同过滤方法和基于项目协同过滤的方法来预测用户的QoS。它是基于寻找相似的用户和类似的服务

及(概率矩阵分解) 37:该方法假定数据分布是高斯分布。因式分解用户服务调用矩阵user-latent矩阵和service-latent矩阵。然后它使用这两个潜在的矩阵的乘法来预测用户的QoS

NMF(非负矩阵分解) 38:这种方法也利用了用户服务调用矩阵获得user-latent矩阵和service-latent矩阵。潜在的但它添加一个约束,映像应该非负矩阵

带头人(neighborhood-integrated矩阵分解) 5:这种方法首先计算任何两个用户之间的相似之处。然后,它结合了相似的用户信息和QoS记录进行矩阵分解。最后,它预测为用户的QoS

EFMPred(基于嵌入的分解机) 14:这种方法首先嵌入向量的用户id和服务id。然后,它使用分解机来预测用户的QoS

RegionKNN(地区K最近的邻居)[ 27]:这种方法首先集群用户和服务的基础上的位置信息和QoS值。然后利用聚类结果来预测用户的QoS

LACF(位置感知的协同过滤) 12):此方法包含用户和服务的位置和使用位置感知的协同过滤的方法来预测用户的QoS

LBR(定位正规化)[ 28):此方法使用本地连接用户和结合正则化项之间在经典矩阵分解框架来预测用户的QoS

羟甲基糠醛(层次矩阵分解) 29日]:这种方法第一组用户和服务根据位置信息。然后,结合当地的矩阵分解和全球矩阵分解的结果来预测用户的QoS

在现实中,只有部分用户调用的服务。因此,用户和服务之间的调用矩阵是相当稀少的。我们将数据集分为训练集和测试集的随机删除一个元素的比例从用户和服务之间的调用矩阵。例如,如果我们去除90%调用矩阵的元素,这些元素被视为测试组90%;其余10%的元素作为训练集。

之间的性能比较结果LANFM模型和其他基线方法如表所示 7。它可以发现LANFM总是达到最佳性能(即在两个评价指标。、美和NMAE),无论是否响应时间和吞吐量QoS属性。具体地说,该方法的性能矩阵(如及,NMF、带头人,LBR,和羟甲基糠醛)比基于内存的方法(例如,UIPCC LACF, RegionKNN)由于学习的潜在因素。此外,分解基于机器的方法(例如,EFMPred和LANFM)比矩阵该方法由于学习交叉功能的用户信息和服务信息。此外,LANFM优于EFMPred由于考虑更重要的特性(例如,用户的位置信息和服务的位置信息)。与EFMPred相比,LANFM有0.06%到6.98%的性能改进响应时间和吞吐量的1.52%到3.46%的性能改进。此外,当训练数据稀疏的,性能改善更加明显。在现实中,我们获得的数据是非常稀少的。观察表明,LANFM模型可以应用于稀疏的数据。在这里,只有一部分的结果(例如,10%,20%,80%,90%)提出了桌子上。 The experimental results under all matrix density will be introduced in Section 5。4

服务质量,预测精度的比较。

QoS属性 方法 矩阵密度= 10% 矩阵密度= 20% 矩阵密度= 80% 矩阵密度= 90%
NMAE NMAE NMAE NMAE
响应时间(0-20s) UIPCC 0.5842 0.6433 0.4514 0.4970 0.3475 0.3822 0.3443 0.3785
LACF 0.5612 0.6181 0.4778 0.5262 0.3692 0.4062 0.3637 0.3995
RegionKNN 0.5491 0.6048 0.5155 0.5677 0.4950 0.5446 0.4860 0.5338
0.4865 0.5361 0.4305 0.4743 0.3751 0.4123 0.3733 0.4098
NMF 0.4774 0.5261 0.4269 0.4703 0.3723 0.4093 0.3705 0.4068
带头人, 0.4792 0.5281 0.4202 0.4630 0.3665 0.4029 0.3677 0.4037
LBR 0.4806 0.5293 0.4301 0.4737 0.3761 0.4138 0.3736 0.4103
羟甲基糠醛 0.4815 0.5302 0.4298 0.4732 0.3734 0.4110 0.3698 0.4070
EFMPred 0.3878 0.4083 0.3332 0.3606 0.2641 0.2910 0.2599 0.2825
LANFM 0.3607 0.3966 0.3247 0.3571 0.2635 0.2903 0.2577 0.2823
改善 6.98 % 2.85 % 2.55 % 0.97 % 0.24 % 0.25 % 0.84 % 0.06 %

吞吐量(0 - 1000 kbps) UIPCC 22.3274 0.4700 18.8646 0.3966 13.5460 0.2845 13.0623 0.2776
LACF 19.4303 0.4087 16.4495 0.3459 12.4200 0.2609 12.1073 0.2545
RegionKNN 24.8487 0.5226 24.0169 0.5050 24.0414 0.5050 23.9013 0.5023
15.9794 0.3362 13.9052 0.2924 12.1408 0.2551 11.9442 0.2520
NMF 15.5678 0.3275 13.5386 0.2847 11.9260 0.2506 11.7964 0.2489
带头人, 15.1393 0.3185 13.1799 0.2772 11.8641 0.2493 11.7977 0.2489
LBR 15.4431 0.3248 13.6455 0.2869 12.1012 0.2542 11.9560 0.2513
羟甲基糠醛 15.7076 0.3304 13.5961 0.2859 11.6637 0.2450 11.5562 0.2429
EFMPred 13.2966 0.2811 11.4295 0.2417 8.6713 0.1829 8.3839 0.1773
LANFM 12.8365 0.2714 11.0560 0.2338 8.5160 0.1796 8.2561 0.1746
改善 3.46 % 3.45 % 3.27 % 3.27 % 1.79 % 1.80 % 1.52 % 1.52 %
5.4。矩阵密度的影响

矩阵密度是一个重要参数,影响QoS预测的准确性。这意味着有多少历史调用记录用户和服务之间我们可以利用来帮助预测QoS的价值观。调用的密度矩阵变化从10%到90%来研究矩阵密度的影响。步长设置为10%。在这个实验中,嵌入向量的维数为响应时间是30。对吞吐量、维度值是1400。批处理大小是4096。

数据 7(一) 7 (b)显示所有方法的预测性能在美和NMAE响应时间。数据 7(一) 7 (b)表明,当矩阵密度从10%上升到50%,梅和NMAE的下行趋势值是显著的。然而,当我们增加密度从50%提高到90%,减少NMAE美和的值是相对较慢。数据的趋势 7 (c) 7 (d)和数据都是一样的吗 7(一) 7 (b)。这一现象表明它是合理的评估模型的性能,再分类矩阵密度作为参数。所有观测图 7表明适当增加QoS信息有助于解决数据稀疏的问题。进一步,提高QoS信息适当也有利于提高QoS的预测结果。

密度矩阵的影响。

5.5。维度的影响

嵌入向量的维数是另一个参数影响LANFM模型的性能。它决定有多少因素用来描述功能。在这个实验中,嵌入向量的维数为响应时间从5到50个研究维度的影响。此外,步长设置为5。对于吞吐量,维度值是不同的从200年到1800年,步长是200。批处理大小是4096。

数据 8(一个)- - - - - - 8 (f)目前的预测性能LANFM模型响应时间、相应矩阵密度在哪里设置为10%,50%,90%。实验结果分析响应时间如下:(1)为10%,美价值和NMAE价值增加的增量尺寸。此观测结果显示,当矩阵是稀疏的,一个小维度可能适合提高QoS预测精度。(2)为50%和90%,美价值和NMAE价值表现出下降趋势开始,然后呈现一个上涨的趋势。最低的美和NMAE值达到尺寸= 30为90%,50%和尺寸= 35。这个观察表明,密度矩阵时,一个相对较大的维度可以更好地提高QoS预测的准确性。然而,如果维度设置过大,可能导致过度拟合的问题,导致可怜的预测结果。

嵌入向量维数的影响。

数据 8 (g)- - - - - - 8(左)显示LANFM模型对吞吐量的预测性能,密度矩阵的相应设置为10%,50%,90%。注意,维度的规模是除以100更好的显示。实验结果分析吞吐量如下:(1)为10%和90%,吞吐量降低的美和NMAE值,然后增加。最好的美和NMAE值可以实现在600年和1400年,分别。(2)为50%,这表明美和NMAE吞吐量值显示整体下降的趋势,当嵌入向量的维数的增长从200年到1800年。具体来说,当维数从200年到1400年,美和NMAE值迅速下降,然后逐渐收敛。美和NMAE值振荡在局部最小值,当不同维度从1400年到1800年。第一个维度时可以获得最低1400。虽然我们也可以获得最低1800,啤酒维度需要更大的时间复杂度。

的观测数据 8 (g)- - - - - - 8(左)表明,当矩阵非常稀疏,小尺寸的嵌入向量生成准确的QoS值。虽然密度矩阵,一个相对较大的维度可以提高QoS预测的准确性。注意,响应时间的维数小于的吞吐量,因为规模的吞吐量值大于响应时间。

5.6。批量大小的影响

批量大小定义了训练样本的数量将呈现给网络之前体重可以执行更新。批处理大小是由全面考虑到培训时间和收敛速度。当批大小设置更大,每个时代的训练速度更快。但收敛速度慢。研究批量大小的影响,我们改变批量大小从64年到5120年的QoS属性。在这个实验中,调用的密度矩阵设置为10%,50%,90%。嵌入向量的维数为响应时间是30。对于吞吐量,设置为1400。值得注意的是,5120年是我们的GPU的最大内存。

响应时间的预测性能LANFM模型提出了数字 9(一个)- - - - - - 9 (f),我们可以观察到以下几点:(1)为10%,美价值和NMAE价值下降显著增加批量大小从64年到1024年。虽然从1024年到5120年,在当地最低两个值振荡。我们可以获得最好的值在4096。(2)为50%,美价值和NMAE价值下降显著增加批量大小从64年到1024年。在批量大小从1024年到3072年,美价值和NMAE价值的下行速度变得缓慢。最后,梅和NMAE值收敛。这个观察表明,当批大小很小,扩大批量大小可以大大提高QoS预测精度。当涉及到一个相对大的批量大小,改善不明显。(3)为90%,美和NMAE值迅速下降,当批大小从64年到2048年,然后到最小批量大小= 4096。观测表明,当矩阵非常稀疏,小批量的大小(例如,1024)是非常有用的为提高QoS预测的准确性。 While the matrix is dense, a lager batch size (e.g., 4096) is more useful to upgrade the accuracy of QoS prediction.

批量大小的影响。

我们可以看到数据 9 (g)- - - - - - 9(左),当增加批量大小从64年到3072年,吞吐量的美和NMAE值迅速下降。当批大小从3072年到5120年,美和NMAE值逐渐收敛。观察表明,当批大小很小,扩大它可以大大提高QoS预测精度。然而,在超过某个阈值(例如,批量大小= 3072),增强并不是那么明显。

6。结论

提出了一种位置感知分解机方法利用神经网络的嵌入技术。首先,服务和用户的位置信息是考虑。其次,用户信息和服务信息表示为嵌入向量挖掘潜在用户和服务之间的关系。最后,嵌入向量的内积,特征向量的加权和,利用执行QoS的预测。有三个优势,采用神经网络技术和分解机模型:(1)原始输入特征向量的维数可以减少;(2)大数据稀疏的问题可以得到解决;和(3)LANFM模型是线性的时间复杂度。也就是说,我们的LANFM模型能够解决这三个缺点:高维度、时间复杂度高,高实现费用。因此,我们LANFM模型的可伸缩性好。它适用于大规模数据集。 A series of comprehensive experiments are carried out on the WSDream dataset to verify the effectiveness of our LANFM model. First of all, we evaluate the performance of our approach and other state-of-the-art baseline approaches under different matrix densities, which demonstrates that our LANFM model always achieves the best performance. Then, we study the impact of the dimension of the embedding vector to determine how large it should be, which indicates that, for the two QoS properties, when the matrix is very sparse, a relatively small embedding size is good to enhance the performance; when the matrix is dense, a relatively large dimension can better improve the accuracy of QoS prediction. Finally, we investigate the effect of the batch size, which is a powerful parameter that affects the performance of optimization algorithm. The results show that, for the response time, when the matrix is quite sparse, a relatively small batch size is useful for improving the prediction performance; while the matrix is dense, a relatively large batch size is more conducive to improve the QoS prediction accuracy. For the throughput, when the batch size is relatively small, increasing the batch size will improve the predictive performance. While a certain threshold is exceeded, the improvement is less distinct.

在现实中,响应时间和吞吐量都是动态变化的网络环境,因此,应考虑时间因素。因此,我们将尝试建立一个更强大的模型中,考虑了时间信息,预测未来QoS值为用户在工作。此外,其它QoS属性(例如,可靠性、可用性和失效概率)在以前的工作很少研究。因此,我们想调查其他QoS属性在我们的下一个工作。

数据可用性

QoS数据用于支持本研究的发现可以公开访问的网站https://wsdream.github.io/dataset/wsdream_dataset1.html。

信息披露

Zibin郑是通讯作者。

的利益冲突

作者宣称没有利益冲突。

确认

本文是国家重点支持的研究和发展项目(2017 yfb0202201),中国国家自然科学基金(61702568;U1711267),广东省引进创新和创业团队(2017 zt07x355)和中央大学的基础研究基金批准号17 lgpy117。

L.-J。 H。 J。 服务计算 2007年 施普林格 l Benatallah B。 国语字 a . H . H。 小仲马 M。 Kalagnanam J。 H。 QoS-aware中间件为web服务组成 IEEE软件工程 2004年 30. 5 311年 327年 10.1109 / TSE.2004.11 2 - s2.0 - 3042666264 程ydF4y2Ba 年代。 Y。 心肌梗死 H。 C。 Z。 集群特性基于QoS的预测方法在web服务的建议 IEEE研讨会面向服务的系统工程学报》(SOSE) 2018年 班贝克,德国 IEEE 246年 251年 10.1109 / SOSE.2018.00041 Z。 H。 m·R。 我。 QoS-aware web服务通过协同过滤推荐 IEEE服务计算 2011年 4 2 140年 152年 10.1109 / tsc.2010.52 2 - s2.0 - 81455141552 Z。 H。 m·R。 我。 通过社区协作的web服务Qos预测综合矩阵分解 IEEE服务计算 2013年 6 3 289年 299年 10.1109 / tsc.2011.59 2 - s2.0 - 84883778327 K。 L . L。 B。 h . Q。 Web服务QoS预测邻居信息结合非负矩阵因子分解 《智能与模糊系统:在工程技术中的应用 2016年 30. 6 3593年 3604年 10.3233 / ifs - 162104 2 - s2.0 - 84971370480 H。 K。 B。 B。 学术界。 协作QoS预测与上下文相关的矩阵分解 未来一代计算机系统 2018年 82年 669年 678年 10.1016 / j.future.2017.06.020 2 - s2.0 - 85027677524 l l l Y。 P。 C。 Y。 个性化的QoS预测方法对CPS服务基于声誉和位置感知的协同过滤推荐 传感器 2018年 18 5 1556年 2 - s2.0 - 85047073027 J。 M。 Z。 X。 年代。 位置感知和个性化的web服务的协同过滤推荐 IEEE服务计算 2016年 9 5 686年 699年 10.1109 / TSC.2015.2433251 K。 公园 J。 Baik J。 定位web服务QoS预测通过偏好传播改善冷启动问题 诉讼IEEE国际会议上的Web服务(ICWS) 2015年 纽约,纽约,美国 IEEE 177年 184年 10.1109 / ICWS.2015.33 程ydF4y2Ba X。 Z。 Q。 m·R。 通过利用Web服务推荐位置和QoS的信息 IEEE并行和分布式系统 2014年 25 7 1913年 1924年 10.1109 / tpds.2013.308 2 - s2.0 - 84903139429 M。 Y。 J。 X。 位置感知的协同过滤算法的推荐服务 19国际会议的程序的Web服务(ICWS) 2012年 IEEE 202年 209年 10.1109 / ICWS.2012.61 Rendle 年代。 分解的机器 数据挖掘学报第十届国际会议(ICDM) 2010年 澳大利亚 IEEE 995年 1000年 10.1109 / ICDM.2010.127 2 - s2.0 - 79951760087 Y。 F。 程ydF4y2Ba l 程ydF4y2Ba C。 郑Z。 基于嵌入web服务qos分解机方法预测 国际会议面向服务计算的程序 2017年 施普林格 272年 286年 Breese j·S。 Heckerman D。 Kadie C。 实证分析的预测对协同过滤算法 《第十四会议上的不确定性人工智能 1998年 摩根Kaufmann出版商公司。 43 52 Herlocker j·L。 Konstan j . A。 Borchers 一个。 Riedl J。 执行协同过滤算法框架 《22日国际市立图书馆年会在信息检索的研究与开发 1999年 ACM 230年 237年 2 - s2.0 - 85015559680 林登 G。 史密斯 B。 纽约 J。 建议:Amazon.com item-to-item协同过滤 IEEE网络计算 2003年 7 1 76年 80年 10.1109 / MIC.2003.1167344 2 - s2.0 - 0037252945 萨瓦尔 B。 Karypis G。 Konstan J。 Riedl J。 基于项目的协同过滤推荐算法 学报第十届国际会议上万维网(WWW) 2001年 ACM 285年 295年 10.1145/371920.372071 J。 弗里斯 a·p·D。 Reinders m·J。 统一的基于用户和基于项目的协同过滤方法融合的相似度 学报》第29届国际市立图书馆年会在信息检索的研究与开发,(SIGIR) 2006年 美国西雅图,洗 501年 508年 10.1145/1148170.1148257 太阳 H。 Z。 程ydF4y2Ba J。 m·R。 个性化的web服务通过正常恢复协同过滤推荐 IEEE服务计算 2013年 6 4 573年 579年 10.1109 / TSC.2012.31 2 - s2.0 - 84890494789 W。 B。 l 程ydF4y2Ba M。 程ydF4y2Ba J。 协作web服务QoS预测数据分布不平衡 《2014年国际会议上的Web服务(ICWS) 2014年 美国安克雷奇,正义与发展党 IEEE 377年 384年 10.1109 / ICWS.2014.61 Y。 年代。 p C。 c . H。 太阳 Q。 F。 高度精确的预测算法对未知的web服务QoS的价值 IEEE服务计算 2016年 9 4 511年 523年 10.1109 / tsc.2015.2407877 J。 Z。 m·R。 Web服务通过基于声誉的矩阵分解个性化服务质量的预测 IEEE可靠性 2016年 65年 1 28 37 10.1109 / TR.2015.2464075 2 - s2.0 - 84939453855 X。 M。 Y。 Q。 预测web服务qos通过matrix-factorization-based non-negativity约束下的协同过滤 第23届无线和光通信研讨会论文集(WOCC) 2014年 美国新泽西纽瓦克 IEEE 1 6 10.1109 / WOCC.2014.6839910 程ydF4y2Ba Z。 l D。 F。 用户依赖Web服务QoS协同预测使用社区正规化矩阵分解方法 20国际会议的程序设计计算机支持的协同工作(CSCWD) 2016年 中国 IEEE 316年 321年 2 - s2.0 - 84991577505 W。 J。 年代。 Y。 Z。 一个扩展矩阵分解方法QoS服务选择的预测 国际会议服务程序计算(SCC) 2012年 美国檀香山,嗨 IEEE 162年 169年 10.1109 / SCC.2012.36 程ydF4y2Ba X。 X。 Z。 太阳 H。 Regionknn:一个可伸缩的混合协同过滤算法的推荐个性化的web服务 第八届国际会议上的Web服务的程序(ICWS) 2010年 IEEE 9 16 10.1109 / icws.2010.27 2 - s2.0 - 77957259210 W。 J。 年代。 Y。 Z。 协作web服务QoS预测与基于位置的正规化 19国际会议的程序的Web服务(ICWS) 2012年 美国夏威夷火奴鲁鲁 IEEE 464年 471年 10.1109 / ICWS.2012.49 2 - s2.0 - 84866398510 P。 J。 Z。 J。 m·R。 定位层次矩阵分解为Web服务的建议 21国际会议的程序Web服务(ICWS) 2014年 IEEE 297年 304年 10.1109 / ICWS.2014.51 2 - s2.0 - 84926195206 J。 Sellis T。 Culpepper j·S。 Z。 C。 J。 Geo-social影响跨越最大化 IEEE工程知识和数据 2017年 29日 8 1653年 1666年 10.1109 / TKDE.2017.2690288 2 - s2.0 - 85029053008 G。 M。 年代。 G。 首歌 H。 J。 J。 P2P流量优化 中国科学信息科学 2012年 55 7 1475年 1492年 2 - s2.0 - 84862599846 10.1007 / s11432 - 011 - 4464 - 8 Golson 年代。 在一个炎热的状态机设计fpga 1 《第三届骑士设计会议和展览 1993年 X。 T。 神经分解机器稀疏的预测分析 40学报》国际市立图书馆会议在信息检索的研究与开发 2017年 日本东京新宿 355年 364年 10.1145/3077136.3080777 Bottou l 随机梯度下降法大规模机器学习 COMPSTAT学报2010年 2010年 柏林,Germnay 施普林格 177年 186年 MR3362066 约飞 年代。 Szegedy C。 批规范化:加速深层网络培训通过减少内部协变量的转变 美国第32机器学习(ICML)国际会议上 2015年 448年 456年 2 - s2.0 - 84969584486 威尔默特 c·J。 K。 优势的平均绝对误差(MAE)的均方根误差(RMSE)在评估平均模型的性能 气候研究 2005年 30. 1 79年 82年 10.3354 / cr030079 2 - s2.0 - 30444437204 Salakhutdinov R。 Mnih 一个。 概率矩阵分解 少量的酒 2007年 1 1 1257年 1264年 D D。 Seung h·S。 学习对象的部分非负矩阵因子分解 自然 1999年 401年 6755年 788年 791年 2 - s2.0 - 0033592606 10.1038/44565 Zbl1369.68285