移动信息系统

PDF
移动信息系统/2019年/文章

研究文章|开放获取

体积 2019年 |文章的ID 7575037 | https://doi.org/10.1155/2019/7575037

林太阳,朱七, 基于q学习的WiFi卸载算法和MADM异构网络”,移动信息系统, 卷。2019年, 文章的ID7575037, 12 页面, 2019年 https://doi.org/10.1155/2019/7575037

基于q学习的WiFi卸载算法和MADM异构网络

学术编辑器:亚历山德罗宝宝
收到了 2019年3月28日
修改后的 2019年11月18日
接受 2019年12月10
发表 2019年12月27日

文摘

提出了一种无线卸载算法基于q学习的和MADM(多属性决策)在异构网络移动用户场景:蜂窝网络和无线网络共存。马尔可夫模型是用来描述网络环境的变化。四个属性包括用户吞吐量、终端功耗、用户成本,和通信延迟被认为是定义用户满意度函数反映的QoS(服务质量),和q学习用于优化它。通过AHP(层次分析法)和TOPSIS(来说技术相似的理想解决方案)在MADM,每个属性和奖赏函数之间的内在联系。用户使用q学习卸载决策基于当前网络状况和自己的卸载历史,最终最大限度地提高他们的满意度。用户满意度的仿真结果表明,该算法比传统的WiFi卸载算法。

1。介绍

随着智能设备的普及,移动数据流量正以前所未有的速度增长。思科视觉网络指数(1)预测,全球移动数据流量将达到49 eb每月2021年,相当于2016年的六倍。为了解决数据流量爆炸的问题,我们可以增加细胞的废话(基站)或升级手机网络等网络LTE(长期演进),LTE-A (LTE-Advanced)和WiMAX释放2 (IEEE 802.16),但这通常是不经济的,这就需要昂贵的资本支出(资本支出)和运营成本(营业费用)2]。此外,有限的许可乐队是另一个瓶颈,提高网络容量(3]。因此,移动数据卸载技术(4]在5克已经逐渐成为主流,和WiFi卸载是最有效的卸载方案之一。

WiFi卸载技术转让的一部分细胞网络负载通过WiFi无线网络美联社(访问点),我们可以在许可解决拥堵的乐队,实现负载均衡,充分利用授权频谱资源。由于无线卸载的有效性,许多文献研究了它。李等人。5]认为WiFi的共存和LTE-U无牌照乐队和卸载LTE-U服务无线网络,建立多个目标为最大化LTE-U用户吞吐量,同时优化无线用户的吞吐量。为了解决这个问题,作者利用帕累托优化算法得到的最优值。在[6),满意度函数中定义的用户沟通率是反映场景重叠无线网络和移动网络,和一个资源块分配矩阵构造。基于准确的潜在的游戏理论,最好的响应算法来优化系统的总满意度。Cai et al。7)提出了一种激励机制来弥补手机用户愿意推迟他们的交通无线卸载。作者计算出最优补偿值根据场景中的可用属性参数和建模问题分为两个阶段。在Stackelberg博弈的第一阶段,运营商宣布,它将为用户提供统一的补偿推迟其手机服务。在第二阶段中,每个用户决定是否加入延迟出售基于补偿,等待成本的网络拥塞,估计WiFi连接。从运营商的角度看,康et al。8)制定移动数据卸载问题作为效用最大化问题。作者建立了一个整数规划问题,并获得了移动数据卸载方案考虑到放松状态。作者进一步证明,当用户数量很大,提出了集中式数据卸载方案接近最优。荣格et al。9)提出了一个以用户为中心,network-assisted WiFi卸载模型。在这个模型中,异构网络负责收集网络信息和用户卸载决策基于这些信息最大化吞吐量。在LTE和WiFi组成的异构网络场景,针对用户的最低能源效率最大化,一个封闭的表达式提出了[10)来计算用户卸载的数量,而这些用户提供最小的SINR(信号干扰和噪声比)卸载到WiFi网络。根据上面的引用,在WiFi卸载最具挑战性的问题是如何使一个卸载的决定,也就是说,如何选择最合适的无线AP进行交流沟通。Fakhfakh和Hamouda11)旨在减少蜂窝网络的停留时间和优化q学习的。奖励函数认为SINR,交接延迟和美联社负载。通过卸载手机服务附近最好的无线AP,运营商可以大大提高网络容量,和用户的QoS也将增加。然而,上面的引用只决定立即卸载基于当前的网络条件下,不考虑用户的访问历史。此外,大多数的引用只执行一个卸载决策优化的一个特定的属性,如吞吐量或能源效率,而不考虑多个网络属性综合决策。

本文对于移动用户场景的蜂窝基站和无线AP共存,考虑到目前的网络环境和访问历史,q学习计划是用来出售的决定。通过考虑自己的访问历史,用户将积累的经验卸载,这不仅能避免穷人卸载以前访问的网络,还积极地选择最佳的无线AP根据最大累积折扣回报,从而增加用户的QoS。本文四个属性包括用户吞吐量、终端功耗,用户成本和通信延迟被认为和q学习的奖励函数被定义为指标值。此外,如果服务类型是不同的,每个网络属性的重要性将会不同。我们使用AHP来定义每个网络属性的权重根据特定的服务类型。移动终端收集各种异构网络的属性,和用户不断更新他的折扣累积奖励结合即时奖励和经验奖励,直到收敛。收敛后,用户可以在每个州决定最好的卸载。

本文的其余部分安排如下。部分2给出了系统模型的无线异构网络中卸载。部分3建立q学习的模型,定义了奖励函数基于AHP和TOPSIS模型,并给出了WiFi卸载算法的具体步骤。节4,并给出了仿真结果和分析。最后,部分5总结了纸。

2。系统模型

本文中的系统模型图所示1。蜂窝基站位于细胞的中心半径等于 WiFi APs在细胞中,表示为 细胞被重叠的蜂窝网络和无线网络覆盖。这些网络分为有效和无效的网络。当用户访问一个特定网络的吞吐量大于一个阈值,我们认为这个网络是一个有效的网络;否则,它被认为是一个无效的网络。q学习的移动多模终端代理,它可以执行数据传输通过蜂窝网络和无线网络。代理移动直白的细胞内,其地位 ,在哪里 代表职位用户总数已经过去了。由于代理的运动,信道质量和可用带宽等网络环境是不断变化的,这将导致网络用户更改的属性。本文认为这四个网络代理的属性在不同的位置作为q学习的状态,包括吞吐量,功耗,成本和延误。此外,我们考虑卸载决定q学习的行动选择和卸载移动数据如果代理选择无线网络。

2显示了基于q学习算法结构。代理首先收集网络环境的信息,过滤掉无效的网络和用户吞吐量的计算四个属性(TP),终端功耗(PC),用户成本(C)和通信延迟(D)的有效的网络。AHP算法用来计算权重的四个属性在不同的服务,并通过选择获得的即时奖励每个网络根据TOPSIS计算当前状态。结合即时奖励和经验奖励,Q-table的q学习迭代执行和更新。结果,将决定基于贴现Q-table累计奖励。

本文从四个方面反映了网络的性能的吞吐量,功耗,成本和延误。吞吐量反映了无线传输的速率。根据大规模无线信道的衰落模型(12),结合小规模衰落模型,当代理之间的距离和细胞b或无线AP ,通过定义为损失 在哪里 是参考距离, 是路径损耗时代理和BS或AP之间的距离是什么 , 路径损耗指数, 的瑞利衰落是高斯分布的意思吗 和方差 信号功率 接到代理在b或AP 位置表示为 在哪里 是终端的传输能量不是固定的。由香农容量公式(13),我们可以得到的代理访问网络的吞吐量 位置: 在哪里 加性高斯白噪声的功率谱密度和 是代理的可用带宽。由于网络的可用带宽是不断变化的,每个AP或BS提供服务之外的其他用户代理在同一时间,影响代理的可用的网络带宽,本文运用马尔可夫模型来描述的变化 和数字转换连续 州。可用带宽是转移到两个相邻状态的概率 或与的概率保持不变

能源消耗是一个重要的属性是考虑移动终端的操作。根据(14),假定b或AP的最小接收功率阈值 当终端的发射功率太小,BS,美联社不会接收终端的上行信号。为了确保数据的正常传输,我们定义最小传输功率 终端的

实际的传输功率 的终端必须大于 摘要代理访问网络的能耗 位置表示为 在哪里 是固定的操作终端的功耗和 是终端的发射功率。

运营商收费代理他是否访问细胞b或无线AP。本文后的单价估价每秒代理访问网络 被定义为 ,这是用来表示两个网络的相对价格。它通常是更便宜的如果用户选择卸载。

通信延迟也用户评价网络的一个重要指标。本文后的传输延迟代理访问网络 位置被定义为 因为CSMA / CA(与避碰载波监听多路访问),用户访问无线网络时的延迟时间较长,使 比访问BS。

本文认为上述四个网络属性计算满意度 在整个移动代理的场景。

首先,我们四个网络属性的平均值计算 位置;也就是说, , , ,

然后,我们正常四值在[使用方法15]: 在哪里 的最大可能值是属性和吗 是属性的最小值。用户满意度,吞吐量越大,满意度越好代理,这是一个积极的属性。另一方面,其他三个属性是保持尽可能小,属于消极属性。的归一化值表示为四个网络属性 , , ,

结合不同的服务获得的属性权重数据通过使用AHP算法,用户的满意度在整个移动场景中被定义为加权规范化属性值之和: 在哪里 是用户服务类型, 流媒体服务, 会话服务, AHP权重的吞吐量,功耗,成本,和延迟当服务类型是什么

本文的优化目标是找出最好的卸载决定用户的满意度最大化整个移动场景: 在哪里 是行动的总空间的用户在整个运动过程中吗 行动时设置代理通过位置吗 这是用户的操作集的笛卡尔乘积 的位置, 是最佳的卸载策略的整个运动过程。在方程(8),c1,c2表明,每个网络属性的重量限制在0到1,总和是1;c3表明用户的传输功率大于最小发射功率在每个位置。然而,由于操作空间很大和可用带宽等网络环境是不断变化的,传统的方法很难解决这个优化问题,因此我们使用q学习来解决这个问题。

3所示。基于q学习的和MADM WiFi卸载算法

为移动用户场景:细胞BS和无线AP共存,我们提出一个基于q学习的和MADM WiFi卸载算法。考虑当前的网络环境和访问历史,q学习算法是用来出售的决定,这不仅能避免穷人卸载以前访问的网络还积极选择最好的无线AP根据最大累积折扣回报。MADM是一种有效的决策方法,当我们需要考虑多种因素。根据(16),属性权重和网络实用价值在MADM的重视。我们使用两个MADM算法本文称为AHP和TOPSIS。层次分析法用于定义每个网络属性的权重根据特定的服务类型。TOPSIS是用来获得即时奖赏q学习的基于网络的工具。代理收集各种异构网络的属性和不断更新他的折扣累积奖励结合即时奖励和经验奖励。收敛后,用户可以在每个州决定最好的卸载。

3.1。q学习的

q学习的是一种广泛使用的强化学习算法,把学习当作一个尝试的过程,评估和反馈。q学习包含三个元素,包括状态,行动,和奖励。国家设置来标示 和行动来标示 ,q学习的目的是获取最优行动选择策略 代理的累积折扣回报最大化(11]。在国家 ,代理选择一个行动 从对环境行动的操作集。环境接受操作之后,环境变化和生成一个即时奖励 反馈到代理。然后,代理将选择下一个行动 基于奖励和自己的经验,这将反过来影响累积折扣回报 和国家 下一个时刻。已经证明,对于任何给定的马尔可夫决策过程,q学习可以用来获得一个最优行动选择策略 对于每个国家 ,最大化折扣累积奖励每个州(17]。

累积折扣回报 国家 在哪里 是即时奖励通过代理选择行动 在国家 , 是折现系数, 当代理执行行动的概率是多少 和传输状态 根据贝尔曼的理论(18),当累积折扣回报最大,最优行动选择状态下决定 可以得到:

最优行动选择决定

仍然是未知的,代理在q学习的过程中可以学习这些值的试验,评估和反馈。我们使用函数来表示累积折扣回报当代理选择 在国家 :

本文使用q学习来解决无线卸载的问题和提出了一个基于q学习的WiFi卸载算法和多属性决策。在这篇文章中,细胞内的多模移动终端被认为是代理。状态,行动,和奖励的q学习的映射后,分别为:(1)状态设置 :代理的位置和周围的网络环境位置,也就是说, ,在哪里 代表代理和的位置 代表的网络属性的位置 ,包括吞吐量、功耗、成本和延误(2)行动组 :选择一个行动的过程被认为是一个出售的决定,也就是说, ,在哪里 表明细胞BS和终端访问 显示终端是卸载无线AP下标对应(3)奖励函数 :实用价值的TOPSIS算法用于表示即时奖励,用户试图访问一个特定的网络后获得

3.2。AHP算法

本文运用层次分析法来计算用户的主观评价每个网络属性的重要性在不同的服务类型。MADM算法使用层次分析法是一种定性和定量的计算,这是广泛应用于网络评估和战略选择。根据(15),层次分析法有五个步骤:(1)建立层次结构模型;(2)构造成对比较矩阵;(3)计算属性权重;(4)检查的一致性;(5)选择网络。然而,本文只需要使用层次分析法计算的重量不同的网络属性,所以步骤(1)和(5)省略。具体步骤如下:步骤1:构造成对比较矩阵根据用户服务类型 和属性分析。因为本文认为四属性的吞吐量,功耗,成本,和延迟,成对比较矩阵 可以表示为 在哪里 代表重要性程度之间的比值 网络属性。我们假设 从1到9为整数或互惠来评估不同属性间的相对重要性。此外,我们有 ,和对角线上的值是1。步骤2:计算每个网络属性的权重的服务类型的场景。根据(19), 是一个有多个正互反矩阵特征值和特征向量对吗 : 在哪里 是一个特定的功能的价值 是一个特征向量对应 最大的特征值对应的特征向量 选择和规范化 ,这也是AHP权重的四个属性。步骤3:检查成对比较矩阵的一致性。通常,最准确的AHP重量不能获得一次因为成对比较矩阵可能不一致 ,在步骤2中重量计算是不准确的。有必要检查比较矩阵的一致性,以确保合理的主观权重(15]。本文使用一致性比率 测量的合理性 : 在哪里 是网络的数量属性矩阵的顺序吗 平均随机一致性指标,它是固定的,如果比较矩阵顺序是已知的(15),如表所示1

根据层次分析法的理论,如果一致性比率 ,然后 是不可接受的,必须回到步骤1调整吗 直到 最后,准确的AHP权重(表可以获得四个网络属性1)。


矩阵的顺序 国际扶轮

1 0.00
2 0.00
3 0.58
4 0.90
5 1.12
6 1.24
7 1.32
8 1.41
9 1.45

3.3。TOPSIS算法

本文运用TOPSIS计算即时奖励 通过终端访问移动网络或无线网络。TOPSIS也是MADM算法原理是计算和排序候选解决方案的接近理想的解决方案。在q学习模型中,动作集包含所有可能的网络选择;然而,这不是一个候选人网络设置,因为在TOPSIS算法之前,本文有过滤无效的网络,其实际吞吐量小于阈值的吞吐量 所以,我们用TOPSIS计算相对应的奖励候选人网络。假设网络集筛选候选人 ,这是 从行动中提取有效的行动 ,和相对应的奖励过滤无效的行动是0。具体步骤计算q学习奖励使用TOPSIS算法如下:步骤1:建立一个标准化决策矩阵 构建一个候选人网络属性矩阵 使用网络属性值计算部分2: 在哪里 代表候选人的数目和网络 代表网络属性的数量。正常每一列获得标准化决策矩阵 ,在哪里 的规范化 : 第二步:建立一个加权决策矩阵 每个属性由AHP权重加权 获得的部分3.2,这是由 ,每一列的属性值 重量乘以相应的层次分析法获得吗 : 步骤3:计算每个候选解的距离和两种极端的解决方案。首先,确定理想的解决方案和最理想的解决方案。由于吞吐量是一个积极的属性和功耗,成本,和延迟是负面属性,理想的解决方案 相反,最理想的解决方案是: 计算之间的欧氏距离 候选人网络和 得到 : 第四步:计算后的即时奖励网络用户选择一个候选人。在这篇文章中, 所表达的是相对接近的候选人网络理想的解决方案: 更大的 是,小 是越近 是1,表明候选解决方案更接近理想的解决方案和更大的奖励。反之,越小 是,大 是,这表明网络访问的代理是贫穷和 更接近于0。

总之,论文的奖励函数如下:

3.4。算法的步骤

为了最大限度地满足移动用户的细胞,本文考虑吞吐量的四个属性,功耗,成本,和延迟,使用层次分析法来计算每个属性的权重,定义了指标值的奖励功能,和依赖q学习迭代直至收敛。每个州最好的卸载策略最终可以获得。在q学习的,值将被更新为用户学习: 在哪里 是学习速率。更大的 是,越少之前的训练是保留的价值,更重要的是即时奖励 和经验奖励 折现系数的经验奖励,然后呢 是代理的状态转移。

此外,本文还介绍了 - - - - - -贪婪算法。在每个q学习的行为选择,代理,探讨概率很小 ,也就是说,随机选择一个网络将。没有 - - - - - -贪婪算法,它的累积奖励可能是次优的行动变得越来越大,这使得用户选择这个动作,增加累计奖励,而不是找一个更好的。换句话说,的核心 - - - - - -贪婪是探索。的原因 - - - - - -贪婪算法性能更好的概率是它不断探索寻找最优的行动。虽然可以降低用户满意度在接下来的一段时间,希望在未来,我们可以做出更好的行动选择,最终获得最大的用户满意度。基于上述分析,基于q学习算法1给出了WiFi卸载算法和MADM。

输入:状态设置 ,行动组 ,成对比较矩阵 ,候选人网络属性矩阵 ,和迭代限制
输出:训练Q-table,最好的行动选择策略 ,和用户满意度
(1) 计算属性权重的基础上
(2) ,
(3) = 0
(4) 结束了
(5) 随机选择 的初始化状态
(6) 虽然迭代<
(7) 对于每个国家
(8) 如果 <
(9) 随机选择一个行动
(10) 其他的
(11) 选择对应的最大行动在这种状态下的值。
(12) 如果
(13) 执行
(14) 计算 根据方程(23)
(15) 观察下一个状态
(16) 更新Q-table根据方程(24)
(17) 结束了
(18) 结束时
(19) 记录对应于最大的行动每个州的价值
(20) 计算用户满意度

4所示。数值计算和仿真结果

如图1,建立了仿真场景在一个圆形细胞半径 的500米。细胞b细胞位于中心,和 无线AP内随机分布的细胞。加性高斯白噪声的功率谱密度 174−dBm /赫兹,和参考距离 是1米。在 ,的意思是 和方差 此外,学习速率 q学习的设置为0.8,折扣因素的经验奖励 设置为0.1, 设置为0.01。在层次分析法中,当网络属性数量 ,一致性指数 (15]。成对比较矩阵 不同的服务如表所示2,他们是公认的结果每个服务的总体需求的基础上,由专家给出的意见。其余的参数如表所示3


网络属性 谈话

1 3 2 5 1 2 1 1/9
1/3 1 1 2 1/2 1 1/3 1/9
1/2 1 1 3 1 3 1 1/9
1/5 1/2 1/3 1 9 9 9 1


仿真参数 手机网络 无线网络

用户成本 (/秒) 0.8 0.1
通信延迟 (女士) 25到50 100年到150年
带宽 (MHz) 4到6 10到12
路径损耗 (dB) 5.27 8
终端固定能耗 (mW) 10 10
最小接收功率 (dBm) −110 −100
用户吞吐量阈值 (kb / s) 10 12
路径损耗指数 3.76 4

首先,我们分析该算法的性能在流服务。根据AHP算法,相对应的权向量吞吐量,功耗,成本,延迟了 当用户进行流媒体服务,比如看一个视频,最重要的是吞吐量和最小的延迟。因为视频通常有大尺寸如500 MB, 1 GB,或者更多,我们需要足够大的吞吐量来支持视频的缓存。用户设备只需要读取数据precached执行服务,这不是实时的。所以流服务不需要低延迟。

3显示无效的行动之间的融合比较过滤和nonfiltering在WiFi卸载算法流服务。预先过滤意味着摘要过滤器的无效的网络实际吞吐量小于阈值的吞吐量 q学习之前。假设 ,和职位的总数 通过用户= 10。两例接受q学习在同一个实验场景中,收敛了。因为q学习的行为选择是不连续的,用户的满意度就会提高改变行为选择策略。从图可以看出3后,过滤掉无效的网络的吞吐量小于阈值 提前,q学习的收敛速度可以大大加速。

数据45表明本文的算法之间的比较,Fakhfakh和Hamouda的算法11),和RSS(接收信号强度)算法基于用户满意度,吞吐量,功耗,成本和延迟在流服务。我们多次散射APs消除随机性的1000倍。user-passed职位的数量 等于10,无线AP的数量从20到60。从图可以看出4摘要,WiFi卸载算法优于其他两种算法在用户满意度。本文的主要区别和[11是奖励q学习的函数。Fakhfakh和Hamouda的算法11]的目标是尽量减少停留时间的手机网络和优化q学习的,但是它的回报函数只考虑SINR,交接延迟,和美联社负载,而不考虑用户的QoS属性直接相关,如终端功耗,用户成本和通信延迟。RSS算法只考虑终端接收到的信号强度,和终端自动访问网络最大的RSS,所以用户满意度较低。摘要q学习算法不仅考虑了属性直接关系到用户的QoS,还使用了两个MADM算法来获取这些属性的内在关系。它建立一个更为合理的q学习奖励功能,获得最好的用户满意度。从图可以看出5本文中的算法类似于[11)的用户的吞吐量。这是因为Fakhfakh和Hamouda的算法(11)作为SINR奖励函数的最重要的方面,直接影响吞吐量。由于仿真是基于流服务,吞吐量占近一半的重量的所有属性,因此,两种算法在吞吐量表现类似。因为其他两个算法不考虑功耗和成本,这两个网络属性算法性能更好。RSS算法选择最高的网络访问接收能力。在这种情况下,只要终端不太远离细胞b, RSS的手机网络将是最大的,所以WiFi出售的数量减少。由于无线网络使用授权频段,用户可用的带宽通常比访问移动网络。因此,变得更少的吞吐量。因为手机网络的延迟通常是低于WiFi网络,RSS算法对延迟执行最好的属性。然而,由于延迟属性的流服务的重量很低,用户不注意precached数据的延迟当观看视频或听音乐。结果,虽然本文算法不如RSS在延迟算法,用户满意度比这高得多。

6显示了用户满意度对职位的数量通过代理后多次散射美联社消除随机性的1000倍。无线AP的数量 ,和终端通过6、8、10、12和14个位置,分别。可以看出,位置,用户满意度越高,因为职位的数量增加,q学习将增加的州,和代理的机会积极选择最优网络也将会增加,所以满意度将会变得更高。

数据78表明本文的算法之间的比较,Fakhfakh和Hamouda的算法11),和RSS算法基于用户满意度,吞吐量,功耗,成本和延迟下交谈服务。user-passed职位的数量 等于10,无线AP的数量从20到60。根据AHP算法,得到权向量 ,这表明当用户选择服务像做一个语音电话交谈,最重要的属性是通信延迟而其他三个属性是不那么重要了。当我们打一个声音电话时,它将大大减少QoS如果我们等待的时间太长了。从图可以看出7摘要,WiFi卸载算法优于其他两种算法在用户满意度。Fakhfakh和Hamouda的算法11)不考虑通信延迟,所以满意度是最坏的打算。正如上面提到的,RSS算法通常使终端访问细胞b具有更大的传输能量和更低的延迟,所以满意度比(11]。从图可以看出8摘要,WiFi卸载算法优于RSS算法在吞吐量、功耗和成本,而通信延迟性能接近RSS算法。摘要延迟下对话服务是最重要的属性,所以延迟性能接近RSS算法。我们还考虑了其他属性,这使得一些用户卸载WiFi网络,所以该算法的延迟是略高于RSS算法。

5。结论

在蜂窝网络的异构网络场景和WiFi网络重叠,本文建立了一个模型的移动终端无线卸载,和马尔可夫模型用于描述可用带宽的变化。四个用户吞吐量的网络属性,终端功耗,使用者的成本和通信延迟被认为是定义一个用户满意度函数。AHP算法用来计算属性权重,和TOPSIS算法获得即时奖励当用户访问移动网络或分流到WiFi网络。使用q学习算法,结合即时更新折扣累积奖励和经验奖励奖励,用户可以决定最佳的卸载和获得最大的满意度在每一位置。仿真结果表明,该算法可以在有限的时间下收敛,并与对比算法相比,该算法有很大的提高用户满意度。

数据可用性

使用的数据来支持本研究的发现可以从相应的作者。

的利益冲突

作者宣称没有利益冲突有关的出版。

确认

这项工作得到了国家自然科学基金(61971239和61971239)。

引用

  1. 思科白皮书,思科视觉网络Index-Global移动数据流量预测,更新,2016 - 2021思科系统,布拉格,捷克共和国,2017年。
  2. g·s·d·Ho公园,和h的歌,“博弈论的可伸缩视频流服务卸载在LTE和WiFi网络,”IEEE移动计算,17卷,不。5,1090 - 1104年,2018页。视图:出版商的网站|谷歌学术搜索
  3. 问:陈,g . Yu h ., a . Maaref g . y . Li和a .黄”细胞符合WiFi:交通卸载或者资源共享?”IEEE无线通信,15卷,不。5,3354 - 3367年,2016页。视图:出版商的网站|谷歌学术搜索
  4. A .允许h . Aghvami, m·阿玛尼”一项调查在移动数据卸载:技术和业务的角度,“IEEE无线通信,20卷,不。2、104 - 112年,2013页。视图:出版商的网站|谷歌学术搜索
  5. c . z . Li盾,a·李和h . Wang”流量卸载从LTE-U到WiFi:多目标优化的方法,”学报2016年IEEE国际会议通信系统(可以)2016年12月,IEEE,中国深圳,。视图:出版商的网站|谷歌学术搜索
  6. l . j .徐s . Wu徐:张,张问:“倡导绿色用户满意度意识到WiFi HetNets卸载,”专业的沟通,12卷,不。5,501 - 508年,2018页。视图:出版商的网站|谷歌学术搜索
  7. Cai, l .段王j . et al .,“延迟WiFi卸载,激励机制设计”ICC学报》2015 - 2015年IEEE国际会议交流,IEEE,伦敦,英国,2015年6月。视图:出版商的网站|谷歌学术搜索
  8. x Kang Y.-K。贾,金黄色的太阳,和h f .庄”移动数据卸载通过第三方无线接入点:经营者的角度来看,“IEEE无线通信,13卷,不。10日,5340 - 5351年,2014页。视图:出版商的网站|谷歌学术搜索
  9. b·h·荣格n o .歌曲,d . k .唱“以用户为中心network-assisted WiFi-offloading模型在异构网络中每个用户的吞吐量最大化,”IEEE车辆技术,卷63,不。4、1940 - 1945年,2014页。视图:出版商的网站|谷歌学术搜索
  10. 美国Sethakaset、y . k .贾和美国太阳,“节能WiFi卸载手机上行传输”学报2014年IEEE 79车辆技术会议(职业训练局春天)IEEE,首尔,韩国,2015年5月。视图:出版商的网站|谷歌学术搜索
  11. 大肠Fakhfakh和美国Hamouda优化q学习的WiFi卸载的密集的蜂窝网络,”专业的沟通,11卷,不。15日,第2385 - 2380页,2017年。视图:出版商的网站|谷歌学术搜索
  12. 美国Kunarak和r . Suleesathira预测RSS和模糊逻辑建立在异构无线网络垂直切换算法,”《2010年10日国际研讨会上的通信与信息技术IEEE,东京,日本,2010年6月。视图:出版商的网站|谷歌学术搜索
  13. j . i Pelaez e·a·马丁内斯,l . g . Vargas”正互反矩阵的一致性:改善测量方法,”IEEE访问》第六卷,第25609 - 25600页,2018年。视图:出版商的网站|谷歌学术搜索
  14. l .张和朱问:“网络选择算法基于multi-radio异构无线网络的并行传输,”信号处理杂志,30卷,不。10日,1176 - 1184年,2014页。视图:谷歌学术搜索
  15. l .张和朱问:“多属性网络选择算法基于AHP和异构无线网络,协同作用的理论”电子杂志(中国)没有,卷。31日。1,29-40,2014页。视图:出版商的网站|谷歌学术搜索
  16. H.-W。Yu和张,“混合MADM算法基于属性权重和实用价值的异构网络选择,”网络和系统管理杂志》上,27卷,不。3、756 - 783年,2019页。视图:出版商的网站|谷歌学术搜索
  17. c·j·c·h·沃特金斯和p·达扬Technical note: q学习”,机器学习,8卷,不。3 - 4、279 - 292年,1992页。视图:出版商的网站|谷歌学术搜索
  18. a . e . Shafie t·哈达h·萨阿德和a·穆罕默德,“最佳合作认知传递和能量收获认知无线电频谱访问:强化学习方法”《2015年国际会议上计算、网络和通信(ICNC)美国IEEE,阿纳海姆,2015年2月。视图:出版商的网站|谷歌学术搜索
  19. 答:宝宝,b . m . Masini a . Zanella和d . Dardari“绩效评估的柔软在多用户异构无线网络垂直交接,”无线网络,23卷,不。1,第176 - 159页,2017。视图:出版商的网站|谷歌学术搜索

版权©2019林太阳和启朱。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点617年
下载531年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读