研究文章|开放获取
从聚氨酯, ” :MCDM-Based利息转发和合作数据缓存命名的数据网络”,计算机网络和通讯》杂志上, 卷。2021年, 文章的ID6640511, 16 页面, 2021年。 https://doi.org/10.1155/2021/6640511
:MCDM-Based利息转发和合作数据缓存命名的数据网络
文摘
命名数据网络" (NDN),特定的以信息为中心的网络架构设计(ICN),已迅速成为一种很有前途的候选人为未来互联网体系结构,通信是由数据名称而不是IP地址。实现NDN通信模式在未来互联网,两个重要的特性,提出了有状态的转发和网络缓存,应对基于主机的通信协议的缺点。状态转发是为了维持的状态等待兴趣包引导数据包回到请求消费者,而网络缓存用于减少网络流量和数据访问延迟,提高数据访问的总体性能。然而,传统的有状态的转发方法不适应,适应不同的网络环境,因为它未能考虑多个网络指标做出利益转发决定。此外,默认网络缓存策略依赖于存储每一个接收到的数据包不管各种缓存约束和标准,导致路由器附近的数据生产者遭受过度缓存开销。在本文中,我们提出了 ,一种新颖的有状态转发NDN网络和网络缓存策略。的包括基于多准则决策(指标)的利息转发和合作数据缓存。转发MCDM-based利益的基本思想是采用订单技术性能相似想法解决方案(TOPSIS)动态评估输出接口选择基于多个网络指标和客观地选择一个最优输出接口转发数据包利益。此外,合作数据缓存包含两个计划:CacheData,缓存数据,和CacheFace缓存输出接口。我们进行大量的仿真实验与之前方案性能评估和比较。仿真结果表明,该可以提高利息满意比率和利息满意度延迟以及减少跳数和内容存储利用率。
1。介绍
在过去的十年里,设备连接到互联网的数量已经迅速增加的扩散物联网等新兴技术,人工智能,区块链(1]。根据思科网络年度报告(2),到2023年将有293亿网络设备。尽管全球网络性能会显著提高,例如,固定宽带速度和移动网络连接速度将达到110.4 Mbps,并在2023年43.9 Mbps,分别连接设备的快速增长仍然把高压在底层网络基础设施,这是在1970年代发展起来的。今天的互联网超出了所有的预期,促进通信端点之间的对话,但开会时显示出衰老的迹象与下一代内容型的服务和应用程序(3]。因此,为了跟上不断变化的世界中,一个名为data的未来互联网体系结构,网络(4),被认为是最有前途的互联网体系结构进一步推动互联网未来的发展和成功。
NDN的所有通信通过兴趣和数据包,执行这两个传输数据(或内容)的名字而不是主机(或物理位置)地址。数据名称等级结构如url;例如,第一段作者的论文可能这个名字/marshall.edu/cs/congpu/papers/ndn2020.pdf/segment1,“/”划定名称组件在文本表示。这个层次结构允许应用程序来表示数据元素的背景和关系,促进交通多路分解。如图1检索数据,数据使用者(例如, )首先发出一个兴趣包的名字偷偷的所需的数据(例如,X)。当路由器收到数据包,数据包转发感兴趣的数据生产者(s)基于转发表中的信息。任何路由器的转发路径,(例如, , ,或 )或数据生产商(例如, )曾被请求的数据可以回复一个数据包背与所请求的数据。然后,沿反向路径转发数据包的兴趣包回数据消费者(例如, )。此外,当路由器(例如, , ,或 )接收数据包,它将搭载在缓存表的数据缓存,以满足未来的利益,请求相同的数据。
设计和评估状态转发和网络缓存是一个重大的挑战在整个NDN研究领域(5]。自2010年提出了NDN以来,已经有许多研究工作关注这一挑战和丰富的文学了。文献[6)是一个著名的地标,草图NDN的转发守护进程和基本情况描述状态转发和网络缓存的初始设计。然而,传统的有状态的转发方法及其未来变种(7,8)没有考虑多个网络指标当访问的状态输出接口选择,导致转发策略不适应和敏感网络状态的变化。此外,默认网络缓存策略简单地依赖于存储每一个接收到的数据包不管各种缓存约束和标准。因此,路由器附近的缓存数据生产者通常导致过度开销由于频繁的数据检索请求远程数据消费者。因此,改善状态转发的挑战以及网络缓存吸引了NDN研究界的关注。
在本文中,我们提出了 ,一种新颖的有状态转发NDN网络和网络缓存策略。的包括基于多准则决策(指标)的利息转发和合作数据缓存。转发MCDM-based利益利用指标理论选择输出接口来检索所需的数据,因此,转发策略是适应和适应不同的网络环境。此外,合作数据缓存补充网内默认的缓存策略来克服的挑战过度缓存开销和有效地支持数据访问。我们的主要贡献是双重的简要总结:(1)我们建议的包括转发MCDM-based兴趣和合作数据缓存。MCDM-based利益秩序的转发是采用技术性能相似想法解决方案(TOPSIS)动态评估输出接口选择基于多个网络指标和客观地选择一个最优输出接口转发数据包利益。此外,合作数据缓存包含两个计划:CacheData,缓存数据,和CacheFace缓存输出接口。(2)我们设计转发MCDM-based利益考虑的可扩展和灵活的功能,因此,额外的网络指标可以包括在内。合作数据缓存方法是无缝集成与默认网络缓存策略,因此,它可以被视为额外的缓存策略在NDN转发守护进程。我们重新审视之前的转发和缓存策略,(6,7),(8),和修改他们的工作性能比较的框架。
我们开发一个定制的离散事件驱动的模拟框架使用OMNeT + + (9)和评估其性能通过广泛的满意度比仿真实验的兴趣,兴趣满足延迟,跳数,缓存命中率和内容存储利用率。仿真结果表明,该可以提高利息满意比率和利息满意度延迟以及减少跳数和内容存储利用率,表示一个可行的有状态的转发和NDN网络中的缓存策略。
剩下的纸是组织如下。之前转发和缓存策略和分析部分2。节3提倡这种观点的团体NDN的基本操作的状态转发和网络缓存的架构提出了。转发MCDM-based利益和合作提出了数据缓存的部分4和5,分别。部分6专注于仿真结果及其分析。最后,结论和未来的研究方向提供了部分7。
2。相关工作
在本节中,我们提出并分析各种最新的状态转发和NDN中的缓存策略。
2.1。有状态的转发策略
作者在8)提出一个合作转发策略NDN网络,路由器分享他们的信息,比如数据名称和接口来优化他们的数据包转发决策和估计每个下游路径的概率迅速检索请求的数据。然而,每个路由器需要收集的信息数据交换相邻路由器的名称,生成大量的控制信息,进而增加NDN网络的通信开销。在[10),转发策略提出了平衡网络开销和性能之间的权衡满意的物联网环境中。听到每个节点数据包和学习成本价值通过强化,然后决定广播感兴趣包延迟根据他们的基于成本的资格。基于广播转发在MAC层可以减少通信开销;然而,一个节点可能无法前进的兴趣包及时如果无线媒介总是忙。作者在11)提出一个名为IFS-RL基于强化学习的转发策略。IFS-RL训练神经网络模型,选择合适的接口转发基于观察的兴趣产生的性能由路由节点收集过去的决定。IFS-RL可以实现提高吞吐量和丢包率的目标但是失败在负载平衡。
在[12),转发策略提出了持久NDN的兴趣,在转发决策是基于信息转发信息库和探索的结果。客户问题探索利益为了利率路径通过网络,和所有probe-receiving路由器可以使用它们来评估已知路径的性能,但也探索新的,可能更好的路径。然而,探索兴趣包将大大增加网络流量并导致其他问题,如交通拥堵和包丢失。作者在13)利用部分可观测马尔可夫决策过程(POMDP)设计NDN请求转发机制基于事件的关键概念。自从POMDP问题的精确最优解一般非常计算要求,提出基于仿真的优化算法也找到近似最优解。在[14),一个深NDN提出了基于强化学习转发策略,数据内容等细节,界面状态,网络状态首先在转发过程中收集到的。之后,使用收集到的信息作为输入的强化学习培训,其结果将被用作指导感兴趣的转发数据包转发策略。作者在5)提供一个需求列表NDN转发平面和比较所有可用的方案提出了NDN转发平面的基础上,利用数据结构。此外,这项调查探讨一些问题,挑战,在未来的研究方向。
2.2。网络缓存策略
在[15),作者提出一个总结Bloom-filter-based请求节点协作缓存NDN网络(BRCC)方法,在不同形式的缓存部署为不同类型的数据内容。此外,BRCC使用总结布隆过滤器提高数据内容匹配速度和减少搜索时间。模拟表明,BRCC可以提高缓存命中率和缓存效率。然而,BRCC使缓存决定根据用户的请求频率,可怜的可扩展性在考虑额外的缓存的标准。Araujo et al。16)引入一个共享缓存命名数据网络移动(SCaN-Mob)策略,旨在减轻生产者的副作用流动采用移动ndn的机会主义的内容缓存。SCaN-Mob,手机生产商进行循环选择设备存储的副本在附近搜索内容在接收一个请求。拟议中的SCaN-Mob可以达到更大的内容的多样性,从而增加满足利息请求的可能性在生产者的不可用时间。然而,无线设备通常有有限的记忆存储,投机取巧的缓存策略可以选择的设备没有足够的存储缓存数据内容。
作者在17)存在一个动态的基于流行度允许缓存策略(DPCP) NDN网络。DPCP利用感兴趣的包和数据包内容的人气,所以路由器的路径可以获取的信息内容流行度和使用动态流行阈值将缓存许可政策。此外,DPCP部署缓存控制标志,以避免相同缓存冗余副本在邻近路由器。DPCP可以减少网络中的冗余数据。然而,这是非常具有挑战性的一个精确的流行阈值设置为缓存做决定。在[18概率),缓存策略NDN网络提出了一致的严酷,缓存的决定基于概率计算的共同考虑内容的声望,节点的介数、向消费者和距离。在[19),作者提出一个两层的层次基于集群的缓存解决方案来提高网络缓存效率。网络分为多个集群,然后,一个集群头被提名为每个集群缓存的决定。然而,集群头收集和分配基于中间状态的节点重要性的信息中心,内容受欢迎,集群和概率矩阵,引入了大量的通信开销。Saxena et al。20.]大致分类缓存方案为缓存位置和缓存替换。缓存位置决定是否使用缓存数据内容在网络,而采用缓存替换驱逐新数据到达时的数据缓存。
2.3。我们的方法
NDN的状态转发策略决定如何有效评估多个输出接口的选择和客观地选择最好的接口(s)将利息数据包转发。总之,大多数之前转发策略作为自适应转发或环境敏感转发,实现在各种优化和机器学习技术用于几个性能指标之间取得平衡,促进界面适应。然而,很少有人注意到基于多准则决策(指标)的状态转发策略NDN网络,其中每个输出接口替代评估的多个网络指标和选择最优输出接口,基于技术的兴趣包订货性能相似想法解决方案(TOPSIS)。通过考虑多个网络指标的整体框架有状态转发是自适应的,适应不同的网络环境。另一个理想的特性是MCDM-based兴趣转发设计时考虑良好的可扩展性和灵活性。因此,额外的网络指标可以很容易地纳入MCDM-based利益转发为潜在的扩展。网络缓存支持NDN的基本概念是至关重要的沟通模式,带来了许多好处,比如分离数据从他们的生产商,减轻数据生产者的通信开销方面,并减少网络负载和数据传播延迟。尽管如此,小的工作已经完成合作数据缓存,缓存可以克服的挑战过度开销和有效支持NDN的数据访问网络。此外,合作数据缓存方法被认为是额外的缓存策略在NDN转发守护进程。因此,该缓存的方法可以无缝地集成与默认网络缓存策略有效地支持NDN的数据访问网络。
3所示。预赛和系统概述
在本节中,我们首先提出并分析NDN的状态转发和网络缓存,然后,我们提出的总体架构介绍 。
3.1。有状态的转发
如图2,数据使用者可以通过发出检索数据感兴趣包的名字偷偷的所需的数据网络。当路由器收到利息包时,它首先检查其内容库是否已经缓存所需的数据。路由器的内容库是一个临时缓存数据已接收数据包。如果所需的数据存在于内容库,路由器的数据包搭载回答消费者所期望的数据沿反向路径感兴趣的包。否则,路由器检查所需的数据和每个条目的名称在Pending利息表。NDN的等待利益表存储转发数据包但尚未满足的数据包。此外,每个等待利益表条目包含四个部分:数据名称、nonce和输入界面的兴趣包已经收到和发送接口的数据包被转发。如果等待利益与相同的数据表包含一个条目名称和特定场合的兴趣包,路由器立即下降的包感兴趣,因为兴趣包转发之前是原路返回。如果有一个条目匹配数据名称和不协调nonce,路由器就添加一个新条目的数据名称,nonce,传入接口没有转发利益包因为这包是随后的兴趣。如果数据名称和特定场合不匹配任何悬而未决的兴趣表中的条目,路由器将利息数据包转发到一个输出接口根据转发策略和等待利益表中添加一个新条目。
转发策略使兴趣包转发决策基于信息存储在转发信息基地,其中每个条目记录名称前缀和即将离任的列表接口与它们相关的转发偏好。转发的偏好反映了运输政策以及转发路径的成本通常是使用某些网络指标计算。例如,BestRoute [7)采用着色方案代表每个输出接口的工作状态,在此基础上转发策略选择最好的输出接口转发数据包。对于每个名称前缀,所有的输出接口是排名基于利率限制,和排名最高的绿色输出接口总是选择转发数据包。如果没有绿色的输出接口,排名最高的黄色采用输出接口。红色的输出接口是从未使用过,因为他们不能把数据带回来。转发策略BestRoute可以提高链路利用率。然而,BestRoute未能及时发现和应对网络条件的变化,因为它只考虑一个网络指标(即。、利率限制)转发决策。例如,如果兴趣包转发率到达率限制,即将离任的接口迟早要经历交通堵塞,导致排名第二的绿色的输出接口将兴趣包转发的最佳选择。因此,排名最高的绿色输出接口可能并不总是最好的选择与各种网络条件变化。总之,转发策略NDN转发平面上发挥着重要作用。为了提高网络性能和响应网络状态变化准确、敏锐地,转发策略应该考虑多个网络指标的兴趣包转发决策。
3.2。网络缓存
当数据生产者或路由器缓存所需的内容库中的数据接收数据包,它回答一个数据包所需的数据偷偷回数据消费者。当路由器收到上游路由器的数据包或数据生产商,它首先搜索搭载在等待利益的数据名称表。如果找到匹配数据条目名称待定利益表中,路由器将数据包转发给所有存储传入的接口、缓存搭载在内容库的数据的副本,并删除所有条目匹配数据从等待利益表名称。否则,数据包的路由器滴,因为数据是主动和货代可能带来安全风险。然而,这些情况也不请自来的数据包需要存储在Content Store中。为了清除陈旧的悬而未决的兴趣表中的条目,条目一生被分配给每个条目。寿命到期时,条目从等待利益表中删除。
默认网络缓存依赖于存储每一个接收到的数据包无视各种缓存约束和标准。大规模交通网络和大量的数据检索,位于附近的路由器的数据生产者将获得过多的兴趣包从远程数据消费者,这肯定会导致巨大的缓存开销。因此,这些路由器可以筋疲力尽的缓存空间徒劳无功。解决的问题过多的缓存路由器附近的开销数据生产者,liteNDN [8)实现了决策机制主动决定缓存接收到的数据包,路由器靠近某一数据生产者可以完全避免缓存数据包从这个数据生产者。liteNDN可以减少缓存开销。然而,它并不考虑缓存中的数据决策过程的流行,完全丢弃网内默认的缓存策略。在一个词中,缓存是一种常见的技术来提高数据访问的性能。因此,它应该受到尊重有效支持NDN的数据访问网络。
3.3。体系结构
如图3,由两个主要组件,即MCDM-based利息转发和合作数据缓存。MCDM-based利益转发策略,当路由器收到一个兴趣包,它评估所有输出接口选择基于多个网络指标的组合和选择最优的输出接口转发数据包利益。具体而言,路由器首先建立决策矩阵与最新的网络指标信息和计算的加权标准化决策矩阵规范化决策矩阵乘以多个网络指标的相对权重。然后,每个输出接口的路由器转发指数计算替代和选择排名最高的输出接口转发指数提出了兴趣包。在合作数据缓存策略中,当路由器收到一个数据包时,它将决定是否应用CacheData, CacheFace或默认网络缓存基于预定义的规则。简而言之,如果搭载数据很受欢迎,路由器缓存接收到的数据包采用CacheData。否则,路由器选择应用CacheFace通过缓存的输出接口向边界路由器的数据如果距离边界路由器比距离较短的数据生产者。如果CacheData和CacheFace都不适用,网内路由器采用默认的缓存。更详细的提出了MCDM-based利息转发和合作提出了如下数据缓存策略。表1本文中使用的所有符号列表。
|
||||||||||||||||||||||||||||||||||||
4所示。MCDM-Based兴趣转发
转发MCDM-based利益的基本思想是采用订单技术性能相似想法解决方案(TOPSIS)动态评估输出接口选择基于多个网络指标和客观地选择一个最优输出接口转发数据包利益。TOPSIS是多准则决策模型来确定最好的选择是最接近positive-ideal解决方案和最远的负(21]。当路由器收到一个兴趣包,它评估所有输出接口选择基于最新的网络指标信息,并计算每个输出接口转发指数。根据路由器转发指数,排名所有输出接口的选择和选择排名最高的输出接口转发数据包利益。MCDM-based兴趣的详细设计提供转发如下。
首先,与最新的网络路由器建立一个决策矩阵度量信息的排名输出接口的选择。决策矩阵的结构可以表示如下: 在哪里代表了输出接口的选择,我= 1,2, ,米;表示网络指标,j= 1,2, ,n;和是脆的价值网络相关指标输出接口的选择。第二,路由器生成标准化决策矩阵(= )根据 自多个网络指标的衡量尺度不是独一无二的,是很重要的标准化决策矩阵,使脆值相互可比。第三,路由器计算加权标准化决策矩阵的规范化决策矩阵乘以多个网络指标的相对权重。加权标准化决策矩阵(= )是计算 在哪里代表的相对重量网络指标。背后的基本原理的设计调整的效果吗网络指标的主观偏好。多个网络指标的相对权重可以确定通过应用网络分析法(ANP) [21]。第四,路由器计算分离测量使用米维欧氏距离。之间的分离输出接口替代和positive-ideal解决方案,表示 ,给药 同样,之间的分离输出接口替代和负,表示 ,如下: 基于分离测量,路由器可以计算的相对亲密输出接口替代的解决方案如下: 在哪里的转发指数被认为是吗输出接口的选择。的谎言在0和1之间,转发指数值越大意味着更好的整体性能输出接口的选择。最后,所有输出接口的路由器转发排名指标选择,和排名最高的输出接口将最优包一个前锋感兴趣。
例如,假设一个路由有四个输出接口的选择( )选择和远期利息包。我们考虑接口利用率,往返时间(RTT)和纳比例作为实时网络指标来计算每个输出接口的货运指数的选择。包含网络指标的脆值的决策矩阵如表所示2。根据方程(2)和(3)、标准化决策矩阵和加权标准化决策矩阵计算和提出了表3和4,分别。界面的相对重量利用率,RTT,和克比设置为0.3,0.4,和0.3,分别。之后,每个输出接口之间的分离测量替代和积极的和负的解决方案可以通过使用数据表计算4和相关结果如表所示5。
|
||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||
排名在最后阶段,通过使用方程(6),每个输出接口的货运指数计算替代。计算转发指标排名和列在表6。根据货运指数的排名顺序四个输出接口的选择 , , ,和 ,这表明是最好的输出接口候选人选择和远期利息包。在这里,接口利用率,最低25%,最短RTT, 45女士,和最小的纳克比,10%。主要的业务总结了MCDM-based兴趣转发算法1。
|
||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||||||||||||||
5。合作数据缓存
NDN,因为每个数据包只携带一个数据的名字,它是独立的请求或从检索到的地方4]。为了快速满足未来权益包请求相同的数据,一个路由器可以选择缓存的副本收到数据包的内容存储接收数据包。NDN的默认网络缓存(6)是用来存储每个收到数据包不管各种缓存约束和标准。默认的缓存策略非常简单,容易实现。然而,潜在的问题是,路由器位于附近的数据生产者将获得过多的兴趣包从远程数据消费者,这肯定会导致巨大的缓存开销。大规模交通网络和大量的数据检索,这些路由器的内容库可以白白耗尽,这反过来会导致更频繁的缓存替换操作。此外,路由器附近的数据生产者可能最糟糕的缓存的开销(n),n是感兴趣的数据包总数请求不同的数据从所有数据消费者。根据这些,我们提出一个合作数据缓存策略来克服的挑战过度缓存开销和有效地支持数据访问NDN网络。合作数据缓存策略包含两个方案,CacheData CacheFace,补充网内默认的缓存策略。在下面,我们现在CacheData CacheFace和更多的细节。
CacheData,如果超过路由器缓存接收到的数据包许多不同的输入接口请求搭载数据。在这里,是一个系统参数,= 1,2, ,n。CacheData设计背后的基本原理是,如果数据很受欢迎,比如。,米any Interest packets from different incoming interfaces request the data, the router should cache the received Data packet. The basic idea of CacheData can be explained by using Figure4。假设数据消费者和感兴趣的数据和发送数据包来检索通过路由器 。在这里,我们假设= 1。接收数据包从两个不同的输入接口与兴趣和 ,分别,因此,它应该缓存的副本当收到的数据包根据CacheData。因为所有的利益收到的数据包的路由器来自 ,进而从何而来 ,因此,和不要缓存接收到的数据包。另外一个例子,考虑到消费者的数据和发送兴趣包检索数据 。CacheData方案,路由器应该缓存数据包,而吗 , ,和不需要这样做。总之,CacheData旨在缓存数据包保守。在一些罕见的情况下,例如,当大多数消费者感兴趣的特定数据的同时,CacheData可能减少缓存命中率,因为数据缓存并不是在每一个中间路由器。但是,我们并不认为某些NDN的所有数据并发消费者感兴趣的数据网络。因此,可以采用CacheData解决缓存过度开销的挑战以及有效地支持数据访问NDN网络。
CacheFace,路由器缓存输出接口向边界路由器的数据和使用重定向的未来感兴趣包(即如果它的距离。跳数),边界路由器跳(s)短于其距离数据生产商。在这里,啤酒花的数量是一个缓存接口可以保存并表示 在哪里是数据生产者和啤酒花的数量边界路由器是啤酒花的数量。在本文中,我们定义了边界路由器直接相连的路由器数据消费者(s)。在图4,和是边界路由器。CacheFace设计背后的基本原理是,可以减少数据检索延迟如果数据可以通过一个较短的距离。例如,在图4,假设数据消费者和要求的数据通过边界路由器 。在这里,我们假设= 1。当路由器接收和转发数据包搭载来 , 知道有一个副本 。后,如果数据消费者请求通过路由器 ,进而通过 , 知道数据生产者两跳,而边界路由器谁有只有一个跳走了。因此,将兴趣包转发而不是检索 。CacheFace正确做出决策,有必要将跳数信息嵌入到每个NDN的头包。由于采用type-length-value(电磁阀)的格式,这是一个编码方案用于NDN可选信息元素、跳数可以很容易地添加一个新字段,输入NDN包(22]。当数据消费者问题感兴趣包,它初始化跳数的值为零。当路由器收到数据包,它增加了跳数和远期利息包。因此,每个路由器的转发路径跳数距离数据消费者知道它和边界路由器接收数据包的兴趣。同样的想法将被应用到数据包。CacheFace,路由器只需要缓存输出接口向边界路由器时比数据更接近边界路由器生产商。例如,当数据包搭载被转发给两个吗和沿着小路 , 不需要缓存输出接口向边界路由器吗因为更接近数据生产者比 。
在合作数据缓存策略中,当路由器收到一个数据包时,它决定是否应用CacheData, CacheFace,网内或默认缓存基于以下规则:首先,采用CacheData如果路由器接收到数据包从超过感兴趣许多不同的输入接口。第二,如果CacheData不适用,应用CacheFace如果路由器的距离边界路由器跳(s)短于其距离数据生产商。第三,如果CacheData和CacheFace都不适用,默认网络采用缓存。
合作的主要业务数据缓存算法进行了总结2。
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||
6。绩效评估
6.1。仿真实验和基准
我们进行大量的仿真实验使用OMNeT + + (9)的性能进行评估 。100年网络中的节点随机分布的区域,选择5节点作为数据生产者、消费者和数据。生成的随机网络的拓扑结构,我们使用网络拓扑生成器闪亮23),这是一个参数化拓扑生成器,可以用来研究的相关性可能导致对权力法律和其他指标观察到网络拓扑。表7指定配置的网络连接性:低连接,媒介连接,和高连通性,第二列标识一个整数每个路由器的链接数。图5说明了三个样本随机网络拓扑与不同的网络连接性。此外,每个数据使用者的兴趣包率和数据包的大小设置为5 pkt /秒和512字节,分别。在现有的文献中,各种数据包大小(即。,256,512,和1024 Bytes) have been adopted to evaluate the effect of packet size in NDN [24]。因此,采用介质包大小为512个字节代表。在[25,26),利息包率和数据包的大小设置为200 pkt /秒和1040字节,分别。所以总交通速度是208000字节每秒。在我们的模拟中,总交通速度是2560字节每秒。因此,我们相信,定制的系统参数,比如兴趣包的价值率和数据包的大小是一个合理的范围内。总的仿真时间设置为500秒,和= 1,= 1采用。为了获得稳定的性能结果,每个模拟场景重复10次与不同的随机生成的种子。在这篇文章中,我们感兴趣的满意度来衡量性能比、利益满足延迟,跳数,缓存命中率,和内容存储利用率通过改变主要仿真参数,包括网络连接和连接失败。利息满意比率:利息满意比率被定义为获取数据包的总数的比值和发行的兴趣包的总数。利益满足延迟:利益时的平均运行时间满足延迟数据消费者问题的兴趣包当数据消费者接收数据包。跳数计算跳数:数据包的总数链接遍历满足发布兴趣包除以总数量的数据包。缓存命中率:缓存命中率的总数的比例是满足兴趣包的内容库收到利益的数据包的总数。内容存储利用率:内容存储利用率计算缓存数据包的总数除以内容库的大小。
(一)
(b)
(c)
|
||||||||||||||
我们重新审视之前的转发和缓存策略,(6,7),(8),和修改他们的工作性能比较的框架。这两个基准计划的基本思想简要讨论如下: :的基于着色方案分类输出接口。即将离任的接口被归类为绿色、黄色和红色,这表明即将离任的接口可以把数据,可能会或可能不会带来数据,不能把数据,分别。兴趣数据包转发到排名最高的绿色的输出接口。如果没有绿色的输出接口,选择排名最高的黄色输出接口转发数据包。此外,缓存的策略依赖于存储每一个接收到的数据包。 :的由两个主要组件,包括合作转发和heuristic-based缓存。前组件利用共享数据名称和外向之间接口的路由器来估计最可能的路径向被请求的数据的缓存版本。后者组件实现了决策机制主动决定缓存接收到的数据包,路由器靠近某一数据生产者可以完全避免缓存数据包从这个数据生产者。
6.2。仿真结果和分析
首先,我们测量感兴趣的性能满意比率与网络连接,连接失败,仿真时间图6。如图6(一),利息满意度的比例 , ,和增加的网络连接增加,链接失败的数量设置为零。更高的网络连接,一个新的路由器的邻居路由器连接的增加,因此,网络变得更加密集。密集的网络,每个路由器有多个输出接口替代选择和转发数据包,和感兴趣的流量包分布在多个路径不会造成交通拥堵。结果,数据生产商获得更多利益包然后回复更多的数据包,导致利息满意比率增加。的优于和 。自评估输出接口选择基于多个网络指标和客观地选择一个最优输出接口转发数据包,数据包可以送到数据生产者更感兴趣。相应地,将回答更多的数据包回到沿反向路径数据消费者感兴趣的包;因此,更高的满意度比观察的兴趣。的显示了一个更高的利息满意度比例比 。这是因为每个路由器将利息数据包路由到离路由器有数据包根据共享数据名称和接口信息,可以获得更多的数据包通过较短的路线,和更高的利息满意比率可以比实现 。在图6(b),这三个方案的利息满意比率减少当链接失败的数量增加。这是因为利息或数据包会迷失在传输链路发生故障时,和少数量的兴趣或数据包可以收到。因此,利息满意比率较低。然而,仍然提供满意度最高的利息比率,因为它可以检测到网络环境的变化迅速,选择更可靠的输出接口转发数据包。因此,更多的兴趣可以接收数据包的数据生产者;反过来,更多的数据包将回回答消费者的数据,可以实现更高的利息满意比率。图6(c)显示了兴趣满意度的变化比率随着仿真时间消逝。
(一)
(b)
(c)
跳数,第二,我们测量的性能不同的网络连接和链接失败在图的数量7。在图7(一),跳数略有增加网络连接的减少。每个路由器有更多的邻居,它更有可能找到一个更短的路径转发数据包的数据生产者利益。由于数据包是沿反向路径回答感兴趣的数据包,数据包遍历链接的数量来满足兴趣包减少和降低跳计数是观察。的获得最低的跳数,因为它对RTT选择输出接口的性能,和更短的路径RTT较低可以确定转发数据包。因此,跳数可以通过最低相比和 。此外,因为每个路由器可能应用CacheFace和路由兴趣包接近边界路由器的数据包,数据包可以满足利益通过较短的路线,导致跳数减少。如图7(b)的跳数 , ,和当链接失败的数量增加呈线性增加。因为有更多的网络链接失败,兴趣可能会通过较长的路径转发数据包,从而导致越来越跳数。的显示最高的跳数,因为它只考虑限制速度选择输出接口的链接。的达到一个更小的跳跃数比 。这是因为回复姓名和共享数据接口知识在邻居路由器选择较短的路由转发数据包。
(一)
(b)
第三,我们测量感兴趣的性能满足延迟通过改变网络连接和链接失败在图的数量8。如图8(一个),整体利益满足延迟增加网络连接的减少。当网络变得更加紧密,数据使用者可以很容易地找到感兴趣更短的路由转发数据包从数据生产者和检索所需的数据。自数据包也会遍历回数据消费者在较短的路线,更短的利益满足延迟可以实现。最重要的是,仍然优于和因为它认为多个网络指标选择最好的输出接口。此外,采用CacheData CacheFace帮助检索所需的数据通过较短的路线,在利息由中间路由器或重新路由数据包能满足近边界路由器的数据。在图8(b),利息满意度延迟增加链接失败的数量增加。当有更多的网络链接失败,兴趣包可能需要转发通过可靠但长路线。因此,更高的利益满足延迟。然而,仍然显示了一个更低的利息满意度延迟比和 。
(一)
(b)
第四,我们测量性能的缓存命中率和内容存储利用率通过改变网络连接图9。这是显示在图9(一)的缓存命中率比这更高的和 。这是因为采用传统的缓存策略在网络,每个路由器存储每一个收到的数据包。缓存结果,数据包在每一个中间路由器,可以提高缓存命中率毫无疑问。的显示了较高的缓存命中率 。自可以满足兴趣包通过CacheData或CacheFace,可以获得较高的缓存命中率。在 ,路由器可以重新路由数据包的路由器利益所需的数据只有数据名称和接口的信息。否则,路由器有兴趣数据包转发到数据生产者来检索所需的数据。因此,提供最低的缓存命中率。在图9(b),这不是令人惊讶的看到路由器附近的数据生产商100%的内容存储利用率 。原因是采用默认网络缓存策略依赖于存储每一个接收到的数据包无视各种缓存约束和标准。因为两个和采用缓存策略防止路由器附近的数据从缓存每个生产商收到数据包,实现更低的内容存储利用率相比 。的显示内容存储利用率比更高因为缓存数据包。
(一)
(b)
第五,我们测量的性能感兴趣的满意度比通过改变节点图的数量10。总的来说,随着网络中节点的数量的增加从100年到200年,所有三个方案的利息满意比率增加。基本原理是,可以选择更多的邻居节点转发数据包在网络利益。因此,数据生产者可以接收更多的兴趣包然后回复更多的数据包,导致利息满意比率增加。当节点的数量从160增加到200,感兴趣的满意度比观察略有增加。然而,仍然优于其他两个方案。
7所示。结论和未来的工作
在本文中,我们提出了 ,一种新颖的有状态转发NDN网络和网络缓存策略。的包括基于多准则决策(指标)的利息转发和合作数据缓存。MCDM-based利益转发,每个输出接口可选方案是先评估基于多个网络指标获得转发指数,这是一个指标的总体性能。然后,所有输出接口替代货运指数的排名,排名最高的一个是选择感兴趣的包。此外,合作数据缓存包含两个计划:CacheData,缓存数据,和CacheFace缓存输出接口。对于绩效评估,我们认为接口利用率,往返时间(RTT),纳克比实时网络指标。我们还开发了一个自定义的离散事件驱动的模拟框架通过OMNeT + +和评估其性能通过大量的仿真实验。仿真结果表明,该可以提高利息满意比率和利息满意度延迟以及减少跳数和内容存储利用率,表示一个可行的有状态的转发和NDN网络中的缓存策略。
作为一个未来的工作,我们计划调查网络分析法(ANP)之间的相互关系,分析决策水平和多个网络指标和动态计算多个网络指标的相对权重。此外,我们计划进一步扩展该MCDM-based利益转发功能的交通负载平衡。例如,路由器可以随机选择一个输出接口转发数据包通过随机生成一个号码和比较利益的货运指数每个输出接口。如果输出接口转发指数大于随机生成的数字,这个输出接口选择感兴趣的包。通过这种方式,每个输出接口将有机会转发数据包,从而实现流量负载均衡的目标。此外,在互联网的一切或5克(27),连接设备的数量显著增加的网络,网络指标信息的数量,用于转发决策也会大量增加。结果,较长的计算延迟转发决定可以观察到在每个中间路由器,这成为一个重要的问题。因此,我们计划调查转发策略的算法优化平衡算法效率之间的权衡和计算延迟。
数据可用性
使用的数据来支持本研究的发现可以从相应的作者要求考虑的目的用于进一步的研究。
的利益冲突
作者宣称没有利益冲突。
确认
这项工作是支持的初创公司授予的马歇尔大学计算机科学和电子工程。
引用
- c Pu,”女巫攻击RPL-based物联网:分析和防御,”IEEE物联网,7卷,不。6,4937 - 4949年,2020页。视图:出版商的网站|谷歌学术搜索
- g .价格,“思科网络年度报告(2018 - 2023)白皮书,”2020年。视图:谷歌学术搜索
- c Pu、n·佩恩和j·布朗,“自动调整股份对策兴趣命名数据网络,洪水袭击”《IEEE会议网络、物理和社会计算,页142 - 147年,亚特兰大,乔治亚州,美国,2019年7月。视图:谷歌学术搜索
- l ., a gleb stolyarov j·伯克et al .,“命名数据网络,”ACM SIGCOMM计算机通信评审,44卷,不。3、66 - 73年,2014页。视图:出版商的网站|谷歌学术搜索
- z, y, b, l .燕和k·刘,“包转发数据网络而得名的需求和解决方案的调查,“IEEE通信调查和教程,21卷,不。2,p。1950年,1987年。视图:谷歌学术搜索
- a . gleb stolyarov“NFD开发人员指南,”科技。代表,计算机科学系,加州大学洛杉矶CA,美国,2014年,科技。众议员ndn - 0021。视图:谷歌学术搜索
- c, A gleb stolyarov Moiseenko, b . Zhang l . Wang和l .张”状态转发平面的理由。”计算机通信,36卷,不。7,779 - 791年,2013页。视图:出版商的网站|谷歌学术搜索
- m . Abdelaal m . Karadeniz f·杜尔,k . Rothermel”liteNDN: QoS-aware数据包转发和缓存命名数据网络”IEEE国家气候变化委员会的诉讼NV,页1 - 9,拉斯维加斯,美国2020年1月。视图:谷歌学术搜索
- a·巴尔加“OMNeT + +”, 2014年,http://www.omnetpp.org/。视图:谷歌学术搜索
- A . Abane m . Daoui s Bouzefrane, p . Muhlethaler”一个轻量级的转发策略命名在低端的物联网数据网络,”网络和计算机应用》杂志上文章ID 102445卷,148年,2019年。视图:出版商的网站|谷歌学术搜索
- y, b .白、徐k和k . Lei“IFS-RL:智能转发策略基于强化学习的"命名数据网络,”诉讼NetAI的18:学报2018车间网络满足人工智能和毫升,页54-59,纽约,纽约,美国,2018年8月。视图:谷歌学术搜索
- 简达·摩尔·j·h·Hellwagner,“自适应转发命名数据网络的持续的利益”诉讼的ACM以信息为中心的网络会议(ICN 2017)德国柏林,页180 - 181年,2017年9月。视图:谷歌学术搜索
- j .姚明,b .阴和江x, x Tan“POMDP框架命名数据网络的转发机制,“计算机网络卷,112年,第175 - 167页,2017年。视图:出版商的网站|谷歌学术搜索
- j . Lv, x, y,和j·朱,“DRL-based转发策略命名数据网络,”学报2018年第37中国控制会议(CCC)IEEE,页6493 - 6498年,武汉,中国,2018年7月。视图:谷歌学术搜索
- r·侯l .张毛t, t . Wu和j·罗,“Bloom-filter-based请求节点协作缓存命名数据网络,”集群计算,22卷,不。3、6681 - 6692年,2019页。视图:出版商的网站|谷歌学术搜索
- f·r·c·Araujo a . m . de Sousa和l . n .桑帕约”SCaN-Mob:一个投机取巧的缓存策略以支持生产流动性命名数据无线网络,“计算机网络卷,156年,第74 - 62页,2019年。视图:出版商的网站|谷歌学术搜索
- m . Yu和r·李“动态命名数据网络,基于流行度缓存许可战略”学报2018年IEEE 22日国际会议上计算机支持的协同工作的设计(CSCWD),页576 - 581,南京。中国,2018年5月。视图:谷歌学术搜索
- y秦、w·杨和w·刘“一致性哈希的概率缓存策略命名数据网络,”学报》2018年1日IEEE国际会议在炎热的以信息为中心的网络(HotICN 2018),页67 - 72,深圳,广东,中国,2018年8月。视图:谷歌学术搜索
- h .严d高,w·苏,c . h .呸h . Zhang和a . v . Vasilakos”命名的数据缓存策略基于分层集群网络,”IEEE访问5卷,第8443 - 8433页,2017年。视图:出版商的网站|谷歌学术搜索
- d . Saxena诉Raychoudhury:苏瑞,c·贝克尔和j .曹”命名数据网络:一项调查,”计算机科学评论卷。19日,15-55,2016页。视图:出版商的网站|谷歌学术搜索
- g . Tzeng和j·黄多属性决策:方法和应用美国佛罗里达州波卡拉顿,CRC新闻,2011年。
- a . gleb stolyarov et al .,“包碎片NDN:为什么敌手NDN使用碎片,“技术。代表,计算机科学系,加州大学洛杉矶CA,美国,2015年,科技。众议员NDN - 0032。视图:谷歌学术搜索
- a .麦地那。马特,j·拜尔斯,“ndnSIM 2.0: NS-3 NDN模拟器的新版本,”技术。代表,波士顿大学,波士顿,MA,美国,2000年,科技。众议员NDN - 0028。视图:谷歌学术搜索
- 美国Tiennoy和c . Saivichit”使用分布式路边单元的数据传播协议在VANET命名数据架构,”IEEE访问》第六卷,第32623 - 32612页,2018年。视图:出版商的网站|谷歌学术搜索
- c, a gleb stolyarov b . Zhang, l .张”命名数据网络自适应转发”,ACM SIGCOMM计算机通信评审,42卷,不。3、62 - 67年,2012页。视图:出版商的网站|谷歌学术搜索
- c .易”命名数据网络自适应转发,”亚利桑那大学图森,亚利桑那州,2014年,博士学位论文。视图:谷歌学术搜索
- c Pu和l .木匠”Psched:美元基于优先级的调度方案无人机的互联网服务,“IEEE系统杂志,2020年,页1 - 10。视图:出版商的网站|谷歌学术搜索
版权
版权©2021丛聚氨酯。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。