MISY
移动信息系统
1875 - 905 x
1574 - 017 x
Hindawi
10.1155 / 2020/7641073
7641073
研究文章
CRC-Based分类器Micro-Engine SDN-Based物联网高效的流处理
https://orcid.org/0000 - 0002 - 5373 - 5778
Abbasi
救世主
1
穆萨维
Navid
1
Rafiee
Milad
1
Khosravi
默罕默德·R。
2
3
梅农
Varun G。
4
巴希尔
阿里Kashif
1
计算机工程系
电子工程学院
Bu-Ali新浪大学
哈马丹65178 - 38695
伊朗
basu.ac.ir
2
计算机工程系
波斯湾大学
布什尔
伊朗
pgu.ac.ir
3
电信集团
电气和电子工程
设拉子科技大学
设拉子
伊朗
sharif.ir
4
计算机科学与工程系
scm工程与技术学院
Ernakulam 683582
喀拉拉邦
印度
2020年
18
5
2020年
2020年
14
12
2019年
03
04
2020年
18
5
2020年
2020年
版权©2020马赫迪Abbasi et al。
这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。
在物联网(物联网)、网络设备和移动系统应与微不足道的交换大量的数据延迟。为此,社区已经使用软件定义网络(SDN),提供了高速流为基础的沟通机制。为了满足的需求分类的SDN沟通包,高通量包分类系统是必要的。基于硬件的网络报文分类方法,可以同时高速和memory-aware证明能够填补差距的网络速度和处理速度系统网络上的交通量超过100 Gbps。然而,当前体系结构并没有成功地实现这两个目标。本文提出的体系结构处理micro-core高速报文分类,基于流的网络系统。通过使用哈希技术,这种分类micro-core修正规则的长度字段。结果,结合SRAM和布拉姆记忆细胞和实现两个端口的Virtex®6 fpga, 14.5字节的内存使用规则和吞吐量324差实现的实验。同时,提出设计的性能/内存是最高与其他主要国家相比,能够同时满足速度和内存使用标准。
1。介绍
我们的世界是由物联网连接(物联网)。在过去的几年中,相当多的网络带宽的增长和硬件技术的发展,特别是在移动通信,导致显著增加的速度这个全球网络的通信线路
1 ,
2 ]。也就是说,通信线路的速度比“每秒达到更高。“SDN范式的目标是实现良好的性能在管理网络通过加速处理数据包的路由器和交换机的网络链接(
3 ,
4 ]。使SDN足够灵活以满足不同需求的异构物联网应用程序是可取的软件定义的物联网(SD-IoT) [
5 ,
6 ]。为此,网络设备配备了一个新的机制,命名报文分类,它让他们flow-aware。也就是说,网络设备,首先将传入的数据包分为流根据一组预定义的过滤器,然后相应的任何进一步的处理。因此,各种包处理器的设备包括路由器、防火墙、入侵检测系统、客户管理系统、网络管理系统使用报文分类(
1 ,
7 - - - - - -
10 ]。,一些重要的网络管理功能,如访问控制、服务质量配置、防火墙、交通治安和基于策略的转换利用数据包分类。
有五个字段在一个典型的分类规则包括源和目标IP地址(SA)和DA),源和目标端口号(分别SP和DP)和协议(PT)。SA和DA地址前缀,SP和DP数量范围,PT字段可以是指定的值或一个通配符。在规则集的规则决定了他们的优先级。最后一个规则是默认规则的所有五个字段等于通配符。如果传入的数据包匹配多个规则,相对应的行动执行最高优先级的规则。报文分类算法描述中发现(
1 ]。
网络数据包分类网络设备是通过软件或基于硬件的方法。相当长的时间过载基于软件的方法使他们不受欢迎的网络设备制造商(
11 ]。另一方面,人们普遍倾向基于硬件的方法和他们的更高的吞吐率和更低的延迟
12 ]。基于硬件的实现报文分类算法可以分为两组。第一组包括算法基于并行搜索的内容可寻址存储器(CAM)芯片Z-TCAM [
13 ],E-TCAM [
14 ],ZI-CAM [
15 ]。尽管他们相对较高的速度,在这些算法中使用三元记忆导致缺点如过度的功耗,降低速度比其他记忆细胞,缺乏可伸缩性、芯片资源的过度消耗和高价格。第二组包括决策树算法等,分解树,几何空间,字段加密和类似的方法实现的可编程ASIC或FPGA硬件设备。
设计基于硬件方法的主要挑战是增加吞吐量的比例设计成本。分类器的吞吐量是数据包的数量,在单位时间内被分类。所需的内存空间的主要指标是系统设计成本。达到这个最佳点,我们提出一个micro-core降低内存消耗,同时提高了分类的吞吐量。本文的主要贡献如下:
(1)
拟议的micro-core使用SRAM和布拉姆细胞允许双端口实现。
(2)
该引擎不使用任何三元内容可寻址内存。相反,它编码的前缀的循环冗余校验(CRC)的代码。
(3)
FPGA实现该分类器在Virtex®6显示内存成本降低14.5个字节/规则,同时分类器的吞吐量达到324差。这个结果证实了其同行建议的体系结构的优越性。
本文的其余部分组织如下。节
2 相关工作,基于硬件的数据包分类系统进行了综述。拟议中的microclassifier架构解释部分
3 。建议的体系结构的性能评估提出了部分
4 之后引入指标。最后,结论和未来的研究方向进行了讨论
5 。
2。相关工作
到目前为止,各种报文分类提出了基于硬件的分类器的架构。他们试图增加吞吐量和减少内存的使用。CAM-based分类器架构受益于CAM模块的并行搜索属性但遭受高实现成本和高水平的消费力量。在[
16 ,
17 ),提出了两个最近的架构。他们利用管线式决策树算法和三元记忆,分别。在提出的架构
16 )取得了103 Gbps的吞吐量,这是最高的在这里提到的所有作品。然而,根据其硬件参数的数量和长度管道的分布值分类器规则的领域,任何更新都需要重新配置的架构。另一方面,这种体系结构的内存使用量是每包63.5字节。在[
17 ),研究人员使用三元记忆的大小
52
∗
144年
和能够减少内存使用量每规则18个字节;然而,他们的最大吞吐量低至38 Gbps。在提出的架构
18 ,
19 )能够实现吞吐量100 mpp同时保持在23.5和17.4字节,内存使用。架构的重点在
18 )是在规则搜索,它并没有解决的问题最长前缀匹配(行分钟)。在提出的架构
19 )采用TCAM-based报文分类方法。其主要缺点是线性增长TCAM的使用规则,数量的增加成正比芯片资源的消费和权力。基于分解树的合并算法的实现(
20. ]达到的吞吐量94 Gbps(总计147差,考虑到每个包是40个字节)。这项研究并没有提供了内存使用量也没有提出任何解决方案更新规则。
一些这样的分类器在
21 )用一个特殊的模式加速访问内存包含规则,进而增加了他们的内存消耗。管线式报文分类算法的实现寻求适当的解决方案来减少管道摊位的数量和所需的内存空间。例如,在管线式数据包分类器的
22 从16到24.5),内存消耗不同字节/规则。
为了克服上述缺点,我们提出一个packet-classifying micro-core低内存消耗和高吞吐量。拟议中的micro-core利用SRAM和布拉姆细胞,这允许双端口实现。处理基于循环冗余校验(CRC)代码的内部结构micro-core没有任何需要三元记忆降低FPGA硬件资源的消耗和内存访问所需的时间在这个分类器。
3所示。建议的体系结构
本节解释提出了分类器的架构旨在增加报文分类速度。基础架构两个原则:首先,利用BCAM记忆前缀匹配,第二,使用哈希码减少内存使用量。
在这个分类器,一组处理micro-cores像一个凸轮,每一个存储的信息一个规则的规则集,架构如图
1 。在此体系结构中,
n micro-cores定义为每个字段用于报文分类
n 在分类器的规则数量代表micro-cores /字段的数量。
图1
提出了数据包分类架构。
传入的数据包分类如下:首先,通过共享总线传输数据包micro-core单元。一旦数据包进入micro-core领域的源和目标IP地址的头被平行阅读哈希计算器。接下来,以类似的方式和比例前缀寄存器的值的长度,CRC-16生成过程输入地址和执行结果存储在临时登记。每个micro-core都有一个控制单元,除了micro-core的控制功能,管理的生成过程以及过程匹配生成的哈希代码和存储在临时注册的散列码前缀的相应规则的micro-core Hash-of-rule登记。如果传入的数据包报头的散列码匹配micro-core散列码,加法器将添加一个变量存储在寄存器。此外,在正确匹配的情况下,一比特的标志匹配和相应的micro-core的
n 位注册包匹配将被设置。如果匹配失败,这些碎片将重置默认情况下。数据包匹配寄存器用于记录在其他micro-cores匹配或不匹配。在这个寄存器,任何一点的值表示匹配任何一点与零值表示的micro-core对应一个字段不匹配搜索。匹配所有字段后,结果被写入位对应的数据包中的每个字段匹配寄存器。接下来,逻辑和操作的结果对所有数据包匹配寄存器存储在匹配向量。最后,一个优先译码器选择优先级最高的匹配的规则。
见图
1 的分类器由一组处理micro-cores。在下面,我们将讨论的内部架构micro-cores见图
2 。此外,每个寄存器的长度的micro-cores图的底部所示
2 。
图2
提出micro-core架构。
micro-core的主体由两个模块组成,即。,CRC计算器和控制器。控制器模块负责管理的控制线路,输入和输出。在本单位业务包括管理选择线路,注入和更新的寄存器。事实上,这个单位的决策者micro-core,由主控制器分别控制的分类器。换句话说,micro-cores不中断的功能通过更新和改变micro-cores之一。
第二个重要模块的micro-core熊主要处理负载的一部分是CRC计算器。图
3 显示这个模块的功能。接收传入的数据包,并计算其散列码并行(1号线的算法
1 )。为此,每个IP地址以及相应的前缀,已经存储在前缀注册进入模块。接下来,使用他们,计算散列码发送到控制器匹配的目的。这个模块的实现消耗40 204000 Virtex-6附近地区。
<大胆>算法1:< /大胆>实现数据包的分类器micro-core。
输入 :
数据
,
输入
前缀
,
规则
,
选择
,
输入
地址
输出 :
排名
_
出
,
匹配
寄存器 :
排名
,
国旗
,
哈希
代码
,
前缀
,
地址
,
匹配
数据 :
包P
,
儿童权利公约
的
包
P
儿童权利公约
(1)
P
儿童权利公约
⟵
计算
儿童权利公约
P,
哈希
代码
(2)
年代
w
我
t
c
h
选择
(3)
C
一个
年代
e
00
:
/ /
分类操作
(4)
我
f
P
儿童权利公约
=
=
哈希
代码
t
h
e
n
(5)
匹配
⟵
1
,
排名
←
排名
+
1
,
国旗
←
1
(6)
E
l
年代
e
(7)
匹配
⟵
0
(8)
e
n
d
我
f
(9)
C
一个
年代
e
01
:
/ /
更新
(10)
排名
⟵
0
,
匹配
←
0
,
国旗
←
0
(11)
前缀
⟵
输入
_
前缀
,
哈希
代码
←
规则
(12)
C
一个
年代
e
10
:
/ /
排名
(13)
排名
_
出
⟵
排名
(14)
C
一个
年代
e
11
:
/ /
设置地址
(15)
地址
⟵
输入
地址
,
前缀
←
输入
_
前缀
(16)
哈希
代码
⟵
规则
(17)
匹配
⟵
0
,
国旗
⟵
0
(18)
端开关
(19)
我
f
国旗
=
=
1
t
h
e
n
(20)
国旗
⟵
0
,
匹配
⟵
0
(21)
E
n
d
我
f
图3
CRC计算器模块。
micro-core已经7输入插脚和2输出插脚。表
1 列表的输入和输出端口micro-core连同他们的长度在比特以及他们的描述。micro-core由寄存器,散列发电机模块(CRC计算器),和一个控制器。
表1
输入引脚的功能。
的名字
长度(位)
描述
Clk
1
对所有micro-cores时钟
前缀
6
前缀的长度
数据
32
宽的输入行传入的数据包
规则
16
散列码的最大长度的规则
地址
16
地址的选择处理核心
En-address
1
激活更新和配置操作
选择
2
在选定的核心处理方式
rank
32
宽的总线共享micro-cores和用于更新
匹配
1
国旗在micro-core信号匹配/不匹配
一组的输入插脚micro-core被命名为“选择”,这决定了操作模式的micro-core(2号线的算法
1 )。事实上,这销micro-core负责管理的功能。它是连接到一个微不足道的总线用于解决不同模式的micro-core函数如下所述(见表
2 ):
模式0:micro-core执行其主要任务,即报文分类算法(3 - 7行
1 )。
模式1:当地址从地址端口地址寄存器的价格是一样的,选择更新micro-core中的信息通过信息的端口(9 - 11行前缀和规则的算法
1 )。
模式2:每个micro-core将相关信息发送给它排到一个共享总线输出。这个操作的目的是选择最佳的候选人被分类删除控制器。中央控制器存储分类器的数量排名最低的更新算法的规则(12 - 13行
1 )。
模式3:大多数现有的分类器不提供一个动态解决方案更新规则和执行这个任务重构的芯片组。然而,鉴于其煤特性,我们建议的体系结构使我们能够更新规则在特定条件下。很容易注入新的规则不改变现有规则的顺序。过去的模式选择(1,1),用于初始化micro-cores通过注入规定每个micro-core算法(第14 - 17行
1 )。
表2
模式选择提供的销。
选择
模式
相应的算法
1
00
数据包分类
3 - 7
01
更新规则和抽象物micro-cores
9 - 11
10
输出的秩micro-cores总线
12 - 13
11
初始化选择micro-core
14日至17日
将数据包注入处理micro-core之前,规则是注射的。在这一步中,规则,转换为哈希码存储在哈希码注册。前缀和地址寄存器的地址前缀长度和处理规则的核心。国旗属于内部控制器管理micro-core内的输入/输出操作,这样的行为处理输入数据包不会重叠。等级注册有一个32位的长度和持有正确的匹配传入的数据包和micro-core匹配字段。为每个micro-core正确匹配,一个是添加到这个寄存器的值。这是一个标准用于其他处理micro-cores更新和删除规则。因此,micro-core排名最低的是选择删除和更新。事实上,在这个分类器,较低的排名表明减少使用规则的规则集。
4所示。实施和评价
在本节中,提出micro-core架构的实现结果进行了讨论。此体系结构从Virtex-6 XC6VLX75T芯片FPGA上实现家庭Xilinx ISE 14.7模拟器使用硬件描述语言(VHDL)的语言。实验是在表中提到的系统特征
3 。
表3
系统规范。
规范
处理器
的名字
英特尔酷睿i7 - 3720 qm
时钟速度
2600兆赫
L3缓存
6 MB
主内存
16 GB的DDR3
操作系统
Windows 64 enterprise 18.03,
这个实验的评估标准是吞吐量和记忆。吞吐量是指数据包的数量分类。假设至少40个字节为每个包(
20. ),我们使用Gbps代替mpp测量吞吐量。内存使用以字节的每个规则分类器。
我们使用Classbench工具来生成和实验信息包的规则在我们的实验。Classbench Linux平台上运行,用于生成规则集与理想的分布模型的几何空间规则。它生成规则和相应的标题用一组输入分布参数(
23 ]。
迄今取得的最高吞吐量属于Chang (
16 ),103.53 Gbps。然而,它是0.150 Gbps不到我们的吞吐率。同时,存储的内存使用分类器的规则体系结构是四倍的方法。事实上,张的架构与传统TCAM-based架构的内存使用。
表
4 比较了提出micro-core结构与现有的结构。时钟频率为170 MHz,每个micro-core的处理时间是在最坏的情况下每包6.2纳秒和电力消费是118兆瓦。用一个双端口内存可以同时处理两个数据包,该micro-core能够处理3.24亿包至少40个字节在第二个吞吐量超过100 Gbps。在这个模拟过程中,我们的架构使用137片寄存器和182搜索表。
表4
比较该方法与不同的体系结构的性能。
参考
吞吐量(Gbit / s)
频率(MHz)
内存(字节)
三星
芯片
脓和Korenek
18 ]
One hundred.
125年
23.5
Virtex5
LX110T
Chang和陈
16 ]
103.53
161.76
63.5
Virtex-6
XC5VFX200T
Fiessler et al。
24 ]
92.16
180年
NA
Virtex-7
XC7VX690T
奥罗兹et al。
25 ]
One hundred.
312年
NA
Virtex-6
XC6VHX255T
周et al。
20. ]
147毫升
NA
NA
Virtex-7
XC7VX690T
艾尔et al。
17 ]
37.3
259年
18
Virtex-6
XC6VLX760
江和Prasanna
19 ]
One hundred.
167年
17.4
Virtex-5
XC5VFX200T
我们的设计
103.680
170年
14.5
Virtex-6
XC6VLX75T
在表
4 ,提出micro-core架构与主要最近提议同行的吞吐量和内存使用量/规则。从这些架构中,江泽民和Prasanna
19 )和艾尔et al。
17 需要最少的内存,也就是说。,17.4一个nd18bytes per rule, respectively. With a required memory of 14.5 bytes per rule, our proposed micro-core outperforms these two architectures. The major reason behind the low memory usage in our method is that, in contrast to the two mentioned architectures, our classifier does not rely on TCAM and mask for matching operation.
在一个更多的表现方法,表中
5 比较了提出设计与其他设计关于性能/内存(
19 ]:
(1)
效率
=
吞吐量
Gb
/
年代
规范化的记忆
B
/
规则
。
表5
比较各种系统的性能/内存。
方法
吞吐量(Gb / s)
内存(字节)
效率(吞吐量/内存)
芯片
奥罗兹et al。
25 ]
One hundred.
156年
0.64
XC6VHX255T
我们的方法
101.7
14.5
7.01
艾尔et al。
17 ]
37.3
18
2.072
XC6VLX760
我们的方法
75.83
14.5
5.229
Ganegedara和Prasanna
21 ]
407年
156年
2.660
XC6VLX760
我们的方法
75.83
14.5
5.229
Qi et al。
26 ]
73.9
46.4
1.592
XC6VSX475T
我们的方法
86.83
14.5
5.988
Pao和陆
22 ]
108.8
18
6.04
XC6VLX75T
我们的方法
103.680
14.5
7.150
为此,吞吐量以及建议的体系结构的内存消耗测量芯片,用于评估竞争对手的设计。每个规则的内存使用情况总是不断提出设计。因此,提出了设计的性能/内存与其他主要国家相比是最高的。
的比率的优越性的效率方法对每个如图
4 。我们的比较表明,该体系结构大大提高了网络的吞吐率和内存使用数据包分类系统。提出了设计的性能/内存至少是18%,最多990%比最好的和最坏的设计,即Pao和陆
22 和奥罗兹et al。
25 ]。
图4
效率改进的比率。
5。结论
在本文中,我们提出了一种新的micro-core架构的网络数据包分类的更新。建议的体系结构允许添加或删除规则在处理过程中,享受更低的内存使用以及更高的吞吐率与其他结构相比。我们的评估表明,这种micro-core数据包分类的吞吐量超过103 Gbps,相当于大约324差。这种架构的另一个优点是,内存使用量/规则总是恒定的。因此,提出了设计的性能/内存与其他主要国家相比是最高的。这一成就帮助提出micro-core避免资源需求的问题在最长前缀匹配(行分钟)。卓有成效的主题为未来的研究将这micro-core的固有特性应用于管道分类器的实现中,在管道处理行分钟是一个很好的问题。
数据可用性
使用的数据来支持本研究的发现可以从相应的作者。
的利益冲突
作者宣称没有利益冲突有关的出版。
[
]1
泰勒
d E。
包分类技术的调查和分类
ACM计算调查(CSUR)
2005年
37
3
238年
275年
10.1145/1108956.1108958
2 - s2.0 - 33745129743
[
]2
勒
n . T。
侯赛因
m·A。
伊斯兰教
一个。
金
D.-Y。
崔
Y.-J。
张成泽
y . M。
5 g网络调查的有前途的技术
移动信息系统
2016年
2016年
25
2676589
10.1155 / 2016/2676589
2 - s2.0 - 85008950487
[
]3
Ujjan
r·m·A。
佩尔韦兹•
Z。
达
K。
巴希尔
答:K。
泰姬
R。
冈萨雷斯
J。
对sFlow和自适应轮询采样深度学习在SDN DDoS检测
未来一代计算机系统
2019年
10.1016 / j.future.2019.10.015
[
]4
Shakil
M。
Fuad Yousif穆罕默德
一个。
Arul
R。
巴希尔
答:K。
崔
j·K。
一种新颖的动态框架检测DDoS SDN使用metaheuristic集群
交易新兴电信技术
2019年
e3622
10.1002 / ett.3622
2 - s2.0 - 85065178538
[
]5
Bevi
a。R。
Shakthipriya
P。
Malarvizhi
年代。
物联网软件定义网络网关的设计
无线个人通信
2019年
107年
1273年
1287年
[
]6
巴希尔
答:K。
Arul
R。
Basheer
年代。
拉贾
G。
Jayaraman
R。
库雷希
n·m·F。
一个最优的多层云跑5 g的资源分配使用机器学习
交易新兴电信技术
2019年
30.
e3627
10.1002 / ett.3627
2 - s2.0 - 85065711553
[
]7
古普塔
P。
部
N。
报文分类在多个领域
ACM SIGCOMM计算机通信评审
1999年
29日
4
147年
160年
10.1145/316194.316217
[
]8
康
K。
邓
y S。
可伸缩的报文分类通过GPU编程
程序的设计、自动化和测试在欧洲会议与展览(日期)
2011年3月
法国格勒诺布尔
IEEE
10.1109 / DATE.2011.5763294
[
]9
Shieh
年代。
李
F.-Y。
林
Y.-W。
加速网络安全服务与快速报文分类
计算机通信
2004年
27
16
1637年
1646年
10.1016 / j.comcom.2004.05.003
2 - s2.0 - 4344704099
[
]10
Varghese
G。
Varghese
G。
章12-packet分类
网络算法
2005年
旧金山,加州,美国
摩根考夫曼
270年
301年
[
]11
凌晨
J。
崔
J.-G。
Pak
W。
通配符fields-based分区vehicle-to-everything快速和可伸缩的报文分类
传感器(瑞士巴塞尔)
2019年
19
11
2563年
10.3390 / s19112563
2 - s2.0 - 85068104018
[
]12
曲
y R。
周
年代。
Prasanna
诉K。
高性能架构对FPGA动态可更新报文分类
《第九ACM和IEEE研讨会上网络和通信系统的架构
2013年10月
旧金山,加州,美国
IEEE
125年
136年
[
]13
Ullah
Z。
贾斯瓦尔
m·K。
张
r . C . C。
Z-TCAM: TCAM的SRAM-based架构
IEEE超大规模集成电路(VLSI)系统
2014年
23
1
402年
406年
10.1109 / TVLSI.2014.2309350
2 - s2.0 - 85028130246
[
]14
Ullah
Z。
贾斯瓦尔
m·K。
张
r . C . C。
E-TCAM:一个高效的TCAM SRAM-based架构
电路、系统和信号处理
2014年
33
10
3123年
3144年
10.1007 / s00034 - 014 - 9796 - 3
2 - s2.0 - 84919394790
[
]15
伊尔凡
M。
Ullah
Z。
张
r . C . C。
Zi-CAM:权力和fpga资源高效的二进制content-addressable内存
电子产品
2019年
8
5
584年
10.3390 / electronics8050584
2 - s2.0 - 85069829550
[
]16
常
Y.-K。
陈
H.-C。
使用递归快速报文分类endpoint-cutting FPGA和桶压缩
电脑杂志
2018年
62年
2
198年
214年
10.1093 / comjnl / bxy052
2 - s2.0 - 85062689296
[
]17
伊尔凡
M。
Ullah
Z。
张
r . C . C。
D-TCAM:高性能分布式ram TCAM架构基于fpga
IEEE访问
2019年
7
96060年
96069年
10.1109 / access.2019.2927108
2 - s2.0 - 85070318737
[
]18
Puš
V。
Korenek
J。
快速和可伸缩的报文分类使用完美哈希函数
ACM / SIGDA学报》国际研讨会现场可编程门阵列
2009年2月
蒙特雷、钙、美国
ACM
229年
236年
[
]19
江
W。
Prasanna
诉K。
Field-split并行体系结构的高性能multi-match报文分类使用fpga
《21年度研讨会上并行算法和架构
2009年8月
卡尔加里,加拿大阿尔伯塔省
ACM
188年
196年
[
]20.
周
年代。
曲
y R。
Prasanna
诉K。
大规模FPGA报文分类
IEEE学报》26日国际会议上特定于应用程序的系统,架构和处理器(尽快)
2015年7月
多伦多,加拿大安大略省
IEEE
226年
233年
[
]21
Ganegedara
T。
Prasanna
诉K。
StrideBV:单片400克+包分类
IEEE学报》第13次国际会议上高性能交换和路由
2012年6月
贝尔格莱德,塞尔维亚
IEEE
1
6
[
]22
Pao
D。
陆
Z。
multi-pipeline高速报文分类架构
计算机通信
2014年
54
84年
96年
10.1016 / j.comcom.2014.08.004
2 - s2.0 - 85027956610
[
]23
泰勒
d E。
特纳
j·S。
Classbench:报文分类基准
IEEE / ACM交易网络
2007年
15
3
499年
511年
10.1109 / tnet.2007.893156
2 - s2.0 - 34250833308
[
]24
Fiessler
一个。
洛伦兹
C。
海格
年代。
本篇报告
B。
摩尔
答:W。
HyPaFilter +:增强混合信息包过滤使用硬件辅助分类和头部空间分析
IEEE / ACM交易网络
2017年
25
6
3655年
3669年
10.1109 / tnet.2017.2749699
2 - s2.0 - 85030781556
[
]25
奥罗兹
P。
Tothfalusi
T。
巴尔加
P。
C-GEP:自适应网络管理与可重构硬件
学报2015联合会/ IEEE集成网络管理国际研讨会(IM)
2015年5月
多伦多,加拿大安大略省
IEEE
954年
959年
10.1109 / INM.2015.7140417
2 - s2.0 - 84942636194
[
]26
气
Y。
方
J。
江
W。
徐
B。
李
J。
Prasanna
V。
在FPGA多维分组分类:100 Gbps
《国际会议现场可编程技术
2010年12月
中国,北京
IEEE
241年
248年
10.1109 / FPT.2010.5681492
2 - s2.0 - 79551513947