复杂性
复杂性
1099 - 0526
1076 - 2787
Hindawi
10.1155 / 2021/5534385
5534385
研究文章
改善性能的深度学习基于模型的分类分析当地的概率
https://orcid.org/0000 - 0003 - 2116 - 4410
金
广豪
1
https://orcid.org/0000 - 0002 - 7431 - 1966
胡
益鑫
2
https://orcid.org/0000 - 0003 - 0422 - 1559
焦
媒体
2
https://orcid.org/0000 - 0003 - 2652 - 5115
温
Junfang
2
https://orcid.org/0000 - 0002 - 5406 - 294 x
首歌
Qingzeng
2
布埃诺
Atila
1
北京理工
北京100176年
中国
bgy.org.cn
2
计算机科学与技术学院的
天宫大学
天津300387
中国
tjpu.edu.cn
2021年
6
9
2021年
2021年
13
1
2021年
7
8
2021年
25
8
2021年
6
9
2021年
2021年
版权©2021广豪金等。
这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。
一般来说,深的性能上优于分类模型对训练样本的捕获特性高度相关。当样本不清楚或包含一个类似数量的许多对象的特性,我们无法轻易分类是什么。实际上,人类不仅分类对象的特性,还有一些信息,比如这些对象的概率在一个环境。例如,当我们知道更多的信息,如一个对象有更高的概率比其他人在环境中,我们可以很容易的回答什么是样本。我们称这种概率作为当地的概率,因为这是与当地环境有关。在这篇文章中,我们进行了一个新的框架,是叫L-PDL提高深度学习的性能的基础上,分析这种当地的概率。首先,我们的方法训练训练集上的深度学习模型。然后,我们可以在每个对象的概率样本的训练模式。其次,我们得到后本地对象的概率验证集。最后,这个概率有条件地合作对象的概率测试样品。我们选择三种流行的深度学习模型在三个真实数据集的评估。实验结果表明,我们的方法可以明显改善真实数据集上的性能,这是比最先进的方法。
中国国家自然科学基金
61802279
6180021345
61702281
61702366
天津城市的自然科学基金
18 jcqnjc70300
19 jctpjc49200
19 ptzwhz00020
19 jcybjc15800
天津大学基础研究基金
2019年kj019
天津科学技术项目
国家重点实验室的ASIC和系统
2021年kf014
天津市教育委员会科学研究计划项目
2020年kj112
2018年kj215
1。介绍
在这些天,深度学习模型已被证明是有效的在许多应用程序中(
1 - - - - - -
8 ]。一般来说,基于深度学习分类模型的性能取决于捕获的特性(
9 - - - - - -
11 ]。当使用一个深度学习模式分类,每个对象的概率是输出。然后选择具有最大价值的对象作为最终结果。
在某些情况下,错误的对象可能更高的概率比正确的一个。这是由于类似的特性在这些或培训的低效率模型。捕捉更多的功能精度高,模型的结构变得更大,这是由许多因素如有限计算资源或梯度消失的问题
12 - - - - - -
14 ]。因此,应该有另一种提高深度学习的性能模型在真实的应用程序中。
不同深度学习模型,不仅人类分类对象基于功能还有其他因素。图
1 说明了这种例子。人与动物间可能的概率高这两个样本,这很容易导致错误的分类结果。在图
1(一) ,如果我们知道这个地区没有大型动物,对象更有可能是一个人。在图
1 (b) 如果我们知道在这个领域没有人类活动,对象更可能是一种动物。我们称之为局部概率,给出了概率的对象在一个环境。我们认为,这就是为什么人类可以清楚地分类对象,尽管他们没有见过。
图1
两个例子。(a)如果没有大的动物在这个领域,这个对象更有可能是一个人。(b)如果没有人类活动在这个领域,这个对象更可能是一种动物。
(一)
(b)
在本文中,我们建立了一个新的框架(概率L-PDL,当地深学习)提高分类的性能在样品的基础上,分析当地的概率。首先,我们的方法训练训练集上的深度学习模型。然后,我们可以在每个对象的概率样本的训练模式。其次,我们得到上对象的局部概率验证集。最后,这个概率有条件地合作对象的概率测试样品。
我们的贡献可以概括如下。(1)我们建立了一个新的框架,使用当地的概率提高分类精度。我们的框架不需要更大的模型或更多的训练样本虽然可以达到更高的精度比现有的方法。(2)我们的框架增加了深度学习模型的鲁棒性分类的任务。当地的概率可能是不同的在不同的环境中。在这种情况下,我们的框架只需要更新本地的成本低于再培训或转移概率模型。
我们执行框架和现有方法的样本CIFAR-10 [
15 - - - - - -
17 ],cifar - 100 [
18 - - - - - -
20. ],Mini-ImageNet [
21 - - - - - -
23 ]。所有这些评估证明我们的框架的有效性。我们组织摘要如下。部分
1 介绍了背景和我们的贡献。部分
2 介绍了现有的方法和他们的问题。节
3 ,我们提出我们的框架和相关的分析。实验组织部分
4 。部分
5 给出了结论和未来的工作。
图2
VGG16的结构。
2。相关工作
(我)
VoVNet-57是用于目标检测的任务,由一块卷积包括3层和4阶段的阻塞性睡眠呼吸暂停综合症模块输出步32 (
24 ]。卷积的阻塞性睡眠呼吸暂停综合症模块由5层相同的输入/输出通道减少MAC。每当阶段上升,地图的特性是downsampled×3×3马克斯池2步。VoVNet-57有阻塞性睡眠呼吸暂停综合症在第四和第五阶段,将采样模块中完成最后一个模块。
(2)
VGG16是图像识别的变体VGG模型(
25 ]。图
2 显示了该模型的结构。图像通过一堆卷积层,在过滤器是使用一个非常小的接受域:3×3。固定为1像素卷积一步。3×3的填充物是1像素卷积层。空间连接池是由五个max-pooling层,它遵循一些回旋的层。马克斯池执行在一个2×2像素的窗口,2步。三个完全连接层跟着一堆卷积层:前两个各有4096个频道,和第三执行1000 - ILSVRC方式分类,因此包含1000个频道(一个为每个类)。最后一层是soft-max层。所有的隐藏层都配备了整流(ReLU)非线性。
(3)
ResNeSt50是一种先进的深度学习图像分类框架,使用模块化的份块,使注意力集中在特征映射组(
26 ]。通过叠加这些ResNet-style份街区,它获得一个新的叫做ResNeSt ResNet变体。有四个版本的ResNeSt。ResNeSt50 ResNeSt269,变得更大更复杂的结构,可以得到更高的精度有更多、更大的训练样本大小。根据测试样本的大小和计算资源,我们使用ResNeSt50。
这些模型已经被广泛使用,在许多应用程序中非常有用。增加这些模型的准确性,我们需要增加训练样本的数量,这是艰苦的工作在许多应用程序中。此外,这些模型的结构必须深入和训练过程需要一些特殊的技巧。实际上,有很多东西可以用来改善精度在实际的应用程序。当地的概率是一个这样的事情,这将在下一节中介绍。
一些运营商提出了融合提高分类的性能通过使用多个模型(
27 ]。在这篇论文中,作者解决了移动应用程序流量通过提议multiclassification方法,从先进的分类器的智能结合输出提出了移动和加密流量的分类。在这篇文章中,我们也尝试我们的框架在一个融合运营商申请更高的精度。
3所示。我们的框架
给我们的框架的细节之前,我们给出下面的定义。这些定义来解释的实现方法。
3.1。预赛
我们设置
年代
n
作为一个样本
l
k
标签的一个对象。我们设置
G
n
随着地面实况
年代
n
在哪里
G
n
∈
l
k
(
28 ,
29日 ]。标签是效益计算,通常一个数字(
30. ,
31日 ]。例如,当有10个对象分类,标签从0到9。
3.2。我们的框架
图
3 介绍我们的框架,它被命名为L-PDL概率(本地深度学习)。首先,我们的框架列车深在训练集学习模型。然后,我们可以得到标签的概率(每个标签提出了一种对象)在每个验证样本集的训练模式。其次,我们得到后本地对象的概率验证集。第三,我们确认的参数条件概率之间的合作和标签的概率。最后,我们使用这个条件后当地合作概率和模型对测试样本的输出概率得到最终结果。
图3
L-PDL,框架的方法。
3.3。训练的概率模型
我们定义
P
米
年代
n
=
l
k
标签的概率
l
k
对样本
年代
n
训练模型
米
。然后最可能的结果是由以下方程:
(1)
l
x
=
参数
马克斯
l
k
P
米
年代
n
=
l
k
,
使用的深度学习模型预测最终结果如图
4 说明了。
图4
预测结果的过程基于标签的概率。
然后,我们定义
(2)
l
k
∨
P
米
年代
n
=
l
k
>
ε
,
包括标签的集合
l
k
令人满意的
P
米
年代
n
=
l
k
>
ε
。这意味着我们只考虑一些
l
k
有很高的概率与当地合作的概率。
3.4。当地的概率
图
5(一个) 显示标签的概率,属于训练集的样本。图
5 (b) 显示了当地概率属于样品标签的验证和测试集。在这个图中,我们可以看到一些标签可能不如其他的样品。
图5
两组之间的差异。(一)训练集的概率。(b)的当地的概率。
(一)
(b)
我们定义
P
l
k
作为当地的概率和
P
^
l
k
后当地标签的概率
l
k
在验证集。然后,我们
P
^
l
k
协助模型概率获取正确的结果在测试设置。
3.5。有条件的合作
在本节中,我们进行了两个条件,应遵循当地的合作概率和概率模型如下:
(3)
反对
1
:
l
x
∨
P
米
年代
n
=
l
x
<
δ
,
反对
2
:
l
x
∨
P
米
年代
n
=
l
k
>
ε
。
反对
1
意味着我们只考虑结果
l
x
(最大概率之间的所有的标签
l
k
),其概率小于
δ
。然后,我们考虑标签的概率更大
ε
作为潜在的最终结果。然后,我们可以进行两种方法基于我们的框架。
3.5.1。联合合作(L-PDL-Joint)
为
参数
马克斯
l
k
P
米
年代
n
=
l
k
∈
反对
1
,
(4)
F
年代
n
,
l
k
=
P
米
年代
n
=
l
k
×
P
^
l
k
,
l
x
=
参数
马克斯
l
k
∈
反对
2
F
年代
n
,
l
k
,
从现在起,我们称之为L-PDL-joint。
3.5.2。加权合作(L-PDL-Weight)
为
参数
马克斯
l
k
P
米
年代
n
=
l
k
∈
反对
1
,
(5)
F
年代
n
,
l
k
=
P
米
年代
n
=
l
k
+
ω
×
P
^
l
k
,
l
x
=
参数
马克斯
l
k
∈
反对
2
F
年代
n
,
l
k
,
从现在起,我们称之为L-PDL-weight。
使用这些方法时,我们应该计算
P
^
l
k
,
δ
,
ε
,
ω
(只有L-PDL-weight)验证集。我们可以后当地的概率
P
^
l
k
在验证样本。
δ
的阈值是决定我们是否考虑结果。例如,如果
马克斯
P
米
年代
n
=
l
k
<
0.6
训练模型,我们认为不是高度确定结果的正确性。的参数
ε
意味着我们只有选择一些标签作为潜在的最终结果。这是避免的标签
P
米
年代
n
=
l
k
≈
0
被选择的最终结果,因为当地的概率。换句话说,当地的概率不应该选择最终结果的唯一原因。
3.6。为什么我们的方法更好?
在本节中,我们试图解释为什么我们的方法可以执行比现有的方法。
第一个原因是:在深入学习模型的情况下,捕获的特性分类中起着重要的作用。捕获特性的数量取决于结构层(
32 ,
33 ]。深度学习的训练过程是选择特性,可以提供样品。然后,使用概率分布在这些特性。因此,对象是更可能的标签
l
k
比
l
问
当有以下关系:
(6)
E
P
米
年代
n
=
l
k
>
P
米
年代
n
=
l
问
,
在这里
E
。
期望值和吗
l
k
≠
l
问
。因此,标签,高概率的选择是合理的,当重新考虑结果。
第二个原因:可能有以下关系:
(7)
P
米
年代
n
=
l
问
≠
G
n
>
P
米
年代
n
=
l
k
=
G
n
,
这意味着训练模型预测错误的结果。在这种情况下,我们相信
E
P
米
年代
n
=
l
k
=
G
n
≠
0
。特别是当
P
米
年代
n
=
l
问
<
δ
,可能会有
P
米
年代
n
=
l
k
=
G
n
≉0,这显示正确的结果可能是其他。例如,
P
米
年代
n
=
l
4
=
0.50
和
P
米
年代
n
=
l
7
=
0.48
在图
4 。在这种情况下,如果我们有当地的概率
(8)
P
^
l
7
=
0.60
≫
P
^
l
4
=
0.01
,
我们可以很容易地选择正确的结果
l
7
这是“马”图
4 。
表
1 分类综述工作和我们的框架及其主要独特的特点。ResNeSt50、VGG16 VoVNet-57深度学习模型。融合操作符(
27 ),我们的框架融合方法,基于这些深度学习模型。这些模型需要被训练在训练集上。我们的框架需要训练有素的验证集。一些融合运营商需要训练验证组,其他的不需要(
27 ]。我们的框架可以应用到一个模型或多个的。
表1
分类综述了和我们的工作及其主要独特的特点。
特征
作品
VoVNet-57 [
24 ]
VGG16 [
25 ]
ResNeSt50 [
26 ]
融合操作符(
27 ]
我们的框架
深度学习模型
是的
是的
是的
没有
没有
融合方法
没有
没有
没有
是的
是的
模型所需的数量
单
单
单
多个
单/多
培训
需要
需要
需要
不需要/需要
需要
4所示。实验
我们评估我们的方法与现有的一些真实数据集在不同局部概率情况下。当我们随机参数,评价1000倍。我们训练有素的深度学习模型在报道一些真实数据集的默认设置。我们时代的数量(
34 ,
35 ]10为所有这些模型训练集。我们不关注的设计结构或调整hyperparameters。相反,我们将集中讨论如何使用当地的概率增加的准确性。
4.1。评估在CIFAR-10
评价CIFAR-10 (
15 - - - - - -
17 10000有50000个训练样本和测试样本,属于10标签。每个样本是一个RGB图像,有三个渠道:红、绿、蓝。我们使用50000个训练样本训练模型。然后,我们还剩下10000个样本。我们分配不同的地方概率这些样本如表
2 所示。
表2
结果CIFAR-10。
方法
Zero20 (%)
Zero40 (%)
Zero80 (%)
VoVNet-57 [
24 ]
82.13
81.41
82.185
VGG16 [
25 ]
72.95
70.39
71.39
ResNeSt50 [
26 ]
69.17
69.94
68.84
L-PDL-joint(我们的)
84.69
87.24
95.24
L-PDL-weight(我们的)
84.68
87.21
95.17
我们使用三种局部概率评估方法。在这个表中,Zero20意味着20%的标签也没有样品。我们定义Zero40(40%的标签没有样品)和Zero80(80%的标签没有样品)相同的方式。标签是零样本是随机选择的。图
6 显示了这些地方概率的例子。然后,为验证和测试集样本的数量在这些地方概率情况下小于10000。例如,关于8000样品留给这些集合Zero20情况。
图6
的例子(一)Zero20 Zero40 (b)和(c) Zero80 CIFAR-10。
(一)
(b)
(c)
我们的框架VoVNet-57训练(
24 ],VGG16 [
25 ],ResNeSt50 [
26 在训练样本生成训练模型。然后,我们使用1000个样本作为验证集,剩下的作为测试集,我们可以看到在表
2 ,我们的方法可以提高精度约2.56% (Zero20情况),5.83% (Zero40情况),13.06% (Zero80情况),而现有的最好的方法。
4.2。评估cifar - 100
这个数据集就像CIFAR-10,除了它有100类包含600图片(
18 - - - - - -
20. ]。100年有500个训练图像和测试图像/标签。我们使用50000个训练样本训练模型。然后,我们还剩下10000个样本。我们分配不同的地方这些样本的概率。
我们定义Zero20、Zero40 Zero80一样的部分
4.1 介绍了。然后,我们使用1000个样本作为验证集。我们可以看到在桌子上
3 ,我们的方法可以提高精度约2.57% (Zero20情况),6.36% (Zero40情况),18.51% (Zero80情况),而现有的最好的方法。
表3
结果cifar - 100。
方法
Zero20 (%)
Zero40 (%)
Zero80 (%)
VoVNet-57 [
24 ]
64.23
63.85
63.6
VGG16 [
25 ]
46.10
45.97
44.23
ResNeSt50 [
26 ]
41.93
41.71
40.83
L-PDL-joint(我们的)
66.66
70.20
82.11
L-PDL-weight(我们的)
66.80
70.21
81.61
4.3。评估在Mini-ImageNet
Mini-ImageNet [
21 - - - - - -
23 数据集是few-shot学习评估。其复杂性高由于使用ImageNet图像,但需要更少的资源和基础设施比全ImageNet数据集上运行。总共有100个标签600个样本的84×84彩色图像/标签。我们使用48000个训练样本训练模型。然后,我们还剩下12000个样本。我们分配不同的地方这些样本的概率。
我们定义Zero20、Zero40 Zero80一样的部分
4.1 介绍了。然后,我们使用1000个样本作为验证集。我们可以看到在桌子上
4 ,我们的方法可以提高精度约2.26% (Zero20情况),4.83% (Zero40情况),13.94% (Zero80情况),而现有的最好的方法。
表4
结果Mini-ImageNet。
方法
Zero20 (%)
Zero40 (%)
Zero80 (%)
VoVNet-57 [
24 ]
72.94
72.53
71.53
VGG16 [
25 ]
44.34
44.97
44.43
ResNeSt50 [
26 ]
40.93
40.72
40.93
L-PDL-joint(我们的)
75.14
77.27
85.47
L-PDL-weight(我们的)
75.20
77.36
85.27
4.4。随机的情况下在两个数据集
在本节中,我们随机分配本地cifar - 100和Mini-ImageNet概率。在更多的细节中,我们随机选择标签和分配随机局部概率评估方法。
兰特()函数,输出概率随机值。如果随机值小于0,我们使用0而不是这个值。然后,我们可以通过这个函数生成局部概率。例如,如果对象的原始样品标签的数量是1000,兰德(0,1)= 0.9,我们已经为这个标签900个样本在当地的概率。图
7 显示了兰德的例子(0,1),兰德(−1,1),和兰德(−2,1)。
图7
的例子。兰德(0,1)。(a) (b)兰德(−1)。(c)兰德(−2,1)。
(一)
(b)
(c)
我们可以看到在桌子上
5 ,我们的方法可以提高平均精度约1.13%(在兰德(0,1)的情况下),8.76%(在兰特(−1,1)),和12.20%(兰德(−2,1))相比,现有的最佳方法。
表5
随机概率的结果cifar - 100和Mini-ImageNet。
概率方法在本地
VoVNet-57 [
24 ]
我们:L-PDL-joint / L-PDL-weight (%)
cifar - 100兰特(0,1)
63.98
65.37
cifar - 100兰特(−1,1)
63.78
73.73
cifar - 100兰特(−2,1)
63.42
76.01
Mini-ImageNet,兰德(0,1)
72.65
73.52
Mini-ImageNet,兰德(−1,1)
72.58
80.15
Mini-ImageNet,兰德(−2,1)
72.47
84.28
4.5。多个模型在两个数据集
在本节中,我们运用我们的框架来融合算子,它使用多个模型的概率
27 ]。我们选择软组合器,它需要一些参数估计,通常通过一个验证集。我们选择了阶级意识的训练方法combiner-based KL权重(命名
CC-KL可训练的 在表
6 )作为代表,取得了比其他方法更好的性能在纸上。然后,我们应用框架,此方法的结果,这是命名
CC-KL可教育的框架 在表
6 。
表6
随机概率的结果与融合运营商cifar - 100和Mini-ImageNet。
当地的概率
方法
ResNeSt50 [
26 ]
VGG16 (%) (
25 ]
VoVNet-57 (%) (
24 ]
CC-KL可训练的(%)(
27 ]
CC-KL可训练的与我们的框架(%)
cifar - 100兰特(0,1)
41.93
46.19
63.98
65.52
66.27
cifar - 100兰特(−1,1)
41.83
46.21
63.78
65.57
74.93
cifar - 100兰特(−2,1)
42.03
46.35
63.42
66.16
77.02
Mini-ImageNet,兰德(0,1)
40.34
44.54
72.65
73.39
74.55
Mini-ImageNet,兰德(−1,1)
40.64
44.84
72.58
73.47
81.23
Mini-ImageNet,兰德(−2,1)
41.04
45.01
72.47
74.45
85.48
我们可以看到在桌子上
6 ,CC-KL训练可以增加使用的概率模型的准确性。另一方面,性能受限于这些模型的准确性。这个表显示,我们的框架可以进一步提高精度的合作CC-KL可训练的(介绍
27 ]),约0.96%(在兰德(0,1)的情况下),8.56%(在兰特(−1,1)),和10.95%(兰德(−2,1))平均高于现有的方法。
5。分析
我们评估方法与现有的真实数据集与当地不同的概率。结果显示我们的框架在这些情况下的有效性。当使用深度学习模型在真实的应用程序中,可以提高精度通过分析当地的概率。当地的概率可以通过计算验证集。在某些情况下,当地的概率可以通过其他的方式,例如,其他用户的经验概率的对象在一个环境。基于这种信息,我们可以得出一个结论,对象图
4 可能不是一个“鹿”,但“马”如图
8 所示。
图8
模型的结果是4(鹿,错了),但我们的框架可以得到一个7(马,正确的)。
使用L-PDL的另一个优点是,我们不需要再培训或转让的模型每个局部环境的鲁棒性。这就像一个人,”当你在罗马时,入乡随俗。“这种能力可以让人尽快生活在任何地方,可以称为鲁棒性。在本文中,我们还通过使用我们的框架实现这种鲁棒性。
作为我们的框架是基于现有的深度学习模型,计算复杂度增加,而这些模型。模型应该输出的概率,应该有一个验证为调优参数设置与地面真理,这就增加了管理的复杂性。此外,我们的框架会导致额外成本,是由当地的合作概率的计算和模型的输出。
5.1。使用首字母缩略词的引入
我们用表
7 给使用首字母缩略词的引入本文的读者的方便。
表7
使用首字母缩略词的引入。
全国矿工工会
首字母缩略词
介绍
1
L-PDL
我们的框架,局部概率深学习
2
CIFAR-10
介绍了数据集,(
15 - - - - - -
17 ]
3
Mini-ImageNet
介绍了数据集,(
21 - - - - - -
23 ]
4
VoVNet-57
深入学习模型,介绍了(
24 ]
5
VGG16
深入学习模型,介绍了(
25 ]
6
ResNeSt50
深入学习模型,介绍了(
26 ]
7
年代
n
提供了一个样本
8
l
k
提出了一个标签
9
G
n
介绍了地面实况
年代
n
10
Zero20
意味着20%的标签没有样品
11
Zero40
意味着40%的标签没有样品
12
Zero80
意味着80%的标签没有样品
13
L-PDL-joint
基于我们共同合作框架,介绍了方程(
4 )
14
L-PDL-weight
基于加权合作框架,介绍了方程(
5 )
15
兰特(。)
概率的随机函数,输出值吗
16
CC-KL可训练的
现存的阶级意识的可训练的combiner-based KL权重方法,介绍了工作(
27 ]
17
CC-KL可教育的框架
我们的框架在阶级意识的可训练的combiner-based KL权重的方法,介绍了工作(
27 ]
6。结论
在本文中,我们引入了一个小说的框架,结合了当地的概率和对象的概率。我们的框架使用的输出模型展示对象的概率。然后,这个概率有条件地与当地的合作概率达到更高的精度。我们的框架可以提高深度学习分类模型的鲁棒性的环境中。此外,我们还应用框架,现有的融合算子,从而进一步提高精度。评价结果证明我们的框架的有效性深度学习模型和融合运营商在这些模型。因此,我们的框架可以选择增加精度在实际的应用程序。
在未来的工作中,我们将研究深度合作的概率和当地的概率模型,例如,如何使用的概率输出之前标签。这可能包括更多信息对象的特点,可以正确地呈现“模型的样本。“此外,深度合作框架和融合运营商可能会进一步提高精度,这是我们未来工作的另一个方向。
数据可用性
CIFAR-10和cifar - 100是可用的
http://www.cs.toronto.edu/∼kriz / cifar.html 。Mini-ImageNet可在
https://www.kaggle.com/whitemoon/miniimagenet 。
的利益冲突
作者宣称没有利益冲突。
确认
这项工作得到了国家自然科学基金(批准号。61802279,6180021345,6180021345,61702366),天津市自然科学基金(批准号。18 jcqnjc70300 19 jctpjc49200 ptzwhz00020 19日和19 jcybjc15800),天津大学基础研究基金(批准号2019 kj019),天津科技项目(批准号19 ptzwhz00020)和部分ASIC和系统的国家重点实验室(批准号2021 kf014)和天津市教育委员会科学研究计划项目(批准号2020 kj112和2018 kj215)。
[
]1
吴
J·J。
余
y . N。
黄
C。
余
K。
多实例学习的图像分类和auto-annotation深处
学报2015年IEEE计算机视觉与模式识别会议(CVPR)
2015年6月
波士顿,美国
3460年
3469年
10.1109 / cvpr.2015.7298968
2 - s2.0 - 84955184649
[
]2
高
Z。
汉
T . T。
朱
l
张
H。
王
Y。
探索跨域操作识别问题,深特征学习和跨领域的学习
IEEE访问
2018年
6
68989年
69008年
10.1109 / access.2018.2878313
2 - s2.0 - 85055889595
[
]3
他
K。
张
X。
任
年代。
太阳
J。
深入深入整流器:超越人类表现ImageNet分类
学报2015年IEEE计算机视觉国际会议
2015年12月
圣地亚哥,智利
1026年
1034年
10.1109 / iccv.2015.123
2 - s2.0 - 84973911419
[
]4
李
X。
郭
Y。
舒尔曼
D。
学习Semi-supervised zero-shot分类与标签表示
学报2016年IEEE计算机视觉国际会议
2016年6月
美国内华达州拉斯维加斯
4211年
4219年
[
]5
杨
小时。
张
X.-Y。
阴
F。
刘
c . L。
健壮的分类与卷积原型学习
《IEEE计算机视觉与模式识别会议
2018年6月
美国犹他盐湖城
8769年
8778年
[
]6
奥谢
T。
Hoydis
J。
介绍物理层的深度学习
IEEE认知通信和网络
2017年
4
3
563年
575年
[
]7
的香
G。
Ciuonzo
D。
Montieri
一个。
Pescape。
一个。
对有效移动加密流量分类通过深入学习
Neurocomputing
2020年
409年
306年
315年
10.1016 / j.neucom.2020.05.036
[
]8
的香
G。
Ciuonzo
D。
Montieri
一个。
Pescape
一个。
使用深度学习移动加密流量分类:实验评价、经验教训,和挑战
IEEE网络和服务管理
2019年
16
2
445年
458年
10.1109 / tnsm.2019.2899085
2 - s2.0 - 85061524225
[
]9
舒曼
一个。
龚
年代。
Schuchert
T。
深度学习原型域人再次鉴定
学报2017年IEEE国际会议上图像处理
2017年9月
中国,北京
1767年
1771年
[
]10
公园
s W。
公园
J。
锣
K。
胫骨
D。
李
J。
崔
年代。
柳
h·J。
一个节能和可伸缩的深度学习/推理处理器tetra-parallel多指令多数据架构大数据的应用程序
IEEE生物医学电路与系统
2016年
14
838年
848年
10.1109 / tbcas.2015.2504563
2 - s2.0 - 84954556686
[
]11
黄
年代。
王
J。
王
D。
张
d . M。
你
H。
thread-saving时间表与图表分析并行深度学习嵌入式系统上的应用程序
IEEE国际会议在智能云
2018年
93年
111年
115年
10.1109 / smartcloud.2018.00026
2 - s2.0 - 85057337528
[
]12
程ydF4y2Ba
C。
张
P。
张
H。
戴
J。
易
Y。
张
H。
张
Y。
深度学习在computational-resource-limited平台:一项调查
移动信息系统
2020年
2020年
4
1
19
10.1155 / 2020/8454327
[
]13
Karabayir
我。
Akbilgic
O。
助教
N。
一种新的学习算法来优化深层神经网络:进化梯度方向优化器(EVGO)
IEEE神经网络和学习系统
2020年
99年
1
10
[
]14
Agrawal
r·K。
Juneja
一个。
深度学习模型的医学图像分析:挑战和未来的发展方向
大数据分析,第七届国际会议
2019年12月
艾哈迈达巴德,印度
[
]15
森林
W。
Teuscher
C。
快速和准确的稀疏编码与一个简单的视觉刺激,ultra-low-energy飙升的架构
IEEE神经网络和学习系统
2017年
30.
7
2173年
2187年
[
]16
苏
J。
巴尔加斯
d . V。
樱井
K。
一个像素为欺骗深层神经网络攻击
IEEE进化计算
2019年
23
5
828年
841年
10.1109 / tevc.2019.2890858
2 - s2.0 - 85073072064
[
]17
林
p C。
太阳
m·K。
龚
c K。
Chiueh
t D。
Floatsd:一个新的体重代表和相关的更新效率卷积神经网络训练方法
IEEE杂志在新兴和选定的主题在电路和系统
2019年
99年
267年
279年
10.1109 / jetcas.2019.2911999
2 - s2.0 - 85067355330
[
]18
程ydF4y2Ba
J。
刘
Z。
面具动态路由深度胶囊网络和U-net组合模型
IEEE神经网络和学习系统
2020年
99年
1
12
10.1109 / tnnls.2020.2984686
[
]19
张
H。
徐
M。
改善深层网络的泛化性能与敌对的双重模式学习适应
以知识为基础的系统
2020年
200年
106016年
10.1016 / j.knosys.2020.106016
[
]20.
Albelwi
年代。
马哈茂德
一个。
框架设计深度卷积神经网络的体系结构
熵
2017年
19
6
242年
10.3390 / e19060242
2 - s2.0 - 85020508289
[
]21
张
Y。
方
M。
王
N。
Channel-spatial关注网络fewshot分类
《公共科学图书馆•综合》
2019年
14
12
e0225426
10.1371 / journal.pone.0225426
[
]22
谢
Y。
王
H。
余
B。
张
C。
安全协作few-shot学习
以知识为基础的系统
2020年
203年
106157年
10.1016 / j.knosys.2020.106157
[
]23
王
P。
程
J。
郝
F。
王
l
冯
W。
嵌入式自适应交叉调制few-shot学习的神经网络
神经计算与应用
2020年
32
2
10.1007 / s00521 - 019 - 04605 - y
[
]24
Youngwan
l
Joong-won
H。
Sangrok
l
Yuseok
B。
Jongyoul
P。
能源和GPU计算高效的骨干网络实时检测
学报2019年IEEE CVF计算机视觉与模式识别会议/研讨会
2019年6月
美国加利福尼亚州长滩
[
]25
刘
Z。
吴
J。
傅
l
马吉德
Y。
冯
Y。
李
R。
崔
Y。
提高猕猴桃检测使用pre-trained VGG16 RGB和近红外光谱信息融合
IEEE访问
2020年
8
1
2327年
2336年
10.1109 / access.2019.2962513
[
]26
张
H。
吴
C。
张
Z。
朱
Y。
张
Z。
林
H。
太阳
Y。
他
T。
穆勒
J。
Manmatha
R。
李
M。
Smola
一个。
份ResNeSt:网络
程序的计算机视觉和模式识别
2020年6月
美国西雅图,华盛顿州
[
]27
的香
G。
Ciuonzo
D。
Montieri
一个。
Pescape
一个。
Montieri
一个。
安东尼奥
一个。
交通智能化方法分类移动应用
网络和计算机应用》杂志上
2018年
103年
131年
145年
10.1016 / j.jnca.2017.11.007
2 - s2.0 - 85038807495
[
]28
Gsaxner
C。
Pfarrkirchner
B。
林德纳
l
Jakse
N。
症
J。
利用18 f-fdg增强膀胱在pet数据深度学习地面实况代CT扫描
有医学成像
2018年
37
[
]29日
刘
Q。
王
z Y。
自动“地面实况”注释和工业工件深度学习的数据集生成
国际期刊的自动化和计算
2020年
3
1
12
[
]30.
张
年代。
关
C。
情感识别标签与精制深度学习
第43届年会论文集《加拿大医学和生物工程
2020年7月
加拿大蒙特利尔
IEEE
[
]31日
聚氨酯
Y。
哲
G。
Henao
R。
鑫
Y。
Carin
l
变分autoencoder深度学习的图片,标签和标题
先进的神经信息处理系统
2016年12月
西班牙巴塞罗那
[
]32
林
y Z。
聂
z H。
马
h·W。
结构损伤检测与自动特征提取通过深入学习
计算机辅助土木与基础设施工程
2017年
232年
[
]33
刘
J。
方
C。
吴
C。
融合基于七层深度学习神经网络的人脸识别方法
电气和计算机工程杂志》上
2016年
2016年
1
7
10.1155 / 2016/8637260
2 - s2.0 - 84971413298
[
]34
Hastomo
W。
Karno
一个。
Kalbuana
N。
Meiriki
一个。
Sutarno
一个。
时代深度学习的特征参数来预测Covid-19数据在印尼
物理学杂志》:会议系列
1933年
1
2021年
12050年
[
]35
Lim
G。
程
Y。
许
W。
李
m . L。
集成的视神经盘和杯子分割与深度学习
《IEEE国际会议上与人工智能工具
2016年11月
美国加利福尼亚州圣何塞
IEEE