复杂性

PDF
复杂性/2020年/文章

研究文章|开放获取

体积 2020年 |文章的ID 9860562 | https://doi.org/10.1155/2020/9860562

赵杨公司刘,刘领带,李,赵赛, 为圆形Reidentification比损失的人”,复杂性, 卷。2020年, 文章的ID9860562, 11 页面, 2020年 https://doi.org/10.1155/2020/9860562

为圆形Reidentification比损失的人

学术编辑器:爱迪汗
收到了 2020年7月27日
修改后的 2020年12月03
接受 2020年12月07
发表 2020年12月29日

文摘

人reidentification (re-id)的目的是识别一个特定的行人从交叉监控摄像头的观点。大多数re-id方法执行检索任务通过比较相似的行人特征提取深度学习模型。因此,学习一种区别的特性对人reidentification至关重要。许多工作监督学习模型与一个或多个损失函数来获得特性的辨别力。Softmax损失是一种广泛应用在re-id丧失功能。然而,传统softmax损失本身侧重于特征可分性和不考虑在类特性的密实度。进一步提高re-id的准确性,许多努力进行收缩在课堂差异以及类间相似性。在本文中,我们提出一个鉴定为圆形比损失的人。具体地说,我们正常学习特性和分类权重向量映射的超球面。然后我们把最大组内距离的比值和阶级之间的最小距离客观损失,因此类间可分性和在类密实度可以优化同时在训练阶段。 Finally, with the joint training of an improved softmax loss and the ratio loss, the deep model could mine discriminative pedestrian information and learn robust features for the re-id task. Comprehensive experiments on three re-id benchmark datasets are carried out to illustrate the effectiveness of the proposed method. Specially, 83.12% mAP on Market-1501, 71.66% mAP on DukeMTMC-reID, and 66.26%/63.24% mAP on CUHK03 labeled/detected are achieved, respectively.

1。介绍

人reidentification旨在获取关注的人不重叠的相机视图中根据给定的人的形象。Re-id是一个重要的终端应用技术在现代智能监控系统,和它变得逐渐重要领域的公共安全。然而,由于工作环境的限制和摄像头设备,在灯饰捕获的图像通常有巨大差异,遮挡,人的姿势,相机视图,等等。这些差异会带来巨大的差异不同的图像的行人re-id整体性能和降解。

传统re-id方法解决上述问题主要有手动功能表示(1,2)和度量学习(3,4)方法。神经网络的快速发展和大规模的普及re-id数据集近年来,基于深度学习的方法已被广泛应用于人reidentification并获得显著的性能。此外,基于深度学习的方法可以学习和集成特性度量学习在一个端到端的框架。由于各种优势,深度学习方法reidentification主导的研究趋势的人。

基于深度学习的人reidentification方法通常包含两个基本部分:网络架构和损失函数。网络体系结构通常是由卷积神经网络(cnn)由各种网络连接有机层,例如,卷积层、汇聚层,和完全连接层。设计网络架构可以自动从输入图像中提取行人特性。损失函数是用来监督模型训练与一个预定义的约束目标。根据不同的约束目标,损失函数通常可以分为两类:分类损失(5- - - - - -7)和度量损失(8- - - - - -10]。在训练阶段,分类损失鼓励学习的模型特征标签信息获得的特性有特色的类间可分性。而不是只关注标签信息,指标损失以不同行人图像的特征相似度为约束目标指导模型的训练。通过这种方式,学会了在特征空间的分布特性。

诚然,深模型基于卷积神经网络(cnn)是能够提取高度抽象的行人特性,以及大规模re-id数据集可以解决re-id任务与深度学习的方法。然而,重大变化的大规模数据集灯饰,决议,背景遮挡,和相机视图将一些伟大的困难在模型训练,例如,组内差距很大。此外,深模型指导下softmax等传统分类损失损失是我很难完全区别的行人信息。它将使模型变得容易受到这些不良变化,导致缺乏泛化能力。

因此,它成为re-id任务学习的关键区别的特性是健壮的不良变化。为此,在类相似度和类间差异的学习特性应该尽可能大。一个可行的解决方案是改善或设计损失函数,可以有效地鼓励组内密实度和组内的可分性。

在本文中,我们提出一种新的损失函数命名为圆形比损失提高学特性的区别的能力。出于线性判别分析(LDA),寻找一个新的子空间,有最大的年级之间的距离和最小的样本组内距离通过优化这两个距离的比例,我们采取的比值最大组内距离和最小re-id阶级之间的距离为一个约束目标的任务。在特定的,我们首先规范化学习特性和分类这些向量权重项目超球面。之后,我们之间的距离特性及其相应的分类组内距离和重量之间的距离不同分类权重随着年级之间的距离。最后,最大的同类距离和最小的组内的距离选择制定损失比例为圆形。通过最小化损失比例,类间相似性和在课堂差异可以同时缩小,最后学特性的辨别力会改善。图解的解释建议的比例如图1。我们使用点和实线用不同的颜色来表示不同类别的特征及其分类权重,分别。该比率的监督下损失,类内方差将减少类之间的差异将扩大;因此,将歧视学习特性。

本文的其余部分组织如下:部分2介绍了有关我们的方法工作。部分3详细描述了我们建议的比率的损失。部分4提供全面re-id实验证明我们的方法的有效性。部分5进一步讨论了参数的影响比损失和我们的方法和一些类似的作品之间的关系。结论是在一节6

解决人reidentification问题的方法已经被广泛的研究,传统的机器学习方法(1- - - - - -4,11),和大量的深度学习框架(6- - - - - -8,12- - - - - -15近年来已得到越来越多的研究。传统的机器学习方法解决re-id问题主要来自两个方面:手动功能表示和度量学习。手动功能表示方法描述个人形象与特征向量回来详尽的描述符。描述符将生成特定的人通过考虑不同的内在特征信息,如颜色分布(1)和纹理描述(11),和一些作品将结合多个特性,如枸杞多糖和猪2]和HSV SILTP [4]。度量学习方法寻求分离行人特性的度量空间。使用最广泛的度量学习方法人reidentification包含KISSME [3],XQDA [4),等等。

受益于神经网络的发展,基于深度学习的re-id方法近年来被广泛研究。他们可以学习和集成特性度量学习在一个端到端的框架,实现卓越re-id性能。这些深方法通常包含两个基本要素:网络架构和损失函数。re-id的网络体系结构通常包括CNN骨干网如ResNet [16]或GoogleNet [17)和一些定制的网络层像池层,批量标准化层,和L2归一化层。主干高度抽象特征的提取通常是削减和一些定制的网络层被添加到满足re-id任务的要求。除此之外,各种损失函数是用来监督模型在培训过程中学习。在某些情况下,损失函数对re-id性能有至关重要的影响。在大多数现有的re-id作品,它可分为度量损失(8- - - - - -10,13,15,18)和分类损失(5- - - - - -7,12,14,19- - - - - -21]。

度规损失优化模型,考虑不同特征的相似性。帮助学习一个区别的特性的模型,度量损失扩大类间特征的可分性,促进在类特性的密实度。一个直观的指标对比损失(损失9]。给定一副图像,对比优化模型通过减少同类距离和损失扩大的阶级之间的距离大于一个预定义的保证金。例如,Varior et al。10]re-id任务执行中使用对比损失的暹罗CNN。而不是直接介绍两两之间的距离约束图像,三联体损失(15)约束相对一双消极的和积极的关系。在每个迭代中,三合损失使距离差别消极和积极的对超过一个。实验证明,三联体re-id任务损失是可行的和有效的。例如,程et al。18训练一个多通道器件CNN模型结合三联体re-id损失。何曼思et al。13)提出了一种改进的三联体损失通过引入样本矿业,因为他们发现,那些硬三胞胎贡献更有识别力的信息模型中优化。此外,Chen等人。8)提出了成套的损失来提高模型的泛化能力。诚然,re-id度量方法获得杰出的性能损失。然而,过多关注的距离信息;因此,固有标签信息是不可避免的没那么担心了。

考虑到不同的图像的特征相似,分类损失损失(ID)指导模型根据标签来区分不同的个人信息。典型的ID损失人reidentification softmax损失包括softmax激活和熵的损失函数。将softmax激活一个提取特征转换成向量的元素可能表明当前样本属于某个类。学习正确的分类,叉是用来测量损失估计概率之间的差异和真相的标签信息。所以通过最小化softmax损失,该模型可以逐步学习正确的分类。郑et al。7]应用分类损失训练一个网络基于ResNet-50 re-id。此外,充分利用标签信息,太阳et al。6和王et al。20.分别]提出了PCB和内侧膝状核,我的部分信息的行人使用分类损失。为了更好的分类效果,许多改进版本的softmax损失(5,14,19,21提出了]。风扇等。12)使用一种修改softmax函数,提出了人reidentification SphereReID模型。见证了优秀的性能度量和分类损失损失得到re-id任务,一些文学作品22- - - - - -25]提出训练模型结合度量和分类损失和损失也在人reidentification任务达到更好的性能。

本文通过考虑,我们建议的方法是密切相关的损失函数,我们只给一个粗略的介绍的人reidentification方法基于损失函数。值得注意的是,许多其他激励方法提出了解决人reidentification任务,例如,pose-guided方法(26[],基于交叉模式方法27],[基于无监督学习的方法28]。我们可以了解更详细的信息(29日]。

3所示。方法

在本节中,我们首先回顾softmax损失是广泛用于re-id深度学习框架,然后介绍其改进我们的方法所使用的版本。之后,我们详细提出损失比例为圆形。最后,我们证明了我们的方法的有效性通过基于MNIST玩具实验数据集。

3.1。规范化Softmax损失

Softmax损失由Softmax激活函数和一个叉损失函数。将softmax激活函数解释分类输出线性层相关类的概率,而熵损失函数量化计算分类概率和地面之间的距离真理标签。的典型配方将softmax损失函数可以表示为 在哪里 特征提取吗th选择在训练集的minibatch人形象。 jth列最终线性层的权向量,也称为分类重量。 是一种偏见。 是地面真理的标签th选择人的形象。Cn代表训练集的类数和样本数量在每个迭代中,分别。softmax损失下的优化,学习特点是配备可分离的特点。然而,原始的softmax损失主要集中在类间的比较;因此,在课堂学习功能不太注意到的紧密性。

解决缺陷所提到的,各样的改进(5,14,19,21)进行softmax损失。一个简单但有效的改进是规范分类权重和特征向量映射到超球面。这样,学特征在特征空间更有角度地分离。Softmax损失与规范化是学习好处特性(21),它可以表示如下: 在哪里年代代表一个比例因子。值得注意的是一个利润率术语经常被添加到获得一个更强大的约束组间和组内距离的许多研究工作。在本文中,我们使用改进的softmax损失表达(2)分类损失和名称规范化softmax损失(21,30.从原始softmax损失函数来区分。

3.2。为圆形比损失

分类权重和特征都是标准化的,大小差异消除,学会了在超球面尖瘦地依赖特性。因此,与他们的余弦相似性特征可以直接测量距离。在任务人reidentification,提取的特征应该有足够的歧视。这意味着类间差异应尽可能大,而在课堂密实度应尽可能的紧。受LDA的启发,我们制定我们的损失函数的比率最大的同类距离和阶级之间的最小距离。特征和分类权重归一化以来,学习特性和分类权重分散在一个圆。因此,我们的名字该损失为圆形比损失,及其数学表达式 在哪里 是一个缓和的因素。考虑到大多数分类权重不能获得满意的分布在最初的训练阶段,这可能会导致损失比例的干扰,我们介绍 因素帮助模型学习顺利。

我们设计比损失两个主要原因。一是特征向量和分类权重向量之间的距离可以有效地测量超球面。另一个是最大的同类距离会逐渐减少,阶级之间的最小距离将逐步扩大通过最小化损失比例。的监督下损失,比学特性有一个分布在嵌入空间中,这有助于提高re-id精度。

3.3。联合训练

规范化softmax可以学习尖瘦地超球面的分离特性。然而,在类约束将逐渐变得松弛和阶级之间的距离的增加。因此,学习不够有识别力的特性。因此我们提出的联合训练规范化softmax损失和损失比re-id任务保持持续约束力的类间差异,在类紧凑性。因此,最终的损失函数是制定如下: 在哪里 是一个平衡参数调整比率的重量损失。作为标准化softmax损失限制超球面的特性和分类权重,损失比例可以有效地优化类间和在类特征的功能。最终的损失可以很容易地优化SGD或亚当Pytorch框架(31日]。

3.4。一个基于MNIST玩具例子

验证该方法的可行性和有效性,我们做一个玩具实验基于MNIST数据集32)设计了8层CNN网络采用相同的实验设置(30.]。我们设置功能维度2学特性可以在二维平面上,可视化和2000个训练样本的每个类是用来训练模型。原文的可视化softmax,规范化softmax [30.)是用来比较的影响我们的方法(规范化softmax比损失)在图2

从实验结果,我们可以大致的结论如下。(1)原始softmax关注分离的样品不同的类,而不是直接学习区别的特征。所以学习功能能够达到更好的可分性的特征空间但引起大在课堂稀疏。(2)规范化softmax消除径向方向的变化优化模型,同时规范分类权重和特征。尖瘦地分离结果,学特性在一个球体和展览收紧在课堂密实度。(3)规范化softmax的基础上,提出比损失可能会进一步提高辨别力的特性通过约束组内和组内的距离的关系。它可以实现一个更严格的在课堂密实度以及比其他两个更明显的可分性损失函数。这些观测结果验证了我们的方法的有效性,为其应用提供实验支持reidentification任务的人。

4所示。实验

在本节中,我们给出了实验的细节,该比率损失人reidentification re-id实验结果进行了比较,数据集,例如,市场- 150133],DukeMTMC-reID [34],CUHK03 [35与一些先进的作品)。所有涉及到的实验Pytorch框架中进行。

4.1。数据集描述

市场- 1501是一个大型的人reidentification数据集收集到清华大学。1501年市场- 1501数据集,行人被六个摄像头(5 1280×1080 HD,一个720×576 SD), 1501年和32668年边界盒这些行人检测到可变形模型(DPM)的一部分。市场- 1501是由一个训练集和测试集。训练集包含751身份与12936年培训行人图像。测试组包括750与19732画廊行人图像和3368查询身份行人图像。

DukeMTMC-reID是多目标跟踪摄像机实现数据集的一个子集36]在杜克大学校园户外收集使用8相机同步。通过选择和裁剪人行区域的视频跟踪数据集,DukeMTMC-reID 1404年有36411个行人图像身份。的组织格式DukeMTMC-reID市场- 1501是一样的。具体地说,702年与16522年行人构成训练集训练图像,和其余702行人构成了测试集2228查询图像和17661画廊图片。

CUHK03re-id数据集收集5双摄像头1467年中大校园,包含14096个行人图像身份。数据集提供了一个版本的行人检测算法检测和行人的手动贴上标签版本。值得注意的是,原始的数据集是为单发的情况而设计的。因此,钟等。37)重组CUHK03数据集根据市场- 1501的格式。767年新的培训/测试协议,行人用于培训和其余700行人构成测试集。在我们的实验中,我们使用新的培训/测试协议CUHK03全面评估我们的方法。

4.2。实现细节
4.2.1。准备预处理

首先,所有输入训练图像大小为288×144之前随机裁剪256×128。然后,每个输入图像水平翻转概率为0.5。这个操作有利于模型的泛化能力。此外,我们使用随机清除技巧(38)每个输入图像的概率为0.5。这意味着一个小随机矩形区域的行人图像可能会抹去零值的训练过程。这个操作可以提高模型的鲁棒性,使一个小区域的输入图像无形的网络。

4.2.2。网络体系结构

我们构建的网络体系结构基于ResNet-50参数已经pretrained ImageNet数据集(30.]。我们移除最后一个完全连接层原始ResNet-50,和其余是骨干,可以自动从输入图像中提取行人特性。此外,我们改变的最后一步ResNet-50从2比1保留更细粒度的行人信息与小额外的计算成本。

使模型更适合re-id任务和促进我们的优化提出损失,我们添加几个骨干网络层。具体地说,我们使用一个全球平均池(GAP)层通过平均总卷积地图操作。然后一批标准化(BN)层是附加到差距缩小内部协变量的转变。随后,一个完全连接(FC)层之后,另一个BN层是用于压缩特征维数到1024年。之后,学习特性和分类权重都是规范化的L2归一化层。最后,另一个完全连接一层一层用作分类的规范化softmax损失和提出比率可以计算损失。训练阶段后,这个俱乐部层将被删除和其余的网络成为评估阶段中使用的特征提取器。整个网络体系结构用于我们re-id实验如图3。我们命名规范化softmax损失作为为了简洁起见ID的损失。

4.2.3。实验设置

所有实验实现NVIDIA GTX 1080 Ti GPU Pytorch框架。我们使用一个平衡抽样策略12在培训过程中。这种策略修正的行人数量P和图像数量K在每个取样的每个行人。通过比较随机抽样策略,平衡抽样策略可以提高re-id性能以及加快培训过程。在我们的实验中,我们设置PK16和4分别,所以minibatch在每个迭代的大小是64。

我们选择亚当优化升级网络的参数。此外,热身的策略是采用初始化学习速度训练的开始。在具体的学习速率的值将从10线性增加−5到10−3在第一次20时代。在热身阶段后,学习速率保持不变,直到90年th时代。然后我们衰变的学习速率0.1 90th和130年th分别来调整参数。实验结果证明了热身的策略可以帮助网络实现更好的初始状态re-id问题[12]。培训时期的总数是150,学习速率曲线绘制在图4。此外,我们也使用一个在线硬例子矿业(OHEM)计划在计划的方法。在特定的,我们对训练样本在降序排序的值归一化softmax损失在每一次迭代,最后20%的样本将被丢弃。OHEM方案可以有效地缓解压倒性容易造成的模型过度拟合样本。因此,健壮和可以增强学习模型的泛化能力。我们设置了参数 率损失1和0.5,分别在我们的实验。比例系数年代在规范化softmax设置为14。

4.2.4。评价指标

在评估阶段,我们删除最后FC层从培训网络获得的特征提取器人reidentification任务。测试图像的大小为288×144之前美联储特征提取器。在特定的,我们提取原始输入图像的特征及其水平翻转版本,分别。最后嵌入平均获得的这两个特性。行人图像之间的相似性可以很容易地通过余弦距离测量功能的超球面。

我们使用两个评价指标包括累积特征匹配(CMC)和平均平均精度(mAP)来评估我们的方法的性能。re-id任务CMC作为排名问题评价指标和地图检索问题评价指标。我们报告的累积特征匹配在我们的结果1级。单查询/多孔模式是用于所有实验。

4.3。实验结果

实验结果给出了下面的表。公平地说,我们只做个比较和基于深度学习一些先进的方法,例如,Deep-Person [39]和PCB [6]。此外,模型训练的规范化softmax损失没有OHEM被视为基准的方法。

实验结果对市场- 1501和DukeMTMC-reID列出,分别在表1。我们可以发现地图上增加市场——分别为1501人和DukeMTMC-reID时比损失或OHEM方案应用于基准模型。基础上,我们提出的方法最终带来+ 1.47%和+ 0.56%增量比基线的方法分别在两个数据集的映射。除此之外,我们的方法优于地图和1级最先进的方法相比,比如GSRW和PCB。


方法 市场- 1501 DukeMTMC-reID
地图 1级 地图 1级

IDE (7] 46.00 72.54 - - - - - - - - - - - -
SVDNet [40] 62.1 82.3 56.8 76.7
AACN [41] 66.87 85.90 59.25 76.84
TriNet [13] 69.14 84.92 - - - - - - - - - - - -
DPFL [42] 72.6 88.6 60.6 79.2
高兴(43] 73.9 89.9 - - - - - - - - - - - -
HA-CNN [44] 75.7 91.2 63.8 80.5
DuATM [45] 76.62 91.42 64.58 81.82
Deep-person [39] 79.58 92.31 64.80 80.90
PCB (6] 77.4 92.3 66.1 81.8
PCB +齿槽(6] 81.6 93.8 69.2 83.3 -
GSRW [46] 82.5 92.7 66.4 80.7

基线 81.65 92.31 71.10 83.44
基线+比损失 82.14 92.43 71.25 84.16
基线+ OHEM 82.44 92.73 71.61 84.16
基线+比损失+ OHEM(我们的) 83.12 92.64 71.66 84.34

大胆的值显示在每个度量所有方法的效果最好。他们有益于我们提出的方法和其他方法之间的比较。

CUHK03数据集上实验结果根据新的培训/测试协议表中列出2。我们观察到该比率损失和OHEM方案可以大大提高模型的性能。最后,与基线的方法相比,我们的方法将+ 6.38%改进地图在地图上标记版本和+ 4.22%检测到版本。此外,我们发现我们的方法的性能超过上市最先进的作品。


方法 标签 检测到
地图 1级 地图 1级

IDE (7] 21.0 22.2 19.7 21.3
SVDNet [40] 37.83 40.93 37.3 41.5
DPFL [42] 40.5 43.0 37.0 40.7
HA-CNN [44] 41.0 44.4 38.6 41.7
锅(47] 35.0 36.9 34.0 36.3
锅+排名(47] 45.8 43.9 43.8 41.9
MLFN [48] 49.2 54.7 47.8 52.8
PCB (6] - - - - - - - - - - - - 53.2 59.7
PCB +齿槽(6] - - - - - - - - - - - - 56.7 62.8

基线 59.88 61.14 59.02 60.57
基线+比损失 63.47 64.21 61.30 62.86
基线+ OHEM 63.34 64.43 60.36 61.43
基线+比损失+ OHEM(我们的) 66.26 68.57 63.24 65.07

大胆的值显示在每个度量所有方法的效果最好。他们可以清楚地表明,我们的方法达到最好的性能与其他方法相比。

通过分析实验结果,我们观察到该比率可以进一步提高re-id的性能损失,这表明比损失的有效性。与此同时,我们的方法优于大多数上市最先进的工作在三个re-id数据和显示有前途的竞争力。

5。讨论

在本节中,我们首先讨论两个参数的影响 比损失修复一个参数和不同。然后我们比较我们的方法有两个类似的作品包括LMCL [21]和ArcFace [5]。

5.1。参数分析

的参数 用于调整比率的重量损失的联合训练。为了观察的影响 re-id性能,我们集 当0.5和改变 从{0.1,0.2,0.5,1.0,1.5,2.0}市场- 1501,DukeMTMC-reID和CUHK03分别。结果在图5。从市场- 1501结果,我们发现地图上稍有增加 生长和达到峰值 是1.0,然后逐渐减少更大的吗 类似的地图可以观察到的趋势在DukeMTMC-reID数据集。我们还发现,地图是极大地影响 在CUHK03数据集。例如,地图上增加从63.82%降至66.87% 在标签版本从0.1增加到1.5。

的参数 可以防止干扰比损失在最初的训练阶段。同样的,我们修复 1,改变的价值 从0.0到0.5,0.1的步骤。结果如图所示6。我们发现 市场- 1501和DukeMTMC-reID影响不大。具体来说,地图是有限的波动0.7%(0.43%为DukeMTMC-reID市场- 1501和0.63%)。然而,地图的波动达到1.67%的标签在CUHK03版本和1.29%检测到版本。我们认为造成这一现象的主要原因是在不同的数据集样本的数量差异。在大规模数据集,如市场- 1501和DukeMTMC-reID大规模样本带来一个相对较小的扰动比损失,这有利于稳定模型的学习。相反,模型训练CUHK03可能波动率风险损失的价值地图相对不敏感

5.2。与类似的工作

近年来,许多优秀作品提出了提高辨别力的学习特性,例如,LMCL [21]和ArcFace [5损失函数。他们学习区别的特性,通过引入保证金的余弦角空间和空间,分别。然而,保证金需要的价值选择小心翼翼地因为一个不恰当的值会导致优化困难。在我们提出损失比例,比例配方能有效鼓励类间可分性和在类同时密实度没有额外的保证金。

详细比较,我们对市场进行reidentification实验- 1501,DukeMTMC-reID, CUHK03数据集与我们的方法和两个损失函数。在实验中,所有先前的实验设置保持不变,除了损失函数。LMCL和ArcFace,我们改变参数从{0.01,0.1,0.3,0.5,1.0}寻求最好的结果(30.),并记录在表的比较结果3。从结果中,我们可以发现我们的方法映射值高于LMCL和ArcFace市场- 1501 DukeMTMC-reID和达到类似的性能。此外,它优于LMCL ArcFace完全数据集CUHK03即使他们是最好的参数。


方法 市场- 1501 DukeMTMC-reID CUHK03标记 CUHK03检测
地图 1级 地图 1级 地图 1级 地图 1级

LMCL [21] 0.01 82.49 92.70 71.87 84.29 63.12 63.71 61.42 63.36
0.1 82.93 93.11 72.32 84.92 63.55 66.50 62.54 63.64
0.3 82.05 92.49 71.43 83.93 63.32 64.64 60.71 62.00
0.5 81.70 93.02 70.68 84.07 62.15 64.21 58.49 60.43
1.0 81.15 92.25 70.51 84.11 61.86 63.50 58.46 59.79

ArcFace [5] 0.01 82.31 92.99 71.19 84.02 63.02 64.21 60.92 63.00
0.1 82.70 92.96 71.28 83.93 64.33 66.50 62.54 64.93
0.3 82.52 92.99 71.09 84.78 65.20 67.57 62.65 63.43
0.5 81.28 92.34 70.54 83.89 64.62 65.86 61.83 63.07
1.0 80.86 91.42 69.60 83.08 62.76 64.14 60.72 61.50

我们的 - - - - - - 83.12 92.64 71.66 84.34 66.26 68.57 63.24 65.07

大胆的值显示在每个度量所有方法的效果最好。他们有益于我们提出的方法和其他方法之间的比较。

6。结论

在本文中,我们提出了一个为圆形比失去学习reidentification区别的特性的人。增强特性可分别,我们首先使用规范化softmax调节特征向量的大小和分类权重向量。通过这种方式,网络将专注于角特征和分类权重之间的关系,和他们的距离可以有效地测量超球面。然后我们以最大组内距离的比值和阶级之间的距离最小为目标的损失,这样同类密实度和组内的可分性可以优化在同一时间。的联合训练规范化softmax并提出比损失,该模型可以学习区别的行人reidentification任务特性的人。广泛的实验市场- 1501、DukeMTMC-reID和CUHK03进行演示我们re-id提出方法的有效性。

数据可用性

我们提交相关的基础数据是公开的研究。

的利益冲突

作者宣称没有利益冲突。

确认

这项研究受到了中国国家自然科学基金(61501177和61501177号),广州大学优秀New-Recruited医生培训项目(没有。YB201712),广东教育的特色创新项目部门授予2018 ktscx174。

引用

  1. Kviatkovsky, a .亚当和大肠Rivlin“reidentification颜色不变性人,”IEEE模式分析与机器智能,35卷,不。7,1622 - 1634年,2013页。视图:出版商的网站|谷歌学术搜索
  2. w·李和x王“局部对齐功能转换在视图”《IEEE计算机视觉与模式识别会议纽约,页3594 - 3601,美国,2013年6月。视图:谷歌学术搜索
  3. m . Kostinger m . Hirzer p . Wohlhart p·m·罗斯和h .女孩,“大规模指标等价约束,学习”《IEEE计算机视觉与模式识别会议普罗维登斯,页2288 - 2295年,RI,美国,2012年6月。视图:谷歌学术搜索
  4. 朱辽,y, x, z s . Li”人鉴定由当地最大的发生表示和度量学习”《IEEE计算机视觉与模式识别会议,页2197 - 2206,波士顿,MA,美国,2015年6月。视图:谷歌学术搜索
  5. j .邓j .郭:雪,s . Zafeiriou”ArcFace:添加剂角保证金损失深人脸识别,”《IEEE计算机视觉与模式识别会议长滩,页4685 - 4694年,CA,美国,2019年7月。视图:谷歌学术搜索
  6. y太阳,l .郑y,田,和王,“除了模型部分:人与精炼检索部分池(和强大的卷积基线)”欧洲计算机视觉的诉讼,页501 - 518,德国慕尼黑,2018年9月。视图:谷歌学术搜索
  7. l .郑、y杨和a·g·豪普特曼”人鉴定:过去、现在和未来,“2016年,http://arxiv.org/abs/1610.02984视图:谷歌学术搜索
  8. w·陈,陈x, j·张,k .黄”超越三联体损失:深成套网络人鉴定,”《IEEE计算机视觉与模式识别会议火奴鲁鲁,页1320 - 1329年,美国,2017年7月,你好。视图:谷歌学术搜索
  9. r·哈德美国Chopra, y LeCun(“通过学习一个不变的降维映射”《IEEE计算机视觉与模式识别会议,页1735 - 1742,纽约,纽约,美国,2006年6月。视图:谷歌学术搜索
  10. r·r·Varior m . Haloi g·王,“封闭的暹罗卷积神经网络架构人类再次鉴定,”欧洲计算机视觉的诉讼,页791 - 808年,荷兰阿姆斯特丹,2016年10月。视图:谷歌学术搜索
  11. d .灰色和h .道,”观点不变的行人识别合奏的局部特性,”欧洲计算机视觉的诉讼马赛,页22 - 275年,法国,2008年10月。视图:谷歌学术搜索
  12. x粉丝,w .江、h·罗和m .范”SphereReID:深超球面流形嵌入人鉴定,“杂志的视觉传达和图像表示,60卷,51-58,2019页。视图:出版商的网站|谷歌学术搜索
  13. a .何曼思l·拜尔,b . Leibe“国防三联体损失的人鉴定,”2017年,http://arxiv.org/abs/1703.07737视图:谷歌学术搜索
  14. w·刘,y, z . Yu et al .,“SphereFace:深超球面嵌入人脸识别,,”《IEEE计算机视觉与模式识别会议火奴鲁鲁,页6738 - 6746年,美国,2017年7月,你好。视图:谷歌学术搜索
  15. f·斯沃夫,d . Kalenichenko和j . Philbin”FaceNet:统一嵌入人脸识别和聚类”《IEEE计算机视觉与模式识别会议,页815 - 823,波士顿,MA,美国,2015年6月。视图:谷歌学术搜索
  16. k . x张,他任美国,j .太阳,“深残余学习图像识别,”《IEEE计算机视觉与模式识别会议拉斯维加斯,页770 - 778年,NV,美国,2016年6月。视图:谷歌学术搜索
  17. c . Szegedy w·刘,y贾et al .,“要更深的曲线玲珑,”《IEEE计算机视觉与模式识别会议美国,页1 - 9,波士顿,MA, 2015年6月。视图:谷歌学术搜索
  18. d . Cheng y锣,周,j . Wang和n .郑”人鉴定通过多渠道器件cnn改善三联体损失函数,”《IEEE计算机视觉与模式识别会议拉斯维加斯,页1335 - 1344年,NV,美国,2016年6月。视图:谷歌学术搜索
  19. w·刘,y, z . Yu, m .杨“大幅度softmax损失卷积神经网络,”机器学习的国际会议,页507 - 516,纽约,纽约,美国,2016年6月。视图:谷歌学术搜索
  20. j . x y元,g . Wang Chen Li和x周,“学习区别的特性与多个粒度人鉴定,”ACM国际会议多媒体学报》上,页274 - 282年,荷兰阿姆斯特丹,2018年6月。视图:谷歌学术搜索
  21. z . y . h . Wang Wang周et al .,“CosFace:大型保证金余弦损失深人脸识别,”《IEEE计算机视觉与模式识别会议,页5265 - 5274,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
  22. d . Wu S.-J。郑,W.-Z。包,X.-P。张,C.-A。元,D.-S。黄”,小说深模型multi-loss和高效的培训人鉴定,“Neurocomputing卷,324年,第75 - 69页,2019年。视图:出版商的网站|谷歌学术搜索
  23. x y,刘,问:你们和d道,“整体上优于人鉴定与多个特性表示,“复杂性卷,2018篇文章ID 5940181, 12页,2018。视图:出版商的网站|谷歌学术搜索
  24. 郑,c·邓x太阳et al .,“锥体人通过multi-loss动态培训、鉴定”《IEEE计算机视觉与模式识别会议长滩,页8514 - 8522年,CA,美国,2019年6月。视图:谷歌学术搜索
  25. w·钟l .江t, j .霁和h .熊”结合多层次特征提取和multi-loss学习人鉴定,“Neurocomputing卷,334年,第78 - 68页,2019年。视图:出版商的网站|谷歌学术搜索
  26. j .苗族y, y叮,p . Liu, y,“Pose-guided特性校准阻挡人鉴定,”《IEEE计算机视觉国际会议551年,页542 - 2019年11月首尔,韩国。视图:谷歌学术搜索
  27. 杨朱y, z, l . Wang赵,x,和d .道,“Hetero-center损失交叉模式人鉴定,“Neurocomputing卷,386年,第109 - 97页,2020年。视图:出版商的网站|谷歌学术搜索
  28. 王傅y, y, g . et al .,“自相似性分组:一个简单的无监督跨域人鉴定,适应方法,”《IEEE计算机视觉国际会议,页6111 - 6120,首尔,韩国,2019年10月。视图:谷歌学术搜索
  29. h·罗,w .江顾y et al .,”一个强大的基线和批处理规范化为深人地脖子,“IEEE多媒体,22卷,2020年。视图:出版商的网站|谷歌学术搜索
  30. l . j . z, t . Liu Liu Wang和s .赵”小说软保证金损失函数深有识别力的嵌入学习,”IEEE访问,8卷,第202794 - 202785页,2020年。视图:出版商的网站|谷歌学术搜索
  31. “Pytorch。”https://pytorch.org/视图:谷歌学术搜索
  32. y LeCun (l . Bottou y Bengio, p . Haffner“Gradient-based学习应用于文档识别,”IEEE学报》,卷86,不。11日,第2324 - 2278页,1998年。视图:出版商的网站|谷歌学术搜索
  33. l .郑l .沈l .田et al .,“可伸缩的人鉴定:基准,”《IEEE计算机视觉国际会议,页1116 - 1124,圣地亚哥,智利,2015年12月。视图:谷歌学术搜索
  34. z郑,郑l . y .杨”所产生的未标记样本gan改善基线体外鉴定的人,”《IEEE计算机视觉国际会议,第3782 - 3774页,威尼斯,意大利,2017年10月。视图:谷歌学术搜索
  35. r . w . Li赵、t·肖和x王”DeepReID:深层过滤组合神经网络人鉴定,”《IEEE计算机视觉与模式识别会议哥伦布,页152 - 159年,哦,美国,2014年6月。视图:谷歌学术搜索
  36. e . Ristani f . Solera r .邹r . Cucchiara和c预,“性能措施和数据集的多目标、多幅相机跟踪”《欧洲计算机视觉工作室NV,页17-35,拉斯维加斯,美国,2016年7月。视图:谷歌学术搜索
  37. z中,l .郑曹德明,李,“评估人以k-reciprocal编码鉴定,”《IEEE计算机视觉与模式识别会议火奴鲁鲁,页3652 - 3661年,美国,2017年7月,你好。视图:谷歌学术搜索
  38. z中,l .郑g .康s . Li和y,“随机擦除数据增加,”2017年,http://arxiv.org/abs/1708.04896视图:谷歌学术搜索
  39. x呗,m .杨黄t . et al .,“Deep-Person:学习有识别力的深人鉴定特征,“模式识别,98卷,2020年。视图:出版商的网站|谷歌学术搜索
  40. y太阳,l .郑w·邓,王,“SVDNet行人检索”《IEEE计算机视觉国际会议,第3828 - 3820页,威尼斯,意大利,2017年10月。视图:谷歌学术搜索
  41. j .徐r·赵f .朱h . Wang和w·欧阳,“Attention-aware创作网络人鉴定,”《IEEE计算机视觉与模式识别会议,页2119 - 2128,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
  42. x y . Chen Zhu,锣,“人地深度学习的多尺度表示,“《IEEE计算机视觉国际会议上车间火奴鲁鲁,页2590 - 2600年,美国,2017年7月,你好。视图:谷歌学术搜索
  43. l·魏张,h .姚明,w .高,问:田,“高兴:global-local-alignment描述符行人检索”ACM国际会议多媒体学报》上,页420 - 428,纽约,纽约,美国,2017年10月。视图:谷歌学术搜索
  44. w·李,朱x和锣,“和谐人鉴定,关注网络”《IEEE计算机视觉与模式识别会议,页2285 - 2294,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
  45. 李j . Si h, c . et al .,“双重关注行军序列基于人地环境敏感特性,网络”《IEEE计算机视觉与模式识别会议,页5363 - 5372,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
  46. 肖y沈,h·李,t . et al .,“深group-shuffling随机行走人鉴定,”《IEEE计算机视觉与模式识别会议,页2265 - 2274,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
  47. z郑,郑l ., y,“行人对齐大规模网络人鉴定,”IEEE电路和系统视频技术卷,29号10日,3037 - 3045年,2019页。视图:出版商的网站|谷歌学术搜索
  48. x, t . m .,世界卫生组织和t .香,“多层次factorisation净人鉴定,”《IEEE计算机视觉与模式识别会议,页2109 - 2118,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索

版权©2020赵阳等。这是一个开放分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点172年
下载373年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读