SP 科学的规划 1875 - 919 x<我年代年代npub-type="ppub"> 1058 - 9244 Hindawi 10.1155 / 2020/8861987 8861987 研究文章 人脸检测和识别基于视觉注意力机制指导模型在无限制的姿势 https://orcid.org/0000 - 0002 - 4002 - 503 x Zhenguo 至岑溪 学校的机械和电气工程 广东产业理工 广州 中国 2020年 20. 5 2020年 2020年 14 4 2020年 28 4 2020年 6 5 2020年 20. 5 2020年 2020年 版权©2020 Zhenguo元。 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

人脸检测和识别的性能影响和损坏,因为阻塞经常导致漏检。减少面部遮挡造成的识别精度和提高人脸检测的准确性,视觉注意力机制指导模型本文提出了利用视觉注意力机制指导模型突出了阻挡的可见区域的脸;人脸检测问题简化到高层语义特征检测问题通过分析改善网络,和脸的位置和规模预测的激活地图,以避免额外的参数设置。大量的仿真实验结果表明,我们的方法优于其他比较算法对遮挡人脸检测和识别的准确性在脸上数据库。此外,我们提出的方法之间实现更好的平衡检测精度和速度,可用于安全领域的监测。

广东省教育局 智能物流创新人才 2018 cslkt3 - 107 2018年gkqncx072
1。介绍</t我tle> <p>仍然有一些挑战性的问题在人脸检测和识别技术主要是由于非刚性的特征和复杂背景的影响<xrefgydF4y2Baref-type="bibr" rid="B1"> 1</xref>gydF4y2Ba- - - - - -<xrefgydF4y2Baref-type="bibr" rid="B3"> 3</xref>gydF4y2Ba]。传统的人脸检测算法主要使用semisupervised学习方法。由于传统方法需要设计不同的人工特征不同的任务,如灰度特征、轮廓特征,和猪的特性,这些特性很容易受到成像角度的影响,和泛化能力差。同时,物体遮挡也会导致错过的检测,从而降低检测器的准确性。因此,它具有十分重要的现实意义研究人脸检测和识别任务的阻塞问题[<xrefrefgydF4y2Ba-type="bibr" rid="B4"> 4</xref>gydF4y2Ba]。</p><p>gydF4y2Ba基于机器学习的人脸检测和识别模型是计算机视觉领域的一个热门研究方向(<xrefgydF4y2Baref-type="bibr" rid="B5"> 5</xref>gydF4y2Ba]。通过直接提取特征的检测区域,然后使用机器学习算法分类和识别,模型可以提高分类的准确性在一定程度上,但特性的表征能力直接影响系统的识别精度(<xrefgydF4y2Baref-type="bibr" rid="B6"> 6</xref>gydF4y2Ba]。而肤浅的学习模型检测和识别算法如增加、决策树和神经网络,深度学习由卷积神经网络实现了深度非线性网络结构通过当地操作,比如接受字段和权衡共享。分层策略可以学到最基本特征表示的数据集(<xrefrefgydF4y2Ba-type="bibr" rid="B7"> 7</xref>gydF4y2Ba]。目前主流的基于深度学习面对探测器通常采用两级网络结构,分为人脸检测和人脸识别。</p><p>gydF4y2Ba大多数卷积神经网络使用一个分类损失函数来测量预测值和实际值之间的差异,然后通过训练过程完成图像的分类,扩大不同类型的图像之间的距离。王等人。<xrefgydF4y2Baref-type="bibr" rid="B8"> 8</xref>gydF4y2Ba)用三维表面信息作为特征,提高算法的鲁棒性和准确性通过大量数据训练。克鲁et al。<xrefgydF4y2Baref-type="bibr" rid="B9"> 9</xref>gydF4y2Ba]DeepID用于人脸识别的分区的不同部分的脸,分别提取特征,然后使用贝叶斯算法执行复杂的操作特性,最后获取人脸特征信息,有效地提高识别的准确性。然而,以上算法nonlimiting条件下解决识别问题。因此,如何增加类之间的距离,同时减少在识别过程中同类的距离是人脸识别的重要课题的任务。Abbad et al。<xrefrefgydF4y2Ba-type="bibr" rid="B10"> 10</xref>gydF4y2Ba)的反馈意识到损失函数在训练过程中通过添加一个验证方法和利用积极的样品损失减少类之间的距离,但这个方法更依赖于样本。Madhavan和库马尔<xrefgydF4y2Baref-type="bibr" rid="B11"> 11</xref>gydF4y2Ba)提出了一种三元损失算法,结合训练数据为三元素;每个三包含正价值,负价值,和样本锚点,可以有效降低组内的距离。</p><p>gydF4y2Ba虽然上述方法可以解决一些nonlimiting问题,它在收敛速度表现不佳,特别是在网络层的数量太大,和梯度消失现象就会发生。为了解决这类问题,苏et al。<xrefgydF4y2Baref-type="bibr" rid="B12"> 12</xref>gydF4y2Ba)提出了一个multi-inception基于结构的卷积神经网络算法用于人脸识别。通过改变传统Softmax损失的方法,结合Softmax TripletLoss,一个更大的组内的距离和一个较小的同类距离可以获得。实验结果证明,该算法提高了网络的深度和宽度,和组内间距在训练过程中可以有效地减少。根据上面的描述,可以看出卷积神经网络面临着不同的问题在处理不同的数据和应用程序场景。一些场景更加注意计算速度,和一些更加注意检测精度。更多的学者努力找到一个通用模型高在所有方面的表现。这也是本研究的最终目标。</p><p>针对问题,阻塞影响人脸检测和识别的准确性,提出了一种深和多层次特征融合网络。这个网络使用视觉注意力机制指导模型强调的可见区域遮挡脸;检测识别问题可以简化为一个高级语义特征检测问题,和脸的位置和规模预计通过激活地图,避免额外的参数设置。大量的仿真实验结果表明,该方法比现有的主流方法检测和识别的闭塞的脸在公共数据集和取得了更快的检测速度,可用于安全领域的监测。</p><p>gydF4y2Ba本研究的创新总结如下:<gydF4y2Balist> <list-item> <label>(1)</gydF4y2Balabel> </list-item> </list></p> <p>针对检测遗漏造成的阻塞在人脸检测中,提出了一种解决方案,即,一个视觉注意力机制指导模型,提出了利用视觉注意力机制指导模型强调的可见区域挡住了脸,从而提高人脸检测和识别精度。</p><gydF4y2Balist-item> <label>(2)</gydF4y2Balabel> <p>新的简化模型参数。通过改进的分析网络中,人脸检测问题是简化的高级语义特征检测问题,和脸的位置和规模预测的激活地图,以避免额外的参数设置。</p></gydF4y2Balist-item> <p></p> </sec> <sec id="sec2"> <title>2。人脸检测网络</t我tle> <p>YOLO-V3网络是更好的深度学习模型在目标识别领域,网络逐渐从YOLO和YOLO-V2网络[意思<xrefgydF4y2Baref-type="bibr" rid="B13"> 13</xref>gydF4y2Ba]。与深度学习网络基于地区提议,YOLO网络将检测问题转换为一个意思回归问题。网络不需要采用详尽的候选人地区但直接生成对象的信心和边界框坐标通过回归。与Faster-RCNN网络相比,检测速度大大提高(<xrefrefgydF4y2Ba-type="bibr" rid="B14"> 14</xref>gydF4y2Ba]。</p><p>gydF4y2BaYOLO检测意思模型如图<xrefgydF4y2Baref-type="fig" rid="fig1"> 1</xref>gydF4y2Ba。网络中的每个图像训练集分为一个<我talic> 年代</我talic>×<我talic> 年代</我talic>(<我talic> 年代</我talic>= 13)网格。如果真正的中心对象落入网格,网格负责检测对象的类别。多个边框预计在每个网格,每个预测边界框得分表明,边界框完全包含对象的信心,定义如下:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M1"> <mml:mtable> <mml:mlabeledtr id="EEq1"> <mml:mtd rowspan="2"> <mml:mtext> (1)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:mi> C</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 对象</gydF4y2Bamml:mtext> </mml:mrow> </mml:mfenced> <mml:mo> ×</gydF4y2Bamml:mo> <mml:msubsup> <mml:mrow> <mml:mtext> 借据</gydF4y2Bamml:mtext> </mml:mrow> <mml:mrow> <mml:mtext> pred</gydF4y2Bamml:mtext> </mml:mrow> <mml:mrow> <mml:mtext> 真理</gydF4y2Bamml:mtext> </mml:mrow> </mml:msubsup> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> <mml:mtr> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 对象</gydF4y2Bamml:mtext> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:mfenced open="{" close="}" separators="|"> <mml:mrow> <mml:mn> 0 1</gydF4y2Bamml:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M2"> <mml:msub> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 对象</gydF4y2Bamml:mtext> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>表明边界框中包含的对象的概率。如果有一个物体在边界框,我们有<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M3"> <mml:msub> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 对象</gydF4y2Bamml:mtext> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:math> </inline-formula>;否则<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M4"> <mml:msub> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 对象</gydF4y2Bamml:mtext> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:math> </inline-formula>;<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M5"> <mml:msubsup> <mml:mrow> <mml:mtext> 借据</gydF4y2Bamml:mtext> </mml:mrow> <mml:mrow> <mml:mtext> pred</gydF4y2Bamml:mtext> </mml:mrow> <mml:mrow> <mml:mtext> 真理</gydF4y2Bamml:mtext> </mml:mrow> </mml:msubsup> </mml:math> </inline-formula>表明十字路口在联盟(借据)预测结果与基准坐标系。信心反映电网是否包含对象和预测的准确性边界框。当多个边界盒检测同一个对象,YOLO使用意思nonmaximum抑制方法选择最好的边界框。</p><f我g我d="fig1"> <label>图1</gydF4y2Balabel> <p>人脸检测和识别的过程。</p><grgydF4y2Baaphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.001"></graphic> </fig> <p>虽然YOLO取得更快的检测速度的意思,但其检测精度不如R-CNN更快。为了解决这个问题,YOLO-V2介绍锚定机制的想法越快R-CNN网络和k -均值聚类方法或使用模糊c均值方法(<xrefgydF4y2Baref-type="bibr" rid="B15"> 15</xref>gydF4y2Ba)来生成一个合适的边界框。因此,YOLO-V2算法所需的锚箱的数量来达到相同的借据是减少。YOLO-V2改善网络结构和取代了完全连接层在YOLO输出层意思卷积层(<xrefrefgydF4y2Ba-type="bibr" rid="B16"> 16</xref>gydF4y2Ba]。此外,YOLO-V2还介绍了批处理规范化,空间聚类,细粒度特性,多尺度培训,和其他策略;而YOLO,意思YOLO-V2大大提高了检测精度。基于YOLO-V2 YOLO-V3是一个改进的模型。通过使用多尺度预测检测最后一个对象,它比YOLO-V2网络结构更复杂。YOLO-V3可以预测不同尺度的边界框,可以检测出小物体比YOLO-V2更有效,但有失踪检测部分闭塞的面对对象(<xrefrefgydF4y2Ba-type="bibr" rid="B17"> 17</xref>gydF4y2Ba]。</p></年代ec><年代ec id="sec3"> <title>3所示。遮挡人脸检测和识别算法结合视觉注意力机制</t我tle> <p>图<xrefgydF4y2Baref-type="fig" rid="fig2"> 2</xref>gydF4y2Ba是我们提出的人脸检测和识别模型,包括两个部分:特征提取网络和脸分析网络。提取输入图像的高层语义特征提取,特征提取网络和feature-guided关注模块用于特征融合;分析网络预测脸的位置,高度,和抵消热图的基础上获得的高层语义特征,获得面对边界框。</p><f我g我d="fig2"> <label>图2</gydF4y2Balabel> <p>模型框架。</p><grgydF4y2Baaphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.002"></graphic> </fig> <sec id="sec3.1"> <title>3.1。特征提取的网络</t我tle> <p>特征提取网络特性的基础上设计金字塔网络(红外系统)<xrefgydF4y2Baref-type="bibr" rid="B18"> 18</xref>gydF4y2Ba- - - - - -<xrefgydF4y2Baref-type="bibr" rid="B21"> 21</xref>gydF4y2Ba),包括基本网络和视觉注意力的网络。ResNet50具有良好的性能在视觉图像分类等任务,因此它作为基本的网络。ResNet50可分为5个层次,每个层次的将采样率相对于输入图像<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M6"> <mml:mi> 我</gydF4y2Bamml:mi> </mml:math> </inline-formula>;{1,2,3,4,5}代表的数量水平。为了充分利用浅特性映射的位置信息和语义信息的特性,浅和深特征地图是用于指导注意网络功能融合。这个过程可以描述如下:首先,C3和C4功能频道的数量可以减少到256的卷积层1×1卷积核的大小,可以减少计算量;然后,骨干网络特征图(即P3和P4)双线性插值和upsampling 2次后,分别输入到引导注意模块功能融合(<xrefrefgydF4y2Ba-type="bibr" rid="B22"> 22</xref>gydF4y2Ba- - - - - -<xrefgydF4y2Baref-type="bibr" rid="B24"> 24</xref>gydF4y2Ba]。</p></年代ec><年代ec id="sec3.2"> <title>3.2。视觉注意力的网络</t我tle> <p>不同特性的卷积网络渠道的特定区域会有不同的反应,也就是说,闭塞的通道通过不同的特性,描述的对象可以和闭塞的形式<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M7"> <mml:mi> O</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>被定义为以下方程:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M8"> <mml:mtable> <mml:mlabeledtr id="EEq2"> <mml:mtd> <mml:mtext> (2)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:mi> o</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfenced open="[" close="]" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> v</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> v</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> …</gydF4y2Bamml:mo> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> v</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M9"> <mml:msub> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>表示不同的面对对象和领域<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M10"> <mml:msub> <mml:mrow> <mml:mi> v</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:mfenced open="{" close="}" separators="|"> <mml:mrow> <mml:mn> 0 1</gydF4y2Bamml:mn> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:mfenced open="[" close="]" separators="|"> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>用于指示是否部分区域<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M11"> <mml:mi> 我</gydF4y2Bamml:mi> </mml:math> </inline-formula>的脸是可见的。</p><p>gydF4y2Ba传统CNN频道的权重通常是固定的,相同的,这限制了网络的能力来表达不同的阻塞形式(<xrefgydF4y2Baref-type="bibr" rid="B19"> 19</xref>,<xrefgygydF4y2BadF4y2Baref-type="bibr" rid="B21"> 21</xref>,<xrefgygydF4y2BadF4y2Baref-type="bibr" rid="B23"> 23</xref>gydF4y2Ba- - - - - -<xrefgydF4y2Baref-type="bibr" rid="B26"> 26</xref>gydF4y2Ba]。帕蒂尔et al。<xrefgydF4y2Baref-type="bibr" rid="B27"> 27</xref>gydF4y2Ba]调整每个通道,这样的重量特性通道表达的可见区域阻塞对象有更大贡献最后卷积功能,在后台可以突出阻塞对象。英吉利海峡加权过程可以表示为如下方程:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M12"> <mml:mtable> <mml:mlabeledtr id="EEq3"> <mml:mtd> <mml:mtext> (3)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> o</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi mathvariant="bold"> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:msub> <mml:mrow> <mml:mi mathvariant="bold"> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M13"> <mml:msub> <mml:mrow> <mml:mi mathvariant="bold"> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>信道特性和吗<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M14"> <mml:msub> <mml:mrow> <mml:mi mathvariant="bold"> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>是闭塞的通道相应权重向量形式<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M15"> <mml:mi> n</gydF4y2Bamml:mi> </mml:math> </inline-formula>。视觉注意力模块是得到向量的重视<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M16"> <mml:msub> <mml:mrow> <mml:mi mathvariant="bold"> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>通过学习,最终实现渠道特征的权重<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M17"> <mml:msub> <mml:mrow> <mml:mi mathvariant="bold"> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>所以网络可以自适应地表达不同阻塞形式。然而,现有的模型只考虑渠道之间的关系,忽略空间信息特征映射的重要性。因为地图的空间信息特征是有利于网络定位感兴趣的区域,功能频道注意机制和空间注意机制用于特征描述任务在文献[<xrefrefgydF4y2Ba-type="bibr" rid="B28"> 28</xref>gydF4y2Ba]。同样,空间注意机制应用于对象检测任务在文献[<xrefgydF4y2Baref-type="bibr" rid="B29"> 29日</xref>gydF4y2Ba),以引导网络强调当前任务的有用特性。上面的描述和分析的基础上,使用功能空间信息的人脸检测和识别任务突出脸部遮挡对象区域,构造和空间关注模块实现人脸检测和识别的任务。空间关注模块获得空间注意力地图地图空间信息的统计特性,用于激活输入特性,以指导网络关注遮住了脸,抑制背景干扰。</p><p>gydF4y2Ba如图<xrefgydF4y2Baref-type="fig" rid="fig3"> 3</xref>,gydF4y2Ba视觉注意力网络包括两个子模块:通道和空间的关注。视觉注意力的输入网络是两个特征映射(如C4和P4)浅卷积层和深褶积层,分别。首先,输入功能连接通道的尺寸<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M18"> <mml:mi> F</gydF4y2Bamml:mi> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mi> C</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>,然后<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M19"> <mml:mi> F</gydF4y2Bamml:mi> </mml:math> </inline-formula>输入通道注意模块。经过一系列的操作,空间注意模块是实现功能融合融合。因此,通过关注模块模型特性之间的关系渠道和地图空间信息的特性,网络不仅可以增强的功能表示相关领域也获得位置信息的感兴趣的领域<xrefrefgydF4y2Ba-type="bibr" rid="B29"> 29日</xref>gydF4y2Ba]。而充分利用有用的特性来处理面对阻塞的问题,它还会抑制无用的杂乱的信息,这有利于改善脸部和识别检测的准确性。</p><f我g我d="fig3"> <label>图3</gydF4y2Balabel> <p>视觉注意力的整体结构模块。</p><grgydF4y2Baaphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.003"></graphic> </fig> <p>图<xrefgydF4y2Baref-type="fig" rid="fig4"> 4</xref>gydF4y2Ba是功能通道模块提出了关注。输入特征映射<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M20"> <mml:mi> F</gydF4y2Bamml:mi> </mml:math> </inline-formula>每个特性的全球信息通道是通过全球平均池和最大池操作形成通道描述符<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M21"> <mml:msubsup> <mml:mi> z</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mtext> avg</gydF4y2Bamml:mtext> </mml:mrow> </mml:msubsup> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M22"> <mml:msubsup> <mml:mi> z</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mi mathvariant="normal"> 马克斯</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> </mml:math> </inline-formula>,然后功能频道注意向量<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M23"> <mml:msub> <mml:mrow> <mml:mi> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mi> C</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>通过这两个完全FC1和FC2连接层。最后,深入学习方法使网络自动闭塞的不同样本的特点。具体步骤见方程(<xrefrefgydF4y2Ba-type="disp-formula" rid="EEq3"> 3</xref>gydF4y2Ba)。<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M24"> <mml:mtable> <mml:mlabeledtr id="EEq4"> <mml:mtd> <mml:mtext> (4)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> σ</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> δ</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:msubsup> <mml:mi> z</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mtext> avg</gydF4y2Bamml:mtext> </mml:mrow> </mml:msubsup> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> +</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> δ</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:msubsup> <mml:mi> z</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mi mathvariant="normal"> 马克斯</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M25"> <mml:mi> σ</gydF4y2Bamml:mi> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M26"> <mml:mi> δ</gydF4y2Bamml:mi> </mml:math> </inline-formula>分别乙状结肠函数和ReLU函数。<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M27"> <mml:msub> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mtext> Clr</gydF4y2Bamml:mtext> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mi> C</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M28"> <mml:msub> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> C</gydF4y2Bamml:mi> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mtext> Clr</gydF4y2Bamml:mtext> </mml:mrow> </mml:msup> </mml:math> </inline-formula>代表两个完全连接层参数,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M29"> <mml:mi> r</gydF4y2Bamml:mi> </mml:math> </inline-formula>的比例是将采样降维。<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M30"> <mml:msub> <mml:mrow> <mml:mi> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mi> C</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>用于重量的输入特性<我talic> F</我talic>通道的通道来获取<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M31"> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> </mml:math> </inline-formula>。这一过程可以写成以下方程:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M32"> <mml:mtable> <mml:mlabeledtr id="EEq5"> <mml:mtd> <mml:mtext> (5)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> <mml:mo> =</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> Ω</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mtext> </mml:mtext> <mml:mo> ⊗</gydF4y2Bamml:mo> <mml:mtext> </mml:mtext> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M33"> <mml:mtext> </mml:mtext> <mml:mo> ⊗</gydF4y2Bamml:mo> <mml:mtext> </mml:mtext> </mml:math> </inline-formula>代表点积通道的通道。</p><f我g我d="fig4"> <label>图4</gydF4y2Balabel> <p>功能频道关注模块结构。</p><grgydF4y2Baaphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.004"></graphic> </fig> <p>自从partial-occluding面对对象的有用的信息通常是模糊的背景下,网络还需要确定空间位置的有用的信息而增强的功能表达模块通过此通道阻塞对象的关注。与通道的注意机制、空间注意机制主要是用来强调地区特性相关的映射到当前的任务,这是指导网络关注的可见区域阻塞对象(<xrefgydF4y2Baref-type="bibr" rid="B30"> 30.</xref>gydF4y2Ba]。</p><p>gydF4y2Ba在空间关注模块中,首先执行的最大池操作地图上输入功能<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M34"> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> </mml:math> </inline-formula>在频道维度获取功能映射<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M35"> <mml:msubsup> <mml:mi> F</gydF4y2Bamml:mi> <mml:mrow> <mml:mi mathvariant="normal"> 马克斯</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:msubsup> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:math> </inline-formula>,用于计数的空间信息特征地图;地图的功能是输入一个3×3卷积层<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M36"> <mml:msub> <mml:mrow> <mml:mi> f</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>乙状结肠和输出的函数来获取空间注意力地图<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M37"> <mml:msub> <mml:mrow> <mml:mi> 米</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:math> </inline-formula>:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M38"> <mml:mtable> <mml:mlabeledtr id="EEq6"> <mml:mtd> <mml:mtext> (6)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> 米</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> σ</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> f</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msubsup> <mml:mi> F</gydF4y2Bamml:mi> <mml:mrow> <mml:mi mathvariant="normal"> 马克斯</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:msubsup> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M39"> <mml:mi> σ</gydF4y2Bamml:mi> </mml:math> </inline-formula>是乙状结肠函数。最后,空间注意力地图<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M40"> <mml:msub> <mml:mrow> <mml:mi> 米</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>用于激活输入<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M41"> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> </mml:math> </inline-formula>获得最终功能映射<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M42"> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ”</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> </mml:math> </inline-formula>:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M43"> <mml:mtable> <mml:mlabeledtr id="EEq7"> <mml:mtd> <mml:mtext> (7)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ”</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> <mml:mo> =</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> 米</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mtext> </mml:mtext> <mml:mo> ⊗</gydF4y2Bamml:mo> <mml:mtext> </mml:mtext> <mml:msup> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> ′</gydF4y2Bamml:mo> </mml:mrow> </mml:msup> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M44"> <mml:mtext> </mml:mtext> <mml:mo> ⊗</gydF4y2Bamml:mo> <mml:mtext> </mml:mtext> </mml:math> </inline-formula>代表特征图谱之间的点积。</p><p>gydF4y2Ba人脸检测和识别任务被认为是一种高级语义特征检测问题。获取语义特征的基础上,最终预测边界框是通过分析网络。本文的位置、高度和位置偏移的脸首先预测,和边界框的大小是通过简单的几何变换,然后,简单识别网络可以得到高精度的识别效果(<xrefrefgydF4y2Ba-type="bibr" rid="B31"> 31日</xref>gydF4y2Ba]。具体来说,预测后的高度<我talic> h</我talic>的脸,宽度<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M45"> <mml:mi> w</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> h</gydF4y2Bamml:mi> <mml:mo> ⋅</gydF4y2Bamml:mo> <mml:mi> α</gydF4y2Bamml:mi> </mml:math> </inline-formula>可以计算边界框的边界框的长宽比。如果输出特性的特征提取网络地图<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M46"> <mml:msub> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mtext> 最后</gydF4y2Bamml:mtext> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:msup> </mml:math> </inline-formula>,三个热点图预测的三个平行1×1卷积层和对应于中心位置<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M47"> <mml:msub> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:msup> </mml:math> </inline-formula>、身高<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M48"> <mml:msub> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:msup> </mml:math> </inline-formula>和位置偏移<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M49"> <mml:msub> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi mathvariant="normal"> 抵消</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ∈</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> R</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ×</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:msup> </mml:math> </inline-formula>,分别。<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M50"> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:math> </inline-formula>的采样率是激活地图相对于输入图像的输出。通过预测热图,限制之前帧采用传统的方法是避免,和更灵活的人脸检测和识别是实现在同一个网络。</p><年代ec我d="sec3.2.1"> <title>3.2.1之上。位置预测</t我tle> <p>面对热图位置预测是通过位置<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M51"> <mml:msub> <mml:mrow> <mml:mi mathvariant="normal"> H</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>。摘要位置预测问题简化为二元分类问题。</p><p>gydF4y2Ba对象的位置中心功能映射<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M52"> <mml:msub> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi mathvariant="normal"> 最后</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>是<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M53"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>。选择对象的中心像素作为正样本和其他职位负样本。叉损失函数是用来优化训练position-prediction分支。培训的真正价值<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M54"> <mml:msubsup> <mml:mi> H</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> <mml:mi> t</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> </mml:math> </inline-formula>是由一个二维高斯函数,和真值的任何位置都可以通过计算得到方程(<xrefgydF4y2Baref-type="disp-formula" rid="EEq8"> 8</xref>):<gygygydF4y2BadF4y2BadF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M55"> <mml:mtable> <mml:mlabeledtr id="EEq8"> <mml:mtd> <mml:mtext> (8)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msubsup> <mml:mi> H</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> <mml:mi> t</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi mathvariant="normal"> 马克斯</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> G</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> <mml:mo> ;</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> σ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> w</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> σ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> <mml:mlabeledtr id="EEq9"> <mml:mtd> <mml:mtext> (9)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:mi> G</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> σ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> w</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> σ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mi> e</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mo> −</gydF4y2Bamml:mo> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msup> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> −</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:mrow> <mml:mo> /</gydF4y2Bamml:mo> <mml:mrow> <mml:msubsup> <mml:mi> σ</gydF4y2Bamml:mi> <mml:mi> w</gydF4y2Bamml:mi> <mml:mn> 2</gydF4y2Bamml:mn> </mml:msubsup> </mml:mrow> </mml:mfenced> <mml:mo> +</gydF4y2Bamml:mo> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msup> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> <mml:mo> −</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:mrow> <mml:mo> /</gydF4y2Bamml:mo> <mml:mrow> <mml:msubsup> <mml:mi> σ</gydF4y2Bamml:mi> <mml:mi> h</gydF4y2Bamml:mi> <mml:mn> 2</gydF4y2Bamml:mn> </mml:msubsup> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:msup> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M56"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>是对象的中心位置,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M57"> <mml:msub> <mml:mrow> <mml:mi> σ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> w</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M58"> <mml:msub> <mml:mrow> <mml:mi> σ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>是对象的宽度和高度的差异,分别。为了缓解不平衡正负样本在训练过程中,局部损失的预测损失函数被定义为中心位置:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M59"> <mml:mtable> <mml:mlabeledtr id="EEq10"> <mml:mtd> <mml:mtext> (10)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:mfenced open="{" close="" separators="|"> <mml:mrow> <mml:mtable class="cases"> <mml:mtr> <mml:mtd> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> l</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:mo> −</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mfrac> <mml:mstyle displaystyle="true"> <mml:munderover> <mml:mo stretchy="true"> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mrow> <mml:mi> W</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:munderover> <mml:mstyle displaystyle="true"> <mml:munderover> <mml:mo stretchy="true"> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:munderover> <mml:mrow> <mml:mi> B</gydF4y2Bamml:mi> <mml:mi> W</gydF4y2Bamml:mi> </mml:mrow> </mml:mstyle> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mstyle> </mml:mrow> </mml:mtd> <mml:mtd></mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd> <mml:mrow> <mml:msup> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> −</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mi> α</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> <mml:mi mathvariant="normal"> 日志</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mrow> </mml:mtd> <mml:mtd> <mml:mrow> <mml:msubsup> <mml:mi> H</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> <mml:mi> t</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mrow> </mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd> <mml:mrow> <mml:msup> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> −</gydF4y2Bamml:mo> <mml:msubsup> <mml:mi> H</gydF4y2Bamml:mi> <mml:mi> c</gydF4y2Bamml:mi> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> <mml:mi> t</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mi> β</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> <mml:msubsup> <mml:mi> p</gydF4y2Bamml:mi> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> <mml:mi> α</gydF4y2Bamml:mi> </mml:msubsup> <mml:mi mathvariant="normal"> 日志</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> −</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mrow> </mml:mtd> <mml:mtd> <mml:mrow> <mml:mtext> 其他人</gydF4y2Bamml:mtext> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mrow> </mml:mtd> </mml:mtr> </mml:mtable> </mml:mrow> </mml:mfenced> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M60"> <mml:mi> p</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>表示对象的预测评分中心<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M61"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>在预测热地图,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M62"> <mml:mi> N</gydF4y2Bamml:mi> </mml:math> </inline-formula>图中对象的数量,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M63"> <mml:mi> α</gydF4y2Bamml:mi> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M64"> <mml:mi> β</gydF4y2Bamml:mi> </mml:math> </inline-formula>平衡因素,一般设置为2和4。</p></年代ec><年代ec id="sec3.2.2"> <title>3.2.2。高度的预测</t我tle> <p>脸的位置<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M65"> <mml:mi> k</gydF4y2Bamml:mi> </mml:math> </inline-formula>在高度热图<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M66"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>,其相应的真正价值<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M67"> <mml:msubsup> <mml:mi> H</gydF4y2Bamml:mi> <mml:mi> h</gydF4y2Bamml:mi> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> <mml:mi> t</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi mathvariant="normal"> 日志</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>,在那里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M68"> <mml:msub> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>表示物体的高度<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M69"> <mml:mi> k</gydF4y2Bamml:mi> </mml:math> </inline-formula>。在这篇文章中,半径内的真正价值<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M70"> <mml:mi> r</gydF4y2Bamml:mi> </mml:math> </inline-formula>的<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M71"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>被设置为<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M72"> <mml:mi mathvariant="normal"> 日志</gydF4y2Bamml:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>和半径<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M73"> <mml:mi> r</gydF4y2Bamml:mi> </mml:math> </inline-formula>根据对象的宽度设置,一般设置为是哪一个<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M74"> <mml:mi> r</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0.5</gydF4y2Bamml:mn> <mml:msub> <mml:mrow> <mml:mi> w</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>。本文提出的模型使用L1损失函数进行训练。损失函数表示如下:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M75"> <mml:mtable> <mml:mlabeledtr id="EEq11"> <mml:mtd> <mml:mtext> (11)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> l</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mi> N</gydF4y2Bamml:mi> </mml:mfrac> <mml:mstyle displaystyle="true"> <mml:munderover> <mml:mo stretchy="true"> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:munderover> <mml:mrow> <mml:mi> l</gydF4y2Bamml:mi> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msubsup> <mml:mi> H</gydF4y2Bamml:mi> <mml:mi> h</gydF4y2Bamml:mi> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> <mml:mi> t</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mstyle> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M76"> <mml:msub> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>预测对象的高度吗<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M77"> <mml:mi> k</gydF4y2Bamml:mi> </mml:math> </inline-formula>在地图和热<我talic> N</我talic>图像中对象的数量。</p></年代ec><年代ec id="sec3.2.3"> <title>3.2.3。偏差预测</t我tle> <p>自卷积网络通常是将采样过程,这个职位<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M78"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>在输入图像映射到热图,其位置可以表示为<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M79"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> <mml:mo> /</gydF4y2Bamml:mo> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>,在那里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M80"> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:math> </inline-formula>将采样率的网络。当激活地图上的位置重新映射输入图像,将生成一个错误,尤其是影响的检测和识别结果弱小的脸。为了缓解这个问题,物体的位置预测是预测偏差的纠正/抵消的中心位置<xrefrefgydF4y2Ba-type="bibr" rid="B32"> 32</xref>gydF4y2Ba),和相应的真正价值可以写成以下方程:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M81"> <mml:mtable> <mml:mlabeledtr id="EEq12"> <mml:mtd> <mml:mtext> (12)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:msubsup> <mml:mrow> <mml:mi> H</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mtext> 抵消</gydF4y2Bamml:mtext> </mml:mrow> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> <mml:mi> t</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mfrac> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mfrac> <mml:mo> −</gydF4y2Bamml:mo> <mml:mrow> <mml:mfenced open="⌊" close="⌊" separators="⌋"> <mml:mrow> <mml:mfrac> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mfrac> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mfrac> <mml:mo> −</gydF4y2Bamml:mo> <mml:mrow> <mml:mfenced open="⌊" close="⌊" separators="⌋"> <mml:mrow> <mml:mfrac> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mi> 年代</gydF4y2Bamml:mi> </mml:mfrac> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mrow> </mml:mfenced> <mml:mo> 。</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula></p> <p>最后,可以采用多任务损失函数加权优化训练我们的网络,提出加权损失函数可以表示如下:<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M82"> <mml:mtable> <mml:mlabeledtr id="EEq13"> <mml:mtd> <mml:mtext> (13)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:mi> l</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> λ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:msub> <mml:mrow> <mml:mi> l</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> +</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> λ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:msub> <mml:mrow> <mml:mi> l</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> +</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> λ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> o</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:msub> <mml:mrow> <mml:mi> l</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mtext> 抵消</gydF4y2Bamml:mtext> </mml:mrow> </mml:msub> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M83"> <mml:msub> <mml:mrow> <mml:mi> λ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> c</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M84"> <mml:msub> <mml:mrow> <mml:mi> λ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> h</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M85"> <mml:msub> <mml:mrow> <mml:mi> λ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> o</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:math> </inline-formula>权重因素,设置为0.01,和0.12,分别。</p></年代ec></年代ec> </sec> <sec id="sec4"> <title>4所示。实验结果和分析</t我tle> <sec id="sec4.1"> <title>4.1。实验数据集和参数设置</t我tle> <p>为了评估性能的基于视觉的人脸检测和识别算法attention-guided机制提出了LFW(标记为面临在野外数据库),CMUFD数据库(人脸检测数据库)(<xrefgydF4y2Baref-type="bibr" rid="B23"> 23</xref>gydF4y2Ba),和UCFI数据库(UCD颜色脸图像)<xrefgydF4y2Baref-type="bibr" rid="B25"> 25</xref>gydF4y2Ba作为人脸检测和识别的数据集。它由500个图像分辨率为2048×1024。因为CMUFD包含大量的局部遮挡脸图像,这是选为该方法的验证和比较测试;UCFI包含大约350000个样本,在标准测试设备由4024图像分辨率为640×680年的一个简单的场景。为了验证我们方法的泛化,执行一些测试实验UCFI数据集。面对对象的所有训练数据准确地标记。除了对象区域,其余部分被标记为背景,这意味着标记数据集可用于人脸检测和识别模型的训练和测试。</p><p>gydF4y2Ba本文提出的网络选择pretrained ResNet50为骨干网络。它的参数设置如下:深度= 40 growth_rate = 12,瓶颈= True,减少= 0.5,minibatch设置为16;学习速率设置为0.001,辍学参数设置为0.8,和最大迭代次数设置为10000;为了提高优化效率,本文采用亚当优化算法。亚当优化算法是一种随机梯度下降算法的扩展,可以迭代更新基于神经网络的权值训练数据;学习速率的初始化设置为0.25;然后,当训练30期,学习速率改为0.025。nonmaximum抑制算法(NMS)是用来过滤掉多余的面对结果。十字路口的阈值联盟(借据)设置为0.5,与对象,只有面对结果保留信心得分大于0.1 (<xrefref-type="bibr" rid="B33"> 33</xref>gydF4y2Ba]。</p><p>gydF4y2Ba我们建议网络模块是基于PyTorch深度学习框架。实验环境是至强(Xeon) e7 - 8890 v2 @ 2.80 GHz (X4), 128 GB的DDR3 1600 MHz, Nvidia GeForce GTX 1080 Ti, Ubuntu 6.04, 64位操作系统。</p></年代ec><年代ec id="sec4.2"> <title>4.2。评价指标</t我tle> <p>目前,视频监控智能分析系统已经能够检测和识别不同尺度。然而,现有的算法有大量的虚假检测部分遮挡下面对对象主要是由于不完全闭塞的面对对象和背景相似的脸,灰色。因此,标准的选择评价指标作为绩效评估,这是每个图像的假阳性(FPPI)的每一个形象,关注假阳性的发生频率,如表所示<xrefrefgydF4y2Ba-type="table" rid="tab1"> 1</xref>gydF4y2Ba。</p><tgydF4y2Baable-wrap id="tab1"> <label>表1</gydF4y2Balabel> <p>人脸检测结果的统计数据。</p><tgydF4y2Baable> <thead> <tr> <th align="left" rowspan="2">结果</th><thgydF4y2Baalign="center" colspan="2">基准</th></tr><tr> <th align="center">面(正面)</th><thgydF4y2Baalign="center">背景(负)</th></tr></thead> <tbody> <tr> <td align="left">面(正面)</tgydF4y2Bad> <td align="center">TP(真阳性)</tgydF4y2Bad> <td align="center">FP(假阳性)</tgydF4y2Bad> </tr> <tr> <td align="left">背景(负)</tgydF4y2Bad> <td align="center">FN(假阴性)</tgydF4y2Bad> <td align="center">(真阴性)TN</tgydF4y2Bad> </tr> </tbody> </table> </table-wrap> <p>在检测阶段,评估标准是检出率(博士)和错误检测率(假阳性/形象,FPPI):<gydF4y2Badisp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M86"> <mml:mtable> <mml:mlabeledtr id="EEq14"> <mml:mtd rowspan="2"> <mml:mtext> (14)</gydF4y2Bamml:mtext> </mml:mtd> <mml:mtd> <mml:mi mathvariant="normal"> 博士</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:mi> T</gydF4y2Bamml:mi> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> TP + FN</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mi mathvariant="normal"> ,</gydF4y2Bamml:mi> </mml:mtd> </mml:mlabeledtr> <mml:mtr> <mml:mtd> <mml:mi mathvariant="normal"> FPPI</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:mi> F</gydF4y2Bamml:mi> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> FP + TN</gydF4y2Bamml:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我talic> TP</我talic>代表的数量正确积极的样品检测,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M87"> <mml:mi> T</gydF4y2Bamml:mi> <mml:mi> P</gydF4y2Bamml:mi> <mml:mo> +</gydF4y2Bamml:mo> <mml:mi> F</gydF4y2Bamml:mi> <mml:mi> N</gydF4y2Bamml:mi> </mml:math> </inline-formula>代表积极的样本包括图像的数量,和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M88"> <mml:mi> F</gydF4y2Bamml:mi> <mml:mi> P</gydF4y2Bamml:mi> </mml:math> </inline-formula>代表假阳性样本的数量。此外,我们也使用log-average率小姐(先生)检测器的性能特征的脸。本文主要集中在人脸检测和识别的阻塞情况。因此,我们定义可见范围描述的阻塞情况的脸。考虑到对象可见区域总面积的比例<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M89"> <mml:mi> λ</gydF4y2Bamml:mi> </mml:math> </inline-formula>,如果<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M90"> <mml:mi> λ</gydF4y2Bamml:mi> <mml:mo> ></gydF4y2Bamml:mo> <mml:mn> 0.7</gydF4y2Bamml:mn> </mml:math> </inline-formula>,这意味着物体处于正常状态,来标示<我talic> N</我talic>;如果<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M91"> <mml:mn> 0.2</gydF4y2Bamml:mn> <mml:mo> <</gydF4y2Bamml:mo> <mml:mi> λ</gydF4y2Bamml:mi> <mml:mo> <</gydF4y2Bamml:mo> <mml:mn> 0.7</gydF4y2Bamml:mn> </mml:math> </inline-formula>,这意味着物体处于严重阻塞状态,来标示<我talic> H</我talic>。为了便于分析,我们也会将数据集划分为四种类型的子集,,分别记录为混合面临数据集(混合),光遮挡面数据集(光),部分阻塞数据集(部分),严重阻塞数据集(重型)<xrefgydF4y2Baref-type="bibr" rid="B34"> 34</xref>gydF4y2Ba]。</p></年代ec><年代ec id="sec4.3"> <title>4.3。人脸检测的性能分析</t我tle> <p>为了验证的有效性feature-guided关注网络,探测器删除关注网络被用作测试基线(基线),和脸+ +提出(<xrefgydF4y2Baref-type="bibr" rid="B17"> 17</xref>gydF4y2Ba作为比较法。采用基线特征融合方法符合红外系统构建模型,在CA意味着通道注意模块和SA意味着空间注意模块,每个模块添加后,探测器的性能比较实验,并测试结果如表所示<xrefgydF4y2Baref-type="table" rid="tab2"> 2</xref>gydF4y2Ba。</p><tgydF4y2Baable-wrap id="tab2"> <label>表2</gydF4y2Balabel> <p>视觉注意力网络验证结果的比较分析人脸检测模块。</p><tgydF4y2Baable> <thead> <tr> <th align="left">方法</th><thgydF4y2Baalign="center"> <italic> N</我talic>(%)</th><thgydF4y2Baalign="center"> <italic> H</我talic>(%)</th><thgydF4y2Baalign="center"> <italic> N</我talic>+<我talic> H</我talic>(%)</th></tr></thead> <tbody> <tr> <td align="left">脸+ +</tgydF4y2Bad> <td align="center">16.11</tgydF4y2Bad> <td align="center">56.74</tgydF4y2Bad> <td align="center">38.12</tgydF4y2Bad> </tr> <tr> <td align="left">基线</tgydF4y2Bad> <td align="center">12.16</tgydF4y2Bad> <td align="center">41.05</tgydF4y2Bad> <td align="center">37.92</tgydF4y2Bad> </tr> <tr> <td align="left">基线+ CA</tgydF4y2Bad> <td align="center">11.79</tgydF4y2Bad> <td align="center">39.31</tgydF4y2Bad> <td align="center">37.83</tgydF4y2Bad> </tr> <tr> <td align="left">基线+ CA + SA</tgydF4y2Bad> <td align="center">11.53</tgydF4y2Bad> <td align="center">38.73</tgydF4y2Bad> <td align="center">37.26</tgydF4y2Bad> </tr> </tbody> </table> </table-wrap> <p>与基准模型相比,人脸检测器的错过检测(先生)闭塞的图像有明显降低添加关注模块之后,表明我们提出的注意机制可以有效地指导探测器关注阻塞对象。与脸+ +相比,该方法具有显著减少先生在所有评估标准,特别是在严重阻塞评估标准,及其错过检测(先生)下降了18.2%,表明该方法具有良好的有效性的人脸检测复杂的场景。</p><p>gydF4y2Ba为了更直观地理解注意模块的性能脸上探测器,人物<xrefgydF4y2Baref-type="fig" rid="fig5"> 5</xref>gydF4y2Ba提供可视化的脸预测结果。图<xrefgydF4y2Baref-type="fig" rid="fig5a"> 5(一个)</xref>gydF4y2Ba脸图像,输入基线,基线+ CA和基线+ CA + SA,分别获得位置的预测。通过观察,就可以发现特征响应图<xrefgydF4y2Baref-type="fig" rid="fig5d"> 5 (d)</xref>gydF4y2Ba接近表面可见区域,还有背景干扰在数字<xrefgydF4y2Baref-type="fig" rid="fig5b"> 5 (b)</xref>gydF4y2Ba和<xrefgydF4y2Baref-type="fig" rid="fig5c"> 5 (c)</xref>,gydF4y2Ba但图的干扰<xrefgydF4y2Baref-type="fig" rid="fig5c"> 5 (c)</xref>gydF4y2Ba明显低于图吗<xrefgydF4y2Baref-type="fig" rid="fig5b"> 5 (b)</xref>gydF4y2Ba。这也证明了关注模块可以指导网络突出的可见部分闭塞的脸,同时也减少背景噪声对检测性能的影响。</p><f我g-group id="fig5"> <label>图5</gydF4y2Balabel> <p>人脸检测的性能比较。(一)脸图像阻塞。(b)基线+ CA + SA。(c)基线+ SA。(d)基线+ CA。</p><f我g我d="fig5a"> <label>(一)</gydF4y2Balabel> <graphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.005a"></graphic> </fig> <fig id="fig5b"> <label>(b)</gydF4y2Balabel> <graphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.005b"></graphic> </fig> <fig id="fig5c"> <label>(c)</gydF4y2Balabel> <graphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.005c"></graphic> </fig> <fig id="fig5d"> <label>(d)</gydF4y2Balabel> <graphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.005d"></graphic> </fig> </fig-group> </sec> <sec id="sec4.4"> <title>4.4。人脸识别的性能分析</t我tle> <p>由于识别算法基于深度学习取得了伟大的成果在自然领域的形象,将使用一些经典深度学习算法与我们的算法进行比较。为了定性和定量分析的准确性为闭塞的人脸检测算法,本文选择比较算法作为FACEILD [<xrefgydF4y2Baref-type="bibr" rid="B35"> 35</xref>gydF4y2Ba],Faster-FCC [<xrefgydF4y2Baref-type="bibr" rid="B36"> 36</xref>gydF4y2Ba],KSDD [<xrefgydF4y2Baref-type="bibr" rid="B37"> 37</xref>gydF4y2Ba],DNET [<xrefgydF4y2Baref-type="bibr" rid="B14"> 14</xref>gydF4y2Ba],ResNet [<xrefgydF4y2Baref-type="bibr" rid="B7"> 7</xref>gydF4y2Ba),事先<xrefgydF4y2Baref-type="bibr" rid="B38"> 38</xref>gydF4y2Ba)进一步验证了该方法的性能。</p><p>gydF4y2Ba从实验结果表<xrefgydF4y2Baref-type="table" rid="tab3"> 3</xref>gydF4y2Ba可以看出,本文提出的人脸检测结果比DNET主要是由于人脸检测精度的提高注意力的感知融合模块和多尺度金字塔池的使用层捕获高层语义特征。互补特性可以有效地保护脸部清晰的边界,同时结合多个环节的输出和金字塔池层输出可以提取全局上下文信息丰富,适应两种人脸识别分类问题。沉重的数据集包含最复杂的面部图像在整个测试数据。面对严重堵塞,尤其是图像对比度小,脸是模糊的,这直接影响到网络的检测和识别效果。精度比较结果的表<xrefrefgydF4y2Ba-type="table" rid="tab3"> 3</xref>gydF4y2Ba可以看出,沉重的数据上的检出率最低主要是因为阻塞大大减少了深层网络的感知能力。然而,基于视觉的人脸检测attention-guided机制提出了也比其他网络。可以看出,我们的算法检测精度达到59.78%下沉重的评价标准,这是比的比较方法。的检测效率,探测和识别的速度输入图像分辨率为1024×2048是0.22秒,实现良好的速度和准确度之间的平衡。如果检测到一个较小的分辨率的输入图像,该方法的检测速度将进一步改善。</p><tgydF4y2Baable-wrap id="tab3"> <label>表3</gydF4y2Balabel> <p>识别率在不同的数据集。</p><tgydF4y2Baable> <thead> <tr> <th align="left" rowspan="2">数据集</th><thgydF4y2Baalign="center" colspan="7">模型</th></tr><tr> <th align="center">KSDD (%)</th><thgydF4y2Baalign="center">DNET (%)</th><thgydF4y2Baalign="center">ResNet (%)</th><thgydF4y2Baalign="center">事先(%)</th><thgydF4y2Baalign="center">Faster-FCC (%)</th><thgydF4y2Baalign="center">FACEILD (%)</th><thgydF4y2Baalign="center">提出(%)</th></tr></thead> <tbody> <tr> <td align="left">裸露的</tgydF4y2Bad> <td align="center">74.11</tgydF4y2Bad> <td align="center">85.47</tgydF4y2Bad> <td align="center">87.22</tgydF4y2Bad> <td align="center">86.28</tgydF4y2Bad> <td align="center">83.23</tgydF4y2Bad> <td align="center">90.15</tgydF4y2Bad> <td align="center"> <bold> 90.06</gydF4y2Babold></td> </tr> <tr> <td align="left">混合</tgydF4y2Bad> <td align="center">69.12</tgydF4y2Bad> <td align="center">78.22</tgydF4y2Bad> <td align="center">81.25</tgydF4y2Bad> <td align="center">87.24</tgydF4y2Bad> <td align="center">79.39</tgydF4y2Bad> <td align="center">87.09</tgydF4y2Bad> <td align="center"> <bold> 87.28</gydF4y2Babold></td> </tr> <tr> <td align="left">部分</tgydF4y2Bad> <td align="center">78.28</tgydF4y2Bad> <td align="center">85.28</tgydF4y2Bad> <td align="center">88.20</tgydF4y2Bad> <td align="center">85.69</tgydF4y2Bad> <td align="center">78.29</tgydF4y2Bad> <td align="center">88.36</tgydF4y2Bad> <td align="center"> <bold> 89.21</gydF4y2Babold></td> </tr> <tr> <td align="left">重</tgydF4y2Bad> <td align="center">51.91</tgydF4y2Bad> <td align="center">52.90</tgydF4y2Bad> <td align="center">59.75</tgydF4y2Bad> <td align="center">59.11</tgydF4y2Bad> <td align="center">52.44</tgydF4y2Bad> <td align="center">58.69</tgydF4y2Bad> <td align="center"> <bold> 59.51</gydF4y2Babold></td> </tr> </tbody> </table> </table-wrap> <p>在选择检测图像,脸的形状和规模有很大的不同,尤其是脸部灰度和邻背景是相似的。根据地图的最大响应分析,这些外表的变化不能得到准确的边界,导致事先,KSDD, FACEILD不能得到准确的脸。然而,它证明了面对严重阻塞,如变形和低对比度可以准确检测和识别。基于VGG KSDD是一个轻量级的网络结构网络。虽然它能平衡鲁棒性和速度之间的矛盾,仍然是容易被阻塞,导致偏差的检测中心。从检测结果可以看出,事先检测和识别已偏离中心。本文提出的模型使用attention-guided机制突出闭塞的视觉区域面临以便我们在本文算法能够更好地适应阻挡干涉人脸检测的影响。</p></年代ec><年代ec id="sec4.5"> <title>4.5。概括分析</t我tle> <p>为了验证该方法的泛化性能,该方法在伦敦时装周的训练集训练,和跨数据集实验进行CMUFD数据库。沉重的子集包括脸对象高度大于50像素的可见范围[0.20,0.65]。如图<xrefrefgydF4y2Ba-type="fig" rid="fig6"> 6</xref>gydF4y2Ba的统计结果,FPPI代表人脸检测和识别算法在不同的检测率。为了方便比较在不同深度网络,实验主要探讨FPPI = 1时每个算法的检测结果进行分析。ResNet算法的识别率为91.88%,KSSD算法的识别率为51.91%,和DenseNet算法的检测率仅为58.69%。原因是大多数深度检测方法只使用side-output特性而忽略全局结构特点的重要性。我们建议的论文使用视觉注意力机制指导模型强调阻塞对象可见区域和简化人脸检测和识别问题,通过一种改进的高层语义特征检测问题分析网络和使用激活地图预测的位置和规模,可以避免额外的参数设置和进一步减少每个图像的错误检测率。从图可以清楚地观察到<xrefrefgydF4y2Ba-type="fig" rid="fig6"> 6</xref>gydF4y2Ba该算法的性能显然是另一个算法。</p><f我g我d="fig6"> <label>图6</gydF4y2Balabel> <p>FPPI之间的关系曲线和识别率伦敦时装周的数据库。</p><grgydF4y2Baaphic xlink:href="//www.newsama.com/downloads/journals/sp/2020/8861987.fig.006"></graphic> </fig> </sec> </sec> <sec id="sec5"> <title>5。结论</t我tle> <p>人脸检测和识别的性能影响和损坏,因为阻塞经常导致漏检。为了提高人脸检测和识别的准确性,提出了一种视觉注意力机制指导模型,它使用视觉注意力机制指导模型突出了阻挡的可见区域的脸。人脸检测问题简化到高层语义特征检测问题通过分析改善网络,和脸的位置和规模预测的激活地图,以避免额外的参数设置。大量的仿真实验结果表明,我们的方法优于其他比较算法对遮挡人脸检测和识别的准确性在脸上数据库。此外,我们提出的方法之间实现更好的平衡精度和速度,可用于安全领域的监测。然而,该算法的性能对参数敏感,及其泛化不高。如何改善这个问题将更有利于模型应用于其他场景或数据。</p></年代ec><back> <sec sec-type="data-availability"> <title>数据可用性</t我tle> <p>所有数据用于支持本研究的发现文章中是可用的。</p></年代ec><年代ec sec-type="COI-statement"> <title>的利益冲突</t我tle> <p>作者宣称没有利益冲突。</p></年代ec><ack> <title>确认</t我tle> <p>这项工作是财政支持的重点项目广东省教育局(探索北斗+智能物流的培训和实践创新人才(2018 cslkt3 - 107)和北斗+区块链在公路运输中的应用(2018 gkqncx072))。</p></gydF4y2Baack> <ref-list> <ref id="B1" content-type="article"> <label>1</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Colmenarez</年代urname> <given-names> a·J。</g我ven-names> </name> <name> <surname> 黄</年代urname> <given-names> t·S。</g我ven-names> </name> </person-group> <article-title> 人脸检测和识别</gydF4y2Baarticle-title> <source> <italic> 北约ASI F系列计算机和系统科学</我talic> <year> 1998年</yegydF4y2Baar> <volume> 11</vogydF4y2Balume> <issue> 2</我年代年代ue> <fpage> 208年</fpgydF4y2Baage> <lpage> 218年</gydF4y2Balpage> </element-citation> </ref> <ref id="B2" content-type="article"> <label>2</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 近藤</年代urname> <given-names> T。</g我ven-names> </name> <name> <surname> 杨ydF4y2Ba</surname> <given-names> H。</g我ven-names> </name> </person-group> <article-title> 自动人脸检测和识别在非均匀照明</gydF4y2Baarticle-title> <source> <italic> 模式识别</我talic> <year> 1999年</yegydF4y2Baar> <volume> 32</vogydF4y2Balume> <issue> 10</我年代年代ue> <fpage> 1707年</fpgydF4y2Baage> <lpage> 1718年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1016 / s0031 - 3203 (98) 00176 - 9</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 0032667406</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B3" content-type="article"> <label>3</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Koh</年代urname> <given-names> l . H。</g我ven-names> </name> <name> <surname> Ranganath</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 马纳尔</年代urname> <given-names> y V。</g我ven-names> </name> </person-group> <article-title> 一个集成的自动人脸检测和识别系统</gydF4y2Baarticle-title> <source> <italic> 模式识别的模式识别的社会</我talic> <year> 2002年</yegydF4y2Baar> <volume> 35</vogydF4y2Balume> <issue> 6</我年代年代ue> <fpage> 1259年</fpgydF4y2Baage> <lpage> 1273年</gydF4y2Balpage> </element-citation> </ref> <ref id="B4" content-type="article"> <label>4</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 乔杜里</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 钱德拉</年代urname> <given-names> R。</g我ven-names> </name> </person-group> <article-title> 人脸检测和识别在一个不受约束的环境中移动视觉辅助系统</gydF4y2Baarticle-title> <source> <italic> 应用软计算</我talic> <year> 2017年</yegydF4y2Baar> <volume> 53</vogydF4y2Balume> <fpage> 168年</fpgydF4y2Baage> <lpage> 180年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1016 / j.asoc.2016.12.035</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85009364988</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B5" content-type="article"> <label>5</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Siddiqi</年代urname> <given-names> m . H。</g我ven-names> </name> <name> <surname> 阿里</年代urname> <given-names> R。</g我ven-names> </name> <name> <surname> 汗</年代urname> <given-names> a . M。</g我ven-names> </name> <name> <surname> 金</年代urname> <given-names> 大肠。</g我ven-names> </name> <name> <surname> 金</年代urname> <given-names> g . J。</g我ven-names> </name> <name> <surname> 李</年代urname> <given-names> 年代。</g我ven-names> </name> </person-group> <article-title> 面部表情识别使用活跃contour-based人脸检测、迁移型面部特征提取和非线性特征选择</gydF4y2Baarticle-title> <source> <italic> 多媒体系统</我talic> <year> 2015年</yegydF4y2Baar> <volume> 21</vogydF4y2Balume> <issue> 6</我年代年代ue> <fpage> 541年</fpgydF4y2Baage> <lpage> 555年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1007 / s00530 - 014 - 0400 - 2</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84942195363</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B6" content-type="article"> <label>6</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 张</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 朱</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> Lei</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> 史</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 李</年代urname> <given-names> 美国Z。</g我ven-names> </name> </person-group> <article-title> 检测面对人口面临建议网络连接</gydF4y2Baarticle-title> <source> <italic> Neurocomputing</我talic> <year> 2018年</yegydF4y2Baar> <volume> 284年</vogydF4y2Balume> <fpage> 119年</fpgydF4y2Baage> <lpage> 127年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1016 / j.neucom.2018.01.012</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85041632920</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B7" content-type="article"> <label>7</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 凌</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 吴</年代urname> <given-names> J。</g我ven-names> </name> <name> <surname> 黄</年代urname> <given-names> J。</g我ven-names> </name> <name> <surname> 程ydF4y2Ba</surname> <given-names> J。</g我ven-names> </name> <name> <surname> 李</年代urname> <given-names> P。</g我ven-names> </name> </person-group> <article-title> 以卷积神经网络的人脸识别</gydF4y2Baarticle-title> <source> <italic> 多媒体工具和应用程序</我talic> <year> 2020年</yegydF4y2Baar> <volume> 79年</vogydF4y2Balume> <issue> 9 - 10</我年代年代ue> <fpage> 5595年</fpgydF4y2Baage> <lpage> 5616年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1007 / s11042 - 019 - 08422 - 2</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B8" content-type="article"> <label>8</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 王</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 张</年代urname> <given-names> d S。</g我ven-names> </name> <name> <surname> 苗族</年代urname> <given-names> z H。</g我ven-names> </name> </person-group> <article-title> 与单样本人脸识别人均使用HOG-LDB和SVDL</gydF4y2Baarticle-title> <source> <italic> 图像与视频处理的信号</我talic> <year> 2019年</yegydF4y2Baar> <volume> 13</vogydF4y2Balume> <issue> 19</我年代年代ue> <pub-id pub-id-type="doi"> 10.1007 / s11760 - 019 - 01436 - 1</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85061474847</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B9" content-type="article"> <label>9</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 克鲁</年代urname> <given-names> s . L。</g我ven-names> </name> <name> <surname> Albonico</年代urname> <given-names> 一个。</g我ven-names> </name> <name> <surname> 巴顿</年代urname> <given-names> j。j。</g我ven-names> </name> </person-group> <article-title> 面孔失认症诊断:实用的视觉噪音在剑桥人脸识别测试</gydF4y2Baarticle-title> <source> <italic> 感知</我talic> <year> 2018年</yegydF4y2Baar> <volume> 47</vogydF4y2Balume> <issue> 3</我年代年代ue> <fpage> 330年</fpgydF4y2Baage> <lpage> 343年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1177 / 0301006617750045</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85042507457</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B10" content-type="article"> <label>10</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Abbad</年代urname> <given-names> 一个。</g我ven-names> </name> <name> <surname> Elharrouss</年代urname> <given-names> O。</g我ven-names> </name> <name> <surname> Abbad</年代urname> <given-names> K。</g我ven-names> </name> <name> <surname> Tairi</年代urname> <given-names> H。</g我ven-names> </name> </person-group> <article-title> meemd在后处理中的应用降维的人脸识别的方法</gydF4y2Baarticle-title> <source> <italic> 专业生物识别技术</我talic> <year> 2019年</yegydF4y2Baar> <volume> 8</vogydF4y2Balume> <issue> 1</我年代年代ue> <fpage> 59</fpgydF4y2Baage> <lpage> 68年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1049 / iet-bmt.2018.5033</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85059528430</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B11" content-type="article"> <label>11</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Madhavan</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 库马尔</年代urname> <given-names> N。</g我ven-names> </name> </person-group> <article-title> 增量方法在人脸识别:一项调查</gydF4y2Baarticle-title> <source> <italic> 人工智能审查</我talic> <year> 2019年</yegydF4y2Baar> <volume> 284年</vogydF4y2Balume> <issue> 5</我年代年代ue> <fpage> 119年</fpgydF4y2Baage> <lpage> 127年</gydF4y2Balpage> </element-citation> </ref> <ref id="B12" content-type="article"> <label>12</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 苏</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 刘</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> M。</g我ven-names> </name> </person-group> <article-title> 稀疏表示的人脸识别和表情和照明</gydF4y2Baarticle-title> <source> <italic> 专业图像处理</我talic> <year> 2018年</yegydF4y2Baar> <volume> 12</vogydF4y2Balume> <issue> 5</我年代年代ue> <fpage> 826年</fpgydF4y2Baage> <lpage> 832年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1049 / iet-ipr.2017.0757</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85045927774</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B13" content-type="article"> <label>13</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 杨ydF4y2Ba</surname> <given-names> l . I。</g我ven-names> </name> <name> <surname> 商ydF4y2Ba</surname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> R。</g我ven-names> </name> <name> <surname> 崔</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 程ydF4y2Ba</surname> <given-names> X。</g我ven-names> </name> </person-group> <article-title> 融合幅度和相位特性与多个人脸模型的人脸识别</gydF4y2Baarticle-title> <source> <italic> 计算机科学的前沿</我talic> <year> 2018年</yegydF4y2Baar> <volume> 12</vogydF4y2Balume> <issue> 6</我年代年代ue> <pub-id pub-id-type="doi"> 10.1007 / s11704 - 017 - 6275 - 6</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85049181162</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B14" content-type="article"> <label>14</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 张</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 商</年代urname> <given-names> K。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> J。</g我ven-names> </name> <name> <surname> 李</年代urname> <given-names> N。</g我ven-names> </name> <name> <surname> 张</年代urname> <given-names> m . m . Y。</g我ven-names> </name> </person-group> <article-title> 补丁深人脸识别的策略</gydF4y2Baarticle-title> <source> <italic> 专业图像处理</我talic> <year> 2018年</yegydF4y2Baar> <volume> 12</vogydF4y2Balume> <issue> 5</我年代年代ue> <fpage> 819年</fpgydF4y2Baage> <lpage> 825年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1049 / iet-ipr.2017.1085</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85045891207</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B15" content-type="article"> <label>15</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 江</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 钟</年代urname> <given-names> F.-L。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 邓</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> J。</g我ven-names> </name> <name> <surname> 钱</年代urname> <given-names> P。</g我ven-names> </name> </person-group> <article-title> 合作从多个加权模糊聚类视图</gydF4y2Baarticle-title> <source> <italic> IEEE控制论</我talic> <year> 2015年</yegydF4y2Baar> <volume> 45</vogydF4y2Balume> <issue> 4</我年代年代ue> <fpage> 688年</fpgydF4y2Baage> <lpage> 701年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1109 / tcyb.2014.2334595</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84925186551</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B16" content-type="article"> <label>16</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 张</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 黄</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 余</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> l</g我ven-names> </name> </person-group> <article-title> 学习Cross-view步态识别的区别的特征</gydF4y2Baarticle-title> <source> <italic> IEEE图像处理</我talic> <year> 2019年</yegydF4y2Baar> <volume> 99年</vogydF4y2Balume> <fpage> 1001年</fpgydF4y2Baage> <lpage> 1015年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1109 / tip.2019.2926208</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B17" content-type="article"> <label>17</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 刘</年代urname> <given-names> l</g我ven-names> </name> <name> <surname> Fieguth</年代urname> <given-names> P。</g我ven-names> </name> <name> <surname> 赵</年代urname> <given-names> G。</g我ven-names> </name> <name> <surname> Pietikainen</年代urname> <given-names> M。</g我ven-names> </name> <name> <surname> 胡</年代urname> <given-names> D。</g我ven-names> </name> </person-group> <article-title> 人脸识别局部二进制模式</gydF4y2Baarticle-title> <source> <italic> 信息科学</我talic> <year> 2016年</yegydF4y2Baar> <volume> 24</vogydF4y2Balume> <issue> 5</我年代年代ue> <fpage> 25</fpgydF4y2Baage> <lpage> 37</gydF4y2Balpage> </element-citation> </ref> <ref id="B18" content-type="article"> <label>18</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 邵</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 程ydF4y2Ba</surname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 赵</年代urname> <given-names> J。</g我ven-names> </name> <name> <surname> 崔</年代urname> <given-names> W。</g我ven-names> </name> <name> <surname> Tianshu</年代urname> <given-names> y U。</g我ven-names> </name> </person-group> <article-title> 人脸识别基于子集选择通过度量学习多方面的</gydF4y2Baarticle-title> <source> <italic> 前沿的信息技术和电子工程</我talic> <year> 2015年</yegydF4y2Baar> <volume> 16</vogydF4y2Balume> <issue> 12</我年代年代ue> <fpage> 102年</fpgydF4y2Baage> <lpage> 118年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1631 / fitee.1500085</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84949458199</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B19" content-type="article"> <label>19</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Bobak</年代urname> <given-names> 答:K。</g我ven-names> </name> <name> <surname> Dowsett</年代urname> <given-names> a·J。</g我ven-names> </name> <name> <surname> 软化</年代urname> <given-names> 年代。</g我ven-names> </name> </person-group> <article-title> 解决边界控制问题:增强面对个人匹配的证据以非凡的面孔识别技能</gydF4y2Baarticle-title> <source> <italic> 《公共科学图书馆•综合》</我talic> <year> 2016年</yegydF4y2Baar> <volume> 11</vogydF4y2Balume> <issue> 2</我年代年代ue> <pub-id pub-id-type="publisher-id"> e0148148</pgydF4y2Baub-id> <pub-id pub-id-type="doi"> 10.1371 / journal.pone.0148148</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84958818559</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B20" content-type="article"> <label>20.</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 刘</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> 菅直人</年代urname> <given-names> M。</g我ven-names> </name> <name> <surname> 吴</年代urname> <given-names> W。</g我ven-names> </name> <name> <surname> 商ydF4y2Ba</surname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 程ydF4y2Ba</surname> <given-names> X。</g我ven-names> </name> </person-group> <article-title> Viplfacenet:一个开放源码的人脸识别sdk</gydF4y2Baarticle-title> <source> <italic> 计算机科学的前沿</我talic> <year> 2017年</yegydF4y2Baar> <volume> 11</vogydF4y2Balume> <issue> 2</我年代年代ue> <fpage> 208年</fpgydF4y2Baage> <lpage> 218年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1007 / s11704 - 016 - 6076 - 3</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85010756784</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B21" content-type="article"> <label>21</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Rikhtegar</年代urname> <given-names> 一个。</g我ven-names> </name> <name> <surname> Pooyan</年代urname> <given-names> M。</g我ven-names> </name> <name> <surname> Manzuri-Shalmani</年代urname> <given-names> m . T。</g我ven-names> </name> </person-group> <article-title> 遗传algorithm-optimised卷积神经网络对于人脸识别应用程序的结构</gydF4y2Baarticle-title> <source> <italic> 专业计算机视觉</我talic> <year> 2016年</yegydF4y2Baar> <volume> 10</vogydF4y2Balume> <issue> 6</我年代年代ue> <fpage> 559年</fpgydF4y2Baage> <lpage> 566年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1049 / iet-cvi.2015.0037</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84984699027</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B22" content-type="article"> <label>22</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 赵</年代urname> <given-names> J。</g我ven-names> </name> <name> <surname> Lv</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 周</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 曹</年代urname> <given-names> F。</g我ven-names> </name> </person-group> <article-title> 小说深刻学习不完整的人脸识别算法:low-rank-recovery网络</gydF4y2Baarticle-title> <source> <italic> 神经网络:国际神经网络协会的官方杂志</我talic> <year> 2017年</yegydF4y2Baar> <volume> 94年</vogydF4y2Balume> <fpage> 115年</fpgydF4y2Baage> <lpage> 124年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1016 / j.neunet.2017.06.013</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85026459206</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B23" content-type="article"> <label>23</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 程</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 李</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 焦</年代urname> <given-names> l</g我ven-names> </name> <name> <surname> 陆</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 曹</年代urname> <given-names> X。</g我ven-names> </name> </person-group> <article-title> 增强视网膜模型的人脸识别和面部特征点在复杂光照条件下检测</gydF4y2Baarticle-title> <source> <italic> 电子杂志的成像</我talic> <year> 2016年</yegydF4y2Baar> <volume> 25</vogydF4y2Balume> <issue> 4</我年代年代ue> <pub-id pub-id-type="publisher-id"> 043028年</pgydF4y2Baub-id> <pub-id pub-id-type="doi"> 10.1117/1. jei.25.4.043028</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84990058373</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B24" content-type="article"> <label>24</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Sarfraz</年代urname> <given-names> m . S。</g我ven-names> </name> <name> <surname> Stiefelhagen</年代urname> <given-names> R。</g我ven-names> </name> </person-group> <article-title> 深度知觉映射为跨通道的人脸识别</gydF4y2Baarticle-title> <source> <italic> 国际计算机视觉杂志》上</我talic> <year> 2016年</yegydF4y2Baar> <volume> 96年</vogydF4y2Balume> <issue> 8</我年代年代ue> <fpage> 125058年</fpgydF4y2Baage> </element-citation> </ref> <ref id="B25" content-type="article"> <label>25</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 越南盾</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> 张</年代urname> <given-names> H。</g我ven-names> </name> </person-group> <article-title> 加权邻居稀疏的基于子空间的人脸识别的协作表示</gydF4y2Baarticle-title> <source> <italic> 计算和理论纳米科学杂志》上</我talic> <year> 2017年</yegydF4y2Baar> <volume> 14</vogydF4y2Balume> <issue> 4</我年代年代ue> <fpage> 1906年</fpgydF4y2Baage> <lpage> 1913年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1166 / jctn.2017.6522</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85021282512</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B26" content-type="article"> <label>26</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 卢</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> 赵</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> 壮族</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 余</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 张</年代urname> <given-names> 年代。</g我ven-names> </name> </person-group> <article-title> 对人脸识别图正规化稀疏判别分析</gydF4y2Baarticle-title> <source> <italic> Neurocomputing</我talic> <year> 2015年</yegydF4y2Baar> <volume> 173年</vogydF4y2Balume> <issue> P2</我年代年代ue> <fpage> 290年</fpgydF4y2Baage> <lpage> 297年</gydF4y2Balpage> </element-citation> </ref> <ref id="B27" content-type="article"> <label>27</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 帕蒂尔</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> Kothari</年代urname> <given-names> 一个。</g我ven-names> </name> <name> <surname> Bhurchandi</年代urname> <given-names> K。</g我ven-names> </name> </person-group> <article-title> 表情不变的面孔识别使用semidecimated dwt, patch-ldsmt特性和分数级融合</gydF4y2Baarticle-title> <source> <italic> 应用智能</我talic> <year> 2015年</yegydF4y2Baar> <volume> 44</vogydF4y2Balume> <issue> 4</我年代年代ue> <fpage> 913年</fpgydF4y2Baage> <lpage> 930年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1007 / s10489 - 015 - 0735 - 1</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84950247323</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B28" content-type="article"> <label>28</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 史</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> 易</年代urname> <given-names> D。</g我ven-names> </name> <name> <surname> Lei</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 朱</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> 李</年代urname> <given-names> 美国Z。</g我ven-names> </name> </person-group> <article-title> 通过异构联合贝叶斯交叉模式人脸识别</gydF4y2Baarticle-title> <source> <italic> IEEE信号处理信件</我talic> <year> 2017年</yegydF4y2Baar> <volume> 24</vogydF4y2Balume> <issue> 1</我年代年代ue> <fpage> 81年</fpgydF4y2Baage> <lpage> 85年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1109 / lsp.2016.2637400</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85014912931</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B29" content-type="article"> <label>29日</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 陆</年代urname> <given-names> g F。</g我ven-names> </name> <name> <surname> 王</年代urname> <given-names> Y。</g我ven-names> </name> <name> <surname> 邹</年代urname> <given-names> J。</g我ven-names> </name> </person-group> <article-title> 图最大的保证金标准人脸识别</gydF4y2Baarticle-title> <source> <italic> 神经处理信件</我talic> <year> 2015年</yegydF4y2Baar> <volume> 44</vogydF4y2Balume> <issue> 2</我年代年代ue> <fpage> 1258年</fpgydF4y2Baage> <lpage> 1268年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1007 / s11063 - 015 - 9464 - z</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84939608362</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B30" content-type="article"> <label>30.</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 跑</年代urname> <given-names> H。</g我ven-names> </name> <name> <surname> 香</年代urname> <given-names> W。</g我ven-names> </name> <name> <surname> Zhenan</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> Tieniu</年代urname> <given-names> T。</g我ven-names> </name> </person-group> <article-title> 瓦瑟斯坦CNN:学习不变NIR-VIS面部识别功能</gydF4y2Baarticle-title> <source> <italic> IEEE模式分析与机器智能</我talic> <year> 2018年</yegydF4y2Baar> <volume> 41</vogydF4y2Balume> <issue> 7</我年代年代ue> <fpage> 1761年</fpgydF4y2Baage> <lpage> 1773年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1109 / tpami.2018.2842770</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85048009600</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B31" content-type="inproceedings"> <label>31日</gydF4y2Balabel> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Karahan</年代urname> <given-names> 年代。</g我ven-names> </name> <name> <surname> Yildirim</年代urname> <given-names> m·K。</g我ven-names> </name> <name> <surname> Kirtac</年代urname> <given-names> K。</g我ven-names> </name> <name> <surname> 仁德</年代urname> <given-names> f·S。</g我ven-names> </name> <name> <surname> Ekenel</年代urname> <given-names> h·K。</g我ven-names> </name> </person-group> <article-title> 图像退化如何影响深CNN-based人脸识别?</gydF4y2Baarticle-title> <volume> 12</vogydF4y2Balume> <conf-name> 学报2016年生物识别技术特殊利益集团的国际会议(BIOSIG)</confgydF4y2Ba-name> <conf-date> 2016年9月</confgydF4y2Ba-date> <conf-loc> 达姆施塔特,德国</confgydF4y2Ba-loc> <issue> 14</我年代年代ue> <fpage> 6</fpgydF4y2Baage> <lpage> 23</gydF4y2Balpage> </element-citation> </ref> <ref id="B32" content-type="inproceedings"> <label>32</gydF4y2Balabel> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 王</年代urname> <given-names> J。</g我ven-names> </name> <name> <surname> 李</年代urname> <given-names> Z。</g我ven-names> </name> </person-group> <article-title> 根据CNN对人脸识别的研究</gydF4y2Baarticle-title> <conf-name> 诉讼的IOP会议</confgydF4y2Ba-name> <conf-date> 2018年9月</confgydF4y2Ba-date> <conf-loc> 澳大利亚墨尔本</confgydF4y2Ba-loc> <fpage> 170年</fpgydF4y2Baage> <lpage> 177年</gydF4y2Balpage> </element-citation> </ref> <ref id="B33" content-type="article"> <label>33</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Matsugu</年代urname> <given-names> M。</g我ven-names> </name> <name> <surname> 森</年代urname> <given-names> K。</g我ven-names> </name> <name> <surname> 铃木</年代urname> <given-names> T。</g我ven-names> </name> </person-group> <article-title> 人脸识别使用svm结合CNN进行人脸检测</gydF4y2Baarticle-title> <source> <italic> 在计算机科学的课堂讲稿</我talic> <year> 2004年</yegydF4y2Baar> <volume> 253年</vogydF4y2Balume> <issue> 251年</我年代年代ue> <fpage> 1</fpgydF4y2Baage> </element-citation> </ref> <ref id="B34" content-type="article"> <label>34</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 京</年代urname> <given-names> l</g我ven-names> </name> <name> <surname> 道</年代urname> <given-names> Q。</g我ven-names> </name> <name> <surname> 常</年代urname> <given-names> W。</g我ven-names> </name> <name> <surname> 凯</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> Fang-Qing</年代urname> <given-names> W。</g我ven-names> </name> </person-group> <article-title> 使用深C2D-CNN模型的人脸识别基于决策级融合</gydF4y2Baarticle-title> <source> <italic> 传感器</我talic> <year> 2018年</yegydF4y2Baar> <volume> 18</vogydF4y2Balume> <issue> 7</我年代年代ue> <fpage> 2080年</fpgydF4y2Baage> <lpage> 2093年</gydF4y2Balpage> </element-citation> </ref> <ref id="B35" content-type="article"> <label>35</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 杨</年代urname> <given-names> y . X。</g我ven-names> </name> <name> <surname> 温</年代urname> <given-names> C。</g我ven-names> </name> <name> <surname> 谢</年代urname> <given-names> K。</g我ven-names> </name> <name> <surname> 温</年代urname> <given-names> f . Q。</g我ven-names> </name> <name> <surname> 盛</年代urname> <given-names> g . Q。</g我ven-names> </name> <name> <surname> 唐</年代urname> <given-names> x G。</g我ven-names> </name> </person-group> <article-title> 人脸识别使用SR-CNN模型</gydF4y2Baarticle-title> <source> <italic> 传感器</我talic> <year> 2018年</yegydF4y2Baar> <volume> 18</vogydF4y2Balume> <issue> 12</我年代年代ue> <fpage> 1</fpgydF4y2Baage> <pub-id pub-id-type="doi"> 10.3390 / s18124237</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85058119464</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B36" content-type="article"> <label>36</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Rikhtegar</年代urname> <given-names> 一个。</g我ven-names> </name> <name> <surname> Pooyan</年代urname> <given-names> M。</g我ven-names> </name> <name> <surname> Manzuri-Shalmani</年代urname> <given-names> m . T。</g我ven-names> </name> </person-group> <article-title> GA-optimized cnn人脸识别应用程序的结构</gydF4y2Baarticle-title> <source> <italic> 专业计算机视觉</我talic> <year> 2016年</yegydF4y2Baar> <volume> 10</vogydF4y2Balume> <issue> 6</我年代年代ue> <fpage> 559年</fpgydF4y2Baage> <lpage> 566年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1049 / iet-cvi.2015.0037</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84984699027</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B37" content-type="article"> <label>37</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Samik</年代urname> <given-names> B。</g我ven-names> </name> <name> <surname> Sukhendu</年代urname> <given-names> D。</g我ven-names> </name> </person-group> <article-title> 相互变化的信息对人脸识别transfer-CNN退化调查样本</gydF4y2Baarticle-title> <source> <italic> Neurocomputing</我talic> <year> 2018年</yegydF4y2Baar> <volume> 310年</vogydF4y2Balume> <fpage> 299年</fpgydF4y2Baage> <lpage> 315年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1016 / j.neucom.2018.05.038</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85048544747</pgydF4y2Baub-id> </element-citation> </ref> <ref id="B38" content-type="article"> <label>38</gydF4y2Balabel> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 陆</年代urname> <given-names> Z。</g我ven-names> </name> <name> <surname> 江</年代urname> <given-names> X。</g我ven-names> </name> <name> <surname> 科特</年代urname> <given-names> 一个。</g我ven-names> </name> </person-group> <article-title> 在人脸识别特征融合与协方差矩阵正则化</gydF4y2Baarticle-title> <source> <italic> 信号处理</我talic> <year> 2018年</yegydF4y2Baar> <volume> 144年</vogydF4y2Balume> <fpage> 296年</fpgydF4y2Baage> <lpage> 305年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1016 / j.sigpro.2017.10.024</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85032345568</pgydF4y2Baub-id> </element-citation> </ref> </ref-list> </back> </article> </body> </html>