复杂性 复杂性 1099 - 0526 1076 - 2787 Hindawi 10.1155 / 2020/5836596 5836596 研究文章 DTFA-Net:动态和纹理特征融合Antispoofing关注网络的脸 https://orcid.org/0000 - 0001 - 7158 - 9682 1 https://orcid.org/0000 - 0001 - 5972 - 2890 红飞 1 https://orcid.org/0000 - 0002 - 0452 - 4720 Jingmei 2 https://orcid.org/0000 - 0002 - 0378 - 8310 回族 1 https://orcid.org/0000 - 0002 - 0116 - 5988 Xiangmo 1 伊琳 3 4 Lv Zhihan 1 信息工程学院 长安大学 西安710064年 中国 chd.edu.cn 2 电子与控制工程学院 长安大学 西安710064年 中国 chd.edu.cn 3 西安大学的体系结构和技术 西安 中国 xauat.edu.cn 4 南澳大利亚大学德学院 阿德莱德 澳大利亚 unisa.edu.au 2020年 10<米onth> 7 2020年 2020年 18<米onth> 05年 2020年 16<米onth> 06 2020年 10<米onth> 7 2020年 2020年 版权©2020年鑫程等。 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

对于人脸识别系统,活性检测可以有效地避免非法欺诈和提高人脸识别系统的安全性。常见的脸攻击包括打印照片和视频重播攻击。本文研究了差异照片,视频,和真正的面孔在静态结构和运动信息,提出了一种生活检测结构基于特征融合和注意力机制,动态和纹理融合网络(DTFA-Net)的关注。我们提出了一个动态的信息融合结构的河道间关注块融合光流的大小和方向提取面部运动特征。此外,对于猪算法复杂光照下的人脸检测失败,我们提出了一个改进的射线图像预处理算法,有效地提高了人脸检测的能力。我们进行了实验CASIA-MFSD和再现攻击数据库。根据实验,DTFA-Net提出了实现ht CASIA曾经6.9%和2.2%在与其他方法的重放攻击。

中国国家重点研究和发展项目 2018年yfb1600600 中国国家自然科学基金 51278058 111年汽车基础设施提供商传感及其项目信息 B14043 陕西省自然科学基础研究计划 2019年纽约- 163 2020 gy - 018 联合实验室网络的车辆,Education-China部移动通信公司 213024170015 长安大学 300102329101 300102249101
1。介绍</t我tle> <p>在识别与人脸识别技术的应用场景,如访问安全检查和付款,攻击和欺诈的方法对人脸识别系统也出现。脸显然是一个更容易的方法盗取身份信息比虹膜、指纹等生物特征。攻击者可以很容易地偷图片或视频的合法用户在社交网站上,然后启动打印或重放攻击的人脸识别系统。一些人脸验证系统使用技术,如跟踪定位要点在脸上,要求用户完成操作如眨眼,摇头,大声朗读文本和使用运动检测来确定当前图像是一个真正的脸。这种方法不适合无声检测场景。此外,一些研究人员使用红外摄像机、深度相机,和其他传感器收集不同的脸图像实现生活模式检测(<xref ref-type="bibr" rid="B1"> 1</xref>- - - - - -<xref ref-type="bibr" rid="B3"> 3</xref>]。在许多情况下这些方法展示优秀的性能但需要添加信息采集设备除了相机人脸识别设备,需要投入额外的硬件成本,不能满足一些移动设备的需求。在这篇文章中,我们将研究单眼静态和沉默的生活通过分析检测和实现生活检测任务的区别真正的脸和假脸图像纹理,面部结构、动作的变化,等等。</p> <p>真正面对图像通常是直接由摄像机拍摄的,而攻击面对图片收集了许多倍。如图<xref ref-type="fig" rid="fig1"> 1</xref>假脸图像可能显示图像的纹理载体本身,和光线地区大型区别真正的脸图像也很容易出现假脸图像。根据这一点,研究人员提出了许多特征描述符描述的生活质感的脸,然后实施分类培训模型,如支持向量机和LDA分类器。为了描述高语义特征的脸住身体,深层神经网络应用在特征提取过程中进一步加强生活的性能检测。脸的特性包括在当地通常可以作为生活的一个重要基础检测和扮演不同的角色,如图<xref ref-type="fig" rid="fig2"> 2</xref>。在此基础上,一些研究人员(<xref ref-type="bibr" rid="B4"> 4</xref>,<xref ref-type="bibr" rid="B5"> 5</xref>)分解面临到不同地区通过神经网络来提取特征,然后拼接实现功能。</p> <fig id="fig1"> <label>图1</label> <p>面对印刷和再现攻击的图像。面对攻击已经收集了许多次,显示纹理特征的区别,光,图像质量,真正的脸。</p> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.001"></graphic> </fig> <fig id="fig2"> <label>图2</label> <p>神经网络权重可视化的一层深度真实的纹理信息提取。面对不同区域在生活中占据不同的权重检测任务。</p> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.002"></graphic> </fig> <p>最假的脸难以模拟真实面孔的生命体征,如头部运动,嘴唇蠕动,闪烁。与此同时,由于背景噪音,皮肤纹理,和其他因素,真正的脸在某些频段的动态特性明显高于欺诈性的脸,它提供了区分真正的脸从欺诈的基础。光流场的变化是这类算法的一个重要基础。然而,运动所产生的动态信息和弯曲的照片会影响生命信号的提取。远程photoplethysmography (rPPG)是另一种有效的非接触生活信号提取方法,它提供了一种依据脸生活检测通过观察图像计算血流量和流速的变化(<xref ref-type="bibr" rid="B6"> 6</xref>,<xref ref-type="bibr" rid="B7"> 7</xref>),但rPPG方法算法应用程序环境有严格的要求。</p> <p>这项工作提出了一个网络融合动态和纹理信息代表的脸和检测到的攻击。光流法计算面临的两个相邻帧图像的运动变化。光学流产生的弯曲和运动的照片不同于生成的光流运动的真实面对的方向位移。我们使用一个简单的卷积神经网络具有相同的结构来描述位移的大小和方向。然后,融合功能模块是专为上述两种表示形式的组合,在此基础上,可以进一步提取面部运动特性。此外,RGB图像用于提取脸部区域的纹理信息。通过给不同的注意的部分的脸,我们提高了网络的能力代表生活的面孔。</p> <p>人脸检测算法广泛应用于活体检测任务,可用于定位的脸,从而消除背景干扰的活体检测的信息。本文对人脸检测场景复杂的照明下,我们提出一种改进的图像预处理算法结合局部对比度面对区域,这有效地提高了人脸检测算法的性能。</p> </sec> <sec id="sec2"> <title>2。相关的工作</t我tle> <sec id="sec2.1"> <title>2.1。结构的基础</t我tle> <p>生活验证完成通过使用之间的区别真正的面对表面纹理和重放图像,三维结构,图像质量,等等。Boulkenafet et al。<xref ref-type="bibr" rid="B8"> 8</xref>]分析了色度和亮度区别真实和虚假的脸的图片,它是基于局部二进制模式,颜色和每个订单的特征直方图图像提取频带是面部纹理表示。最后,实现了支持向量机的分类,在重放攻击和测试数据集获得了一半的错误率;它是2.9%。Galbally et al。<xref ref-type="bibr" rid="B9"> 9</xref>]证明了图像质量损失值由高斯滤波能有效区分事实与欺诈的脸图像,设计了一个包含14个指标的质量评价向量,提出了一种实时检测方法,该方法结合LDA(线性判别分析),并获得15.2%的错误率一半重放攻击数据集。然而,这种方法基于静态特征往往需要特定的设计描述特定类型的攻击,和不同光照条件下鲁棒性差和不同的欺诈运营商(<xref ref-type="bibr" rid="B10"> 10</xref>]。</p> </sec> <sec id="sec2.2"> <title>2.2。基于动态</t我tle> <p>一些研究人员提出了一个面对生活基于动态特性的检测算法通过分析面对运动模式和显示良好的性能在相关数据集(<xref ref-type="bibr" rid="B11"> 11</xref>]。金等。<xref ref-type="bibr" rid="B12"> 12</xref>)设计了一个当地的速度模式估计的光速和杰出的欺诈真正面对根据光之间的扩散速度的差异在真正的脸和欺诈载体表面。一半错误率是获得12.50%的重放攻击数据集。Bharadwaj et al。<xref ref-type="bibr" rid="B13"> 13</xref>]闪烁信号放大图像中0.2 - -0.5赫兹的欧拉运动放大算法,结合局部二进制模式与定向流直方图(LBP-HOOF)提取动态特性分类基础,获得错误率1.25%的重放攻击数据集。同时,他们证明了图像放大算法的积极影响算法的性能。Freitas et al。<xref ref-type="bibr" rid="B14"> 14</xref>从面部表情检测方法,提取正交平面上的特征直方图time-spatial域利用LBP-TOP运营商,使用支持向量机进行分类,得到7.6%的错误率一半重放攻击数据集。晓光et al。<xref ref-type="bibr" rid="B15"> 15</xref>]基于相邻帧之间的行动信息建立了CNN-LSTM网络模型,利用卷积神经网络提取相邻帧的脸图像的纹理特征,然后输入它的长期和短期内存结构学习面对视频的时域行动信息。</p> <p>此外,一些研究人员结合不同的检测设备或系统模块融合不同层次的信息,这有效地提高生活检测的准确性(<xref ref-type="bibr" rid="B1"> 1</xref>,<xref ref-type="bibr" rid="B16"> 16</xref>]。小张和小王<xref ref-type="bibr" rid="B17"> 17</xref>)使用英特尔RealSense SR300相机构建多通道图像数据库包括RGB图像,图像深度(深度)和红外(IR)形象。面对区域准确定位使用面临3 d重建网络PRNet [<xref ref-type="bibr" rid="B18"> 18</xref>]和掩码操作,然后根据ResNet 18分类(<xref ref-type="bibr" rid="B19"> 19</xref>网络多通道数据的提取和融合特征混合RGB,深度,和红外光谱。</p> </sec> </sec> <sec id="sec3"> <title>3所示。该方法</t我tle> <sec id="sec3.1"> <title>3.1。人脸检测在复杂的照明</t我tle> <p>为了消除背景干扰的生活信息提取的过程中,有必要对部分区域的图像。传统的检测技术可以分为三类:基于特征的人脸检测、人脸检测基于模板和基于统计的人脸检测。本文运用脸前检测Dlib提供的API,它使用梯度方向直方图特性来实现人脸检测。人脸检测算法基于梯度方向直方图可以保持良好的不变性的图像纹理和光学变形,忽略了轻微的纹理和表达的变化。</p> <p>面向梯度直方图(猪)是一种方法来描述图像的局部纹理特征。该算法将图像划分为小空间,每个空间计算像素点的梯度。所示的像素点梯度计算以下方程:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M1"> <mml:mtable> <mml:mlabeledtr id="EEq1"> <mml:mtd> <mml:mtext> (1)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mi> G</米米l:mi> <mml:mi> x</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> +</米米l:mo> <mml:mn> 1</米米l:mn> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> −</米米l:mo> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> −</米米l:mo> <mml:mn> 1</米米l:mn> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> <mml:mlabeledtr id="EEq2"> <mml:mtd> <mml:mtext> (2)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mi> G</米米l:mi> <mml:mi> y</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> <mml:mo> +</米米l:mo> <mml:mn> 1</米米l:mn> </mml:mrow> </mml:mfenced> <mml:mo> −</米米l:mo> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> <mml:mo> −</米米l:mo> <mml:mn> 1</米米l:mn> </mml:mrow> </mml:mfenced> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M2"> <mml:mi> G</米米l:mi> <mml:mi> x</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M3"> <mml:mi> G</米米l:mi> <mml:mi> y</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>水平梯度和垂直梯度的吗<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M4"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>的图像,分别<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M5"> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>灰度值。在现实中,当地的阴影或曝光过度,会影响图像梯度信息的提取,因为目标将会出现在不同的光环境,如图<xref ref-type="fig" rid="fig3"> 3</xref>。为了提高猪的健壮性特征描述符环境变化和减少图像的噪声,如当地的影子,一个伽马校正算法对图像进行预处理,消除部分光线的干扰。</p> <fig id="fig3"> <label>图3</label> <p>猪功能面临地区光条件下的影子。需要初始化的脸图像因为造成的阴影或接触复杂的光可以影响区域梯度信息。</p> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.003"></graphic> </fig> <p>传统的图像灰度校正方法通过选择合适的图像的亮度变化<我t一个lic> γ</我t一个lic>操作符,如下所示:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M6"> <mml:mtable> <mml:mlabeledtr id="EEq3"> <mml:mtd> <mml:mtext> (3)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mi> O</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mn> 255年</米米l:mn> <mml:mo> ×</米米l:mo> <mml:msup> <mml:mrow> <mml:mfenced open="[" close="]" separators="|"> <mml:mrow> <mml:mfrac> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mn> 255年</米米l:mn> </mml:mrow> </mml:mfrac> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mi> γ</米米l:mi> </mml:mrow> </mml:msup> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M7"> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>图像的像素值在位置(<我t一个lic> x, y</我t一个lic>),<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M8"> <mml:mi> O</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>修正后的像素值,<我t一个lic> γ</我t一个lic>是常数。传统的方法执行图像处理在全球层面不考虑本地和邻域像素之间的明度差异。因此,Schettini et al。<xref ref-type="bibr" rid="B20"> 20.</xref>)提出了一个公式的值<我t一个lic> γ</我t一个lic>接线员:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M9"> <mml:mtable> <mml:mlabeledtr id="EEq4"> <mml:mtd rowspan="2"> <mml:mtext> (4)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mi> γ</米米l:mi> <mml:mfenced open="[" close="]" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:msup> <mml:mrow> <mml:mo> ∂</米米l:mo> </mml:mrow> <mml:mrow> <mml:mfenced open="[" close="]" separators="|"> <mml:mrow> <mml:mn> 128年</米米l:mn> <mml:mo> −</米米l:mo> <mml:mi> 米</米米l:mi> <mml:mi> 一个</米米l:mi> <mml:mi> 年代</米米l:mi> <mml:mi> k</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> /</米米l:mo> <mml:mn> 128年</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:msup> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> <mml:mtr> <mml:mtd> <mml:mo> ∂</米米l:mo> <mml:mo> =</米米l:mo> <mml:mfenced open="{" close="" separators="|"> <mml:mrow> <mml:mtable class="cases"> <mml:mtr> <mml:mtd> <mml:mfrac> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> <mml:mo> /</米米l:mo> <mml:mn> 255年</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 0.5</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mo> ,</米米l:mo> </mml:mtd> <mml:mtd> <mml:mi class="cond"> </mml:mi> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> </mml:mrow> <mml:mo> <</米米l:mo> <mml:mn> 128年</米米l:mn> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd> <mml:mn> 1</米米l:mn> <mml:mo> ,</米米l:mo> </mml:mtd> <mml:mtd> <mml:mi class="cond"> </mml:mi> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> </mml:mrow> <mml:mo> =</米米l:mo> <mml:mn> 128年</米米l:mn> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd> <mml:mfrac> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 0.5</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> <mml:mo> /</米米l:mo> <mml:mn> 255年</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mo> ,</米米l:mo> </mml:mtd> <mml:mtd> <mml:mi class="cond"> </mml:mi> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> </mml:mrow> <mml:mo> ></米米l:mo> <mml:mn> 128年</米米l:mn> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mtr> </mml:mtable> </mml:mrow> </mml:mfenced> </mml:mtd> </mml:mtr> </mml:mtable> </mml:math> </disp-formula>面具是一个图像掩模和高斯模糊可以用于实践。更加平衡的图像的亮区和暗区,平均近128像素的图像,所以计算<我t一个lic> α</我t一个lic>接近于1,形象很难改变,这显然不符合实际需要。考虑到面对当地的特点,介绍了当地的归一化法提出了(<xref ref-type="bibr" rid="B21"> 21</xref>)在附近计算像素的比例关系和调整操作<我t一个lic> α</我t一个lic>:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M10"> <mml:mtable> <mml:mlabeledtr id="EEq5"> <mml:mtd> <mml:mtext> (5)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mo> ∂</米米l:mo> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mfenced open="{" close="" separators="|"> <mml:mrow> <mml:mtable class="cases"> <mml:mtr> <mml:mtd> <mml:mrow> <mml:mfrac> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> <mml:mo> /</米米l:mo> <mml:mn> 255年</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 0.5</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mo> +</米米l:mo> <mml:mfrac> <mml:mrow> <mml:mi> N</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> <mml:mo> /</米米l:mo> <mml:mn> 255年</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 0.5</米米l:mn> </mml:mrow> </mml:mfenced> <mml:mo> ,</米米l:mo> <mml:mi class="cond"> </mml:mi> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> </mml:mrow> <mml:mo> <</米米l:mo> <mml:mn> 128年</米米l:mn> <mml:mo> ,</米米l:mo> </mml:mrow> </mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd> <mml:mrow> <mml:mfrac> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 0.5</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> <mml:mo> /</米米l:mo> <mml:mn> 255年</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mo> +</米米l:mo> <mml:mfrac> <mml:mrow> <mml:mi> N</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mn> 0.5</米米l:mn> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mtext> 在</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mfrac> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> </mml:mrow> <mml:mrow> <mml:mn> 255年</米米l:mn> </mml:mrow> </mml:mfrac> </mml:mrow> </mml:mfenced> <mml:mo> ,</米米l:mo> <mml:mi class="cond"> </mml:mi> <mml:mrow> <mml:mover accent="true"> <mml:mi> 我</米米l:mi> <mml:mo> ¯</米米l:mo> </mml:mover> </mml:mrow> <mml:mo> ≥</米米l:mo> <mml:mn> 128年。</米米l:mn> </mml:mrow> </mml:mtd> </mml:mtr> </mml:mtable> </mml:mrow> </mml:mfenced> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula></p> <p>其中,本地的具体计算过程规范化的特点<我t一个lic> N</我t一个lic>如下:<list> <list-item> <label>(1)</label> </list-item> </list></p> <p>计算最大像素值<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M11"> <mml:msub> <mml:mrow> <mml:mi> 我</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> 米</米米l:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>在附近<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M12"> <mml:mi> φ</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>以像素为中心(<我t一个lic> x, y</我t一个lic>),</p> <disp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M13"> <mml:mtable> <mml:mlabeledtr id="EEq6"> <mml:mtd> <mml:mtext> (6)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> 我</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> 米</米米l:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mi mathvariant="normal"> 马克斯</米米l:mi> <mml:mfenced open="{" close="}" separators="|"> <mml:mrow> <mml:mfenced open close="|" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> ∈</米米l:mo> <mml:mi> φ</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> 。</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula> <list> <list-item> <label>(2)</label> <p>计算的平均价值<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M14"> <mml:msub> <mml:mrow> <mml:mi> 我</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> 米</米米l:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>所有的像素以像素为中心(<我t一个lic> x, y</我t一个lic>),</p> </list-item> </list> <disp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M15"> <mml:mtable> <mml:mlabeledtr id="EEq7"> <mml:mtd> <mml:mtext> (7)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> 我</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 毫米</米米l:mtext> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mtext> 媒介</米米l:mtext> <mml:mfenced open="{" close="}" separators="|"> <mml:mrow> <mml:mfenced open close="|" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> 我</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> 米</米米l:mi> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> ∈</米米l:mo> <mml:mi> φ</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> 。</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula> <list> <list-item> <label>(3)</label> <p>计算的最大价值<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M16"> <mml:msub> <mml:mrow> <mml:mi> 我</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 毫米</米米l:mtext> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>所有的像素以像素为中心(<我t一个lic> x, y</我t一个lic>),</p> </list-item> </list> <disp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M17"> <mml:mtable> <mml:mlabeledtr id="EEq8"> <mml:mtd> <mml:mtext> (8)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mi> 年代</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mi mathvariant="normal"> 马克斯</米米l:mi> <mml:mfenced open="{" close="}" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> 我</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 毫米</米米l:mtext> </mml:mrow> </mml:msub> <mml:mfenced open close="|" separators="|"> <mml:mrow> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> ∈</米米l:mo> <mml:mi> φ</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> 。</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula> <list> <list-item> <label>(4)</label> <p>计算像素的比例(<我t一个lic> x, y</我t一个lic>)附近的像素,</p> </list-item> </list> <disp-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M18"> <mml:mtable> <mml:mlabeledtr id="EEq9"> <mml:mtd> <mml:mtext> (9)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mi> N</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mfrac> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mrow> <mml:mi> 年代</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfrac> <mml:mo> 。</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula> <p></p> <p>我们用算法(<xref ref-type="bibr" rid="B20"> 20.</xref>)和本文改进算法预处理的肖像208张照片YaleB subdatabase猪很难被探测到的复杂的照明条件下,然后分别检测196年和201年的脸。结果如图<xref ref-type="fig" rid="fig4"> 4</xref>。</p> <fig-group id="fig4"> <label>图4</label> <p>对比(<xref ref-type="bibr" rid="B20"> 20.</xref>和我们的。我们提出的改进算法执行得更好(<xref ref-type="bibr" rid="B20"> 20.</xref>]。(一)原始图像,不能检测猪脸;(b)图像处理(<xref ref-type="bibr" rid="B20"> 20.</xref>),检测结果;(c)图像由我们处理和检测结果。</p> <fig id="fig4a"> <label>(一)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.004a"></graphic> </fig> <fig id="fig4b"> <label>(b)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.004b"></graphic> </fig> <fig id="fig4c"> <label>(c)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.004c"></graphic> </fig> </fig-group> </sec> <sec id="sec3.2"> <title>3.2。DTFA-Net架构</t我tle> <p>节<xref ref-type="sec" rid="sec3.2"> 3.2</xref>,我们主要介绍动态和纹理特征融合网络DTFA-Net关注。如图<xref ref-type="fig" rid="fig5"> 5</xref>、光学流图和纹理图像,分别获得256<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M19"> <mml:msup> <mml:mrow></mml:mrow> <mml:mrow> <mml:mi> ∗</米米l:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>2、256<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M20"> <mml:msup> <mml:mrow></mml:mrow> <mml:mrow> <mml:mi> ∗</米米l:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>4嵌入提取从子网动态特征和纹理特征,然后融合拼接256<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M21"> <mml:msup> <mml:mrow></mml:mrow> <mml:mrow> <mml:mi> ∗</米米l:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>6功能通过完全连接层和生活检测。网络的具体细节如下所述。</p> <fig id="fig5"> <label>图5</label> <p>动态和纹理特征融合的关注网络(DTFA-Net)架构。图中省略了ReLU和池层卷积后层,和卷积的id是显示在顶部。颜色代码如下:粉色=卷积;蓝色=融合块;灰色=空间的关注;绿色=完全连接层。</p> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.005"></graphic> </fig> <sec id="sec3.2.1"> <title>3.2.1之上。动态特性融合</t我tle> <p>本文生成光学流场变化的地图相邻两帧的脸视频光流方法。光流改变面对地区提取动态特性融合子网在二维位移和大小,和两个维度的特征融合特征融合块提取脸部区域的动态信息。</p> <p> <italic> (1)光流</我t一个lic>。光流的方法是建议用于描述相邻帧的运动信息对象。它反映了帧间场计算运动位移的变化<我t一个lic> x</我t一个lic>和<我t一个lic> y</我t一个lic>在时间域图像的方向。定义视频中点<我t一个lic> P</我t一个lic>位于(<我t一个lic> x, y</我t一个lic>)的形象<我t一个lic> t</我t一个lic>搬到这个地方<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M22"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> +</米米l:mo> <mml:mtext> d</米米l:mtext> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> <mml:mo> +</米米l:mo> <mml:mtext> d</米米l:mtext> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>,那么当d<我t一个lic> t</我t一个lic>接近0,两个像素值满足以下关系:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M23"> <mml:mtable> <mml:mlabeledtr id="EEq10"> <mml:mtd> <mml:mtext> (10)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> v</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> v</米米l:mi> <mml:mo> +</米米l:mo> <mml:mi> d</米米l:mi> </mml:mrow> </mml:mfenced> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M24"> <mml:mi> v</米米l:mi> </mml:math> </inline-formula>= (<我t一个lic> x</我t一个lic>,<我t一个lic> y</我t一个lic>)的坐标点<我t一个lic> P</我t一个lic>当时<我t一个lic> t</我t一个lic>,<我t一个lic> 我</我t一个lic>(<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M25"> <mml:mi> v</米米l:mi> </mml:math> </inline-formula>)的灰度值是(<我t一个lic> x, y</我t一个lic>当时)<我t一个lic> t、d</我t一个lic>= (d<我t一个lic> x,</我t一个lic>d<我t一个lic> y</我t一个lic>)点的位移<我t一个lic> P</我t一个lic>在维<我t一个lic> t,</我t一个lic>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M26"> <mml:mi> 我</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> v</米米l:mi> <mml:mo> +</米米l:mo> <mml:mi> d</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>灰度值的地方吗<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M27"> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> x</米米l:mi> <mml:mo> +</米米l:mo> <mml:mtext> d</米米l:mtext> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> y</米米l:mi> <mml:mo> +</米米l:mo> <mml:mtext> d</米米l:mtext> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>当时<我t一个lic> t</我t一个lic> <italic> +</我t一个lic>d<我t一个lic> t</我t一个lic>。</p> <p>本文提出的密集的光流法Farneback [<xref ref-type="bibr" rid="B22"> 22</xref>)是用来计算帧间位移的视频。双座的图像的像素算法接近一个多项式扩张变换。,它基于的假设当地的光流和图像梯度是稳定的,和位移场推导出多项式膨胀系数。我们将位移<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M28"> <mml:mi> d</米米l:mi> <mml:mo> =</米米l:mo> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> d</米米l:mtext> <mml:mi> x</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mtext> d</米米l:mtext> <mml:mi> y</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>极端的坐标系统<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M29"> <mml:mi> d</米米l:mi> <mml:mo> =</米米l:mo> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> ρ</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> θ</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>和可视化光学流位移和方向的HSV模型。如图<xref ref-type="fig" rid="fig6"> 6</xref>,光流变化获得的图像将被用作输入融合网络的动态特性。</p> <fig-group id="fig6"> <label>图6</label> <p>光学流动显示的两个相邻面区域:(a)可视化光学流向的变化:色调=方向的光流,饱和= 255,和价值= 255;(b)级光学流可视化:色调= 255,饱和度= 255,和价值=光流的大小。其中,左侧两个光流的变化真实的脸,和正确的两组照片中的光学流变化的攻击。</p> <fig id="fig6a"> <label>(一)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.006a"></graphic> </fig> <fig id="fig6b"> <label>(b)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.006b"></graphic> </fig> </fig-group> <p> <italic> (2)聚变关注模块</我t一个lic>。动态信息提取的过程中,我们提取,分别输入中包含运动信息的光学流改变方向特性图和光学流变化强度卷积特性映射到5层。因为生活人脸的运动模式包含两个维度的方向和强度,有必要结合上面的陈述,进一步提取的移动特征的脸。因此,我们设计了一个融合模块,如图<xref ref-type="fig" rid="fig7"> 7</xref>。</p> <fig id="fig7"> <label>图7</label> <p>融合注意模块的架构。</p> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.007"></graphic> </fig> <p>为了提高模型的描述能力,我们使用SE结构(<xref ref-type="bibr" rid="B23"> 23</xref>在融合模块,为光学流强度,赋予不同的权重和方向特性来加强一些功能的决策能力。首先,全球池的特征图<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M30"> <mml:mtable> <mml:mlabeledtr id="EEq11"> <mml:mtd> <mml:mtext> (11)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> <mml:mrow> <mml:mi> c</米米l:mi> </mml:mrow> </mml:msub> <mml:mo> =</米米l:mo> <mml:mtext> AvgPool</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> =</米米l:mo> <mml:mfrac> <mml:mn> 1</米米l:mn> <mml:mrow> <mml:mi> H</米米l:mi> <mml:mo> ×</米米l:mo> <mml:mi> W</米米l:mi> </mml:mrow> </mml:mfrac> <mml:mstyle displaystyle="true"> <mml:munderover> <mml:mrow> <mml:mo stretchy="true"> ∑</米米l:mo> </mml:mrow> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> =</米米l:mo> <mml:mn> 1</米米l:mn> </mml:mrow> <mml:mi> H</米米l:mi> </mml:munderover> <mml:mrow> <mml:mstyle displaystyle="true"> <mml:munderover> <mml:mrow> <mml:mo stretchy="true"> ∑</米米l:mo> </mml:mrow> <mml:mrow> <mml:mi> j</米米l:mi> <mml:mo> =</米米l:mo> <mml:mn> 1</米米l:mn> </mml:mrow> <mml:mi> W</米米l:mi> </mml:munderover> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> </mml:mrow> <mml:mo> ,</米米l:mo> </mml:mstyle> </mml:mrow> </mml:mstyle> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M31"> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> </mml:msub> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> 我</米米l:mi> <mml:mo> ,</米米l:mo> <mml:mi> j</米米l:mi> </mml:mrow> </mml:mfenced> </mml:math> </inline-formula>代表光学级的连接特性和角度。通过全球平均池、缝合的维数特征地图变化<我t一个lic> C</我t一个lic> <italic> ×</我t一个lic> <italic> H</我t一个lic> <italic> ×</我t一个lic> <italic> W</我t一个lic>来<我t一个lic> C</我t一个lic> <italic> ×</我t一个lic>1<我t一个lic> ×</我t一个lic>1。其次,学习每个通道之间的非线性函数关系通过完整的连接(FC)和激活函数(ReLU)。然后,使用归一化(乙状结肠)得到每个通道的重量:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M32"> <mml:mtable> <mml:mlabeledtr id="EEq12"> <mml:mtd> <mml:mtext> (12)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> <mml:mrow> <mml:mi> 一个</米米l:mi> </mml:mrow> </mml:msub> <mml:mo> =</米米l:mo> <mml:mi> σ</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 足球俱乐部</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mi> δ</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 足球俱乐部</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> <mml:mrow> <mml:mi> c</米米l:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我t一个lic> σ</我t一个lic>乙状结肠函数吗<我t一个lic> δ</我t一个lic>是ReLU函数。两个完全连接层用于减少和恢复维度,分别,这有助于提高功能的复杂性。最后,我们乘<我t一个lic> F</我t一个lic><sub>人事处</年代ub>与凤凰社<年代ub> <italic> 一个</我t一个lic></sub>和通过卷积层融合的特点:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M33"> <mml:mtable> <mml:mlabeledtr id="EEq13"> <mml:mtd> <mml:mtext> (13)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> <mml:mo> +</米米l:mo> </mml:mrow> </mml:msub> <mml:mo> =</米米l:mo> <mml:mtext> Conv</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> <mml:mrow> <mml:mi> 一个</米米l:mi> </mml:mrow> </mml:msub> <mml:mo> ⊗</米米l:mo> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> 人事处</米米l:mtext> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> 。</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula></p> <p> <italic> (3)网络的细节</我t一个lic>。动态特征提取子网输入图像大小为227×227×3,其中包含卷积11层,2完整的连接层,6池层。表<xref ref-type="table" rid="tab1"> 1</xref>- - - - - -<xref ref-type="table" rid="tab3"> 3</xref>显示特定的卷积和汇聚层网络参数。</p> <table-wrap id="tab1"> <label>表1</label> <p>Mag_Conv1-5的网络。</p> <table> <thead> <tr> <th align="left">层</th> <th align="center">输入的大小</th> <th align="center">内核大小</th> <th align="center">过滤器</th> <th align="center">步</th> </tr> </thead> <tbody> <tr> <td align="left">Mag_Conv1</td><td一个lign="center">227年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M34"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>22<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M35"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="center">11<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M36"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>11<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M37"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="center">96年</td><td一个lign="center">4</td></tr><tr> <td align="left">MaxPooo1</td><td一个lign="center">27<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M38"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>27<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M39"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>64年</td><td一个lign="center">3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M40"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="left"></td> <td align="center">2</td></tr><tr> <td align="left">Mag_Conv2</td><td一个lign="center">27<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M41"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>27<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M42"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>64年</td><td一个lign="center">5<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M43"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>5<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M44"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>64年</td><td一个lign="center">192年</td><td一个lign="center">1</td></tr><tr> <td align="left">MaxPool2</td><td一个lign="center">27<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M45"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>27<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M46"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>192年</td><td一个lign="center">3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M47"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="left"></td> <td align="center">2</td></tr><tr> <td align="left">Mag_Conv3</td><td一个lign="center">13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M48"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M49"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>192年</td><td一个lign="center">3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M50"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M51"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>192年</td><td一个lign="center">384年</td><td一个lign="center">1</td></tr><tr> <td align="left">Mag_Conv4</td><td一个lign="center">13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M52"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M53"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>384年</td><td一个lign="center">3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M54"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M55"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>384年</td><td一个lign="center">256年</td><td一个lign="center">1</td></tr><tr> <td align="left">Mag_Conv5</td><td一个lign="center">13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M56"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M57"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>256年</td><td一个lign="center">3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M58"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M59"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>256年</td><td一个lign="center">256年</td><td一个lign="center">1</td></tr></tbody> </table> <table-wrap-foot> <fn> <p> <inline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M60"> <mml:msup> <mml:mrow></mml:mrow> <mml:mrow> <mml:mi> ∗</米米l:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>VecConv1-5 MagConv1-5和TexConv1-5参数一样。</p> </fn> </table-wrap-foot> </table-wrap> <table-wrap id="tab2"> <label>表2</label> <p>融合注意模块的结构。</p> <table> <thead> <tr> <th align="left">层</th> <th align="center">输入的大小</th> <th align="center">内核大小</th> <th align="center">过滤器</th> <th align="center">步</th> </tr> </thead> <tbody> <tr> <td align="left">GlobalAvgPool</td><td一个lign="center">13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M61"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M62"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>512年</td><td一个lign="center">13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M63"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>13</td><td一个lign="left"></td> <td align="center">1</td></tr><tr> <td align="left">Fc1</td><td一个lign="center">512年</td><td一个lign="left"></td> <td align="left"></td> <td align="left"></td> </tr> <tr> <td align="left">Fc2</td><td一个lign="center">32</td><td一个lign="left"></td> <td align="left"></td> <td align="left"></td> </tr> <tr> <td align="left">LK_Conv</td><td一个lign="center">13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M64"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>13<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M65"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>512年</td><td一个lign="center">3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M66"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M67"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>512年</td><td一个lign="center">256年</td><td一个lign="center">2</td></tr><tr> <td align="left">LK_MaxPool</td><td一个lign="center">6<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M68"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>6<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M69"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>256年</td><td一个lign="center">3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M70"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="left"></td> <td align="center">1</td></tr></tbody> </table> </table-wrap> <table-wrap id="tab3"> <label>表3</label> <p>FC1图的结构<xref ref-type="fig" rid="fig5"> 5</xref>。</p> <table> <thead> <tr> <th align="left">层</th> <th align="center">输入的大小</th> <th align="center">输出的大小</th> </tr> </thead> <tbody> <tr> <td align="left">FC1_1</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M71"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>6<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M72"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>6</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M73"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M74"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td></tr><tr> <td align="left">FC1_2</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M75"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M76"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M77"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>2<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M78"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>2</td></tr><tr> <td align="left">FC1_3</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M79"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>2<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M80"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>2</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M81"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>2</td></tr></tbody> </table> </table-wrap> </sec> <sec id="sec3.2.2"> <title>3.2.2。纹理特征表示</t我tle> <p>在特定的,我们输入篮板图像映射到中间特征图谱通过TexConv1-4尺寸384,然后多注意一些地区通过空间注意机制,然后注意模块的输入输出TexConv5和全连接层FC2进行特征提取。卷积的结构层TexConv1-5表所示<xref ref-type="table" rid="tab1"> 1</xref>和完全连接的结构层FC2表所示<xref ref-type="table" rid="tab4"> 4</xref>。</p> <table-wrap id="tab4"> <label>表4</label> <p>FC2-3图的结构<xref ref-type="fig" rid="fig5"> 5</xref>。</p> <table> <thead> <tr> <th align="left">层</th> <th align="center">输入的大小</th> <th align="center">输出的大小</th> </tr> </thead> <tbody> <tr> <td align="left">FC2_1</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M82"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>6<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M83"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>6</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M84"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M85"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td></tr><tr> <td align="left">FC2_2</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M86"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M87"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M88"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>2<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M89"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>2</td></tr><tr> <td align="left">FC3_1</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M90"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>6</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M91"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td></tr><tr> <td align="left">FC3_2</td><td一个lign="center">256年<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M92"> <mml:mi> ∗</米米l:mi> </mml:math> </inline-formula>3</td><td一个lign="center">256年</td></tr><tr> <td align="left">FC3_3</td><td一个lign="center">256年</td><td一个lign="center">2</td></tr></tbody> </table> </table-wrap> <p> <italic> (1)空间的注意</我t一个lic>。实验后,我们发现,神经网络通常特别注意人类的眼睛,脸颊、嘴,和其他领域当提取生活特性。因此,我们添加了一个空间注意模块的静态纹理提取结构和给一个不同的关注不同的面部区域的特点。我们采用CBAM(图<xref ref-type="fig" rid="fig8"> 8</xref>)空间结构提出了注意<xref ref-type="bibr" rid="B24"> 24</xref>]。这个模块可以减少输入的维数特征通过最大池和平均池层地图,地图拼接两个特性,得到的关注重量1<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M93"> <mml:msup> <mml:mrow></mml:mrow> <mml:mrow> <mml:mi> ∗</米米l:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula> <italic> H</我t一个lic> <inline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M94"> <mml:msup> <mml:mrow></mml:mrow> <mml:mrow> <mml:mi> ∗</米米l:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula> <italic> W</我t一个lic>通过卷积层和激活功能:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M95"> <mml:mtable> <mml:mlabeledtr id="EEq14"> <mml:mtd> <mml:mtext> (14)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mtext> SA</米米l:mtext> </mml:mrow> <mml:mrow> <mml:mi> c</米米l:mi> </mml:mrow> </mml:msub> <mml:mo> =</米米l:mo> <mml:mi> δ</米米l:mi> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> Conv</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> 猫</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:mtext> AvgPool</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> t</米米l:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> <mml:mo> ,</米米l:mo> <mml:mtext> MaxPool</米米l:mtext> <mml:mfenced open="(" close=")" separators="|"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> t</米米l:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> </mml:mrow> </mml:mfenced> <mml:mo> 。</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula></p> <fig id="fig8"> <label>图8</label> <p>空间的关注。我们介绍这个模块后的卷积层子网提取的静态特性,使不同的当地。</p> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.008"></graphic> </fig> <p>最后,我们利用element-wise产品输入<我t一个lic> F</我t一个lic><sub> <italic> t</我t一个lic></sub>和SA<年代ub> <italic> c</我t一个lic></sub>和空间注意的输出块将通过下一层,TextConv5和FC2:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M96"> <mml:mtable> <mml:mlabeledtr id="EEq15"> <mml:mtd> <mml:mtext> (15)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> t</米米l:mi> <mml:mo> +</米米l:mo> </mml:mrow> </mml:msub> <mml:mo> =</米米l:mo> <mml:msub> <mml:mrow> <mml:mtext> SA</米米l:mtext> </mml:mrow> <mml:mrow> <mml:mi> c</米米l:mi> </mml:mrow> </mml:msub> <mml:mo> ⊗</米米l:mo> <mml:msub> <mml:mrow> <mml:mi> F</米米l:mi> </mml:mrow> <mml:mrow> <mml:mi> t</米米l:mi> </mml:mrow> </mml:msub> <mml:mo> 。</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula></p> </sec> <sec id="sec3.2.3"> <title>3.2.3。特征融合</t我tle> <p>通过以上两个子网,分别得到了动态信息和纹理信息。一系列完全连接层,辍学层,和激活函数,我们完全融合这两个信息,学习的动态和静态特性之间的非线性关系,并获得的二维表示面对生活信息检测,如表所示<xref ref-type="table" rid="tab4"> 4</xref>。</p> </sec> </sec> </sec> <sec id="sec4"> <title>4所示。实验</t我tle> <sec id="sec4.1"> <title>4.1。数据集</t我tle> <p>我们使用CASIA-MFSD [<xref ref-type="bibr" rid="B25"> 25</xref>训练和测试模型。收集的数据集包含一个600面对视频从50个人。脸视频真实的脸,攻击,照片和视频攻击场景收集在不同的决议。其中,攻击包括弯曲和照片照片照片面具。我们忽略了不同的攻击方式,将所有的视频分为真正的脸和假脸。通过光流场的计算,人脸区域检测和裁剪,等等,得到35428组训练图像和64674套的测试图像,如图<xref ref-type="fig" rid="fig9"> 9</xref>。我们也训练和测试我们的模型再现攻击数据库。</p> <fig-group id="fig9"> <label>图9</label> <p>CASIA-MFSD预处理后的例子。从左到右:纹理图像,光流大小和光学流方向。其中,(一)假脸和(b)真正的脸。</p> <fig id="fig9a"> <label>(一)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.009a"></graphic> </fig> <fig id="fig9b"> <label>(b)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.009b"></graphic> </fig> </fig-group> </sec> <sec id="sec4.2"> <title>4.2。评价</t我tle> <p>本实验使用错误接受率(远),错误拒绝率(FRR),平等的错误率(曾经),半总错误率(ht)。面对生活检测算法都是基于这些指标。远指的比值判断假面临真正的脸;FRR指的比值判断真正的面对错误,计算公式如下所示:<d我年代p-formula> <mml:math display="block" xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M97"> <mml:mtable> <mml:mlabeledtr id="EEq16"> <mml:mtd> <mml:mtext> (16)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mtext> 远</米米l:mtext> <mml:mo> =</米米l:mo> <mml:mfrac> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> N</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> f_r</米米l:mtext> </mml:mrow> </mml:msub> </mml:mrow> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> N</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> f</米米l:mtext> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfrac> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> <mml:mlabeledtr id="EEq17"> <mml:mtd> <mml:mtext> (17)</米米l:mtext> </mml:mtd> <mml:mtd> <mml:mtext> FRR</米米l:mtext> <mml:mo> =</米米l:mo> <mml:mfrac> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> N</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> r_f</米米l:mtext> </mml:mrow> </mml:msub> </mml:mrow> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> N</米米l:mi> </mml:mrow> <mml:mrow> <mml:mtext> r</米米l:mtext> </mml:mrow> </mml:msub> </mml:mrow> </mml:mfrac> <mml:mo> ,</米米l:mo> </mml:mtd> </mml:mlabeledtr> </mml:mtable> </mml:math> </disp-formula>在哪里<我t一个lic> N</我t一个lic><sub> <italic> f_r</我t一个lic></sub>的数量是错误的面对错误,<我t一个lic> N</我t一个lic><sub> <italic> r_f</我t一个lic></sub>是真正的面对错误,的数量<我t一个lic> N</我t一个lic><sub> <italic> f</我t一个lic></sub>是假脸的数量活性检测和<我t一个lic> N</我t一个lic><sub> <italic> r</我t一个lic></sub>是真正的人脸检测的数量。这个实验的两种分类方法如下:(1)最近的邻居(NN),对应二维向量,其中每个维度值代表真正的脸或攻击的概率和选择的类别对应于最大价值的分类结果。(2)阈值选择某个阈值分类表示结果。这种方法主要用于模型验证和测试。在不同的阈值计算,FRR可以画出的接受者操作特征(ROC)曲线测量的非平衡分类问题;ROC曲线下的面积(曲线下面积,AUC)可以直观地显示了算法的分类效果。</p> </sec> <sec id="sec4.3"> <title>4.3。实现细节</t我tle> <p>该方法实现Pytorch与多变的学习速率(例如,lr = 0.01时时代< 5和lr = 0.001时代≥5)。模型的批量大小是128 num_worker = 100。我们初始化网络通过使用AlextNet100的参数。网络训练与标准为50或100时代SGD特斯拉V100 GPU。我们利用交叉熵损失,输入分辨率为227×227。</p> </sec> <sec id="sec4.4"> <title>4.4。实验结果</t我tle> <sec id="sec4.4.1"> <title>4.1.1。消融的空间注意模块</t我tle> <p>我们进行了一次消融实验注意模块的纹理特征提取子网,只有依靠纹理特征对CAISA执行现场检测数据集。我们培训了两个纹理特征提取网络有或没有空间注意块50倍,分别验证了他们在CASIA测试集。图<xref ref-type="fig" rid="fig10"> 10</xref>显示了训练过程损失(Epoch0-Epoch29)和ROC曲线测试集(Epoch50)。实验表明,引入注意力机制后,由于网络结构的增加(事实上,添加一个卷积层),在培训过程中模型的损失是低于模型没有SA在初始阶段的培训和有一个大的冲击。然而,随着网络训练的迭代的数量增加,损失往往是稳定,几乎没有区别两种情况。50周期的训练后,模型与SA实现AUC = 95.4%测试集,这是高于没有SA模型。</p> <fig-group id="fig10"> <label>图10</label> <p>网损和ROC曲线有或没有空间关注模块:(a)培训损失随着时间步的流逝;(b) ROC曲线。</p> <fig id="fig10a"> <label>(一)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0010a"></graphic> </fig> <fig id="fig10b"> <label>(b)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0010b"></graphic> </fig> </fig-group> <p>想象我们的空间注意机制的输入和输出结果模块,如图<xref ref-type="fig" rid="fig11"> 11</xref>。这表明SA更多关注地方面对图像,比如嘴巴和眼睛。这一点显示的一致性假设的先验知识传统的图像特征描述方法。</p> <fig-group id="fig11"> <label>图11</label> <p>体重变化前后热图空间关注模块:(a);(b)。空间关注模块抓好面临的一些功能区域。</p> <fig id="fig11a"> <label>(一)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0011a"></graphic> </fig> <fig id="fig11b"> <label>(b)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0011b"></graphic> </fig> </fig-group> <p>我们首先不使用SA训练DTFA网络在某种程度上,然后添加SA结构训练100倍,这样的空间注意模块可以更好的学习面临区域信息,加快模型收敛。图<xref ref-type="fig" rid="fig12"> 12</xref>的培训和测试结果显示DTFA-Net CASIA数据集。当训练模型的迭代的数量达到49 - 89的区间,曾经= 0.069和AUC = 0.975±0.0001,达到一种稳定状态。</p> <fig-group id="fig12"> <label>图12</label> <p>DTFA-Net epoch49 - 89年培训和评估结果:(a)的损失波动模型训练epoch49 - 89年;(b)的AUC结果模型在测试集epoch49 - 89;(c)的ACC结果模型在测试集epoch49 - 89;(d)的错结果模型在测试集epoch49 - 89。</p> <fig id="fig12a"> <label>(一)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0012a"></graphic> </fig> <fig id="fig12b"> <label>(b)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0012b"></graphic> </fig> <fig id="fig12c"> <label>(c)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0012c"></graphic> </fig> <fig id="fig12d"> <label>(d)</label> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0012d"></graphic> </fig> </fig-group> <p>表<xref ref-type="table" rid="tab5"> 5</xref>提供了一个比较的结果,我们建议的方法和其他方法的intradatabase评估。我们的模型结果与最先进的方法。</p> <table-wrap id="tab5"> <label>表5</label> <p>对比我们的方法和其他intradatabase。</p> <table> <thead> <tr> <th align="left" rowspan="2">方法</th> <th align="center">CASIA-MFSD</th> <th align="center" colspan="2">重放攻击</th> </tr> <tr> <th align="center">无论何时(%)</th> <th align="center">无论何时(%)</th> <th align="center">ht (%)</th> </tr> </thead> <tbody> <tr> <td align="left">枸杞多糖(<xref ref-type="bibr" rid="B26"> 26</xref>]</td><td一个lign="center">18.2</td><td一个lign="center">13.9</td><td一个lign="center">13.8</td></tr><tr> <td align="left">IQA [<xref ref-type="bibr" rid="B9"> 9</xref>]</td><td一个lign="center">32.4</td><td一个lign="center">- - - - - -</td><td一个lign="center">15.2</td></tr><tr> <td align="left">美国有线电视新闻网(<xref ref-type="bibr" rid="B4"> 4</xref>]</td><td一个lign="center">7.4</td><td一个lign="center">6.1</td><td一个lign="center">2.1</td></tr><tr> <td align="left">LiveNet [<xref ref-type="bibr" rid="B27"> 27</xref>]</td><td一个lign="center">4.59</td><td一个lign="center">- - - - - -</td><td一个lign="center">5.74</td></tr><tr> <td align="left">DTFA-Net(我们的)</td><td一个lign="center">6.90</td><td一个lign="center">6.47</td><td一个lign="center">2.2</td></tr></tbody> </table> </table-wrap> </sec> </sec> <sec id="sec4.5"> <title>4.5。样品</t我tle> <p>图<xref ref-type="fig" rid="fig13"> 13</xref>展示了几个故障样本和正确检测真实的面孔。通过分析,我们发现RGB图像的光照可能被错误分类的主要原因。</p> <fig id="fig13"> <label>图13</label> <p>错误和正确检测样品。左:假阴性结果;右:真阳性的情况。</p> <graphic xlink:href="//www.newsama.com/downloads/journals/complexity/2020/5836596.fig.0013"></graphic> </fig> </sec> </sec> <sec id="sec5"> <title>5。结论</t我tle> <p>本文分析了照片和视频重播攻击的脸欺骗和建立了一个关注网络结构集成动态纹理特性和设计一个动态信息融合模块,从纹理图像中提取特征基于空间注意机制。同时,提出了一种改进的射线图像优化算法对预处理的图像人脸检测任务在多个灯饰。</p> </sec> <back> <sec sec-type="data-availability"> <title>数据可用性</t我tle> <p>CASIA-MFSD数据用于支持本研究的发现是由CASIA许可制,所以不能免费提供。请求访问这些数据应该CASIA通过<ext-link ext-link-type="uri" xlink:href="http://www.cbsr.ia.ac.cn"> http://www.cbsr.ia.ac.cn</ext-link>。</p> </sec> <sec sec-type="COI-statement"> <title>的利益冲突</t我tle> <p>作者宣称没有利益冲突。</p> </sec> <ack> <title>确认</t我tle> <p>这项工作得到了中国国家重点研发项目(批准2018 yfb1600600),中国国家自然科学基金(批准51278058),111年汽车基础设施提供商的项目信息传感及其(格兰特B14043),陕西省自然科学基础研究项目(批准号。2019纽约- 163和2020 gy - 018),联合实验室网络的车辆,Education-China部移动通信公司(格兰特213024170015),和特殊的资金基础科学研究中央大学、长安大学、中国(批准号300102329101和300102329101)。</p> </ack> <ref-list> <ref id="B1" content-type="inproceedings"> <label>1</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 施泰纳</年代urname> <given-names> H。</given-names> </name> <name> <surname> 科尔布</年代urname> <given-names> 一个。</given-names> </name> <name> <surname> 荣格</年代urname> <given-names> N。</given-names> </name> </person-group> <article-title> 可靠的脸欺骗利用多光谱短波红外成像成像</一个rt我cle-title> <conf-name> 生物识别技术的国际会议</conf-name> <conf-date> 2016年5月</conf-date> <conf-loc> 哈尔姆斯塔德、瑞典</conf-loc> <publisher-name> IEEE</publisher-name> </element-citation> </ref> <ref id="B2" content-type="inproceedings"> <label>2</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 唐</年代urname> <given-names> y . H。</given-names> </name> <name> <surname> 程ydF4y2Ba</surname> <given-names> l . M。</given-names> </name> </person-group> <article-title> 基于三维面部几何属性欺骗方法掩盖攻击</一个rt我cle-title> <conf-name> 《IEEE国际会议上自动的脸和手势识别</conf-name> <conf-date> 2017年9月</conf-date> <conf-loc> 美国华盛顿特区</conf-loc> <publisher-name> IEEE</publisher-name> <fpage> 589年</fpage> <lpage> 595年</lpage> </element-citation> </ref> <ref id="B3" content-type="inproceedings"> <label>3</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Raghavendra</年代urname> <given-names> R。</given-names> </name> <name> <surname> 布希</年代urname> <given-names> C。</given-names> </name> </person-group> <article-title> 小说表示攻击检测算法对人脸识别系统:应用3 d面罩攻击</一个rt我cle-title> <conf-name> 《IEEE国际会议上图像处理</conf-name> <conf-date> 2014年10月</conf-date> <conf-loc> 法国巴黎</conf-loc> <publisher-name> IEEE</publisher-name> <fpage> 323年</fpage> <lpage> 327年</lpage> </element-citation> </ref> <ref id="B4" content-type="misc"> <label>4</label> <element-citation publication-type="other"> <person-group person-group-type="author"> <name> <surname> 杨</年代urname> <given-names> j·W。</given-names> </name> <name> <surname> Lei</年代urname> <given-names> Z。</given-names> </name> <name> <surname> 李</年代urname> <given-names> 美国Z。</given-names> </name> </person-group> <article-title> 学卷积神经网络欺骗</一个rt我cle-title> <year> 2014年</year> <comment> <ext-link ext-link-type="uri" xlink:href="http://arxiv.org/abs1408.5601"> http://arxiv.org/abs1408.5601</ext-link> </comment> </element-citation> </ref> <ref id="B5" content-type="inproceedings"> <label>5</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Atoum</年代urname> <given-names> Y。</given-names> </name> <name> <surname> 刘</年代urname> <given-names> y . J。</given-names> </name> <name> <surname> Jourabloo</年代urname> <given-names> 一个。</given-names> </name> <name> <surname> 刘</年代urname> <given-names> x M。</given-names> </name> </person-group> <article-title> 面对antispoofing使用补丁和地cnn</一个rt我cle-title> <conf-name> 生物识别技术学报IEEE国际联合会议</conf-name> <conf-date> 2017年8月</conf-date> <conf-loc> 美国科罗拉多州丹佛市</conf-loc> <publisher-name> IEEE</publisher-name> <fpage> 319年</fpage> <lpage> 328年</lpage> </element-citation> </ref> <ref id="B6" content-type="inproceedings"> <label>6</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Hernandez-Ortega</年代urname> <given-names> J。</given-names> </name> <name> <surname> Fierrez</年代urname> <given-names> J。</given-names> </name> <name> <surname> 莫拉莱斯</年代urname> <given-names> 一个。</given-names> </name> <name> <surname> 多美</年代urname> <given-names> P。</given-names> </name> </person-group> <article-title> 时间pulse-based面对欺骗在可见光和近红外光谱分析</一个rt我cle-title> <conf-name> 《计算机视觉与模式识别会议研讨会</conf-name> <conf-date> 2018年6月</conf-date> <conf-loc> 美国犹他州盐湖城</conf-loc> <publisher-name> IEEE</publisher-name> </element-citation> </ref> <ref id="B7" content-type="inproceedings"> <label>7</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 刘</年代urname> <given-names> 美国问。</given-names> </name> <name> <surname> 局域网</年代urname> <given-names> x Y。</given-names> </name> <name> <surname> 袁</年代urname> <given-names> p C。</given-names> </name> </person-group> <article-title> 远程photoplethysmography通信功能3 d人脸面具表示攻击检测</一个rt我cle-title> <conf-name> 欧洲计算机视觉的诉讼</conf-name> <conf-date> 2018年9月</conf-date> <conf-loc> 德国慕尼黑</conf-loc> <publisher-name> IEEE</publisher-name> <fpage> 558年</fpage> <lpage> 573年</lpage> </element-citation> </ref> <ref id="B8" content-type="inproceedings"> <label>8</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Boulkenafet</年代urname> <given-names> Z。</given-names> </name> <name> <surname> Komulainen</年代urname> <given-names> J。</given-names> </name> <name> <surname> 哈迪德</年代urname> <given-names> 一个。</given-names> </name> </person-group> <article-title> 面对欺骗基于颜色纹理分析</一个rt我cle-title> <conf-name> 《图像处理国际会议</conf-name> <conf-date> 2015年9月</conf-date> <conf-loc> 加拿大魁北克</conf-loc> <publisher-name> IEEE</publisher-name> <fpage> 2636年</fpage> <lpage> 2640年</lpage> </element-citation> </ref> <ref id="B9" content-type="inproceedings"> <label>9</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Galbally</年代urname> <given-names> J。</given-names> </name> <name> <surname> 马塞尔</年代urname> <given-names> 年代。</given-names> </name> </person-group> <article-title> 基于通用图像质量评估的脸欺骗</一个rt我cle-title> <conf-name> 模式识别国际会议的程序</conf-name> <conf-date> 2014年8月</conf-date> <conf-loc> 斯德哥尔摩,瑞典</conf-loc> <publisher-name> IEEE</publisher-name> <fpage> 1173年</fpage> <lpage> 1178年</lpage> </element-citation> </ref> <ref id="B10" content-type="article"> <label>10</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Boulkenafet</年代urname> <given-names> Z。</given-names> </name> <name> <surname> Komulainen</年代urname> <given-names> J。</given-names> </name> <name> <surname> 哈迪德</年代urname> <given-names> 一个。</given-names> </name> </person-group> <article-title> 颜色texture-based泛化的脸欺骗</一个rt我cle-title> <source> <italic> 图像和视觉计算</我t一个lic> <year> 2018年</year> <volume> 77年</volume> <fpage> 1</fpage> <lpage> 9</lpage> <pub-id pub-id-type="doi"> 10.1016 / j.imavis.2018.04.007</pub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85049979796</pub-id> </element-citation> </ref> <ref id="B11" content-type="article"> <label>11</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Tirunagari</年代urname> <given-names> 年代。</given-names> </name> <name> <surname> Poh</年代urname> <given-names> N。</given-names> </name> <name> <surname> Windridge</年代urname> <given-names> D。</given-names> </name> <name> <surname> Iorliam</年代urname> <given-names> 一个。</given-names> </name> <name> <surname> 苏琪</年代urname> <given-names> N。</given-names> </name> <name> <surname> 何</年代urname> <given-names> a . t . S。</given-names> </name> </person-group> <article-title> 使用视觉动态检测的脸欺骗</一个rt我cle-title> <source> <italic> IEEE取证和安全信息</我t一个lic> <year> 2015年</year> <volume> 10</volume> <issue> 4</我年代年代ue> <fpage> 762年</fpage> <lpage> 777年</lpage> <pub-id pub-id-type="doi"> 10.1109 / tifs.2015.2406533</pub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84926309008</pub-id> </element-citation> </ref> <ref id="B12" content-type="article"> <label>12</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 金</年代urname> <given-names> W。</given-names> </name> <name> <surname> Suh</年代urname> <given-names> 年代。</given-names> </name> <name> <surname> 汉</年代urname> <given-names> j j。</given-names> </name> </person-group> <article-title> 表面活性检测从单个图像通过扩散速度模型</一个rt我cle-title> <source> <italic> IEEE图像处理</我t一个lic> <year> 2015年</year> <volume> 24</volume> <issue> 8</我年代年代ue> <fpage> 2456年</fpage> <lpage> 2465年</lpage> <pub-id pub-id-type="doi"> 10.1109 / tip.2015.2422574</pub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84929484595</pub-id> </element-citation> </ref> <ref id="B13" content-type="inproceedings"> <label>13</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 巴拉</年代urname> <given-names> 年代。</given-names> </name> <name> <surname> Dhamecha</年代urname> <given-names> T。</given-names> </name> <name> <surname> Vatsa</年代urname> <given-names> M。</given-names> </name> <etal></etal> </person-group> <article-title> 计算有效的脸欺骗检测与运动放大</一个rt我cle-title> <conf-name> 《IEEE计算机视觉与模式识别会议</conf-name> <conf-date> 2013年6月</conf-date> <conf-loc> 俄勒冈州的波特兰</conf-loc> <publisher-name> IEEE</publisher-name> </element-citation> </ref> <ref id="B14" content-type="article"> <label>14</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Freitas</年代urname> <given-names> T。</given-names> </name> <name> <surname> Komulainen</年代urname> <given-names> J。</given-names> </name> <name> <surname> Anjos</年代urname> </name> <etal></etal> </person-group> <article-title> 面活性检测使用动态纹理</一个rt我cle-title> <source> <italic> EURASIP杂志在图像和视频处理</我t一个lic> <year> 2014年</year> <volume> 2014年</volume> <issue> 1</我年代年代ue> <fpage> 2</fpage> </element-citation> </ref> <ref id="B15" content-type="misc"> <label>15</label> <element-citation publication-type="other"> <person-group person-group-type="author"> <name> <surname> 晓光</年代urname> <given-names> t U。</given-names> </name> <name> <surname> 张</年代urname> <given-names> H。</given-names> </name> <name> <surname> 梅</年代urname> <given-names> x。</given-names> </name> <etal></etal> </person-group> <article-title> 提高运动线索的脸欺骗使用cnn-lstm架构</一个rt我cle-title> <year> 2019年</year> <comment> <ext-link ext-link-type="uri" xlink:href="http://arxiv.org/abs/1901.05635"> http://arxiv.org/abs/1901.05635</ext-link> </comment> </element-citation> </ref> <ref id="B16" content-type="article"> <label>16</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Alotaibi</年代urname> <given-names> 一个。</given-names> </name> <name> <surname> 马哈茂德</年代urname> <given-names> 一个。</given-names> </name> </person-group> <article-title> 深面活性检测基于使用卷积神经网络非线性扩散</一个rt我cle-title> <source> <italic> 信号,图像和视频处理</我t一个lic> <year> 2017年</year> <volume> 11</volume> <issue> 4</我年代年代ue> <fpage> 713年</fpage> <lpage> 720年</lpage> <pub-id pub-id-type="doi"> 10.1007 / s11760 - 016 - 1014 - 2</pub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 84994517526</pub-id> </element-citation> </ref> <ref id="B17" content-type="inproceedings"> <label>17</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 张</年代urname> <given-names> 年代。</given-names> </name> <name> <surname> 王</年代urname> <given-names> X。</given-names> </name> </person-group> <article-title> 大规模数据集和基准多模态的脸欺骗</一个rt我cle-title> <conf-name> 会议的程序在计算机视觉和模式识别</conf-name> <conf-date> 2019年11月</conf-date> <conf-loc> 美国CA</conf-loc> <publisher-name> IEEE</publisher-name> </element-citation> </ref> <ref id="B18" content-type="inproceedings"> <label>18</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 冯</年代urname> <given-names> y . a . O。</given-names> </name> <name> <surname> 风扇</年代urname> <given-names> w . U。</given-names> </name> <name> <surname> 小虎</年代urname> <given-names> s h·a·O。</given-names> </name> <etal></etal> </person-group> <article-title> 联合真实感三维人脸重建和密集的排列位置地图回归网络</一个rt我cle-title> <conf-name> 欧洲计算机视觉的诉讼</conf-name> <conf-date> 2018年9月</conf-date> <conf-loc> 柏林,德国</conf-loc> <publisher-name> 施普林格</publisher-name> <fpage> 557年</fpage> <lpage> 574年</lpage> </element-citation> </ref> <ref id="B19" content-type="inproceedings"> <label>19</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 开明</年代urname> <given-names> H。</given-names> </name> <name> <surname> 象屿</年代urname> <given-names> Z。</given-names> </name> <name> <surname> Shaoqing</年代urname> <given-names> R。</given-names> </name> </person-group> <article-title> 深层残留图像识别的学习</一个rt我cle-title> <conf-name> 会议的程序在计算机视觉和模式识别</conf-name> <conf-date> 2016年6月</conf-date> <conf-loc> 美国西雅图,华盛顿州</conf-loc> </element-citation> </ref> <ref id="B20" content-type="article"> <label>20.</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Schettini</年代urname> </name> <name> <surname> Gasparini</年代urname> <given-names> R。</given-names> </name> <name> <surname> Corchs</年代urname> <given-names> F。</given-names> </name> <etal></etal> </person-group> <article-title> 对比图像校正方法</一个rt我cle-title> <source> <italic> 电子杂志的成像</我t一个lic> <year> 2010年</year> <volume> 19</volume> <issue> 2</我年代年代ue> <pub-id pub-id-type="publisher-id"> 023005年</pub-id> <pub-id pub-id-type="doi"> 10.1117/1.3386681</pub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 77951235066</pub-id> </element-citation> </ref> <ref id="B21" content-type="article"> <label>21</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 程</年代urname> <given-names> Y。</given-names> </name> <name> <surname> 焦</年代urname> <given-names> l</given-names> </name> <name> <surname> 曹</年代urname> <given-names> X。</given-names> </name> <name> <surname> 李</年代urname> <given-names> Z。</given-names> </name> </person-group> <article-title> 为人脸识别Illumination-insensitive特性</一个rt我cle-title> <source> <italic> 计算机视觉</我t一个lic> <year> 2017年</year> <volume> 33</volume> <issue> 11</我年代年代ue> <fpage> 1483年</fpage> <lpage> 1493年</lpage> <pub-id pub-id-type="doi"> 10.1007 / s00371 - 017 - 1357 - x</pub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85014026727</pub-id> </element-citation> </ref> <ref id="B22" content-type="inproceedings"> <label>22</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Farneback</年代urname> <given-names> G。</given-names> </name> </person-group> <article-title> 双座运动估计基于多项式的扩张</一个rt我cle-title> <conf-name> 《13北欧图像分析会议</conf-name> <conf-date> 2003年6月</conf-date> <conf-loc> 哈尔姆斯塔德、瑞典</conf-loc> </element-citation> </ref> <ref id="B23" content-type="inproceedings"> <label>23</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 杰</年代urname> <given-names> h . U。</given-names> </name> <name> <surname> 沈</年代urname> <given-names> l . I。</given-names> </name> <name> <surname> Albanie</年代urname> <given-names> 年代。</given-names> </name> <etal></etal> </person-group> <article-title> Squeeze-and-excitation网络</一个rt我cle-title> <conf-name> 诉讼的IEEE模式分析与机器智能</conf-name> <conf-date> 2019年6月</conf-date> <conf-loc> 美国犹他盐湖城</conf-loc> </element-citation> </ref> <ref id="B24" content-type="inproceedings"> <label>24</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 吸引</年代urname> <given-names> 年代。</given-names> </name> <name> <surname> 公园</年代urname> <given-names> J。</given-names> </name> <name> <surname> Joon-Young</年代urname> <given-names> l</given-names> </name> <etal></etal> </person-group> <article-title> CBAM:卷积块注意模块</一个rt我cle-title> <conf-name> 欧洲计算机视觉的诉讼</conf-name> <conf-date> 2018年9月</conf-date> <conf-loc> 德国慕尼黑</conf-loc> <publisher-name> 大会</publisher-name> </element-citation> </ref> <ref id="B25" content-type="inproceedings"> <label>25</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 张</年代urname> <given-names> z W。</given-names> </name> <name> <surname> 杨ydF4y2Ba</surname> <given-names> J·J。</given-names> </name> <name> <surname> 刘</年代urname> <given-names> 美国F。</given-names> </name> <name> <surname> Lei</年代urname> <given-names> Z。</given-names> </name> <name> <surname> 易</年代urname> <given-names> D。</given-names> </name> <name> <surname> 李</年代urname> <given-names> 美国Z。</given-names> </name> </person-group> <article-title> 一张脸antispoofing数据库与多样的攻击</一个rt我cle-title> <conf-name> 生物识别技术的国际会议</conf-name> <conf-date> 2012年6月</conf-date> <conf-loc> 新德里,印度</conf-loc> <publisher-name> IEEE</publisher-name> <fpage> 26</fpage> <lpage> 31日</lpage> </element-citation> </ref> <ref id="B26" content-type="inproceedings"> <label>26</label> <element-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Chingovska</年代urname> <given-names> 我。</given-names> </name> <name> <surname> Anjos</年代urname> <given-names> 一个。</given-names> </name> <name> <surname> 马塞尔</年代urname> <given-names> 年代。</given-names> </name> </person-group> <article-title> 在面对anti-spoofifing localbinary模式的有效性</一个rt我cle-title> <conf-name> 《生物识别技术特殊利益集团的国际会议(BIOSIG)</conf-name> <conf-date> 2012年9月</conf-date> <conf-loc> 中国香港</conf-loc> </element-citation> </ref> <ref id="B27" content-type="article"> <label>27</label> <element-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 拉赫曼</年代urname> <given-names> y . a U。</given-names> </name> <name> <surname> 阿宝</年代urname> <given-names> l . M。</given-names> </name> <name> <surname> 刘</年代urname> <given-names> M。</given-names> </name> </person-group> <article-title> Livenet:改善功能使用卷积神经网络泛化脸活性检测</一个rt我cle-title> <source> <italic> 专家系统与应用程序</我t一个lic> <year> 2018年</year> <volume> 108年</volume> <fpage> 159年</fpage> <lpage> 169年</lpage> <pub-id pub-id-type="doi"> 10.1016 / j.eswa.2018.05.004</pub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 85047068107</pub-id> </element-citation> </ref> </ref-list> </back> </article> </body> </html>