研究文章|开放获取
Guangquan徐,Guofeng冯、焦Litao Meiqi冯,ξ郑,剑, ”FNet:二束模型检测敌对攻击5 g深度学习建设服务”,安全性和通信网络, 卷。2021年, 文章的ID5395705, 10 页面, 2021年。 https://doi.org/10.1155/2021/5395705
FNet:二束模型检测敌对攻击5 g深度学习建设服务
文摘
与人工智能技术的广泛应用在5 g和超越第五代(B5G)网络,已成为人工智能的一个共同趋势融入现代通信网络。深度学习是机器学习的一个子集,最近在许多领域导致了重大改进。特别是,许多5 g服务使用深度学习建设技术提供更好的服务。虽然深度学习是强大的,但它仍然是脆弱的,当面对5 g深度学习建设服务。因为深度学习算法的非线性,轻微的扰动输入由攻击者将导致大的变化输出。尽管许多研究者提出对对手的攻击方法,这些方法并不总是有效的连续波等强大的攻击。在本文中,我们提出一个新的二束网络包括RGB流和空间丰富模型(SRM)噪声流发现敌对的例子和干净的例子之间的区别。RGB流使用原始数据捕捉细微的差别在敌对的样本。SRM噪音流使用SRM过滤器得到噪声特性。我们认为噪声特性是额外的证据对抗的检测。 Then, we adopt bilinear pooling to fuse the RGB features and the SRM features. Finally, the final features are input into the decision network to decide whether the image is adversarial or not. Experimental results show that our proposed method can accurately detect adversarial examples. Even with powerful attacks, we can still achieve a detection rate of 91.3%. Moreover, our method has good transferability to generalize to other adversaries.
1。介绍
深度学习最近导致显著的改善在许多领域,如计算机视觉(1- - - - - -3),语音识别(4,5),和自然语言处理6,7]。5 g通信的不断发展和人工智能技术,两人从相互独立发展到深度集成。人工智能促进智能通信网络本身的发展,业界普遍认为,5 g和人工智能通用技术(gpt) [8]。许多人探讨了人工智能的应用5 g通信的形式调查或实证研究(9,10]。在这一趋势下,人工智能发展迅速,积极沟通。例如,中国运营商向用户和合作伙伴提供服务由人工智能中心(11]。人工智能中心是基于人工智能算法,封装scene-oriented服务,并提供应用程序和服务在客户销售和客户服务。
尽管深度学习是强大的,有安全风险深度学习神经网络提供的服务模型。例如,在客户销售服务部署在5 g平台,主要应用人工智能技术是图像分类。这个服务有效地识别图像数据通过图像分类模型。虽然图像分类模型为用户提供了极大的便利,深度学习的内在脆弱是服务的一个弱点。最近的研究(12,13]表明,攻击者可以创建敌对的样品通过添加小扰动原始数据。干扰非常小,他们是人类的眼睛几乎看不见。如果攻击者对抗的样本输入识别模型,该模型将不会正确地认识到样品。
深度学习模型部署在5 g平台提供了智能图像识别服务。黑客攻击深学习模式,导致错误的图像识别服务部署。具体来说,攻击者增加了小扰动原始输入引起的输出模型中一个巨大的变化。目前现有的最敌对的攻击是针对图像分类。确保安全的5 g深度学习建设服务,我们主要研究对抗样本的检测方法来防止图像分类模型。虽然方法(14- - - - - -17)提出了检测敌对的例子,这些方法总是失败当面对一个强大的攻击像连续波。解决对手的攻击图像分类服务基于5 g平台,我们主要研究对抗样本的检测方法。在我们的方法中,我们作为对抗干扰对抗特殊的噪声特性,可以提供额外的证据样本检测。因为对抗干扰和图像隐写术都直接修改图片,破坏原始图像像素之间的相关性,我们可以应用隐写式密码解密的方法对抗领域的样品检测。事实上,格拉汉姆·古德费勒等人还提出,对手的攻击可以被视为偶然的隐写术(18]。
在本文中,我们使用丰富的功能从空间中提取丰富的模型(SRM) [19)来帮助检测的深度学习模型对抗的例子。SRM是传统方法提取噪声特性在隐写式密码解密20.]。隐写式密码解密隐写术的出现促进了发展。隐写术是将秘密信息添加到原始载体,使信息隐藏在载体难以检测(21]。图片的隐写术改变图片的像素值,这将破坏原始图像的相邻像素之间的相关性。因此,隐写式密码解密可以根据这个进行。隐写式密码解密决定图像隐写式密码解密了建模图像的相邻像素之间的相关性。传统的隐写式密码解密算法是基于手工特征提取。经过不断的研究,许多学者、SRM已经能够从数据中提取30000多维功能通过改进高通滤波器(HPFs分区)22]。这些高通滤波器的设计大多是基于经验的。SRM使用30个不同像素预测。像素预测是线性的或非线性的。每一个线性预测是移不变的有限脉冲响应滤波器由一个内核描述矩阵 。剩余是一个矩阵的尺寸一样吗Y: ∗象征表示卷积和在哪里mirrorpadded。因此,一样的尺寸吗 。
有六种类型的残差:一阶,二阶,三阶,广场边 ,和边 (19]。表1显示了计算方法的一阶、二阶和三阶线性残差。例如,一个简单的线性残留 ,这是一对横向相邻像素之间的区别。在这种情况下,内核是残留 ,这意味着像素值预测水平作为其邻近的像素。我们可以用这种方法来提取其他方向的噪声特性。
|
|||||||||||||||||||||
广场边缘 ,和边 线性残差使用更多方向邻域像素的计算。表2和3展示广场边缘 ,和边 SRM过滤内核。
|
||||||
|
||||||
我们的模型由一个二束网络和网络的决定。RGB流用于捕捉细微的差别,比如对比差异的RGB图像。SRM噪音流用于捕捉清洁样品和对抗性的样本之间的噪声不一致。我们使用30个典型SRM过滤器从相邻像素提取噪声特性。使用噪声特性的SRM噪声输入二束模型。然后,我们使用双线性池(23]融合提取两个流的特性。双线性池用于它可以融合两个流的特性,同时保留空间信息。最后,我们使用完全连接层作为决定网络检测敌对的样本。
我们的贡献总结如下:(1)提高5 g深度学习建设的安全服务,我们提出一种新的检测模型和执行端到端培训二束敌对的例子。这种方法可以获得丰富的特征信息从噪声特性和检测提供额外的证据敌对的例子。即使有一个强大的连续波攻击,我们仍然可以实现91.3%的检出率。(2)我们选择的空间丰富模型(SRM)生成线性和非线性噪声特性。30 SRM过滤器可能会放大噪声的不同领域和获得丰富的信息,以帮助检测敌对的样本。
本文的其余部分组织如下。部分2描述了相关工作对敌对的样本攻击和深度学习模型。部分3介绍了提出二束网络。部分4对实验结果进行了分析。最后,部分5总结了纸。
2。相关工作
我们简要回顾相关工作对抗攻击和对抗的防御在这一节中。
2.1。5 g深度学习建设服务的安全问题
由于神经网络固有的脆弱性,5 g深学习服务建设面临同样的威胁对手的攻击。深度学习(包括深强化学习)是容易受到敌对的例子24]。这些修改输入可以欺骗模型作出错误的决定。黑客可能会利用这个漏洞攻击服务基于深度学习(25]。对手的攻击攻击可分为黑盒和白盒的攻击。黑箱攻击只能得到的识别结果输入通过API接口平台的但不能获得模型的内部参数。白盒攻击可以得到所有的参数神经网络模型部署在平台。因此,白盒攻击也代表最高水平的攻击。
2.2。深度学习攻击
深度学习的深度学习算法是一个弱点服务基于5克。由于神经网络固有的脆弱性(26),一个小对抗干扰会导致一个巨大的改变在模型的输出。此外,学者们提出了攻击模型优化过程和正则化过程(27,28]。
格拉汉姆·古德费勒et al。18)提出了快速梯度符号(FGSM)产生敌对的例子。FGSM的主要想法是使干扰方向的梯度方向最大化损失函数值的变化,然后最大化分类器的分类结果的变化。
Moosavi-Dezfooli et al。28]提出DeepFool找到最短的距离的干净图像边界的决定敌对的图像。DeepFool不属预定目标的攻击方法来生成一个敌对的例子是通过迭代干扰图像。实验表明,比FGSM DeepFool方法产生更少的干扰,也有类似的傻瓜。
Carlini和瓦格纳27)提出了连续波方法产生敌对的例子。连续波是一种对抗性的例子基于目标函数优化的攻击算法。它限制了 , ,和规范扰动探测不到。实验表明,防守蒸馏是完全无法抵御这三种类型的攻击。连续波方法是一个强大的攻击很难防守。
2.3。深度学习国防
最近的研究(29日]表明,对抗的例子不仅误导分类器在电子数据,在现实世界也有相同的效果。针对敌对的极大危害的例子,许多学者研究了防御对抗的例子。
格拉汉姆·古德费勒等人提出的对抗训练。18)是早期措施抵御样本。主要的方法是训练同时敌对的样本和正常样本在训练阶段增强模型的鲁棒性。然而,对抗性训练需要大量的敌对的例子来确保高检测率,这将导致巨大的培训成本。
辛顿et al。15)首先介绍了蒸馏防御方法对于小模型模仿大模型。后来,Papernot et al。30.)采用蒸馏的方法来保护对抗的样本。这种方法使模型的决策边界平滑,可以有效抵御敌对的样品由FGSM生成,荡妇,和其他算法。与敌对的培训,其培训成本较低。然而,这种方法并不是有效的连续波攻击。
Dziugaite et al。16]研究了针对FGSM攻击的防御性JPG压缩特性的影响。这种防御方法的限制是,大规模的压缩的下降将导致法律样本分类的准确性。示例与大干扰,它并不足以消除干扰。
由于敌对的样本重新分类的困难,许多研究人员转向敌对的样本的检测。
梁等。17)提出了一个敌对的样本检测方法基于自适应去噪。在这种方法中,对抗干扰被认为是人工噪声,降噪技术用于减少敌对的效果。刘等人。31日)提出了隐写式密码解密应用于检测敌对的例子。这项工作发现了一个有关计算机视觉之间的联系和对立隐写式密码解密的例子。Feinmanet et al。32)提出了一种方法来检测敌对的例子使用贝叶斯网络的不确定性和核密度估计的方法。
2.4。该方法
我们设计了一个二束网络检测敌对的例子。如图1,RGB流直接使用RGB图像输入和SRM流使用SRM滤波器的噪声特征提取作为输入。然后,我们使用双线性池融合的特征提取两个cnn。最后,我们将最终的特征输入决定网络分类。此外,我们的训练模型维护一个良好的检出率与敌对的黑箱模型生成的例子。
2.5。SRM特征提取
对手的攻击和隐写术图像像素值进行扰动,改变像素之间的依赖。然而,隐写式密码解密可以有效地检测修改引起的隐写术通过建模的自然图像相邻像素之间的依赖。所以,我们也可以利用隐写式密码解密识别偏差由于对手的攻击。灵感来自刘的工作(31日和周33),我们决定使用SRM过滤器放大图像的局部噪声干扰和使用它作为额外证据协助决策网络。
虽然刘的工作等。31日)SRM过滤器用于对抗样本识别,证明了该方法的有效性,这些作品只考虑线性SRM噪声特性。在我们的工作中,我们模拟的人工提取方法SRM线性残差。的线性卷积图像获得的残差是一个高通滤波器移不变的内核。具体来说,我们使用30基本SRM卷积过滤器然后卷积这个内核与原始图像收集基本的噪声特性。剩余的定义过滤器表所示1- - - - - -3。此外,我们把过滤器分为五类:一阶,二阶,三阶,广场 +边缘 ,和广场 +边缘 。过滤器为每个类别的数量是8,4、8、5和5,根据像素特征提取的不同的方向。具体来说,第一,三阶,我们使用8像素特征的提取过滤器在八个方向 ;二阶的边缘 ,和边 ,4过滤器是用来提取像素特征四个方向 ;在广场 和广场 ,我们使用1像素特征的提取过滤器。的角度更全面的SRM非线性残余统计特性的特点,我们使用了线性残留特性通过SRM过滤器在空间域获得非线性残余特性的非线性处理。
取特征提取的二阶SRM滤波器为例,介绍如何获得非线性剩余功能。首先,我们可以预测像素从它的水平或垂直相邻的像素,从而获得2水平和垂直的残余。然后,我们得到4残差方向: 。其次,我们可以使用这些4残差来计算2非线性极大极小“残差如下:
其他四个类型的非线性残余功能以同样的方式计算。通过这种方式,得到了非线性剩余10通道的特点。最后,我们得到的线性特性30渠道和10通道的非线性特性。然后,我们结合的非线性和线性特性得到噪声特性40-channel作为噪声的输入流。
2.6。二束网络
我们采用二束网络与RGB流和空间丰富模型(SRM)噪声流检测敌对的图像。设计的模型结构如图1。RGB输入的角色在我们的网络是捕获重要的干扰。然而,对于干扰的图像被小心隐藏缝合处理边界和减少对比差异,很难使用RGB流独自完成这项任务。此外,当产生敌对的样本,我们经常使用规范限制对手的干扰。因此,生成的敌对的样本扰动通常人眼不可见。在这种情况下,很难完成敌对的检测样本仅依靠RGB流。灵感来自刘的工作(31日和周33),我们采用SRM噪声特性作为额外的证据来确定输入图像是否敌对的。
在我们的模型中,我们使用RGB流模拟视觉篡改检测图像干扰和大扰动;SRM噪音流用于提取和放大噪声特性通过SRM过滤器,这是用作额外证据敌对的图像检测(见表4对特定的网络结构)。在SRM的结构噪声流网络,我们添加一个ABS层减少符号模型决定的影响。然后,我们使用双线性池(23融合了SRM噪音流和篮板流。双线性池提出了细粒度的分类器。它有两个CNN网络结构和特征提取两个CNN网络融合通过双线性池。融合后的特征通过一个决定网络由两个完全连接层,得到最终的预测结果(见图1)。我们使用叉损失导致以下目标函数: 在哪里是输入图像,是x的标签,表示SRM网络与固定权重,和是RGB流网络和噪音流网络,表示双线性池、表示决策网络,表示叉损失。
|
||||||||||||||||||||||||||||||||||||||
该模型接受32323(宽高度通道)图像和输入两种类型的标签。这个模型由SGD优化器训练。SGD优化器的参数设置如下:动量= 0.9和weight_decay = 0。网络的hyperparameters设置如下:lr = 0.1和batch_size = 64,和培训设计是100时代,和lr自动更改为每30时代原始值的0.1倍。
3所示。实验
在本节中,我们目前的实验评价方法,比较几种检测方法。
3.1。实验设置
3.1.1。数据集
我们评估CIFAR-10数据集上的检测方法。CIFAR-10数据集包含了60000年 彩色图片,培训包括50000张图片和10000图像进行测试。
对于敌对的示例数据集,我们采用三个FGSM攻击方法,连续波,DeepFool。我们用三种方法来攻击VGG16 (34],Resnet50 [35],LeNet [36),终于9敌对的示例数据集。为了方便起见,我们命名为敌对的示例数据集生成的VGG16“Adv-VGG16-Set。“我们使用了Adv-VGG16-Set训练二束网络模型(FNet)和基线模型。生成的数据集攻击ResNet50和LeNet用于黑盒测试来测试模型Adv-VGG16-Set训练。三种攻击方法的参数设置如表所示5。以前的工作表明,不属预定目标的攻击更容易成功,结果在小扰动,转移不同的模型。因此,我们测试了我们的方法不属预定目标的敌对的例子。
|
||||||||||||||
3.1.2。分类器
CIFAR-10数据集,我们训练有素的三个模型:VGG16 [34],ResNet50 [35],LeNet [36]。这些模型被SGD训练优化器(动量= 0.9;weight_decay = 0), hyperparameters设置如下:lr = 0.01, batch_size = 64,时代= 30,lr为每10乘以0.1倍的时代。
3.1.3。基线模型
我们比较我们的方法(FNet)与其他检测方法包括RGB-Net SRM-Net, KD +布鲁里溃疡(32]。RGB-Net是一个单个流网络,只有输入RGB图像判断。它有相同的网络结构RGB流二束网络的一部分我们设计;同样,SRM-Net只有SRM我们网络的一部分。布鲁里溃疡KD + (32)使用贝叶斯模型不确定性和核密度估计来确定是否敌对的示例。为了方便起见,我们使用FNet引用方法。
3.1.4。攻击方法
我们采用了三种攻击方法从敌对的健壮性设计的工具箱微软37]:FGSM [18),连续波(27],DeepFool [28]。RGB-NET、SRM-NET KD + BU, FNet,我们都Adv-VGG16-Set用于培训。在训练中,我们培养一个新的探测器每次只使用一种攻击方法。
3.1.5。评价指标
我们使用精密的分数,回忆起评分,ROC曲线下面积(AUC)评分模型的评价指标(38]。AUC值越接近1,ROC曲线下的面积较大,模型越好。
度规的计算公式如下: 在哪里表示真阳性,表示假阳性率表示假阴性率。
4所示。实验结果
CIFAR-10数据集,表6- - - - - -8显示不同的检测方法的精度和召回分数正常图像和敌对的图像。大胆的值在表中代表我们方法的实验结果(FNet)。我们可以看到,RGBNet和我们的方法(FNet)有良好的效果在防御攻击白盒和黑盒的攻击。FNet达到93.2%的精度分数对抗VGG16 DeepFool生成的图像。实验结果表明,很难探测到敌对的连续波方法生成的例子。SRM-Net几乎是无效的对连续波。KD +布鲁里溃疡和RGB-Net实现低分数时检测连续波。然而,FNet改善KD +布鲁里溃疡30%以上,和FNet达到90.8%的精度分数检测敌对的连续波产生的例子。正如上面我们提到的,所有的探测器在Adv-VGG16-Set训练。此外,我们可以看到,我们的方法具有良好的可转让性可以检测到敌对的样品由黑人模特。 SRM-Net and KD + BU are almost invalid against adversarial examples generated on black models, while the precision score of FNet reaches 90.1% against CW.
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
大胆的值代表的实验的结果我们的方法(FNet)。 |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
大胆的值代表的实验的结果我们的方法(FNet)。 |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
图2显示CIFAR-10 ROC曲线的检测方法。在第一行数据显示探测器性能的三个攻击方法的不同检测方法对敌对的白盒模型生成的样本(VGG16)。我们可以看到FNet的AUC得分从0.963到0.976,KD的AUC得分+布鲁里溃疡是0.795到0.837。数据显示,很难检测连续波攻击。SRM-Net的AUC得分是0.525,KD的AUC得分+布鲁里溃疡是0.795。我们的方法达到最好的性能检测敌对的白盒模型生成的样本。第二和第三行中的数据显示不同的检测器性能的方法对抗黑盒模型生成的样本。实验结果表明,FNet的AUC分数达到0.954。KD +布鲁里溃疡和SRM-Net实现低AUC得分当检测样品产生的黑箱模型。布鲁里溃疡KD +最好的AUC得分是0.715时检测对ResNet DeepFool攻击。
结合精密、召回和AUC分数,RGB-Net执行第二个方法(FNet)和KD + BU排名第三。在图2,我们可以清楚地看到,FNet更好的性能在所有情况下都比其他检测方法。RGB-Net布鲁里溃疡和KD +防御时表现良好白盒的攻击,但他们不执行黑盒攻击。
5。结论
在本文中,我们提出一个二束模型包括RGB流和SRM残流改善深度学习的安全服务基于5克。我们使用30 SRM过滤器来提取线性噪声特性和执行非线性处理获得40个频道的丰富的功能。我们将这些噪声特性输入网络作为检测更多的证据。实验表明,我们的方法执行黑盒和白盒的攻击。此外,我们的方法具有良好的可转让性。
虽然我们的检测方法是有效对抗的例子图像,该方法不是有效的在所有类型的数据。空间丰富模型(SRM)适用于图像数据特征提取方法。我们的二束网络采用SRM隐写式密码解密获得对抗的检测特性作为额外的证据,这是唯一有效的图像。因此,我们的方法是惟一有效的深度学习服务,图像识别等提供服务。在未来的工作中,我们将探索更有效的方法对抗的样品检测和恢复。
数据可用性
实验数据用于支持本研究的结果包括在本文中。实验部分中描述的数据4在细节。
的利益冲突
作者宣称没有利益冲突。
确认
这部分工作是由中国国家重点研发项目(2019号yfb2101700),中国的国家科学基金会(62172297和62172297号),四川省重点研发项目(第21号sysx0082),天津智能制造专项基金项目(20201159)、天津市自然科学基金资助(19 jcqnjc00200)和澳大利亚研究理事会项目(没有链接。LP190100676)。
引用
- a . Krizhevsky i Sutskever, g·e·辛顿“ImageNet分类与深卷积神经网络,”先进的神经信息处理系统25卷,第1105 - 1097页,2012年。视图:谷歌学术搜索
- c . Szegedy w·刘,y贾et al .,“要更深的曲线玲珑,”《IEEE计算机视觉与模式识别会议美国,页1 - 9,波士顿,MA, 2015年6月。视图:出版商的网站|谷歌学术搜索
- m . Shahverdy m . Fathy r . Berangi, m . Sabokrou”司机使用深卷积神经网络行为检测和分类,“专家系统与应用程序文章ID 113240卷,149年,2020年。视图:出版商的网站|谷歌学术搜索
- z, j .盖革,j . Pohjalainen a . Mousa b .舒乐问,“深度学习环境鲁棒语音识别:近期发展的概述,“ACM智能交易系统和技术(TIST),9卷,不。5,28,2018页。视图:出版商的网站|谷歌学术搜索
- d . Amodei s Ananthanarayanan, r . Anubhai“深演讲2:端到端在英语和普通话语音识别,”机器学习的国际会议PMLR,页173 - 182年,纽约,纽约,美国,2016年6月。视图:谷歌学术搜索
- j .郭h, h .通et al .,“GluonCV GluonNLP:深度学习在计算机视觉和自然语言处理,”机器学习研究杂志》上,21卷,不。23日,1 - 7,2020页。视图:谷歌学术搜索
- t .年轻,d .哈札里卡、美国云苓和e·威尔士”最近的趋势在基于深度学习的自然语言处理,”IEEE计算机情报杂志,13卷,不。3,55 - 75、2018页。视图:出版商的网站|谷歌学术搜索
- r·g·Lipsey k . i Carlaw, c . t . Bekar经济的转换:通用技术和长期经济增长英国牛津,牛津大学出版社,牛津,2005年。
- M . Chen Challita, w•萨阿德·c .阴和M Debbah,“机器学习和人工智能无线网络:神经网络教程,”2017年,https://arxiv.org/abs/1710.02913。视图:谷歌学术搜索
- k·m·g·Kibria Nguyen g . p . Villardi o .赵k . Ishizu f .小岛,“大数据分析、机器学习和人工智能在下一代无线网络,“IEEE访问》第六卷,第32338 - 32328页,2018年。视图:出版商的网站|谷歌学术搜索
- k .贾·m·肯尼,j·马提拉和t . Seppala“人工智能的应用在中国数字平台巨人:百度,阿里巴巴和腾讯”ETLA报告,81卷,2018年。视图:谷歌学术搜索
- x y邓,t·张,g .卢郑,j .金和q l .汉”深上优于自主驾驶系统:攻击和防御的调查,“IEEE工业信息,17卷,2021年。视图:出版商的网站|谷歌学术搜索
- 郑x, y邓t, c . Chen g .卢和m .金正日“敌对的攻击和防御的分析自动驾驶模式,”学报2020年IEEE国际会议上普适计算和通信(PerCom)IEEE,页1 - 10,比萨,意大利,2020年5月。视图:出版商的网站|谷歌学术搜索
- 焦g, g . h .鑫l . et al .,“semi-black-box android敌对的样本攻击对DLAAS框架,”2021年,https://arxiv.org/abs/2105.11593。视图:谷歌学术搜索
- g .辛顿,o . Vinyals和j .院长“蒸馏在神经网络的知识,”2015年,https://arxiv.org/abs/1503.02531。视图:谷歌学术搜索
- g·k . Dziugaite z Ghahramani, d·m·罗伊“jpg压缩的影响的研究在敌对的图像,”2016年,https://arxiv.org/abs/1608.00853。视图:谷歌学术搜索
- b .梁h . Li m·苏x, w•史和x王”检测敌对的图像示例深层神经网络与自适应降噪”IEEE可靠和安全的计算18卷,2018。视图:谷歌学术搜索
- j·格拉汉姆·古德费勒,j . Shlens, c . Szegedy“解释和利用对手的例子,”2014年,https://arxiv.org/abs/1412.6572。视图:谷歌学术搜索
- j . Fridrich和j . Kodovsky”丰富的数字图像隐写式密码解密模式”,IEEE取证和安全信息,7卷,不。3、868 - 882年,2012页。视图:出版商的网站|谷歌学术搜索
- Fridrich和m . Goljan”,实际数字图像隐写式密码解密:状态的艺术,“国际社会对光学和光子学卷。4675年,1-13,2002页。视图:出版商的网站|谷歌学术搜索
- n·f·约翰逊和美国Jajodia”,探索隐写术:看到看不见的,”电脑没有,卷。31日。2,保险,1998页。视图:出版商的网站|谷歌学术搜索
- s, s .钟,刘y“深残余学习图像隐写式密码解密,”多媒体工具和应用程序,卷77,不。9日,第10453 - 10437页,2018年。视图:出版商的网站|谷歌学术搜索
- T.-Y。林、a . RoyChowdhury和s . Maji“双线性CNN模型细粒度的视觉识别,”《IEEE计算机视觉国际会议,页1449 - 1457,圣地亚哥,智利,2015年12月。视图:出版商的网站|谷歌学术搜索
- 诉Behzadan和a·姆尼尔”,深入强化学习政策诱导攻击的脆弱性,”《国际会议在模式识别的机器学习和数据挖掘施普林格,页262 - 275年,纽约,纽约,美国,2017年7月。视图:出版商的网站|谷歌学术搜索
- p和n . Vlajic“健壮性深autoencoder入侵检测在对抗污染,”学报》第五届年会和训练营在安全科学的热门话题美国罗利,页1 - 8,数控,2018年4月。视图:出版商的网站|谷歌学术搜索
- c . Szegedy w·扎i Sutskever et al .,“有趣的神经网络的性质,”2013年,https://arxiv.org/abs/1312.6199。视图:谷歌学术搜索
- n Carlini d·瓦格纳,“评估神经网络的鲁棒性,”学报2017年IEEE安全和隐私(SP)研讨会上页39-57 IEEE,圣何塞,CA,美国,2017年5月。视图:出版商的网站|谷歌学术搜索
- S.-M。Moosavi-Dezfooli, a法和f·帕斯卡”DeepFool:一个简单而精确的方法愚弄深层神经网络”《IEEE计算机视觉与模式识别会议拉斯维加斯,页2574 - 2582年,NV,美国,2016年6月。视图:谷歌学术搜索
- a . Kurakin。格拉汉姆·古德费勒,美国Bengio”对抗的例子在物质世界中,“2016年,https://arxiv.org/abs/1607.02533。视图:谷歌学术搜索
- n . Papernot p·麦克丹尼尔,吴x, s . Jha和偶像,“蒸馏作为防御敌对的扰动对深层神经网络”学报2016年IEEE安全和隐私(SP)研讨会上IEEE,页582 - 597年,2016年5月,美国圣何塞。视图:出版商的网站|谷歌学术搜索
- w . j . Liu, y . Zhang et al .,“基于检测防御敌对的例子从隐写式密码解密的观点,”《IEEE / CVF计算机视觉与模式识别会议长滩,页4825 - 4834年,CA,美国,2019年6月。视图:出版商的网站|谷歌学术搜索
- r . Feinman r·r·科廷s Shintre和a·b·加德纳“敌对的样本检测工件,”2017年,https://arxiv.org/abs/1703.00410。视图:谷歌学术搜索
- p .周韩x v . i Morariu l·s·戴维斯,“学习丰富的功能图像处理检测,”《IEEE计算机视觉与模式识别会议,页1053 - 1061,盐湖城,UT,美国,2018年。视图:出版商的网站|谷歌学术搜索
- k . Simonyan和a . Zisserman”很深的卷积网络大规模图像识别,”2014年,https://arxiv.org/abs/1409.1556。视图:谷歌学术搜索
- k . x张,他任美国,j .太阳,“深残余学习图像识别,”《IEEE计算机视觉与模式识别会议拉斯维加斯,页770 - 778年,NV,美国,2016年6月。视图:出版商的网站|谷歌学术搜索
- y LeCun (l . Bottou y Bengio, p . Haffner“Gradient-based学习应用于文档识别,”IEEE学报》,卷86,不。11日,第2324 - 2278页,1998年。视图:谷歌学术搜索
- 我。尼古拉·m .辛恩,m . n . Tran et al .,“敌对的健壮性工具箱v1。0.0”,2018年,https://arxiv.org/abs/1807.01069。视图:谷歌学术搜索
- n . Carlini a Athalye: Papernot et al .,“评估敌对的鲁棒性,”2019年,https://arxiv.org/abs/1902.06705。视图:谷歌学术搜索
版权
版权©2021 Guangquan徐等。这是一个开放分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。