评论文章|开放获取
穆罕默德•伊姆兰塔里克这个Ahmed Memon沙基尔•艾哈迈德Shahzadi Tayyaba,穆罕默德Tahir Mushtaq, Natash阿里面,穆罕默德伊姆兰,默罕默德•阿什拉夫(george w . bush), ”回顾深度学习安全和隐私防御技术”,移动信息系统, 卷。2020年, 文章的ID6535834, 18 页面, 2020年。 https://doi.org/10.1155/2020/6535834
回顾深度学习安全和隐私防御技术
文摘
在最近几年,深度学习提供了一个优良的性能在不同的图像识别等领域,模式匹配,甚至在网络安全。深度学习有许多优点,包括快速解决复杂的问题,巨大的自动化、非结构化数据的最大应用程序,能够提供高质量的结果,减少高成本,不需要数据标签和识别复杂的相互作用,但它也有一定的局限性和不透明一样,运算量,需要丰富的数据,和更复杂的算法。在我们的日常生活中,我们使用许多使用深度学习的应用程序模型决策基于预测,如果深度学习模型成为错误预测由于内部/外部恶意的原因影响,它可能会产生困难在我们的现实生活。此外,深度学习培训模型通常有敏感信息的用户和这些模型不应该脆弱,安全和隐私暴露。深度学习和机器学习的算法仍然容易受到不同类型的安全威胁和风险。因此,需要调用的关注行业的安全威胁和相关对策的技术深度学习,激励作者进行全面调查的深度学习安全和隐私安全挑战和对策。我们还讨论了开放的挑战,当前的问题。
1。介绍
深度学习也叫分层学习和深层学习,它是由监督或无监督机器学习技术。深度学习的想法来源于人类大脑的结构和功能以及信号的处理通过人类大脑中的神经元。深度学习也采取人工神经网络的好处,也包括输入、输出和许多隐藏层。每一层的深度学习依赖于非线性响应的基础上,通过输入层提供的数据。在过去的几年里,深度学习技术大多和语音识别广泛应用于信号处理,图像识别,发现的,所以许多其他领域,如医学疾病的发现和基因组学1]。深度学习开发一个结构来处理大数据集通过反向传播算法以什么方式突出设备改变其核心参数选择计算每个渲染层在前一层的表示(2]。
尽管体型庞大,但它们成功的深层神经网络可以很轻微的训练和测试报告的区别。传统智慧属性的错误小环化的典型特征的家庭或组织技术培训期间使用(3]。
DL的至关重要的问题是它的加密数据流从培训和接口模块。安全和隐私问题非常重要,因为在很多应用中主要采用DL模型如上所述。此外,实际上深度学习的全部模型训练部分依赖于大量的大数据,敏感和机密数据的用户特别训练数据。保持这个观点,DL模型必须没有透露机密和敏感数据。本文系统的文献综述进行了深度学习的安全威胁,对于私人数据隐私的威胁,和相应的发达的防御技术。本文还包括最安全的技术,使用加密原语没有第三方的放纵和摘要未来的挑战和机遇。
1.1。深度学习的应用
深入学习了看技术的新方法。人工智能(AIT)及其分支毫升和深度学习有很多刺激。这是一个现实,深度学习改变了的生活方式,在不久的将来也会影响生活。DL是抓住市场空间日复一日,我们相信,在未来的五到十年,工具,技术,和图书馆的DL将包括在每一个开发工具包。
在这里,我们将讨论的深度学习应用程序捕获了2019年及以后。
1.1.1。无人驾驶汽车
许多汽车制造公司的帮助下建立了自动驾驶汽车数字传感器系统。它是通过训练算法通过巨大的非结构化的数据量。
1.1.2。DL医疗
深度学习还用于将改善在医疗领域特别是在乳腺癌诊断和监测的应用。它还可以用于预测个性化医疗生物数据保持视图。深度学习完全重塑医疗行业以及生命科学。深度学习的关键特性是推进健康管理的未来。
1.1.3。DL在语音搜索
最著名的利用深学习语音识别、搜索和激活。这个设备已经在自2011年以来每一个智能手机。谷歌和苹果已经在提供这些服务,现在微软Cortana也推出了一个语音激活的助理。
1.1.4。自动机器翻译
谷歌翻译是主要的一种语言翻译成另一种语言的翻译。用户输入单词、句子、段落和短语的一种语言,它很容易转化成另一种语言。虽然这设备是可用的很长一段时间,DL正在改善结果随着时间的推移,现在机器翻译也是翻译图片。图像文本转换是一个机器翻译的例子和深度学习的创新。
1.1.5。自动生成的笔迹
深度学习也起到了至关重要的作用在自动书写的一代。系统自动捕获和笔的运动学习的字母。DL也促进了新的写作风格的一代。
也有许多应用程序不能覆盖的深度学习在一个纸,和深度学习的更多的应用程序如下:(我)开拓殖民地形象(2)面对开拓殖民地(3)自动彩色化(iv)图像字幕(v)广告(vi)地震预测(七)脑癌检测(八)价格预测(第九)自然语言处理(x)吊(十一)网络安全
1.2。深度学习的创新贡献
深度学习科学各个领域作出了贡献,带来创新的变化。深度学习也激励每个领域解决日常生活的问题,还介绍了新的研究维度。深度学习的突出表现是现代安全系统领域的。今天是一个非常关键的问题,每个小-和大型组织正面临着;数以百万计的创建新的恶意软件和病毒的威胁,银行和政府机构和大型组织中被发现灰色地带的工具。尽管存在许多安全解决方案,安全是一个正在进行的研究领域。深入学习了新的维度在网络安全领域通过检测网络攻击,删除恶意软件,找出漏洞,和保护系统。
1.3。组织的研究
部分2论文的相关背景/文献综述部分3讨论深度学习私有数据框架,讨论了深度学习治疗和攻击部分4的纸,和国防技术与安全问题深度学习简要解释部分5的纸。本文的最后结论部分还讨论了6的纸。
2。背景
2.1。深度学习
深度学习许可高计算模型,包括多层次的处理学习的描述数据在多个层次的抽象层。这些技术已经大大改善了最先进的语音识别,视觉识别,发现对象,和许多其他领域,如发现疾病和基因组学医学的。定期深入学习人工神经网络包含额外的可训练的模型参数与样本的数量相比,他们一直训练(4]。然而,这些模型显示显著降低循环错误,也就是说,训练误差和测试误差的区别。当然容易达到正常的典型结构与小循环(5]。那么不同神经网络泛化从那些不?一个满意的答复这个问题不仅有助于使神经网络更可翻译的但也会导致一个更可靠的和可靠的建筑设计。要回答这个问题,统计学习理论,提出了几种不同的措施的复杂性控制泛化误差的能力。这些包括VC维、随处复杂性和均匀稳定。另外,当参数的数量大,监管的理论表明,某种需要保证一个小圆形的错误。监管可能隐含与早期中止(6]。
机器学习技术操作当前社会的许多方面像从在线研究社交网络内容过滤推荐电子商务网站和越来越多地出现在相机和智能手机等消费产品。机器学习系统是用于识别物体的图片,将语音转换成文本,相关新闻、出版物或产品与用户利益,并确定相关的搜索结果。越来越多地,所有这些应用程序都使用深度学习[7]。
根据(8),传统的机器学习技术还没有完成的能力操纵自然网络数据原来的形状。几十年来,建立机器学习系统需要精确的工程和大量的经验来设计一个功能器,将原始信息转换成一个适当的内部表示9]。
2.2。深层神经网络(款)
这更多地使用深度学习为对手创造激励方法的深层神经网络(款)对分类的输入。例如,深度学习应用程序使用图像工作站区别自己和不恰当的内容,结构和形象不干扰区分垃圾邮件和邮件(10]。敌人的能力制定错误的输入将会从中受益的逃避检测;即使在今天,这些攻击发生在深度学习以外的分类系统。在现实世界中,考虑一个无人驾驶汽车系统,使用深度学习识别交通信号。如果“停止”标志的改变导致深层神经网络分类错误,车辆不会停止(11]。
神经网络主要由03元素组成,一个叫输入层,也就是用户想要的数据分析(12]。第二层是隐藏层;它可能包含一个节点或多个节点多;这个节点的主要功能是完成计算的深度学习算法。最后一层总是输出层,计算结果。图1演示了基本的神经网络,和图2说明了深度学习神经网络。
对于分类任务,高表示层放大重要入口方面的歧视和压制无关紧要的差异。例如,图像像素值数组的形式和功能在第一个渲染层通常表示存在与否的边缘在图像中特定的方向和位置。第二层通常发现图案通过检测边缘的某些安排,不管小边的位置的差异。第三层可以把图形分成大组,对应部分熟悉的对象,和下面层会发现这些部件的对象组。
DL层是这些层的主要功能不是由人类设计;事实上,它已经从数据通过一个通用的学习过程。深度学习已经取得了重大进展,解决问题,经受住了人工智能社区的最好的努力了许多年。这已经被证明是很好的在高维数据和检测复杂的结构,因此,适用于许多科学领域中,商业,和政府除了乘以寄存器在图象识别和语音识别;其他机器学习方法克服了积极预测可能的药物分子,分析粒子加速器的数据,重建脑回路,并预测在非编码DNA突变基因表达的影响和疾病。也许,最令人惊讶的是深度学习的几个任务取得了非常可喜的成果对自然语言的理解,特定主题的分类,分析道德问题的答案,和语言的翻译13]。
这里添加相关弱点在DL系统最近被发现在一个大数量的出版物。它是非常危险的,这些应用程序是基于一个小的理解DL系统(安全与隐私14]。
尽管许多研究已发表在攻击和防御的深度学习的安全和隐私,他们仍然支离破碎。在这里,我们回顾最近试图安全的人工智能和人工智能的私有数据。
为了满足强人工智能系统信息安全的要求和私人数据,我们需要开发一个安全的人工智能系统。安全的人工智能系统应该提供安全保障,和私人数据人工智能维护系统的数据隐私15]。
安全人工智能一直专注于攻击,威胁,漏洞,人工智能和相应的防御系统,深度学习的尊重,这是一个更有效的模型。攻击深度学习生成错误预测注射错误的样品,这种类型的攻击被称为白盒攻击,系统和基于它包括梯度技术妥协。相比之下,从黑盒引起怀疑系统攻击假预言,没有得到一些关于系统的信息。已经观察到,几乎每一个攻击利用了预测系统的信心没有得到信息系统的结构和参数(16]。
为了发展防御这些攻击,提出了各种方法,如对抗训练,生成对抗网络、统计方法和递归神经网络。
用户的输入数据包含敏感数据的深度学习机器识别。更安全的选项为用户安装深度学习模型在其平台上和执行它很明显;为用户是不可行的,因为深学习模型总是包含大量的数据和处理他们(17]。每个组织的渴望他们的数据保密,竞争对手可能不为他们的商业目的使用它。
结果,深度学习的机器,应该满足三个主要的要求,同时保留隐私:(我)中存储的数据训练模型不应披露到云服务器(2)用户请求不应披露到云服务器(3)云服务器的配置不应该透露给用户
强烈需要使用深度学习的组织建立隐私框架中,既没有任何入侵者也没有任何攻击者的信息披露在共享计算或修改它。为了加强隐私计算的深度学习,计划是至关重要的新privacy-specific技巧可以最小化安全函数的复杂性评价协议(18]。
本研究的目的是研究深抛媚眼的最近发展私有数据和安全问题深度学习在不同的领域。此外,我们描述不同深度学习可能的安全和隐私攻击类型以及不同的防御方法。
深层神经网络的核心部分被称为人工神经元。人工神经元纯粹计算加权数量的输入和输出,根据以下方程: 在哪里是表示作为输出,是输入,σ是表示激活函数实际上是一个非线性函数,然后呢被称为权重。人工神经元是用于开发建设层(细节下面给出数据),如果这些层堆积,然后构造款。的非线性σ堆积款层培养的数量,并允许深层神经网络估计目标函数没有任何人造的功能选择。
2.3。人工智能在深入学习
图3是一个高级的学习过程的组织图,开发一个原型深度学习模型。DL的性能模型的大小取决于现有可用的训练数据。
然而,训练样本通常是来自用户的内容存储在云的机器保持敏感信息,如照片,视频,声音,和位置记录。用户的隐私是一个主要关注在深度学习培训和推理(19]。互联网服务提供组织提供深度学习作为一个云服务,用户可以插入输入机器和获得基于预测的结果。
2.4。款的架构
款模型不同类型的架构,简要解释如下。
2.4.1。前馈神经网络(FNN)
这是最基本和核心深层神经网络的构建块。它包括不同类型的多个层,而这些中间层是完全相互连接而层内的节点不互相联系20.]。数据1和2是前馈神经网络的例子。
2.4.2。卷积神经网络
此体系结构显示在图4。CNN的体系结构由许多卷积和池层组成。这些层使用卷积操作计算并生成layerwise结果。卷积和汇聚层的操作允许款网络获得更多的知识空间。因此,CNN的体系结构显示了异常结果特别是图像应用程序(21,22]。
2.4.3。递归神经网络
它是广泛选择过程顺序的信息。如图5RNN计算后输出更新当前隐藏的单位,过去隐藏的单位,目前可用的输入数据(23]。RNN也面临着问题,如梯度和长期短期记忆消失的问题。要解决这些问题,使用封闭的复发性单位。
2.4.4。生成对抗的网络
这款的体系结构基本上是由两个模块,一个叫鉴别器(D)和其他被称为发电机(G)。生成器生成虚假数据的架构而鉴别器体系结构中使用的通知是否发生器的数据是真实的吗?如图6。发电机和鉴频器通常用于款,和它有很多类型的结构基于网络的应用程序(24]。生成对抗网络选择图像处理等许多领域,语音识别,和领域适应气候变化。
2.5。深度学习的隐私保护技术
在即将到来的部分,目前的主流加密原语选择隐私保护组织的培训和接口的深层神经网络(款)进行了讨论。
2.5.1。同态加密(他)
同态加密(他)是原始的加密,允许一方加密数据并将其发送到另一个政党可以执行特定操作数据的加密版本(25]。一个加密系统,该系统允许将任意计算编码没有解密加密的数据或访问任何对称加密解密关键是知道他(26]。项目结束时,加密版本的结果发送给甲方,可以在纯文本解密并得到结果。同态加密方法可以部分分为完全同态加密和部分同态加密(27]。例如,Paillier加密系统只支持添加到两位数的加密版本,这是部分同态加密。相比之下,一个完全对称加密系统支持任意功能逻辑。同态加密方案(Enc)遵循以下方程: 在哪里同态加密方案中吗X用于一组消息和Y用于密文。此外,一个和b消息在X和是线性操作。初当同态加密使用部分方案和随着时间的推移,研究人员开发出一种完全同态加密方案可以完成对任何类型的数据计算。
2.5.2。的电路(GCs)
姚明的电路方法提供了一个通用的机制,构建一个安全的两个政党和 ,分别开发任意布尔函数 没有披露相关信息输入不考虑函数的输出。该算法的基本思想是,一方将准备的加密版本电路计算显然,乙方将计算的输出的电路不知道任何价值和信息的第一个电路(28]。例如,在第一步骤中,甲方将随机密钥分配给每个电路的导线。提到电路盖茨,第一方加密输出盖茨通过使用相关的键输入键,生成的表(29日]。甲方将向乙方发送发达表以及相关的输入键。另一方面,乙方将生成的表和输入键。乙方然后解密每门由甲方,直到他们找到加密电路的输出键(30.]。解密后的第一个政党的电路将输出键映射到生成电路的纯文本。
2.5.3。Goldreich Micali Wigderson(克分子量)
这也是一个通用的安全功能评估协议,而且它是由1987年的想法评价电路通过导线值线性秘密共享使用安全。这就像是混乱的电路协议;这也需要指定的函数作为一个布尔电路(31日,32]。然而,不同的电路,两个用户需要为每门合作。因此,和盖茨都是独立和并行处理,使用和线性复杂度的电路。这种技术只用于short-level沟通。
2.5.4。微分隐私(DP)
DP是一种指标,决定了一个条目的信息在数据库中暴露当查询数据库(33]。为了保存数据库条目的隐私,精心挑选的噪音被添加到数据库,数据库的统计特性保留每个数据点改变是由于添加噪声(34]。同样,DP可以被认为是一种减少查询结果之间的依赖关系和个人数据在数据库中,从而减少信息的泄漏。它确保攻击者不能推断出任何高信心已发布信息从数据库或形式(35]。
2.5.5。共享秘密(SS)
这是一种两方或多方秘密分发给每个分享不给任何信息/数据的秘密,但这个秘密可以重建的帖子。最著名的分享秘密变体是分享秘密的添加剂。在这种情况下,秘密共享通过随机抽样和创建最后一个帖子,收集所有的股票被秘密值(36]。可以重建算法的秘密插入所有的股票。
3所示。深度学习私有数据框架
在本节中,我们将简要描述最有效的私人数据安全框架的深入学习。所有下面的框架高度保护的Honest-but-Curious (HbC)对手模型。各方遵循这个协议应该遵循协议的指令,但它也观察到,方可能推断出更多信息。说协议是非常安全,因为它停止恶意攻击也停止各方偏离协议规范。
3.1。负责人和Shmatikov
作者提出了一个基于微分隐私维护隐私的方法(DP)深度学习当数据与不同党派。在这种情况下,每一方在本地安装自己的神经网络和有选择地参与一些参数更新与其他部分。作者提出的算法应该是并行运行在不同的机器上,然后单独的机器的结果应当聚合生成最终结果。为了保护用户的隐私数据,微分隐私算法适用时共享,而不是共享的参数初始值。结果,介绍了交换训练神经网络的精度和数据的特异性。
3.2。SecureML
它是一个系统来学习维持、特别是神经网络的隐私。系统是基于他,GC,党卫军协议。与服务器数据所有者秘密分享他们的数据,不符合规则,培养特定的神经网络(37]。SecureML使用更高效的自定义激活特性训练一个神经网络使用安全帐户协议(31日]。的账户,私人之间的共享服务器的管理模型。除了训练之外,SecureML还提供了一个结论保持隐私。
3.3。谷歌
介绍了一个安全协议集合为高维运营商维护的高级用户。这些协议可以用于用户在其中维持他们的数据库和统一的教育形式(38]。安全的核心服务器识别智能智能模型装配学习用户的更新。该方法是基于代码的秘密交换和强大的反对用户退出协议在任何时间39]。
3.4。CryptoNets
CryptoNets,通过应用毫升问题关于医疗、教育、金融、或其他类型的机密数据,不仅需要准确预测但也仔细的关心使他们安全40]。CryptoNets基本上是由微软开发的研究小组,通过引入夷平同态加密(LHC)。由于非线性激活函数使用摘要LHE无法实现,作者提出,激活函数接近使用多项式多度(41]。因此,必须重新训练神经网络在纯文本具有相同的激活函数保持良好的预测精度。这种方法的另一个缺点是有一定限制的数量连续乘数由摘要LHE高昂的解决方案。此外,CryptoNets交换隐私/实用程序来实现更高层次的隐私,和准确性必须减少在相同的计算能力。
3.5。MiniONN
作者观察到,仍有保护隐私的风险,和客户仍面临披露敏感信息的威胁(42]。MiniONN介绍了方法转化现有款新开发的神经网络,解决了保护隐私的风险。它提供了服务器不知道输入的客户端和客户端也不知道模型(42]。MiniONN的性能比CryptoNets SecureML。它影响添加剂同态加密,混乱的电路,和秘密共享和viz-a-viz池,CNN还支持激活功能。它也有两个主要的阶段:(我)支持离线阶段加法同态加密不依赖输入(2)在线阶段包括GC和党卫军;非线性层使用GC和SS进行处理
3.6。变色龙
这个协议包含混合框架有关隐私保护。这个框架被克分子量的现有工作协议的好处对激活函数的深入分析和其他的电路复杂的激活函数和汇聚层。变色龙利用秘密共享算法和添加功能。离线和在线阶段像MiniONN [41]。离线计算提供了更多的快速计算预测而不是在线的阶段。像SecureML,变色龙还需要两个noncolluding机器,与SecureML不同,它不允许第三方的参与在在线阶段。变色龙是更有效的比所有其他的技术讨论。
3.7。DeepSecure
它是现代框架基于协议的电路。因为混乱的电路是一个泛型函数评估协议,该框架支持所有非线性激活函数。DeepSecure提供的想法之前减少的数据的大小和网络的实现的电路,因此压缩帐户和连接两件事的大小(43]。预处理阶段独立的基本加密协议,可以采用其他后端为其推理引擎。DeepSecure还支持账户次要服务器的安全外包当客户机已经限制资源。
4所示。深度学习的威胁和攻击
深度学习面临着各种威胁和攻击,下面列出了所有著名的威胁和攻击。
4.1。安全攻击分类
霁et al。44)的安全威胁提出了分类深度学习在3个不同的角度,分类的影响,安全隐患和隐私的攻击。
的观点的影响,安全风险和威胁的深度学习特征分为两类。
以下4.4.1。诱发攻击
致病袭击中用于降低性能和可靠性的培训流程,提供不正确的机器学习算法训练数据修改后的标签样本,不介绍下决定限制。许多研究人员执行诱发攻击图像和显示,它意味深长地降低训练阶段的性能。
这意味着对手有能力改变输入训练数据,成为导致学习模型的参数的变化在回收,导致大量减少就业的演讲成功分类任务。
4.1.2。试探性的攻击
探索性的攻击基本上不影响训练数据集。探索性袭击的主要目标是获得知识的学习算法尽可能多的基本系统。入侵攻击模型,模型提取和会员推理的例子是试探性攻击。
在一个安全的观点,深度学习可能威胁特征分成3组:
(1)完整性的攻击。完整性的攻击发生,然后深度学习模型未能跟踪负例样本分类时有害的。系统的输出将清楚地表明,学习机器的完整性已被破坏。假设,我们使用垃圾邮件过滤器来阻止不必要的伤害/消息,如果攻击者发送一个消息,有多余的/伤害的话,过滤不得到它。通过探索性测试完整性的攻击测试。
(2)可用性攻击。可用性攻击的反面是一个完整的攻击深度学习模型过滤合法情况下的分类中多余的样品/有害的。系统的输出将清楚地表明,学习机器的可用性被破坏,它不再是可用的和攻击。可用性的DoS攻击的一个例子是在合法的情况下没能穿过过滤器和最终系统变得妥协。
(3)违反隐私攻击。在侵犯隐私攻击中,攻击者就成功获得敏感/机密信息的系统培训和学习模式。的攻击隐私,安全威胁的深度学习进一步02类别。
4.1.3。有针对性的攻击
这是非常危险的,它直接降低分类器的性能在一个特定的样本或一组的一个样本。
4.1.4。无差别的攻击
一个无差别的攻击是中毒的亚型的攻击。攻击者的主要目标是增加一般分类错误。此外,无差别的攻击总是选择训练样本的随机值。它随机分类器失败。
4.2。深度学习攻击类型
尽管深度学习画的关注将会变得成功产业安全和隐私的挑战,不幸的是,它不能得到充分重视,因为它应该。在这里,我们讨论的攻击表面机器学习和讨论缺陷深度学习的实现。
在研究期间,许多类型的攻击目标应用DL和包含的DoS攻击闪避攻击,和有机终止攻击。尽管所有这些攻击是不同的性质和在进攻目标,攻击者的攻击源深度学习应用程序本质上从以下三个角度。
4.2.1。准备深度学习攻击表面i型
深度学习训练后应用程序主要适用于输入数据的用户对其分类。攻击者攻击计划一个畸形的输入在输入文件或者网络(24]。这种类型的攻击也适用于图像识别应用程序也使用文件输入和使用传感器和摄像机应用到应用程序的输入。由于应用程序的输入类型,这种风险可以降低实施风险缓解技术但风险不能消除。
4.2.2。深度学习攻击表面二型
这个表面的攻击也被称为中毒攻击。早期的表面类型攻击是由于污染输入数据类型的应用程序。这种类型的攻击不依赖于应用程序的缺陷或软件漏洞。然而,在应用程序可以成为原因的缺陷数据容易中毒。假设我们观察到的变化过程分析图像帧和常见的桌面应用程序。这种变化使得污染机密数据没有被人观察到监控培训过程。
4.2.3。深度学习攻击表面iii型
这是一个很大的机会攻击深度学习应用程序如果开发者会选择模型开发的专家。尽管许多程序员计划和创建模型从一开始,许多模板模型存在的程序员不足够的机器学习的知识。在这种情况下,攻击者也获得模型的模板。像数据中毒的攻击,攻击者可以很容易地攻击那些应用程序和可以访问外部使用的私有数据模型没有任何障碍。然而,实现缺陷,如安全漏洞形式分析代码,帮助攻击者隐藏受损的模型。
读者应该记住,有许多类型的攻击表面和不同于对方,这取决于特定的应用程序,但以上这些03类型的攻击,表面覆盖了大部分的攻击。攻击技术与深度学习的比较表1。
|
|||||||||||||||||||||||||||||||||||||||||||||||
4.3。类型的威胁
在文献综述中,作者研究了许多类型的威胁,影响深度学习的功能,而这些威胁目标深度学习的不同阶段。在这里,在这篇文章中,我们将呈现畸形造成的威胁与深度学习的假设应用程序输入输入文件或网络。
4.3.1。深度学习威胁i型
中最常见的缺陷深度学习框架程序错误导致软件崩溃,无限循环,或全部内存消耗。这些错误的直接威胁的拒绝服务攻击是运行的应用程序窗口的顶部(72年]。
4.3.2。深度学习威胁二型
深层神经网络容易受到攻击时的测试(45- - - - - -48]。例如,在图像识别中,攻击者可能插入小噪声测试样本,这样错误归类为款(73年]。噪声测试的一个例子就是一个敌对的例子。人类的噪音通常是如此之小。良性的备用名称是敌对的例子。
逃避攻击是一个深度学习攻击敏感的安全限制和保护应用程序,像汽车,自己开车。无人驾驶的例子的敌人可以做出不必要的决定74年- - - - - -78年]。例如,自动汽车的基本功能之一就是自动识别停止信号和路的红绿灯。
让我们说,对手生成一个敌对的停止,这意味着对抗增加了许多听不清点停止,所以驾驶的车辆本身并不是公认的停止。因此,车辆驱动自己不会停在停车标志,可能与其他车辆相撞,这可能会导致严重的交通事故。
有许多记忆关联缺陷深度学习的框架,它可能是一个原因错误的输出。逃避可以通过利用缺陷的深度学习框架覆盖分类和控制流。为了发展一个有效的防御闪避攻击,格拉汉姆·古德费勒et al。79年]提出了对抗训练和对抗的例子引入培训款通过增加训练数据集。为了培养一个款,系统生成培训通过逃避攻击敌对的例子。学习者理解最初的训练例子和敌对的相关例子。
对抗训练薄弱而不能看到在训练对抗的例子。Papernot et al。80年)开发了一种基于去污技术训练神经网络和Carlini和瓦格纳81年透露,他们生成的攻击与浓度深层神经网络训练的最大成功。此外,Carlini和瓦格纳(81年)确定,所有的措施都必须评估的分类逃避攻击。
4.3.3。深度学习威胁iii型
系统托管的软件缺陷深度学习应用程序在其操作系统可以被劫持由于远程妥协和应用程序错误44,82年]。这大多发生在系统与云计算系统和深度学习应用程序也基于云计算系统上运行。所有的输入深度学习系统通过网络接收。
5。国防技术与安全问题深入学习
在文献综述,许多国防技术对安全问题的深度学习被发现的,我们这些技术分为两大类分类称为逃税和中毒。进一步,有许多逃避攻击减排技术,但在这一章,只有知名的和有效的类型是解释说。然而,在类似的派系,对中毒攻击的防御技术研究员提出的5.1节中给出。这些防御技术无法克服攻击100%,但这些技术可以提高结果的预测。
5.1。防御逃避攻击
防御闪避攻击的最有效的方法是增加对抗的例子和检测敌对的例子,对抗训练,和防守蒸馏。
5.1.1。检测对抗的例子
研究人员(81年,83年,84年)提出了不同的技术检测输入和敌对的例子创建不同的良性和对抗的例子。正如我们前面所提到的,攻击者的目标是增加更多噪音制定有效对抗的例子。根据(83年),它不容易检测这类自适应的攻击,和一些检测技术有效地工作,而一些无效的。检测的主要问题对抗的例子是,目前尚不清楚,很难管理测试例子,用于预测对手的例子。因此,专家应该手动标签测试例子。我们给上面的例子的一个自动化/无人驾驶汽车自动决策;不可能对人类手工马克标签检测敌对的例子(75年,85年- - - - - -90年]。
孟和陈84年)提出了一个方法来验证敌对的例子通过测试示例和模板的测试例子。根据作者,如果在验证敌对的例子,它证明了通过测试例子,然后不需要标签分类器;否则,在没有预测的情况下,所需的测试例子是通过改革改革通过删除不必要的噪声测试的例子。完成这个任务后,分类器将标签的例子测试深层神经网络,将认为这是一个真正的测试例子。磁铁的实验表明,成功地提出了防御逃避攻击。
5.1.2中。对抗训练
格拉汉姆·古德费勒et al。79年)提出了一个技术培训深神经网络通过扩大训练数据集以及一些敌对的例子,并命名为对抗训练。为了处理闪避攻击,作者提出训练良性的例子对每个训练对抗的例子。系统将使用反向传播算法的学习得到的知识深神经网络通过原始攻击敌对的例子和良性的。以下作者也提出了不同的对抗训练。作者使用鲁棒优化技术来解决min-max优化问题。对抗训练的核心问题是良性的精度。
5.1.3。防守蒸馏
Sethi et al。50)预测方法依赖于蒸馏深层神经网络训练。深层神经网络训练首先使用一个典型的方法。对于每一个训练的例子,深层神经网络产生一组的信心水平。信心水平视为一个软培训马克的例子。由于软件标签和训练的例子,深层神经网络权重进行过培训。指定的T参数是用于蒸馏温度软上层在训练控制信心水平。此外,噪声被添加到很好的例子敌意产生的例子有稍高时蒸馏方式深层神经网络比神经网络。
5.2。防御中毒攻击
该框架建议(91年需要消除极端值的方法,不属于相关的组。在二进制分组,他们寻求发现积极的和消极的类别的中点。然后,作者消除点附近不相关的焦点。这些点的信息,他们使用国防领域,消除分球的半径外,和一块防御忽略点远离线以互补的方式。
太阳et al。57)选择重命名外部的数据点值而不是删除它们。攻击翻转标签数据中毒是一个独特的项目,允许攻击者/黑客控制的任命微不足道的数量的训练点。作者进一步描述了一个机制,研究点超越极限的决议是有害的并重新进行。程序重置所有情况的标签。
Paudice et al。92年)也提出一个保护机制,通过遥感减轻中毒攻击的强度。标签试图有最大影响保护不足数量的毒点。外部检测过程计算外部所有的结果x在原始数据集。此外,有很多,不同的方法来计算外部的结果。
表示,影响函数是用来跟踪模型的预测和找到最好的有说服力的数据点负责给定的预测。这表明近似函数仍然是能够提供重要的材料是不可转让的,一视同仁的模型理论倒塌的地方(93年]。他们还断言,用影响函数;保护者可以验证优先级的数据只有程度的影响。这种方法优于之前的方法来确定培训的最大损失,消除污染样品。
本文的作者,让研究人员比较了现有的优缺点深度学习的对策方法,如表所示2。
各种深度学习安全攻击和相应的对策已经引起业界和研究者的关注。表3提出了比较结果和定性分析相应攻击和防御技术。
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
6。观察和建议
深度学习提供新的技术来解决安全问题。介绍了原型技术和古典ML算法显著改善。表4列出相关的深度学习论文深度学习,我们回顾了文献综述。此表由用于解决这些问题的方法和每篇论文的引文。作者综述了41个文件在这个调查;大多数的研究者对恶意软件检测和入侵检测进行了研究。在调查的过程中,我们也注意到一些新的卫生安全领域和汽车安全中深度学习技术可以应用。Autoencoder技术是最受欢迎的一个研究人员检测恶意软件;此后,复发性神经网络(RNNs)也用于相同的目的以及检测信息安全威胁。限制玻耳兹曼机(元)也用于相同的目的,但我们不能找到很多研究为安全目的使用此技术。不同作者结合autoencoders和RNN技术培训未标记的数据。疟疾是一种流行的技术由于其容易实现和简单。
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
在研究上述技术,作者很难准确定义的性能技术由于不同的数据集和指标。这里的添加是,这些技术/方法的性能因安全领域而异。信息安全领域有广泛的不同来源收集的数据通过应用深度学习测试。研究/研究无法完成并生成准确的结果因为大量数据集的不公开可用。数据集的大部分来源又小又旧。通过有意义的方法开发一个安全解决方案,有必要测试方法在大,更新,和可靠的数据集。方法的结果应该与对方通过实时场景。
7所示。结论
深度学习现在已经成为我们日常生活的一部分,当新技术投资,绝对安全和隐私问题。近年来,进行了广泛的研究,在安全和隐私保护问题及其应对框架深度学习和深层神经网络的训练和接口模块。因此,安全和隐私变得非常关键和重要的问题不容忽视的其他技术。
在文献回顾中,我们发现两种基本类型的安全攻击:逃避和中毒。我们还提出了这两种类型的攻击的有效对策。我们解释了安全和私人攻击、框架和对策技术。
这些框架有加密原语和众多的特点。应该注意的是,私人干扰框架没有完整的能力提供款安全和隐私。我们的轮廓细节不同类型的安全攻击深度学习。投资有很多类型的攻击,利用深度学习的结果,模型信息提取或获得知识的培训数据反演模型,模型提取和推理。说袭击钢铁训练数据和产生预期的结果。深度学习有更多的私人培训部分计算开销与接口。因此,需要更多的浓度和研究这个方向发展更有效的解决方案,同时保持数据的隐私保护模型。
隐私风险总是存在的深层神经网络由于各种特征实际上是依靠大量的输入训练数据。在这一章,我们还讨论了可能的隐私威胁敏感和机密的深度学习模型的数据。不同的研究一直在进行隐私保护利用深度学习攻击。
对于未来的工作,它是必不可少的研究人员深入研究不同款加密原始的解决方案。混合协议技术可以减少计算开销的安全和隐私保护的解决方案。此外,隐私和安全协议的定制款也是一个有趣的和开放的研究领域开发一个可行的解决方案。作者也旨在执行他们的研究在深度学习的应用特别是在天体物理学领域,等离子体物理、原子物理、热力学、电磁、机械、纳米技术、流体力学、电水动力学、信号处理、电力、能源、生物信息学、经济和金融。
的利益冲突
作者声明没有关于这篇文章的出版的利益冲突。
引用
- b . Shickel p . j . Tighe a . Bihorac和p . Rashidi“深EHR:最近的一项调查深度学习的进步技术的电子健康记录(EHR)分析,“IEEE生物医学和卫生信息学杂志》上,22卷,不。5,1589 - 1604年,2018页。视图:出版商的网站|谷歌学术搜索
- A . l . Buczak和e . Guven”的调查数据挖掘和机器学习网络安全入侵检测方法,”IEEE通信调查和教程,18卷,不。2、1153 - 1176年,2016页。视图:出版商的网站|谷歌学术搜索
- ,的j。施密德胡贝尔表示“深度学习神经网络:概述”,神经网络卷,61年,第117 - 85页,2015年。视图:出版商的网站|谷歌学术搜索
- y LeCun (y Bengio g·辛顿,“深度学习”,自然,卷521,不。7553年,第444 - 436页,2015年。视图:出版商的网站|谷歌学术搜索
- m·a·尼尔森神经网络和深入学习决心按卷。25日,旧金山,CA,美国,2015年。
- r . Miikkulainen“进化神经网络深处,”人工智能时代的大脑神经网络和计算爱思唯尔,页293 - 312年,阿姆斯特丹,荷兰,2019年。视图:谷歌学术搜索
- Y.-G。江,j . Wang,薛x, z . Wu S.-F。常”,利用特性和类关系与正规化深层神经网络视频分类,“IEEE模式分析与机器智能,40卷,不。2、352 - 364年,2018页。视图:出版商的网站|谷歌学术搜索
- 诉Kotu和b . Deshpande“深度学习”数据科学爱思唯尔,页307 - 342年,阿姆斯特丹,荷兰,2019年。视图:谷歌学术搜索
- 美国尼”,为计算机视觉深度学习,”学习计算机视觉使用OpenCV51 - 69页。然后,伯克利,CA,美国,2019年。视图:谷歌学术搜索
- t . n . Sainath a·穆罕默德·b·金斯伯里,和b . Ramabhadran“深LVCSR卷积神经网络,”学报2013年IEEE国际会议音响、演讲和信号处理8618年,页8614 -温哥华,加拿大,2013年5月。视图:出版商的网站|谷歌学术搜索
- t . n . Sainath o . Vinyals a .高级和h . Sak“卷积,长期短期记忆,完全连接深层神经网络”学报2015年IEEE国际会议音响、演讲和信号处理(ICASSP),页4580 - 4584,南布里斯班,澳大利亚,2015年4月。视图:出版商的网站|谷歌学术搜索
- t·p·胡斯特c . j .蒋介石r·查达和a .偶像”对健壮的深层神经网络的发展在敌对的环境中,”《2018年IEEE军事通信会议(亚)洛杉矶,页419 - 424,美国2018年10月。视图:出版商的网站|谷歌学术搜索
- 沙汉姆,美国眼下a Cloninger, r . r . Coifman“深层神经网络,可证明的近似属性”应用和计算谐波分析,44卷,不。3、537 - 557年,2018页。视图:出版商的网站|谷歌学术搜索
- p·默罕默德·沙克尔,s . Baskar v . r . Sarma Dhulipala, s . Mishra和m . m .贾比尔,“维护安全和隐私在卫生保健系统使用基于学习deep-Q-networks,”医疗系统杂志,42卷,不。10,186年,页2018。视图:出版商的网站|谷歌学术搜索
- r .负责人和诉Shmatikov”,保护隐私深度学习,”学报22 ACM SIGSAC计算机与通信会议Security-CCS 15,页1310 - 1321,美国科罗拉多州丹佛市2015。视图:出版商的网站|谷歌学术搜索
- r . Vinayakumar k . p .索曼,p . Poornachandran”检测恶意域名使用大规模深度学习方法,“《智能与模糊系统,34卷,不。3、1355 - 1367年,2018页。视图:出版商的网站|谷歌学术搜索
- 冯,傅,m .董d .郭和李问:“多级和弹性垃圾邮件检测在移动社交网络通过深入学习,”IEEE网络,32卷,不。4、15至21,2018页。视图:出版商的网站|谷歌学术搜索
- l . j . Li太阳,燕,z, w . Srisa-an h .你们,“重大权限识别machine-learning-based android恶意软件检测,”IEEE工业信息,14卷,不。7,3216 - 3225年,2018页。视图:出版商的网站|谷歌学术搜索
- w·w·代替,“临床意义和人工智能和深度学习的挑战,”《美国医学会杂志》,卷320,不。11日,第1108 - 1107页,2018年。视图:出版商的网站|谷歌学术搜索
- d·科恩,j .福利h . Zamani j . Allan和w·b·克罗夫特,“万能逼近函数的快速学习,”学报》第41届国际市立图书馆研究与发展会议信息Retrieval-SIGIR 18,页1017 - 1020,纽约,纽约,美国,2018年。视图:出版商的网站|谷歌学术搜索
- 张x, x周、m·林和j .太阳”ShuffleNet:卷积神经网络在移动设备上非常有效,”学报2018年IEEE / CVF计算机视觉与模式识别会议长滩,页6848 - 6856年,CA,美国,2018年。视图:出版商的网站|谷歌学术搜索
- a·哈桑·m·Kamran a Illahi, r·m·a . Zahoor”级联设计人工神经网络优化的迷因计算范例求解非线性支流系统”欧洲物理+》杂志上,卷134,不。3,p。122年,2019年。视图:出版商的网站|谷歌学术搜索
- X.-Y。张,f .阴,Y.-M。张,C.-L。Liu和y Bengio画与递归神经网络识别汉字,“IEEE模式分析与机器智能,40卷,不。4、849 - 862年,2018页。视图:出版商的网站|谷歌学术搜索
- 问:杨,p, y . Zhang et al .,“低剂量CT图像去噪与瓦瑟斯坦距离和使用生成对抗网络感知损失,”IEEE医学成像,37卷,不。6,1348 - 1357年,2018页。视图:出版商的网站|谷歌学术搜索
- A . Acar h .阿克苏,A . s . Uluagac和m .孔蒂“同态加密方案,调查”ACM计算调查,51卷,不。4,1-35,2018页。视图:出版商的网站|谷歌学术搜索
- 然后,“阈值阈值完全同态加密密码,”2018年Cryptology-CRYPTO进步施普林格,页565 - 596年,柏林,德国,2018年。视图:谷歌学术搜索
- s . Halevi y Polyakov诉Shoup博士,”德国情报机构的一种改进的RNS变体同态加密方案,”2019年Cryptology-CT-RSA主题施普林格,页83 - 105年,柏林,德国,2019年。视图:谷歌学术搜索
- 问:杨,g .彭,p . Gasti et al .,”梅格:内存和节能的电路评估在智能手机上,“IEEE取证和安全信息,14卷,不。4、913 - 922年,2019页。视图:出版商的网站|谷歌学术搜索
- a·萨利姆,汗,f . Shahid m·阿拉姆Masoom和m . k .汗,“最近的进步计算:我们走了多远实现安全、高效和可重用的电路,”网络和计算机应用》杂志上卷,108 - 2018页。视图:出版商的网站|谷歌学术搜索
- a·杜宾,d . Pointcheval和c . Bidan“损坏的回路的泄漏,”程序的可证明的安全页,3-21济州岛,韩国,2018年10月。视图:谷歌学术搜索
- 沙玛和k·陈,“用随机线性分类器,提高保护隐私”学报2018 ACM SIGSAC计算机和通信安全会议,页2294 - 2296,纽约,纽约,美国,2018年。视图:出版商的网站|谷歌学术搜索
- h·h·艾哈迈德·l . Wang香港et al .,“原语对可验证的计算:一项调查,”计算机科学的前沿,12卷,不。3、451 - 478年,2018页。视图:出版商的网站|谷歌学术搜索
- j . j . Wang, w·鲍,朱x、b·曹和p . s . Yu”不仅仅是隐私,”《24日ACM SIGKDD国际会议上知识发现和数据挖掘,页2407 - 2416,纽约,纽约,美国,2018年。视图:出版商的网站|谷歌学术搜索
- n·c·阿拜,y, m . Kantarcioglu b . Thuraisingham l·斯威尼,“隐私保护合成数据发布使用深度学习,”机器学习与知识发现在数据库中施普林格,页510 - 526年,柏林,德国,2019年。视图:谷歌学术搜索
- 严d d n•海因斯刀,r . Cheng和d的歌,“英镑的示范,美国养老,11卷,不。12日,第2089 - 2086页,2018年。视图:出版商的网站|谷歌学术搜索
- l . t .冯氏和t . t . Phuong”,保护隐私通过体重传播深度学习,”IEEE取证和安全信息,14卷,不。11日,第3015 - 3003页,2019年。视图:出版商的网站|谷歌学术搜索
- p . Mohassel和y张SecureML:机器学习系统的可伸缩的保护隐私,”学报2017年IEEE安全和隐私(SP)研讨会上页,19-38圣何塞、钙、美国,2017年。视图:出版商的网站|谷歌学术搜索
- g .林:太阳,尼泊尔,j . Zhang y,和h·哈桑,“统计twitter垃圾邮件检测揭秘:性能、稳定性和可伸缩性,”IEEE访问5卷,第11154 - 11142页,2017年。视图:出版商的网站|谷歌学术搜索
- k .博纳诉伊万诺夫,b . Kreuter如此说道,“实用机器学习获得聚合保护隐私,”学报2017 ACM SIGSAC计算机和通信安全会议,页1175 - 1191,纽约,纽约,美国,2017年。视图:出版商的网站|谷歌学术搜索
- b . Hitaj g . Ateniese f . Perez-Cruz,“深甘模型下,”学报2017年ACM SIGSAC计算机与通信会议Security-CCS 17,页603 - 618,纽约,纽约,美国,2017年。视图:出版商的网站|谷歌学术搜索
- m . s . Riazi c。维内特,o . Tkachenko et al .,“变色龙”学报2018年亚洲会议上计算机和通讯Security-ASIACCS 18,页707 - 721,纽约,纽约,美国,2018年。视图:出版商的网站|谷歌学术搜索
- m . j . Liu Juuti、y . Lu和n .同“通过MiniONN转换,无视神经网络预测”学报2017年ACM SIGSAC计算机与通信会议Security-CCS 17,页619 - 631,纽约,纽约,美国,2017年。视图:出版商的网站|谷歌学术搜索
- b . d . Rouhani m . s . Riazi, f .高级“Deepsecure,”第55届设计自动化学报》Conference-DAC 18,页2:1-2:6,纽约,纽约,美国,2018年。视图:出版商的网站|谷歌学术搜索
- x y, x,霁,罗和t . Wang“Model-reuse攻击深学习系统,”学报2018 ACM SIGSAC计算机和通信安全会议,页349 - 363,纽约,纽约,美国,2018年。视图:出版商的网站|谷歌学术搜索
- c . Burkard和b . Lagesse诱发攻击分析svm学习数据流,”学报》第三届ACM国际研讨会安全和隐私Analytics-IWSPA 17斯科茨代尔,页31-36,阿兹,美国,2017年3月。视图:出版商的网站|谷歌学术搜索
- 李y和d s .杨”,诱发攻击semi-supervised学习,”国际会议的程序在机器学习和控制论青岛,页196 - 203年,中国,2014年7月。视图:谷歌学术搜索
- l .黄公元约瑟夫,b·纳尔逊调查局·鲁宾斯坦和j·d·泰格“敌对的机器学习,”学报》第四届ACM车间安全与人工智能美国IL,页43-58,芝加哥,2011年10月。视图:出版商的网站|谷歌学术搜索
- 施y, y . e . Sagduyu逃税和诱发攻击敌对的深度学习”学报》2017 - 2017年亚IEEE军事通信会议(亚)马里兰州巴尔的摩,页243 - 248,美国2017年10月。视图:谷歌学术搜索
- b·米勒“敌对的主动学习”学报2014车间人工智能和安全车间2014年2月,页3 - 14、激怒、。视图:谷歌学术搜索
- t . s . Sethi m . Kantardzic和j·w·Ryu”“安全剧场”:试探性攻击的脆弱性分类器,”《亚太情报与安全信息学研讨会49 - 63页。济州岛,韩国,2017年5月。视图:出版商的网站|谷歌学术搜索
- t . s . Sethi和m . Kantardzic“数据驱动的试探性攻击黑盒分类器在对抗的领域,”Neurocomputing卷,289年,第143 - 129页,2018年。视图:出版商的网站|谷歌学术搜索
- l . Halawi r·麦卡锡和n . Muoghalu”学生学习方法:一个探索性研究,”问题的信息系统,10卷,不。1,p。13日,2009。视图:谷歌学术搜索
- m . Barreno b·纳尔逊r·西尔斯公元约瑟夫,j·d·泰格,“机器学习可以安全吗?“在学报2006年ACM研讨会信息,计算机和通信安全2006年3月,第16 - 25页,台北,台湾。视图:谷歌学术搜索
- s . Ntalampiras”cyber-physical系统中自动识别完整性的攻击。”专家系统与应用程序58卷,第173 - 164页,2016年。视图:出版商的网站|谷歌学术搜索
- b . Biggio和f . Roli野生模式:十年之后敌对的机器学习的兴起,“模式识别卷,84年,第331 - 317页,2018年。视图:出版商的网站|谷歌学术搜索
- x元,p .他问:朱,李x”对抗的例子:深度学习攻击和防御,”IEEE神经网络和学习系统,30卷,不。9日,页。2805 - 2824。视图:出版商的网站|谷歌学术搜索
- p . s . l .太阳,j . Wang,和b·李”敌对的攻击和防御图数据:调查显示,“2018年,https://arxiv.org/abs/1812.10528。视图:谷歌学术搜索
- a . Erba“实时逃避攻击和物理约束在深度上优于异常探测器在工业控制系统中,“2019年,https://arxiv.org/abs/1907.07487。视图:谷歌学术搜索
- m . Jagielski a .电脑b . Biggio c . Nita-Rotaru c . Liu和b·李”操纵机器学习:中毒攻击和对策回归学习”学报2018年IEEE安全和隐私(SP)研讨会上旧金山,页19-35、钙、美国,2018年5月。视图:谷歌学术搜索
- m .太阳”数据中毒攻击无监督节点嵌入方法,”2018年,https://arxiv.org/abs/1810.12881。视图:谷歌学术搜索
- 李问:刘,p . w .赵w . Cai, s . Yu和v c . m . Leung)”调查安全威胁和防御性的机器学习技术:数据驱动的观点,“IEEE访问》第六卷,第12117 - 12103页,2018年。视图:出版商的网站|谷歌学术搜索
- w·李,h·李,李x, y . Wang”利用内存PUFs和PIM-based加密安全边缘深度学习系统,”学报2019年IEEE第37 VLSI测试研讨会(VTS)美国CA,页1 - 6,蒙特利,2019年4月。视图:谷歌学术搜索
- a . Siddiqi”敌对的安全攻击和扰动对机器学习和深度学习的方法,“2019年,https://arxiv.org/abs/1907.07291。视图:谷歌学术搜索
- z . e . Mrabet n . Kaabouch h·e·拉什德和h·e·拉什德“智能电网的网络安全:调查和挑战,”计算机与电气工程卷,67年,第482 - 469页,2018年。视图:出版商的网站|谷歌学术搜索
- k . Eykholt“健壮的物理世界攻击深度学习模型,”2017年,https://arxiv.org/abs/1707.08945。视图:谷歌学术搜索
- j . Su d . v . Vargas, k .樱井”愚弄深层神经网络攻击一个像素,”IEEE进化计算,23卷,不。5,828 - 841年,2019页。视图:出版商的网站|谷歌学术搜索
- j . raub w . Brendel Foolbox v0和m .陆慈。”8.0:python工具箱基准机器学习模型的鲁棒性,“5卷,2017年,https://arxiv.org/abs/1707.04131。视图:谷歌学术搜索
- 沈,s . Tople, p . Saxena”uror:防御中毒协作深度学习系统的攻击,”第32届会议程序计算机安全的应用程序,页508 - 519,纽约,纽约,美国,2016年12月。视图:出版商的网站|谷歌学术搜索
- m . Barreno b·纳尔逊公元约瑟夫和j·d·泰格机器学习的安全施普林格,柏林,德国,26页。
- k . s . l . Wang戴尔,c . Lokan h·a·阿巴斯,”神经乐团对目标的鲁棒性和随机对抗的学习,”《国际会议上模糊系统,页1 - 8,巴塞罗那,西班牙,2010年7月。视图:出版商的网站|谷歌学术搜索
- 彭j·p·p·k·陈,“修订后的朴素贝叶斯分类器在垃圾邮件过滤打击重点攻击,”《2013国际机器学习与控制论会议,卷2,页610 - 614,天津,中国,2013年7月。视图:出版商的网站|谷歌学术搜索
- n . Papernot p•麦克丹尼尔s Jha m . Fredrikson介绍z b·侯赛因·a .阁下,“深度学习的局限性在敌对的环境中,”学报2016年IEEE欧洲安全和隐私(欧元P)研讨会上,页372 - 387,伦敦,英国,2016年4月。视图:出版商的网站|谷歌学术搜索
- c . Szegedy“有趣的神经网络的性质,”2013年,https://arxiv.org/abs/1312.6199。视图:谷歌学术搜索
- 美国屁股,塔里克,t·贾马尔阿里,j·l·迪亚兹马丁内斯和e . De-La-Hoz-Franco”预测变量对敏捷开发融合云计算服务,“IEEE访问7卷,第99282 - 99273页,2019年。视图:出版商的网站|谷歌学术搜索
- 塔里克,“云计算信息安全的指标框架,”国际云计算和服务科学杂志》上,1卷,不。4 p。209年,2012年。视图:谷歌学术搜索
- 塔里克,为云计算提供保证通过ISO 27001认证:有多少云安全实施后信息安全标准CreateSpace, Scotts山谷、钙、美国,2015年。
- 塔里克,“云控制的有效性分析矩阵混合云计算”国际期刊的未来一代通信和网络,11卷,不。4、1 - 10,2018页。视图:出版商的网站|谷歌学术搜索
- 塔里克,“基于代理的混合云计算信息安全框架,“KSII交易网络和信息系统,13卷,不。1,2019。视图:谷歌学术搜索
- j·格拉汉姆·古德费勒,j . Shlens, c . Szegedy“解释和利用对手的例子,”2014年,https://arxiv.org/abs/1412.6572。视图:谷歌学术搜索
- n . Papernot p·麦克丹尼尔,吴x, s . Jha和偶像,“蒸馏作为防御敌对的扰动对深层神经网络”学报2016年IEEE安全和隐私(SP)研讨会上圣何塞,页582 - 597年,CA,美国,2016年5月。视图:出版商的网站|谷歌学术搜索
- n Carlini d·瓦格纳,“评估神经网络的鲁棒性,”学报2017年IEEE安全和隐私(SP)研讨会上页,39-57圣何塞、钙、美国,2017年5月。视图:谷歌学术搜索
- j·萨克斯,r . Harang c .野生和h·桑德斯,“深度学习方法快,format-agnostic检测恶意网页内容,”学报2018年IEEE安全和隐私研讨会(SPW),8 - 14页,旧金山,CA,美国,2018年5月。视图:出版商的网站|谷歌学术搜索
- n Carlini d·瓦格纳,“敌对的例子是不易发现,”第十届ACM学报》研讨会上人工智能和Security-AISec 17,页3 - 14,纽约,纽约,美国,2017年。视图:出版商的网站|谷歌学术搜索
- 孟d·h·陈,“磁铁:双管齐下的防御敌对的例子,”学报2017年ACM SIGSAC计算机与通信会议Security-CCS 17,页135 - 147,纽约,纽约,美国,2017年。视图:出版商的网站|谷歌学术搜索
- 塔里克,s . Tayyaba h·拉希德·m·w·阿什拉夫,“在高等教育机构的影响因素采用云计算的旁遮普,巴基斯坦,”学报2017年国际会议上沟通,计算和数字系统(c代码),页179 - 184,伊斯兰堡,巴基斯坦,2017年3月。视图:谷歌学术搜索
- 塔里克,d·哈克和j·伊克巴尔,“基于SLA的云计算信息安全指标从4.1 COBIT框架,“国际期刊的计算机网络和通信安全,1卷,不。3、95 - 101年,2013页。视图:谷歌学术搜索
- 塔里克,s . Tayyaba m .美国几m·w·阿什拉夫和n a面,“基于代理管理框架为混合云计算信息安全威胁,”国际计算机科学杂志和网络安全,17卷,不。12,57页,2017年。视图:谷歌学术搜索
- 塔里克,s . Tayyaba m·w·阿什拉夫和v . e .红晶石”8-deep学习优化医疗大数据的技术深度学习生物医学和卫生信息学的技术b . Agarwal, v . e .红晶石l . c . Jain r . c . Poonia Manisha, Eds。学术出版社,页187 - 211年,剑桥,妈,美国,2020年。视图:谷歌学术搜索
- 塔里克,s . Tayyaba m·w·阿什拉夫·h·拉希德,“基于NIST有效性分析云安全风险。”Bahria大学学报信息和通信技术(BUJICT),10卷,不。特别的是,2017年。视图:谷歌学术搜索
- 塔里克,s . Tayyaba m·w·阿什拉夫·h·拉希德,f·汗,“分析NIST SP 800 - 53年启3控制有效性为云计算,”首届国家会议上新兴的趋势和创新计算与技术,页88 - 92,卡拉奇,巴基斯坦,2016年。视图:谷歌学术搜索
- j·斯坦哈特,p . w . Koh和p .梁“认证数据中毒攻击,防御”31日学报》国际会议上神经信息处理系统长滩,页3520 - 3532年,CA,美国,2017年12月。视图:谷歌学术搜索
- a . Paudiceμl。noz-Gonźalez, a .乔治- e . c .卢普”对抗的训练例子中毒攻击的检测通过异常检测,”2018年,https://arxiv.org/abs/1802.03041。视图:谷歌学术搜索
- p . w . Koh和p .梁”,理解黑箱预测通过影响函数,”2017年,https://arxiv.org/abs/1703.04730。视图:谷歌学术搜索
- 有轨电车,a . Kurakin n . Papernot格拉汉姆·古德费勒,然后,和p•麦克丹尼尔“整体对抗的训练:攻击和防御,”2018年,https://arxiv.org/abs/1705.07204。视图:谷歌学术搜索
- x秋张l . y . Ren, p . n . Suganthan和g . Amaratunga”回归和时间序列预测的合奏深度学习,”学报2014年IEEE整体学习研讨会上计算智能(天蓝色)美国佛罗里达州奥兰多,页1 - 6,,2014年12月。视图:出版商的网站|谷歌学术搜索
- m . Abadi a .楚。格拉汉姆·古德费勒et al .,“深度学习与微分隐私,”学报2016年ACM SIGSAC计算机与通信会议Security-CCS 16,第318 - 308页,维也纳,奥地利,2016年。视图:出版商的网站|谷歌学术搜索
- l . t .冯氏y Aono, t . Hayashi l . Wang和s . Moriai“深度学习通过加法同态加密保护隐私,”IEEE取证和安全信息,13卷,不。5,1333 - 1345年,2018页。视图:出版商的网站|谷歌学术搜索
- w·哈迪·l·陈,侯,y,和李x”DL4MD:深入学习框架,聪明的恶意软件检测,”《数据挖掘(DMIN)国际会议上p。61年,拉斯维加斯,东北,美国,2016年7月。视图:谷歌学术搜索
- m·罗德·Burnap和k·琼斯,“早期预测使用递归神经网络的恶意软件,”电脑与安全卷,77年,第594 - 578页,2018年。视图:出版商的网站|谷歌学术搜索
- 卡拉什部落m, m . Rochan:穆罕默德,n . d . Bruce y . Wang和f·伊克巴尔,“恶意软件与深卷积神经网络分类,”学报2018年9日联合会国际会议上新技术、流动性和安全性(特种加工),页1 - 5,巴黎,法国,2018年2月。视图:谷歌学术搜索
- 王x和s .姚”恶意软件的多任务学习模型分类有用的文件访问模式从API调用序列,”2016年,https://arxiv.org/abs/1610.05945。视图:谷歌学术搜索
- r . Chalapathy s·乔,“异常检测的深度学习:一项调查,”2019年,https://arxiv.org/abs/1901.03407。视图:谷歌学术搜索
- l .你们陈和y“SecMD:使机器学习更加安全与对抗的恶意攻击,”澳大拉西亚的联合会议上人工智能学报》上澳大利亚墨尔本,页76 - 89,,2017年8月。视图:出版商的网站|谷歌学术搜索
- s . Maniath a . Ashok p . Poornachandran诉Sujadevi, a . p . Sankar和美国1月,“基于深度学习LSTM ransomware检测”学报2017年最新发展控制、自动化及电力工程(RDCAPE)诺伊达,页442 - 446年,印度,2017年10月。视图:谷歌学术搜索
- w z扎卡里亚,m . f . Abdollah和a·f·穆罕默德Ariffin“Ransomware检测,”第七届国际会议信息和应用程序的程序(ICIA2018),12 - 17页,高松,日本,2018年11月。视图:谷歌学术搜索
- l .德牧b . Biggio g . Lagorio f . Roli和阿曼德,”解释漏洞深度学习对手的恶意软件的二进制文件,”2019年,https://arxiv.org/abs/1901.03583。视图:谷歌学术搜索
- c·d·詹姆斯和j·b·Aimone信号处理方法与深层神经网络网络数据分类桑迪亚国家实验室。(SNL-NM),阿尔伯克基纳米,美国,2015。
- z王深度学习的应用在交通标识TechRepublic卷。24日,肯塔基州路易斯维尔市,美国,2015年。
- z . m . Fadlullah f·唐、毛b . et al .,“最先进的深度学习:对明天的智能网络进化的机器智能交通控制系统,”IEEE通信调查和教程,19卷,不。4、2432 - 2455年,2017页。视图:出版商的网站|谷歌学术搜索
- 崔m . e . Aminanto r . h . c . Tanuwidjaja p·d·Yoo和k金,“深抽象和加权wi - fi的模拟检测特征选择,”IEEE取证和安全信息,13卷,不。3、621 - 636年,2017页。视图:谷歌学术搜索
- 香,d . Ciuonzo a Montieri, a . Pescape“移动加密流量分类使用深度学习,”2018网络流量测量和分析研讨会论文集(TMA),页1 - 8,维也纳,奥地利,2018年6月。视图:谷歌学术搜索
- 高g . Mi y, y Tan“堆叠auto-encoder适用于垃圾邮件检测,”国际会议论文集群体智慧,页3日- 15日,北京,中国,2015年6月。视图:谷歌学术搜索
- 刘h . c .史,j . Liu, y陈,“聪明的用户身份验证通过驱动的日常活动利用车内安装物联网,”学报18 ACM国际研讨会上移动Ad Hoc网络和计算,5页,钦奈,印度,2017年7月。视图:谷歌学术搜索
- f . o . Catak和A . f . Yazı”基准数据集API调用windows PE恶意软件分类,”2019年,https://arxiv.org/abs/1905.01999。视图:谷歌学术搜索
- d·吉波特卷积神经网络的恶意软件分类大学·罗维拉我Virgili,塔拉戈纳,西班牙,2016年。
- Y.-J。Cha w·崔和o . Buyukozturk深上优于使用卷积神经网络检测裂纹损伤,”计算机辅助土木与基础设施工程,32卷,不。5,361 - 378年,2017页。视图:出版商的网站|谷歌学术搜索
- 日本村田公司和k . Yamanishi检测驾车从代理下载攻击使用卷积神经网络日志信息日本大阪,大阪大学,2017。
- r . Vinayakumar k . p .索曼,p . Poornachandran“卷积神经网络申请网络入侵检测,”学报2017年国际会议上的进步计算、通信和信息(ICACCI)印度麦利普,页1222 - 1228年,印度,2017年9月。视图:出版商的网站|谷歌学术搜索
- 朱m . w . Wang,曾庆红x, x,, y,“恶意流量分类学习,使用卷积神经网络表示”《2017国际会议信息网络(ICOIN)岘港,页712 - 717年,越南,2017年1月。视图:出版商的网站|谷歌学术搜索
- c .阴y朱,j·范,x,他“深学习方法使用复发性神经网络入侵检测,”IEEE访问5卷,第21961 - 21954页,2017年。视图:出版商的网站|谷歌学术搜索
- y Maleh”,恶意软件分类和分析利用卷积和递归神经网络,”手册的研究深度学习创新和趋势IGI全球,页233 - 255年,哈里斯堡,宾夕法尼亚州,美国,2019年。视图:谷歌学术搜索
- b . Kolosnjaji a . Zarras g·韦伯斯特,c·埃克特“深度学习分类的恶意软件系统调用序列,”2016年《人工智能:先进的人工智能可汗,页137 - 149年,瑞士,2016年12月。视图:出版商的网站|谷歌学术搜索
- s . Tobiyama y山口,h·什t . Ikuse和t .八木,“恶意软件检测深层神经网络使用过程的行为,”学报2016年IEEE 40计算机软件和应用年会(COMPSAC),卷2,页577 - 582,亚特兰大,乔治亚州,美国,2016年6月。视图:出版商的网站|谷歌学术搜索
- j . y . Yu长,z Cai,“通过叠加扩张卷积autoencoders网络入侵检测,”安全性和通信网络卷,2017篇文章ID 4184196, 10页,2017。视图:出版商的网站|谷歌学术搜索
- g·d·希尔和x j . a . Bellekens“深度学习加密原始分类为基础,”2017年,https://arxiv.org/abs/1709.08385。视图:谷歌学术搜索
- 蔡明俊。康和J.-W。康”,使用深层神经网络入侵检测系统的车载网络安全,”《公共科学图书馆•综合》,11卷,不。6篇文章ID e0155781 2016。视图:出版商的网站|谷歌学术搜索
- Potluri和c . Diedrich“加速深层神经网络,增强入侵检测系统”《2016年IEEE 21新兴技术和工厂自动化国际会议上(ETFA),页1 - 8,柏林,德国,2016年9月。视图:出版商的网站|谷歌学术搜索
- g·e·达尔j·w·斯托克斯l .邓和d . Yu”大规模恶意软件使用随机预测和神经网络分类,”学报2013年IEEE国际会议音响、演讲和信号处理3426年,页3422 -温哥华,加拿大,2013年5月。视图:出版商的网站|谷歌学术搜索
- m·塞巴斯蒂安·r·里维拉,p . Kotzias和j .绅士”AVclass:大量的恶意软件的工具标签”研究攻击、入侵防御施普林格,页230 - 253年,可汗,瑞士,2016。视图:出版商的网站|谷歌学术搜索
- 高g . Mi y, y Tan“堆叠auto-encoder适用于垃圾邮件检测,”群的发展和计算智能页至激飞,可汗,瑞士,2015。视图:出版商的网站|谷歌学术搜索
- 高g . Mi y, y Tan“术语空间分区基础整体特性为垃圾邮件检测建筑,”数据挖掘和大数据施普林格,页205 - 216年,可汗,瑞士,2016。视图:出版商的网站|谷歌学术搜索
- h·s·安德森,j·伍德布里奇,丝,“DeepDGA: adversarially-tuned域生成和检测,”学报2016年ACM车间对人工智能和Security-ALSec 16,页13-21,维也纳,奥地利,2016年。视图:出版商的网站|谷歌学术搜索
- j . b . Yu, j ., a Nascimento和m . De Cock”人物等级检测DGA域名,”《2018年国际神经网络(IJCNN)联合会议,页1 - 8,里约热内卢,巴西,2018年。视图:出版商的网站|谷歌学术搜索
- y Zhauniarovich,哈利勒,t . Yu和m . Dacier“恶意通过DNS域检测数据调查分析,“ACM计算调查,51卷,不。4,1-36,2018页。视图:出版商的网站|谷歌学术搜索
- k . Alrawashdeh和c·珀迪”,对网络异常入侵检测系统基于深度学习,”学报2016年IEEE国际会议15日在机器学习和应用程序(ICMLA)阿纳海姆,页195 - 200年,CA,美国,2016年12月。视图:出版商的网站|谷歌学术搜索
- z元,y, z . Wang和y .雪,“Droid-sec:深度学习在android恶意软件检测”学报2014 ACM SIGCOMM-SIGCOMM会议14,页371 - 372年,芝加哥,美国,2014年。视图:出版商的网站|谷歌学术搜索
- 王,t·刘,l . Tan“自动学习语义特征缺陷预测,”学报2016年IEEE / ACM 38软件工程国际会议(ICSE) -ICSE ' 16奥斯汀TX,页297 - 308年,美国2016年5月。视图:出版商的网站|谷歌学术搜索
- 陈,m .雪z . Tang l .徐和h·朱,“StormDroid: streaminglized检测android恶意软件,基于机器学习系统”第11届ACM学报》在亚洲会议上计算机和通讯Security-ASIA CCS的16西安,页377 - 388年,中国,2016。视图:出版商的网站|谷歌学术搜索
版权
版权©2020年穆罕默德伊姆兰塔里克等。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。