在最近几年,深度学习提供了一个优良的性能在不同的图像识别等领域,模式匹配,甚至在网络安全。深度学习有许多优点,包括快速解决复杂的问题,巨大的自动化、非结构化数据的最大应用程序,能够提供高质量的结果,减少高成本,不需要数据标签和识别复杂的相互作用,但它也有一定的局限性和不透明一样,运算量,需要丰富的数据,和更复杂的算法。在我们的日常生活中,我们使用许多使用深度学习的应用程序模型决策基于预测,如果深度学习模型成为错误预测由于内部/外部恶意的原因影响,它可能会产生困难在我们的现实生活。此外,深度学习培训模型通常有敏感信息的用户和这些模型不应该脆弱,安全和隐私暴露。深度学习和机器学习的算法仍然容易受到不同类型的安全威胁和风险。因此,需要调用的关注行业的安全威胁和相关对策的技术深度学习,激励作者进行全面调查的深度学习安全和隐私安全挑战和对策。我们还讨论了开放的挑战,当前的问题。
深度学习也叫分层学习和深层学习,它是由监督或无监督机器学习技术。深度学习的想法来源于人类大脑的结构和功能以及信号的处理通过人类大脑中的神经元。深度学习也采取人工神经网络的好处,也包括输入、输出和许多隐藏层。每一层的深度学习依赖于非线性响应的基础上,通过输入层提供的数据。在过去的几年里,深度学习技术大多和语音识别广泛应用于信号处理,图像识别,发现的,所以许多其他领域,如医学疾病的发现和基因组学
尽管体型庞大,但它们成功的深层神经网络可以很轻微的训练和测试报告的区别。传统智慧属性的错误小环化的典型特征的家庭或组织技术培训期间使用(
DL的至关重要的问题是它的加密数据流从培训和接口模块。安全和隐私问题非常重要,因为在很多应用中主要采用DL模型如上所述。此外,实际上深度学习的全部模型训练部分依赖于大量的大数据,敏感和机密数据的用户特别训练数据。保持这个观点,DL模型必须没有透露机密和敏感数据。本文系统的文献综述进行了深度学习的安全威胁,对于私人数据隐私的威胁,和相应的发达的防御技术。本文还包括最安全的技术,使用加密原语没有第三方的放纵和摘要未来的挑战和机遇。
深入学习了看技术的新方法。人工智能(AIT)及其分支毫升和深度学习有很多刺激。这是一个现实,深度学习改变了的生活方式,在不久的将来也会影响生活。DL是抓住市场空间日复一日,我们相信,在未来的五到十年,工具,技术,和图书馆的DL将包括在每一个开发工具包。
在这里,我们将讨论的深度学习应用程序捕获了2019年及以后。
许多汽车制造公司的帮助下建立了自动驾驶汽车数字传感器系统。它是通过训练算法通过巨大的非结构化的数据量。
深度学习还用于将改善在医疗领域特别是在乳腺癌诊断和监测的应用。它还可以用于预测个性化医疗生物数据保持视图。深度学习完全重塑医疗行业以及生命科学。深度学习的关键特性是推进健康管理的未来。
最著名的利用深学习语音识别、搜索和激活。这个设备已经在自2011年以来每一个智能手机。谷歌和苹果已经在提供这些服务,现在微软Cortana也推出了一个语音激活的助理。
谷歌翻译是主要的一种语言翻译成另一种语言的翻译。用户输入单词、句子、段落和短语的一种语言,它很容易转化成另一种语言。虽然这设备是可用的很长一段时间,DL正在改善结果随着时间的推移,现在机器翻译也是翻译图片。图像文本转换是一个机器翻译的例子和深度学习的创新。
深度学习也起到了至关重要的作用在自动书写的一代。系统自动捕获和笔的运动学习的字母。DL也促进了新的写作风格的一代。
也有许多应用程序不能覆盖的深度学习在一个纸,和深度学习的更多的应用程序如下:
开拓殖民地形象
面对开拓殖民地
自动彩色化
图像字幕
广告
地震预测
脑癌检测
价格预测
自然语言处理
吊
网络安全
深度学习科学各个领域作出了贡献,带来创新的变化。深度学习也激励每个领域解决日常生活的问题,还介绍了新的研究维度。深度学习的突出表现是现代安全系统领域的。今天是一个非常关键的问题,每个小-和大型组织正面临着;数以百万计的创建新的恶意软件和病毒的威胁,银行和政府机构和大型组织中被发现灰色地带的工具。尽管存在许多安全解决方案,安全是一个正在进行的研究领域。深入学习了新的维度在网络安全领域通过检测网络攻击,删除恶意软件,找出漏洞,和保护系统。
部分
深度学习许可高计算模型,包括多层次的处理学习的描述数据在多个层次的抽象层。这些技术已经大大改善了最先进的语音识别,视觉识别,发现对象,和许多其他领域,如发现疾病和基因组学医学的。定期深入学习人工神经网络包含额外的可训练的模型参数与样本的数量相比,他们一直训练(
机器学习技术操作当前社会的许多方面像从在线研究社交网络内容过滤推荐电子商务网站和越来越多地出现在相机和智能手机等消费产品。机器学习系统是用于识别物体的图片,将语音转换成文本,相关新闻、出版物或产品与用户利益,并确定相关的搜索结果。越来越多地,所有这些应用程序都使用深度学习[
根据(
这更多地使用深度学习为对手创造激励方法的深层神经网络(款)对分类的输入。例如,深度学习应用程序使用图像工作站区别自己和不恰当的内容,结构和形象不干扰区分垃圾邮件和邮件(
神经网络主要由03元素组成,一个叫输入层,也就是用户想要的数据分析(
基本的神经网络。
深度学习神经网络。
对于分类任务,高表示层放大重要入口方面的歧视和压制无关紧要的差异。例如,图像像素值数组的形式和功能在第一个渲染层通常表示存在与否的边缘在图像中特定的方向和位置。第二层通常发现图案通过检测边缘的某些安排,不管小边的位置的差异。第三层可以把图形分成大组,对应部分熟悉的对象,和下面层会发现这些部件的对象组。
DL层是这些层的主要功能不是由人类设计;事实上,它已经从数据通过一个通用的学习过程。深度学习已经取得了重大进展,解决问题,经受住了人工智能社区的最好的努力了许多年。这已经被证明是很好的在高维数据和检测复杂的结构,因此,适用于许多科学领域中,商业,和政府除了乘以寄存器在图象识别和语音识别;其他机器学习方法克服了积极预测可能的药物分子,分析粒子加速器的数据,重建脑回路,并预测在非编码DNA突变基因表达的影响和疾病。也许,最令人惊讶的是深度学习的几个任务取得了非常可喜的成果对自然语言的理解,特定主题的分类,分析道德问题的答案,和语言的翻译
这里添加相关弱点在DL系统最近被发现在一个大数量的出版物。它是非常危险的,这些应用程序是基于一个小的理解DL系统(安全与隐私
尽管许多研究已发表在攻击和防御的深度学习的安全和隐私,他们仍然支离破碎。在这里,我们回顾最近试图安全的人工智能和人工智能的私有数据。
为了满足强人工智能系统信息安全的要求和私人数据,我们需要开发一个安全的人工智能系统。安全的人工智能系统应该提供安全保障,和私人数据人工智能维护系统的数据隐私
安全人工智能一直专注于攻击,威胁,漏洞,人工智能和相应的防御系统,深度学习的尊重,这是一个更有效的模型。攻击深度学习生成错误预测注射错误的样品,这种类型的攻击被称为白盒攻击,系统和基于它包括梯度技术妥协。相比之下,从黑盒引起怀疑系统攻击假预言,没有得到一些关于系统的信息。已经观察到,几乎每一个攻击利用了预测系统的信心没有得到信息系统的结构和参数(
为了发展防御这些攻击,提出了各种方法,如对抗训练,生成对抗网络、统计方法和递归神经网络。
用户的输入数据包含敏感数据的深度学习机器识别。更安全的选项为用户安装深度学习模型在其平台上和执行它很明显;为用户是不可行的,因为深学习模型总是包含大量的数据和处理他们(
结果,深度学习的机器,应该满足三个主要的要求,同时保留隐私:
中存储的数据训练模型不应披露到云服务器
用户请求不应披露到云服务器
云服务器的配置不应该透露给用户
强烈需要使用深度学习的组织建立隐私框架中,既没有任何入侵者也没有任何攻击者的信息披露在共享计算或修改它。为了加强隐私计算的深度学习,计划是至关重要的新privacy-specific技巧可以最小化安全函数的复杂性评价协议(
本研究的目的是研究深抛媚眼的最近发展私有数据和安全问题深度学习在不同的领域。此外,我们描述不同深度学习可能的安全和隐私攻击类型以及不同的防御方法。
深层神经网络的核心部分被称为人工神经元。人工神经元纯粹计算加权数量的输入和输出,根据以下方程:
图
在深入学习培训和接口。
然而,训练样本通常是来自用户的内容存储在云的机器保持敏感信息,如照片,视频,声音,和位置记录。用户的隐私是一个主要关注在深度学习培训和推理(
款模型不同类型的架构,简要解释如下。
这是最基本和核心深层神经网络的构建块。它包括不同类型的多个层,而这些中间层是完全相互连接而层内的节点不互相联系
此体系结构显示在图
卷积神经网络的结构。
它是广泛选择过程顺序的信息。如图
递归神经网络的结构。
这款的体系结构基本上是由两个模块,一个叫鉴别器(D)和其他被称为发电机(G)。生成器生成虚假数据的架构而鉴别器体系结构中使用的通知是否发生器的数据是真实的吗?如图
生成对抗的网络。
在即将到来的部分,目前的主流加密原语选择隐私保护组织的培训和接口的深层神经网络(款)进行了讨论。
同态加密(他)是原始的加密,允许一方加密数据并将其发送到另一个政党可以执行特定操作数据的加密版本(
姚明的电路方法提供了一个通用的机制,构建一个安全的两个政党
这也是一个通用的安全功能评估协议,而且它是由1987年的想法评价电路通过导线值线性秘密共享使用安全。这就像是混乱的电路协议;这也需要指定的函数作为一个布尔电路(
DP是一种指标,决定了一个条目的信息在数据库中暴露当查询数据库(
这是一种两方或多方秘密分发给每个分享不给任何信息/数据的秘密,但这个秘密可以重建的帖子。最著名的分享秘密变体是分享秘密的添加剂。在这种情况下,秘密共享通过随机抽样和创建最后一个帖子,收集所有的股票被秘密值(
在本节中,我们将简要描述最有效的私人数据安全框架的深入学习。所有下面的框架高度保护的Honest-but-Curious (HbC)对手模型。各方遵循这个协议应该遵循协议的指令,但它也观察到,方可能推断出更多信息。说协议是非常安全,因为它停止恶意攻击也停止各方偏离协议规范。
作者提出了一个基于微分隐私维护隐私的方法(DP)深度学习当数据与不同党派。在这种情况下,每一方在本地安装自己的神经网络和有选择地参与一些参数更新与其他部分。作者提出的算法应该是并行运行在不同的机器上,然后单独的机器的结果应当聚合生成最终结果。为了保护用户的隐私数据,微分隐私算法适用时共享,而不是共享的参数初始值。结果,介绍了交换训练神经网络的精度和数据的特异性。
它是一个系统来学习维持、特别是神经网络的隐私。系统是基于他,GC,党卫军协议。与服务器数据所有者秘密分享他们的数据,不符合规则,培养特定的神经网络(
介绍了一个安全协议集合为高维运营商维护的高级用户。这些协议可以用于用户在其中维持他们的数据库和统一的教育形式(
CryptoNets,通过应用毫升问题关于医疗、教育、金融、或其他类型的机密数据,不仅需要准确预测但也仔细的关心使他们安全
作者观察到,仍有保护隐私的风险,和客户仍面临披露敏感信息的威胁(
支持离线阶段加法同态加密不依赖输入
在线阶段包括GC和党卫军;非线性层使用GC和SS进行处理
这个协议包含混合框架有关隐私保护。这个框架被克分子量的现有工作协议的好处对激活函数的深入分析和其他的电路复杂的激活函数和汇聚层。变色龙利用秘密共享算法和添加功能。离线和在线阶段像MiniONN [
它是现代框架基于协议的电路。因为混乱的电路是一个泛型函数评估协议,该框架支持所有非线性激活函数。DeepSecure提供的想法之前减少的数据的大小和网络的实现的电路,因此压缩帐户和连接两件事的大小(
深度学习面临着各种威胁和攻击,下面列出了所有著名的威胁和攻击。
霁et al。
的观点的影响,安全风险和威胁的深度学习特征分为两类。
致病袭击中用于降低性能和可靠性的培训流程,提供不正确的机器学习算法训练数据修改后的标签样本,不介绍下决定限制。许多研究人员执行诱发攻击图像和显示,它意味深长地降低训练阶段的性能。
这意味着对手有能力改变输入训练数据,成为导致学习模型的参数的变化在回收,导致大量减少就业的演讲成功分类任务。
探索性的攻击基本上不影响训练数据集。探索性袭击的主要目标是获得知识的学习算法尽可能多的基本系统。入侵攻击模型,模型提取和会员推理的例子是试探性攻击。
在一个安全的观点,深度学习可能威胁特征分成3组:
这是非常危险的,它直接降低分类器的性能在一个特定的样本或一组的一个样本。
一个无差别的攻击是中毒的亚型的攻击。攻击者的主要目标是增加一般分类错误。此外,无差别的攻击总是选择训练样本的随机值。它随机分类器失败。
尽管深度学习画的关注将会变得成功产业安全和隐私的挑战,不幸的是,它不能得到充分重视,因为它应该。在这里,我们讨论的攻击表面机器学习和讨论缺陷深度学习的实现。
在研究期间,许多类型的攻击目标应用DL和包含的DoS攻击闪避攻击,和有机终止攻击。尽管所有这些攻击是不同的性质和在进攻目标,攻击者的攻击源深度学习应用程序本质上从以下三个角度。
深度学习训练后应用程序主要适用于输入数据的用户对其分类。攻击者攻击计划一个畸形的输入在输入文件或者网络(
这个表面的攻击也被称为中毒攻击。早期的表面类型攻击是由于污染输入数据类型的应用程序。这种类型的攻击不依赖于应用程序的缺陷或软件漏洞。然而,在应用程序可以成为原因的缺陷数据容易中毒。假设我们观察到的变化过程分析图像帧和常见的桌面应用程序。这种变化使得污染机密数据没有被人观察到监控培训过程。
这是一个很大的机会攻击深度学习应用程序如果开发者会选择模型开发的专家。尽管许多程序员计划和创建模型从一开始,许多模板模型存在的程序员不足够的机器学习的知识。在这种情况下,攻击者也获得模型的模板。像数据中毒的攻击,攻击者可以很容易地攻击那些应用程序和可以访问外部使用的私有数据模型没有任何障碍。然而,实现缺陷,如安全漏洞形式分析代码,帮助攻击者隐藏受损的模型。
读者应该记住,有许多类型的攻击表面和不同于对方,这取决于特定的应用程序,但以上这些03类型的攻击,表面覆盖了大部分的攻击。攻击技术与深度学习的比较表
攻击技术的比较与深度学习。
| 攻击技术 | 优势 | 缺点 | 对策技术 |
|---|---|---|---|
| 诱发攻击( |
对训练数据的影响并利用误分类 | 耗费时间 | ( |
| 不适合大数据集 | |||
| 试探性的攻击( |
变化判别结果 | 资源消耗 | ( |
| 分类的样本 | |||
| 完整性的攻击( |
假阴性通过系统 | 很容易发现 | ( |
| 可用性攻击( |
假阳性结果在阻止记录 | 时间和资源消耗 | ( |
| 侵犯隐私攻击( |
很容易利用训练数据集 | 它的性能不可靠,因为它是基于迭代 | ( |
| 有针对性的攻击( |
是不是任意类 | 它不提供保证生成的样本 | ( |
| 无差别的攻击( |
良好的平衡 | 扰动是高的 | ( |
| 高效 |
在文献综述中,作者研究了许多类型的威胁,影响深度学习的功能,而这些威胁目标深度学习的不同阶段。在这里,在这篇文章中,我们将呈现畸形造成的威胁与深度学习的假设应用程序输入输入文件或网络。
中最常见的缺陷深度学习框架程序错误导致软件崩溃,无限循环,或全部内存消耗。这些错误的直接威胁的拒绝服务攻击是运行的应用程序窗口的顶部(
深层神经网络容易受到攻击时的测试(
逃避攻击是一个深度学习攻击敏感的安全限制和保护应用程序,像汽车,自己开车。无人驾驶的例子的敌人可以做出不必要的决定
让我们说,对手生成一个敌对的停止,这意味着对抗增加了许多听不清点停止,所以驾驶的车辆本身并不是公认的停止。因此,车辆驱动自己不会停在停车标志,可能与其他车辆相撞,这可能会导致严重的交通事故。
有许多记忆关联缺陷深度学习的框架,它可能是一个原因错误的输出。逃避可以通过利用缺陷的深度学习框架覆盖分类和控制流。为了发展一个有效的防御闪避攻击,格拉汉姆·古德费勒et al。
对抗训练薄弱而不能看到在训练对抗的例子。Papernot et al。
系统托管的软件缺陷深度学习应用程序在其操作系统可以被劫持由于远程妥协和应用程序错误
在文献综述,许多国防技术对安全问题的深度学习被发现的,我们这些技术分为两大类分类称为逃税和中毒。进一步,有许多逃避攻击减排技术,但在这一章,只有知名的和有效的类型是解释说。然而,在类似的派系,对中毒攻击的防御技术研究员提出的5.1节中给出。这些防御技术无法克服攻击100%,但这些技术可以提高结果的预测。
防御闪避攻击的最有效的方法是增加对抗的例子和检测敌对的例子,对抗训练,和防守蒸馏。
研究人员(
孟和陈
格拉汉姆·古德费勒et al。
Sethi et al。
该框架建议(
太阳et al。
Paudice et al。
表示,影响函数是用来跟踪模型的预测和找到最好的有说服力的数据点负责给定的预测。这表明近似函数仍然是能够提供重要的材料是不可转让的,一视同仁的模型理论倒塌的地方(
本文的作者,让研究人员比较了现有的优缺点深度学习的对策方法,如表所示
比较深度学习的对策技术。
| 对策方法 | 优势 | 缺点 |
|---|---|---|
| 对抗训练( |
非常容易理解和实现 | 它取决于样本的训练阶段 |
| 可伸缩的和有能力处理复杂的数据集 | ||
| 国防蒸馏( |
样本和防御能力 | 很难收敛和高复杂性 |
| 整体方法( |
Model-independent,良好的泛化 | 不反驳训练数据和计算开销 |
| 微分隐私( |
保存培训和学习数据的隐私 | 也会影响数据和model-independent合法 |
| 低开销、低复杂性 | ||
| 同态加密( |
维护和简单的数据安全和隐私 | 它增加了数据大小和广泛的计算开销 |
各种深度学习安全攻击和相应的对策已经引起业界和研究者的关注。表
攻击和防御技术的比较深刻的学习。
| 攻击/防御 | 技术 | 培训/测试 | 分类 |
|---|---|---|---|
| 攻击 | 敌对的标签翻转 | 培训 | 机密性、完整性和可靠性 |
| 攻击 | 迷人的 | 培训 | 完整性和可靠性 |
| 试探性的攻击 | |||
| 攻击 | 困惑 | 培训 | 试探性的攻击 |
| 有针对性的攻击 | |||
| 完整性和可靠性 | |||
| 攻击 | 中毒 | 培训 | 机密性、完整性和可靠性 |
| 诱发攻击 | |||
| 无差别的攻击 | |||
| 攻击 | 模仿 | 培训 | 试探性的攻击 |
| 完整性和可靠性 | |||
| 国防 | 对抗训练 | 培训 | 创建一个万无一失的系统,提高了系统的安全,和失败的安全攻击 |
| 国防 | 国防蒸馏 | 培训 | 它确保完整性、可用性、可靠性和真实性。光滑的分类器 |
| 国防 | 整体方法 | 培训 | 检测网络中的异常 |
| 提高数据挖掘技术和入侵检测 | |||
| 国防 | 微分隐私 | 培训和测试 | 它的隐私保护数据 |
| 国防 | 同态加密 | 培训和测试 | 它保护的隐私数据,以确保机密性 |
深度学习提供新的技术来解决安全问题。介绍了原型技术和古典ML算法显著改善。表
深度学习的调查方法、方法和安全应用程序。
| 戴斯。莱纳姆:方法 | 引用 | 没有次引用(17.01.2020) | 安全应用程序 |
|---|---|---|---|
| Autoencoder | 哈代et al。 |
59 | 恶意软件检测 |
| Autoencoder | 罗德et al。 |
50 | 恶意软件检测 |
| Autoencoder | Kalash et al。 |
35 | 恶意软件的分类 |
| Autoencoder | 小王和姚 |
17 | 恶意软件的分类 |
| Autoencoder | Chalapathy和拉 |
61年 | 异常检测 |
| Autoencoder | 陈和你们( |
7 | 敌对的恶意攻击 |
| Autoencoder | Maniath et al。 |
10 | Ransomware检测 |
| Autoencoder | 扎卡里亚( |
- - - - - - | Ransomware检测 |
| Autoencoder | 德牧[ |
10 | 对手的恶意软件二进制文件 |
| Autoencoder | 詹姆斯和Aimone [ |
18 | 文件类型标识 |
| Autoencoder | 王( |
132年 | 交通标识 |
| Autoencoder | Fadlullah et al。 |
238年 | 网络流量控制系统 |
| Autoencoder | Aminanto et al。 |
46 | wi - fi的模拟检测 |
| Autoencoder | 香等。 |
34 | 移动加密流量 |
| Autoencoder | Mi et al。 |
15 | 垃圾邮件识别 |
| Autoencoder | 施等。 |
57 | 用户身份验证 |
| Autoencoder | Catak和睚眦 |
- - - - - - | 恶意软件的分类 |
| 美国有线电视新闻网 | 吉波特( |
33 | 恶意软件的分类 |
| 美国有线电视新闻网 | Cha et al。 |
517年 | 裂纹损伤检测 |
| 美国有线电视新闻网 | 日本村田公司和Yamanishi |
01 | 下载攻击 |
| 美国有线电视新闻网 | Vinayakumar et al。 |
58 | 网络入侵检测 |
| 美国有线电视新闻网 | 王等人。 |
109年 | 恶意软件的流量分类 |
| RNN | 阴et al。 |
225年 | 入侵检测 |
| CNN RNN | Maleh [ |
- - - - - - | 恶意软件的分类 |
| CNN RNN | Kolosnjaji et al。 |
179年 | 恶意软件检测 |
| CNN RNN | Tobiyama et al。 |
98年 | 恶意软件检测 |
| CNN RNN | Yu et al。 |
33 | 入侵检测 |
| 美国有线电视新闻网(动态) | 希尔和Bellekens [ |
03 | 恶意软件检测 |
| 款 | 蔡明俊。康和J.-W。康( |
224年 | 入侵检测 |
| 款 | Potluri和Diedrich |
67年 | 入侵检测 |
| 款 | 达尔et al。 |
283年 | 恶意软件的分类 |
| 款 | 塞巴斯蒂安et al。 |
146年 | 大量的恶意软件标签 |
| 款RNN | Mi et al。 |
15 | 内部威胁 |
| 款RNN | Mi et al。 |
03 | 垃圾邮件检测 |
| 氮化镓 | 安德森et al。 |
67年 | 入侵检测 |
| 氮化镓 | Yu et al。 |
23 | 品质检测 |
| 氮化镓 | Zhauniarovich et al。 |
20. | 恶意域名检测 |
| 遏制 | Alrawashdeh和Purdy |
63年 | 入侵检测 |
| 遏制 | 元等。 |
202年 | 恶意软件检测 |
| 遏制 | 王等人。 |
216年 | 缺陷预测 |
| 遏制 | 陈等人。 |
67年 | android恶意软件检测 |
在研究上述技术,作者很难准确定义的性能技术由于不同的数据集和指标。这里的添加是,这些技术/方法的性能因安全领域而异。信息安全领域有广泛的不同来源收集的数据通过应用深度学习测试。研究/研究无法完成并生成准确的结果因为大量数据集的不公开可用。数据集的大部分来源又小又旧。通过有意义的方法开发一个安全解决方案,有必要测试方法在大,更新,和可靠的数据集。方法的结果应该与对方通过实时场景。
深度学习现在已经成为我们日常生活的一部分,当新技术投资,绝对安全和隐私问题。近年来,进行了广泛的研究,在安全和隐私保护问题及其应对框架深度学习和深层神经网络的训练和接口模块。因此,安全和隐私变得非常关键和重要的问题不容忽视的其他技术。
在文献回顾中,我们发现两种基本类型的安全攻击:逃避和中毒。我们还提出了这两种类型的攻击的有效对策。我们解释了安全和私人攻击、框架和对策技术。
这些框架有加密原语和众多的特点。应该注意的是,私人干扰框架没有完整的能力提供款安全和隐私。我们的轮廓细节不同类型的安全攻击深度学习。投资有很多类型的攻击,利用深度学习的结果,模型信息提取或获得知识的培训数据反演模型,模型提取和推理。说袭击钢铁训练数据和产生预期的结果。深度学习有更多的私人培训部分计算开销与接口。因此,需要更多的浓度和研究这个方向发展更有效的解决方案,同时保持数据的隐私保护模型。
隐私风险总是存在的深层神经网络由于各种特征实际上是依靠大量的输入训练数据。在这一章,我们还讨论了可能的隐私威胁敏感和机密的深度学习模型的数据。不同的研究一直在进行隐私保护利用深度学习攻击。
对于未来的工作,它是必不可少的研究人员深入研究不同款加密原始的解决方案。混合协议技术可以减少计算开销的安全和隐私保护的解决方案。此外,隐私和安全协议的定制款也是一个有趣的和开放的研究领域开发一个可行的解决方案。作者也旨在执行他们的研究在深度学习的应用特别是在天体物理学领域,等离子体物理、原子物理、热力学、电磁、机械、纳米技术、流体力学、电水动力学、信号处理、电力、能源、生物信息学、经济和金融。
作者声明没有关于这篇文章的出版的利益冲突。