文摘
传统的基于机器学习隐写式密码解密方法压缩语音通信安全领域都取得了极大的成功。然而,以往的研究缺乏数学建模的码字之间的关系,还有改进的余地在隐写式密码解密小型和低嵌入率样本。应对挑战,我们利用贝叶斯网络来测量不同类型的码字之间的相关性在线性预测编码和现在F3SNet-a四步策略:嵌入,编码,关注,和分类量化索引调制隐写式密码解密的压缩语音基于层次关注网络。其中,嵌入码字转换成数值向量,高密度编码使用的内存特性LSTM保留更多的信息通过分布在所有的向量,并注意进一步确定哪些向量产生更大的影响最终的分类结果。评估F3SNet的性能,我们做一个全面的比较F3SNet与现有的隐写术的方法。实验结果表明,F3SNet超过最先进的方法,特别是对于小型和低嵌入率样本。
1。介绍
作为一个有效的方式秘密传递信息在互联网上,隐写术使用数字运营商的冗余实现秘密信息嵌入。近年来,由于流媒体技术的广泛性,VoIP隐写术及其对策已经成为一个热门话题在信息隐藏1- - - - - -3]。
众多VoIP应用带限信道和无线通信,语音编码人员如G.729 G.713.1,自适应多重速率的(AMR)和增强型全速率(EFR声码器作为)在移动和无线通信已经成为必不可少的组件。如何利用中存在的冗余编码过程实现隐写术是一个新的研究热点。一些方法,将秘密信息嵌入比特流在编码过程中被提出,如量化索引调制(QIM)隐写术4- - - - - -6),固定码书(巴萨)隐写术7- - - - - -9),和沥青调制(PM)隐写术(10,11]。
相对应的隐写术,隐写式密码解密不仅是确保隐写术不是恶意滥用也是关键技术评估速记式加密算法的性能。机器学习算法,特别是支持向量机(SVM),已被广泛应用领域的隐写式密码解密的传统媒体和网络流。为QIM隐写术,s·李等人提出了各种各样的检测方法(12,13]。在[12),他们提出了一个统计模型来提取该指数的定量特征向量分布特征(IDC)。在另一个工作,李et al。13)进一步提出了一个模型称为量化码字相关网络(QCCN)量化的相关特征顶点的关联网络。对于巴萨的隐写术,苗族等。14]首先提出了一种基于马尔可夫转移概率——(MTP)检测方法和一个entropy-based检测方法来检测压缩演讲的隐写术。为了提高性能,任et al。15)使用相同的脉冲位置的统计概率(SPP)在同一轨道准确区分覆盖和隐藏。隐写术的点,刘等人。(16)提取数据的高频频谱和mel-cepstrum系数二阶导数来检测音频隐写术。李等人。17)提出了一个网络模型量化的相关特征自适应码书。毫无疑问,隐写式密码解密言论压缩的基于机器学习已经取得了很大的进步。
然而,上述这些方法正面临着一些挑战。首先,随着隐写术变得更加复杂(7,8,18隐写式密码解密),提取的统计特性是发展从低维度和简单高维度和复杂19]。其次,信息隐藏技术逐步随机化和细粒度化的发展方向,也就是说,在允许范围内的载波失真,秘密信息首先分成小段,然后,不同长度的运营商是随机选择实现细粒度的隐写术与不同的嵌入率。然而,大多数现有的隐写式密码解密方法不执行得很好(14,15),尤其是对小型和低嵌入率样本。
幸运的是,神经网络(NNs)的出现带来了希望处理这些挑战。2018年,林等。20.首次引入神经网络(NNs)压缩的隐写式密码解密的演讲。他们提出了递归神经网络(RNN)基于隐写式密码解密模式(RNN-SM)检测码字之间的差距的相关性引起的QIM隐写术。2019年,陈等人提出了一个steganalytic方案结合RNN巴萨的隐写术和卷积神经网络(CNN)。然而,序列编码基于CNN或RNN仍然是一个当地的编码方法,模型输入信息的地方依赖。在[21),Vaswani等人认为,注意力机制可以完全取代LSTM和卷积神经网络。灵感来自于他们的工作,我们把注意力机制和RNN和提出深矿井信息网络模型反映码字之间的相关性变化之前和之后的隐写术。
在本文中,我们介绍F3SNet,四步战略QIM隐写式密码解密基于分层编码表示。F3SNet, RNN编码器是用来防止更多信息被分布在所有的向量,和注意机制是用来决定哪些向量应该更加关注。F3SNet的实践证明是对隐写术带来的微弱信号的变化非常敏感,尤其是对小型和低嵌入率样本。
总之,这项工作使以下贡献:(1)我们第一次使用贝叶斯网络(BN)建立一个框架,用于不确定性知识表达和推理,然后计算不同节点之间的联系强度作为衡量码字的强度的相关性。量化分析的过程作为一个重要的一步有效检测使用深度学习框架。(2)我们现在F3SNet,四步战略QIM隐写式密码解密方法基于层次关注网络。通过四步策略,我们数值码字编码向量为多个记忆向量,然后选择一组向量,具有最大的对分类结果的影响,防止信息过载,并最终实现有效的隐写术的分类,甚至在特殊情况下,如小尺寸和低嵌入率。(3)评估F3SNet的性能,我们进行全面的实验检测精度(ACC),假阳性率(玻璃钢),和假阴性率(FNR)算法在不同长度和不同的嵌入率。此外,我们比较F3SNet与几个现有的算法,如IDC (12],QCCN [13],RNN-SM [20.],FCEM [22)在不同的嵌入率和不同长度的方法。实验结果表明,我们的算法优于其他先进的算法。
剩下的论文结构如下。部分2评审相关工作的信息隐藏和隐写分析现有压缩演讲。部分3概述了线性预测分析和QIM隐写术。部分4讨论了使用贝叶斯网络的相关性。部分5细节的设计和实现F3SNet,紧随其后的是实验和讨论部分6。最后,我们的结论摘要和讨论未来的工作部分7。
2。相关的工作
2010年,丁和萍23)使用脉冲位置参数的直方图特征训练SVM分类器来区分的覆盖和隐藏的演讲。2011年,黄等。24)采用第二检测和回归分析不仅检测隐藏的信息,而且估计嵌入消息的长度。然而,他们的方法是一个相对专门的隐写术的方法。李等人。12)设计统计模型来提取这些特征检测的定量特征向量QIM隐写术使用支持向量机分类器。此外,李et al。13)建立了一个QCCN模型,从分割量化码字中提取特征向量,然后高性能训练支持向量机分类器。
此外,对于巴萨的隐写术,苗族等。14言论]使用马尔可夫性质参数提出基于MTP的检测方法和熵在2013年。任等。15AMR隐写式密码解密算法)提出了一个基于概率相同的脉冲位置在同一轨道在2015年。获得更好的性能,在2016年,田et al。19]AMR语音特征利用飞秒脉冲对的统计特性,提出了一种隐写式密码解密的AMR语音基于多维特征选择机制。为沥青调制隐写术,李et al。17)提出了一个网络模型量化相关性自适应速率。支持向量机分类器是用于上述三篇论文。
近年来,随着不同类型的深度学习的应用,提出了许多新颖的算法基于图像的隐写式密码解密和伪造,音频和视频(25- - - - - -27]。与传统方法相比手工制作的特性(13,19,28,29日),基于深度学习的算法可以显著提高检测的性能。在2015年,钱学森等。30.)提出了图像隐写式密码解密一个定制的CNN。图像的模型可以捕捉复杂的依赖关系,实现更好的检测性能比空间丰富模型(SRM)。徐et al。31日,32CNN)提出了一种架构,更适合图像隐写式密码解密和增强它通过改善后续的统计模型层和防止过度拟合。你们et al。33)提出了一个CNN-based图像隐写式密码解密方法,它使用一个激活函数称为截断线性单元(TLU),和改进的隐写式密码解密能力整合的知识选择频道。2016年,波林等。34]介绍了音频隐写式密码解密方法使用深层信念网络(DBN)。与支持向量机相比,高斯混合模型(GMM),该DBN-based隐写式密码解密方法可以得到较高的分类精度。2017年,陈等人。35)设计了一种新颖的CNN在时域检测音频隐写术。然而,由于不同的信号特征,这些算法难以直接适用于压缩演讲。
2018年,林等。20.提出了基于RNN的码字相关性模型。他们用一个监督学习框架RNN-SM训练。实验表明,RNN-SM达到更好的检测结果无论短样本长度或嵌入率低。2019年,陈等人。36)提出了一个steganalytic方案结合RNN和CNN。他们利用RNN提取更高层次的上下文表示巴萨和CNN融合隐写式密码解密的时空特性。实验结果验证,他们的方法优于现有的最先进的方法。在2019年和2020年,郝et al。22,37)先后提出了分层表示网络和多线程引起网络中提取相关特征QIM隐写式密码解密。两种方法显著提高最好的结果尤其在检测短期和较低的嵌入式语音样本。灵感来自于他们的工作,我们提出了一种新的模型称为F3SNet基于层次关注网络模型的时空特征量化指数LPC分析,进一步提高检测的准确性CNV隐写术(4]。
3所示。背景
3.1。线性预测分析
为基础的低速率语音编码、线性预测分析的基本思想(LPA)是利用语音信号的相关性来近似的样本值在当前时刻的线性组合几个过去的语音样本。线性预测编码主要是分为三个过程:LPA,谱线对(LSP)分析和矢量量化(VQ)。第一,语音信号可以被视为由输入序列的输出激动人心的整机全极系统一个 。系统的传递函数 在哪里是一个常数,是最重要的模型,是一个实数。的预测系数组成一个 - - - - - -维向量,线性预测系数。
然而,LPC系数波动较大,某些LPC系数的误差会对整个频域的影响更大。因此,LPC系数不适合直接量化,需要进一步转化成线状谱频率LSF参数(频率谱行)。进一步平衡比特率和量化精度,矢量量化技术用于搜索码字的码书矢量这是最接近的向量在一定距离,量化和序列号码的码字向量得到量化的结果。
3.2。QIM隐写术
的内在本质QIM隐写术是冗余量化码书,和次优码参数引起的隐写术几乎没有对语音质量的影响。
陈等人首次提出隐写术方法适合QIM静态数字运营商如图像、文本、音频和视频(38]。假设的秘密信息传播是集 。发送方想隐藏秘密信息 。首先,电报密码本分为不相交的子集 。然后,他(或她)建立映射: 。为输入向量是量子化的,只有最近的码字在subcodebook搜索 。接收方提取秘密信息通过检查码码字属于的一部分。
2009年,肖et al。4)结合QIM方法和矢量量化压缩编码过程的演讲和提出了一个新颖的基于互补的邻居顶点的速记式加密算法(CNV)。鉴于码字,每一个码字 - - - - - -维。肖等人使用图论建立一个图 在代码空间,这可以定义如下: 在哪里是th码码字。每条边代表一定的码字之间的关系,和边缘的重量被定义为任何两个码字之间的欧氏距离。在小的论文,他给一个图形构造算法,并证明了可以two-colorable图。在这个过程中,相同颜色的顶点被分配到相同的子集。染色操作被重复,直到所有顶点分配,获得不同分区的子集速率。最后,每个码字是其最近邻相反的部分。假设输入值是量子化的。在这种情况下,额外的量化失真引起的CNV隐写术可以得到:
它可以证明,该算法可以减少信号失真和显著提高CNV隐写术的用和鲁棒性。本文实现了隐写式密码解密CNV的算法。
4所示。码字相关性建模和分析
在LPC的充分描述码字之间的相关性,我们利用BN模型码字,然后分析相关性。BN可以表示成一个二元数组 ,在哪里 代表一个有向无环图和表示一组条件概率,称为网络参数。
假设有框架,其中包含码字。和代表的有向图的顶点和边的集合 ,分别可以表示如下: 在哪里 表示不同的帧的相对距离。如果 , 代表帧间的边缘。如果 , 代表intraframe的边缘。曾经有向图的顶点和边网络参数,确定吗可以计算描述顶点之间的依赖关系。因此,可以建立以下公式: 在哪里父节点的节点集吗 。BN的建设包括结构学习和参数学习,学习取决于结构学习和参数。结构学习指的是找到一个尽可能相似的网络结构为任何给定的数据集的数据 。摘要K2算法基于贝叶斯评分规则用于查找网络最大的概率在一个给定的数据集。根据贝叶斯公式, 在哪里P(G)是网络结构的先验知识G和数据集D已知信息和独立于网络结构,和我们有什么
自 ,贝叶斯评分定义如下:
假设参数的先验分布遵循狄利克雷分布,让代表的数量值th变量,代表的数量可能值的父节点th变量,代表样本的父节点的数量th价值时在贝叶斯网络的节点th价值,是一个hyperparameter, ;然后, 在哪里伽马函数和吗表示变量的数量。已经证明,K2算法几乎可以学习贝叶斯网络的节点优先级是完全正确的。
验证BN的有效性,我们选择一个40秒语音段、压缩G.729声码器,然后提取4000套量化码字。在实验中,我们构建的BN 9点,然后进行参数学习。使用上面的K2算法,学习网络结构如图1。intraframe码字的码字之间的相关主要是反映和码字和码字之间和码字 ,和帧间相关性主要反映在两个连续帧的第一个码字。如何测量和可视化之间的联系强度不同的码字吗?为此目的,一旦39)提出了一种基于互信息度量方法离散贝叶斯网络和条件互信息。在他的方法,和的父节点吗 ,和给出的条件概率表吗 ;鉴于和 ,链接强度定义为 在哪里 在哪里表示的离散状态的数量 。方便,LinkStrength包在MATLAB的贝叶斯网络工具箱(BNT)提供函数来计算熵和可视化、连接强度和连接强度离散贝叶斯网络。为简单起见,我们只使用链接强度。图2显示盲平均链接强度。
强度图的链接,链接的价值力量是由箭头旁边的数字表示。作为盲人平均链接强度如图所示2,大多数链接都相当强劲。尤其是链接两个连续帧的第一个码字之间的优势是3.472和3.582,分别是两个连接最大的价值。这表明连续帧之间的相关性是最强的。接下来,它可以观察到,在连续三帧,第一个码字之间的联系强度和第三码字之间的联系强度大于第一个码字和第二码字。例如,在第一帧,前值为1.996,后者值是1.953,这是更高。这意味着第一个和第三个码字之间的相关性比之间的第一个和第二个码字。此外,没有其他顶点之间的联系并不意味着他们之间没有相关性。只是学的太弱的相关性和优化模型。当然,薄弱环节可以测量通过手动添加链接关系图中。
可以看到,LPC的码字之间的关系是复杂的。在提出的相关措施20.)使用条件概率,它是基于码字序列的马尔可夫过程的建模。然而,我们的方法是基于贝叶斯网络,更接近真实分布的码字序列。因此,有必要找到一个新方法来改善传统的检测方法。隐写式密码解密基于深度学习可以自动提取载波的内在特性,避免了建立模型的复杂性。因此,我们提出一种隐写式密码解密方法,采用RNN的优点和注意力机制。
5。该方法
直到现在,我们可以正式提出F3SNet,基于层次的关注网络的体系结构。结构如图3。它包括一个嵌入层、多层注意层,和一个分类器。其中,多层注意层采用一个两层的结构,包括一个码字编码器,码字注意层,码字序列编码器和码字序列注意层。
隐写术分类简要总结如下。简单的饲料在输入数组和码字向量和码字序列矩阵。码字向量作为输入和发送到第一层的关注。压缩向量表示LSTM提供的码字的,然后,一些重要的向量,可以反映出相关的码字中提取的注意机制。同时,这些码字序列矩阵输入第二个层的关注。相同的操作后,sequence-level表达式,总结在整个演讲中获得的所有信息。最后,获得表征进一步作为分类特征实现隐写术的分类完全连接网络。为方便验证,我们选择keras隐写式密码解密的框架。下面我们描述不同组件的细节。
5.1。输入
我们知道,演讲有一个层次结构类似的文档,可以分为不同的句子,每个句子包含一个相应的单词量。因此,一个语言可分为码字序列和码字。每个码字序列和码字包含了独特的信息。完全我的这个信息,我们使用一个层次关注网络模型的结构量化码字。在这里,两种类型的输入数据与不同形状是必需的。
假设有框架在一个特定的语音样本的持续时间 。我们提取码字索引和言论包的所有指标样本向量与大小 。 第一层的输入,格式如下: 在哪里 表示th指数框架。第二层的输入,我们把 - - - - - -len演讲作为一个单元和包的码字索引框架为一个矩阵
5.2。嵌入
嵌入层用作第一个隐藏层在我们的模型中,把量化码字索引序列(气)成一个固定大小的矢量序列。通过嵌入层、连续、分布式气表示可以获得并可以有效地描述不同码字之间的相关性。原则上,一组二维张量和形状 送入嵌入层。他们被用作“指数”来选择一个排列内部可训练的权重矩阵 ,在哪里代表输出嵌入层的维度。
在我们的实验中,矩阵随机初始化,它被认为是一种部分深度学习模型,在模型的学习过程和更新。多个时代后,整个码字之间的相关性是正确表达。使用这个重量,最后输出一批三维张量和形状 ,的编码表示。
我们可以看到在部分6.3,模型之间的比较和表明,嵌入层可以显著提高分类精度。
5.3。编码
嵌入层LSTM编码层紧随其后。LSTM主要流程编码顺序从左到右穿过three-gated逻辑(忘记门、输入通道和输出通道)并返回一个有序列表隐藏的状态 以及输出向量的有序列表 。如图4LSTM细胞记得在任意时间间隔值,而这三个门的控制信息的流动细胞。
有八组的参数需要学习在整个LSTM网络权重矩阵和相应的偏见有三门。参数定义如下:忘记门权重矩阵和它的偏差 ,输入门权重矩阵和它的偏差 ,输出门权重矩阵和它的偏差 ,重量和细胞状态矩阵和它的偏差 。为清晰起见,进一步细分为四个权重矩阵 , , , , , , ,和 。以忘记门为例,计算过程的控制因素和留住多少内存。在每个LSTM细胞,两个权重矩阵输入节点连接到隐藏的节点,分别输入权重和隐藏的节点权重的反馈 。首先,网络的输出在时间结合当前网络输入然后线性转换获得 。数学过程简述如下:
然后,映射到 通过非线性激活函数获得忘记门的控制因素,这可以被描述为
以类似的方式,控制因素输入的门和控制因素可以计算出输出的门。在每个时间步 ,LSTM细胞输出两个向量:记忆从当前块和输出当前块的,即 的象征代表了激活函数,使用两种类型的激活函数ReLU或双曲正切LSTM细胞,和象征””意味着乘法的元素。最后,LSTM会给一个输出序列的维度 ,在哪里样品的长度,批量大小,是隐藏的大小,是网络方向( 表明单向网络; 表明一个双向网络)。在工作,输出向量 LSTM层的进一步作为输入层的注意。
5.4。参加
正如上面提到的,编码器能够保持更多的信息通过分布在所有的向量。此外,并不是所有的向量的贡献一样最终分类。因此,关注机制(AM)介绍了提取这些向量是重要的隐写式密码解密和聚合信息的表示向量形成特征向量。如图5,注意力可以分为两个步骤。一个计算注意分配是基于所有输入信息;另一种方法是计算加权平均输入信息的基础上,注意分配。
考虑到输入序列 ,然后传递给激活双曲正切的致密层。获得一组中间向量: 在哪里致密层的参数矩阵。然后注意分配可以通过比较输出的致密层可训练的上下文向量softmax和规范:
使用扩展点积模型,获得的得分函数,表示 (输入向量的维数)。让代表的重量 - - - - - -输入有关的 - - - - - -输出。对于每一个输入向量,得到加权平均输出向量 : 在哪里 是输出和输入的位置向量序列。最后,输出向量序列 包含最多的信息,这对隐写式密码解密作为分类特征。
5.5。分类
神经网络经过几层,高层F3SNet推理是通过一个完全连接(FC)分类器。分类器如图3。FC层的概率计算语音样本属于正常组和隐藏设置。不管有多少俱乐部层传递,它仍然被视为一个线性变换,实现了转换的 特性矩阵 分类结果矩阵。假设FC中的参数我们的网络层,即权重和偏见,用 和(2)大小,分别。请注意,每一批样本股票的相同的一组参数。输出数组 可以计算为 在哪里是乙状结肠函数。
简而言之,有三个原因来解释为什么F3SNet是有效的为小样本和低嵌入率样本。首先,嵌入层更有利于表达码字之间的相关性。其次,最重要的是,多层RNN的集成,促进语言时空特征的提取。第三,类似于单词、句子和段落的NLP可以表达不同的维度信息,更多的功能可以从两个维度中提取码字序列。下面的实验可以证明F3SNet的有效性。
6。实验和讨论
6.1。实验装置
我们所知,没有公共数据库信息隐藏和隐写分析的演讲。以前作品自有语音样本用于实验。为了便于算法性能的比较,我们使用语音样本集林等人发表在GitHub (https://github.com/fjxmlzn/NN-SM/)。在本文中,我们将原始样本划分为5秒钟样品相同的长度,然后把音频PCM格式8 KHz的采样率,16位/样本,由酷编辑Pro 2.1立体声。最后,覆盖数据库isestablished共有5120种不同的语音样本。
节中描述3.2隐写术方法参与了实验,即CNV隐写术(4]。对于每个样本封面数据库中,几位随机生成的秘密数据分别嵌入到封面演讲。嵌入式比特的实际数量取决于样本长度和嵌入率。同时,不同的样本长度和不同的嵌入率也直接影响检测的准确性提出了隐写式密码解密算法。此外,正常的信号分配给消极的类别,和隐藏样本从积极和消极中选择类别构建训练集和测试集,分别。评估的性能F3SNet,三个统计指标用于衡量F3SNet的分类效果,即。假阳性率(玻璃钢),假阴性率(FNR)和准确性(ACC)。
首先,评估不同的样本长度的影响F3SNet的性能,我们给的样品长度 , , , , , , , ,和与和分别嵌入率。如前所述,许多现有的算法具有良好的检测精度为大型样品,但是他们没有执行好小型样品。因此,我们专注于为小型F3SNet如何执行样品。
然后,评估的有效性F3SNet在不同的嵌入率,正常信号和隐藏信号与不同的嵌入率(ER)分组。因此,选择嵌入率实验 , , , , ,和 ,分别。与此同时,我们专注于为小型F3SNet样品的性能。样品的长度设置为和在实验中。
第三,如上所述,基于压缩的隐写术的演讲中,研究人员先后开发了各种隐写式密码解密的方法。其中,IDC(典型的算法12],QCCN [13],RNN-SM [20.],FCEM [22]。下面我们将这些先进的算法的性能比较和F3SNet使用不同长度和不同的嵌入率。
6.2。确定Hyperparameters F3SNet
模型涉及的hyperparameters包括嵌入层的输出尺寸、LSTM隐藏单位的数量,LSTM的周期性层,辍学率,批量大小,时代,等等。所有这些hyperparameters决心通过交叉验证训练集和验证集。
对于一个给定的网络模型,hyperparameters如嵌入的维数层,LSTM隐藏单位的数量,和复发性层LSTM决心通过交叉验证训练集和验证集。考虑到分类精度和训练时间,我们共收集语音样本的长度(从上面的数据库),然后把它们分成训练集和验证集 比率。为了优化模型的优化过程,亚当优化器是用于训练模型。学习速率是在默认的方式进行。
在我们的实现中,程序运行在一个GPU的深度学习服务器,“英特尔(R)至强(RV4) CPU e5 - 2620 @ 2.10 GHZ,“64 GB内存和4 NVIDIA GeForce GTX 2080 Ti gpu。此外,内存大小和处理能力的GPU 11 g和11.3 TFLOPS双精度,分别。通常情况下,它有能力容纳最深度学习的实现架构。因此,基于GPU的服务器资源在我们的实验室中,最后一个参数如下。批处理大小设置为128。嵌入层的维数是100。词LSTM的维数是100。句子LSTM的尺寸是50。的周期性层LSTM是1。值得一提的是,当前参数值不一定是最优的,并且可能会发现一个更平衡的角度通过实验精度和时间成本。
6.3。与不同的网络模型
不同的模型有不同的学习能力。一般来说,模型越复杂,深度学习能力越强,但更大的资源开销。在这里,我们使用分类精度和训练时间作为评价指标来比较六种模型,如表所示1。从上面可以看出,F3SNet使用层次注意力模型。模型 , ,和变异是通过修改模型。例如,模型只考虑一个单层结构,注意模型不使用LSTM层和模型不使用一个嵌入层。此外,模型和之前提出的两个深度学习模型(20.,22相比),都是在这里。
分类精度指标,语音样本选择,包埋率从0.1和增加的增长率 。经过10迭代,最大精度为 - - - - - -轴和包埋率为 - - - - - -轴,如图6。我们可以发现,随着嵌入率的增加,所有模型的分类精度明显提高,和F3SNet是最好的在所有嵌入率,这表明,该模型具有excellentsteganography特性学习能力。可以说,嵌入层和多层注意机制使F3SNet表现出更好的性能。然而,从图可以看出7模型的训练时间相对较长,这是必须付出代价的来提高精度。在某些应用程序中,时间开销是一个“可接受指标”和精度是一个“满意的指标。”也就是说,分类器需要达到一定精度在可接受的范围之内的时间开销。我们的模型可以应用于这些场合。
6.4。性能测试
6.4.1。测试结果在不同的长度
在实验中,九个不同长度的语音样本和选择嵌入率测试的有效性F3SNet在不同条件下,特别是对于短样品。表中列出的结果2。
显然,对于样品,我们仍然算法实现和嵌入率时检出率和 ,分别,明显好于先进的算法。此外,对于每一个固定的嵌入率,检测精度样本长度成正比。这意味着样本的时间越长,检测精度越高。当样本长度增加 ,该算法的检测精度达到对应于上述两个嵌入率和 ,分别。此外,可以看出,随着语音长度逐渐增加 ,算法的检测精度在每个候选人的长度在一个相对较小的范围内波动。然而,当样本长度的变化来 ,检测精度增加更清楚。嵌入率作为一个例子,样本长度增加来 ,和检测精度增加 。然而,从样本来 ,,只增加了检测精度 。
从另一个角度,我们可以做一些观察FNR和玻璃钢。不管嵌入率,不同长度的FNR显著大于玻璃钢。这表明,错过的检出率高于误警率检测算法。因此,该算法适用于一些不需要的应用程序环境缺失的检测率高,比如在线实时检测。
6.4.2。测试结果在不同的嵌入率
这个实验评估的性能F3SNet固定长度和不同的嵌入率。结果如表所示3。
从上面的实验结果,我们可以发现,有一个积极的检测准确率和包埋率之间的关系(ER在桌子上3)。样品的长度 ,当嵌入率 ,检测精度 ,随着嵌入率上升 ,检测精度 。最后,检测精度在结束下嵌入率。
同时,固定长度的样品,当嵌入率很低,包埋率增加一定比例,并相应地准确率提高。然而,当嵌入增加到一定值,精度的增加并不重要。同样,共计0.2秒的样本,嵌入率范围从来 ,每一次增加 ,和检测精度的增加的比率 , , ,和 ,分别。此外,可以得出两个结论的横向比较不同样本长度。首先,样本的时间越长,检出率越高。第二,当嵌入率较低时,样本长度增加一定的价值和检测精度增加更重要。
6.4.3。与现有算法的比较
我们专注于比较各种算法的检测精度不同的样本长度 包埋率 , ,和 ,分别。结果如图8- - - - - -10。比较,我们认为,随着样本长度的增加,所有参与比较的算法的检测精度不断增加,FNR和玻璃钢不断减少,尽管偶尔波动。此外,根据性能分布曲线在图8五种算法可以分为三个不同的性能范围。IDC的检测算法和基于传统机器学习QCCN表现不佳,RNN-SM是在中间,和FCEM F3SNet有最好的表现。在所有的算法,F3SNet的性能具有明显的优势。平均F3SNet RNN-SM约和FCEM约 。此外,从这三个图的纵向比较,可以得出两个结论。首先,的情况嵌入率,ACC,玻璃钢,玻璃钢波动显著,表明此时探测效率低,容易受到噪声。其次,当样本长度是固定的,嵌入率越高,越高检测精度和玻璃钢和FNR越低。例如,使用一个固定的长度 ,当嵌入率 ,F3SNet的准确性 。如果嵌入率增加 ,检测精度将会增加 。
(一)
(b)
(c)
(一)
(b)
(c)
(一)
(b)
(c)
此外,为了进一步评估F3SNet的性能,不同的算法的检测精度在不同的嵌入率( , , , , ,和 )是测试。在这里,我们选择三个样品的长度 , ,和单独的实验。这项研究的结果发表在数字11- - - - - -13。我们可以看到,随着嵌入率的增加,所有算法的检测精度提高,F3SNet具有最好的性能在所有算法。采取作为一个例子,当嵌入率 ,F3SNet可以达到的检测精度 。相比之下,其他算法 , , ,和 ,分别。此外,IDC、QCCN RNN-SM很难获得有效的检测。
(一)
(b)
(c)
(一)
(b)
(c)
(一)
(b)
(c)
7所示。结论和未来的工作
在这篇文章中,我们主要关注如何使用层次关注网络检测LPC系数的相关性的差异之前和之后的隐写术。首先,为了演示相关的存在性和复杂性,我们进行贝叶斯网络建模量化码字索引,然后计算不同节点之间的联系强度作为衡量码字的强度的相关性。然后,我们提出一个四步战略QIM基于汉隐写式密码解密,它可以自动提取反映相关的特性。
在提出的模型中,LSTM层和关注层是两个核心组件。前者认为可能依赖的码书结构因为记忆在时间序列属性,而后者进一步确定哪些向量产生更大的影响最终的分类结果,从而有效地避免信息过载。实验结果表明,即使对演讲的长度 ,F3SNet可以有效地检测QIM隐写术的嵌入率和优于FCEM约 。
必须指出F3SNet目前只能检测QIM隐写术。未来的研究建议将扩展与压缩方法来检测其他隐写术的演讲。
数据可用性
使用的数据来支持本研究的发现可以从相应的作者。
信息披露
一个早期版本的论文已经发表在arxiv预印网站https://arxiv.org/abs/2101.05105。
的利益冲突
作者宣称他们没有利益冲突有关的出版工作。