ACISC 应用计算智能和软计算 1687 - 9732 1687 - 9724 Hindawi出版公司 385757年 10.1155 / 2009/385757 385757年 研究文章 识别一个典型的装运箱使用最优集中时间滞后与γ记忆递归神经网络模型过滤器 Naikwad s . N。 1 Dudul s V。 2 中国 1 电气工程系 工程与技术学院 Babhulgaon akola - 444 104 印度 cetindia.org 2 应用电子 工程与技术学院 桑特Gadgebaba阿马拉瓦蒂大学 amravati - 444 602 印度 sgbau.ac.in 2009年 08年 12 2009年 2009年 16 07年 2009年 16 10 2009年 2009年 版权©2009 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

集中时间滞后(FTLR NN)与γ记忆递归神经网络滤波器是为了了解一个典型的装运箱的微妙复杂的动力学过程。连续搅拌釜反应器表现出复杂的非线性操作,反应是放热的。从文献回顾发现,过程控制装运箱使用神经模糊系统被许多尝试,但是装运箱优化神经网络模式识别过程还没有可用的。作为装运箱过程包括时间的输入输出映射关系,时间滞后尤其递归神经网络用于识别目的。标准的反向传播算法与动量词提出了这个模型。处理元素的各种参数如数量,数量的隐藏层,训练和测试比例,学习规则和隐层和输出层的传递函数研究的基础上,像MSE性能措施,NMSE和相关系数对测试数据集,最后影响不同的规范进行测试以及伽马内存的变化过滤器。这是证明了动态神经网络模型有一个显著的系统识别能力考虑的问题。因此FTLR与γ记忆神经网络滤波器可用于学习基础的高度非线性动力学系统,这是本文的主要贡献。 1。介绍</gydF4y2Batitle> <p>在任何生产过程中,哪里有发生化学变化,化学反应器的核心装置。在尺寸和外观,它可能似乎常常是一个最令人印象深刻的项目的设备,但其需求和性能通常是最重要的因素在整个工厂的设计。根据操作方式,反应堆被归类为分批或连续。在分批模式中,反应堆是带电的反应和产品被结束时的反应。在连续搅拌釜反应器(装运箱),故意引入一个搅拌器分散反应物彻底到反应混合物后立即进入水箱。搅拌釜反应器本质上是适合液相反应。搅拌釜反应器,由于大量的提供一个长时间的停留时间。结合等温反应器的性质,这允许运行在最佳的温度很长反应时间。因此,搅拌釜反应器曾以商业规模主要用于液相反应系统在低或中等压力。搅拌釜式反应器展品非线性操作反应是放热的。 Thus, performance prediction becomes difficult due to high degree of nonlinearity hence exact mathematical modeling is not possible. However, due to development of neural networks, it is possible to develop learning machine based on neural network model that can learn from available experimental data. Thus a system model can be constructed by estimating unknown plant parameters using neural networks (as discussed elsewhere [<xref ref-type="bibr" rid="B1"> 1</xrgydF4y2Baef>- - - - - -<xrgydF4y2Baef ref-type="bibr" rid="B8"> 8</xrgydF4y2Baef>])。</pgydF4y2Ba> <p>灵感来自人类大脑的结构和操作方式应该是,神经网络并行计算系统能够解决许多复杂问题等不同领域的模式识别、计算机视觉、机器人技术、控制和医疗诊断,只是一些(如讨论微积分(<xrgydF4y2Baef ref-type="bibr" rid="B12"> 9</xrgydF4y2Baef>])。神经网络是一种有效的工具来执行任何非线性输入输出映射。它是由Cybenko [Cybenko(讨论<xrgydF4y2Baef ref-type="bibr" rid="B9"> 10</xrgydF4y2Baef>]),第一次证明,在适当的条件下,他们能够均匀近似任何连续的非线性函数所需的精确度。正是这些基本的结果允许我们使用神经网络系统辨识的目的。采用神经网络的主要原因之一是创建一个机器,能够从经验中学习。他们有能力去学习复杂的非线性映射的观察和预测下一个结果(“讨论Dudul [<xrgydF4y2Baef ref-type="bibr" rid="B10"> 11</xrgydF4y2Baef>]”)。</pgydF4y2Ba> <p>本文进行了基于神经网络的识别和建模的一个典型的连续搅拌釜反应器使用集中等著名的神经网络时滞递归神经网络(FTLR NN)与γ记忆过滤器。最优模型估计的基础上性能措施MSE(均方误差),NMSE(归一化均方误差),<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M1"> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>(相关系数)和视觉检验回归特征的测试数据集。最后,结果表明,动态神经网络模型有一个显著的系统识别能力装运箱的过程。</pgydF4y2Ba> </sec> <sec sec-type="section" id="sec2"> <title>2。神经网络模型的估计</gydF4y2Batitle> <p>反应工程实验室的装运箱工程与技术学院Akola(马哈拉施特拉邦,印度)是用于实验。</pgydF4y2Ba> <p>它由通用汽车4000 rpm, 0.6, 220 - 230 V由雷米电机制造,孟买。输入/输出实验数据已通过严格的实验进行装运箱在实验室通过改变输入反应物从零到最大流量,和相应的输出(液体的浓度)为每个实例测试。仿真数据是383个样本。实际上这个过程是多输入单输出,输出变量浓度的液体和输入变量是搅拌速度、温度和流量。在这个实验中,随着搅拌速度和温度保持不变,其正常价值系统可以创建为单输入单输出(输出)。装运箱过程从互联网获得的另一个基准数据是由Jairo ESPINOSA ESAT-SISTA KULEUVEN, Kardinaal Mercierlaan 94 b - 3001, Heverlee,比利时。这里的过程是一个连续搅拌釜式反应器,反应放热和浓度由调节冷却液流控制。它由7500个样本。(“讨论其他地方(<xref ref-type="bibr" rid="B16"> 12</xrgydF4y2Baef>,<xrgydF4y2Baef ref-type="bibr" rid="B17"> 13</xrgydF4y2Baef>]”)。</pgydF4y2Ba> <p>作为输入输出映射过程展览时间关系,多功能FTLR NN模型尤其用于描述系统的行为。权重可调参数的系统,他们决心通过这一过程被称为训练一组示例。原型或训练数据通常被称为,是套输入和对应的期望输出。当神经网络训练,下一步是评估它。这是通过标准方法在统计独立的验证。该方法将数据划分为训练集和测试集,整个数据通常是随机的。训练数据下分裂成两个分区;第一个分区是用于更新网络的权重,第二个分区是用来评估(或交叉验证)训练的性能。然后使用测试数据来评估网络推广。的估计基于神经网络模型的学习和泛化能力评估的基础上确定绩效指标如NMSE、相关系数和回归神经网络的能力视觉检验回归特征不同的输出的系统研究(“讨论兰德和从事<xref ref-type="bibr" rid="B13"> 14</xrgydF4y2Baef>]”)。Neurosolutions(5.0版)是专门用于获取结果。</pgydF4y2Ba> <sec sec-type="subsection" id="sec2.1"> <title>2.1。性能的措施</gydF4y2Batitle> <sec sec-type="subsubsection" id="sec2.1.1"> <title>2.1.1。MSE(均方误差)</gydF4y2Batitle> <p>均方误差的公式<d我sp-formula id="EEq1"> <label>(1)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M2"> <mml:mtext> 均方误差</gydF4y2Bamml:mtext> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:msubsup> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mrow> <mml:msubsup> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mrow> <mml:msup> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:mrow> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> </mml:mfrac> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M3"> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>=数量的输出PEs(处理元素),<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M4"> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>=的原型数量数据集,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M5"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:math> </inline-formula>=网络输出范例<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M6"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>在体育<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M7"> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M8"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:math> </inline-formula>=期望输出范例<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M9"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>在体育<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M10"> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>。</pgydF4y2Ba> </sec> <sec sec-type="subsubsection" id="sec2.1.2"> <title>2.1.2。NMSE(归一化均方误差)</gydF4y2Batitle> <p>归一化均方误差被定义为以下公式:<d我sp-formula id="EEq2"> <label>(2)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M11"> <mml:mtext> NMSE</gydF4y2Bamml:mtext> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> <mml:mi> N</gydF4y2Bamml:mi> <mml:mo> </mml:mo> <mml:mtext> 均方误差</gydF4y2Bamml:mtext> </mml:mrow> <mml:mrow> <mml:msubsup> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mrow> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> <mml:msup> <mml:mrow> <mml:msubsup> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mrow> <mml:msup> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msubsup> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:msubsup> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mo> /</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> </mml:mrow> </mml:mfrac> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M12"> <mml:mrow> <mml:mi> P</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>=输出PEs的数量,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M13"> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>=的原型数量数据集,MSE =均方误差<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M14"> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> </mml:math> </inline-formula>=期望输出范例<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M15"> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>在体育<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M16"> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>。</pgydF4y2Ba> </sec> <sec sec-type="subsubsection" id="sec2.1.3"> <title>2.1.3。< inline-formula > < mml:数学xmlns: mml = " http://www.w3.org/1998/Math/MathML " id = " M17星云" > < mml: mrow > < mml: mi > r < / mml: mi > < / mml: mrow > < / mml:数学> < / inline-formula >(相关系数)</gydF4y2Batitle> <p>均方误差(MSE)的大小可以用来了解网络输出符合所需的输出,但它并不一定反映两组数据是否在同一方向移动。例如,通过扩展网络的输出,我们可以改变MSE的方向不改变的数据。相关系数(<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M18"> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>)解决了这个问题。根据定义,一个网络输出之间的相关系数<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M19"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>和所需的输出<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M20"> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>是<d我sp-formula id="EEq3"> <label>(3)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M21"> <mml:mtable class="split"> <mml:mtr> <mml:mtd columnalign="right"></mml:mtd> <mml:mtd columnalign="left"> <mml:mi> r</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:mrow> <mml:mrow> <mml:msub> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mover> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> _</gydF4y2Bamml:mo> </mml:mover> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mover> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> _</gydF4y2Bamml:mo> </mml:mover> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mo> /</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:mrow> <mml:mrow> <mml:msqrt> <mml:mrow> <mml:mrow> <mml:msub> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:msup> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mover> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> _</gydF4y2Bamml:mo> </mml:mover> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:mrow> </mml:mrow> <mml:mo> /</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:msqrt> <mml:msqrt> <mml:mrow> <mml:mrow> <mml:msub> <mml:mo> ∑</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:msup> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mover> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> _</gydF4y2Bamml:mo> </mml:mover> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mn> 2</gydF4y2Bamml:mn> </mml:mrow> </mml:msup> </mml:mrow> </mml:mrow> <mml:mo> /</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:mrow> </mml:msqrt> </mml:mrow> </mml:mfrac> <mml:mo> ,</gydF4y2Bamml:mo> </mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd columnalign="right"></mml:mtd> <mml:mtd columnalign="left"> <mml:mo> </mml:mo> <mml:mo> </mml:mo> <mml:mo> </mml:mo> <mml:mtext> 在哪里</gydF4y2Bamml:mtext> <mml:mo> </mml:mo> <mml:mo> </mml:mo> <mml:mover> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> _</gydF4y2Bamml:mo> </mml:mover> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:mfrac> <mml:munderover> <mml:mstyle displaystyle="true"> <mml:mo> ∑</gydF4y2Bamml:mo> </mml:mstyle> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:munderover> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> </mml:mo> <mml:mo> </mml:mo> <mml:mover> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> _</gydF4y2Bamml:mo> </mml:mover> <mml:mo> =</gydF4y2Bamml:mo> <mml:mfrac> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:mfrac> <mml:munderover> <mml:mstyle displaystyle="true"> <mml:mo> ∑</gydF4y2Bamml:mo> </mml:mstyle> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> N</gydF4y2Bamml:mi> </mml:mrow> </mml:munderover> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> </mml:mrow> <mml:mo> 。</gydF4y2Bamml:mo> </mml:mtd> </mml:mtr> </mml:mtable> </mml:math> </disp-formula>相关系数是局限于范围(<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M22"> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1,- 1</gydF4y2Bamml:mn> </mml:math> </inline-formula>]。当<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M23"> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>= 1,有一个完美的积极的线性相关性<我talic> x</我talic>和<我talic> d</我talic>,也就是说,他们共变,这意味着他们通过相同数量不同。当<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M24"> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>=<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M25"> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:math> </inline-formula>之间,有一个完美的线性负相关<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M26"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M27"> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>,(当它们变化相反的方法<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M28"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>的增加,<我talic> d</我talic>减少相同)。当<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M29"> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>= 0,没有相关性<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M30"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M31"> <mml:mrow> <mml:mi> d</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>,即被称为不相关的变量。中间值描述部分的相关性。例如0.88意味着健康的相关系数模型的数据是很不错的。</pgydF4y2Ba> </sec> </sec> <sec sec-type="subsection" id="sec2.2"> <title>2.2。装运箱使用FTLR NN模型的建模</gydF4y2Batitle> <p>有一个时间结构底层收集经过严格的试验数据,动态建模肯定会帮助提高性能。动态NNs拓扑设计明确地包含了时间的输入输出映射关系。时间是不可或缺的组成部分的学习过程。通过将时间生效的神经网络启用跟踪统计变化的非平稳过程。复发时间滞后网络(TLRNs)与短期记忆mlp扩展结构。在这里,一个“静态”神经网络(例如,MLP)具有动态属性(如讨论Dudul [<xrgydF4y2Baef ref-type="bibr" rid="B11"> 15</xrgydF4y2Baef>])。反过来,这使得网络无功轴承信号的时间结构信息。一个神经网络是动态的,它必须有记忆。这个内存可分为“短期”和“长期”的记忆。长期记忆是建立成一个通过监督学习神经网络,通过训练数据集的信息内容存储(部分或全部)突触权重的网络(如讨论普林西比et al。<xrgydF4y2Baef ref-type="bibr" rid="B14"> 16</xrgydF4y2Baef>])。然而,如果手头有一个时间维度,某种形式的“短期”内存需要使网络动态。</pgydF4y2Ba> <p>中长期规划的输入处理元素替换为抽头延迟线,紧随其后的是一个MLP神经网络。这种拓扑称为集中时滞神经网络(TDNN)。集中拓扑仅包括内存内核连接到输入层。这种方式,只记得过去的输入。集中的延迟线TDNN商店过去样本的输入。抽头延迟线和权重的组合连接水龙头的PEs第一隐层是简单线性组合器静态非线性紧随其后。</pgydF4y2Ba> <p>通常,γ短期记忆机制结合非线性PEs在限制拓扑叫做专注。基本上,第一层集中TDNN的过滤层,尽可能多的自适应滤波器PEs在第一隐层。线性组合器的输出通过一个非线性的隐层(PE),然后进一步处理的后续层延时的系统识别,目标是找到最匹配的重量,产生一个网络输出当前系统的输出相结合的信息现在和一个预定义的过去的样本数目(由抽头延迟线的大小)。</pgydF4y2Ba> <p>记忆层的大小取决于所需的过去的样本数目来描述输入特征。这个数字取决于输入的特点和任务。这集中TDNN仍然可以与静态反向传播训练,提供所需的信号在每个时间步是可用的。这是因为抽头延迟线在输入层没有任何自由参数,所以唯一的自适应参数静态前馈路径。</pgydF4y2Ba> <p>许多输入内存PE接收一般<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M32"> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> 我</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>,并产生多个输出<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M33"> <mml:mi mathvariant="bold"> y</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:msup> <mml:mrow> <mml:mrow> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> …</gydF4y2Bamml:mo> <mml:mo> ,</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> D</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo stretchy="false"> ]</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mi> T</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> </mml:math> </inline-formula>延迟的版本<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M34"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>合并后的输入,<d我sp-formula id="EEq4"> <label>(4)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M35"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> g</gydF4y2Bamml:mi> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> </mml:mo> <mml:mo> </mml:mo> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:munderover> <mml:mstyle displaystyle="true"> <mml:mo> ∑</gydF4y2Bamml:mo> </mml:mstyle> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> </mml:munderover> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> j</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M36"> <mml:mi> g</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mo> ·</gydF4y2Bamml:mo> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>是一个延迟函数。</pgydF4y2Ba> <p>这些短期记忆结构可以通过线性自适应滤波器理论研究<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M37"> <mml:mi> g</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mo> ·</gydF4y2Bamml:mo> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>是一个线性算子。重要的是要强调记忆体育是一种短期记忆机制,明确网络权重的区别,这代表网络的长期记忆。</pgydF4y2Ba> <p>基本上有两种类型的内存机制:内存延迟和记忆反馈。我们试图找到最一般线性延迟算子(自动后退移动平均模型的特例)记忆的痕迹<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M38"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>从以前的记忆痕迹会递归地计算吗<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M39"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>。这个内存PE是广义前馈记忆PE。它可以表明,广义的定义关系前馈内存PE(讨论普林西比et al。<xrgydF4y2Baef ref-type="bibr" rid="B14"> 16</xrgydF4y2Baef>])</pgydF4y2Ba> <p> <disp-formula id="EEq5"> <label>(5)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M40"> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> g</gydF4y2Bamml:mi> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mi> *</gydF4y2Bamml:mi> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> </mml:mo> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> ≥</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M41"> <mml:mrow> <mml:mi> *</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>卷积运算,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M42"> <mml:mi> g</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>是一个因果时间函数,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M43"> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>是利用索引。由于这是一个递归方程,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M44"> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>应该单独分配一个值。这种关系意味着下一个记忆痕迹是由先前的记忆痕迹卷积具有相同的功能<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M45"> <mml:mi> </mml:mi> <mml:mi> g</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>,内存内核还没有明确。不同的选择<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M46"> <mml:mi> g</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>提供不同的选择轴的投影空间。当我们应用的输入<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M47"> <mml:mi> x</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>广义前馈内存PE、水龙头的信号<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M48"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>成为</pgydF4y2Ba> <p> <disp-formula id="EEq6"> <label>(6)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M49"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> g</gydF4y2Bamml:mi> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mi> *</gydF4y2Bamml:mi> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> </mml:mo> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> ≥</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>的卷积<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M50"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:mrow> </mml:math> </inline-formula>与内存的内核。为<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M51"> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:math> </inline-formula>,我们有</pgydF4y2Ba> <p> <disp-formula id="EEq7"> <label>(7)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M52"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mi> *</gydF4y2Bamml:mi> <mml:mi> x</gydF4y2Bamml:mi> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>在哪里<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M53"> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>可以单独指定。投影<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M54"> <mml:mover accent="true"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ̂</gydF4y2Bamml:mo> </mml:mover> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>获得输入信号的线性加权根据水龙头信号<d我sp-formula id="EEq8"> <label>(8)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M55"> <mml:mover accent="true"> <mml:mrow> <mml:mi> x</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> ̂</gydF4y2Bamml:mo> </mml:mover> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:munderover> <mml:mstyle displaystyle="true"> <mml:mo> ∑</gydF4y2Bamml:mo> </mml:mstyle> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo> =</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> <mml:mrow> <mml:mi> D</gydF4y2Bamml:mi> </mml:mrow> </mml:munderover> <mml:mrow> <mml:msub> <mml:mrow> <mml:mi> w</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mo> 。</gydF4y2Bamml:mo> </mml:math> </disp-formula>最明显的选择的基础是使用过去的输入信号样本<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M56"> <mml:mi> x</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>直接的<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M57"> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>th利用信号变得<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M58"> <mml:msub> <mml:mrow> <mml:mi> y</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> k</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> x</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mi> k</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>。这个选择对应</pgydF4y2Ba> <p> <disp-formula id="EEq9"> <label>(9)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M59"> <mml:mi> g</gydF4y2Bamml:mi> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> δ</gydF4y2Bamml:mi> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> 。</gydF4y2Bamml:mo> </mml:math> </disp-formula>在这种情况下,<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M60"> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>也是一个δ函数<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M61"> <mml:mi> δ</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>(δ函数操作符用于抽头延迟线)。记忆深度受到严格控制<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M62"> <mml:mrow> <mml:mi> D</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>,即内存存储过去的痕迹<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M63"> <mml:mrow> <mml:mi> D</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>样本的输入。时间延迟神经网络使用这个选择的基础。</pgydF4y2Ba> <p>γ记忆PE变弱信号在每个水龙头,因为它是一连串的漏水的集成商具有相同的时间常数。γ记忆体育是一种特殊情况下的广义前馈记忆PE<d我sp-formula id="EEq10"> <label>(10)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M64"> <mml:mi> g</gydF4y2Bamml:mi> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> μ</gydF4y2Bamml:mi> <mml:msup> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mi> μ</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> </mml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> ≥</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M65"> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mn> 0</gydF4y2Bamml:mn> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:mi> δ</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>。γ内存基本上是一个级联低通滤波器的时间常数相同<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M66"> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mi> μ</gydF4y2Bamml:mi> </mml:math> </inline-formula>。整体的脉冲响应伽马内存</pgydF4y2Ba> <p> <disp-formula id="EEq11"> <label>(11)</gydF4y2Balabel> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M67"> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> =</gydF4y2Bamml:mo> <mml:mrow> <mml:mo symmetric="false" class="pmatrix"> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mtable class="pmatrix"> <mml:mtr> <mml:mtd> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd> <mml:mi> p</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> </mml:mtd> </mml:mtr> </mml:mtable> </mml:mrow> <mml:mo symmetric="false" class="pmatrix"> )</gydF4y2Bamml:mo> </mml:mrow> <mml:msup> <mml:mrow> <mml:mi> μ</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> <mml:msup> <mml:mrow> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mi> μ</gydF4y2Bamml:mi> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> </mml:msup> <mml:mo> ,</gydF4y2Bamml:mo> <mml:mo> </mml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> ≥</gydF4y2Bamml:mo> <mml:mi> p</gydF4y2Bamml:mi> <mml:mo> ,</gydF4y2Bamml:mo> </mml:math> </disp-formula>(:)是二项式系数定义的<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M68"> <mml:mrow> <mml:mo> (</gydF4y2Bamml:mo> <mml:mrow> <mml:mtable class="smallmatrix"> <mml:mtr> <mml:mtd> <mml:mi> n</gydF4y2Bamml:mi> </mml:mtd> </mml:mtr> <mml:mtr> <mml:mtd> <mml:mi> p</gydF4y2Bamml:mi> </mml:mtd> </mml:mtr> </mml:mtable> </mml:mrow> <mml:mo> )</gydF4y2Bamml:mo> </mml:mrow> </mml:math> </inline-formula>=<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M69"> <mml:mrow> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> <mml:mo> ⋯</gydF4y2Bamml:mo> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo> - - - - - -</gydF4y2Bamml:mo> <mml:mi> p</gydF4y2Bamml:mi> <mml:mo> +</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:mrow> <mml:mo> /</gydF4y2Bamml:mo> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> <mml:mo> !</gydF4y2Bamml:mo> </mml:mrow> </mml:mrow> </mml:math> </inline-formula>的整数值<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M70"> <mml:mrow> <mml:mi> n</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>和<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M71"> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula>,整个脉冲响应<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M72"> <mml:msub> <mml:mrow> <mml:mi> g</gydF4y2Bamml:mi> </mml:mrow> <mml:mrow> <mml:mi> p</gydF4y2Bamml:mi> </mml:mrow> </mml:msub> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> n</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>为不同的<我talic> p</我talic>代表一个离散的版本的中国和讨论的γ函数(德弗里斯和普林西比<xrgydF4y2Baef ref-type="bibr" rid="B15"> 17</xrgydF4y2Baef>),因此记忆的名称。</pgydF4y2Ba> <p>γ内存PE有多个杆,可以自适应地沿着真正的z域中轴,即γ内存只能实现低通滤波器<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M73"> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mn> 0</gydF4y2Bamml:mn> <mml:mo> <</gydF4y2Bamml:mo> <mml:mi> μ</gydF4y2Bamml:mi> <mml:mo> <</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>或者高通滤波<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M74"> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> <</gydF4y2Bamml:mo> <mml:mi> μ</gydF4y2Bamml:mi> <mml:mo> <</gydF4y2Bamml:mo> <mml:mn> 2</gydF4y2Bamml:mn> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>转移函数。高通滤波传递函数创建了一个额外的能力模型快速交变信号的样本的迹象伽马PE(脉冲响应<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M75"> <mml:mn> 1</gydF4y2Bamml:mn> <mml:mo> <</gydF4y2Bamml:mo> <mml:mi> μ</gydF4y2Bamml:mi> <mml:mo> <</gydF4y2Bamml:mo> <mml:mn> 2</gydF4y2Bamml:mn> </mml:math> </inline-formula>交流信号)。样品的深度参数<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M76"> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> D</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>用于计算敲击的次数<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M77"> <mml:mo stretchy="false"> (</gydF4y2Bamml:mo> <mml:mi> T</gydF4y2Bamml:mi> <mml:mo stretchy="false"> )</gydF4y2Bamml:mo> </mml:math> </inline-formula>内存结构中包含的网络。</pgydF4y2Ba> </sec> <sec sec-type="subsection" id="sec2.3"> <title>2.3。装运箱使用复发性神经网络模型的建模</gydF4y2Batitle> <p>完全复发性网络反馈隐藏层本身。部分周期性网络开始完全复发净和添加一个前馈连接,绕过了可能出现,有效治疗复发性作为一个国家一部分内存。这些周期性网络可以有无限的记忆深度,从而找到关系通过时间以及瞬时输入空间。最真实的数据包含在它的时间结构信息。复发性网络艺术的状态非线性时间序列预测、系统识别、分类和时间模式。</pgydF4y2Ba> <p>有四个输入层结构可供选择。如果您的数据是多维的,你应该先尝试一个简单的轴突。如果您的数据是一维时间序列,然后使用一个内存轴突。周期性结构有两种可供选择。完全周期性结构连接第一隐层本身通过周期性的突触连接。部分周期性结构增加了一个前馈连接,通过一个突触,从输入轴突层后1日隐藏层。在这种情况下,周期性结构作为前馈结构状态。</pgydF4y2Ba> </sec> </sec> <sec sec-type="section" id="sec3"> <title>3所示。复发性神经网络模型的模拟</gydF4y2Batitle> <p>一个详尽的和认真的进行了试验研究,以确定最优的配置不同的神经网络模型。所有可能的变化正试图决定隐藏层数和每个隐层神经元的数量的基础上性能的措施。训练和测试的范例的百分比然后变化得到最佳training-testing范本为每个神经网络模型。监督学习规则,不同的传输函数和不同的传输函数在输出层进行模拟。最后的影响不同的规范进行测试来决定最优的神经网络模型。细致的检查后的性能措施MSE, NMSE,相关系数,和回归神经网络模型对测试数据集的能力,决定模型的最优参数列在表中<xrgydF4y2Baef ref-type="table" rid="tab1"> 1</xrgydF4y2Baef>,<xrgydF4y2Baef ref-type="table" rid="tab2"> 2</xrgydF4y2Baef>,<xrgydF4y2Baef ref-type="table" rid="tab3"> 3</xrgydF4y2Baef>,<xrgydF4y2Baef ref-type="table" rid="tab4"> 4</xrgydF4y2Baef>。</pgydF4y2Ba> <table-wrap id="tab1"> <label>表1</gydF4y2Balabel> <p>参数FTLR NN (Lab.数据)。原型:训练= 268,测试= 115,马克斯epoh = 1000,专注,γ,规范<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M79"> <mml:mrow> <mml:mo> →</gydF4y2Bamml:mo> </mml:mrow> </mml:math> </inline-formula>L-infinity。</pgydF4y2Ba> <table> <thead> <tr> <th align="left">老不。</gydF4y2Bath> <th align="center">参数</gydF4y2Bath> <th align="center">隐层# 1</gydF4y2Bath> <th align="center">输出层</gydF4y2Bath> </tr> </thead> <tbody> <tr> <td align="left">1</gydF4y2Batd> <td align="center">处理元素</gydF4y2Batd> <td align="center">42</gydF4y2Batd> <td align="center">1</gydF4y2Batd> </tr> <tr> <td align="left">2</gydF4y2Batd> <td align="center">传递函数</gydF4y2Batd> <td align="center">谭h</gydF4y2Batd> <td align="center">谭h</gydF4y2Batd> </tr> <tr> <td align="left">3</gydF4y2Batd> <td align="center">学习规则</gydF4y2Batd> <td align="center">动力</gydF4y2Batd> <td align="center">动力</gydF4y2Batd> </tr> <tr> <td align="left">4</gydF4y2Batd> <td align="center">步长</gydF4y2Batd> <td align="center">0.1</gydF4y2Batd> <td align="center">0.1</gydF4y2Batd> </tr> <tr> <td align="left">5</gydF4y2Batd> <td align="center">动力</gydF4y2Batd> <td align="center">0.7</gydF4y2Batd> <td align="center">0.7</gydF4y2Batd> </tr> </tbody> </table> </table-wrap> <table-wrap id="tab2"> <label>表2</gydF4y2Balabel> <p>参数完全复发性神经网络(Lab.数据)。原型:训练= 306,测试= 77,马克斯epoh = 1000, memory-axon、规范<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M80"> <mml:mrow> <mml:mo> →</gydF4y2Bamml:mo> </mml:mrow> </mml:math> </inline-formula>L1。</pgydF4y2Ba> <table> <thead> <tr> <th align="left">老不。</gydF4y2Bath> <th align="center">参数</gydF4y2Bath> <th align="center">隐层# 1</gydF4y2Bath> <th align="center">输出层</gydF4y2Bath> </tr> </thead> <tbody> <tr> <td align="left">1</gydF4y2Batd> <td align="center">处理元素</gydF4y2Batd> <td align="center">18</gydF4y2Batd> <td align="center">1</gydF4y2Batd> </tr> <tr> <td align="left">2</gydF4y2Batd> <td align="center">传递函数</gydF4y2Batd> <td align="center">谭h</gydF4y2Batd> <td align="center">谭h</gydF4y2Batd> </tr> <tr> <td align="left">3</gydF4y2Batd> <td align="center">学习规则</gydF4y2Batd> <td align="center">动力</gydF4y2Batd> <td align="center">动力</gydF4y2Batd> </tr> <tr> <td align="left">4</gydF4y2Batd> <td align="center">步长</gydF4y2Batd> <td align="center">0.1</gydF4y2Batd> <td align="center">0.1</gydF4y2Batd> </tr> <tr> <td align="left">5</gydF4y2Batd> <td align="center">动力</gydF4y2Batd> <td align="center">0.7</gydF4y2Batd> <td align="center">0.7</gydF4y2Batd> </tr> </tbody> </table> </table-wrap> <table-wrap id="tab3"> <label>表3</gydF4y2Balabel> <p>参数FTLR NN(基准数据)。原型:训练= 3000,测试= 4500,马克斯epoh = 1000,部分复发,γ,规范<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M81"> <mml:mrow> <mml:mo> →</gydF4y2Bamml:mo> </mml:mrow> </mml:math> </inline-formula>L-infinity。</pgydF4y2Ba> <table> <thead> <tr> <th align="left">老不。</gydF4y2Bath> <th align="center">参数</gydF4y2Bath> <th align="center">隐层# 1</gydF4y2Bath> <th align="center">输出层</gydF4y2Bath> </tr> </thead> <tbody> <tr> <td align="left">1</gydF4y2Batd> <td align="center">处理元素</gydF4y2Batd> <td align="center">39</gydF4y2Batd> <td align="center">1</gydF4y2Batd> </tr> <tr> <td align="left">2</gydF4y2Batd> <td align="center">传递函数</gydF4y2Batd> <td align="center">谭h</gydF4y2Batd> <td align="center">乙状结肠</gydF4y2Batd> </tr> <tr> <td align="left">3</gydF4y2Batd> <td align="center">学习规则</gydF4y2Batd> <td align="center">dbd</gydF4y2Batd> <td align="center">dbd</gydF4y2Batd> </tr> </tbody> </table> </table-wrap> <table-wrap id="tab4"> <label>表4</gydF4y2Balabel> <p>参数完全复发性神经网络(基准数据)。原型:训练= 3000,测试= 4500,马克斯epoh = 1000,部分复发,γ,规范<我nline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M82"> <mml:mrow> <mml:mo> →</gydF4y2Bamml:mo> </mml:mrow> </mml:math> </inline-formula>L-infinity。</pgydF4y2Ba> <table> <thead> <tr> <th align="left">老不。</gydF4y2Bath> <th align="center">参数</gydF4y2Bath> <th align="center">隐藏的图层1</gydF4y2Bath> <th align="center">隐藏层2</gydF4y2Bath> <th align="left">输出层</gydF4y2Bath> </tr> </thead> <tbody> <tr> <td align="left">1</gydF4y2Batd> <td align="center">神经元</gydF4y2Batd> <td align="center">16</gydF4y2Batd> <td align="center">27</gydF4y2Batd> <td align="left">1</gydF4y2Batd> </tr> <tr> <td align="left">2</gydF4y2Batd> <td align="center">传递函数</gydF4y2Batd> <td align="center">谭h</gydF4y2Batd> <td align="center">谭h</gydF4y2Batd> <td align="left">线性tan h</gydF4y2Batd> </tr> <tr> <td align="left">3</gydF4y2Batd> <td align="center">学习规则</gydF4y2Batd> <td align="center">dbd</gydF4y2Batd> <td align="center">dbd</gydF4y2Batd> <td align="left">dbd</gydF4y2Batd> </tr> </tbody> </table> </table-wrap> <p>严格的实验研究已经进行为了确定射线参数的最优值。每一个变化,网络运行与不同的随机weight-initialization三次。在计算机模拟中,γ参数渐变从0.0到1.8的区间为0.1,同时保持其他参数FTLRNN名义上的默认值。画在γ参数变化的结果数据<xrgydF4y2Baef ref-type="fig" rid="fig2"> 2</xrgydF4y2Baef>和<xrgydF4y2Baef ref-type="fig" rid="fig3"> 3</xrgydF4y2Baef>。他们仔细检查显示,与最初的增加伽马,MSE和NMSE测试数据集开始减少。与此同时,相关系数显示收效甚微。这个热情的趋势继续下去,直到达到γ的阈值,超过这个MSE和NMSE开始增加相关系数下降。从近距离观察数据<xrgydF4y2Baef ref-type="fig" rid="fig2"> 2</xrgydF4y2Baef>和<xrgydF4y2Baef ref-type="fig" rid="fig3"> 3</xrgydF4y2Baef>注意到,阈值为1.1和0.5,分别FTLR最佳的识别性能的神经网络模型与γ记忆。</pgydF4y2Ba> <fig id="fig1"> <label>图1</gydF4y2Balabel> <p>连续搅拌釜反应器。</pgydF4y2Ba> <graphic xlink:href="//www.newsama.com/downloads/journals/acisc/2009/385757.fig.001"></graphic> </fig> <fig id="fig2"> <label>图2</gydF4y2Balabel> <p>选择γ(装运箱lab.数据)。</pgydF4y2Ba> <graphic xlink:href="//www.newsama.com/downloads/journals/acisc/2009/385757.fig.002"></graphic> </fig> <fig id="fig3"> <label>图3</gydF4y2Balabel> <p>选择伽马(装运箱基准数据)。</pgydF4y2Ba> <graphic xlink:href="//www.newsama.com/downloads/journals/acisc/2009/385757.fig.003"></graphic> </fig> <p>数据<xrgydF4y2Baef ref-type="fig" rid="fig4"> 4</xrgydF4y2Baef>和<xrgydF4y2Baef ref-type="fig" rid="fig6"> 6</xrgydF4y2Baef>演示FTLR NN模型的回归能力测试数据集与γ记忆在1.1和0.5,分别。这里期望输出与实际输出与γ记忆产生的神经网络模型,从目视检查,注意到这个模型(γ内存)优雅学习丰富的非线性动力学系统。的比较数据<xrgydF4y2Baef ref-type="fig" rid="fig4"> 4</xrgydF4y2Baef>和<xrgydF4y2Baef ref-type="fig" rid="fig5"> 5</xrgydF4y2Baef>(装运箱lab.数据)和数字<xrgydF4y2Baef ref-type="fig" rid="fig6"> 6</xrgydF4y2Baef>和<xrgydF4y2Baef ref-type="fig" rid="fig7"> 7</xrgydF4y2Baef>(装运箱基准数据)表明,回归能力FTLR NN模型远比完全复发性神经网络模型。这一事实也证实了神经网络模型的比较对他们的表现措施表<xrgydF4y2Baef ref-type="table" rid="tab5"> 5</xrgydF4y2Baef>。</pgydF4y2Ba> <table-wrap id="tab5"> <label>表5</gydF4y2Balabel> <p>神经网络模型的比较。</pgydF4y2Ba> <table> <tbody> <tr> <td align="left" rowspan="3">神经网络模型</gydF4y2Batd> <td align="center" colspan="6">性能措施测试数据集</gydF4y2Batd> </tr> <tr> <td align="center" colspan="3">装运箱的实验室数据</gydF4y2Batd> <td align="center" colspan="3">基准装运箱数据</gydF4y2Batd> </tr> <tr> <td align="center">均方误差</gydF4y2Batd> <td align="center">NMSE</gydF4y2Batd> <td align="center"> <inline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M83"> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula></td> <td align="center">均方误差</gydF4y2Batd> <td align="center">NMSE</gydF4y2Batd> <td align="center"> <inline-formula> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M84"> <mml:mrow> <mml:mi> r</gydF4y2Bamml:mi> </mml:mrow> </mml:math> </inline-formula></td> </tr> <tr> <td align="center" colspan="7"> <hr></td> </tr> <tr> <td align="left">FTLR与γ记忆神经网络</gydF4y2Batd> <td align="center">1.13 e−05</gydF4y2Batd> <td align="center">0.470</gydF4y2Batd> <td align="center">0.9132</gydF4y2Batd> <td align="center">1.40 e−06</gydF4y2Batd> <td align="center">0.00777</gydF4y2Batd> <td align="center">0.9961</gydF4y2Batd> </tr> <tr> <td align="left">完全复发性神经网络</gydF4y2Batd> <td align="center">8.01 e−06</gydF4y2Batd> <td align="center">0.754</gydF4y2Batd> <td align="center">0.702</gydF4y2Batd> <td align="center">4.15 e−06</gydF4y2Batd> <td align="center">0.0230</gydF4y2Batd> <td align="center">0.988</gydF4y2Batd> </tr> </tbody> </table> </table-wrap> <fig id="fig4"> <label>图4</gydF4y2Balabel> <p>期望输出与网络输出测试数据集(FTLR NN model-Lab。数据)。</pgydF4y2Ba> <graphic xlink:href="//www.newsama.com/downloads/journals/acisc/2009/385757.fig.004"></graphic> </fig> <fig id="fig5"> <label>图5</gydF4y2Balabel> <p>期望输出与网络输出测试数据集(完全复发NN model-Lab。数据)。</pgydF4y2Ba> <graphic xlink:href="//www.newsama.com/downloads/journals/acisc/2009/385757.fig.005"></graphic> </fig> <fig id="fig6"> <label>图6</gydF4y2Balabel> <p>期望输出与网络输出测试数据集(FTLR NN模型基准数据)。</pgydF4y2Ba> <graphic xlink:href="//www.newsama.com/downloads/journals/acisc/2009/385757.fig.006"></graphic> </fig> <fig id="fig7"> <label>图7</gydF4y2Balabel> <p>期望输出与网络输出测试数据集(完全复发性神经网络模型基准数据)。</pgydF4y2Ba> <graphic xlink:href="//www.newsama.com/downloads/journals/acisc/2009/385757.fig.007"></graphic> </fig> </sec> <sec sec-type="section" id="sec4"> <title>4所示。结论</gydF4y2Batitle> <p>看到FTLR NN模型能够学习两个装运箱的非线性动力学过程。在这篇文章中,它是证明FTLR NN模型与γ内存过滤器非常密切跟踪期望输出值装运箱过程的测试实例。从显示的结果,发现FTLR NN模型与γ记忆过滤为实验室数据为1.1和0.5为净数据有优势完全复发时神经网络模型的性能措施和目视检查回归特征考虑在内。因此得出结论,使用神经网络识别装运箱过程,FTLR NN模型与γ记忆过滤器可以用来学习基础的高度非线性动力学系统,是本文的主要贡献。</pgydF4y2Ba> </sec> <back> <ref-list> <ref id="B1" content-type="inproceedings"> <label>1</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 通用电气</gydF4y2Basurname> <given-names> 美国年代。</g我ven-names> </name> <name> <surname> 张</gydF4y2Basurname> <given-names> J。</g我ven-names> </name> <name> <surname> 李</gydF4y2Basurname> <given-names> t·H。</g我ven-names> </name> </person-group> <article-title> 多神经网络直接控制连续搅拌釜校长基于输入输出模型</gydF4y2Baarticle-title> <volume> 5</gydF4y2Bavolume> <conf-name> 美国第41马夫年会(马夫' 02)</gydF4y2Baconf-name> <conf-date> 2002年</gydF4y2Baconf-date> <fpage> 2770年</gydF4y2Bafpage> <lpage> 2775年</gydF4y2Balpage> </nlm-citation> </ref> <ref id="B2" content-type="inproceedings"> <label>2</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 丹尼尔</gydF4y2Basurname> <given-names> o . C。</g我ven-names> </name> <name> <surname> 老</gydF4y2Basurname> <given-names> m . H。</g我ven-names> </name> </person-group> <article-title> 一个化学反应器基准使用前馈神经网络并行自适应控制</gydF4y2Baarticle-title> <conf-name> 学报第六巴西利亚神经网络研讨会</gydF4y2Baconf-name> <conf-date> 2000年</gydF4y2Baconf-date> <conf-loc> 莫属,巴西</gydF4y2Baconf-loc> </nlm-citation> </ref> <ref id="B3" content-type="inproceedings"> <label>3</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 林</gydF4y2Basurname> <given-names> S.-R。</g我ven-names> </name> <name> <surname> 余</gydF4y2Basurname> <given-names> js。</g我ven-names> </name> </person-group> <article-title> 基于神经模糊系统的鲁棒控制连续搅拌釜反应器</gydF4y2Baarticle-title> <volume> 3</gydF4y2Bavolume> <conf-name> 国际会议在机器学习和控制论学报》上</gydF4y2Baconf-name> <conf-date> 2002年</gydF4y2Baconf-date> <fpage> 1483年</gydF4y2Bafpage> <lpage> 1488年</gydF4y2Balpage> </nlm-citation> </ref> <ref id="B4" content-type="inproceedings"> <label>4</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 田</gydF4y2Basurname> <given-names> Y。</g我ven-names> </name> <name> <surname> 张</gydF4y2Basurname> <given-names> J。</g我ven-names> </name> <name> <surname> 莫里斯</gydF4y2Basurname> <given-names> a·J。</g我ven-names> </name> </person-group> <article-title> 基于神经网络的最优控制美联储的批量反应堆</gydF4y2Baarticle-title> <volume> 1</gydF4y2Bavolume> <conf-name> 学报第六届欧洲国会智能技术与软计算(EUFIT 98)</gydF4y2Baconf-name> <conf-date> 1998年</gydF4y2Baconf-date> <fpage> 308年</gydF4y2Bafpage> <lpage> 312年</gydF4y2Balpage> </nlm-citation> </ref> <ref id="B5" content-type="article"> <label>5</gydF4y2Balabel> <nlm-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Jyothi</gydF4y2Basurname> <given-names> s . N。</g我ven-names> </name> <name> <surname> 奇丹巴拉姆</gydF4y2Basurname> <given-names> M。</g我ven-names> </name> </person-group> <article-title> 识别Hammorstein反应堆模型与输入多样性</gydF4y2Baarticle-title> <source> <italic> 印度化学工程师</我talic> <year> 2003年</ygydF4y2Baear> <volume> 45</gydF4y2Bavolume> <fpage> 33</gydF4y2Bafpage> </nlm-citation> </ref> <ref id="B6" content-type="inproceedings"> <label>6</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 巴鲁克</gydF4y2Basurname> <given-names> i S。</g我ven-names> </name> <aff> <email> banicli@ctrl.cinvestav.mx</gydF4y2Baemail> </aff> <name> <surname> Georgieva</gydF4y2Basurname> <given-names> P。</g我ven-names> </name> <aff> <email> petia@det.ua.pt</gydF4y2Baemail> </aff> <name> <surname> Hernandes</gydF4y2Basurname> <given-names> 洛杉矶P。</g我ven-names> </name> <aff> <email> Luishp11@aol.com</gydF4y2Baemail> </aff> <name> <surname> Nenkova</gydF4y2Basurname> <given-names> B。</g我ven-names> </name> <aff> <email> nenkova@riskeng.bg</gydF4y2Baemail> </aff> </person-group> <article-title> 一种自适应积分+州神经控制的有氧连续搅拌釜反应器</gydF4y2Baarticle-title> <volume> 1</gydF4y2Bavolume> <conf-name> 诉讼IEEE国际会议上的智能系统</gydF4y2Baconf-name> <conf-date> 2004年</gydF4y2Baconf-date> <fpage> 337年</gydF4y2Bafpage> <lpage> 343年</gydF4y2Balpage> <pub-id pub-id-type="other"> 2 - s2.0 - 0035708836</pgydF4y2Baub-id> </nlm-citation> </ref> <ref id="B7" content-type="inproceedings"> <label>7</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> 刘</gydF4y2Basurname> <given-names> F。</g我ven-names> </name> <name> <surname> 陈</gydF4y2Basurname> <given-names> J。</g我ven-names> </name> </person-group> <article-title> 为装运箱约束模糊控制器的设计</gydF4y2Baarticle-title> <conf-name> 《IEEE国际会议系统,人与控制论</gydF4y2Baconf-name> <conf-date> 2004年</gydF4y2Baconf-date> <fpage> 2249年</gydF4y2Bafpage> <lpage> 2253年</gydF4y2Balpage> </nlm-citation> </ref> <ref id="B8" content-type="inproceedings"> <label>8</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Khodabandeh</gydF4y2Basurname> <given-names> M。</g我ven-names> </name> <name> <surname> Bolandi</gydF4y2Basurname> <given-names> H。</g我ven-names> </name> </person-group> <article-title> 模型预测控制与状态估计为一个连续搅拌釜反应器和适应机制</gydF4y2Baarticle-title> <conf-name> 学报》国际会议控制、自动化和系统</gydF4y2Baconf-name> <conf-date> 2007年</gydF4y2Baconf-date> <fpage> 1466年</gydF4y2Bafpage> <lpage> 1471年</gydF4y2Balpage> </nlm-citation> </ref> <ref id="B12" content-type="book"> <label>9</gydF4y2Balabel> <nlm-citation publication-type="book"> <person-group person-group-type="author"> <name> <surname> 微积分</gydF4y2Basurname> <given-names> 年代。</g我ven-names> </name> </person-group> <source> <italic> 神经网络:一个全面的基础</我talic> <year> 2003年</ygydF4y2Baear> <edition> 2日</gydF4y2Baedition> <publisher-loc> 新德里,印度</pgydF4y2Baublisher-loc> <publisher-name> 培生教育</pgydF4y2Baublisher-name> </nlm-citation> </ref> <ref id="B9" content-type="article"> <label>10</gydF4y2Balabel> <nlm-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Cybenko</gydF4y2Basurname> <given-names> G。</g我ven-names> </name> </person-group> <article-title> 近似s型函数的叠加</gydF4y2Baarticle-title> <source> <italic> 数学的控制、信号和系统</我talic> <year> 1989年</ygydF4y2Baear> <volume> 2</gydF4y2Bavolume> <issue> 4</我ssue> <fpage> 303年</gydF4y2Bafpage> <lpage> 314年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1007 / BF02551274</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 0024861871</pgydF4y2Baub-id> </nlm-citation> </ref> <ref id="B10" content-type="article"> <label>11</gydF4y2Balabel> <nlm-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Dudul</gydF4y2Basurname> <given-names> s V。</g我ven-names> </name> </person-group> <article-title> 洛伦兹混沌吸引子的预测使用两层感知器神经网络</gydF4y2Baarticle-title> <source> <italic> 应用软计算杂志</我talic> <year> 2005年</ygydF4y2Baear> <volume> 5</gydF4y2Bavolume> <issue> 4</我ssue> <fpage> 333年</gydF4y2Bafpage> <lpage> 355年</gydF4y2Balpage> <pub-id pub-id-type="doi"> 10.1016 / j.asoc.2004.07.005</pgydF4y2Baub-id> <pub-id pub-id-type="other"> 2 - s2.0 - 18844448174</pgydF4y2Baub-id> </nlm-citation> </ref> <ref id="B16" content-type="inproceedings"> <label>12</gydF4y2Balabel> <nlm-citation publication-type="confproc"> <person-group person-group-type="author"> <name> <surname> Morningred</gydF4y2Basurname> <given-names> j . D。</g我ven-names> </name> <name> <surname> 派登</gydF4y2Basurname> <given-names> b E。</g我ven-names> </name> <name> <surname> Seborg</gydF4y2Basurname> <given-names> d E。</g我ven-names> </name> <name> <surname> Mellichamp</gydF4y2Basurname> <given-names> d . A。</g我ven-names> </name> </person-group> <article-title> 一种自适应非线性预测控制器</gydF4y2Baarticle-title> <volume> 2</gydF4y2Bavolume> <conf-name> 诉讼的美国控制(ACC会议上的90)</gydF4y2Baconf-name> <conf-date> 1990年</gydF4y2Baconf-date> <fpage> 1614年</gydF4y2Bafpage> <lpage> 1619年</gydF4y2Balpage> </nlm-citation> </ref> <ref id="B17" content-type="article"> <label>13</gydF4y2Balabel> <nlm-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Lightbody</gydF4y2Basurname> <given-names> G。</g我ven-names> </name> <name> <surname> 欧文</gydF4y2Basurname> <given-names> g·W。</g我ven-names> </name> </person-group> <article-title> 基于嵌入式神经系统模型的非线性控制结构</gydF4y2Baarticle-title> <source> <italic> IEEE神经网络</我talic> <year> 1997年</ygydF4y2Baear> <volume> 8</gydF4y2Bavolume> <issue> 3</我ssue> <fpage> 553年</gydF4y2Bafpage> <lpage> 567年</gydF4y2Balpage> <pub-id pub-id-type="other"> 2 - s2.0 - 0026849116</pgydF4y2Baub-id> </nlm-citation> </ref> <ref id="B13" content-type="article"> <label>14</gydF4y2Balabel> <nlm-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 纳兰德拉</gydF4y2Basurname> <given-names> k . S。</g我ven-names> </name> <name> <surname> 从事</gydF4y2Basurname> <given-names> K。</g我ven-names> </name> </person-group> <article-title> 使用神经网络识别和控制的动态系统</gydF4y2Baarticle-title> <source> <italic> IEEE神经网络</我talic> <year> 1992年</ygydF4y2Baear> <volume> 1</gydF4y2Bavolume> <issue> 1</我ssue> <fpage> 4</gydF4y2Bafpage> <lpage> 27</gydF4y2Balpage> </nlm-citation> </ref> <ref id="B11" content-type="article"> <label>15</gydF4y2Balabel> <nlm-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> Dudul</gydF4y2Basurname> <given-names> s V。</g我ven-names> </name> <aff> <email> dudulsv@rediffmail.com</gydF4y2Baemail> </aff> </person-group> <article-title> 识别液体饱和蒸汽换热器使用集中时间滞后复发性神经网络模型</gydF4y2Baarticle-title> <source> <italic> IETE杂志》上的研究</我talic> <year> 2007年</ygydF4y2Baear> <volume> 53</gydF4y2Bavolume> <issue> 1</我ssue> <fpage> 69年</gydF4y2Bafpage> <lpage> 82年</gydF4y2Balpage> <pub-id pub-id-type="other"> 2 - s2.0 - 0026895542</pgydF4y2Baub-id> </nlm-citation> </ref> <ref id="B14" content-type="book"> <label>16</gydF4y2Balabel> <nlm-citation publication-type="book"> <person-group person-group-type="author"> <name> <surname> 普林西比岛</gydF4y2Basurname> <given-names> j . C。</g我ven-names> </name> <name> <surname> Euliano</gydF4y2Basurname> <given-names> n R。</g我ven-names> </name> <name> <surname> Lefebvre</gydF4y2Basurname> <given-names> C。</g我ven-names> </name> </person-group> <source> <italic> 通过模拟神经和自适应Systems-Fundamental</我talic> <year> 2000年</ygydF4y2Baear> <edition> 1日</gydF4y2Baedition> <publisher-loc> 纽约,纽约,美国</pgydF4y2Baublisher-loc> <publisher-name> 约翰威利& Sons</pgydF4y2Baublisher-name> </nlm-citation> </ref> <ref id="B15" content-type="article"> <label>17</gydF4y2Balabel> <nlm-citation publication-type="journal"> <person-group person-group-type="author"> <name> <surname> 德弗里斯</gydF4y2Basurname> <given-names> B。</g我ven-names> </name> <name> <surname> 普林西比岛</gydF4y2Basurname> <given-names> j . C。</g我ven-names> </name> </person-group> <article-title> γ模型(一个神经模型进行时间处理</gydF4y2Baarticle-title> <source> <italic> 神经网络</我talic> <year> 1992年</ygydF4y2Baear> <volume> 5</gydF4y2Bavolume> <fpage> 565年</gydF4y2Bafpage> <lpage> 576年</gydF4y2Balpage> </nlm-citation> </ref> </ref-list> </back> </article> </body> </html>