). The standard back-propagation algorithm with momentum term has been used for both the models."> 小说FTLRNNγ对短期和长期的记忆混沌时间序列的预测 - raybet雷竞app,雷竞技官网下载,雷电竞下载苹果

应用计算智能和软计算

PDF
应用计算智能和软计算/2009年/文章

研究文章|开放获取

体积 2009年 |文章的ID 364532年 | https://doi.org/10.1155/2009/364532

桑杰l . Badjate桑杰诉Dudul, 小说FTLRNNγ对短期和长期的记忆混沌时间序列的预测”,应用计算智能和软计算, 卷。2009年, 文章的ID364532年, 21 页面, 2009年 https://doi.org/10.1155/2009/364532

小说FTLRNNγ对短期和长期的记忆混沌时间序列的预测

学术编辑器:Junbin高
收到了 2008年11月03
修改后的 2009年2月26日
接受 2009年4月26日
发表 2009年7月16日

文摘

混沌时间序列的多步向前预测是一项艰巨的任务,近年来吸引了越来越大的兴趣。对这项工作的兴趣发展的非线性神经网络模型建立多步混沌时间序列预测的目的。在文献中有多种不同的方法,但他们的成功取决于个人的预测性能的方法。也最受欢迎的神经模型是基于统计和传统前馈神经网络。但看到这种神经模型可能存在一些缺点,当长期预测是必需的。本文集中时滞递归神经网络(FTLRNN)不同预测模型与γ记忆是发达的视野。可以看出这个预测执行非常好短期预测以及中期预测。对耦合偏微分方程生成的混沌时间序列,如麦基玻璃和达芬,FTLRNN-based预测始终执行不同深度的预测从短期到长期的,只有轻微恶化后k是增加超过50岁。对现实世界的高度复杂的非平稳的时间序列和太阳黑子和激光一样,虽然提出了短期和中期预测并进行合理预测,其预测能力下降长期预测。然而,这仍是最好的预测结果考虑到事实的非平稳时间序列。 As a matter of fact, no other NN configuration can match the performance of FTLRNN model. The authors experimented the performance of this FTLRNN model on predicting the dynamic behavior of typical Chaotic Mackey-Glass time series, Duffing time series, and two real-time chaotic time series such as monthly sunspots and laser. Static multi layer perceptron (MLP) model is also attempted and compared against the proposed model on the performance measures like mean squared error (MSE), Normalized mean squared error (NMSE), and Correlation Coefficient ( )。标准的动量项的bp算法已被用于这两个模型。

1。介绍

预测未来一直是许多研究活动的目标在上个世纪对人类是一个重要的问题,因未知现象的恐惧和灾难在无限大的世界和它的许多变量显示高度非线性和混沌行为。混沌时间序列有许多应用科学在各个领域,例如,天体物理,流体力学,医学,股票市场,天气,也有用在语音编码等工程(1),雷达电磁波传播和散射建模2]。混乱的相互联系的复杂动力系统在本质上具有对初始条件的敏感性高导致长期不可预测性。动态重建似乎是极其困难的,即使是在发展中超级电脑的时代,不是因为计算复杂度,但由于难达到完美的输入和状态变量。已研制出许多不同的方法来处理混沌时间序列的预测。其中神经网络占据一个重要的地方被足够的模型的非线性和非平稳。

灵感来自人类大脑的结构和操作方式应该是,神经网络并行计算系统有能力解决一些复杂的问题在这样一个多元化的模式识别、计算机视觉、机器人、控制和医疗诊断,仅举几个(3]。神经网络是一种有效的工具来执行任何非线性输入输出映射和预测问题4]。使用神经网络预测混沌时间序列是特别感兴趣的5]。不仅是一种有效的方法来重建一个动力系统的观测时间序列,但它也有许多应用程序在雷达降噪等工程问题(6)、雷达(7]混沌保密通信系统的解调8)和扩频/码分多址(CDMA)系统(9,10]。它已经证实,在适当的条件下,他们能够均匀近似任何复杂的连续函数所需的精确度(11]。以后,类似的研究结果发表在[独立12]。正是这些基本的结果允许我们使用神经网络的时间序列预测。由于神经网络的模型不需要任何先验假设底层系列的统计分布预测,它们通常归类为“数据驱动”的方法,对比它们与“模型驱动”统计方法。广义神经网络的工具可以学习复杂的非线性映射的观察(13]。静态MLP网络获得了一个巨大的声望从众多实际应用发表在过去的十年中,似乎有大量的证据表明,多层感知器确实拥有一个令人印象深刻的能力(14]。有一些理论结果,试图解释成功的原因(15,16]。大多数应用程序都是基于前馈神经网络,如反向传播(BP)网络(17)和径向基函数(RBF)网络(18,19]。它也表明,前馈神经网络的建模能力可以提高网络的迭代是否纳入学习过程(20.]。

几种方法不同的性能措施一直试图在文献中预测混沌时间序列。它已经预言了未来Mackey-Glass混沌时间序列的短期预测误差百分率为20% (21]。开发一种新的小波网络的标准偏差为0.0029短期未来Mackey-Glass混沌时间序列预测和年度黑子1提前一步预测[22]。通过使用复发预测神经网络为前6个月每月的太阳黑子混沌时间序列预测 (预测精度)= 0.992 (根均方误差)= 4.419,10个月前预测 为0.980, 7.050的15个月前的预测 = 0.9222和 = 13.658,20个月前预测 为0.866, 16.79323 (23]。也通过使用径向基函数和正交最小二乘模糊模型每月的太阳黑子预测误差 和Mackey-Glass混沌时间序列 0.0015 (24]。也试图对Mackey-Glass混合网络时间序列和迭代预测和归一化均方误差NMSE 0.053 (25]。通过使用Elman神经网络对来年1年太阳黑子预测 = 30.2931和0.9732[的预测精度26]。

审慎评估的相关研究工作,它是发现没有可用简单的模型对长期预测混沌时间序列的。有必要开发一个简单的模型,能够执行短期、中期和长期预测混沌时间序列的合理的准确性。的非凡能力的神经网络学习的情况下,它可以证明作为一个潜在的候选人,以设计一个通用的混沌时间序列的预测(预测)。因此本文小说集中时滞递归神经网络模型与γ记忆过滤作为预测的智能工具提出了两个非线性微分方程Mackey-Glass杜芬实时月度时间序列和两个太阳黑子和激光混沌时间序列不仅对短期,长期预测也因为他们获得颞通过实现短期记忆处理能力和信息前面的单位,需要长期预测时,这是很重要的。Mackey-Glass混沌时间序列是首次提出作为白细胞的模型生产,杜芬混沌时间序列描述一个特定的非线性电路或淬火弹簧效应中观察到许多机械问题,每月的太阳黑子数量是一个很好的衡量太阳活动周期是11年,所谓的太阳活动周期。太阳活动有一个测量影响地球,气候、空间天气、卫星、太空任务,一个高度非线性激光时间序列。这些混沌时间序列是良好的基准模型。等各种参数的隐藏层,隐藏层的处理元素,步长,不同的学习规则,各种转移函数和双曲正切,乙状结肠,linear-tan-h,规范和线性乙状结肠,不同的错误 , 不同的记忆TDNN, Laguarre和伽马滤波器,不同组合的训练和测试样本详尽多样和尝试获得最优值的性能措施所流程图。结果表明估计的优越性能动态FTLRNN-based模型与γ记忆在MLPNN各种性能等措施均方误差(MSE),归一化均方误差(NMSE)和相关系数( )测试以及训练数据集。该网络是尝试培训20 000数字时代获取性能的提高值的措施。实验过程中演示图的流程图1。本文组织如下2静态模型提出,学习过程是解释说。节3提出FTLRNN模型解释道。节4性能措施和它们的重要性进行了讨论。部分5解释关于基准混沌时间序列的意义。部分6解释了实验过程和分析。部分7总结了该模型的评价结果和分析。最后结束语部分提供了实证研究结果8

2。静态NN-Based模型

中长期规划静态神经网络通常使用多层感知器作为支柱。它们通常与静态反向传播训练多层前馈网络。基础延时坚实模型有一个坚实的基础(27,28]。主要原因是它有能力模型简单以及复杂的功能关系。这已经被证实是通过大量的实际应用29日]。在[11]表明,所有连续函数可以近似任意精度,在统一的规范,一个隐层的网络的乙状结肠或隐藏(双曲正切)单位和一层线性或双曲正切输出装置包括在隐藏层。本文并不能解释有多少单元中包含隐藏层。这是在讨论30.],两层的一个重要结果是派生的近似功能感知网络当函数近似显示一定的平滑。用MLP神经网络近似的最大优势从输入到输出的映射系统驻留在其简单性和它非常适合在线实现。然后训练的目的是确定从一组训练数据映射到一组可能的权重,这样网络将生产预测 ,这在某种意义上接近真正的输出 。预测误差的方法是基于测量的引入亲密的均方误差(MSE)标准:

然后发现重量

通过迭代的最小化方案: 在哪里 指定当前迭代(数字” ”), 是搜索方向, 步长。

当神经网络训练,下一步是评估它。这是通过标准方法在统计独立的验证(31日]。从来就不是一个好主意的泛化性能评估NN-based训练数据。这个方法可用数据集分为两组,即训练数据集和测试数据集。旁边的训练数据集是分为两个分区:第一个分区是用于更新权重的网络和第二个分区是用来评估(或旨在)训练的性能。测试数据集被用来评估网络推广的方式。估计NN-based模型的学习和泛化能力评估的基础上确定绩效指标如MSE、NMSE,回归神经网络的能力目视检查的相关系数特征对不同输出的系统研究。

3所示。FTLRNN模型

时滞的网络(TLRNs)与短期记忆mlp扩展结构。在这里,一个“静态”神经网络(例如,MLP)增强和动态属性(14]。反过来,这使得网络无功轴承信号的时间结构信息。一个神经网络是动态的,它必须有记忆。这记忆可分为“短期”和“长期”的记忆。长期记忆是建立成一个通过监督学习神经网络,通过训练数据集的信息内容存储(部分或全部)突触权重的网络(32]。然而,如果手头有一个时间维度,某种形式的“短期”内存需要使网络动态。一个简单的方法构建短期记忆转化为神经网络的结构是通过使用时间延迟,可以应用于网络的输入层(集中)。短期记忆结构将样本序列转换为重建空间点(33]。这个内存结构整合内部的学习机器。这意味着,在输入数据,而不是使用一个窗口处理元素(PEs)创建用于存储输入信号的历史或PE激活。

输入PEs的MLP取代抽头延迟线,其次是MLPNN。这种拓扑称为集中时滞神经网络(TDNN)。集中拓扑仅包括内存内核连接到输入层。这种方式,只记得过去的输入。集中的延迟线TDNN商店过去的样本输入。抽头延迟线和权重的组合连接水龙头的PEs第一隐层是简单线性组合器静态非线性紧随其后。通常,γ短期记忆机制结合非线性PEs在限制拓扑叫做专注。基本上,第一层集中TDNN的过滤层,尽可能多的自适应滤波器PEs在第一隐层。线性组合器的输出通过一个非线性的隐层(PE),然后进一步处理的后续层延时的系统识别,目标是找到最匹配的重量,产生一个网络输出当前系统的输出相结合的信息现在和一个预定义的过去的样本数目(由抽头延迟线)的大小(32]。记忆层的大小取决于所需的过去的样本数目来描述输入特征。这个数字取决于输入的特点和任务。这集中TDNN仍然可以与静态反向传播训练,提供所需的信号在每个时间步是可用的。这是因为抽头延迟线在输入层没有任何自由参数。所以唯一的自适应参数静态前馈路径。

许多输入内存PE接收一般 并产生多个输出 哪些是延迟的版本 合并后的输入,

在哪里 是一个延迟函数。

这些短期记忆结构可以通过线性自适应滤波器理论研究 是一个线性算子。重要的是要强调记忆体育是一种短期记忆机制,明确网络权重的区别,这代表网络的长期记忆。

基本上有两种类型的内存机制:内存延迟和记忆反馈。我们试图找到最一般线性延迟算子(特殊情况自动后退移动平均模型),记忆的痕迹 从以前的记忆痕迹会递归地计算吗 。这个内存PE是广义前馈记忆PE。它可以表明,广义的定义关系前馈内存PE提到

*是卷积操作, 是一个因果时间函数, 是利用索引。由于这是一个递归方程, 应该单独分配一个值。这种关系意味着下一个记忆痕迹是由先前的记忆痕迹卷积具有相同的功能 内存内核还没有明确。不同的选择 提供不同的选择轴的投影空间。当我们应用的输入 广义前馈内存PE、水龙头的信号 成为

的卷积 与内存的内核。为 ,我们有

在哪里 可以单独指定。投影 获得输入信号的线性加权根据水龙头信号

最明显的选择的基础是使用过去的输入信号样本 直接的 利用信号变得 。这个选择对应

在这种情况下 也是一个δ函数 (δ函数操作符用于抽头延迟线)。记忆深度受到严格控制 ,即内存存储过去的痕迹 样本的输入。时间延迟神经网络使用这个选择的基础。

γ记忆PE变弱信号在每个水龙头,因为它是一连串的漏水的集成商与同一时间常数γ模型。γ记忆体育是一种特殊情况下的广义前馈记忆PE、

γ内存基本上是相同的级联低通滤波器时间常数 。的所有脉冲响应伽马内存

(:)是二项式系数定义的 的整数值 ,整个脉冲响应 为不同的 代表一个离散的伽玛函数的版本的被积函数,因此记忆的名称。

γ内存PE有多个杆,可以自适应地沿着真正的 轴,即γ内存只能实现低通 或者高通 转移函数。高通传递函数创建了一个额外的能力模型快速交变信号的样本的迹象伽马PE(脉冲响应 交流信号)。样品的深度参数( )用于计算敲击的次数( )包含在内存结构( )的网络。

4所示。性能的措施

三种不同类型的统计性能评价标准用来评估这些模型在本文开发的性能。这些都是如下。

均方误差均方误差是由: 在哪里 栓塞形成后症状(PEs)的输出, 原型的数据集, 输出范例 PEj, 输出范例 PEj。

NMSE(归一化均方误差)
归一化均方误差被定义为以下公式, 栓塞形成后症状(PEs)的输出, 原型的数据集, 平方误差, 输出范例 PEj (PEs)的j元素相关系数 。均方误差(MSE)可以用来确定网络输出符合所需的输出,但它并不一定反映两组数据是否在同一方向移动。例如通过扩展网络输出,我们可以改变MSE的方向不改变的数据。相关系数解决了这个问题。根据定义,网络输出之间的相关系数x和所需的输出 相关系数是局限于范围

5。基准混沌时间序列

在科学、混乱是用作同义词不规则行为,他的长期预测本质上是不可预测的。混沌微分方程展览不仅不规则行为,而且他们也不稳定对小扰动的初始条件。因此很难预测未来基于混沌时间序列的微分方程;他们是好的神经网络设计算法的一个基准。

5.1。Mackey-Glass时间序列

Mackey-Glass方程是延时微分方程,它第一次被提出的模型白细胞生产(34]。通常用于实践作为一个基准组由于其非线性混沌特征。混沌时间序列不收敛或发散的,和他们的轨迹对初始条件极为敏感。数据生成采用四阶龙格-库塔方法。给出的方程是:

在哪里 常系数, 时间延迟,我们选择的系数: Mackey-Glass时间序列如图2

5.2。杜芬时间序列

杜芬时间序列描述了一个特定的非线性电路或淬火弹簧效应中观察到许多机械问题(35]。杜芬方程是延时微分方程给出

在驱动力 1.0位置,阻尼常数( ),频率 延迟 混沌时间序列如图3

5.3。太阳黑子时间序列

太阳黑子数量是一个很好的衡量太阳活动周期是11年,所谓的太阳活动周期。太阳活动有一个测量影响地球,气候、空间天气、卫星、太空任务,因此是一个重要的预测价值。但由于内在时间行为的复杂性和缺乏定量的理论模型,太阳活动周期的预测是非常困难的。许多预测技术一直在检查每年太阳黑子数太阳活动的时间序列作为一个指标。然而,在最近的研究国际黑子月度时间序列具有更好的时间分辨率和精度,已被使用。特别是,已研制出的一种非线性动力学方法(36),预测结果之间的比较几种预测技术统计和物理课。有很多的工作在太阳活动的有争议的问题的非线性特征(36- - - - - -39];最近的一些低维确定性非线性混沌行为分析提供了证据的月度时间序列平滑太阳黑子36- - - - - -38)强烈。考虑的数据从1749年1月至2006年12月月度变化。总样本3096认为,显示在图4。这个系列是标准化的 每月平滑太阳黑子数时间序列从SIDC下载(全球数据中心的太阳黑子指数)40]。

5.4。激光时间序列

从远红外线激光器激光数据记录在一个混乱的状态。81.5微米的测量是14 连续波(杉木)激光抽运光的 (16)的一个 激光,通过振动aQ (8、7) 过渡。激光的基本设置中可以找到(41]。强度数据记录由一个突堤示波器。它是全球可用在时间序列预测竞争由圣达菲研究所和一个高度非线性的数据集,从那时起,它已经被用于基准研究。时间序列有1000个样本点已新到的范围 。时间序列图所示5

6。实验结果

选择隐藏层和隐藏在每一个隐藏层单元的数量是至关重要的(42]。它已经建立了一个MLPNN只有一个隐藏层,有足够数量的神经元,充当一个非线性映射的普遍接近者(43]。模型的准确性和复杂性之间的权衡应准确地解决(44]。在实践中,很难确定一个足够数量的神经元必须达到预期的程度的近似精度。经常在隐藏层单元的数量取决于试验和错误。确定权重值,一个人必须有一组示例的输出应该与输入。从这些例子的任务确定权重称为训练或学习,基本上是一个传统的估计问题。即权重估计的例子在这样的网络,根据指标、模型尽可能准确地真正的关系。因为学习是一个随机过程,学习曲线可能截然不同于运行运行。为了比较性能的一个特定的搜索方法或不同的参数对系统的影响,需要获取的数量平均学习曲线运行的随机性可以平均。的详尽和细致的实验进行确定静态模型和最优的配置提出了短期和长期FTLRNN模型与γ记忆前基准混沌时间序列的预测60%的训练,15%交叉验证和测试样本25%考虑基准混沌时间序列。发现所选模型的性能是最优的38个,21日,15日,43个隐层神经元对MSE, NMSE和相关系数 Mackey-Glass性能的测试数据集,达芬,每月的太阳黑子,和激光时间序列,分别不同的参数和传递函数一样,学习规则,步长,和动量值表中提到的1Mackey-Glass和杜芬混沌时间序列表2每月的太阳黑子和激光时间序列。


老不。 参数 隐藏层毫克 隐藏层达芬 输出层为毫克 输出层为达芬

1 栓塞形成后症状(PEs)的数量 38 21 1 1
2 传递函数 双曲正切 双曲正切 双曲正切 林双曲正切
3 学习规则 动力 动力 动力 动力
4 步长 1 1 0.1 0.1
5 动力 0.8 0.8 0.8 0.8


老不。 参数 太阳黑子时间序列隐藏层 隐层的激光时间序列 输出层对太阳黑子时间序列 输出层的激光时间序列

1 栓塞形成后症状(PEs)的数量 15 43 1 1
2 传递函数 双曲正切 双曲正切 双曲正切 双曲正切
3 学习规则 动力 动力 动力 动力
4 步长 1 1 0.1 0.1
5 动力 0.8 0.8 0.8 0.8

当我们试图增加隐层数和隐层中处理元素的数量,模型的性能并不是显著提高。相反它需要太长时间训练,因为模型的复杂性。因为单输入,单输出给定系统,选择输入和输出处理元素的数量。现在的神经网络模型训练三次不同体重1000次迭代的初始化静态动量项的bp算法对这两个模型。所有可能的变化等模型隐藏层的数量,每个隐层的处理元素,不同的传递函数和双曲正切,线性双曲正切,乙状结肠,线性乙状结肠在输出层,不同的监督学习规则如动量,接合体梯度,和快速传播是Mackey-Glass企图之前所述的预测,达芬,激光时间序列,前6个月每月的太阳黑子时间序列的预测。结果被放置在桌上3Mackey-Glass和杜芬时间序列表4实时每月的太阳黑子,激光时间序列不同的学习规则测试数据集。


学习规则 Mackey-Glass时间序列 杜芬时间序列
( 提前一步预测) ( 提前一步预测)
均方误差 NMSE 均方误差 NMSE

共轭梯度 0.00545 0.09321 0.94965 0.12332 0.80365 0.77838
动力 0.004475 0.07940 0.9596 0.00335 0.02185 0.98910
快速的传播 0.00534 0.09486 0.9481 0.00660 0.04305 0.97821


学习规则 真正的太阳黑子时间序列 真正的激光时间序列
( 未来几个月的预测) ( 提前一步预测)
均方误差 NMSE 均方误差 NMSE

共轭梯度 0.00624 0.1135 0.9450 0.1450 0.511140 0.79772
动力 0.00554 0.1008 0.95528 0.009563 0.337 0.8302
快速的传播 0.00866 0.15757 0.92256 0.01787 0.62995 0.64371

还各种错误规范 是多种多样的,FTLRNN模型训练和测试的最佳传递函数。结果是获得并放在桌子上5人工Mackey-Glass杜芬时间序列和表6实时每月的太阳黑子和激光时间序列。很明显从表5,对于 误差准则和双曲正切传递函数最小MSE的价值和相关系数 是最大的Mackey-Glass混沌时间序列。对杜芬混沌时间序列的最优值MSE, NMSE和相关系数 线性双曲正切传递函数,得到了吗 从表可以看出误差标准5


误差准则 Mackey-Glass时间序列 杜芬时间序列
( 提前一步预测) ( 提前一步预测)
传递函数双曲正切 传递函数线性双曲正切
均方误差 NMSE 均方误差 NMSE

0.00455 0.08077 0.94576 0.00335 0.02185 0.98910
0.00447 0.07940 0.9596 0.00389 0.02747 0.9831
0.00484 0.08595 0.9345 0.0488 0.02756 0.9821
0.00577 0.1024 0.93823 0.01624 0.02756 0.96108
0.00629 0.1117 0.9332 0.01656 0.09354 0.95725
0.00544 0.0887 0.94990 0.00341 0.01901 0.9810


误差准则 黑子月度时间序列 激光时间序列
( 未来几个月的预测) ( 提前一步预测)
传递函数双曲正切 传递函数双曲正切
均方误差 NMSE 均方误差 NMSE

(双曲正切) 0.02016 0.36673 0.85915 0.006171 0.2174 0.9014
(双曲正切) 0.00554 0.1008 0.95528 0.009563 0.337 0.8302
(双曲正切) 0.00571 0.10387 0.94882 0.0279 0.98417 0.3038
(双曲正切) 0.00956 0.17388 0.91375 0.2430 1.18040 0.2430
(双曲正切) 0.01618 0.29439 0.85462 0.02168 0.7641 0.5541
(双曲正切) 0.00653 0.11889 0.92482 0.01536 0.5393 0.7887

同样,黑子实时月度时间序列,MSE的最小值和最大值相关系数的关系 获得了 误差准则和双曲正切传递函数。激光时间序列均方误差的最小值和最大值的相关系数 导致的 误差准则和双曲正切传递函数。

然后在这些导致最优参数FTLRNN模型训练和检测短期(1、5、10)和长期(20、50和100)提前一步预测。FTLRNN结构与短期记忆中的延时扩展结构。这些最优参数获得FTLRNN模型用于训练和测试MLPNN。然后在相同的最优参数静态MLPNN模型做出了尝试,和性能措施像MSE, NMSE和相关系数 短期(1、5、10)和长期(20、50和100)提前一步预测得到如上所述表7Mackey-Glass混沌时间序列,在表8杜芬混沌时间序列,在表9激光时间序列,和表10黑子月度时间序列。很明显从表7,8,9,10所有时间序列,提前考虑短期和长期预测,这个FTLRNN模型的性能是最优的测试数据集上的以下阀门的数量= 6,利用延迟= 1,轨道长度= 50对相关系数的值 、MSE和NMSE。


MLPNN测试数据 FTLRNN测试数据

(步骤) 均方误差 NMSE 均方误差 NMSE

1 0.007 0.01 0.9933 0.000491 0.00919 0.99542
5 0.0028 0.051 0.9745 0.00227 0.04145 0.97911
10 0.0056 0.1008 0.9485 0.004475 0.07940 0.9596
20. 0.0128 0.2159 0.8860 0.00944 0.15861 0.891822
50 0.0411 0.599 0.6406 0.024382 0.35655 0.80849
One hundred. 0.08180 0.9988 0.1971 0.05345 0.65267 0.62265


MLPNN测试数据 FTLRNN测试数据

(步骤) 均方误差 NMSE 均方误差 NMSE

1 0.08750 0.5666 0.66035 0.00113 0.00957 0.99545
5 0.07634 0.55568 0.68434 0.00202 0.01315 0.99356
10 0.08331 0.54275 0.67991 0.00335 0.02185 0.98910
20. 0.08580 0.62975 0.63454 0.00632 0.04150 0.97982
50 0.10079 0.74545 0.54593 0.00927 0.06562 0.96663
One hundred. 0.11397 0.85011 0.40191 0.00117 0.07870 0.96000


(步骤) MLP神经网络 FTLRNN
均方误差 NMSE 均方误差 NMSE

1 0.01815 0.681 0.59818 0.00282 0.105 0.94592
5 0.02522 0.918 0.35641 0.00372 0.135 0.93962
10 0.01957 0.689 0.5587 0.00956 0.337 0.9014
20. 0.03040 1.009 0.11287 0.01635 0.543 0.71872
50 0.03499 1.039 0.28146 0.03466 1.02971 0.41330


(月) MLP神经网络 FTLRNN
均方误差 NMSE 均方误差 NMSE

1 0.00247 0.04533 0.97569 0.002227 0.04162 0.98163
6 0.01229 0.2234 0.8917 0.00554 0.1008 0.9528
12 0.02387 0.43132 0.77184 0.01693 0.30599 0.8550
18 0.03989 0.7174 0.5741 0.02266 0.4075 0.7977
24 0.0538 0.9658 0.3584 0.03059 0.54899 0.71497

然后训练和测试样本从10%变化到80%与10%的增量样本训练和75%到5%的测试提出了最优FTLRNN模型、训练和测试样本的数量保持原型测试样品的衰减10%交叉验证(CV) 15%不变。获得的性能措施和比较测试和训练数据集和评估FTLRNN的性能和鲁棒性。结果获得并被放置在桌上11为互译提前预测,表12提前5步预测表13之前所述的预测表14提前20步预测表15为50-step提前预测和表16100 -提前一步预测Mackey-Glass杜芬混沌时间序列。


时间序列 Mackey-Glass时间序列 杜芬时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.000315 0.00627 0.99707 0.00230 0.03972 0.98015
20% 65% 0.000247 0.004854 0.99757 0.00101 0.00774 0.99618
30% 55% 0.000405 0.007732 0.99628 0.00104 0.00707 0.99671
40% 45% 0.000371 0.00691 0.99663 0.00103 0.00655 0.99692
50% 35% 0.000371 0.007283 0.9964 0.00087 0.00555 0.99733
60% 25% 0.000491 0.00919 0.99542 0.00113 0.00957 0.99545
70% 15% 0.00078 0.01353 0.9933 0.00091 0.00609 0.99712
80% 05% 0.002217 0.03312 0.98337 0.00484 0.03271 0.98827


时间序列 Mackey-Glass时间序列 杜芬时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.000501 0.01779 0.99122 0.00465 0.08523 0.95975
20% 65% 0.001006 0.019508 0.9902 0.00162 0.01236 0.99388
30% 55% 0.001196 0.02256 0.98875 0.00150 0.00944 0.99552
40% 45% 0.00144 0.02653 0.98675 0.00139 0.00885 0.99578
50% 35% 0.00167 0.0322 0.9838 0.00170 0.01154 0.99435
60% 25% 0.00227 0.04145 0.97911 0.00202 0.01315 0.99356
70% 15% 0.00371 0.06227 0.9684 0.00149 0.00999 0.99524
80% 05% 0.01089 0.1502 0.9226 0.00435 0.02941 0.98926


时间序列 Mackey-Glass时间序列 杜芬时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.00191 0.03733 0.9812 0.00804 0.15432 0.92405
20% 65% 0.00208 0.03994 0.97985 0.00314 0.02395 0.98796
30% 55% 0.02261 0.04205 0.97888 0.00202 0.01315 0.99356
40% 45% 0.00266 0.04815 0.97581 0.00260 0.01653 0.99185
50% 35% 0.03448 0.06483 0.967219 0.00288 0.01936 0.99014
60% 25% 0.004475 0.07940 0.9596 0.00335 0.02185 0.98910
70% 15% 0.00757 0.12238 0.9373 0.00306 0.02046 0.99001
80% 05% 0.02204 0.27796 0.8537 0.00655 0.04429 0.97835


时间序列 Mackey-Glass时间序列 杜芬时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.00407 0.07799 0.96028 0.01342 0.30048 0.86374
20% 65% 0.00436 0.08154 0.95852 0.00503 0.03857 0.98132
30% 55% 0.00469 0.08499 0.95721 0.00732 0.04650 0.96982
40% 45% 0.00578 0.10149 0.948802 0.00427 0.02725 0.98192
50% 35% 0.00707 0.127302 0.93491 0.00516 0.03518 0.98270
60% 25% 0.00944 0.15861 0.91822 0.00632 0.04150 0.97982
70% 15% 0.01535 0.23154 0.87938 0.00492 0.03154 0.98420
80% 05% 0.04379 0.47688 0.74082 0.00662 0.04481 0.97861


时间序列 Mackey-Glass时间序列 杜芬时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.01082 0.19456 0.89823 0.01290 0.79033 0.71021
20% 65% 0.01169 0.20374 0.89309 0.01027 0.08318 0.95984
30% 55% 0.01316 0.22115 0.88438 0.00658 0.04203 0.97902
40% 45% 0.01529 0.24709 0.87032 0.00763 0.05034 0.97470
50% 35% 0.01816 0.29049 0.84538 0.00781 0.05426 0.97271
60% 25% 0.024382 0.35655 0.80849 0.00927 0.06562 0.96663
70% 15% 0.03829 0.48826 0.73543 0.00743 0.05020 0.97567
80% 05% 0.1056 0.87428 0.52529 0.00953 0.06451 0.96811


时间序列 Mackey-Glass时间序列 杜芬时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.029161 0.47623 0.7294 0.01359 0.54149 0.80092
20% 65% 0.02897 0.45601 0.74595 0.00927 0.07219 0.96339
30% 55% 0.03182 0.48156 0.72938 0.00116 0.07810 0.962300
40% 45% 0.03439 0.50398 0.71524 0.00875 0.05663 0.97196
50% 35% 0.04027 0.54749 0.68781 0.00883 0.06062 0.96947
60% 25% 0.05345 0.65267 0.62265 0.00117 0.07870 0.96000
70% 15% 0.08017 0.81243 0.53108 0.01033 0.06935 0.96570
80% 05% 0.21006 1.47654 0.24862 0.01141 0.07715 0.96069

以类似的方式,实时每月的太阳黑子和激光时间序列,训练和测试样本的数量从10%变化到80%与10%的增量样本训练和75%到5%保持原型测试样品的衰减10%交叉验证(CV) 15%不变。获得的性能措施和比较测试和训练数据集和评估FTLRNN的性能和鲁棒性。结果放置在表17,18,19,20.,21每月的太阳黑子和激光的时间序列值 提前预测。


时间序列 太阳黑子时间序列 激光时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.00320 0.08705 0.96121 0.00777 0.24076 0.87475
20% 65% 0.00258 0.6819 0.96605 0.01042 0.30799 0.84821
30% 55% 0.00188 0.04608 0.97791 0.01054 0.32361 0.84657
40% 45% 0.00218 0.05092 0.97928 0.00991 0.39119 0.81057
50% 35% 0.00273 0.05795 0.97837 0.00185 0.09233 0.98836
60% 25% 0.00227 0.04162 0.98163 0.00282 0.10597 0.94592
70% 15% 0.00336 0.07416 0.96799 0.00080 0.02293 0.98873
80% 05% 0.00153 0.05069 0.97512 0.00184 0.04229 0.97872


时间序列 太阳黑子时间序列 个月 激光时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.00707 0.19197 0.91703 0.00782 0.24068 0.87439
20% 65% 0.00451 0.11888 0.94153 0.00811 0.23969 0.88027
30% 55% 0.00423 0.10308 0.94712 0.00808 0.24814 0.87504
40% 45% 0.00438 0.10197 0.95081 0.00635 0.25307 0.87748
50% 35% 0.00654 0.13744 0.94252 0.00267 0.12898 0.94513
60% 25% 0.00554 0.1008 0.95528 0.00372 0.13558 0.93962
70% 15% 0.00473 0.10259 0.95359 0.00534 0.14838 0.92717
80% 05% 0.00499 0.15725 0.92195 0.01579 0.34297 0.83272


时间序列 太阳黑子时间序列 激光时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.01187 0.32145 0.87483 0.01506 0.45940 0.76210
20% 65% 0.01116 0.29307 0.84917 0.01310 0.38332 0.80583
30% 55% 0.00967 0.23485 0.88221 0.00140 0.43507 0.77113
40% 45% 0.00749 0.17299 0.91236 0.01221 0.48119 0.75879
50% 35% 0.00909 0.19003 0.91050 0.00444 0.20709 0.89826
60% 25% 0.01693 0.30599 0.8550 0.00956 0.337 0.9014
70% 15% 0.00841 0.17893 0.92008 0.01047 0.28229 0.87301
80% 05% 0.00871 0.26119 0.86836 0.02631 0.59165 0.71077


时间序列 太阳黑子时间序列 激光时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.01804 0.48780 0.74535 0.02676 0.80529 0.58788
20% 65% 0.01853 0.48428 0.75209 0.02361 0.68739 0.67208
30% 55% 0.01287 0.31169 0.82991 0.02569 0.79376 0.56198
40% 45% 0.01403 0.32187 0.83052 0.01659 0.66263 0.65482
50% 35% 0.02792 0.57914 0.73685 0.00703 0.30705 0.85539
60% 25% 0.02266 0.04075 0.7977 0.01635 0.543 0.71872
70% 15% 0.01885 0.39372 0.78804 0.03573 0.37992 0.37992
80% 05% 0.00745 0.21530 0.89769 0.00323 0.59234 0.59234


时间序列 太阳黑子时间序列 激光时间序列

训练范例 测试原型 均方误差 NMSE 均方误差 NMSE

10% 75% 0.03246 0.37734 0.49224 0.04073 1.18215 0.13264
20% 65% 0.03657 0.58297 0.43616 0.04310 1.23643 -0.00980
30% 55% 0.02280 0.52882 0.69373 0.03018 0.98884 0.27393
40% 45% 0.01839 0.83622 0.77659 0.04425 1.87215 -0.22273
50% 35% 0.04066 0.41935 0.53973 0.02534 0.94845 0.26601
60% 25% 0.03019 0.54899 0.71497 0.03466 1.02971 0.41330
70% 15% 0.02834 0.95150 0.75528 0.03447 0.89215 0.44330
80% 05% 0.02339 0.57734 0.8012 0.08839 0.96548 0.28132

接下来从组合获得绩效指标的最优值数据分区为混沌时间序列作为训练和测试样本所表1116Mackey-Glass混沌时间序列的多步的所有情况下提前预测和杜芬提前预测时间序列的所有步骤。同样,实时的每月的太阳黑子和激光时间序列的多步向前预测。

然后训练和测试样本的最优数据分区结果的组合 提前预测的情况下 所有考虑的时间序列预测。对于那些组合,从2000年时代的数量是不同的 在2000年的一个步骤,再一次提出FTLRNN模型训练观察的更加突出价值的性能措施的所有步骤的所有混沌时间序列和预测。

7所示。讨论

它可以清楚地观察到动态FTLRNN模型与γ记忆明显优于静态MLP不仅对短期预测,也对长期预测测试数据以及训练数据集,从表的结果7Mackey-Glass混沌时间序列,它注意到,未来20步预测中长期规划的性能度量值和动态FTLRNN略有偏差但长50 - 100 -提前一步预测MSE的绩效衡量价值,NMSE和相关系数( )FTLRNN模型是静态MLP相比显著提高。的杜芬时间序列表8是观察到的短期和来得及提前预测动态与γ记忆FTLRNN过滤器相比明显优于以及静态MLP与均方误差等性能指标,NMSE和相关系数

黑子也真正的月度时间序列,它是观察从表91、6、12个月前的预测中长期规划的性能度量值和动态FTLRNN略有偏差但对18到24个月前预测,FTLRNN明显改善的性能度量值相比静态延时。的激光时间序列表10可以看出未来短期和长期( )预测动态与γ记忆FTLRNN过滤器相比明显优于以及中长期规划静态值的均方误差,NMSE和相关系数

下了最优参数的FTLRNN模型训练不同的训练和测试样本作为训练样本组合不同从10%到80%和75%到5%作为测试样本并保持常数等于15%交叉验证样本预测短期和长期先行一步寻找鲁棒性模型并取得重要成果的性能措施培训和测试样品的组合。表1116显示的性能度量值提前一步100 -提前一步预测不同组合的训练和测试样本生成Mackey-Glass和杜芬方程时间序列。

类似实时系列训练和测试样本所表结合多种多样1721提前一个月20提前4个月每月的太阳黑子时间序列预测和一步提前fifty-step激光时间序列的预测。

训练和测试样本的值最小MSE NMSE,并关闭相关系数统一为短期和长期预测混沌时间序列的训练和测试样本的FTLRNN伽马滤波器是训练了2000 时代2000年步骤获得更重要的价值观和观察网络性能对于性能的措施。结果绘制在图6为1 - 5步预测之前,图7和图10 - 20个步骤之前预测850 - 100 -提前一步预测均方误差性能和NMSE由于时代变化,和图9对回归性能由于时代变化为1 - 5、10、20、50和100 -对Mackey-Glass提前一步预测混沌时间序列。可以看出50步骤提前预测性能指标略有偏差,但长期100 -提前一步预测高于000时代的价值观培训绩效衡量MSE和NMSE值下降,和相关系数 是大大增加了。

也可以从数字视觉检查密切10,11,12,13FTLRNN提出的输出模型密切遵循所需的输出为1 - 5——10 - 20步,提前预测。

从图14和图15,很明显,网络的输出略长50-step偏离期望的输出和100 -提前一步预测。

杜芬时间序列的结果如图所示16为1 - 5步预测之前,图17和图10 - 20个步骤之前预测1850 - 100 -提前一步预测均方误差性能和NMSE由于时代变化,和图19为相关系数为1 - 5、10、20、50和100 -提前一步预测。是观察到的短期预测和提前50-step预测结果偏差不大。100 -提前一步预测,但绩效衡量值提高。

从图的仔细观察20.和图21为1 - 5步之前预测的输出FTLRNN密切遵循所需的输出。从图22和图23提前10 - 20步预测,到前20样品FTLRNN输出略有偏差,在实际产出紧密遵循所需的输出。同样的图24和图25FTLRNN输出遵循所需的输出为长期50 - 100 -提前一步预测。

同样真实的黑子月度时间序列结果绘制在图26和图27分别对MSE性能和NMSE,由于时代变化为1和6个月前预测,人物28和图29日由于时代的变化12、18和24个月前预测和图30.相关系数( )提前为所有月预测。短期1和6个月前预测的性能值略有改善。12和18个月前预测结果稍有偏差但提前24个月预测10 000时代训练均方误差的值,NMSE和相关系数 明显改善,MSE的0.00824和0.23236 NMSE,分别和相关系数的值 是0.88460,1000年时代培训MSE和NMSE的值是0.0339,0.57734,和 是0.8012。

从图的仔细观察31日,图32和图33短期1、6和12个月前预测FTLRNN输出密切遵循所需的输出,从图34和图35长期18到24个月前预测FTLRNN输出略偏离预期的输出。

激光时间序列结果绘制在图36和图371 - 5 -,和之前所述的预测图38和图3920 -和50-step提前预测性能在MSE和NMSE由于时代的变化,和图40对相关系数的性能 由于时代变化为所有未来的一步预测。是观察到的小步提前预测性能指标略有偏差但50-step提前预测,误差值MSE和NMSE和相关系数 大幅提高。1000年时代训练均方误差的值和NMSE是0.03447和0.89215,和价值的 0.44330当时代培训的数量增加到000的值MSE和NMSE是0.154和0.412,和价值的 显著提高至0.789。

也仔细观察数据41,4243短期1 - 5 -,所述前预测FTLRNN密切遵循所需的输出,从图输出44和图45长期20 -和50-step提前预测,很明显,FTLRNN输出略偏离预期的输出。

8。结论

看到集中时滞的网络与γ记忆能够预测微分方程生成Mackey-Glass杜芬时间序列和真实的每月的太阳黑子和激光时间序列非常优雅相比,多层感知器(MLP)。静态神经网络配置等MLPNN-based模型无法处理的潜在的非线性动力学未来的所有时间序列短期和长期预测。可以看出MSE NMSE提出集中的时滞递归神经网络(FTLRNN)动态模型对测试数据集和训练数据集比静态MLP神经网络非常重要。此外,还观察到这个模型的相关系数进行测试和训练范例远远高于MLPNN未来短期和长期预测混沌时间序列的考虑。FTLRNN是训练有素的不同组合的训练样本和测试在测试数据集找到FTLRNN模型的鲁棒性和可持续性为所有未来的一步预测和实时混沌时间序列生成的微分方程。还提出FTLRNN模型,输出密切遵循所需的输出,并学会了真正的短期预测的轨迹。长期预测的输出有点偏离基准的混沌时间序列视为讨论,从实验推断FTLRNN模型与γ记忆学会了混沌时间序列的动态很好与多层感知器网络对测试数据集(数据集不是用于培训)与合理的准确性。相反,它是观察到静态MLP坏,表现不佳,因为一方面它收益率更高的MSE和NMSE测试数据集,另一方面测试数据集的相关系数远低于统一。因此,集中与γ记忆递归神经网络时滞滤波器优于静态MLP-based神经网络更适合短期和长期预测。时代的数量是不同的从2000年到000 2000年的步骤,和网络训练发现时代的变化的模型的性能。

引用

  1. b·汤森“语音信号非线性预测,”非线性建模和预测、m . Casdagli和s Euban Eds。,pp. 433–453, Addison-Wesley, Reading, Mass, USA, 1992.视图:谷歌学术搜索
  2. p·g·库珀·m·n·海斯和j·e·惠伦”为传播神经网络建模,大西洋研究公司报告92-12-002,电磁环境测试设备,瓦丘卡堡,亚利桑那州,美国,1992年。视图:谷歌学术搜索
  3. 微积分,神经网络:一个全面的基础培生教育,新德里,印度,第二版,2006年版。
  4. a . s . Weigend和n . a . Greshenfeld时间序列预测:预测未来和理解过去15卷圣达菲研究所研究科学的复杂性美国,addison - wesley,阅读,质量,1993年。
  5. m . Casdagli“非线性混沌时间序列的预测,”自然史D,35卷,不。3、335 - 356年,1989页。视图:出版商的网站|谷歌学术搜索
  6. h .梁和t . Lo,“混沌雷达信号处理在海的那边,”IEEE海洋工程》杂志上,18卷,不。3、287 - 295年,1993页。视图:出版商的网站|谷歌学术搜索
  7. h .梁”,将混沌应用于雷达探测的海洋环境:一个实验性研究,“IEEE海洋工程》杂志上,20卷,不。1,56 - 64,1995页。视图:出版商的网站|谷歌学术搜索
  8. k . m .短,“步骤可以揭露安全通信”国际期刊的分歧和混乱,4卷,不。4、959 - 977年,1994页。视图:出版商的网站|谷歌学术搜索
  9. g . Heidari-Bateni和c d . McGillen”直接序列扩展频谱通信系统混乱。”IEEE通信,42卷,不。234年,第1527 - 1524页,1994年。视图:出版商的网站|谷歌学术搜索
  10. 傅y和h .梁”,在扩展频谱通信系统窄带干扰取消使用混乱,”IEEE电路和系统,48卷,不。7,847 - 858年,2001页。视图:出版商的网站|谷歌学术搜索
  11. g . Cybenko“近似s型函数,通过叠加”数学的控制、信号和系统,卷2,不。4、303 - 314年,1989页。视图:出版商的网站|谷歌学术搜索
  12. k . Hornik m . Stinchcombe和h白色,“多层前馈网络普遍接近者,”神经网络,卷2,不。5,359 - 366年,1989页。视图:出版商的网站|谷歌学术搜索
  13. 美国诉Dudul”Lorenz混沌吸引子的预测使用两层感知器神经网络”应用软计算,5卷,不。4、333 - 355年,2005页。视图:出版商的网站|谷歌学术搜索
  14. 美国诉Dudul”识别液体饱和蒸汽换热器使用集中时间滞后递归神经网络模型中,“IETE杂志》上的研究,53卷,不。1,第82 - 69页,2007。视图:谷歌学术搜索
  15. a·r·巴伦”通用近似边界叠加一个s形函数,“IEEE信息理论,39卷,不。3、930 - 945年,1993页。视图:出版商的网站|谷歌学术搜索
  16. a . Juditsky h . Hjalmarson a Benveniste et al .,“在系统辨识非线性黑箱模型:数学基础,”自动化没有,卷。31日。12日,第1750 - 1725页,1995年。视图:出版商的网站|谷歌学术搜索
  17. r .,他思腾,j . c . c·l·贾尔斯·塔肯斯,和c . m . van den Bleek,“学习神经网络混沌吸引子,”神经计算,12卷,不。10日,2355 - 2383年,2000页。视图:出版商的网站|谷歌学术搜索
  18. z Zhaocoui和d先生“混沌时间序列分析基于径向基函数网络,”中国重庆大学学报,22卷,不。6,113 - 120年,1999页。视图:谷歌学术搜索
  19. h .梁、t . Lo和s .王”嘈杂的混沌时间序列预测使用最优radialbasis函数神经网络”IEEE神经网络,12卷,不。5,1163 - 1172年,2001页。视图:出版商的网站|谷歌学术搜索
  20. g·德科和m . Schurmann“神经学习混沌系统的行为,”IEICE交易基础,E77-A卷,不。11日,第1845 - 1840页,1994年。视图:谷歌学术搜索
  21. Thissen, r·范·Brakel a . p . de Weijer w . j . Melssen和l . m . c . Buydens”使用支持向量机进行时间序列预测,“化学计量学和智能实验室系统,卷69,不。1 - 2,35-49,2003页。视图:出版商的网站|谷歌学术搜索
  22. s a·比林斯和H.-L。魏,”一个新类小波网络的非线性系统辨识,”IEEE神经网络,16卷,不。4、862 - 874年,2005页。视图:出版商的网站|谷歌学术搜索
  23. m·汉j . Xi s徐,F.-L。阴”,根据复发预测混沌时间序列的预测神经网络”IEEE信号处理,52卷,不。12日,第3416 - 3409页,2004年。视图:出版商的网站|谷歌学术搜索
  24. a . Gholipour b . n . Araabi和c·卢卡斯,“预测混沌时间序列使用神经和neurofuzzy模型:比较研究,“神经处理信件,24卷,不。3、217 - 239年,2006页。视图:出版商的网站|谷歌学术搜索
  25. h .井上、y的巨大和h . Narihisa”高效的混合神经网络混沌时间序列预测,”人工神经网络的国际会议(ICANN的01)卷,2130在计算机科学的课堂讲稿施普林格,页712 - 718年,维也纳,奥地利,2001年8月。视图:出版商的网站|谷歌学术搜索
  26. m·汉m .风扇,j . Xi”研究基于神经网络的非线性多变量时间序列预测,”第二届国际研讨会神经网络(ISNN ' 05)卷,3497在计算机科学的课堂讲稿重庆,页618 - 623年,中国,2005年5月- 6月。视图:出版商的网站|谷歌学术搜索
  27. S.-Z。秦,H.-T。苏,t·j·麦卡沃伊”的比较四个动态系统辨识的神经网络学习方法,“IEEE神经网络,3卷,不。1,第130 - 122页,1992。视图:出版商的网站|谷歌学术搜索
  28. k . s . Naraendra和k .高”使用神经网络识别和控制的动态系统,”IEEE神经网络,1卷,不。1,速率,1990页。视图:出版商的网站|谷歌学术搜索
  29. 德穆斯和m .比尔”,使用MATLAB神经网络工具箱,“用户指南,4.0版本,MathWorks, Inc .,纳蒂克,质量,美国,2004年,http://www.mathworks.com视图:谷歌学术搜索
  30. g·f·富兰克林,j·d·鲍威尔和m . l .工人动力学系统的数字控制美国,addison - wesley,阅读,质量,第3版,1998年版。
  31. f . m .火腿和Kostanic,Neurocomputing对科学和工程的原则塔塔,麦格劳-希尔,新德里,印度,2002。
  32. b . de Vries和j·c·普林西比γ模型(一个新的神经模型对于时间处理,”神经网络,5卷,不。4、565 - 576年,1992页。视图:出版商的网站|谷歌学术搜索
  33. j·c·普林西比和n . r . Euliano通过模拟神经和自适应系统:基本约翰·威利& Sons,纽约,纽约,美国,2000年。
  34. m·c·麦基和l .玻璃,“生理控制系统振荡和混乱。”科学,卷197,不。4300年,第289 - 287页,1977年。视图:出版商的网站|谷歌学术搜索
  35. h . Nijmeijer和h . Berghuis李雅普诺夫杜芬方程的控制。”IEEE电路和系统,42卷,不。8,473 - 477年,1995页。视图:出版商的网站|谷歌学术搜索
  36. 美国你可以,”太阳活动周期的预测:非线性动力学的方法,”天文学和天体物理学,卷377,不。1,第320 - 312页,2001。视图:出版商的网站|谷歌学术搜索
  37. j·k·劳伦斯,a . c . Cadavid和a . a . Ruzmaikin“动荡和混沌动力学基础太阳磁场变化,“天体物理学杂志》上,第455卷,第366页,1995年。视图:出版商的网站|谷歌学术搜索
  38. 问:张”,平滑的非线性预测每月的太阳黑子数目,”天文学和天体物理学卷,310年,第650 - 646页,1996年。视图:谷歌学术搜索
  39. t·施赖伯“跨学科应用非线性时间序列的方法,”物理的报告,卷308,不。1,2 - 64年,1998页。视图:谷歌学术搜索
  40. http://sidc.oma.be/index.php3
  41. 美国大:亚伯拉罕,和c . o . Weiss”维度和熵的单模远红外混沌脉动强度 NH 3 激光。”物理评论一个,40卷,不。11日,第6365 - 6354页,1989年。视图:出版商的网站|谷歌学术搜索
  42. 诉Turchenko,“多参数传感器信号的仿真建模使用神经网络识别,”第二届IEEE国际会议上智能系统(04年),3卷,页48-53,瓦尔纳,保加利亚,2004年6月。视图:谷歌学术搜索
  43. G.-B。黄,Y.-Q。陈,h·a . Babri“单隐层前馈神经网络的分类能力,”IEEE神经网络,11卷,不。3、799 - 801年,2000页。视图:出版商的网站|谷歌学术搜索
  44. k w·李和h n Lam”最优前馈神经网络分级:案例研究,”第二届新西兰二束国际会议上人工神经网络和专家系统(anne ' 95)但尼丁,页71 - 82年,新西兰,1995年11月。视图:谷歌学术搜索

版权©2009 Sanjay l . Badjate和桑杰诉Dudul。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点1133年
下载626年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读