集中时间滞后(FTLR NN)与γ记忆递归神经网络滤波器是为了了解一个典型的装运箱的微妙复杂的动力学过程。连续搅拌釜反应器表现出复杂的非线性操作,反应是放热的。从文献回顾发现,过程控制装运箱使用神经模糊系统被许多尝试,但是装运箱优化神经网络模式识别过程还没有可用的。作为装运箱过程包括时间的输入输出映射关系,时间滞后尤其递归神经网络用于识别目的。标准的反向传播算法与动量词提出了这个模型。处理元素的各种参数如数量,数量的隐藏层,训练和测试比例,学习规则和隐层和输出层的传递函数研究的基础上,像MSE性能措施,NMSE和相关系数对测试数据集,最后影响不同的规范进行测试以及伽马内存的变化过滤器。这是证明了动态神经网络模型有一个显著的系统识别能力考虑的问题。因此FTLR与γ记忆神经网络滤波器可用于学习基础的高度非线性动力学系统,这是本文的主要贡献。
在任何生产过程中,哪里有发生化学变化,化学反应器的核心装置。在尺寸和外观,它可能似乎常常是一个最令人印象深刻的项目的设备,但其需求和性能通常是最重要的因素在整个工厂的设计。根据操作方式,反应堆被归类为分批或连续。在分批模式中,反应堆是带电的反应和产品被结束时的反应。在连续搅拌釜反应器(装运箱),故意引入一个搅拌器分散反应物彻底到反应混合物后立即进入水箱。搅拌釜反应器本质上是适合液相反应。搅拌釜反应器,由于大量的提供一个长时间的停留时间。结合等温反应器的性质,这允许运行在最佳的温度很长反应时间。因此,搅拌釜反应器曾以商业规模主要用于液相反应系统在低或中等压力。搅拌釜式反应器展品非线性操作反应是放热的。 Thus, performance prediction becomes difficult due to high degree of nonlinearity hence exact mathematical modeling is not possible. However, due to development of neural networks, it is possible to develop learning machine based on neural network model that can learn from available experimental data. Thus a system model can be constructed by estimating unknown plant parameters using neural networks (as discussed elsewhere [ 灵感来自人类大脑的结构和操作方式应该是,神经网络并行计算系统能够解决许多复杂问题等不同领域的模式识别、计算机视觉、机器人技术、控制和医疗诊断,只是一些(如讨论微积分( 本文进行了基于神经网络的识别和建模的一个典型的连续搅拌釜反应器使用集中等著名的神经网络时滞递归神经网络(FTLR NN)与γ记忆过滤器。最优模型估计的基础上性能措施MSE(均方误差),NMSE(归一化均方误差),<我nline-formula>
反应工程实验室的装运箱工程与技术学院Akola(马哈拉施特拉邦,印度)是用于实验。
它由通用汽车4000 rpm, 0.6, 220 - 230 V由雷米电机制造,孟买。输入/输出实验数据已通过严格的实验进行装运箱在实验室通过改变输入反应物从零到最大流量,和相应的输出(液体的浓度)为每个实例测试。仿真数据是383个样本。实际上这个过程是多输入单输出,输出变量浓度的液体和输入变量是搅拌速度、温度和流量。在这个实验中,随着搅拌速度和温度保持不变,其正常价值系统可以创建为单输入单输出(输出)。装运箱过程从互联网获得的另一个基准数据是由Jairo ESPINOSA ESAT-SISTA KULEUVEN, Kardinaal Mercierlaan 94 b - 3001, Heverlee,比利时。这里的过程是一个连续搅拌釜式反应器,反应放热和浓度由调节冷却液流控制。它由7500个样本。(“讨论其他地方( 作为输入输出映射过程展览时间关系,多功能FTLR NN模型尤其用于描述系统的行为。权重可调参数的系统,他们决心通过这一过程被称为训练一组示例。原型或训练数据通常被称为,是套输入和对应的期望输出。当神经网络训练,下一步是评估它。这是通过标准方法在统计独立的验证。该方法将数据划分为训练集和测试集,整个数据通常是随机的。训练数据下分裂成两个分区;第一个分区是用于更新网络的权重,第二个分区是用来评估(或交叉验证)训练的性能。然后使用测试数据来评估网络推广。的估计基于神经网络模型的学习和泛化能力评估的基础上确定绩效指标如NMSE、相关系数和回归神经网络的能力视觉检验回归特征不同的输出的系统研究(“讨论兰德和从事 均方误差的公式 归一化均方误差被定义为以下公式: 均方误差(MSE)的大小可以用来了解网络输出符合所需的输出,但它并不一定反映两组数据是否在同一方向移动。例如,通过扩展网络的输出,我们可以改变MSE的方向不改变的数据。相关系数(<我nline-formula>
有一个时间结构底层收集经过严格的试验数据,动态建模肯定会帮助提高性能。动态NNs拓扑设计明确地包含了时间的输入输出映射关系。时间是不可或缺的组成部分的学习过程。通过将时间生效的神经网络启用跟踪统计变化的非平稳过程。复发时间滞后网络(TLRNs)与短期记忆mlp扩展结构。在这里,一个“静态”神经网络(例如,MLP)具有动态属性(如讨论Dudul [ 中长期规划的输入处理元素替换为抽头延迟线,紧随其后的是一个MLP神经网络。这种拓扑称为集中时滞神经网络(TDNN)。集中拓扑仅包括内存内核连接到输入层。这种方式,只记得过去的输入。集中的延迟线TDNN商店过去样本的输入。抽头延迟线和权重的组合连接水龙头的PEs第一隐层是简单线性组合器静态非线性紧随其后。
通常,γ短期记忆机制结合非线性PEs在限制拓扑叫做专注。基本上,第一层集中TDNN的过滤层,尽可能多的自适应滤波器PEs在第一隐层。线性组合器的输出通过一个非线性的隐层(PE),然后进一步处理的后续层延时的系统识别,目标是找到最匹配的重量,产生一个网络输出当前系统的输出相结合的信息现在和一个预定义的过去的样本数目(由抽头延迟线的大小)。
记忆层的大小取决于所需的过去的样本数目来描述输入特征。这个数字取决于输入的特点和任务。这集中TDNN仍然可以与静态反向传播训练,提供所需的信号在每个时间步是可用的。这是因为抽头延迟线在输入层没有任何自由参数,所以唯一的自适应参数静态前馈路径。
许多输入内存PE接收一般<我nline-formula>
完全复发性网络反馈隐藏层本身。部分周期性网络开始完全复发净和添加一个前馈连接,绕过了可能出现,有效治疗复发性作为一个国家一部分内存。这些周期性网络可以有无限的记忆深度,从而找到关系通过时间以及瞬时输入空间。最真实的数据包含在它的时间结构信息。复发性网络艺术的状态非线性时间序列预测、系统识别、分类和时间模式。
有四个输入层结构可供选择。如果您的数据是多维的,你应该先尝试一个简单的轴突。如果您的数据是一维时间序列,然后使用一个内存轴突。周期性结构有两种可供选择。完全周期性结构连接第一隐层本身通过周期性的突触连接。部分周期性结构增加了一个前馈连接,通过一个突触,从输入轴突层后1日隐藏层。在这种情况下,周期性结构作为前馈结构状态。
一个详尽的和认真的进行了试验研究,以确定最优的配置不同的神经网络模型。所有可能的变化正试图决定隐藏层数和每个隐层神经元的数量的基础上性能的措施。训练和测试的范例的百分比然后变化得到最佳training-testing范本为每个神经网络模型。监督学习规则,不同的传输函数和不同的传输函数在输出层进行模拟。最后的影响不同的规范进行测试来决定最优的神经网络模型。细致的检查后的性能措施MSE, NMSE,相关系数,和回归神经网络模型对测试数据集的能力,决定模型的最优参数列在表中 参数FTLR NN (Lab.数据)。原型:训练= 268,测试= 115,马克斯epoh = 1000,专注,γ,规范<我nline-formula>
参数完全复发性神经网络(Lab.数据)。原型:训练= 306,测试= 77,马克斯epoh = 1000, memory-axon、规范<我nline-formula>
参数FTLR NN(基准数据)。原型:训练= 3000,测试= 4500,马克斯epoh = 1000,部分复发,γ,规范<我nline-formula>
参数完全复发性神经网络(基准数据)。原型:训练= 3000,测试= 4500,马克斯epoh = 1000,部分复发,γ,规范<我nline-formula>
老不。
参数
隐层# 1
输出层
1
处理元素
42
1
2
传递函数
谭h
谭h
3
学习规则
动力
动力
4
步长
0.1
0.1
5
动力
0.7
0.7
老不。
参数
隐层# 1
输出层
1
处理元素
18
1
2
传递函数
谭h
谭h
3
学习规则
动力
动力
4
步长
0.1
0.1
5
动力
0.7
0.7
老不。
参数
隐层# 1
输出层
1
处理元素
39
1
2
传递函数
谭h
乙状结肠
3
学习规则
dbd
dbd
老不。
参数
隐藏的图层1
隐藏层2
输出层
1
神经元
16
27
1
2
传递函数
谭h
谭h
线性tan h
3
学习规则
dbd
dbd
dbd
严格的实验研究已经进行为了确定射线参数的最优值。每一个变化,网络运行与不同的随机weight-initialization三次。在计算机模拟中,γ参数渐变从0.0到1.8的区间为0.1,同时保持其他参数FTLRNN名义上的默认值。画在γ参数变化的结果数据 连续搅拌釜反应器。
选择γ(装运箱lab.数据)。
选择伽马(装运箱基准数据)。
数据 神经网络模型的比较。
期望输出与网络输出测试数据集(FTLR NN model-Lab。数据)。
期望输出与网络输出测试数据集(完全复发NN model-Lab。数据)。
期望输出与网络输出测试数据集(FTLR NN模型基准数据)。
期望输出与网络输出测试数据集(完全复发性神经网络模型基准数据)。
神经网络模型
性能措施测试数据集
装运箱的实验室数据
基准装运箱数据
均方误差
NMSE
均方误差
NMSE
FTLR与γ记忆神经网络
1.13 e−05
0.470
0.9132
1.40 e−06
0.00777
0.9961
完全复发性神经网络
8.01 e−06
0.754
0.702
4.15 e−06
0.0230
0.988
看到FTLR NN模型能够学习两个装运箱的非线性动力学过程。在这篇文章中,它是证明FTLR NN模型与γ内存过滤器非常密切跟踪期望输出值装运箱过程的测试实例。从显示的结果,发现FTLR NN模型与γ记忆过滤为实验室数据为1.1和0.5为净数据有优势完全复发时神经网络模型的性能措施和目视检查回归特征考虑在内。因此得出结论,使用神经网络识别装运箱过程,FTLR NN模型与γ记忆过滤器可以用来学习基础的高度非线性动力学系统,是本文的主要贡献。