http://www.5alw.com- 我爱论文网

网站资讯通告:我爱论文网提供论文代写,发表论文,代写毕业论文,代写硕士论文,职称论文发表等论文相关服务。
搜索: 您现在的位置: 我爱论文网 >> 论文考试 >> 毕业论文 >> 教育技术论文 >> 正文

基于动态BP神经网络的猜测方式及其利用

作者:admin    论文来源:本站原创    点击数:    更新时间:2011-11-21
1 引言     在系统建模、辨识跟预测中,对于线性系统,在频域,传递函数矩阵可以很好地表白系统的黑箱式输入输出模型;在时域,Box-Jenkins办法、回归 剖析 方法、ARMA模型等论文代写,通过各种参数估量方法也能够给出描述。对非线性时光序列预测系统,双线性模型、门限自回归模型、ARCH模型都须要在对数据的内在 法则 晓得未几的情形下对序列间关联进行假设。可以说传统的非线性系统预测,在 实践 研讨 和实际 利用 方面,都存在极大的艰苦。比拟之下,神经网络可以在不懂得输入或输出变量间关系的条件下实现非线性建模[4,6]。神经元、神经网络都有非线性、非局域性、非定常性、非凸性和混沌等特征,与各种预测方式有机联合具备很好的 发展 远景,也给预测系统带来了新的方向与冲破。建模算法和预测系统的稳固性、动态性等研究成为当今热门 问题 。 目前 在系统建模与猜测中,运用最多的是静态的多层前向神经网络,这重要是由于这种网络拥有通过学习迫近任意非线性映射的能力。应用静态的多层前向神经网络树立系统的输入/输出模型,实质上就是基于网络迫临才能,通过学习获知体系差分方程中的非线性函数。但在实际应用中,需要建模和预测的多为非线性动态系统,利用静态的多层前向神经网络必需当时给定模型的阶次,即预先断定系统的模型,这一点十分难做到。近来代写职称论文,有关基于动态网络的建模和预测的研究,代表了神经网络建模和预测新的发展方向。 2  BP神经网络模型     BP网络是采用Widrow-Hoff学习算法和非线性可微转移函数的多层网络。典范的BP算法采取梯度降落法,也就是Widrow-Hoff算法。当初有很多基础的优化算法,例如变标准算法和牛顿算法。如图1所示,BP神经网络包含以下单元:①处理单元(神经元)(图顶用圆圈表现),即神经网络的根本组成局部。输入层的处理单元只是将输入值转入相邻的联接权重毕业论文,隐层和输出层的处理单元将它们的输入值乞降并依据转移函数 盘算 输出值。②联接权重(图中如V,W)。它将神经网络中的处置单元接洽起来,其值随各处理单元的联接水平而变更。③层。神经网络个别存在输入层x、隐层y和输出层o。④阈值。其值可为恒值或可变值,它可使网络能更自在地获取所要描写的函数关系。⑤转移函数F。它是将输入的数据转化为输出的处理单元,通常为非线性函数。

图1 BP神经网络构造 2.1 基本算法     BP算法主要包括4步,分为向前传布和向后传播两个阶段:     1)向前流传阶段     (1)从样本集中取一个样本(Xp,Yp),将Xp输入网络;     (2)计算相应的实际输出Op     在此阶段,信息从输入层经由逐级的变换,传递到输出层。这个进程也是网络在完成练习后畸形运行时的履行过程。     2)向后传播阶段     (1)计算实际输出Op与相应的幻想输出Yp的差;     (2)按极小化误差的方法调剂权矩阵。     这两个阶段的工作受到精度请求的把持,在这里取 作为网络对于第p个样本的误差测度,而将网络关于全部样本集的误差测度定义为 。图2是基本BP算法的流程图。

图2 BP基本算法流程 2.2  动态BP神经网络预测算法     在经典的BP算法以及其余的训练算法中都有良多变量,这些训练算法可以确定一个ANN结构,它们只训练固定结构的ANN权值(包括联接权值和结点转换函数)。在主动设计ANN结构方面,也已有较多的尝试,比方结构性算法和剪枝算法。前一种是先随机化网络,而后在训练过程中有必要地增添新的层和结点;而剪枝法令正好相反。 文献 [2]中提出了演化神经网络的理念,并把EP算法与BP进行了组合演化;也有许多学者把遗传算法和BP进行结合,但这些算法都以时间庞杂度以及空间复杂度的增长为代价。根据Kolmogorov定理,对于任意给定的L2型持续函数f: [ 0, 1 ]n →Rm , f可以准确地用一个三层前向神经网络来实现,因此可以只斟酌演化网络的权值和结点数而不 影响 演化成果。基于此,在BP原有算法的基本上,增加结点数演化因子,然后记载每层因子各异时演化出的结构,最后选取最优的因子及其网络结构,这样就可以防止因为增加或剪枝得到的部分最优。根据实验得悉,不同的预测精度也影响网络层神经元的结点数,所以可根据要求动态地建立预测系统。详细步骤如下:     (1)将输入向量和目标向量进行归一化处理。     (2)读取输入向量、目的向量,记载输入维数m、输出层结点数n。     (3)当训练集肯定之后,输入层结点数和输出层结点数随之而确定,首先碰到的一个非常主要而又难题的问题是如何优化隐层结点数和隐层数。试验表明,假如隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的抉择问题始终受到神经网络研究工作者的高度器重。Gorman指出隐层结点数s与模式数N的关系是:s=log2N;Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数)?论文;而根据文献[7]:s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51[7]代写毕业论文。     (4)设置结点数演变因子a。为了疾速建破网络,可以对其向量初始化,
“基于动态BP神经网络的猜测方式及其利用”版权归作者所有,转载请著名出处。  
Tags:全部  
责任编辑:admin

联系方式

我爱论文网提供毕业论文代写,职称论文发表等相关论文服务,如有需要请通过下面的联系方式联系我们:
如需通过企业QQ咨询请点击
我们的专用企业QQ号码是:4000290153
电话咨询请拨打免费电话:400-029-0153
邮件咨询地址:4000290153@b.qq.com
  • 此栏目下没有推荐论文
  • 此栏目下没有热点论文
设为首页 | 加入收藏 | 友情链接 | 版权申明 | 网站地图