图1 BP神经网络结构 2.1 基本算法 BP算法主要包含4步,分为向前传播跟向后传布两个阶段: 1)向前流传阶段 (1)从样本集中取一个样本(Xp,Yp),将Xp输入网络; (2)打算相应的实际输出Op 在此阶段,信息从输入层经过逐级的变换,传递到输出层。这个进程也是网络在实现训练后畸形运行时的实行过程。 2)向后传播阶段 (1)计算实际输出Op与相应的空想输出Yp的差; (2)按极小化误差的办法调解权矩阵。 这两个阶段的工作受到精度恳求的操纵,在这里取 作为网络对于第p个样本的误差测度,而将网络对于全体样本集的误差测度定义为 。图2是基本BP算法的流程图。
图2 BP基本算法流程 2.2 动态BP神经网络预测算法 在经典的BP算法以及其余的练习算法中都有很多变量,这些训练算法可能判断一个ANN结构,它们只训练固定结构的ANN权值(包括联接权值和结点转换函数)。在自动设计ANN结构方面,也已有较多的尝试论文代写,比喻构造性算法和剪枝算法。前一种是先随机化网络,而后在训练过程中有必要地增长新的层和结点;而剪枝法令正好相反。文献[2]中提出了演化神经网络的理念,并把EP算法与BP进行了组合演化;也有很多学者把遗传算法和BP进行结合,但这些算法都以时间复杂度以及空间庞杂度的增加为代价。根据Kolmogorov定理,对任意给定的L2型连续函数f: [ 0, 1 ]n →Rm , f可以正确地用一个三层前向神经网络来实现,因而可以只考虑演化网络的权值和结点数而不影响演化结果。基于此,在BP原有算法的基本上,增添结点数演化因子,而后记载每层因子各异时演化出的结构,最后选取最优的因子及其网络结构,这样就能够避免由于增加或剪枝得到的部分最优。根据实验获悉,不同的猜想精度也影响网络层神经元的结点数,所以可根据请求动态地建破预测系统。具体步骤如下: (1)将输入向量和目标向量进行归一化处理。 (2)读取输入向量、目的向量,记录输入维数m、输出层结点数n。 (3)当训练集确定之后,输入层结点数和输出层结点数随之而肯定,首先遇到的一个十分重要而又艰难的问题是如何优化隐层结点数和隐层数。试验表明,如果隐层结点数过少,网络不能存在必要的学习能力和信息处理才干。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其主要)毕业论文,网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的决定问题始终受到神经网络研究工作者的高度重视。Gorman指出隐层结点数s与模式数N的关系是:s=log2N;Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);而依据文献[7]:s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51[7]。 (4)设置结点数演变因子a。为了快速建立网络,可以对其向量初始化,
摘 要 人工神经网络是一种新的数学建模方法,它存在通过学习逼近任意非线性映射的能力。本文提出了一种基于动态BP神经网络的预测方式,阐述了其基本原理,并以典范实例验证。 关键字 神经网络,BP模型,预测 1 引言 在系统建模、辨识和预测中,对于线性系统职称论文,在频域,传递函数矩阵可以很好地表白系统的黑箱式输入输出模型;在时域,Box-Jenkins方法、回归分析措施、ARMA模型等,通过各种参数估计方法也可以给出描述。对非线性时光序列预测系统,双线性模型、门限自回归模型、ARCH模型都须要在对数据的内在法令知道不久的情况下对序列间关系进行假设。可以说传统的非线性系统预测,在实际研讨跟实际应用方面,都存在极大的困难。比较之下,神经网络可以在不理解输入或输出变量间关系的前提下实现非线性建模[4,6]。神经元、神经网络都有非线性、非局域性、非定常性、非凸性和混沌等特点,与各种预测方式有机联合领有很好的发展前景,也给预测系统带来了新的方向与冲破。建模算法和预测系统的牢固性、动态性等研究成为当今热点问题。目前在系统建模与猜测中,利用最多的是静态的多层前向神经网络,这重要是因为这种网络具备通过学习迫近任意非线性映射的能力。应用静态的多层前向神经网络树立系统的输入/输出模型,本质上就是基于网络逼近才能,通过学习获知系统差分方程中的非线性函数。但在实际运用中,需要建模和预测的多为非线性动态系统,利用静态的多层前向神经网络必须当时给定模型的阶次,即预先断定体系的模型,这一点非常难做到。近来,有关基于动态网络的建模和预测的研究,代表了神经网络建模和预测新的发展方向。 2 BP神经网络模型 BP网络是采取Widrow-Hoff学习算法和非线性可微转移函数的多层网络。典型的BP算法采用梯度下降法论文,也就是Widrow-Hoff算法。当初有良多基础的优化算法,例如变尺度算法和牛顿算法。如图1所示,BP神经网络包括以下单元:①处理单元(神经元)(图中用圆圈表示),即神经网络的根本组成局部。输入层的处理单元只是将输入值转入相邻的联接权重,隐层和输出层的处理单元将它们的输入值求和并根据转移函数盘算输出值。②联接权重(图中如V,W)。它将神经网络中的处理单元联系起来代写毕业论文,其值随各处理单元的联接程度而变革。③层。神经网络个别具备输入层x、隐层y和输出层o。④阈值。其值可为恒值或可变值,它可使网络能更自由地获取所要描写的函数关联。⑤转移函数F。它是将输入的数据转化为输出的处置单元,通常为非线性函数。
“基于动态BP神经网络的猜想方法及其应用(1)”版权归作者所有,转载请著名出处。