《考拉BP神经网络的matlab实现学习历程》_第1页
《考拉BP神经网络的matlab实现学习历程》_第2页
《考拉BP神经网络的matlab实现学习历程》_第3页
《考拉BP神经网络的matlab实现学习历程》_第4页
《考拉BP神经网络的matlab实现学习历程》_第5页
已阅读5页,还剩20页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、这两天在学习bp,总结和汇报一下,和大家一起学习。希望初入神经网络能有所收获,给新手一些帮组和启发。也希望熟悉bp的高手,多提宝贵意见和建议。 学习内容总结成五个小节,具体内容如下:第一节内容:包括神经网络的基础知识,BP网络的特点,bp主要应用的场合,使用时应注意的问题。第二节内容:主要是阐述BP中几个容易混绕的概念和问题,包括什么是网络的泛化能力?过拟合是什么,怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用BP逼近非线性函数,如何提高训练精度?第三节内容:主要阐述使用matlab实现,为了充分利用数据,得到最优的网络训练结果,在网络建立前,应该进行的基本数

2、据处理问题,包括:BP神经网络matlab实现的基本步骤,数据归一化问题和方法,输入训练数据的乱序排法,以及分类方法,如何查看和保存训练的结果,每次结果不一样问题。第四节内容:bp神经网络进行交通预测的Matlab例子及源代码,bp神经网络进行交通预测的Matlab程序的优化(主要是按设置误差要求,寻找最优网络过程)第五节内容:bp神经网络处理蠓虫分类问题的matlab例子及源代码。不多说,先如主题,第一节,很基础,高手见谅。什么是神经网络?神经网络是由很多神经元组成的,首先我们看一下,什么是神经元 上面这个图表示的就是一个神经元,我们不管其它书上说的那些什么树突,轴突的。我用个比较

3、粗浅的解释,可能不太全面科学,但对初学者很容易理解:1、我们把输入信号看成你在matlab中需要输入的数据,输进去神经网络后2、这些数据的每一个都会被乘个数,即权值w,然后这些东东与阀值b相加后求和得到u,3、上面只是线性变化,为了达到能处理非线性的目的,u做了个变换,变换的规则和传输函数有关可能还有人问,那么那个阀值是什么呢?简单理解就是让这些数据做了个平移,这就是神经元工作的过程。处理后的结果又作为输入,可输给别的神经元,很多这样的神经元,就组成了网络。在matlab中具体用什么算法实现这些,我们先不管,我们需要注意的是怎么使用。比如使用BP的神经网络newff()构建一个网络,这些在后面

4、的学习将提到。BP网络的特点网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题。我们无需建立模型,或了解其内部过程,只需输入,获得输出。只要BPNN结构优秀,一般20个输入函数以下的问题都能在50000次的学习以内收敛到最低误差附近。而且理论上,一个三层的神经网络,能够以任意精度逼近给定的函数,这是非常诱人的期望;网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力;网络具有一定的推广、概括能力。bp主要应用回归预测(可以进行拟合,数据处理分析,事物预测,控制等)、 分类识别

5、(进行类型划分,模式识别等),在后面的学习中,我都将给出实例程序。但无论那种网络,什么方法,解决问题的精确度都无法打到100%的,但并不影响其使用,因为现实中很多复杂的问题,精确的解释是毫无意义的,有意义的解析必定会损失精度。BP注意问题1、BP算法的学习速度很慢,其原因主要有:a 由于BP算法本质上为梯度下降法,而它所要优化的目标函数又非常复杂,因此,必然会出现“锯齿形现象”,这使得BP算法低效;b 存在麻痹现象,由于优化的目标函数很复杂,它必然会在神经元输出接近0或1的情况下,出现一些平坦区,在这些区域内,权值误差改变很小,使训练过程几乎停顿;c 为了使网络执行BP算法,不能用传统的一维搜

6、索法求每次迭代的步长,而必须把步长的更新规则预先赋予网络,这种方法将引起算法低效。2、网络训练失败的可能性较大,其原因有:a 从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求解复杂非线性函数的全局极值,因此,算法很有可能陷入局部极值,使训练失败;b 网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取典型样本实例组成训练集是一个很困难的问题。3、网络结构的选择:尚无一种统一而完整的理论指导,一般只能由经验选定。为此,有人称神经网络的结构选择为一种艺术。而网络的结构直接影响网络的逼近能力及推广性质。因此,应用中如何选择合适的网络结构是一个重要的问题。4、新加入的样本

7、要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同。5、采用s型激活函数,由于输出层各神经元的理想输出值只能接近于1或0,而不能打到1或0,因此设置各训练样本的期望输出分量Tkp时,不能设置为1或0,设置0.9或0.1较为适宜。本节主要学习BP中几个容易混绕的概念和问题:什么是网络的泛化能力?过拟合是什么,怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用BP逼近非线性函数,如何提高训练精度?什么是网络的泛化能力?一个神经网路是否优良,与传统最小二乘之类的拟合评价不同(主要依据残差,拟合优度等),不是体现在其对已有的数据拟合能力上,而是对后来的预测能力,既泛

8、化能力。网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛盾。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力地提高,预测能力也提高。但这种趋势有一个极限,当达到此极限时,随训练能力的提高,预测能力反而下降,即出现所谓“过拟合”现象。此时,网络学习了过多的样本细节,而不能反映样本内含的规律。过拟合是什么,怎么处理?神经网络计算不能一味地追求训练误差最小,这样很容易出现“过拟合”现象,只要能够实时检测误差率的变化就可以确定最佳的训练次数,比如15000次左右的学习次数,如果你不观察,设成500000次学习,不仅需要很长时间来跑,而且最后结果肯定令人

9、大失所望。避免过拟合的一种方法是:在数据输入中,给训练的数据分类,分为正常训练用、变量数据、测试数据,在后面节将讲到如何进行这种分类。其中变量数据,在网络训练中,起到的作用就是防止过拟合状态。学习速率有什么作用?学习速率这个参数可以控制能量函数的步幅,并且如果设为自动调整的话,可以在误差率经过快速下降后,将学习速率变慢,从而增加BPNN的稳定性。此时训练方法采用1. net.trainFcn = 'traingda' % 变学习率梯度下降算法2. net.trainFcn = 'traingdx' % 变学习率动量梯度下降算法复制代码可以定义一个变动的学习速率,

10、如1. p = -1 -1 2 2; 0 5 0 5;2. t = -1 -1 1 1;3. net = newff(p,t,3,'traingda');4. net.trainParam.lr = 0.05;5. net.trainParam.lr_inc = 1.05;6. net = train(net,p,t);7. y = sim(net,p)复制代码在后面的拟合例题中,我们也将用到学习速率这个参数。神经网络的权值和阈值分别是个什么概念?第一节中,我们已经谈到了权值和阀值的概念。这里我们更深入的说明一下,因为他们很重要,关系到网络最后的结果。权值和阈值是神经元之间的连

11、接,将数据输入计算出一个输出,然后与实际输出比较,误差反传,不断调整权值和阈值。假如下面两个点属于不同的类,须设计分类器将他们分开p1=1 1 -1'p2=1 -1 -1'这里用单层神经元感知器,假设初始权值1. w=0.2 0.2 0.3复制代码同时假设初始阀值1. b=-0.3复制代码输出 a1 a21. a1=hardlims(w*p1+b)2. a2=hardlims(w*p2+b)复制代码如果不能分开,还须不断调整w,b用BP逼近非线性函数,如何提高训练精度(1)调整网络结构增加网络的层数可以进一步降低误差,提高精度但会使网络复杂化,从而增加网络的训练时间。精度的提高

12、实际上也可以通过增加隐层神经元的数目来获得,其效果更容易观察和掌握,所以应优先考虑。(2)初始值选取为了使误差尽可能小 ,需要合理选择初始权重和偏置,如果太大就容易陷入饱和区,导致停顿 。一般应选为均匀分布的小数,介于 (-1,1) 。(3)学习速率调整学习速率的选取很重要 ,大了可能导致系统不稳定,小了会导致训练周期过长、收敛慢,达不到要求的误差。一般倾向于选取较小的学习速率以保持系统稳定,通过观察误差下降曲线来判断。下降较快说明学习率比较合适,若有较大振荡则说明学习率偏大。同时,由于网络规模大小的不同,学习率选择应当针对其进行调整。采用变学习速率的方案,令学习速率随学习进展而逐步减少,可收

13、到良好的效果。(4)期望误差期望误差当然希望越小越好,但是也要有合适值。本节主要学习使用matlab实现bp算法的一般步骤和过程。为了充分利用数据,得到最优的网络训练结果,在网络建立前应该进行的基本数据处理问题,包括:(1)BP神经网络matlab实现的基本步骤(2)数据归一化问题和方法(3)输入训练数据的乱序排法,以及分类方法(4)如何查看和保存训练的结果(5)每次结果不一样问题。用matlab实现bp,其实很简单,按下面步骤基本可以了BP神经网络matlab实现的基本步骤1、数据归一化2、数据分类,主要包括打乱数据顺序,抽取正常训练用数据、变量数据、测试数据3、建立神经网络,包括设置多少层

14、网络(一般3层以内既可以,每层的节点数(具体节点数,尚无科学的模型和公式方法确定,可采用试凑法,但输出层的节点数应和需要输出的量个数相等),设置隐含层的传输函数等。关于网络具体建立使用方法,在后几节的例子中将会说到。4、指定训练参数进行训练,这步非常重要,在例子中,将详细进行说明5、完成训练后,就可以调用训练结果,输入测试数据,进行测试6、数据进行反归一化7、误差分析、结果预测或分类,作图等数据归一化问题归一化的意义:首先说一下,在工程应用领域中,应用BP网络的好坏最关键的仍然是输入特征选择和训练样本集的准备,若样本集代表性差、矛盾样本多、数据归一化存在问题,那么,使用多复杂的综合算法、多精致

15、的网络结构,建立起来的模型预测效果不会多好。若想取得实际有价值的应用效果,从最基础的数据整理工作做起吧,会少走弯路的。归一化是为了加快训练网络的收敛性,具体做法是:1 把数变为(0,1)之间的小数主要是为了数据处理方便提出来的,把数据映射到01范围之内处理,更加便捷快速,应该归到数字信号处理范畴之内。2 把有量纲表达式变为无量纲表达式归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量比如,复数阻抗可以归一化书写:Z = R + jL = R(1 + jL/R) ,复数部分变成了纯数量了,没有量纲。另外,微波之中也就是电路分析、信号系统、电磁波传输等,有很多运

16、算都可以如此处理,既保证了运算的便捷,又能凸现出物理量的本质含义。神经网络归一化方法:由于采集的各数据单位不一致,因而须对数据进行-1,1归一化处理,归一化方法主要有如下几种,供大家参考:1、线性函数转换,表达式如下:1. y=(x-MinValue)/(MaxValue-MinValue)复制代码说明:x、y分别为转换前、后的值,MaxValue、MinValue分别为样本的最大值和最小值。2、对数函数转换,表达式如下:1. y=log10(x)复制代码说明:以10为底的对数函数转换。3、反余切函数转换,表达式如下:1. y=atan(x)*2/PI复制代码matlab中归一化的实现:mat

17、lab中的归一化处理有五种方法,只会其中一种就可以了,我喜欢用第4种,因为习惯和方便注意:第一组和第二组归一化函数在Matlab7.0以上已遗弃,他们的用法相似,pre*是归一化,post*是反归一化,tram*是使用同样的设置归一化另外一组数据1. 内部函数premnmx、postmnmx、tramnmx,将数据归一化到(-1,1)premnmx的语法格式是1. :Pn,minp,maxp,Tn,mint,maxt=premnmx(P,T)复制代码其中P,T分别为原始输入和输出数据,minp和maxp分别为P中的最小值和最大值。mint和maxt分别为T的最小值和最大值。我们在训练网络时,如

18、果所用的是经过归一化的样本数据,那么以后使用网络时所用的新数据也应该和样本数据接受相同的预处理,这就要用到tramnmx,换句话说使用同一个归一化设置(setting)归一化另外一组数据。如下所示:1. Pn=tramnmx(P,minp,maxp)复制代码其中P和Pn分别为变换前、后的输入数据,maxp和minp分别为premnmx函返回的最大值maxp和最小值minp。2、prestd、poststd、trastd归化数据到(0,1)用法与1差不多。详细可以help prestd。上述两种方法是可以相互转化的,比如,第一种归化后的数据为p,则(1+p)./2的结果就是第二种了3、mapmi

19、nmax()将数据归一化到(-1,1),是6.5中*mnmx系列的替换函数该函数同时可以执行归一化、反归一化和归一化其他数据的功能,具体看帮助和后面的实例1. % 归一化数据输入为p,输出为t2. normInput,ps = mapminmax(p);3. normTarget,ts = mapminmax(t);4.5. % 反归一化6. trainOutput = mapminmax('reverse',normTrainOutput,ts);7. trainInsect = mapminmax('reverse',trainSamples.T,ts);8

20、. validateOutput = mapminmax('reverse',normValidateOutput,ts);9. validateInsect = mapminmax('reverse',validateSamples.T,ts);10. testOutput = mapminmax('reverse',normTestOutput,ts);11. testInsect = mapminmax('reverse',testSamples.T,ts);12.13. %例子:14. x1 = 1 2 4; 1 1 1;

21、 3 2 2; 0 0 015. y1,PS = mapminmax(x1,0,1)% 归化到 0,1,若不填,则默认为-1,116.17. %还原:18. x1_again = mapminmax('reverse',y1,PS)复制代码4、mapstd()将数据归一化到(0,1),是6.5中*std系列的替代函数同理,3和4两种方法是可以相互转化的,比如,第一种归化后的数据为p,则(1+p)./2的结果就是第二种了。5、自己写归一化函数,这个网上很多,大家可以百度下输入训练数据的乱序排法,以及分类注意:dividevec()函数在7.6版本还可以使用把数据重新打乱顺序,进行

22、输入,可以让数据更加具备典型性和更优良的泛化能力!把数据进行打乱,并分类为:训练输入数据、变量数据、测试数据的方法我用百度搜了一下,发现有些方法,但居然很少看到使用matlab内部函数直接进行的,其实matlab自带的内部函数dividevec,完全能胜任上述工作,推荐!但这个存在一个问题是,因为打乱了,最后分析结果的时候,数据重新排列困难,因为丢失了数据在数组中的位置参数。具体用法可以参见下面我的bp交通预测的例子。因为我用的7.0版本,Neural Network Toolbox Version 5.0.2  (R2007a)昨天,我去mathworks公司查看了一下n

23、net的新手册,上述问题得到了解决,里面视乎没有介绍dividverc这个函数了,但增加了新的函数来完成上述功能,并返回标号(手头没装新版本Neural Network Toolbox  Version 6.0  (R2008a)),看guide大概是这个意思(有新版本的,可以试一下,这个函数是不是这个意思):divideblock,divideind,divideint和dividerand上述函数,用法和功能基本相同,只是打乱的方法不一样,分别是block方法抽取、按数组标号自定义抽取、交错索引抽取和随机抽。下面以divideblock为例,讲解其基

24、本用法:1. trainV,valV,testV,trainInd,valInd,testInd =divideblock(allV,trainRatio,valRatio,testRatio)2.3. 训练数据,变量数据,测试数据,训练数据矩阵的标号,变量数据标号,测试数据标号 =divideblock(所有数据,训练数据百分比,变量数据百分比,测试数据百分比)复制代码其实dividevec和后面四个分类函数的区别在于,dividevec一般直接在Matlab代码中调用。而后面四个函数是通过设置网络的divideFcn函数来实现,比如,net.divideFcn='divideblo

25、ck',但不是说不可以在代码中像dividevec直接调用如何查看和保存结果训练好的权值、阈值的输出方法是:输入到隐层权值:1. w1=net.iw1,1复制代码隐层阈值:1. theta1=net.b1复制代码隐层到输出层权值:1. w2=net.lw2,1;复制代码输出层阈值:1. theta2=net.b2复制代码训练好的BP神经网络保存:1. %保存2. save file_name net_name%Matlab自动将网络保存为mat数据文件,下次使用时可以直接载入3. %载入4. load file_name复制代码每次结果不一样问题因为每次初始化网络时都是随机的,而且训练

26、终止时的误差也不完全相同,结果训练后的权植和阀也不完全相同(大致是一样的),所以每次训练后的结果也略有不同。找到比较好的结果后,用命令save filen_ame net_name保存网络,可使预测的结果不会变化,在需要的调用时用命令load filename载入。关于如何找到比较好的结果,进行保存,可以设置误差,在循环中保存,具体使用可以参看bp交通预测优化后的例子根据前面三节的学习内容,可以基本编写一个BP神经网络,来处理一些问题了。下面我给出一个bp神经网络进行交通预测的Matlab源代码,里面备有较为详细的注释,供给初学者!1. %bp神经网络进行交通预测的Matlab源代码2. %

27、BP 神经网络用于预测3. % 使用平台 - Matlab7.04. % 数据为1986年到2000年的交通量 ,网络为3输入,1输出5. % 15组数据,其中9组为正常训练数据,3组为变量数据,3组为测试数据6. %by akjuan7. %all rights preserved by 8. %2008.119.10. clc11. clear12.13. %-14. %原始数据15. %-16. year=1986:2000;%数据是从1986到2000年的17.18. p=493 372 445;372 445 176;445 176 235;176 235 378;235 378 4

28、29;.19.    378 429 561;429 561 651;561 651 467;651 467 527;467 527 668;.20.    527 668 841; 668 841 526;841 526 480;526 480 567;480 567 685'%输入数据,共15组,每组3个输入21. t=176 235 378 429 561 651 467 527 668 841 526 480 567 685 507;%输出数据,共15组,每组1个输出22.23.24. %-25. %数据归一化处理26. %mapminm

29、ax函数默认将数据归一化到-1,1,调用形式如下27. %y,ps =%mapminmax(x,ymin,ymax)28. %x需归化的数据输入29. %ymin,ymax为需归化到的范围,不填默认为归化到-1,130. %y归一化后的样本数据31. %ps处理设置,ps主要在结果反归一化中需要调用,或者使用同样的settings归一化另外一组数据32. %-33. normInput,ps = mapminmax(p);34. normTarget,ts = mapminmax(t);35.36.37. %-38. %数据乱序,及分类处理39. %将输入的15组数据的20%,即3组,用来作为

30、测试数据;40. % 样本的20%,即3组,用来作为变化数据;41. %另外9组用来正常输入,用来训练;42. %dividevec()用来重新随机抽取上述三种分类的数据,原来的顺序被打乱43. %函数调用的语法44. %trainV,valV,testV = dividevec(p,t,valPercent,testPercent)45. %输入p为输入数据,t为输出数据46. %valPercent为训练用的变化数据在总输入中的百分比47. %testPercent为训练用的测试数据在总输入中的百分比48. %输出trainV,valV,testV分别为按乱序及相应百分比,抽取得到的数据4

31、9. %另外,打乱后的数据,p和t都是对应的,请放心使用50. %-51. testPercent = 0.20;  % Adjust as desired52. validatePercent = 0.20;  % Adust as desired53. trainSamples,validateSamples,testSamples = dividevec(normInput,normTarget,validatePercent,testPercent);54.55.56. %-57. % 设置网络参数58. %-   59. N

32、odeNum1 = 20; % 隐层第一层节点数60. NodeNum2=40;   % 隐层第二层节点数61. TypeNum = 1;   % 输出维数62.63. TF1 = 'tansig'TF2 = 'tansig' TF3 = 'tansig'%各层传输函数,TF3为输出层传输函数64. %如果训练结果不理想,可以尝试更改传输函数,以下这些是各类传输函数65. %TF1 = 'tansig'TF2 = 'logsig'66. %TF1 = 'logsig&

33、#39;TF2 = 'purelin'67. %TF1 = 'tansig'TF2 = 'tansig'68. %TF1 = 'logsig'TF2 = 'logsig'69. %TF1 = 'purelin'TF2 = 'purelin' 70.71. %注意创建BP网络函数newff()的参数调用,在新版本(7.6)中已改变72. net=newff(minmax(normInput),NodeNum1,NodeNum2,TypeNum,TF1 TF2 TF3,'

34、;traingdx');%创建四层BP网络73.74.75.76. %-77. % 设置训练参数78. %-   79. net.trainParam.epochs=10000;%训练次数设置80. net.trainParam.goal=1e-6;%训练目标设置81. net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛82. %-83. % 指定训练函数84. %-85. % net.trainFcn = 'traingd' % 梯度下降算法86. %

35、 net.trainFcn = 'traingdm' % 动量梯度下降算法87. %88. % net.trainFcn = 'traingda' % 变学习率梯度下降算法89. % net.trainFcn = 'traingdx' % 变学习率动量梯度下降算法90. %91. % (大型网络的首选算法)92. % net.trainFcn = 'trainrp' % RPROP(弹性BP)算法,内存需求最小93. %94. % (共轭梯度算法)95. % net.trainFcn = 'traincgf' %

36、Fletcher-Reeves修正算法96. % net.trainFcn = 'traincgp' % Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大97. % net.trainFcn = 'traincgb' % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大98. %99. % (大型网络的首选算法)100. %net.trainFcn = 'trainscg' % Scaled Conjugate Gradient算法,内存需求与Fletcher-Reeves修

37、正算法相同,计算量比上面三种算法都小很多101. % net.trainFcn = 'trainbfg' % Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快102. % net.trainFcn = 'trainoss' % One Step Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大103. %104. % (中型网络的首选算法)105. %net.trainFcn = 'trainlm' % Levenberg-M

38、arquardt算法,内存需求最大,收敛速度最快106. % net.trainFcn = 'trainbr' % 贝叶斯正则化算法107. %108. % 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'109.110. net.trainfcn='traingdm'111. net,tr = train(net,trainSamples.P,trainSamples.T,validateSamples

39、,testSamples);112.113. %-114. % 训练完成后,就可以调用sim()函数,进行仿真了115. %-   116. normTrainOutput,Pf,Af,E,trainPerf = sim(net,trainSamples.P,trainSamples.T);%正常输入的9组p数据,BP得到的结果t117. normValidateOutput,Pf,Af,E,validatePerf = sim(net,validateSamples.P,validateSamples.T);%用作变量3的数据p,BP得到的结果t118. normTest

40、Output,Pf,Af,E,testPerf = sim(net,testSamples.P,testSamples.T);%用作测试的3组数据p,BP得到的结果t119.120.121. %-122. % 仿真后结果数据反归一化,如果需要预测,只需将预测的数据P填入123. % 将获得预测结果t124. %-  125. trainOutput = mapminmax('reverse',normTrainOutput,ts);%正常输入的9组p数据,BP得到的归一化后的结果t126. trainInsect = mapminmax('rever

41、se',trainSamples.T,ts);%正常输入的9组数据t127. validateOutput = mapminmax('reverse',normValidateOutput,ts);%用作变量3的数据p,BP得到的归一化的结果t128. validateInsect = mapminmax('reverse',validateSamples.T,ts);%用作变量3的数据t129. testOutput = mapminmax('reverse',normTestOutput,ts);%用作变量3组数据p,BP得到的归一化

42、的结果t130. testInsect = mapminmax('reverse',testSamples.T,ts);%用作变量3组数据t131.132.133. %-134. % 数据分析和绘图135. %-  136. figure137. plot(1:12,trainOutput validateOutput,'b-',1:12,trainInsect validateInsect,'g-',13:15,testOutput,'m*',13:15,testInsect,'ro');13

43、8. title('o为真实值,*为预测值')139. xlabel('年份');140. ylabel('交通量(辆次/昼夜)');复制代码运行后的结果如下图,注意该程序是在7.0版本上实验的,没法在6.5版本运行,因为6.5版本的归一化函数被遗弃了;在7.6以上版本也没有办法运行,因为newff函数参数形式改变了。但是只要将上面提到部分相应修改下,就可以运行了正常数据,是用来正常训练用变量数据,主要目的是防止训练中出现过拟合状态测试数据,是用来看训练效果的在第四节,给出的BP网络进行交通预测的程序,是个基本模式,更改少数几处参数后,可用于其它

44、方面!但通过程序运行后,可以看出,预测效果并不理想,如何得到理想的预测训练结果,下面是基本思路及matlab的实现:1、设置一个误差项,为测试数据的网络仿真结果和实际结果偏差,并设置一个自己能接受的精度值2、每次训练网络后,将这个误差和设置值比较,也可通过测试获得网络能给出的最高预测精度3、得到满意训练网络后,保存BP结果,以便下次调用下面这个程序是在第四节程序基础上优化而来,可以运行前面的程序和这个程序,比较两者的差别,可以通过修改eps来控制预测的误差!1. %bp神经网络进行交通预测的Matlab源代码2. % BP 神经网络用于预测3. % 使用平台 - Matlab7.04. % 数

45、据为1986年到2000年的交通量 ,网络为3输入,1输出5. % 15组数据,其中9组为正常训练数据,3组为变量数据,3组为测试数据6. %by akjuan7. %all rights preserved by 8. %2008.119.10. clc11. clear12.13. All_error=;%所有误差存储14.15. %-16. %原始数据17. %-18. year=1986:2000;%数据是从1986到2000年的19.20. p=493 372 445;372 445 176;445 176 235;176 235 378;235 378 429;.21.  

46、;  378 429 561;429 561 651;561 651 467;651 467 527;467 527 668;.22.    527 668 841; 668 841 526;841 526 480;526 480 567;480 567 685'%输入数据,共15组,每组3个输入23. t=176 235 378 429 561 651 467 527 668 841 526 480 567 685 507;%输出数据,共15组,每组1个输出24.25.26. %-27. %数据归一化处理28. %mapminmax函数默认将数据归一化到

47、-1,1,调用形式如下29. %y,ps =%mapminmax(x,ymin,ymax)30. %x需归化的数据输入31. %ymin,ymax为需归化到的范围,不填默认为归化到-1,132. %y归一化后的样本数据33. %ps处理设置,ps主要在结果反归一化中需要调用,或者使用同样的settings归一化另外一组数据34. %-35. normInput,ps = mapminmax(p);36. normTarget,ts = mapminmax(t);37.38.39. %-40. %数据乱序,及分类处理41. %将输入的15组数据的20%,即3组,用来作为测试数据;42. % 样本

48、的20%,即3组,用来作为变化数据;43. %另外9组用来正常输入,用来训练;44. %dividevec()用来重新随机抽取上述三种分类的数据,原来的顺序被打乱45. %函数调用的语法46. %trainV,valV,testV = dividevec(p,t,valPercent,testPercent)47. %输入p为输入数据,t为输出数据48. %valPercent为训练用的变化数据在总输入中的百分比49. %testPercent为训练用的测试数据在总输入中的百分比50. %输出trainV,valV,testV分别为按乱序及相应百分比,抽取得到的数据51. %另外,打乱后的数据

49、,p和t都是对应的,请放心使用52. %-53. testPercent = 0.20;  % Adjust as desired54. validatePercent = 0.20;  % Adust as desired55. trainSamples,validateSamples,testSamples = dividevec(normInput,normTarget,validatePercent,testPercent);56.57. for j=1:20058. %-59. % 设置网络参数60. %-   61. No

50、deNum1 = 20; % 隐层第一层节点数62. NodeNum2=40;   % 隐层第二层节点数63. TypeNum = 1;   % 输出维数64.65. TF1 = 'tansig'TF2 = 'tansig' TF3 = 'tansig'%各层传输函数,TF3为输出层传输函数66. %如果训练结果不理想,可以尝试更改传输函数,以下这些是各类传输函数67. %TF1 = 'tansig'TF2 = 'logsig'68. %TF1 = 'logsig&#

51、39;TF2 = 'purelin'69. %TF1 = 'tansig'TF2 = 'tansig'70. %TF1 = 'logsig'TF2 = 'logsig'71. %TF1 = 'purelin'TF2 = 'purelin' 72.73.74. net=newff(minmax(normInput),NodeNum1,NodeNum2,TypeNum,TF1 TF2 TF3,'traingdx');%网络创建75.76.77. %-78. %

52、设置训练参数79. %-   80. net.trainParam.epochs=10000;%训练次数设置81. net.trainParam.goal=1e-6;%训练目标设置82. net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛83. %-84. % 指定训练参数85. %-86. % net.trainFcn = 'traingd' % 梯度下降算法87. % net.trainFcn = 'traingdm' % 动量梯度下降算法8

53、8. %89. % net.trainFcn = 'traingda' % 变学习率梯度下降算法90. % net.trainFcn = 'traingdx' % 变学习率动量梯度下降算法91. %92. % (大型网络的首选算法)93. % net.trainFcn = 'trainrp' % RPROP(弹性BP)算法,内存需求最小94. %95. % (共轭梯度算法)96. % net.trainFcn = 'traincgf' % Fletcher-Reeves修正算法97. % net.trainFcn = 'traincgp' % Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大98. % net.trainFcn = 'traincgb' % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大99. %100. % (大型网络的首选算法)101. %net.trainFcn = 'trainscg' % Scaled Conjugat

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论