![BP神经网络matlab实例简单而经典_第1页](http://file3.renrendoc.com/fileroot_temp3/2022-4/28/ac614b91-38c5-4903-83a2-c74bd4b027c3/ac614b91-38c5-4903-83a2-c74bd4b027c31.gif)
![BP神经网络matlab实例简单而经典_第2页](http://file3.renrendoc.com/fileroot_temp3/2022-4/28/ac614b91-38c5-4903-83a2-c74bd4b027c3/ac614b91-38c5-4903-83a2-c74bd4b027c32.gif)
![BP神经网络matlab实例简单而经典_第3页](http://file3.renrendoc.com/fileroot_temp3/2022-4/28/ac614b91-38c5-4903-83a2-c74bd4b027c3/ac614b91-38c5-4903-83a2-c74bd4b027c33.gif)
![BP神经网络matlab实例简单而经典_第4页](http://file3.renrendoc.com/fileroot_temp3/2022-4/28/ac614b91-38c5-4903-83a2-c74bd4b027c3/ac614b91-38c5-4903-83a2-c74bd4b027c34.gif)
![BP神经网络matlab实例简单而经典_第5页](http://file3.renrendoc.com/fileroot_temp3/2022-4/28/ac614b91-38c5-4903-83a2-c74bd4b027c3/ac614b91-38c5-4903-83a2-c74bd4b027c35.gif)
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、p=p1't=t1'pn,minp,maxp,tn,mint,maxt二premnmx(p,t);%原始数据归一化net二newff(minmax(pn),5,1,'tansig','purelin','traingdx'); %设置网络,建立相应 的BP网络net.trainParam.show=2000; % 训练网络 net.trainParam.lr=0.01;net.trainParam.epochs=100000;%调用TRAINGDM算法训练%对BP网络进行仿真%还原数据net.trainParam.goal=1e-
2、5; net,tr=train(net ,pn,tn);BP网络pnew=pnew1'pnewn=tramnmx(pnew,minp,maxp);anewn=sim(net,pnewn);anew=postmnmx(anewn,mint,maxt);y=anew'1、BP网络构建(1)生成BP网络net = newff (PR, S1 S 2. SNl ,TF 1 TF 2.TFNI, BTF, BLF, PF)PR :由R维的输入样本最小最大值构成的Rx2维矩阵。S1 S2SNl:各层的神经元个数。TF1 TF2TFNl:各层的神经元传递函数。BTF :训练用函数的名称。(2
3、)网络训练net, tr, Y, E, Pf, Af = train (net, P, T, Pi, Ai, W, TV)(3)网络仿真Y, Pf, Af, E,perf = sim (net, P, Pi, Ai, T)'tansig','purelin','trainrp'BP网络的训练函数训练方法训练函数梯度下降法traingd有动量的梯度下降法traingdm自适应lr梯度下降法traingda自适应lr动量梯度下降法traingdx弹性梯度下降法trainrpFletcher-Reeves共机梯度法traincgfPloak-Ribie
4、re共轭梯度法traincgpPowell-Beale共轭梯度法traincgb量化共轭梯度法trainscg拟牛顿算法trainbfg一步正割算法trainossLevenberg-MarquardttrainlmBP网络训练参数训练参数参数介绍训练函数net.trainParam.epochs最大训练次数(缺省为10)traingd 、 traingdm 、 traingda 、 traingdx 、 trainrp 、 traincgf 、 traincgp 、 traincgb 、 trainscg 、 trainbfg 、 trainoss、 trainlmnet.trainPara
5、m.goal训练要求精度(缺省为0)traingd 、 traingdm 、 traingda 、 traingdx 、 trainrp 、 traincgf 、 traincgp 、 traincgb 、 trainscg 、 trainbfg 、 trainoss、 trainlmnet.trainParam.lr学习率(缺省为0.01)traingd 、 traingdm 、 traingda 、 traingdx 、 trainrp 、 traincgf 、 traincgp 、 traincgb 、 trainscg 、 trainbfg 、 trainoss、 trainlmnet
6、.trainParam.max_fail最大失败次数(缺省为5)traingd 、 traingdm 、 traingda 、 traingdx 、 trainrp 、 traincgf 、 traincgp 、 traincgb 、 trainscg 、 trainbfg 、 trainoss、 trainlmnet.trainParam.min_grad最小梯度要求(缺省为1e-10)traingd 、 traingdm 、 traingda 、 traingdx 、 trainrp 、 traincgf 、 traincgp 、 traincgb 、 trainscg 、 trainbf
7、g 、 trainoss、 trainlmnet.trainParam.show显示训练迭代过程(NaN表示 不显示,缺省为25)traingd 、 traingdm 、 traingda 、 traingdx 、 trainrp 、 traincgf 、 traincgp 、 traincgb 、 trainscg 、 trainbfg 、trainoss、 trainlmnet.trainParam.time最大训练时间(缺省为inf)traingd 、 traingdm 、 traingda 、 traingdx 、 trainrp 、 traincgf 、 traincgp 、 tra
8、incgb 、 trainscg 、 trainbfg 、 trainoss、 trainlmnet.trainParam.mc动量因子(缺省0.9)traingdm、 traingdxnet.trainParam.lr_inc学习率lr增长比(缺省为1.05)traingda、 traingdxnet.trainParam.lr_dec学习率lr下降比(缺省为0.7)traingda、 traingdxnet.trainParam.max_perf_inc表现函数增加最大比(缺省 为 1.04)traingda、 traingdxnet.trainParam.delt_inc权值变化增加量(
9、缺省为1.2)trainrpnet.trainParam.delt_dec权值变化减小量(缺省为0.5)trainrpnet.trainParam.delt0初始权值变化(缺省为0.07)trainrpnet.trainParam.deltamax权值变化最大值(缺省为50.0)trainrpnet.trainParam.searchFcn一维线性搜索方法(缺省为 srchcha)traincgf 、 traincgp 、 traincgb 、 trainbfg 、 trainossnet.trainParam.sigma因为二次求导对权值调整的 影响参数(缺省值5.0e-5)trainscg
10、net.trainParam.lambdaHessian矩阵不确定性调节 参数(缺省为5.0e-7)trainscgnet.trainParam.men_reduc控制计算机内存/速度的参 量,内存较大设为1,否则设 为2 (缺省为1)trainlmnet.trainParam.mu目的初始值(缺省为0.001)trainlmnet.trainParam.mu_dec口的减小率(缺省为0.1)trainlmnet.trainParam.mu_inc口的增长率(缺省为10)trainlmnet.trainParam.mu_maxN的最大值(缺省为1e10)trainlm2、BP网络举例举例1、%
11、traingdclear;clc;P=-1 -1 2 2 4;0 5 0 5 7;T=-1 -1 1 1 -1;%利用minmax函数求输入样本范围net = newff(minmax(P),5,1,'tansig','purelin','trainrp'); net.trainParam.show=50;% net.trainParam.lr=0.05; net.trainParam.epochs=300; net.trainParam.goal=1e-5; net,tr=train(net,P,T);net.iw1,1%隐层权值 net.b1
12、%隐层阈值门6匕际2,1%输出层权值 门6/2%输出层阈值sim(net,P)举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。 样本数据:输入X输出D输入X输出D输入X输出D-1.0000-0.9602-0.30000.13360.40000.3072-0.9000-0.5770-0.2000-0.20130.50000.3960-0.8000-0.0729-0.1000-0.43440.60000.3449-0.70000.37710-0.50000.70000.1816-0.60000.64050.1000-0.39300.8000-0.3120-0.50
13、000.66000.2000-0.16470.9000-0.2189-0.40000.46090.3000-0.09881.0000-0.3201解:看到期望输出的范围是(1,1),所以利用双极性Sigmoid函数作为转移函数。程序如下:clear;clc;X=-1:0.1:1;D=-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609.0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988.0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201;f
14、igure;plot(X,D, '*1); %绘制原始数据分布图(附录:1-1) net = newff(-1 1,5 1,'tansig','tansig');net.trainParam.epochs = 100; %训练的最大次数net.trainParam.goal = 0.005; %全局最小误差net = train(net,X,D);O = sim(net,X);figure;plot(X,D,'*',X,O); %绘制训练后得到的结果和误差曲线(附录:1-2、1-3)V=net.iw1,1%输入层到中间层权值thetal=
15、net.b1%中间层各神经元阈值W=net.lw2,1%中间层到输出层权值theta2二门6七/2%输出层各神经元阈值所得结果如下:输入层到中间层的权值:V = (-9.1669 7.3448 7.3761 4.8966 3.5409> 中间层各神经元的阈值:。=(6.5885 -2.4019 -0.9962 1.5303 3.2731 中间层到输出层的权值:卬=(0.3427 0.2135 0.2981 -0.8840 1.913» 输出层各神经元的阈值:T = -1.5271举例3、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。 样本数据:输入X
16、输出D输入X输出D输入X输出D00448211539322621043371解:看到期望输出的范围超出(-1,1),所以输出层神经元利用线性函数作为转移函数。程序如下:clear;clc;X =0 1 2 3 4 5 6 7 8 9 10;D =0 1 2 3 4 3 2 1 2 3 4;figure;plot(X,D, '*1); %绘制原始数据分布图net = newff(0 10,5 1,'tansig,purelin')net.trainParam.epochs = 100;net.trainParam.goal=0.005;net=train(net,X,D)
17、;O=sim(net,X);figure;plot(X,D,,*,,X,0); %绘制训练后得到的结果和误差曲线(附录:2-2、2-3)V=net.iw1,1%输入层到中间层权值theta1=net.b1%中间层各神经元阈值W=net.lw2,1%中间层到输出层权值theta2二门6七/2%输出层各神经元阈值所得结果如下:输入层到中间层的权值:V =(0.8584 2.0890 -1.2166 0.2752 -0.3910中间层各神经元的阈值:9=(-14.0302 -9.8340 7.4331 -2.0135 0.5610上 中间层到输出层的权值:卬= (-0.4675 -1.1234 2.
18、3208 4.6402 -2.2686 输出层各神经元的阈值:T = 1.7623问题:以下是上证指数2009年2月2日到3月27日的收盘价格,构建一个三层BP神经网络, 利用该组信号的6个过去值预测信号的将来值。日期价格日期价格2009/02/022011.6822009/03/022093.4522009/02/032060.8122009/03/032071.4322009/02/042107.7512009/03/042198.1122009/02/052098.0212009/03/052221.0822009/02/062181.2412009/03/062193.0122009/
19、02/092224.7112009/03/092118.7522009/02/102265.1612009/03/102158.5722009/02/112260.8222009/03/112139.0212009/02/122248.0922009/03/122133.8812009/02/132320.7922009/03/132128.8512009/02/162389.3922009/03/162153.2912009/02/172319.4422009/03/172218.3312009/02/182209.8622009/03/182223.7312009/02/192227.13
20、22009/03/192265.7612009/02/202261.4822009/03/202281.0912009/02/232305.7822009/03/232325.4812009/02/242200.6522009/03/242338.4212009/02/252206.5722009/03/252291.5512009/02/262121.2522009/03/262361.7012009/02/272082.8522009/03/272374.44load data3_1.txt;m,n=size( data3_1);tsx = data3_1(1:m-1,1);tsx=tsx'ts = data3_1(2:m,1);ts=ts'TSX,TSXps二mapminmax(tsx,1,2);TS,TSps二mapminmax(ts,1,2);TSX=TSX'figure;plot(ts, 'LineWidth&
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年全球及中国PWM制氢电源行业头部企业市场占有率及排名调研报告
- 必杀03 第六单元 我们生活的大洲-亚洲(综合题20题)(解析版)
- 讲稿《教育强国建设规划纲要(2024-2035年)》学习宣讲
- 2025关于合同中的表见代理
- 商业物业租赁合同范本
- 试验检测未来的发展方向
- 天然气购销合同模板
- 2025机械加工合同
- 卷帘门电机售后合同范本
- 商铺的买卖合同年
- cpk自动计算电子表格表格
- 2024-2025学年湖北省武汉市部分重点中学高一上学期期末联考数学试卷(含答案)
- 2025年浙江省交通投资集团财务共享服务中心招聘2名高频重点提升(共500题)附带答案详解
- 做投标文件培训
- 9.4+跨学科实践:制作简易活塞式抽水机课件+-2024-2025学年人教版物理八年级下册
- 建筑工程工作计划
- 2025年中国国际投资促进中心限责任公司招聘管理单位笔试遴选500模拟题附带答案详解
- 瓶装液化气送气工培训
- 外科护理课程思政课程标准
- 船舶航行安全
- GB 1886.232-2016食品安全国家标准食品添加剂羧甲基纤维素钠
评论
0/150
提交评论