版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、人工神经网络及其应用第6章BP神经网络2一、内容回顾内容回顾二、二、BPBP网络网络三、网络设计三、网络设计四、改进四、改进BPBP网络网络五、内容小结五、内容小结内容安排3一、内容回顾 感知机感知机自适应线性元件自适应线性元件4一、内容回顾 感知机感知机感知机简介感知机简介神经元模型神经元模型网络结构网络结构功能解释功能解释学习和训练学习和训练局限性局限性自适应线性元件自适应线性元件5一、内容回顾 感知机感知机自适应线性元件自适应线性元件AdlineAdline简介简介网络结构网络结构网络学习网络学习网络训练网络训练62.1 BPBP网络简介网络简介2.2 2.2 网络模型网络模型2.3 2
2、.3 学习规则学习规则2.4 2.4 图形解释图形解释2.5 2.5 网络训练网络训练二、BP网络7反向传播网络反向传播网络(Back-Propagation Network(Back-Propagation Network,简简称称BPBP网络网络) )是将是将W-HW-H学习规则一般化,学习规则一般化, 对对非线性可微分函数非线性可微分函数进行权值训练的多层网络进行权值训练的多层网络 权值的调整采用权值的调整采用反向传播反向传播(Back-propagation(Back-propagation)的学习算法的学习算法它是一种它是一种多层前向反馈神经网络多层前向反馈神经网络,其神经元的,其神
3、经元的变换函数是变换函数是S S型函数型函数输出量为输出量为0 0到到1 1之间之间的的连续量连续量,它可实现从输入,它可实现从输入到输出的到输出的任意的非线性映射任意的非线性映射2.1 BP神经网络8 BPBP网络主要用于下述方面网络主要用于下述方面函数逼近函数逼近:用输入矢量和相应的输出矢量训:用输入矢量和相应的输出矢量训练一个网络逼近一个函数练一个网络逼近一个函数模式识别和分类模式识别和分类:用:用一个特定的输出矢量将一个特定的输出矢量将它与输入矢量联系起来它与输入矢量联系起来;把输入矢量以所定;把输入矢量以所定义的合适方式进行分类;义的合适方式进行分类;数据压缩数据压缩:减少输出矢量维
4、数以便于传输或:减少输出矢量维数以便于传输或存储存储 具有较强泛化性能:使网络平滑地学习函数,具有较强泛化性能:使网络平滑地学习函数,使网络能够合理地响应被训练以外的输入使网络能够合理地响应被训练以外的输入 泛化性能只对被训练的输入输出在最大值范泛化性能只对被训练的输入输出在最大值范围内的数据有效,即围内的数据有效,即网络具有内插值特性,不网络具有内插值特性,不具有外插值性具有外插值性。超出最大训练值的输入必将产。超出最大训练值的输入必将产生大的输出误差生大的输出误差2.1 BP神经网络92.2 网络模型一个具有一个具有r r个个输入输入和一个和一个隐含层隐含层的神经网络模型结构的神经网络模型
5、结构 10 感知器感知器和和自适应线性元件自适应线性元件的主要差别在激活函的主要差别在激活函数上:前者是二值型的,后者是线性的数上:前者是二值型的,后者是线性的 BPBP网络具有网络具有一层或多层隐含层一层或多层隐含层,除了在多层网,除了在多层网络上与前面已介绍过的模型有不同外,其主要络上与前面已介绍过的模型有不同外,其主要差别也表现在激活函数上。差别也表现在激活函数上。 BPBP网络的网络的激活函数必须是处处可微的激活函数必须是处处可微的,因此它,因此它不能采用二值型的阀值函数不能采用二值型的阀值函数00,11或符号函数或符号函数 1 1,11 BPBP网络经常使用的是网络经常使用的是S S
6、型型的对数或正切激活函数的对数或正切激活函数和线性函数和线性函数2.1 网络模型11 BPBP网络特点网络特点 输入和输出是并行的模拟量输入和输出是并行的模拟量 网络的输入输出关系由各层连接的权因子决定,没有网络的输入输出关系由各层连接的权因子决定,没有固定的算法固定的算法 权因子通过学习信号调节。学习越多,网络越聪明权因子通过学习信号调节。学习越多,网络越聪明 隐含层越多,网络输出精度越高,且个别权因子的损隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响坏不会对网络输出产生大的影响 只有当希望对网络的输出进行限制,如限制在只有当希望对网络的输出进行限制,如限制在0
7、0和和1 1之之间,那么在间,那么在输出层输出层应当包含应当包含S S型激活函数型激活函数 在在一般情况一般情况下,均是在下,均是在隐含层采用隐含层采用S S型激活函数型激活函数,而,而输出层采用线性激活函数输出层采用线性激活函数2.1 网络模型12 S S型函数具有非线性放大系数功能,可以把输入从负无型函数具有非线性放大系数功能,可以把输入从负无穷大到正无穷大的信号,变换成穷大到正无穷大的信号,变换成-1-1到到l l之间输出之间输出 对较大的输入信号,放大系数较小;而对较小的输入信对较大的输入信号,放大系数较小;而对较小的输入信号,放大系数则较大号,放大系数则较大 采用采用S S型激活函数
8、可以处理和逼近非线性输入型激活函数可以处理和逼近非线性输入/ /输出关系输出关系2.1 网络模型132.3学习规则 BPBP算法属于算法属于算法,是一种算法,是一种监督式的学习算法监督式的学习算法 主要思想主要思想 对于对于q q个输入学习样本:个输入学习样本:P P1,1,P P2,2, ,P Pq q,已知与其对应的已知与其对应的输出样本为:输出样本为:T T1,1,T T2,2, ,T Tq q 使使网络输出层的网络输出层的误差平方和误差平方和达到最小达到最小 用网络的实际输出用网络的实际输出A A1,1,A A2,2, ,A Aq q, , 与目标矢量与目标矢量T T1,1,T T2,
9、2, ,T Tq q之间的误差修改其权值,使之间的误差修改其权值,使A Am m与与期望的期望的T Tm,m,( (m ml,l,q,q) )尽可能接近尽可能接近14 BPBP算法是由两部分组成算法是由两部分组成, ,信息的信息的正向传递与误差正向传递与误差的反向传播的反向传播 正向传播正向传播过程中,输入信息从输入层经隐含层逐层计过程中,输入信息从输入层经隐含层逐层计算传向输出层,每一层神经元的状态只影响下一层神算传向输出层,每一层神经元的状态只影响下一层神经元的状态经元的状态 如果在输出层未得到期望的输出,则计算输出层的误如果在输出层未得到期望的输出,则计算输出层的误差变化值,然后转向差变
10、化值,然后转向反向传播反向传播,通过网络将误差信号,通过网络将误差信号沿原来的连接通路沿原来的连接通路反传回反传回来修改各层神经元的权值直来修改各层神经元的权值直至达到期望目标至达到期望目标2.3学习规则15 假设假设输入输入为为P P,输入神经元输入神经元有有r r个,个,隐含层隐含层内有内有s1s1个神经个神经元,激活函数为元,激活函数为F1F1,输出层输出层内有内有s2s2个神经元,对应的激个神经元,对应的激活函数为活函数为F2F2,输出为输出为A A,目标矢量为目标矢量为T T2.3学习规则.16 信息的正向传递信息的正向传递 隐含层中第隐含层中第i i个神经元的输出个神经元的输出 输
11、出层第输出层第k k个神经元的输出个神经元的输出 定义误差函数定义误差函数2.3学习规则172.3学习规则 利用梯度下降法求权值变化及误差的反向传播利用梯度下降法求权值变化及误差的反向传播 输出层的权值变化输出层的权值变化 其中其中 同理可得同理可得182.3学习规则 利用梯度下降法求权值利用梯度下降法求权值变化及误差的反向传播变化及误差的反向传播 输入到隐含层权值变化输入到隐含层权值变化 其中其中 同理可得同理可得21212111211(2 )221skiijkijkiijskkkijijjkaaEEwwaawtafwfpp 19 对于对于f1为对数为对数S型激活函数:型激活函数: 对于对于
12、f2为线性激活函数为线性激活函数2.3学习规则202.4 误差反向传播图形解释 误差反向传播过程实际上是通过计算误差反向传播过程实际上是通过计算输出层的误差输出层的误差e ek k,然后然后将其与输出层激活函数的将其与输出层激活函数的一阶导数一阶导数f2f2相乘相乘来求得来求得kiki 由于隐含层中没有直接给出目标矢量,所以利用输出层的由于隐含层中没有直接给出目标矢量,所以利用输出层的kiki反向传递来求出隐含层权值的变化量反向传递来求出隐含层权值的变化量w2w2kiki。然后计算然后计算 同样通过将同样通过将e ei i与该层激活函数的一阶导数与该层激活函数的一阶导数f1f1相乘,而求得相乘
13、,而求得ijij,以此求出前层权值的变化量以此求出前层权值的变化量w1w1ijij 如果前面还有隐含层,沿用上述同样方法依此类推,一直如果前面还有隐含层,沿用上述同样方法依此类推,一直将输出误差将输出误差e ek k逐层的反推算到第一层为止逐层的反推算到第一层为止212.4 误差反向传播图形解释222.5 网络训练 训练训练BPBP网络,需要计算网络加权输入矢量以及网络,需要计算网络加权输入矢量以及网络输出和网络输出和误差矢量误差矢量,然后,然后求误差平方和求误差平方和 当所训练矢量的误差平方和当所训练矢量的误差平方和小于误差目标小于误差目标,训训练停止练停止;否则在输出层计算误差变化,且采用
14、;否则在输出层计算误差变化,且采用反向传播学习规则来调整权值反向传播学习规则来调整权值,然后重复此过,然后重复此过程程 网络完成训练后,对网络输入一个不是训练集网络完成训练后,对网络输入一个不是训练集合中的矢量,网络将以泛化方式给出输出结果合中的矢量,网络将以泛化方式给出输出结果232.5 网络训练 为了能够较好地掌握为了能够较好地掌握BPBP网络的训练过程,我网络的训练过程,我们用两层网络为例来叙述们用两层网络为例来叙述BPBP网络的训练步骤网络的训练步骤 初始化:用小的随机数初始化每一层的权值初始化:用小的随机数初始化每一层的权值W W和偏差和偏差B B,保证网络不被保证网络不被大的加权输
15、入饱和大的加权输入饱和 期望误差最小值:期望误差最小值:error_goalerror_goal 最大循环次数:最大循环次数:max_epochmax_epoch 修正权值的学习速率:修正权值的学习速率:lrlr 一般情况下一般情况下, ,lrlr0. l0. l0.80.8242.5 网络训练 变量表达:计算网络各层输出矢量变量表达:计算网络各层输出矢量A1A1和和A2A2以及网以及网络误差络误差E E A1A1tansig(W1tansig(W1* *P P,B1)B1); A2A2purelin(W2purelin(W2* *A1A1,B2)B2); E ET-AT-A; 权值修正:计算
16、各层反传的误差变化权值修正:计算各层反传的误差变化D2D2和和D1D1并计并计算各层权值的修正值以及新权值:算各层权值的修正值以及新权值: D2D2deltalin(A2deltalin(A2,E)E); D1D1deltatan(A1deltatan(A1,D2D2,W2)W2); dWldWl,dBldBl learnbp(Plearnbp(P,D1D1,lrlr) ); dW2dW2,dB2dB21earnbp(A11earnbp(A1,D2D2,1r)1r); W1W1W1W1十十dW1dW1;B1B1B1B1十十dBldBl; W2W2W2W2十十dW2dW2;B2B2B2B2十十d
17、B2dB2252.5 网络训练 计算权值修正后误差平方和计算权值修正后误差平方和 SSEsumsqr(T-purelin(W2*tansig(W1*P,B1),B2) 检查:检查:SSE是否小于是否小于err_goal。若是,训练结束;否则若是,训练结束;否则继续继续 以上所有的学习规则与训练的全过程,可以用函数以上所有的学习规则与训练的全过程,可以用函数trainbp.m来完成来完成 它的使用只需定义有关参数:显示间隔次数,最大循环次数,它的使用只需定义有关参数:显示间隔次数,最大循环次数,目标误差,以及学习速率。调用后返回训练后权值,循环总目标误差,以及学习速率。调用后返回训练后权值,循环
18、总数和最终误差数和最终误差 TPdisp_freq max_epoch err_goal 1r W,B,epochs,errorstrainbp(W,B,F,P,T,TP)26三、网络设计3.1 3.1 网络的层数网络的层数3.2 3.2 隐含层神经元数隐含层神经元数3.3 3.3 初始权值的选取初始权值的选取3.4 3.4 学习速率学习速率3.5 3.5 期望误差的选取期望误差的选取3.6 3.6 应用举例应用举例3.7 3.7 局限性局限性273.1 网络的层数 理论上已经证明:具有偏差和至少一个理论上已经证明:具有偏差和至少一个S S型隐型隐含层加上一个线性输出层的网络,能够逼近任含层加
19、上一个线性输出层的网络,能够逼近任何有理函数。何有理函数。定理定理: 增加层数主要可以进一步的降低误差,提高精增加层数主要可以进一步的降低误差,提高精度,但同时也使网络复杂化,从而增加了网络度,但同时也使网络复杂化,从而增加了网络权值的训练时间。权值的训练时间。 一般情况下应优先考虑增加隐含层中神经元数一般情况下应优先考虑增加隐含层中神经元数 仅用具有非线性激活函数的单层网络来解决问仅用具有非线性激活函数的单层网络来解决问题没有必要或效果不好题没有必要或效果不好 线性问题线性问题 非线性问题非线性问题283.2 隐含层神经元数 网络训练精度的提高,可以通过采用一个隐含层,而网络训练精度的提高,
20、可以通过采用一个隐含层,而增加其神经元数的方法来获得。这在结构实现上,要增加其神经元数的方法来获得。这在结构实现上,要比增加更多的隐含层简单得多比增加更多的隐含层简单得多 定理:定理: 实现任意实现任意N N个输入向量构成的任何布尔函数的前向个输入向量构成的任何布尔函数的前向网络所需权系数数目为网络所需权系数数目为 在具体设计时,比较实际的做法是通过对不同神经元在具体设计时,比较实际的做法是通过对不同神经元数进行训练对比,去掉不起作用的隐单元,然后适当数进行训练对比,去掉不起作用的隐单元,然后适当地加上一点余量地加上一点余量29隐含层神经元数隐含层神经元数 输入r维,输出s2维,样本数q下,隐
21、单元数s1 : 1101,0risiisCq qC11)为样本数,r为输入单元数,s隐单元数。如果is22,1,10r s1) s=为 常 数312)s =log r303.3 3.3 初始权值的选取初始权值的选取 一般取初始权值在一般取初始权值在(-1(-1,1)1)之间的随机数之间的随机数 威得罗等人在分析了两层网络是如何对一个函数进行威得罗等人在分析了两层网络是如何对一个函数进行训练后,提出一种选定初始权值的策略训练后,提出一种选定初始权值的策略 选择权值的量级为选择权值的量级为 在在MATLABMATLAB工具箱中可采用函数工具箱中可采用函数nwlog.mnwlog.m或或nwtan.
22、mnwtan.m来初来初始化隐含层权值始化隐含层权值W1W1和和B1B1。 其方法仅使用在第一隐含层的初始值的选取上,后面其方法仅使用在第一隐含层的初始值的选取上,后面层的初始值仍然采用随机取数层的初始值仍然采用随机取数1rs313.4 学习速率 学习速率决定每一次循环训练中所产生的权值变学习速率决定每一次循环训练中所产生的权值变化量化量 大的学习速率可能导致系统的不稳定大的学习速率可能导致系统的不稳定 小的学习速率导致较长的训练时间,可能收敛很小的学习速率导致较长的训练时间,可能收敛很慢,不过能保证网络的误差值不跳出误差表面的慢,不过能保证网络的误差值不跳出误差表面的低谷而最终趋于最小误差值
23、低谷而最终趋于最小误差值 所以在一般情况下,倾向于选取较小的学习速率所以在一般情况下,倾向于选取较小的学习速率以保证系统的稳定性。以保证系统的稳定性。学习速率学习速率的选取范围在的选取范围在 0.1-0.8 0.1-0.8之间之间323.5 期望误差值选取 在设计网络的训练过程中,期望误差值也应当在设计网络的训练过程中,期望误差值也应当通过对比训练后确定一个合适的值通过对比训练后确定一个合适的值 这个所谓的这个所谓的“合适合适”,是相对于所需要的隐含,是相对于所需要的隐含层的节点数来确定,因为较小的期望误差值是层的节点数来确定,因为较小的期望误差值是要靠增加隐含层的节点,以及训练时间来获得要靠
24、增加隐含层的节点,以及训练时间来获得 一般情况下,作为对比,可以同时对两个不同一般情况下,作为对比,可以同时对两个不同期望误差值的网络进行训练,最后通过综合因期望误差值的网络进行训练,最后通过综合因素的考虑来确定采用其中一个网络素的考虑来确定采用其中一个网络333.6 应用举例 求解函数逼近问题求解函数逼近问题 有有2121组单输入矢量和相对应的目标矢量,试设计神经网络来实现这组单输入矢量和相对应的目标矢量,试设计神经网络来实现这对数组的函数关系对数组的函数关系P=-1:0.1:1T=-0.96 -0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.2
25、01 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201测试集测试集P2=-1:0.025:134网络设计:输入输出单元个数均为1.隐含层神经元个数在38之间。用可变的隐含层神经元个数,通过误差对比,确定最佳个数,并检验对网络性能的影响。代码: s=3:8; res=1:6;for i=1:6net=newff(minmax(P),s(i),1,tansig,logsig, traingdx);net.trainParam.epochs=2000;net.trainParam.
26、goal=0.0001;net=train(net,P,T);y=sim(net,P);error=y-T;res(i)=norm(error);end res = 1.5812 1.9270 1.5580 1.9270 1.5803 1.4449隐层输出层训练函数,也可选: trainlm或 traingd35网络训练误差个数345678910网络误差1.04120.72970.17670.14490.18070.14420.14490.1621好363.6 应用举例(contd)目标矢量相对于输入矢量的图形目标矢量相对于输入矢量的图形 初始网络的输出曲线初始网络的输出曲线 373.6 应用
27、举例(contd)训练训练1000次次 2000次次383.6 应用举例(contd)训练训练3000次次 5000次次393.7 限制与不足 需要较长的训练时间需要较长的训练时间 完全不能训练完全不能训练 选取较小的初始权值选取较小的初始权值 采用较小的学习速率,但同时又增加了训练时采用较小的学习速率,但同时又增加了训练时间间 局部极小值局部极小值 BPBP算法可以使网络权值收敛到一个解,但它算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解很可能是一个局部极小解40四、BP网络的改进4.1 目标目标4.
28、2 4.2 附加动量法附加动量法4.3 4.3 误差函数改进误差函数改进 4.4 4.4 自适应学习速率自适应学习速率414.1 目标加快训练速度加快训练速度避免陷入局部极小值避免陷入局部极小值424.2 附加动量法 利用附加动量的作用则有可能滑过局部极小值利用附加动量的作用则有可能滑过局部极小值修正网络权值时,不仅考虑误差在梯度上的作修正网络权值时,不仅考虑误差在梯度上的作用,而且考虑在误差曲面上变化趋势的影响,用,而且考虑在误差曲面上变化趋势的影响,其作用如同一个低通滤波器,它允许网络忽略其作用如同一个低通滤波器,它允许网络忽略网络上微小变化特性网络上微小变化特性该方法是在反向传播法的基础
29、上在每一个权值该方法是在反向传播法的基础上在每一个权值的变化上加上一项的变化上加上一项正比于前次权值变化量的值正比于前次权值变化量的值,并根据反向传播法来产生新的权值变化并根据反向传播法来产生新的权值变化434.2 附加动量法 带有附加带有附加动量因子动量因子的权值调节公式的权值调节公式 其中其中k k为训练次数,为训练次数,mcmc为动量因子,一般取为动量因子,一般取0 09595左右左右附加动量法的附加动量法的实质实质是将最后一次权值变化的影响,通过一个动是将最后一次权值变化的影响,通过一个动量因子来传递。量因子来传递。当动量因子取值为当动量因子取值为0 0时,权值变化仅根据梯度下降法产生
30、时,权值变化仅根据梯度下降法产生当动量因子取值为当动量因子取值为1 1时,新的权值变化则是设置为最后一次时,新的权值变化则是设置为最后一次权值的变化,而依梯度法产生的变化部分则被忽略掉了权值的变化,而依梯度法产生的变化部分则被忽略掉了 促使权值的调节向着误差曲面底部的平均方向变化,当网络促使权值的调节向着误差曲面底部的平均方向变化,当网络权值进入误差曲面底部的平坦区时,权值进入误差曲面底部的平坦区时,i i将变得很小,于是,将变得很小,于是,wwijij(k+1)w(k+1)wijij (k) (k),从而防止了从而防止了wwijij=0=0的出现,有助于的出现,有助于使网络从使网络从误差曲面
31、的局部极小值误差曲面的局部极小值中中跳出跳出 444.2 附加动量法 在在MATLABMATLAB工具箱中,带有动量因子的权值修正法是用函数工具箱中,带有动量因子的权值修正法是用函数learnbpm.m来实现的来实现的trainbpm.m可以训练一层直至三层的带有附加动量因子的可以训练一层直至三层的带有附加动量因子的反向传播网络反向传播网络下面是对单层网络使用函数下面是对单层网络使用函数trainbpm.m的情形:的情形:W,B,epochs,errorstrainbpm(W,B,F,P,T,TP)454.3 误差函数改进LMS误差:当当a ak k趋向趋向1 1时,时,E E趋向一个常数,即
32、处于趋向一个常数,即处于E E的平坦区,的平坦区, f(n)0f(n)0,可能造成完全训练的可能造成完全训练的麻痹现象麻痹现象当一个网络的误差曲面存在着平坦区时,可以选当一个网络的误差曲面存在着平坦区时,可以选用别的误差函数用别的误差函数f(tf(tk k, , a ak k) )来代替来代替(t(tk k-a-ak k) )2 2的形式,的形式,只要其函数只要其函数在在a ak k= =t tk k时时能达到最小值能达到最小值464.3 4.3 误差函数改进误差函数改进包穆包穆(Baum)(Baum)等人于等人于19881988年提出一种误差函数为年提出一种误差函数为不会产生不会产生不能完全
33、训练的麻痹现象不能完全训练的麻痹现象474.3 误差函数改进与常规的误差函数的情况与常规的误差函数的情况ijij= =f(n)(tf(n)(tk k-a-ak k) )相比较,其中的相比较,其中的f(n)f(n)项消失了项消失了当当n n增大,进入激活函数的平坦区,使增大,进入激活函数的平坦区,使f(n)0f(n)0时,时,不会产生不能完全训练的麻痹现象不会产生不能完全训练的麻痹现象但由于失去了但由于失去了f(n)f(n)对对ww的控制作用,过大的的控制作用,过大的ww又有可能导致网络过调或振荡又有可能导致网络过调或振荡 19891989年,范尔曼年,范尔曼( (S.FahlmanS.Fahl
34、man) )提出一种折中的提出一种折中的方案,即取方案,即取k kf(n)+0.1(tf(n)+0.1(tk k-a-ak k) )一方面恢复了一方面恢复了f(n)f(n)的某些影响的某些影响另一方面当另一方面当|n|n|变大时,仍能保持变大时,仍能保持k k有一定的大小,有一定的大小,从而避免了麻痹现象的发生从而避免了麻痹现象的发生 484.4 自适应学习速率通常调节学习速率的准则是,检查权值的修正值是否通常调节学习速率的准则是,检查权值的修正值是否真正降低了误差函数,如果确实如此,则说明所选取真正降低了误差函数,如果确实如此,则说明所选取的学习速率值小了,可以对其增加一个量;否则可认的学习
35、速率值小了,可以对其增加一个量;否则可认为产生为产生过调过调,应该,应该减小学习速率的值减小学习速率的值一种自适应学习速率的调整公式一种自适应学习速率的调整公式494.4 自适应学习速率自适应学习速率 MATLABMATLAB工具箱中带有自适应学习速率进行反向工具箱中带有自适应学习速率进行反向传播训练的函数为传播训练的函数为 trainbpa.mtrainbpa.m可训练直至三层网络。可训练直至三层网络。使用方法使用方法W,B,epochs,TEtrainbpa(W, B,F,P,T,TP) 可以将动量法和自适应学习速率结合起来以利可以将动量法和自适应学习速率结合起来以利用两方面的优点。这个技
36、术已编入函数用两方面的优点。这个技术已编入函数trainbpx.mtrainbpx.m之中之中函数的调用和其他函数一样函数的调用和其他函数一样, ,只是需要更多的初始只是需要更多的初始参数而已参数而已TPdisp_freq max_epoch error_goal lr 1r_inc 1r_dec mom_const err_ratio;W,B,epochs,error; lrtrainbpx(W,B,F,P,T,TP)50五、内容小结内容安排内容安排一、内容回顾一、内容回顾二、二、BPBP网络网络三、网络设计三、网络设计四、改进四、改进BPBP网络网络51五五、内容小结、内容小结 反向传播法
37、可以用来训练具有可微激活函数的多层前反向传播法可以用来训练具有可微激活函数的多层前向网络向网络, ,以进行函数逼近,模式分类等工作以进行函数逼近,模式分类等工作 反向传播网络的结构不完全受所要解决的问题所限制。反向传播网络的结构不完全受所要解决的问题所限制。 网络的输入神经元数目及输出层神经元的数目是由问题的要网络的输入神经元数目及输出层神经元的数目是由问题的要求所决定求所决定 输入和输出层之间的隐含层数以及每层的神经元数是由设计输入和输出层之间的隐含层数以及每层的神经元数是由设计者来决定的者来决定的 已经证明,两层已经证明,两层S S型线性网络,如果型线性网络,如果S S型层有足够的神型层有足够的神经元,则能够训练出任意输入和输出之间的有理函数经元,则能够训练出任意输入和输出之间的有理函数关系关系52五五、内容小结、内容小结 反向传播法沿着误差表面的梯度下降,使网络反向传播法沿着误差表面的梯度下降,使网络误差最小,网络有可能陷入局部极小值误差最小,网络有可能陷入局部极小值 附加动量法使反向传播减少了网络在误差表面附加动量法使反向传播减少了网络在误差表面陷入低谷的可能性并有助于减少训练时间陷入低谷的可能性并有助于减少训练时间 太大的学习速率导致学习的不稳定,太小值又太大
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 销售话术与沟通技巧训练培训
- 2024年设备监理师考试题库附答案【轻巧夺冠】
- 跨学科合作教学的实践探索计划
- 旅游行业前台员工工作心得
- 钢铁冶炼工艺创新
- 2024年设备监理师考试题库及答案(必刷)
- 2024年美术教案经典
- 分包采购合作协议(2篇)
- 2024年联通智家工程师(初级)认证理论备考试题库(附答案)
- 通关03 世界史选择题专练(原卷版)
- GB/T 5130-1997电气用热固性树脂工业硬质层压板试验方法
- FZ/T 01041-2014绒毛织物绒毛长度和绒毛高度的测定
- 《经济学导论》考试复习题库(含答案)
- 农田水利渠道灌溉与排水课件
- 精品解析浙教版科学 九年级上册 3.43 简单机械之机械效率 同步练习
- 六棱块护坡施工方案
- 机械制图课件(完整版)
- 夸美纽斯-大教学论-文本细读
- 《行政组织学小抄》word版
- 日立多联机系统调试培训教材
- (完整版)环境科学与工程-专业英语词汇必备(免费)
评论
0/150
提交评论