MATLAB学习笔记复习进程_第1页
MATLAB学习笔记复习进程_第2页
MATLAB学习笔记复习进程_第3页
MATLAB学习笔记复习进程_第4页
MATLAB学习笔记复习进程_第5页
已阅读5页,还剩24页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、Good is good, but better carries it.精益求精,善益求善。MATLAB学习笔记关于协方差的计算A=143;256;769cov(A)运算结果A=143256769ans=10.33333.00009.00003.00001.00003.00009.00003.00009.0000关于MATLAB的这个程序我就不说些什么了,我要说的是这个协方差是怎么算的,以协方差矩阵第一个元素为例,它是怎么得出来的?由于你在MATLAB中得到的帮助是如下这样的:(给下面英文稍注释一下,如果X是向量,则返回方差,如果是矩阵,那么X的行是观察值,列是变量,cov(X)是协方差矩阵。

2、)helpcovcovCovariancematrix.cov(X),ifXisavector,returnsthevariance.Formatrices,whereeachrowisanobservation,andeachcolumnavariable,cov(X)isthecovariancematrix.DIAG(cov(X)isavectorofvariancesforeachcolumn,andSQRT(DIAG(cov(X)isavectorofstandarddeviations.cov(X,Y),whereXandYarematriceswiththesamenumbero

3、felements,isequivalenttocov(X(:)Y(:).cov(X)orcov(X,Y)normalizesby(N-1)ifN1,whereNisthenumberofobservations.Thismakescov(X)thebestunbiasedestimateofthecovariancematrixiftheobservationsarefromanormaldistribution.ForN=1,covnormalizesbyN.cov(X,1)orcov(X,Y,1)normalizesbyNandproducesthesecondmomentmatrixo

4、ftheobservationsabouttheirmean.cov(X,Y,0)isthesameascov(X,Y)andcov(X,0)isthesameascov(X).Themeanisremovedfromeachcolumnbeforecalculatingtheresult.ClasssupportforinputsX,Y:float:double,singleSeealsocorrcoef,var,std,mean.Overloadedmethods:gpuArray/covfints/covxregtwostage/covxregmultilin/covxregmodel/

5、covxreglinear/covxregcovariance/covlocalsurface/covReferencepageinHelpbrowserdoccov好吧,从以上英文中估计你也了解不到太多信息,还是来一个例子才能说明问题,X=2,4,6cov(X)运行结果X=246ans=4对于该向量X,方差而对于A=143;256;769cov(A)运算结果A=143256769ans=10.33333.00009.00003.00001.00003.00009.00003.00009.0000我就仅对协方差矩阵的前两个元素和的计算加以说明此处可计算得其中与可计算得其余协方差中个元素值计算依

6、次类推。下面讲一下cov(X,Y)的计算吧。当X和Y都是同维矩阵时,cov(X,Y)的算法神经网络控制%m221.m神经元的10个作用函数+导数clearall;closeall;%神经元的12个作用函数+导数x=-5:0.01:5;y1=poslin(x);%正线性函数yy1=dposlin(x,y1);%导数y2=purelin(x);%线性函数yy2=dpurelin(x,y2);%导数x1=-22;x2=00;x3=-55;y01=00;y02=-22;%画坐标轴用figure(1);%画图并绘制x,y轴。subplot(221),plot(x,y1,r,linewidth,2);li

7、ne(x1,y01);line(x2,y02);ylabel(y1=f(x);title(正线性函数);axis(-22-22);subplot(222),plot(x,y2,r,linewidth,2);line(x1,y01);line(x2,y02);ylabel(y2=f(x);title(线性函数);axis(-22-22);subplot(223),plot(x,yy1,r,linewidth,2);line(x1,y01);line(x2,y02);ylabel(yy1);xlabel(x);title(正线性函数导数);axis(-22-1.51.5);subplot(224)

8、,plot(x,yy2,r,linewidth,2);line(x1,y01);line(x2,y02);ylabel(yy2);xlabel(x);title(线性函数导数);axis(-22-1.51.5),pause%神经元的34个作用函数+导数y3=satlin(x);%饱和线性函数yy3=dsatlin(x,y3);%导数y4=satlins(x);%对称饱和线性函数yy4=dsatlins(x,y4);%导数figure(2);subplot(221),plot(x,y3,r,linewidth,2);line(x1,y01);line(x2,y02);ylabel(y3=f(x)

9、;title(饱和线性函数);axis(-22-22);subplot(222),plot(x,y4,r,linewidth,2);line(x1,y01);line(x2,y02);ylabel(y4=f(x);title(对称饱和线性函数);axis(-22-22);subplot(223),plot(x,yy3,r,linewidth,2);line(x1,y01);line(x2,y02);ylabel(yy3);xlabel(x);title(饱和线性函数导数);axis(-22-1.51.5);subplot(224),plot(x,yy4,r,linewidth,2);line(

10、x1,y01);line(x2,y02);ylabel(yy4);xlabel(x);title(对称饱和线性函数导数);axis(-22-1.51.5),pause%神经元的56个作用函数y5=hardlim(x);%非对称阶跃函数yy5=dhardlim(x,y5);%导数y6=hardlims(x);%对称阶跃函数yy6=dhardlim(x,y6);%导数figure(3);subplot(221),plot(x,y5,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(y5=f(x);title(非对称阶跃函数);axis(-55-1.51

11、.5);subplot(222),plot(x,y6,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(y6=f(x);title(对称阶跃函数);axis(-55-1.51.5);subplot(223),plot(x,yy5,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(yy5);xlabel(x);title(非对称阶跃函数导数);axis(-55-1.51.5);subplot(224),plot(x,yy6,r,linewidth,2);line(x3,y01);line(x2,y02);

12、ylabel(yy6);xlabel(x);title(对称阶跃函数导数);axis(-55-1.51.5),pause%神经元的78个作用函数y7=logsig(x);%非对称Sigmoid函数yy7=dlogsig(x,y7);%导数y8=tansig(x);%对称Sigmoid函数yy8=dtansig(x,y8);%导数figure(4);subplot(221),plot(x,y7,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(y7=f(x);title(非对称Sigmoid函数);axis(-55-1.51.5);subplot(2

13、22),plot(x,y8,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(y8=f(x);title(对称Sigmoid函数);axis(-55-1.51.5);subplot(223),plot(x,yy7,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(yy7);xlabel(x);title(非对称Sigmoid函数导数);axis(-55-1.51.5);subplot(224),plot(x,yy8,r,linewidth,2);line(x3,y01);line(x2,y02);yla

14、bel(yy8);xlabel(x);title(对称Sigmoid函数导数);axis(-55-1.51.5),pause%神经元的910个作用函数+导数y9=radbas(x);%RBF函数yy9=dradbas(x,y9);%导数y10=tribas(x);%三角基函数yy10=dtribas(x,y10);%导数figure(5);subplot(221),plot(x,y9,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(y9=f(x);title(高斯RBF函数);axis(-55-1.51.5);subplot(222),plot(

15、x,y10,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(y10=f(x);title(三角基函数);axis(-55-1.51.5);subplot(223),plot(x,yy9,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(yy9);xlabel(x);title(高斯RBF函数导数);axis(-55-1.51.5);subplot(224),plot(x,yy10,r,linewidth,2);line(x3,y01);line(x2,y02);ylabel(yy10);xlabel(

16、x);title(三角基函数导数);axis(-55-1.51.5),pause相应的运行结果如下图HYPERLINK/wentingtu/archive/2012/06/05/2536425.htmlBP神经网络模型与学习算法一,什么是BPBP(BackPropagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的HYPERLINK/view/3406239.htmt/wentingtu/archive/2012/06/05/_blank神经网络模型之一。BP网络能学习和存贮大量的输入-输出模

17、式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidelayer)和输出层(outputlayer)。我们现在来分析下这些话:“是一种按误差逆传播算法训练的多层前馈网络”BP是后向传播的英文缩写,那么传播对象是什么?传播的目的是什么?传播的方式是后向,可这又是什么意思呢。传播的对象是误差,传播的目的是得到所有层的估计误差,后向是说由后层误差推导前层误差:即BP的思想可以总结为利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计

18、更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。“BP神经网络模型拓扑结构包括输入层(input)、隐层(hidelayer)和输出层(outputlayer)”我们来看一个最简单的三层BP:“BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。”BP利用一种称为激活函数来描述层与层输出之间的关系,从而模拟各层神经元之间的交互反应。激活函数必须满足处处可导的条件。那么比较常用的是一种称为S型函数的激活函数:那么上面的函数为什么称为是S型函数呢:我们来看它的形态和它导数的形态:p.s.S型函数的导数:神经网络的学习目的:希望能够学习到一个模型,能够对输入输出一个我们期望的输出。学习的方式:在外界输入样本的刺激下不断改变网络的连接权值学习的本质:对各连接权值的动态调整学习的核心:权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。二,有监督的BP模型训练过程1.思想有监督的BP模型训练表示我们有一个训练集,它包括了:inputX和它被期望拥有的输出outputY所以对于当前的一个BP模型,我们能够获得它针对于训练集的误差所以BP的核心思想就是:将输出误差以某种

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论