深度学习算法原理——神经网络的基本原理_第1页
深度学习算法原理——神经网络的基本原理_第2页
深度学习算法原理——神经网络的基本原理_第3页
深度学习算法原理——神经网络的基本原理_第4页
深度学习算法原理——神经网络的基本原理_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、豁层输出层深度学习算法原理候候神经网络的基本原理相信每位刚接触神经网络的时候都会先碰到BP算法的问题,如何形象快速地理解BP神经网络就是我们学习的高级乐趣了(画外音:乐趣?你在跟我谈乐趣?)本篇博文就是要简单粗暴地帮助各位童鞋快速入门采取BP算法的神经网络。BP神经网络是怎样的一种定义?看这句话:一种按“误差逆传播算法训练”的多层前馈网络。BP的思想就是:利用输出后的误差来估计输出层前一层的误差,再用这层误差来估计更前一层误差,如此获取所有各层误差估计。这里的误差估计可以理解为某种偏导数,我们就是根据这种偏导数来调整各层的连接权值,再用调整后的连接权值重新计算输出误差。直到输出的误差达到符合的

2、要求或者迭代次数溢出设定值。说来说去,“误差”这个词说的很多嘛,说明这个算法是不是跟误差有很大的关系?没错,BP的传播对象就是“误差”,传播目的就是得到所有层的估计误差。它的学习规则是:使用最速下降法,通过反向传播(就是一层一层往前传)不断调整网络的权值和阈值,最后使全局误差系数最小。它的学习本质就是:对各连接权值的动态调整。uthide拓扑结BP网络的优势就是能学习和储存大量的输入输出的关系,而不用事先指出这种数学关系。那么它是如何学习的?BP利用处处可导的激活函数来描述该层输入与该层输出的关系,常用S型函数d来当作激活函数。我们现在开始有监督的BP神经网络学习算法:1、正向传播得到输出层误差e=输入层输入样本=各隐藏层=输出层2、判断是否反向传播=若输出层误差与期望不符=反向传播3、误差反向传播=误差在各层显示=修正各层单元的权值,直到误差减少到可接受程度。算法阐述起来比较简单,接下来通过数学公式来认识BP的真实面目。假设我们的网络结构是一个含有N个神经元的输入层,含有P个神经元的隐层,含有Q个神经元的输出层。XiW1U1f(j)wl+1ul+1这些变量分别如下:隐含层输入向量;A隐含层输出向量;加=(隔川如,叫)A输出层输加向量“竽虫珂州咖“汀)A输出层输出向量;=(珅26,严j*曲谀関山占县.r!rA认识好以上变量后,开始计算:输入层与中间层的连接权值:

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论