人工神经网络学习课件_第1页
人工神经网络学习课件_第2页
人工神经网络学习课件_第3页
人工神经网络学习课件_第4页
人工神经网络学习课件_第5页
已阅读5页,还剩17页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、人工神经网络学习人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型, 由大量的神经元之间相互联接构成,每两个神经元间的连接都代表一个对于通过该连接信号的加权值反向传播算法,使用梯度下降来调节网络参数以最佳拟合由输入-输出对组成的训练集合 先用样本数据训练神经网络时,它自动地将输出值与期望值进行比较,得到误差信号,再根据误差信号,从后向前调节各神经网络层神经元之间的连接强度,然后再进行运算,使误差减小,再将新的输出值与期望值进行比较,得到新的比先前小的误差信号,再根据较小的误差信号,从后向前重新调节各神经网络层神经元之间的连接强度,依此不断地多次进行,直到误差满足要求为止感

2、知器感知器以一个实数值向量作为输入,计算这些输入的线性组合,如果结果大于某个阈值,就输出1,否则输出-1。其中每个wi是一个实数常量,或叫做权值,用来决定输入xi对感知器输出的贡献率。特别地,-w0是阈值。f(v)x1x2xnX0=1w0w1w2wn附加一个常量输入x0=1,前面的不等式写成或感知器训练法则虽然我们的目的是学习由多个单元互连的网络,但我们还是要从如何学习单个感知器的权值开始单个感知器的学习任务,决定一个权向量,它可以使感知器对于给定的训练样例输出正确的1或-1我们主要考虑两种算法感知器法则delta法则这两种算法保证收敛到可接受的假设,在不同的条件下收敛到的假设略有不同这两种算

3、法提供了学习多个单元构成的网络的基础感知器法则为得到可接受的权向量,一种办法是从随机的权值开始,然后反复地应用这个感知器到每个训练样例,只要它误分类样例就修改感知器的权值。感知器法则:其中,t是当前训练样例的目标输出,o是感知器的输出,是一个正的常数称为学习速率(0.1)指定一个度量标准来衡量假设相对于训练样例的训练误差 其中,D是训练样例集合, 是训练样例d 的目标输出, 是线性单元对训练样例d的输出经贝叶斯论证,对于给定的训练数据使E最小化的假设也就是H中最可能的假设梯度下降搜索从一个任意的初始权向量开始,然后沿误差曲面最陡峭下降的方向,以很小的步伐反复修改这个向量,直到得到全局的最小误差

4、点梯度下降法则的推导如何发现沿误差曲面最陡峭下降的方向?通过计算E相对向量 的每个分量的导数,这个向量导数被称为E对于 的梯度,记作当梯度被解释为权空间的一个向量时,它确定了使E最陡峭上升的方向,所以这个向量的反方向给出了最陡峭下降的方向梯度训练法则 其中训练法则的分量形式: 其中最陡峭的下降可以按照比例 改变 中的每一分量wi来实现需要一个高效的方法在每一步都计算这个梯度梯度下降权值更新法则sigmoid单元先计算它的输入的线性组合,然后应用到一个阈值上,阈值输出是输入的连续函数f(v)x1x2xnX0=1w0w1w2wn 其中sigmoid函数也称logistic函数挤压函数输出范围是0到1单调递增导数很容易用函数本身表示反向传播算法用来学习多层网络的权值采用梯度下降方法试图最小化网络输出值和目标值之间的误差平方网络的误差定义公式,对所有网络输出的误差求和重新组织各项并使用 表示 我们得到:其中Downstream(j)表示单元j的直接下游单元的集合反向传播算法面临的学习任务搜索一个巨大的假设空间,这个空间由网络中所有的单元的所有可能的权值定义,得到误差曲面在多层网络中,误差曲面可能有多个局部极小值,梯度下降仅能保证收敛到局部

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论