《深度学习与Python实现与应用》课件python第三章_第1页
《深度学习与Python实现与应用》课件python第三章_第2页
《深度学习与Python实现与应用》课件python第三章_第3页
《深度学习与Python实现与应用》课件python第三章_第4页
《深度学习与Python实现与应用》课件python第三章_第5页
已阅读5页,还剩36页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录contents01神经元02网络结构03前馈神经网络06优化问题05自动梯度计算04反向传播算法神经元013.1神经元人工神经元(ArtificialNeuron),简称神经元(Neuron),是构成神经网络的基本单元,其主要是模拟生物神经元的结构和特性,接收一组输入信号并产生输出。函数表示:3.1.1Sigmoid函数Sigmoid型函数是指一类S型曲线函数,为两端饱和函数。常用的Sigmoid型函数有Logistic函数和

Tanh函数。Logistic函数

Tanh函数3.1.1Sigmoid函数(1)Hard-Logistic函数和Hard-Tanh函数Logistic函数和Tanh函数都是Sigmoid型函数,具有饱和性,但是计算开销较大。因为这两个函数都是在中间(0附近)近似线性,两端饱和。因此,这两个函数可以通过分段函数来近似。Logistic函数在0附近的一阶泰勒展开(Taylorexpansion)为:这样Logistic函数可以用分段函数hard-logistic(x)来近似:3.1.1Sigmoid函数3.1.2ReLU函数ReLU(RectifiedLinearUnit,修正线性单元)[Nairetal.,2010],也叫Rectifier函数[Glorotetal.,2011],是目前深度神经网络中经常使用的激活函数。定义:3.1.2ReLU函数(1)带泄露的ReLU带泄露的ReLU的定义如下:其中γ是一个很小的常数,比如0.01.当γ<1时,3.1.2ReLU函数(2)带参数的ReLU带参数的ReLU(ParametricReLU,PReLU)引入一个可学习的参数,不同神经元可以有不同的参数:其中γ是一个很小的常数,比如0.01.当γ<1时,3.1.2ReLU函数(3)ELU函数ELU(ExponentialLinearUnit,指数线性单元)是一个近似的零中心化的非线性函数,其定义为:其中γ≥0是一个超参数,决定x≤0时的饱和曲线,并调整输出均值在0附近。3.1.2ReLU函数(4)softplus函数Softplus

函数可以看作Rectifier函数的平滑版本,其定义为:3.1.3Swish函数Swish函数是一种自门控(Self-Gated)激活函数,定义为:3.1.4GELU函数GELU(GaussianErrorLinearUnit,高斯误差线性单元)也是一种通过门控机制来调整其输出值的激活函数,和Swish函数比较类似。由于高斯分布的累积分布函数为S型函数,因此GELU函数可以用Tanh函数或Logistic函数来近似,3.1.5Maxout单元

Maxout

单元的非线性函数定义为:网络结构023.2网络结构三种不同的神经网络:前馈神经网络033.3前馈神经网络前馈神经网络(FeedforwardNeuralNetwork,FNN)是最早发明的简单人工神经网络。前馈神经网络也经常称为多层感知器(Multi-LayerPerceptron,MLP)。3.3前馈神经网络

或整个函数输出过程:3.3.1通用近似定理

通用近似定理说明了神经网络的计算能力可以去近似一个给定的连续函数。但并没有给出如何找到这样一个网络,以及是否是最优的。3.3.2应用到机器学习

如果给定一个训练样本,那分类结果可以表示为:3.3.3参数学习

反向传播算法043.4反向传播算法

3.4反向传播算法

3.4反向传播算法

3.4反向传播算法

3.4反向传播算法

3.4反向传播算法在计算出每一层的误差项之后,我们就可以得到每一层参数的梯度。因此,使用误差反向传播算法的前馈神经网络训练过程可以分为以下三步:

自动梯度计算053.5自动梯度计算自动计算梯度的方法可以分为以下三类:数值微分、符号微分和自动微分。数值微分(NumericalDifferentiation)是用数值方法来计算函数f(x)的导数。函数f(x)的点x的导数定义为:在实际的应用中一般采取:3.5.1数值微分3.5.2符号微分符号微分(SymbolicDifferentiation)是一种基于符号计算的自动求导方法。符号计算也叫代数计算,是指用计算机来处理带有变量的数学表达式。。符号计算的输入和输出都是数学表达式,一般包括对数学表达式的化简、因式分解、微分、积分、解代数方程、求解常微分方程等运算。化简示例:优点:和平台无关,可以在CPU或GPU上运行。缺点:1、编译时间较长,特别是对于循环,需要很长时间进行编译;2、为了进行符号微分,一般需要设计一种专门的语言来表示数学表达式,并且要对变量(符号)进行预先声明;3、很难对程序进行调试。3.5.3自动微分自动微分的基本原理是所有的数值计算可以分解为一些基本操作,包含+,−,×,/和一些初等函数exp,log,sin,cos等,然后利用链式法则来自动计算一个复合函数的梯度。例:,x=1,w=0,b=03.5.3自动微分

3.5.3自动微分其中6个基本函数如下表:按照计算导数的顺序,自动微分可以分为两种模式:前向模式和反向模式。3.5.3自动微分

3.5.3自动微分

符号微分和自动微分优化问题063.6.1非凸优化问题

3.6.2梯度消失问题在神经网络中误差反向传播的迭代公式为误差从输出层反向传播时,在每一层都要乘以该层的激活函数的导数。这里的激活函数使用Sigmoid型函数:Logistic函数σ(x)或Tanh函数时,其导数为3.6.2梯度消失问题由于Sigmoid型函数的饱和性,饱和区的导数

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论