激活函数 市赛获奖_第1页
激活函数 市赛获奖_第2页
激活函数 市赛获奖_第3页
激活函数 市赛获奖_第4页
激活函数 市赛获奖_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

激活函数主讲:孙静激活函数首先激活函数顾名思义就是一个函数,为神经元提供规模化非线性化能力,激活函数的最大作用就是非线性化,激活函数是一个掰弯利器,将正常的输入的线形函数变成非线性的。比如当进行逻辑回归即分类时,如果没有激活函数那么神经网络相当于一个线形函数,这种情况下就无法将数据分成固定的几个类别了,而使用激活函数就可以将线性的数据掰弯成自己想要类型的数据。

Sigmoid函数:函数示意图如右图所示。函数式如下所示:激活函数可以看到sigmoid函数将输入的实数压缩在0~1之间,将非常大的正数压缩成1,将非常大的负数压缩成0。

Sigmoid函数优缺点激活函数优点:1处处连续,便于求导,方便应用到反向传播。2将数据从实数空间R变换到概率空间[0,1]。缺点:1在数值趋向无穷的时候数值变化不大,梯度趋向于0,在深层神经网络的反向传播中容易发生梯度消失,这一点在图像中表现在函数线趋向于直线x=1,所以导数是0即梯度也是0,比如当你初始值特别大时,函数的梯度为0,因此梯度下降算法失效,学习失败;2整个函数的输出值在0~1之间,因此输出值的平均值不会是0,这个缺点的影响在于导致计算的梯度始终会大于0,梯度下降会以z字型下降。3计算量大.

tanh函数:函数示意图如右图所示。函数式如下所示:激活函数可以很明显的看到tanh()是sigmoid函数的优化,优化了sigmoid函数的第二个缺点,而tanh函数其他特点也都和sigmoid类似。

relu函数:函数示意图如右图所示。函数式如下所示:激活函数由函数图像和表达式可以很清楚的看到,当输入值小于等于0时,输出0;大于0时,输入本身。

relu函数优缺点激活函数优点:relu在使用SGD时收敛速度明显会加快。其次,相比于sigmoid/tanh,ReLU只需要一个阈值就可以得到激活值,而不用去算一大堆复杂的运算。缺点:但同时relu也有缺点,这个缺点在我用python手写神经网络时也遇到了,就是当使用较大的learningrate时神经元死掉。

softmax函数:函数式如下两种形式所示:激活函数这里假设分类结果有C种(minist中即有10种),y代表的就是第i种的概率,那么结果会是一个C维向量(y1,y2...yc),其中y1代表该输出是第一类的概率,y2代表该输出是第2类的概率以此类推。然后我们选取其中概率最大的一个作为我们的结果

softmax函数:函数式如下两种形式所示:激活函数例如识别手写数字minist模型中C=10有10种分类,输出为y=(0.9,0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1),这个结果代表输入值为0,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论