深度学习(DL)CNN卷积神经网络算法详解_第1页
深度学习(DL)CNN卷积神经网络算法详解_第2页
深度学习(DL)CNN卷积神经网络算法详解_第3页
深度学习(DL)CNN卷积神经网络算法详解_第4页
深度学习(DL)CNN卷积神经网络算法详解_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、imageimaceConvoiuticnallayersClassificationn刖pmneurors如上图所示,卷积神经网络架构与常规人工神经网络架彳络能够接受多个特征图作为输入,而不是向量。勺最后一层,即全连接。此外,l-SiWaiC还注意到卷积神经网下面让我们探索构成卷积神经网络的基本构件及相关的数学运算过程,并根据在训练过程中学到的特征和属性对图像进行可视化和分类。1-r深度学习(DL)-CNN卷积神经网络算法详解卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子采样层(池化层)构成的特征抽取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。在

2、CNN的一个卷积层中,通常包含若干个特征平面(featureMap),每个特征平面由一些矩形排列的的神经元组成,同一特征平面的神经元共享权值,这里共享的权值就是卷积核。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中卷积核将学习得到合理的权值。共享权值(卷积核)带来的直接好处是减少网络各层之间的连接,同时又降低了过拟合的风险。子采样也叫做池化(pooling),通常有均值子采样(meanpooling)和最大值子采样(maxpooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了模型复杂度,减少了模型的参数。积神经网络CNN(ConvolutionalNeur

3、alNetwork)可以应用于语音识别、图像处理和图像识别等领域。1、卷积神经网络的架构、输入层()L输入层主要是nxmx3RGB图像,这不同于DNN神经网络,DNN神经网络的输入是nx1维的矢量。、卷积层(C)L在卷积层中,计算输入图像的区域和滤波器(卷积核)的权重矩阵之间的点积,并将其结果作为该层的输出。滤波器将滑过整个图像重复相同的点积运算。这里注意两件事:。滤波器必须具有与输入图像相同数量的通道;。网络越深,使用的滤波器就越多;拥有的滤波器越多,获得的边缘和特征检测就越多;%匕:匸00000厶40220204生02200000000002/0oy才耳2000000z-1-JTyi00-

4、曲-/y-70/-0上图有RGB个filter:W0和W*输出的就是两个图像FilterVI小:八心togglemermen:色通道,则对应的filter过滤器也是三维的,图像经过每个filter做卷积运算后都会得到对应提取特征的图像,途中两这里的步长st;ide为2(-般就取2,3)在原图上添加zero-padding,它是超参数,主要用于控制输出的大小同样也是做卷积操作,以下图的一步卷积操作为例:与w0:,:,0卷积:0 x(-1)+0 x0+0 x1+0 x1+0 x0+1x(-1)+1xO+1x(-1)+2x0=-2与w0:,:,1卷积:2x1+1x(-1)+1x1=2与w0:,:,2

5、卷积:1x(-1)+1x(-1)=-2最终结果:-2+2+(-2)+1=-1(1为偏置)FilterVO(3k3k3jOj.tpuTVolumel3i3:2)0000_npjtxgoQ2Q卷积层输出的尺守:wl:,:,0o:f:fC:D13-:13321333-1o::1331-2:1165:13476Filter(3i3k3)000000000o402o02/(00坊0022n/000/00:1311A-3:F:f2Eiasblllxlil)心:Qtogglemovenient022020输出宽度:U厶乙输出高度:其中:W:输入图像的宽度H:输入图像的高度Fw:滤波器或内核的宽度Fh:滤波器

6、的高度P:填充S:移动步幅卷积层输出的通道数等于卷积操作期间使用的滤波器的个数。为什么选择卷积?为什么要首先使用卷积操作?为什么不从一开始就展开输入图像矩阵?在这里给出答案,如果这样做,我们最终会得到大量需要训练的参数,而且大多数人都没有能够以最快的方式解决计算成本高昂任务的能力。此外,由于卷积神经网络具有的参数会更少,因此就可以避免出现过拟合现象。4池化层(PoolingLadr池化层也叫下采样层,其具体操作与卷基层的操作基本相同,只不过下采样的卷积核为只取对应位置的最大值、平均值等(最大池化、平均池化),并且不经过反向传播的修改。目前,有两种广泛使用的池化操作平均池化(averagepoo

7、ling)和最大池化(maxpooling),其中最大池化是两者中使用最多的一个操作,其效果一般要优于平均池化。池化层用于在卷积神经网络上减小特征空间维度,但不会减小深度。当使用最大池化层时,采用输入区域的最大数量,而当使用平均池化时,采用输入区域的平均值。FeatureMapMix-PoolingPooling的方法中average方法对背景保留更好,max对纹理提取更好“深度学习可以进行多次卷积、池化操作“为什么要池化?池化层的核心目标之一是提供空间方差,这意味着你或机器将能够将对象识别出来,即使它的外观以某种方式发生改变。、激活层(也称:非线性层(onlinearitLa)r在每次卷积操

8、作之后一般都会经过一个激活层,也称非线性层现在一般选择是ReLu,层次越深,相对于其他的函数效果较好,还有Sigmod,tanh函数等如图,ReLU激活函数:TransferFuidion基本上全连接层的部分就是将之前的结果平坦化之后接到最基本的神经网络了。在全连接层中,我们将最后一个卷积层的输出展平,并将当前层的每个节点与下一层的另一个节点连接起来。全连接层只是人工神经网络的另一种说法,如下图所示。全连接层中的操作与一般的人工神经网络中的操作完全相同:上面讨论的层和操作都是每个卷积神经网络的核心组件,现在已经讨论了卷积神经网络在前向传播中经历的操作,下面让我们跳转到卷积神经网络在反向传播中经

9、历的操作。0QQQ00Q010a01D000C000000L000010C01QD01E100000a0007、反向传播(Backpropagation)1)全连接层:在全连接层中,反向传播与任何常规人工神经网络完全相同,在反向传播中(使用梯度下降作为优化算法),使用损失函数的偏导数即损失函数关于权重的导数来更新参数,其中我们将损失函数的导数与激活输出相乘,激活输出的导数与非激活输出相乘,导数为未激活的输出与权重相对应。反向传播数学表达式如下:output112J(w)InitialGradientGlobalcostminimumoutputhiEc1=1targetc1-out)2在计算梯

10、度之后,我们从初始权重中减去它以得到新的优化:_i:二也-其中:8i+1:优化的权重8i:初始权重a:学习率VJ(9i):损失函数的梯度在下面的动态图中,是将梯度下降应用于线性回归的结果。从图中可以清楚地看到代价函数越小,线性模型越适合数据。Costatstep12=0.451zoo-L-feriuatvsatpLabelleddata&modeloutputarjEtt-Sitedline:10BiglearningrateSmalllearningrate情况下通过偏导数,你会计算多少股票受到影响而其他因素保持不变,股票发生变化,则公司的价格也会发生变化。L50175125KM此外,请注意岂点,应该谨慎地选择学习率的取值,学习率太高可能会导致梯度超过旱标最號值,学习率太低可能导致网络模型收敛速度变慢。(2)池化层(PoolingLayer):在最大池化特征图层中,梯度仅通过最大值反向传播,因此稍微更改它们并不会影响输出。在此过程中,我们将最大池化操作之前的最大值替换为1,并将所有非最大值设置为零,然后使用链式法则将渐变量乘以先前量以得到新的参数值。与最大池化层不同,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论