CNN卷积神经网络单元测试与答案_第1页
CNN卷积神经网络单元测试与答案_第2页
CNN卷积神经网络单元测试与答案_第3页
CNN卷积神经网络单元测试与答案_第4页
CNN卷积神经网络单元测试与答案_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一、单选题1、关于深度学习的说法正确的是哪个?A批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布B.与Sigmoid函数相比,Relu较不容易使网络产生梯度消失C.梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值D.用Sigmoid激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用Tanh函数改进正确答案:B2、下面关于池化的描述中,错误的是哪个?A.池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化B.在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征C.池化在CNN中可以减少较多的计算量,加快模型训练D.池化方法可以自定义正确答案:A3、下面关于CNN的描述中,错误的说法是哪个?A.局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度8.卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(Featuremap)就越多^卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变D.SAME填充(padding)一般是向图像边缘添加0值正确答案:C4、下面关于深度学习网络结构的描述,正确的说法是哪个?A.在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量一定越多B.网络结构的层次越深,其学习的特征越多,10层的结构要优于5层的C.深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关D.网络的层次越深,其训练时间越久,5层的网络要比4层的训练时间更长正确答案:C5、假设输入是一个300x300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?A.27,000,001B.9,000,100C.27,000,100D.9,000,0016、假设输入是一张300x300彩色图像,第一个隐藏层使用了100个5*5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?A.7601B.7600C.7500D.2501正确答案:B7、有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充(nopadding),输出是多少?A.39*39*32B.40*40*32C.44*44*16D.29*29*32正确答案:B8、对于65x65x6的输入特征图,用32个5*5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?A.32*32*32B.33*33*32C.32*32*5D.65*65*12正确答案:B9、对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?B.32*32*3C.32*32*6D.16*16*6正确答案:D10、假设一个卷积神经网络,第一个全连接层前的池化层输出为12*12*250,其展开的向量长度为?A.224B.3600C.36000D.3000正确答案:C11、假设某卷积层的输入和输出特征图大小分别为63*63*6和31*31*12,卷积核大小是5*5,步长为2,那么Padding值为多少?A.1B.2C.3D.4正确答案:A12、假设某卷积层的输入特征图大小为36*32*6,卷积核大小是5*3,通道为20个,步长为1,没有padding,那么得到的特征图大小为?A.27*30*20B.36*34*20C.32*28*613、下面哪种操作不能改善卷积网络训练的稳定性?A.冲量项84比归一化(batchnormalization)C.动态的学习步长调整,例如AdamD提高mini-batch中的样本个数正确答案:A14、有关卷积核的大小对卷积神经网络的影响,哪个说法是正确的?A.小的卷积核级联的效果等价于大卷积核的效果,但权重等参数会大大减少B.过大的卷积核对应大量的参数,卷积神经网络不容易出现过拟合C.大的卷积核对应的感受野比较大,更容易获得图像的特征D.小的卷积核可以获得图像比较细致的特征,它们组合起来可能降低网络的分类准确率正确答案:A15、对于神经网络而言,哪个不是输入的标准化的作用?A.使得第一个隐层的输入不至于过大或过小,提高网络训练的收敛速度B.减少网络的过拟合C.减少不同输入特征数据量纲的差别D.降低网络的计算量二、多选题1、以下有关卷积神经网络的说法,哪些是错误的?A卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快8.通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力C.共享权重大大减少了参数的个数,降低了网络的复杂度口.卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化正确答案:A、D2、有关通道的说法,哪些说法是正确的?庆在卷积操作时,每个卷积核要对输入特征图的所有通道分别做卷积后求和,得到对应的新特征图8.通道数越多,获得的特征图越多,网络获得的特征越充分^卷积层的输入特征图的通道数和输出特征图的通道数是相同的D.随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能正确答案:B、D3、下面有关卷积神经网络的说法哪些是正确的?A.在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补08.在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取^卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能口.卷积核的高和宽不一定是相等的,且一般大小取奇数正确答案:A、C、D4、以下哪些方法能改进卷积神经网络的训练质量?A.batchnomalizationB.dropoutC.增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升D.权重归一化正确答案:A、B、D5、下面关于池

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论