




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
PAGEPAGE1《大数据习题库汇总-深度学习》复习题库(含答案)一、单选题1.将一副图像进行分割后,分割出的区域彼此之间(__)重叠。A、可以B、不可以C、根据任务需要确定是否可以D、根据分割方法确定是否可以答案:B解析:图像分割技术指将图像分成互不重叠,具有各自特征的区域的技术。2.在一个神经网络中,下面哪种方法可以用来处理过拟合()A、DropoutB、分批归一化(BatchNormalization)C、正则化(regularization)D、都可以答案:D解析:Dropout,BatchNormalization和正则化都可以用来处理过拟合。3.输入图像为32x32,经过步长为1,不进行padding,卷积核为5x5的卷积层后,得到的特征图尺寸是多少()A、28x28B、27x27C、29x29D、32x32;答案:A解析:(32+0-5)/1+1=28。4.下列哪一项在神经网络中引入了非线性()A、随机梯度下降修B、正线性单元(ReLU)C、卷积函数D、以上答案都不正确答案:B解析:Relu是目前最常用的激励函数,增加了神经网络模型的非线性。5.在支持向量机中,核函数的主要作用是()。A、将低维空间中线性不可分的数据映射到高维空间,使其线性可分B、将高维空间中线性不可分的数据映射到低维空间,使其线性可分C、将高维空间中线性可分的数据映射到低维空间,使其线性不可分D、将低维空间中线性可分的数据映射到高维空间,使其线性不可分答案:A解析:核函数的作用是将低维空间中线性不可分的数据映射到高维空间,使其线性可分。6.假设你有5个大小为7x7、边界值为0的卷积核,同时卷积神经网络第一层的深度为1。此时如果你向这一层传入一个维度为224x224x3的数据,那么神经网络下一层所接收到的数据维度是多少()A、218x218x5B、217x217x8C、217x217x3D、220x220x5答案:A解析:(224-7)/1+1=218,因为是5个卷积核,所以输出通道肯定是5,选A。7.卷积神经网络可以对一个输入进行多种变换(旋转、平移、缩放),这个表述正确吗()A、对的B、不知道C、看情况D、不对答案:D解析:把数据传入神经网络之前需要做一系列数据预处理(也就是旋转、平移、缩放)工作,神经网络本身不能完成这些变换。8.从网络的原理上来看,结构最复杂的神经网络是()。A、卷积神经网络B、长短时记忆神经网络C、GRUD、BP神经网络答案:B解析:从网络的原理上来看,结构最复杂的神经网络是LSTM。9.最早被提出的循环神经网络门控算法是什么()A、长短期记忆网络B、门控循环单元网络C、堆叠循环神经网络D、双向循环神经网络答案:A解析:LSTM是最早被提出的循环神经网络门控算法。长短期记忆网络(Long-ShortTermMemory,LSTM)论文首次发表于1997年11月15日。门控循环单元网络(GRU)论文发表于2014年。堆叠循环神经网络(SRNN)论文发表于2017年。双向循环神经网络(Bidirectionalrecurrentneuralnetworks)发表于1997年11月。
多选题(共29题)10.给定一个长度为n的不完整单词序列,我们希望预测下一个字母是什么。比如输入是predictio(9个字母组成),希望预测第十个字母是什么。下面哪种神经网络结构适用于解决这个工作()A、循环神经网络B、全连接神经网络C、受限波尔兹曼机D、卷积神经网络答案:A解析:循环神经网络具有记忆性、参数共享并且图灵完备,因此在对序列的非线性特征进行学习时具有一定优势。循环神经网络在自然语言处理(NaturalLanguageProcessing,NLP),例如语音识别、语言建模、机器翻译等领域有应用,也被用于各类时间序列预报。11.以下说法错误的是:(__)。A、当目标函数是凸函数时,梯度下降的解时全局最优解B、进行PCA降维时需要计算协方差矩阵C、沿负梯度下降的方向一定是最优的方向D、利用拉格朗日函数能解带约束的优化问题答案:C解析:梯度下降法并不是下降最快的方向,它只是目标函数在当前的点的切平面上下降最快的方向,可以说负梯度下降的方向一定是局部最优的方向。12.深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大量的矩阵相乘,现在需要计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别为m∗n,n∗p,p∗q,且m<n<p<q,以下计算顺序效率最高的是(__)。A、(AB)CB、AC(B)C、A(BC)D、所有效率都相同答案:A解析:B选项中A的列数与C的行数不相等,无法相乘,B选项排除。A选项需要的乘法次数为m*n*p+m*p*q,C选项需要的乘法次数为n*p*q+m*n*q,由于m<n<p<q,显然A运算次数更少。13.()是M-P神经元,也称为阈值逻辑单元。A、输入层B、输出层C、第一层D、第二层答案:B解析:感知机(Perceptron)由两层神经元组成,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,亦称阈值逻辑单元(thresholdlogicunit)。14.下列对于sigmoid函数的说法,错误的是()A、存在梯度爆炸的问题B、不是关于原点对称C、计算exp比较耗时D、存在梯度消失的问题答案:A解析:对于sigmoid函数,S型函数图像向两边的斜率逼近0,因此随着网络层增加,梯度消失比梯度爆炸更容易发生的多。15.循环神经网络适合处理什么数据()A、节点数据B、序列数据C、结构化数据D、图像数据答案:B解析:循环神经网络是一种用于处理序列数据的神经网络,相比一般的神经网络来说,他能够处理序列变化的数据。比如某个单词的意思会因为上文提到的内容不同而有不同的含义,RNN就能够很好地解决这类问题。16.LSTM中,(__)的作用是确定哪些新的信息留在细胞状态中,并更新细胞状态。A、输入门B、遗忘门C、输出门D、更新门答案:A解析:LSTM中,输入门的作用是确定哪些新的信息留在细胞状态中,并更新细胞状态;遗忘门决定我们会从细胞状态中丢弃什么信息;输出门确定输出。17.以下哪一个不是长短时记忆神经网络三个门中中的一个门()A、输入门B、输出门C、遗忘门D、进化门答案:D解析:LSTM增加了三个门用来控制信息传递和最后的结果计算,三个门分别为遗忘门、输入门、输出门。18.下列哪种算法可以用神经网络构建?(__)1.K-NN最近邻算法;2.线性回归;3.逻辑回归A、1and2B、2and3C、1,2and3D、Noneoftheabove答案:B解析:KNN是关于距离的学习算法,没有任何参数,所以无法用神经网络构建。19.下列不属于深度学习内容的是(__)。A、深度置信网络B、受限玻尔兹曼机C、卷积神经网络D、贝叶斯学习答案:D解析:贝叶斯学习属于传统的机器学习算法。20.多层前馈神经网络描述错误的是:(__)。A、输出层与输入层之间包含隐含层,且隐含层和输出层都拥有激活函数的神经元B、神经元之间存在同层连接以及跨层连接C、输入层仅仅是接收输入,不进行函数处理D、每层神经元上一层与下一层全互连答案:B解析:多层前馈神经网络的特点:1.每层神经元与下一层神经元之间完全互连2.神经元之间不存在同层连接3.神经元之间不存在跨层连接21.关于SOM神经网络描述错误的是:(__)。A、一种竞争学习型的无监督神经网络B、将高维输入数据映射到低维空间,保持输入数据在高维空间的拓扑结构C、SOM寻优目标为每个输出神经元找到合适的权重D、输出层神经元以矩阵方式排列在二维空间答案:C解析:SOM网络是一种竞争学习型的无监督神经网络。它能将高维输入数据映射到低维空间(通常为二维),同时保持输入数据在高维空间的拓扑结构。SOM网络中的输出层神经元以矩阵方式排列在二维空间中,每个神经元都拥有一个权向量。SOM的训练目标就是为每个输出层神经元找到合适的权向量。22.误差逆传播算法(BP)仅可用于多层前馈神经网络的学习算法(__)。A、正确B、错误答案:B解析:误差逆传播算法(backpropagation
BP算法)是迄今最成功的的神经网络算法。显示任务中使用神经网络时,大多是在使用BP算法进行训练。不仅适用于多层前馈神经网络,还可以用于其他类型的神经网络,训练递归。23.构建一个神经网络,将前一层的输出和它自身作为输入。下列哪一种架构有反馈连接()A、循环神经网络B、卷积神经网络C、限制玻尔兹曼机D、都不是答案:A解析:循环神经网络有反馈连接。24.卷积神经网络中每层卷积层(Convolutionallayer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到,其作用是(__)。A、增强图像B、简化图像C、特征提取D、图像处理答案:C解析:卷积层(Convolutionallayer),卷积神经网络中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。25.当在卷积神经网络中加入池化层(poolinglayer)时,变换的不变性会被保留,是吗()A、不知道B、看情况C、是D、否答案:C解析:使用池化时会导致出现不变性。26.下列哪一种架构有反馈连接(__)。A、循环神经网络B、卷积神经网络C、受限玻尔兹曼机D、都不是答案:A解析:循环神经网络RNN的本质特征是在处理单元之间既有内部的反馈连接又有前馈连接。从系统观点看,它是一个反馈动力系统,在计算过程中体现过程动态特性,比前馈神经网络具有更强的动态行为和计算能力。27.下列哪项关于模型能力(modelcapacity指神经网络模型能拟合复杂函数的能力)的描述是正确的()A、隐藏层层数增加,模型能力增加B、
Dropout的比例增加,模型能力增加C、学习率增加,模型能力增加D、都不正确答案:A解析:Dropout比例增加,可能会丢失过多参数影响模型能力;学习率过大,梯度下降可能会越过最低点,无法收敛。28.下列()不是神经网络的代表。A、卷积神经网络B、递归神经网络C、残差网络D、xgboost算法答案:D解析:xgboost是boosting算法的代表。29.BP神经网络具有很的表示能力,它经常遭遇(),其训练误差持续降低,但测试误差却可能上升。A、欠拟合B、误差过大C、误差过小D、过拟合答案:D解析:由于其强大的表示能力,BP神经网络经常遭遇过拟合,其训练误差持续降低,但测试误差却可能上升。30.对于神经网络的说法,下面正确的是(__)。A、增加神经网络层数,可能会增加测试数据集的分类错误率B、减少神经网络层数,总是能减小测试数据集的分类错误率C、增加神经网络层数,总是能减小训练数据集的分类错误率D、1、2都对答案:A解析:增加神经网络层数,可能会增加测试数据集的分类错误率。31.自然语言处理、语音识别、股票交易、气象预测等应用适合采用(__)处理。A、循环神经网络B、卷积神经网络C、多层神经网络D、单层神经网络答案:A解析:循环神经网络具有记忆性、参数共享并且图灵完备,因此在对序列的非线性特征进行学习时具有一定优势。循环神经网络在自然语言处理,例如语音识别、语言建模、机器翻译等领域有应用,也被用于各类时间序列预报如股票交易和气象预测。卷积神经网络主要用于图像处理。多层神经网络主要用于分类任务,单层神经网络只能实现简单的逻辑如与、或、非,若不加激活函数甚至无法实现异或。32.长短时记忆神经网络被设计用来解决什么问题()A、传统RNN存在的梯度消失/爆炸问题B、传统RNN计算量大的问题C、传统RNN速度较慢的问题D、传统RNN容易过过拟合的问题答案:A解析:长短时记忆神经网络增加一个用来保存长期状态的单元来解决梯度消失问题。33.()不仅可用于多层前馈神经网络,还可用于其他类型的神经网络。A、感知机B、神经元C、神经系统D、误差逆传播答案:D解析:误差逆传播(error
BackPropagation,简称BP)算法不仅可用于多层前馈神经网络,还可用于其他类型的神经网络,例如训练递归神经网络[Pineda,1987]。34.以下说法不正确的是()。A、卷积神经网络主要用于目标识别、图像分割等方面B、循环神经网络主要用于处理序列数据C、长短时记忆神经网络主要用于处理序列数据D、长短时记忆神经网络是和循环神经网络完全不同的一种新型神经网络答案:D解析:长短时记忆神经网络是一种改进的循环神经网络。35.考察一个由三个卷积层组成的CNN:kernel=3×3,stride=2,padding=SAME。最低层输出100个特征映射(featuremap),中间层200个特征映射,最高层400个特征映射。输入是200×300的RGB图片,总参数的数量是多少()A、903400B、2800C、180200D、720400答案:A解析:第一层中由于第一个卷积kernel=3×3,输入有3个通道(channel),因此每个特征映射有3×3×3个weight,加上bias,每个特征映射对应28个参数。由于第一层有100个特征映射,因此有2800个参数;第二层中kernel=3×3,输入是前一层的100个特征映射,因此每个特征映射有3×3×100=900个weight,加上一个bias。由于共有200个特征映射,因此需要901×200=180200个参数;第三层中kernel=3×3,输入是前一层的200个特征映射,因此(第三层的)每个特征映射有3×3×200=1800个weight,加上bias。由于第三层有400个特征映射。因此这一层共有1801×400=720400个参数。【总共】以上求和共有2800+180200+720400=903400个参数。36.以下跟RNN相关的是(__)。A、梯度消失B、时间步C、梯度爆炸D、以上答案都正确答案:D解析:深度学习基础知识。37.以下关于DNN说法不正确的是(__)。A、层数多B、抽象能力强C、模拟更复杂模型D、广义上包含CNN,DBN,SVM等答案:D解析:DNN不包括SVM和DBM。38.机器学习和深度学习的关系是(__)。A、深度学习包含机器学习B、机器学习包含深度学习C、二者是独立的D、二者相互促进答案:B解析:机器学习包含深度学习。39.长短时记忆神经网络通过什么来缓解梯度消失问题()A、增加网络深度B、减少网络神经元C、使用双向的网络结构D、增加一个用来保存长期状态的单元答案:D解析:长短时记忆神经网络增加一个用来保存长期状态的单元来解决梯度消失问题。40.下列哪个神经网络结构会发生权重共享(__)。A、卷积神经网络B、循环神经网络C、全连接神经网络D、选项A和B答案:D解析:CNN与RNN网络会发生权重共享。41.卷积神经网络(convolutionalneuralnetwork,CNN),是一种专门用来处理具有类似(__)的数据的神经网络。A、网格结构B、数组结构C、序列结构D、表格结构答案:A解析:卷积神经网络是一种专门用来处理具有类似网格结构的数据的神经网络。42.下面哪项不属于循环神经网络的输出模式。(__)A、单输出B、多输出C、同步多输出D、异步多输出答案:C解析:深度学习基础知识。43.关于神经网络结构的权重共享现象,下面哪个选项是正确的()A、只有全连接神经网络会出现B、只有卷积神经网络(CNN)会出现C、只有循环神经网络(RNN)会出现D、卷积神经网络和循环神经网络都会出现答案:D解析:卷积神经网络和循环神经网络会产生权重共享现象。44.在深度学习中,下列对于sigmoid函数的说法,错误的是()。A、存在梯度爆炸的问题B、不是关于原点对称C、计算exp比较耗时D、存在梯度消失的问题答案:A解析:sigmoid函数存在的是梯度消失问题。45.下列关于BP网络说法不正确的是()。A、标准BP算法每次仅针对一个训练样例更新连接权和阈值B、BP神经网络经常遭遇过拟合C、早停策略可用来缓解BP网络的过拟合问题D、晚停策略可用来缓解BP网络的欠拟合问题答案:D解析:早停和正则化是解决BP网络过拟合的两种方法,欠拟合的网络需继续训练,并没有晚停这一说法。46.输入图像已被转换为大小为28×28的矩阵和大小为7×7的步幅为1的核心/滤波器。卷积矩阵的大小是多少()A、22X22B、21X21C、28X28D、7X7答案:A解析:28-7+1=22。47.下列关于LSTM说法错误的是(__)。A、LSTM中存在sigmoid函数B、LSTM中存在tanh函数C、LSTM又称长短时记忆网络D、RNN是LSTM的变种答案:D解析:LSTM在RNN基础上进行了改进,能够学习到长期依赖关系,因此是RNN的一个变种。48.你正在训练一个RNN网络,你发现你的权重与激活值都是NaN,下列选项中,哪一个是导致这个问题的最有可能的原因()A、梯度消失B、梯度爆炸C、ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了D、Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了答案:B解析:训练过程中出现梯度爆炸会伴随一些细微的信号,如:
模型无法从训练数据中获得更新(如低损失)。
模型不稳定,导致更新过程中的损失出现显著变化。
训练过程中,模型损失变成NaN。49.下列哪个不属于CRF模型对于HMM和MEMM模型的优势(__)。A、特征灵活B、速度快C、可容纳较多上下文信息D、全局最优答案:B解析:CRF模型优点:1)与HMM:CRF没有HMM那样严格的独立性假设条件,因而可以容纳任意的上下文信息,特征设计灵活。2)与MEMM:由于CRF计算全局最优输出节点的条件概率,他还克服了MEMM模型标记偏置的缺点。
CRF模型的缺点:训练代价大,复杂度高。50.神经网络感知机只有(__)神经元进行激活函数处理,即只拥有一层功能神经元。A、输出层B、输入层C、感知层D、网络层答案:A解析:神经网络感知机只有输入层神经元进行激活函数处理,即只拥有一层功能神经元。51.以下关于人工神经网络(ANN)的描述错误的有()。A、神经网络对训练数据中的噪声非常鲁棒B、可以处理冗余特征C、训练ANN是一个很耗时的过程D、至少含有一个隐藏层的多层神经网络答案:A解析:未经正则化的神经网络对可能对噪声很敏感。52.下列关于RBM说法错误的是(__)。A、学习过程很快B、RBM训练可以看作对一个深层BP网络的网络权值参数的初始化C、RBM不用人工选择特征D、RBM有标签样本集答案:A解析:RBM学习率更新相比DBN速度较慢。53.考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个预先训练好的网络()A、把除了最后一层外所有的层都冻住,重新训练最后一层B、对新数据重新训练整个模型C、只对最后几层进行调参(finetune)D、对每一层模型进行评估,选择其中的少数来用答案:C解析:如果有个预先训练好的神经网络,就相当于网络各参数有个很靠谱的先验代替随机初始化。若新的少量数据来自于先前训练数据(或者先前训练数据量很好地描述了数据分布,而新数据采样自完全相同的分布),则冻结前面所有层而重新训练最后一层即可;但一般情况下,新数据分布跟先前训练集分布有所偏差,所以先验网络不足以完全拟合新数据时,可以冻结大部分前层网络,只对最后几层进行训练调参(这也称之为finetune)。54.对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,而是都设成0,下面哪个叙述是正确的()A、其他选项都不对B、没啥问题,神经网络会正常开始训练C、神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西D、神经网络不会开始训练,因为没有梯度改变答案:C解析:神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西。55.对于一个图像识别问题(在一张照片里找出一只猫),下面哪种神经网络可以更好地解决这个问题()A、循环神经网络B、感知机C、多层感知机D、卷积神经网络答案:D解析:卷积神经网络可以提取图像特征,且具有平移不变性.循环神经网络适合语言类数据。56.关于以下深度学习框架描述正确的是(__)。A、Tensorflow是一款使用C++语言开发的开源数学计算软件B、Caffe对于卷积网络的支持特别好,同时提供的C++接口,也提供了matlab接口和python接口C、PyTorch的前身便是Torch,其底层和Torch框架一样,但是使用Python重新写了很多内容D、以上答案都正确答案:D解析:深度学习基础知识。57.下列属于卷积网络类型分类的是(__)。A、普通卷积B、扩张卷积C、转置卷积D、以上答案都正确答案:D解析:卷积神经网络四种卷积类型:普通卷积,扩张卷积,转置卷积,可分离卷积。58.()用于将非线性引入神经网络。它会将值缩小到较小的范围内。A、损失函数B、优化函数C、激活函数D、目标函数答案:C解析:激活函数用于将非线性引入神经网络,它会将值缩小到较小的范围内。59.标准BP算法的目标是使训练集上的()为最小。A、累积方差B、累积误差C、累积协方差D、累积偏差答案:B解析:标准BP算法的目标是使训练集上的累积误差最小。60.下列核函数特性描述错误的是()。A、只要一个对称函数所对应的核矩阵半正定,就能称为核函数;B、核函数选择作为支持向量机的最大变数;C、核函数将影响支持向量机的性能;D、核函数是一种降维模型;答案:D解析:以RBF的核函数为例,它是通过径向基核函数可以把原始数据投影到更高维的空间里去,从而增加数据可分的概率,是从低维到高维,并不是降维。61.长短时记忆网络属于一种()。A、全连接神经网络B、门控RNNC、BP神经网络D、双向RNN答案:B解析:LSTM是一种改进后的RNN,其增加了三个门用来控制信息传递和最后的结果计算,三个门分别为遗忘门、输入门、输出门。62.下面关于词袋模型说法错误的是()。A、词袋模型使用一个多重集对文本中出现的单词进行编码B、词袋模型不考虑词语原本在句子中的顺序C、词袋模型可以应用于文档分类和检索,同时受到编码信息的限制D、词袋模型产生的灵感来源于包含类似单词的文档经常有相似的含义答案:C解析:文本处理基础知识。63.CNN神经网络对图像特征提取带来了变革性的变化,使之前的人工特征提取升级到数据驱动的自动特征提取,在CNN中,起到特征提取作用的网络层是:(__)。A、Convolution层B、fullConnect层C、maxpooling层D、norm层答案:A解析:卷积层负责提取特征,采样层负责特征选择,全连接层负责分类。64.以下属于浅层学习模型的是()。A、DBNB、CNNC、SVMD、RNN答案:C解析:SVM是一种传统机器学习方法,不涉及深度学习模型65.在神经网络学习中,感知机输出层中的M-P神经元通常被称为()。A、阈值逻辑单元B、激活函数C、挤压函数D、连接函数答案:A解析:深度学习基础知识。66.(__)网络是一种竞争学习型的无监督神经网络,它能将高维输入数据映射到低维空间,同时保持输入数据在高维空间的拓扑结构,即将高维空间中相似的样本点映射到网络输出层中的临近神经元。A、SOM网络B、RBF网络C、ART网络D、ELman网络答案:A解析:SOM(Self-OrganizingMap,自组织映射)网络[Kohonen,1982]是一种竞争学习型的无监督神经网络,它能将高维输入数据映射到低维空间(通常为二维),同时保持输入数据在高维空间的拓扑结构,即将高维空间中相似的样本点映射到网络输出层中的邻近神经元。67.下列极大似然估计描述错误的是(__)。A、极大似然估计先假定其具有某种确定的概率分布形式;B、极大似然估计没有确定的概率分布形式;C、概率模型的训练过程就是参数估计;D、贝叶斯学派认为参数本身也有分布,是未观察的随机变量;答案:B解析:极大似然估计是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值,需要先假定其具有某种确定的概率分布形式。68.关于循环神经网络设计的叙述中,错误的是()。A、能处理可变长度的序列B、基于图展开思想C、基于参数共享思想D、循环神经网络不可应用于图像数据答案:D解析:深度学习基础知识。69.下列哪个不是专门用于可视化时间空间数据的技术(__)。A、等高线图B、饼图C、曲面图D、矢量场图答案:B解析:饼图可用于可视化多维度数据,如电网财务开支,并不是专门用于可视化时间空间数据的技术。70.DNN常用的激活函数有(__)。A、sigmoidB、tanhC、ReLUD、以上答案都正确答案:D解析:DNN常用的激活函数有sigmoid,tanh,ReLU,softplus,PReLU。71.设计为8层的卷积神经网络AlexNet网络成功使用(__)函数,其效果远远地超过了Sigmoid函数。A、ReLU函数B、sigmoid函数C、tanh函数D、sin函数答案:A解析:AlexNet网络用ReLU代替sigmoid,效果得到大幅提升。72.以下哪些算法,可以用神经网络去构造(__)。
1)KNN2)线性回归3)对数几率回归A、1和2B、2和3C、1,2和3D、以上答案都不正确答案:B解析:
KNN算法不需要训练参数,而所有神经网络都需要训练参数,因此神经网络帮不上忙。
最简单的神经网络,感知器,其实就是线性回归的训练。
我们可以用一层的神经网络构造对数几率回归。73.在选择神经网络的深度时,下面那些参数需要考虑()1神经网络的类型(如MLP,CNN);2输入数据;3计算能力(硬件和软件能力决定);4学习速率;5映射的输出函数A、1,2,4,5B、2,3,4,5C、都需要考虑D、1,3,4,5答案:C解析:所有上述因素对于选择神经网络模型的深度都是重要的。特征抽取所需分层越多,输入数据维度越高,映射的输出函数非线性越复杂,所需深度就越深。另外为了达到最佳效果,增加深度所带来的参数量增加,也需要考虑硬件计算能力和学习速率以设计合理的训练时间。74.GatedRecurrentunits的出现可以帮助防止在RNN中的梯度消失问题。(__)A、可以这么理解B、不可以这么理解C、不适用于RNN模型D、以上答案都不正确答案:D解析:深度学习基础知识。75.RNN不同于其它神经网络的地方在于(__)。A、实现了记忆功能B、速度快C、精度高D、易于搭建答案:A解析:RNN不同于其它神经网络的地方在于实现了记忆功能。76.下列关于RNN说法正确的是(__)。A、RNN可以应用在NLP领域B、LSTM是RNN的一个变种C、在RNN中一个序列当前的输出与前面的输出也有关D、以上答案都正确答案:D解析:RNN是一种人造神经网络,它通过赋予网络图附加权重来创建循环机制,以维持内部的状态。在拥有状态以后,便能在序列预测中明确地学习并利用上下文信息,如顺序或时间成分,因此RNN适用于自然语言处理。RNN中一个序列当前的输出与前面的输出有关。LSTM在RNN基础上进行了改进,能够学习到长期依赖关系,因此是RNN的一个变种。77.对于神经网络的说法,下面正确的是:(__)。1.增加神经网络层数,可能会增加测试数据集的分类错误率;2.减少神经网络层数,总是能减小测试数据集的分类错误率;3.增加神经网络层数,总是能减小训练数据集的分类错误率A、1B、1、3C、1、2D、2答案:A解析:深度神经网络的成功,已经证明,增加神经网络层数,可以增加模型范化能力,即,训练数据集和测试数据集都表现得更好.但更多的层数,也不一定能保证有更好的表现.所以,不能绝对地说层数多的好坏,只能选A。78.卷积的过程是让过滤器在图像上()。A、缩放B、剪切C、窗口滑动D、镜像对称答案:C解析:卷积的过程是让过滤器在图像上进行窗口滑动。79.Sigmoid函数作为神经元激活函数的特点是()。A、连续但不光滑B、不连续但光滑C、连续且光滑D、不连续且不光滑答案:C解析:Sigmoid函数作为神经元激活函数的特点是连续且光滑。80.增加卷积核的大小对于改进卷积神经网络的效果是必要的吗()A、是的,增加卷积核尺寸一定能提高性能B、不是,增加核函数的大小不一定会提高性能答案:B解析:增加核函数的大小不一定会提高性能。这个问题在很大程度上取决于数据集。81.关于长短时神经网络的叙述中错误的是()。A、引用自循环思想B、产生梯度长时间持续流动的路径C、积累的时间尺度不可以因输入序列而改变D、可应用于语音识别和机器翻译答案:C解析:LSTM累积的时间尺度也可以因输入序列而改变,因为时间常数是模型本身的输出。82.在深度学习中,我们经常会遇到收敛到localminimum,下面不属于解决localminimum问题的方法是()A、随机梯度下降B、设置MomentumC、设置不同初始值D、增大batchsize答案:D解析:增大batchsize无法无法解决ocalminimum问题。83.属于卷积神经网络应用方向的是(__)。A、图像分类B、目标检测C、图像语义分割D、以上答案都正确答案:D解析:卷积神经网络应用于图像分类,目标检测及图像语义分割。84.假设你正在训练一个LSTM网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的LSTM块,在每一个时间步中,Γu的维度是多少()A、1B、100C、300D、10000答案:B解析:Γu的向量维度等于LSTM中隐藏单元的数量。85.输入图片大小为37×37,经过第一层卷积(thenumberoffilters=25,kernelsize=5×5,padding=valid,stride=1),与池化层maxpooling(kernelsize=3×3,padding=valid),输出特征图大小为?(__)A、10×10B、11×11C、12×12D、13×13答案:B解析:(37-5+1)/3=11。86.假设你在卷积神经网络的第一层中有5个卷积核,每个卷积核尺寸为7×7,具有零填充且步幅为1。该层的输入图片的维度是224×224×3。那么该层输出的维度是多少()A、217x217x3B、217x217x8C、218x218x5D、220x220x7答案:C解析:如果原始图片尺寸为nxn,filter尺寸为fxf,则卷积后的图片尺寸为(n-f+1)x(n-f+1),注意f一般为奇数。若考虑存在填充和步幅,用s表示stride长度,p表示padding长度,如果原始图片尺寸为nxn,filter尺寸为fxf,则卷积后的图片尺寸为:[(n+2p-f)/s+1]x[(n+2p-f)/s+1](中括号内向下取整).此例中,n=224,p=0,f=7,s=1,因此,该层输出的尺寸为218x218.输出的第三个维度由滤波器的个数决定,即为5。87.以下属于深度学习框架的是(__)。A、TensorflowB、CaffeC、PyTorchD、以上答案都正确答案:D解析:Tensorflow,Caffe,PyTorch都是流行的深度学习框架。多选题1.关于神经元的叙述,哪些是正确的()A、每个神经元可以有一个输入和一个输出B、每个神经元可以有多个输入和一个输出C、每个神经元可以有多个输入和多个输出D、每个神经元可以有多个输出和一个输入答案:ABCD解析:神经网络基础知识。2.循环神经网络主要被应用于哪些场景(__)。A、语音识别B、语音建模C、机器翻译D、图像识别答案:ABC解析:图像识别用CNN。3.以下关于神经网络模型描述正确的是(__)。A、神经网络模型是许多逻辑单元按照不同层级组织起来的网络,每一层的输出变量都是下一层的输入变量B、神经网络模型建立在多神经元之上C、神经网络模型中,无中间层的神经元模型的计算可用来表示逻辑运算D、神经网络模型一定可以解决所有分类问题答案:ABC解析:现在很多分类问题的准确率都很低尤其是医学图像方面,而且容易受环境,如光照影响。4.下面哪些是基于核的机器学习算法(__)。A、最大期望算法B、径向基核函数C、线性判别分析法D、支持向量机答案:BCD解析:SVM(可支持向量机),KFD(基于核的Fisher判别分析),KPCA(核成分分析)。径向基函数核(Radial
BasisFunction,RBFkernel),也被称为高斯核(Gaussiankernel)或平方指数核(SquaredExponential.,SEkernel)[1],是常见的核函数(kernelfunction)。RBF核被应用各类核学习(kernellearning)算法中,包括支持向量机(SupportVectorMachine,SVM)、高斯过程回归(GaussianProcessRegression,GPR)等。5.长短时记忆神经网络三个门是哪些()A、进化门B、输出门C、输入门D、遗忘门答案:BCD解析:LSTM拥有三个门(输入门,遗忘门,输出门),来保护和控制细胞状态。
判断题(共4题)6.有两种策略常用来缓解BP网络的过拟合,分别是()和()。A、晚停B、早停C、正则化D、加入损失函数答案:BC解析:通常有两种策略来缓解BP网络的过拟合。第一种策略是早停(earlystopping):将数据分成训练集合验证集,训练集用来计算梯度、更新连接权和阈值,验证集用来估计误差,若训练集误差降低但验证集误差升高,则停止训练,同时返回具有最小验证集误差的连接权和阈值。第二种策略是正则化(regularization),其基本思想是在误差目标函数中增加一个用于描述网络复杂度的部分,例如连接权和阈值的平方和。7.RNN在NLP领域的应用包括(__)。A、语言模型与文本生成B、机器翻译C、语音识别D、图像描述生成答案:ABCD解析:语言模型与文本生成;机器翻译;语音识别;图像描述生成;情感分析;对话系统等。8.LSTM应用场景应用场景有哪些()A、翻译语言B、语音识别C、图像识别D、股票预测答案:ABD解析:C:CNN应用于图像识别。9.卷积神经网络通过哪些措施来保证图像对位移、缩放、扭曲的鲁棒性(__)。A、局部感受野B、共享权值C、池采样D、正则化答案:ABC解析:正则化是为了减少泛化误差。10.为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()A、使用sigmod函数容易出现梯度消失B、sigmod的导数形式较为复杂C、双曲正切更简单D、sigmoid函数实现较为复杂答案:AB解析:第一,采用sigmoid等函数,反向传播求误差梯度时,求导计算量很大,而Relu求导非常容易。第二,对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度消失的情况(在sigmoid接近饱和区时,变换太缓慢,导数趋于0),从而无法完成深层网络的训练。11.下列属于CNN关键层的是(__)。A、输入层B、卷积层C、激活层D、池化层答案:ABCD解析:其关键层有:
输入层,对数据去均值,做dataaugmentation等工作
卷积层,局部关联抽取feature
激活层,非线性变化
池化层,下采样
全连接层,增加模型非线性
高速通道,快速连接
BN层,缓解梯度弥散12.神经网络模型(NeuralNetwork)因受人类大脑的启发而得名。神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对输入进行处理后给出一个输出。请问下列关于神经元的描述中,哪一项是正确的(__)。A、每个神经元有一个输入和一个输出B、每个神经元有多个输入和一个输出C、每个神经元有一个输入和多个输出D、每个神经元有多个输入和多个输出答案:ABCD解析:每个神经元可以有一个或多个输入,和一个或多个输出。13.关于Dropout说法正确的是:(__)。A、Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNNB、DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0C、丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络D、Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合答案:ABCD解析:dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。防止过拟合的方法:提前终止(当验证集上的效果变差的时候);L1和L2正则化加权;softweightsharing
Dropout。ropout率的选择:经过交叉验证,隐含节点dropout率等于0.5的时候效果最好,原因是0.5的时候dropout随机生成的网络结构最多。dropout也可以被用作一种添加噪声的方法,直接对input进行操作。输入层设为更接近1的数。使得输入变化不会太(0.8)。14.训练CNN时,GPU显存溢出,此时可以采取什么办法()A、减少mini_batch大小B、移除一些卷积层C、减少图片输入大小D、增加激活函数答案:ABC解析:D:反而会加重负担。15.深度学习的实质及其与浅层学习的说法正确的是(__)。A、DL强调模型深度B、DL突出特征学习的重要性.特征变换+非人工C、没有区别D、以上答案都不正确答案:AB解析:深度模型是手段,特征学习是目的。16.关于卷积神经网络的叙述中正确的是()。A、可用于处理时间序列数据B、可用于处理图像数据C、卷积网络中使用的卷积运算就是数学中的卷积计算D、至少在网络的一层中使用卷积答案:ABD解析:神经网络中的卷积:我们通常是指由多个并行卷积组成的运算。(因为单个核只能特区一种类型的特征,我们usually希望可以在多个位置提取多个特征)输入也不仅仅是实值的网格,而是由一系列观测数据的向量构成的网格。我们有的时候会希望跳出核中的一些位置来降低计算的开销(相应的代价是提取特征没有先前那么好了)我们就把这个过程看作对全卷积函数输出的下采样(downsampling).如果只是在输出的每个方向上每间隔s个像素进行采样,那么可重新定义一个下采样卷积函数。我们把s称为下采样卷积的步幅(stride)。在任何卷积网络的实现中都有一个重要性质:能够隐含地对输入V用零进行填充(pad)使得它加宽。数学中的卷积:考虑到函数f和g应该地位平等,或者说变量x和y应该地位平等,一种可取的办法就是沿直线x+y=t卷起来。17.以下说法正确的是()。A、负梯度方向是使函数值下降最快的方向B、当目标函数是凸函数时,梯度下降法的解是全局最优解C、梯度下降法比牛顿法收敛速度快D、拟牛顿法不需要计算Hesse矩阵答案:ABD解析:牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。18.CNN相比于全连接的DNN有哪些优势()A、参数更少B、泛化更好C、训练更快D、更容易搭建;答案:ABC解析:D:DNN直接对数据做加权线性连接,而CNN则是移动卷积核,并对图像中的各区域做卷积操作。19.下列关于RNN、LSTM、GRU说法正确的是(__)。A、RNN引入了循环的概念B、LSTM可以防止梯度消失或者爆炸C、GRU是LSTM的变体D、RNN、LSTM、GRU是同一神经网络的不同说法,没有区别答案:ABCD解析:RNN:循环神经网络,是非线性动态系统,将序列映射到序列;LSTM:LSTM通过刻意的设计来避免长期依赖问题。记住长期的信息在实践中是LSTM的默认行为,而非需要付出很大代价才能获得的能力;GRU:LSTM有很多变体,其中较大改动的是GatedRecurrentUnit(GRU),它将忘记门和输入门合成了一个单一的更新门。同样还混合了细胞状态和隐藏状态,和其他一些改动。最终的模型比标准的LSTM模型要简单。效果和LSTM差不多,但是参数少了1/3,不容易过拟合。20.在支持向量机中,参数的选取会影响拟合的结果,如果出现过拟合的现象,则导致该结果的原因有可能是(__)。A、其他参数保持不变,C值过大B、其他参数保持不变,λ值较少C、其他参数保持不变,σ较大D、其他参数保持不变,σ较小答案:ABD解析:SVM模型都是核函数+软间隔的支持向量机,导致SVM过拟合原因有要求的间隔过大,即在软间隔支持向量机中C的参数过大时,表示比较重视间隔,坚持要数据完全分离,当C趋于无穷大时,相当于硬间隔SVM。21.神经网络的拓扑结构可以分为()和随机型网络等。A、前向型B、后向型C、反馈型D、自组织竞争型答案:ACD解析:神经网络的拓扑结构有前向型、反馈型、自组织竞争型和随机型网络等。22.卷积神经网络中常用的池化函数包括()。A、最大池化函数B、L2范数C、相邻矩形区域内的平均值D、基于据中心像素距离的加权平均函数答案:ABCD解析:最大池化函数;L2范数;相邻矩形区域内的平均值;基于据中心像素距离的加权平均函数;重叠池化;空金字塔池化。23.下列哪些项属于传统循环神经网络的性质()A、上一时刻的网络状态信息将会作用于下一时刻的网络状态B、并行处理序列中所有信息C、容易梯度爆炸/消失D、易于搭建答案:AC解析:循环神经网络(RecurrentNeuralNetwork,RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursiveneuralnetwork)。循环神经网络在误差梯度在经过多个时间步的反向传播后容易导致极端的非线性行为,包括梯度消失(gradientvanishing)和梯度爆炸(gradientexplosion)。实践中,梯度爆炸虽然对学习有明显的影响,但较少出现,使用梯度截断可以解决。梯度消失是更常见的问题且不易察觉,发生梯度消失时,循环神经网络在多个
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 眼视光技术专业教学标准(高等职业教育专科)2025修订
- 中国褥垫行业市场发展现状及投资战略咨询报告
- 2022-2027年中国蛋白饮料行业市场深度分析及发展战略规划报告
- 棕刚玉砂轮项目投资可行性研究分析报告(2024-2030版)
- 中国低压母线桥市场深度分析及投资战略咨询报告
- 中国移动机器人(AGV) 行业市场行情动态分析及发展前景趋势预测报告
- 中国铝焊条行业市场调查报告
- 中国鸳鸯养殖行业市场全景评估及投资策略咨询报告
- 中国位置大数据行业投资潜力分析及行业发展趋势报告
- 2025年 内蒙古公务员考试行测试题省直附答案
- 违拗患者的护理
- 汽车的总体构造课件
- 眼科护理中的医疗事故与风险管理
- 煤矿岗位标准化作业流程
- 《合理使用抗生素》课件
- 数字美的智慧工业白皮书-2023.09
- 桥梁施工进度图
- 某啤酒厂安全现状评价设计报告书模板
- 广西桂林市2022-2023学年高二下学期期末质量检测数学试题(含答案解析)
- 内墙抹灰安全技术交底
- 中学美术校本教材《素描》
评论
0/150
提交评论