《人工智能深度学习技术》考试复习题库大全-上(单选题部分)_第1页
《人工智能深度学习技术》考试复习题库大全-上(单选题部分)_第2页
《人工智能深度学习技术》考试复习题库大全-上(单选题部分)_第3页
《人工智能深度学习技术》考试复习题库大全-上(单选题部分)_第4页
《人工智能深度学习技术》考试复习题库大全-上(单选题部分)_第5页
已阅读5页,还剩161页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

PAGEPAGE1《人工智能深度学习技术》考试复习题库大全-上(单选题部分)一、单选题1.LSTM网络通过精妙的()将短期记忆与长期记忆结合起来,并且一定程度上解决了梯度消失的问题A、RNN控制B、前馈控制C、BP控制D、门控制答案:D2.如需要定义tf的常量X=tf.constant(2.0,shape=[1,2])语句结果是A、2B、[2.0,2.0]C、[[2.0,2.0]]D、[[2.0],[2.0]]答案:C3.在tf.assign(a,B.的意义是:A、将b节点变量赋值给a节点变量B、将a节点变量赋值给b节点变量C、a=bD、b=a答案:A4.以下关于dropout的功能描述,哪个是正确的?A、没有激活函数功能B、一种正则化方式C、一种图像特征处理算法D、一种语音处理算法答案:B5.Tf.nn.conv2d(),其中遇到的图像张量,格式是A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A6.池化核ksize=[1,4,4,1]将图像A、缩小到1/2B、缩小到1/16C、扩大两倍D、扩大四倍答案:B7.Batch归一化的特点不包括A、使参数搜索问题变得容易B、使神经网络对超参数的选择更加稳定C、超参数的范围更加庞大D、仅作用于输入层答案:D8.以下哪个是门控循环单元A、LSTMB、GRUC、CNND、RNN答案:B9.Siamese网络试用与做验证任务,最常见的是针对()元组和三元组的二分支、三分支网络A、一B、二C、三D、四答案:B10.“熊猫方式”和鱼子酱方式的选择主要是通过什么决定的A、计算机资源的充足与否B、测试集数量C、训练集数量D、隐藏层数量答案:A11.T=tf.Variable([1,2,3]),tf.multiply(t,2)的结果是A、[1,2,3]B、[2,3,4]C、[2,4,6]D、[2,4,3]答案:C12.要想让损失值最小,需要找到()A、鞍点B、局部最优解C、转折点D、全局最优解答案:D13.语句Y=eye([m,n])或Y=eye(m,n)的作用是?A、生成m×n的单位矩阵B、生成m维的1矩阵C、信息的增量刻度总是以线性函数的规模进行的D、信息的增量刻度总是无法判定的答案:A14.在h_fc1=tf.nn.relu(tf.matmul(h_flat,W_fc1)+b_fc1)操作,b_fc1是A、对图像池化B、偏置项C、激活函数D、平均答案:B15.加权平均值是通过()得到的A、局部平均值B、局部方差C、全局平均值D、全局方差答案:A16.优化算法计算用到了:A、标准差加权平均B、方差加权平均C、对数加权平均D、指数加权平均答案:D17.F=tf.Variable([[2.,5.,4.],[1.,3.,6.]]),tf.reduce_sum(f,axis=1)的值是A、[10.,11.]B、[10.,10.]C、[11.,11.]D、[11.,10.]答案:D18.Tf.nn.conv2d是TensorFlow里面实现卷积的函数,使用这样函数的网络层的作用是()A、增强图像B、简化图像C、特征提取D、图像处理答案:C19.Inceptionv1的亮点之一卷积层共有的一个功能,可以实现通道方向的降维和增维,至于是降还是增,取决于卷积层的通道数(滤波器个数),在Inceptionv1中()卷积用于降维,减少weights大小和featuremap维度。A、1*1B、2*2C、3*3D、5*5答案:A20.Tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在()A、卷积层B、全连接层C、池化层D、激活函数层答案:B21.在深度学习中,对于正则化,以下哪个说法是正确的?A、每一个隐层都需要正则化B、正则化可以预防过拟合C、正则化可以预防欠拟合D、每一个模型中都需要正则化,否则无法正确预测结果答案:B22.想要处理梯度消失,相对最好的激活函数是:A、sigmoidB、ReluC、tanhD、LeakyRelu答案:D23.对y=sigmoid(x)函数对x的导数可以写成A、y(1+y)B、exp(-x)C、1-exp(-x)D、y(1-y)答案:D24.全连接神经网络,如果输入层为32X4矩阵,那么与它相连的第一级参数矩阵最有可能为哪一种?否则无法矩阵运算。A、4X5矩阵B、32X4矩阵C、32X32矩阵D、任意尺寸矩阵答案:A25.程序设计中,tf.argmax返回了最大的那个数值的()或下标后,接下来通常使用tf.equal()进行逻辑判断A、上标B、索引号C、坐标D、内积答案:B26.对于tf函数tf.all_variables()。A、能够打印所有变量B、能够打印部分变量C、能定义所有变量D、能够定义任意变量答案:A27.训练时使用()随机忽略一部分神经元,以避免模型过拟合。在AlexNet中主要是最后几个全连接层使用了这个环节。A、DropoutB、Conv2dC、max-poolD、FC6-8答案:A28.卷积层的作用是A、增强图像B、简化图像C、特征提取D、图像处理答案:C29.卷积神经网络中每层卷积层(Convolutionallayer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到,其作用是()A、增强图像B、简化图像C、特征提取D、图像处理答案:C30.一类包含卷积或相关计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks)也称为()A、机器学习B、数据挖掘C、CNN卷积神经网络D、MATLAB答案:C31.深度学习典型应用:自然语言处理主要指应用了()神经网络A、ANNB、CNNC、RNND、XNN答案:C32.Tensorflow中,tensor=tf.constant([1,2,3,4,5,6,7,8]),sess.run(tf.reshape(tensor,[2,-1]))运行后,tensor的内容变成?A、[[1,2,3,4],[5,6,7,8]]B、[[1,2,3],[4,5,6,7,8]]C、[[1,2,3],[4,5,6],[7,8]]D、[[1,2],[3,4],[5,6],[7,8]]答案:A33.情感分类属于哪一类问题?A、多个输入多个输出B、一个输入多个输出C、一个输入一个输出D、多个输入一个输出答案:D34.在机器学习和深度学习中,监督学习算法有A、聚类B、降维C、回归算法D、PCA答案:C35.对于神经网络中超参数调试方法正确的是A、随机选择点来试验超参数效果B、当你给超参数取值时,另一个惯例是采用由精细到粗糙的策略。C、只调试容易的D、给定默认值即可答案:A36.从上升速度来看所有的函数的,上升最慢的是A、线性函数B、指数函数C、幂函数D、对数函数答案:D37.基于切比雪夫距离的单位园是一个A、圆形B、45度的正方型C、正方形,其边与xy轴平行D、不确定答案:C38.如果给出一串数据[[0,2],[-3,2],[0,0],[-1,3],[0,1],[-2,0]]与它最相似的分布是A、均匀分布B、高斯分布C、0-1分布D、指数分布答案:B39.BP算法首个应用案例是?A、手写数字识别(CNN:LeNet)B、CPUC、GPUD、不清楚答案:A40.内积空间由()抽象而来A、赋范空间B、矢量空间C、度量空间D、欧几里得空间答案:D41.在tensorflow中,能实现2个向量代数运算的函数是?A、c=tf.greater(A,b)B、a=tf.subtract(A,b)C、b=tf.Equal(A,b)D、tf.constant答案:B42.Tf.matmul(a,B,transpose_a=False,transpose_b=False,adjoint_a=False,adjoint_b=False,a_is_sparse=False,b_is_sparse=False,name=None)函数返回值是一个跟张量a和张量b类型一样的张量且最内部矩阵是a和b中的相应矩阵的()A、相与B、乘积C、相除D、相加答案:B43.当权值过大,前面层比后面层梯度变化更快,会引起梯度爆炸问题,就是所谓的()A、梯度爆炸B、卷积C、池化D、全连接答案:A44.深度学习属于人工智能三大主义(symbolicism、connectionism、actionism)中的()主义A、连接主义B、符号主义C、行为主义D、CAD答案:A45.关于空间,向量空间也称为(),它是线性代数的中心内容和基本概念之一A、线性空间B、内积空间C、赋范空间D、希尔伯特空间答案:A46.Adam算法的核心是A、强化了RMSprop算法B、强化了动量梯度算法C、同时使用Momentum和RMSprop算法D、没有核心答案:C47.如果从python一侧,想得到tf的节点S对应的值,需要下列:A、A=tf.run(S)B、A=S.valueC、A=S.eval()D、tf.assign(A,S)答案:A48.在数学模型开发过程中,经常会使用例如数学符号、数学式子以及()来抽象和描述该模型A、范数B、程序或图形C、卷积D、池化答案:B49.研究发现Inception-ResNet模型可以在更少的epoch内达到更()的准确率A、低B、高C、先高后低D、不确定答案:B50.带泄露的ReLU函数是指?A、Sigmoid函数B、tanh函数C、ReLUD、leakyReLU答案:D51.Batch归一化在神经网络中的作用不包括A、减少了隐藏值分布变化的数量B、减少了输入值改变的问题C、有轻微的正则化效果D、增加了输入值改变的问题答案:D52.数学建模工作,首先要对目标事物进行(),然后再进行下一步工作。A、度量化B、抽象化C、具体化D、理想化答案:A53.X的值是False,tf.cast(x,tf.float32)的结果是A、0.0B、FalseC、1.0D、True答案:A54.全连接神经网络,如果输入层为44X8矩阵,那么与它相连的第一级参数矩阵最有可能为:A、8X5矩阵B、32X4矩阵C、32X32矩阵D、任意尺寸矩阵答案:A55.Tf.subtract函数返回一个(),与x具有相同的类型A、TensorB、数组C、矢量D、范数答案:A56.以下tf函数中,不能实现卷积运算的是A、tf.nn.conv2dB、tf.nn.depthwise_conv2dC、tf.nn.convolutionD、tf.random_normal答案:D57.现有一个32X32大小的图像,通过步长为1,填充p=1,大小为5X5的卷积核卷积后,结果尺寸成为A、28X28B、30X30C、31X31D、32X32答案:B58.InceptionV2网络中,一个3×3的卷积等价于首先执行一个1×3的卷积再执行一个()的卷积。他们还发现这种方法在成本上要比单个3×3的卷积降低33%A、3×1B、1×3C、3×3D、9×9答案:A59.在深度学习中,如果输入图像有2个,经过10个卷积核卷积后,输出图像有A、2B、5C、10D、不确定答案:C60.我们会发现累乘会导致激活函数导数的累乘,进而会导致“()“和“梯度爆炸“现象的发生A、梯度消失B、梯度上升C、梯度下降D、梯度反向答案:A61.Session是Tensorflow为了控制,和输出文件的执行的语句.运行session.run()可以获得你要得知的运算结果,或者是你所要运算的部分通常要创建Session对象,对应的编程语句为:A、sess=tf.Session()B、sess.close()C、tf.add()D、tf.equal()答案:A62.对于批量梯度下降,使用优化算法是为了在迭代过程中():A、增大损失值B、使学习率衰减C、降低损失值D、提升正则项范围答案:B63.Dropout运行原理:A、随机取消一些节点,只是用部分节点进行拟合运算,防止过拟合B、dropout能增加新样本防止过拟合C、dropout进行归一化操作,防止过拟合D、dropout通过给损失函数增加惩罚项,防止过拟合答案:A64.面部识别软件可归入名为生物识别的一大类技术。生物识别技术使用()来验证身份A、生物信息B、特征点C、算法D、标识答案:A65.语句euclideanmetric的意思是?A、欧几里得B、欧几里得度量C、欧几里得范数D、欧几里得空间答案:B66.()和tf.multiply用法一致,功能是实现x和y的element-wise方式的相乘,也就是所有点对应相乘。A、np.multiplyB、tf.Session()C、tf.mul()D、tf.Graph()答案:A67.神经网络中常用的()Sigmoid函数,会把量映射到0,1之间A、非激活B、RELUC、极值D、阈值答案:D68.基础的神经网络只在层与层之间建立了权连接,RNN最大的不同之处就是在层之间的神经元之间也建立的()A、权连接B、层连接C、前馈连接D、反馈连接答案:A69.神经网络需要激活函数,其原因是可实现A、解决线性可分性B、非线性分类C、归一化D、正则化答案:B70.图像卷积处理中,例如32X32,strides=1,padding="VALID",FILTER卷积核3*3,则经过卷积处理之后图像尺寸变为?A、28X28B、14X14C、30X30D、32X32答案:C71.通过试验超参数的不同取值不可以A、选择对训练集目标而言的最优解B、对于开发集而言的最优解C、超参搜索过程中最想优化的东西D、简化参数调试答案:D72.不是随机梯度下降的特点是:A、批量数值选取为1B、学习率逐渐减小C、可以达到最小值D、在最小值附近波动答案:C73.在函数的上升速度来看,最慢的是A、线性函数B、指数函数C、幂函数D、对数函数答案:D74.Tf.ones_like(tensor)该操作返回一个具有和给定tensor相同形状(shape)和相同数据类型(dtype)A、dtypeB、tensorC、shapeD、int答案:B75.TensorFlow中调用dropout的方法是:A、tf.nn.dropoutB、tf.train.dropoutC、tf.dropoutD、tf.dropOut答案:A76.以下哪个关于梯度消失的描述是正确的?A、通过优化算法,处理梯度,可以更快做梯度下降,获取最优解B、由于数据处理或者激活函数选择不合理等原因,无法获取梯度,从而不能获得最优解C、由于隐藏层数量过少,无法获取梯度,从而不能获得最优解D、通过更多隐藏层,减少梯度迭代,从而更快的进行计算,获取最优解答案:B77.在AI领域,被誉为三驾马车的代表人物提出了()框架。A、机器学习B、深度学习C、开源D、tensorflow答案:B78.通常说的范数它是具有()的概念的函数A、长度B、刻度C、距离D、范数答案:A79.如果拋一个硬币,拋一次算一个事件结果;拋两次算一个事件结果;他们是A、一个概率空间B、两个概率空间C、一个样本空间D、一个概率空间,两个事件答案:B80.()是深度学习训练时的一种提高准确度的技术方法。英文全称为“localresponsenormalization”A、本区域B、局部响应归一化/标准化C、BP算法D、池化答案:B81.在卷积神经网络中,卷积层与全连接层的先后顺序通常为?A、先卷积、池化后全连接B、先全连接、卷积后池化C、先池化、全连接再卷积D、先卷积、全连接、池化后答案:A82.使用函数tf.nn.conv2d()主要的目的是()A、增强图像B、简化图像C、特征提取D、图像处理答案:C83.Sin(sinx)的导数是A、cosx(cos(sinx))B、cos(cosx)C、cos(sinx)D、sin(cosx)答案:A84.连续词袋模型的英文缩写是A、CBOWB、CBOMC、CCOWD、BBOW答案:A85.程序语句max_pool(conv2,[1,3,3,1],strides=[1,1,1,1],padding="SAME")那么这个语句中,体现的池化窗口尺寸为多少?A、1*1B、3*3C、1*3D、3*1答案:B86.最大池化max_pool有几个参数,如value,ksize参数,strides参数,padding参数,name=None参数,用于池化窗口的参量是那一个?A、valueB、ksizeC、stridesD、padding答案:B87.程序语句cost=tf.reduce_mean(tf.square(hypothesis-Y))通常是什么算法使用?A、线性回归B、逻辑回归C、SVMD、CNN答案:A88.输入图像有2个,经过10个卷积核卷积后,输出图像有()个A、2B、5C、10D、不确定答案:C89.Sigmoid函数的缺点:导数值范围为(0,0.25],反向传播时会导致“梯度消失”。而()函数导数值范围更大,相对好一点。A、coshB、sinC、tanhD、sigmoid答案:C90.池化核ksize=[1,2,2,1]将图像A、缩小到1/2B、缩小到1/4C、扩大两倍D、扩大四倍答案:B91.在Mnist库的四个文件意义是:A、图像集、训练标签集、测试集、测试标签集B、原始集、训练集、标签集、测试集C、训练集、训练标签集、测试集、测试标签集D、图像集、附加图像集、测试图像集、测试附加集答案:C92.输入大小为64X64的黑白图像,卷积核5X5,步长为1,填充方式为“VALID”,卷积后图像尺寸为A、59B、60C、58D、61答案:B93.要建立数学模型,其详细过程是必须经过数据测量、数据比较、()过程,才能达到最优。A、逐渐逼近B、校准C、回归D、监督答案:A94.超参数范围中,随机取值指的是A、随机选择标尺取值B、随机取值就是有效范围内随机均匀取值C、选择合适的标尺进行取值D、随机的进行均匀的取值答案:C95.RMSprop算法的特点是A、指数加权平均数求和B、指数加权平均数先平方再开方C、指数加权平均数求微分D、指数加权平均数求均方误差答案:B96.KNN算法是基于A、线性空间B、距离空间C、概率空间D、颜色空间答案:B97.Alf属于[0,1],A,B是平面上点,alf*A+(1-alf)*B的意义是A、过AB两点直线B、A和B构成的线段C、A和B的向量和D、A和B构成的集合答案:B98.要构建数学模型,需要经历测量、()、逐渐逼近、多次循环迭代过程。A、比较B、校准C、回归D、监督答案:A99.Word2vec主要包含两个模型Skip-gram和()?A、GRUB、CCOWC、CBOWD、CBOM答案:C100.Batch归一化的作用是A、作用于输出层B、仅作用于输入层C、无法在隐藏层起作用D、用于输入层,甚至深度隐藏层的归一化过程答案:D101.梯度爆炸可以使用的解决方式有:A、梯度剪切,正则B、增加拟合数据C、增加训练数据维度D、增加隐藏层答案:A102.距离空间有多种多样,他们的目的是A、度量后比较B、求相关性C、求信息熵D、构成线性空间答案:A103.()翻译为“VanishingGradientProblem”,这种问题通常是基于梯度的方法训练神经网络的过程中才会出现的。A、梯度消失问题B、卷积C、池化D、全连接答案:A104.Tf.nn.conv2d(a,B,C,d),其中b是A、被卷积数据B、卷积核C、步长D、填充答案:B105.多层神经网络中使用全连接层的目的是?A、滤波B、One-hot处理C、用于特征提取D、用于分类答案:D106.在深度学习中,前向算法就是有了联结权重w和()H(x)之后,就可以由前往后面层计算A、激活函数B、正弦函数C、余弦函数D、Sigmoid函数答案:A107.在深度学习中的目标检测中会检测出多个目标框,后期需要通过非极大值抑制去除得分低并且iou()阈值的目标框A、小于B、大于C、等于D、大于或小于答案:B108.输入信号<0时,输出都是0,输入信号>0的情况下,输出等于输入,通常指的是指那个函数?A、Sigmoid函数B、tanh函数C、ReLUD、cosh答案:C109.对于拟合的问题,下列说法正确的是:A、过拟合的现象是训练集准确率低,而测试集准确率高B、欠拟合的现象是训练集和测试集准确率相近C、尽量不要出现适度拟合,会造成新数据准确率低D、欠拟合是指验证集和测试集的准确率都无法保证正常业务使用答案:D110.在监督学习中,标签起监督作用,监督的目的是指导A、修正权重参数B、求出信息熵C、特征提取D、预处理数据答案:A111.复合函数h(f(g(x)))对x的导数是:A、(h对f的导数)乘(f对g的导数)乘(g对x的导数)B、h对x的导数C、h对f的导数D、h对g的导数答案:A112.对一个概率空间,进行多种划分,其信息熵是A、一定相等B、一定不等C、不确定无关联D、互有关联答案:C113.在深度神经网络中,全连接层的作用是A、滤波B、One-hot处理C、用于特征提取D、用于分类答案:D114.张量Tensor通常是操作()维数组进行传送,形象地描述为从流图的一端流动到另一端,即TensorFlow的组成A、NB、1C、0D、3答案:A115.下列关于激活函数,说法正确的是:A、神经网络中最好的激活函数是sigmoidB、激活函数有正则化作用C、dropout是CNN中的激活函数D、神经元输出后需要给定一个激活函数答案:D116.符号主义属于现代人工智能范畴,基于逻辑推理的智能模拟方法()A、模拟人的智能行为B、计算机视觉C、卷积神经网络D、openCV答案:A117.Conv2d(x_image,W_conv1)+b_conv1A、对图像池化B、卷积函数C、激活函数D、平均答案:B118.以下关于循环神经网络的说法中,哪个是正确的?A、循环神经网络可以和卷积神经网络混合使用B、循环神经网络的性能高于卷积神经网络C、循环神经网络可以代替卷积神经网络D、循环神经网络中没有BP算法答案:A119.用e表示词向量,根据词嵌入的特性,e(男人)-e(女人)约等于e(国王)-e()A、男人B、女人C、国王D、王后答案:D120.“()(FaceFeatureExtraction)”是将一张人脸图像转化为一串固定长度的数值的过程。这个数值串被称为“人脸特征(FaceFeature)”,具有表征这个人脸特点的能力A、人脸提特征B、提特征C、特征D、特征扩展答案:A121.非常经典的LeNet-5神经网络其FC层处理完成以后,输出的结果会再经过那一个激活函数输出()?A、RelUB、sigmoidC、tanhD、sin答案:B122.深度学习领域用的最多的框架是A、caffeB、torchC、tensorflowD、mxnet答案:C123.TensorFlow、Keras框架为机器学习ML和()提供了灵活的数值计算核心A、MLB、算法重构C、NPLD、深度学习答案:D124.计算机界,被称为计算机科学之父,人工智能之父是A、图灵B、冯-诺依曼C、维纳D、牛顿答案:A125.RNN的关键点之一就是他们可以用来连接()的信息到当前的任务上A、先前B、之后C、丢失D、LSTM答案:A126.指数加权平均数公式的好处在于A、只需要少量参数B、占用极少内存C、不适用学习率D、是非监督式学习答案:B127.在前向传播反向传播过程中,例如求导结果为f(z)'=f(z)(1?f(z))那么这个激活函数最有可能会是下面选项中的那一个?()A、RelU函数B、tanhC、coshD、sigmoid答案:D128.双曲正切函数即(),取值范围为[-1,1]A、RelU函数B、sigmoid函数C、tanh函数D、sin函数答案:C129.通常全连接层在卷积神经网络的()A、前几层B、尾部层C、中间层D、前后几层答案:B130.交叉熵使用了()梯度下降法A、sigmoid函数B、RELU函数C、tanh函数D、cosh函数答案:A131.TensorFlow?是一个开放源代码软件库,用于进行高性能数值计算。借助其灵活的架构,用户可以轻松地将计算工作部署到多种平台()和设备(桌面设备、服务器集群、移动设备、边缘设备等)A、CPU、GPU、TPUB、CPU、GPUC、CPUD、TPU答案:A132.图像处理时,给定输入图像,在输出图像中每一个像素是输入图像中一个小区域中像素的加权平均,其中权值由一个函数定义,这个函数称为()A、被卷积数据B、卷积核C、步长D、填充答案:B133.函数x*ln(x)的导数是A、ln(x)+1B、xC、lnxD、1/x答案:A134.在人脸检测系统中,如函数caffe.set_mode_gpu()的含意是设置为什么模式?A、CPU模式B、GPU模式C、CPU+GPU模式D、TPU模式答案:B135.Tf.nn.conv2d(batch,in_height,in_width,in_channels),其中batch是A、卷积核B、图像数C、步长D、通道数答案:B136.在一个32X32大小的图像,通过步长为1,不考虑填充,大小为5X5的卷积核卷积后,结果尺寸成为A、28X28B、14X14C、31X31D、32X32答案:A137.缩写ArtificialIntelligence是指A、AOB、AIC、ALD、AN答案:B138.Tf.nn.softmax_cross_entropy_with_logits函数是TensorFlow中常用的求()的函数,即计算labels和logits之间的交叉熵(crossentropy)A、信息熵B、信息元C、logitsD、交叉熵答案:D139.常用的激活函数RELU,其常用调用语句为那一个()A、h_conv1=tf.nn.relu(conv_ret1)B、h_conv1=tf.nn.dropout(conv_ret1)C、h_conv1=tf.nn.lrn(conv_ret1)D、h_conv1=tf.nn.l2_loss(conv_ret1)答案:A140.自然语言处理领域中,判断两个单词是不是一对上下文词(context)与目标词(target),如果是一对,则是()?A、负样本B、无效样本C、学习样本D、正样本答案:D141.从20世纪()人工智能开始出现了A、50年代B、60年代C、70年代D、80年代答案:A142.Maxpooling是CNN当中的最大值池化操作,其实用法和卷积很类似,()仍然是[batch,height,width,channels]这种形式A、valueB、shapeC、stridesD、padding答案:B143.神经网络中超参数的调试中最重要的参数是A、mini-Batch的大小B、动量梯度下降的参数βC、学习率αD、隐藏层数目答案:C144.Adam算法的tensorflow代码是:A、tf.example.AdamOptimizerB、tf.train.AdamOptimizerC、tf.nn.AdamOptimizerD、tf.AdamOptimizer答案:B145.下列使用归一化操作的激活函数有:A、reluB、softmaxC、tanhD、leakrelu答案:B146.Mini-batch下降的效果是:A、损失函数值一直下降B、损失函数值总体趋势下降C、比梯度下降速度快D、梯度下降不明显答案:B147.Tf.nn.conv2d(a,B,C,d),其中被卷积数据是A、bB、aC、cD、d答案:B148.优化算法减小学习率的原因是:A、一种默认定式B、减少内存容量C、避免在最优解附近大幅度摆动D、减少迭代次数答案:C149.在tf函数中,通常需将一个变量的值赋给另一个变量,可以使用编程语句是()A、tf.assign()B、tf.sub()C、tf.add()D、tf.eqeal()答案:A150.X的定义是Variable或constant则print(X.get_shape())输出:A、X张量描述B、X的数据值C、X的数轴数D、X的数据长度答案:A151.欧几里得空间标准内积的另外一种表述是()?A、平方差B、和差化积C、内积D、点积答案:D152.函数tanh值域范围是()A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A153.下面能够实现激活函数操作的语句是:A、h_conv1=tf.nn.relu(conv_ret1)B、h_conv1=tf.nn.dropout(conv_ret1)C、h_conv1=tf.nn.lrn(conv_ret1)D、h_conv1=tf.nn.l2_loss(conv_ret1)答案:A154.Batch归一化即是A、批量归一化B、仅对输入数据进行归一化C、仅对隐藏层进行归一化D、提升了参数搜索难度答案:A155.Tf中,第一层卷积核W_conv1=variable([5,5,1,32]),第二层卷积核是:A、variable([5,5,1,32])B、variable([3,3,1,32])C、variable([5,5,4,8])D、variable([5,5,32,6])答案:D156.从输入层到(),再到输出层。逐层计算每一个节点对其下一层节点的影响,这就是前向传播算法A、输出层B、隐藏层C、输入层D、激活函数层答案:B157.常用的Sigmoid激活函数是一个在生物学中常见的()函数A、X型B、S型C、L型D、U型答案:B158.定义一个卷积核filter,它的张量定义为filter=tf.Variable(tf.random_normal([20,10,3,16]))则卷积核的高度是:A、10B、20C、16D、3答案:B159.双曲正切函数tanh是,它总体上()S型函数A、优于B、劣于C、等于D、大于等于答案:A160.步长张量strides=[1,2,2,1]能横向纵向移动A、1像素B、2像素C、3像素D、4像素答案:B161.双曲正切函数指的是那一个函数?A、Sigmoid函数B、tanh函数C、ReLUD、leakyReLU答案:B162.Tf.cast(x,tf.float32)将x类型转化成A、返回整数值B、返回布尔值C、返回浮点值D、返回字符答案:C163.卷积定理指出,函数卷积的傅里叶变换是函数傅里叶变换的()。即,一个域中的卷积相当于另一个域中的(),例如时域中的卷积就对应于频域中的乘积。A、乘积,乘积B、乘积,范数C、范数,乘积D、范数,距离答案:A164.下列选项中,()模型一共分为八层,5个卷积层,3个全连接层A、LeNetB、AlexNetC、VGGD、ResNet答案:B165.一个数据集中,没有哪一种类型的数据集:A、测试集B、确认集C、验证集D、训练集答案:B166.多层前馈网络也称为()A、BP网络B、隐藏层网络C、输入层网络D、输出层网络答案:A167.图像特征经过几个卷积后,特征信号:A、减弱B、不变C、增强D、都有可能答案:D168.Tf语句y=tf.multiply(a,B,的意思是A、构造一个变量B、构造一个op(操作)C、构造一个任务D、构造一个函数答案:B169.编程中,通常要进行全局变量初始化操作,可以使用下列那一个语句()A、init_op=tf.global_variables_initializer()B、init_op=tf.variables_initializer()C、init_op=tf.initializer()D、init_op=np.global_variables_initializer()答案:A170.以下的序列数据中,属于一对多(一个输入,多个输出)的关系是哪个?A、音乐生成B、情感分类C、机器翻译D、DNA序列分析答案:A171.哪些序列数据属于多对一(多个输入,一个输出)的关系A、语音识别B、情感分类C、机器翻译D、DNA序列分析答案:B172.Alex在2012年提出的()网络结构模型引爆了神经网络的应用热潮,并赢得了2012届图像识别大赛的冠军,使得CNN成为在图像分类上的核心算法模型。AlexNet该模型一共分为八层,5个卷积层,,以及3个全连接层A、LeNetB、AlexNetC、VGGD、ResNet答案:B173.在信息论中,熵是接收的每条消息中包含的信息的平均量,又被称为()、信源熵、平均自信息量。A、离散随机事件B、信息熵C、范数D、信息论答案:B174.()函数就是softmax函数,是逻辑函数的一种推广A、概率B、归一化C、损失函数D、空间答案:B175.Tensorflow.nn.conv2d(batch,in_height,in_width,in_channels),其中参数in_channels表示的是A、卷积核B、图像数C、步长D、通道数答案:D176.在优化算法中,学习率会:A、保持不变B、持续减小C、持续增大D、不变答案:B177.局部平均值又被称为A、常规平均值B、栅格平均值C、移动平均值D、唯一平均值答案:C178.Tf.multiply(x,y,name=None),其中类型跟张量x相同的张量是A、yB、tfC、nameD、None答案:A179.在tf中,构建交叉熵损失函数的语句是:A、cross_entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B、cross_entropy=-tf.reduce_all(y_actual*tf.log(y_predict))C、cross_entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D、cross_entropy=-tf.reduce_s(y_actual*tf.log(y_predict))答案:A180.深度神经网络的缩写是?A、CNNB、RNNC、SNND、DNN答案:D181.Inception网络中,一个5×5的卷积在计算成本上是一个3×3卷积的()倍。所以叠加两个3×3卷积实际上在性能上会有所提升A、2.78B、2.87C、7.28D、8.72答案:A182.在tensorflow框架编程中,全局变量初始化函数执行后是完成了()变量的初始化操作A、局部B、最小C、全局D、最大答案:C183.贝努力实验的基础概率空间是:A、均匀分布B、高斯分布C、0-1分布D、指数分布答案:C184.Batch归一化步骤不包括A、求每个训练批次数据的均值B、求每个训练批次数据的方差C、使用求得的均值和方差对该批次的训练数据做归一化,获得0-1分布D、求每个训练批次的和答案:D185.在BP算法的过程中,error项逐渐变小,使得越靠前的网络层的学习速率越来越低,这种现象被称为vanishinggradientproblem即A、梯度上升问题B、梯度优化C、梯度消失问题D、梯度下降法答案:C186.从sigmoid函数的图像中可以看到,如果x稍微大点的话,其值接近为1,则在进行反向传播算法的过程中对其求导的导数非常的接近0,因此会导致梯度为0的()的现象A、梯度消失B、梯度上升C、梯度下降D、梯度发散答案:A187.对于序列[1,2.1,1.9,1,3.1,2.9]可能是A、二项式分布B、高斯分布C、均匀分布D、0-1分布答案:C188.Inceptionv2的亮点之一加入了BN层,减少了InternalCovariateShift(内部neuron的数据分布发生变化),使每一层的输出都规范化到一个N(0,1)的高斯,从而增加了模型的(),可以以更大的学习速率训练,收敛更快,初始化操作更加随意,同时作为一种正则化技术,可以减少dropout层的使用。A、范数B、准确度C、过拟和D、鲁棒性答案:D189.RNN具有()展开的特点,这是由其输入决定的A、时间B、空间C、BP算法D、LSTM答案:A190.深度学习领域中,通常通过什么方式来选择参数A、通过常识选择B、随机选择点来试验超参数效果C、选择输入的参数即可D、取离散参数的平均值答案:B191.Mini-batch的原理是A、选取数据中部分数据进行梯度下降B、和批量梯度下降相同,只是将算法进行优化C、将数据每次进行一小批次处理,通过迭代将数据全部处理D、随机选取一些数据,计算梯度进行下降,每次将学习率降低一点答案:C192.深度卷积神经网络中,()提取的特征往往是比较简单的(如检测点、线、亮度)?A、深层B、浅层C、最后几层D、所有层答案:B193.Tf的全局变量初始化语句是A、tf.global_variables_initializer()B、tf.variables_initializerC、sess.run(w.initializer)D、tf.initializer()答案:A194.YOLO是JosephRedmon和AliFarhadi等人于2015年提出的第一个基于单个神经网络的目标检测系统。在今年CVPR上,JosephRedmon和AliFarhadi发表的YOLO2进一步提高了检测的()和速度A、精度B、细度C、难度D、力度答案:A195.Tf.truncated_normal(shape,mean,stddev):shape表示生成张量的维度,mean是均值,stddev是标准差。这个函数产生()分布,均值和标准差自己设定A、凸集B、凹集C、正态D、负态答案:C196.以下数据集分配方式错误的是:A、2亿条数据,测试集数量可以少于4千万条B、数据量较少时,训练集和测试集可以按照7:3分配C、在一些情况下,可以将全部数据作为训练集D、小数据量时,训练,验证,测试集比例可以按照6:2:2进行分配答案:C197.在进入科学研究之前,第一步要对事物A、实验准备B、下定义C、思想准备D、预测答案:B198.()是定义在单个样本上的,是指一个样本的误差A、损失函数(LossFunction)B、代价函数(CostFunction)C、目标函数(ObjectFunction)D、范数答案:A199.Tensorflow的张量f的值为[[2.,5.,4.],[1.,3.,6.]],那么tf.argmax(f,axis=0)的结果是?A、[[5],[6]]B、[1,2]C、[0,0,1]D、[[2],[5],[6]]答案:C200.()对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用A、激活函数B、卷积C、池化D、全连接答案:A201.设计为8层的卷积神经网络AlexNet网络成功使用()函数,其效果远远地超过了Sigmoid函数A、RelU函数B、sigmoid函数C、tanh函数D、sin函数答案:A202.Tf中placeholder是一个A、常量B、变量C、占位符D、函数答案:C203.相比于其它激活函数来说,ReLU有以下优势:对于线性函数而言,ReLU的表达能力更强,尤其体现在深度网络中;而对于非线性函数而言,ReLU由于非负区间的梯度为常数,因此不存在()(VanishingGradientProblem),使得模型的收敛速度维持在一个稳定状态。A、梯度消失问题B、卷积C、池化D、全连接答案:A204.依据函数的曲线分布而命名的()激活函数中,就是指Sigmoid函数A、U型B、M型C、X型D、S型答案:D205.全连接层的作用是A、滤波B、One-hot处理C、用于特征提取D、用于分类答案:D206.Tf.add(a,b)函数的作用是?A、除法B、加法操作C、减法操作D、乘法操作答案:B207.Multiply这个函数实现的是元素级别的相乘,也就是两个相乘的数元素各自()A、相与B、相乘C、相除D、相加答案:B208.双向循环神经网络的英文缩写是?A、RNNB、SRNNC、TRNND、Bi-RNN答案:D209.学生数学建模比赛由中国工业与()共同主办A、应用数学学会B、教育部C、工信部D、IEEE答案:A210.将一个骰子的“2”修改成“1”,那么掷这个骰子得信息熵会。A、增大B、减少C、不变D、不确定答案:B211.关于符号主义描述正确是A、是人工智能的主流B、是人工智能的基础C、是人工智能的全部D、不是人工智能答案:A212.早期的机器学习算法中,如果有两个超参数,通常通过什么方式来选择参数A、网格中取样点,然后系统的研究这些数值B、比较参数的大小C、对参数进行迭代选择D、对参数进行平均答案:A213.长短期记忆网络是RNN的一种变体,RNN由于梯度消失的原因只能有()记忆A、长期B、短期C、中期D、后期答案:B214.一个复数或实数向量空间加上长度概念,就是范数也可以称为()A、赋范向量空间B、内积空间C、矢量空间D、希尔伯特空间答案:A215.函数tf.log(),该函数返回的是一个()A、向量B、张量C、矢量D、范数答案:B216.卷积网络在本质上是一种输入到输出的(),它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式。A、卷积B、池化C、全连接D、映射答案:D217.Tf定义一个标量变量X,其语句是A、X=tf.variable(2.0,shape=[1,2])B、X=tf.Variable(2.0,dtype=tf.float32)C、X=tf.variable(2.0,shape=[1,2])D、X=tf.constant(2.0,btype=tf.float32)答案:B218.CrossEntropy交叉熵主要度量两个()分布间的差异性信息A、概率B、矢量C、矩阵数据D、空间答案:A219.在概率空间中,样本点的概率必须是:A、相等B、可以不等C、可以为0D、可以为1答案:A220.重复试验的贝努力实验是基于:A、二项式分布B、高斯分布C、均匀分布D、0-1分布答案:D221.以下四个mini-batch选取样本数量,哪一个效果最好A、58B、60C、62D、64答案:D222.神经网络中使用激活函数处理非线性因素,是因为()的效果不够A、非线性模型B、非线性+线性模型C、双曲线性模型D、线性模型答案:D223.Siamese网络从数据中去学习一个相似性(),用这个学习出来的度量去比较和匹配新的未知类别的样本。A、度量B、范数C、欧式距离D、模答案:A224.执行语句print(tf.__path__)后,结果是['C:\\ProgramFiles\\Anaconda3\\lib\\site-packages\\tensorflow'],则该语句实现的功能是?A、查询tensorflow位置B、查看tensorflow安装路径C、查询tensorflow版本D、测试tf模块安装是否正常答案:B225.通常,一个实数或复数向量空间加上长度和角度的概念,称为()A、内积空间B、赋范空间C、矢量空间D、希尔伯特空间答案:A226.Sigmoid激活函数的导数范围是()A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C227.()是指根据文本所表达的含义和情感信息将文本划分成褒扬的或贬义的两种或几种类型,是对文本作者倾向性和观点、态度的划分,因此有时也称倾向性分析。A、语音识别B、机器学习C、自然语言处理D、情感分类答案:D228.计算机视觉,主要研究方法是A、机器学习B、数据挖掘C、卷积神经网络D、openCV答案:C229.在贝努力实验是()的理论基础A、交叉熵损失函数B、最小二乘损失函数C、与二项式分布有关D、与信息量有关答案:A230.矩阵A的Frobenius范数定义为矩阵A各项元素的绝对值平方的总()A、差B、点乘C、和D、商答案:C231.(e^x)*sin(x)的导数是A、(e^x)((sin(x)+cos(x))B、(e^x)C、(e^x)*cos(x)D、cosx答案:A232.如果数据集大小为m,mini-batch的大小为A、1B、mC、大于mD、大于2,小于m答案:D233.Tf.nn.relu能A、被卷积数据B、卷积核C、步长D、用到全连接层答案:D234.前向传播过程+反向传播过程,接下来只需要进行(),不断调整边的权重A、求偏导B、求和C、四舍五入D、迭代答案:D235.启动图/会话的第一步是创建一个Session对象,如:A、sess=tf.Session()B、sess.close()C、tf.addD、tf.eqeal答案:A236.对于以下线性运算的结果向量,如果要映射成概率结果,需要函数:A、tf.nn.softmaxB、tf.nn.dropoutC、tf.nn.maxpoolD、tf.nn.cov2d答案:A237.定义步长张量strides=[1,3,3,1]能纵向移动A、1像素B、2像素C、3像素D、4像素答案:C238.从()到AlexNet。进化之路一:网络结构加深;进化之路二:加强卷积功能;进化之路三:从分类到检测;进化之路四:新增功能模块。A、LeNetB、AlexNetC、VGGD、ResNet答案:A239.深度学习典型应用:人脸识别,指什么网络架构?A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B240.LeNet-5网络是针对灰度图进行训练的,输入图像大小为32*32*1,不包含输入层的情况下共有()层,即2层卷积,2层池化,3层全连接,每一层都包含可训练参数(连接权重)A、5B、7C、8D、16答案:B241.经典的网络LeNet-5第七层是全连接层Output.这个层共有10个节点分别代表输出数字范围是()A、0和9B、0*9C、0到9D、0到10答案:C242.在CNN图像处理过程中,尺寸为32X32的一幅图像,经过strides步长为1,填充padding为1,然后经3*3的卷积核filter卷积处理后,输出的图像尺寸大小为?()A、28X28B、14X14C、30X30D、32X32答案:D243.在tf.nn.conv2d(a,B,C,d),其中填充操作是A、aB、bC、cD、d答案:D244.AlexNet网络结构有8层,其中有5个卷积层和()个全连接层A、3B、5C、16D、19答案:A245.循环神经网络的英文全称是?A、RecurrentNeuralNetworkB、RepeatNeuralNetworkC、RoundNeuralNetworkD、RecurseNeuralNetwork答案:A246.超参数范围中说法正确的是A、随机取值可以提升搜索效率B、随机取值就是随机均匀取值C、范围就是[0,1]D、随机取值对搜索无影响答案:A247.()是一种特定形式的RNN循环神经网络,英文全称Longshort-termmemoryA、CNNB、LSTMC、RNND、CONV答案:B248.激活函数把“()”保留并映射出来A、半激活的神经元的特征B、未激活的神经元的特征C、激活的神经元的特征D、无所谓状态的神经元的特征答案:C249.全连接网络对一个样本做一次forward,RNN对一个样本做()次forwardA、1B、多C、2D、3答案:B250.BP算法是通过梯度下降的方法对联结权重进行优化,即需要计算误差函数对联结权重的()。A、导数B、偏导数C、平方差D、标准偏差答案:B251.1950年代:FrankRosenblatt基于神经网络的概念,开发出(),由此掀起神经网络研究的第一次浪潮A、计算机B、感知机C、CPUD、GPU答案:B252.复合函数sin(sinx)的导数是A、cosx*(cos(sinx))B、cos(cosx)C、cos(sinx)D、sin(cosx)答案:A253.关于正则化,说法错误的是:A、过拟合可以通过正则化方式消除B、常用的正则化方式由L1,L2,以及dropoutC、欠拟合可以通过正则化方式消除D、正则化是损失函数的一个补偿项答案:C254.神经风格迁移是指将()图像的风格应用于目标图像,同时保留目标图像的内容。A、参考B、卷积C、池化D、腐蚀答案:A255.能消除overfitting过拟合的方法是那一个?A、线性化B、非线性化C、归一化D、定义dropout答案:D256.ActivationfunctionRectifiedLinearUnit即激活函数ReLU,它的作用是()A、引用了无效的单元格地址B、过滤无效神经元C、不是激发函数D、将正数保留,将负数置0答案:D257.LSTM中,哪个门的作用是“确定输出,把前面的信息保存到隐层中去”?A、输入门B、遗忘门C、输出门D、更新门答案:C258.在tensorflow下创建的会话tf.Session(),当上下文管理器退出时会话tf.Session()在关闭的同时且会()释放相关资源A、自动B、无法C、不清楚D、不能答案:A259.关于mini-batch说法错误的是A、指的是批量梯度下降B、适用于样本量小的数据集C、每一次只运算部分数据,最后将全部数据进行运算D、适用于样本量大的数据答案:B260.Tf的文件读入前,需要定义reader=tf.WholeFileReader(),该语句是A、读入文件B、定义文件操作对象C、定义读入模式D、定义数据对象答案:B261.Relu()激活函数的作用是将大于0的数保持不变,小于()的数输出为0A、-1B、0C、1D、x答案:B262.动量梯度算法,是通过学习率和()控制梯度下降的A、指数加权平均数B、局部平均值C、全局平局值D、方差答案:A263.Tf在图像处理的4维度张量,按照次序,它的意义是:A、batch、height、weight、channelB、height、weight、channel,batchC、batch、height、width、channelD、channel、height、weight、batch答案:C264.比()好用的激活函数是tanh函数(双曲正切函数)A、cosh函数B、Sigmoid函数C、RELU函数D、cosx函数答案:B265.在有监督学习中,标签起的一个作用是A、监督B、度量C、观察D、学习答案:A266.Tf定义一个占位符号的语句是A、Y=tf.zeros(2.0,shape=[1,2])B、X=tf.variable(2.0,shape=[1,2])C、Y=tf.placeholder(tf.float32)D、Y=ones(2.0,shape=[1,2])答案:C267.有多个卷积核的原因是:A、同时提取多个图像的特征B、提取某些图像多个特征C、图像有多个通道D、与多特征无关答案:B268.范数简称F-范数,是一种矩阵范数,记为()A、||*||FB、||·||FC、||-||FD、F||·||答案:B269.()是定义在整个训练集上的,是所有样本误差的平均,也就是所有损失函数值的平均。A、损失函数(LossFunction)B、代价函数(CostFunction)C、目标函数(ObjectFunction)D、范数答案:B270.Sys模块包含了与Python解释器和它的环境有关的函数,常用的语句是?A、importsysB、importosC、importrandomD、importmath答案:A271.为了屏蔽一些不必要的警告和错误,常使用编程语句例如os.environ['TF_CPP_MIN_LOG_LEVEL']='2'主要作用是屏蔽什么?A、警告B、错误C、警告和错误D、反汇编过程答案:C272.在a=tf.Variable([1,2,3]),b=tf.Variable([3,2,1]),经过tf.multiply(a,B.后值为A、[3,4,3]B、10C、运算不能进行D、结果是矩阵答案:A273.将多个LSTM组合成层,网络中有多层,复杂的结构能够处理更大范围的()A、动态性B、静态性C、不稳定性D、鲁棒性答案:A274.样本点数量相同的概率空间,可以等价互换。A、是B、不能C、部分能D、部分不能答案:A275.Tensorflow中,tf.equal(tf.argmax(y_conv,axis=1),tf.argmax(y_,1))A、返回整数值B、返回布尔值C、返回浮点值D、返回字符答案:B276.一个向量空间加上拓扑学符合运算的(加法及标量乘法是连续映射)称为()A、拓扑向量空间B、内积空间C、矢量空间D、希尔伯特空间答案:A277.实际开发过程中,关于训练集,验证集,测试集说法错误的是:A、可以直接使用训练集来验证算子的准确率B、训练集用于算子的拟合C、验证集和测试集用来评判算子的准确度D、可以不配置验证集答案:A278.激活函数tf.nn.relu能A、用于卷积后数据B、用于卷积核C、用于步长D、不能用到全连接层答案:A279.关于归一化确定,下列说法正确的是:A、通过中值和均值进行确定B、通过平均值和最小值确定C、通过方差和均值确定D、通过标准差和均值确定答案:C280.Tanh函数的导数范围是()A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A281.可以直观地看到各层网络结构和参数的工具的是?A、tfB、tf.nnC、TFD、TensorBoard答案:D282.实践中,Batch归一化通常和什么一起使用A、训练集的mini-batchB、测试集的mini-batchC、整个训练集D、整个测试集答案:A283.(e^x)*x^2的导数是A、(e^x)(x^2+2x)B、(e^x)C、(e^x)*cos(x)D、cosx答案:A284.一个数据集中有3万条数据,关于数据集分配哪一项说法正确:A、训练集数据可以分配1万条B、测试集数据可以分配1000条C、可以不设置训练集D、可以不设置验证集答案:D285.BP是backpropagation的所写,是()传播的意思A、反向B、前向C、前后向D、全连接答案:A286.下列函数能实现对比两个矩阵是否相等,或者向量是否相等的元素的函数是哪一个?A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C287.随时间反向传播的缩写是哪个?A、BPTTB、BPC、BPTD、BPTM答案:A288.特征脸方法利用()进行降维和提取特征A、次分量分析B、主分量分析C、主次分量分析D、矢量分析答案:B289.关于循环神经网络,哪个不是LSTM的门?A、输入门B、遗忘门C、输出门D、更新门答案:D290.Tensorflow.global_variables_initializer()的作用是什么?A、始化列表中的变量B、局部变量初始化C、初始化所有的变量(GraphKeys.VARIABLES)D、不清楚答案:C291.在tf中将变量A的值赋给B的语句是()A、tf.assignB、tf.subC、tf.addD、tf.eqeal答案:A292.语句b=tf.ones_like(a)是A、将b节点内容用a替换B、b对应张量维度和A相同,值为1C、b对应张量维度和A相同,值为2D、b对应张量维度和不同答案:B293.交叉熵作为()可以衡量p与q的相似性。A、损失函数B、激活函数C、sigmoid函数D、RELU函数答案:A294.Back-propagationthroughtime算法是常用的训练RNN的方法,其实本质还是()A、前向算法B、BP算法C、回归算法D、LSTM算法答案:B295.通常数据库可以理解为是()的一种集合体现A、结构化数据B、非结构化数据C、离散数据D、无序数据答案:A296.与Inception同年提出的优秀网络还有(),它相比于AlexNet有更小的卷积核和更深的层级A、VGG-NetB、InceptionC、ResNetD、LeNet-5答案:A297.RMSprop相比Momentum,可以选择更大的()A、损失函数B、学习率C、激活函数D、样本集答案:B298.卡耐基梅隆大学的DeanPomerleau在上世纪80年代末基于()制造了一辆自动驾驶汽车A、BP算法B、神经网络C、前向算法D、NFC答案:B299.使用BP算法的目的是()实际输出与训练集误差率。A、最大化B、最小化C、均值化D、范数化答案:B300.在实现tf变量A和B按照对应位相乘的函数是()A、tf.multiplyB、tf.matmulC、A*BD、A,puls(B.答案:A301.在TensorFlow中使用tf.log函数可以计算元素的自然对数,自然对数以常数()为底数的对数,A、eB、10C、2D、10^^答案:A302.在典型的Batch归一化运用中需要用什么来估算A、一个指数加权平均B、平均值C、方差D、最大值答案:A303.Batch归一化和神经网络中的什么功能类似A、reluB、dropoutC、sigmoidD、tanh答案:B304.常用的非监督学习算法有A、聚类B、K-近邻算法C、回归算法D、决策树答案:A305.关于拟合说法正确的是A、过拟合只发生在理论阶段,实际不会发生这种情况B、欠拟合是数据量过多,造成无法全部计算的现象C、训练准确率高,测试准确率低的情况,数据过拟合D、过拟合是指数据量大,计算复杂的情况答案:C306.词向量技术是将词转化成为稠密向量,并且对于相似的词,其对应的词向量也()A、不同B、相等C、相同D、相近答案:D307.局部响应标准化,此该环节主要用于防止过拟合,简称是什么?A、本区域B、LRNC、BP算法D、池化答案:B308.如果x的值是True,那么tf.cast(x,tf.float32)的值是什么?A、0.0B、1.0C、FalseD、True答案:B309.函数tf.constant()不正确的用法是那一个选项?A、tensor=tf.constant(1)B、tensor=tf.constant([1,2])C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D310.Sigmoid函数常被用作神经网络的阈值函数,将变量映射到()之间。A、0,1B、0,-1C、10,0D、0,0.1答案:A311.Mini-batch指的是A、小批量梯度下降B、随机梯度下降C、批量梯度下降D、小批量损失计算答案:A312.YOLO的英文全称是什么?A、YouOnlyLookOnlyB、YouOnlyLikeOnceC、YouOnlyLookOneD、YouOnlyLookOnce答案:D313.Conv2d(x_image,W_conv1)+b_conv)中b_conv1是A、对图像池化B、偏置项C、激活函数D、平均答案:B314.张量A的shape为[4,1,3],执行squeeze(A.以后,A、[4,3,1]B、[2,1,3]C、[4,3]D、[4,0,3]答案:C315.通常欧几里得距离,也叫A、非负距离B、平面距离C、绝对值距离D、平方范数距离答案:D316.不能解决梯度消失的是:A、调整激活函数类型B、使用batchnormC、增大隐藏层数量D、训练值预处理答案:C317.Tf读文件语句:key,value=reader.read(tf.train.string_input_producer(['cat.jpg']))语句中,key是A、key是关键词,value是Key的值B、key是文件打开符,value是整个文件数据读入。C、key是文件内部索引,value是key索引对应数据;D、key是文件打开符,value是Key的值答案:B318.A=tf.constant(2)B=tf.constant(5)AddOp=tf.greater(a,B.程序语句执行结果A、addOp=“FALSE”B、addOp=“TRUE”C、addOp=“00”D、addOp=“1”答案:A319.局部响应归一化即(),LRN一般是在激活、池化后进行的一中处理方法A、本区域B、localresponsenormalizationC、BP算法D、池化答案:B320.连接主义的主要原理为神经网络及神经网络间的连接机制与学习算法。其英文缩写为()A、symbolicismB、actionismC、connectionismD、AI答案:C321.一个32X32大小的图像,通过步长为2,尺寸为2X2的池化运算后,尺寸变为A、14X14B、2X2C、28X28D、16X16答案:D322.曼哈顿距离的的运算方法是A、绝对值运算B、开方运算C、内积运算D、线性运算答案:A323.对于“性格温和”这种定性数据进行数量比较,必须:A、首先定量化B、首先建立距离空间C、首先定性化D、直接运算答案:A324.语句tf.nn.conv2d(),其中遇到的图像张量,格式是A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A325.Vanishinggradientproblem是指在BP算法的过程中,error项逐渐变小,使得越靠前的网络层的学习速率越来越低A、梯度上升问题B、梯度优化C、梯度消失问题D、梯度下降法答案:C326.通常对一个事物下定义,首先要将它放入(),然后再通过层层限定,收缩该事物的外延。A、包含该事物的的集合。B、边缘事物的集合C、它包含的更小的集合D、直接陈列它的属性A答案:A327.实现带偏置的卷积操作的运算是:A、conv_ret1=conv2d(x_image,W_conv1)+b_conv1B、conv_ret1=conv2d(x_image,W_conv1+b_conv1)C、conv_ret1=conv2d(x_image,W_conv1,b_conv1)D、conv_ret1=conv2d(x_image,W_conv1)答案:A328.人工智能三大主义之符号主义的“符号”是指A、字符串B、符号逻辑C、字符串的推广D、字节答案:B329.现实世界中,信息传播的速度,是以()数量级进行A、线性B、幂函数C、指数D、常数答案:C330.经过激励传播、权重更新这两个环节的反复循环迭代,最终实现网络对输入的响应达到预定的目标值或范围为止,这就是()传播算法A、前向B、反向C、卷积D、填充答案:B331.关于dropout描述正确的是:A、属于正则处理B、一个激活函数C、用于分割数据集D、用于将数据样本多样化答案:A332.Print(tf.__version__)是可能正确被的语句,则这条程序语句实现的作用是?A、查询tensorflow版本B、查询tensorflow年代C、查询tensorflow位置D、测试tf模块安装是否正常答案:A333.()就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已)A、conv2dB、max_poolC、DropoutD、FC答案:C334.程序语句print(tf.__version__),有什么作用?A、显示安装的tensorflow的版本号B、保存安装的tensorflow的版本号C、下载安装的tensorflowD、下载上一个版本的tensorflow答案:A335.神经网络中参数的调试不包括A、学习率αB、动量梯度下降的参数βC、mini-Batch的大小D、输入图片大小答案:D336.在tf中My_var_times_two=my_var.assign(2*my_var)A、让my_var对应变量翻倍赋值给My_var_times_twoB、没有赋值C、赋值不翻倍D、my_var对应变量翻倍答案:D337.(euclideanmetric欧几里得度量)是一个通常采用的距离定义,在二维和三维空间中的欧氏距离就是两点之间的实际()。A、误差B、线段C、距离D、坐标答案:C338.()的建立通常是为解决实际问题和需要解决的问题而建立的模型A、架构B、数学模型C、流程图D、数据集答案:B339.风格迁移这一想法与()生成的想法密切相关A、黑帽B、纹理C、池化D、开运算答案:B340.激活函数Sigmoid的值域范围是在()之间A、0~1B、0~2C、-1~0D、-1~1答案:A341.Tf.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论