版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
试卷科目:人工智能深度学习技术练习人工智能深度学习技术练习(习题卷22)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度学习技术练习第1部分:单项选择题,共47题,每题只有一个正确答案,多选或少选均不得分。[单选题]1.在绘图时?-?表示那种风格字符()。A)虚线B)实线C)点划线D)点虚线[单选题]2.对于神经网络的说法,下面正确的是:1.增加神经网络层数,可能会增加测试数据集的分类错误率2.减少神经网络层数,总是能减小测试数据集的分类错误率3.增经网络层数,总是能减小训练数据集的分类错误率A)1B)1和3C)1和2D)2[单选题]3.如果从python一侧,想得到tf的节点S对应的值,需要下列:A)A=tf.run(S)B)A=S.valueC)A=S.eval()D)tf.assign(A,S)[单选题]4.双曲正切函数tanh是,它总体上()S型函数A)优于B)劣于C)等于D)大于等于[单选题]5.从()、比较比对、逐渐逼近的循环过程就是建立数学模型A)测量B)校准C)回归D)监督[单选题]6.pytorch保留整数部分,向0归整的函数是A)roundB)floorC)ceilD)trunc[单选题]7.以下不是tensorflow2.0相对1.0的优势是:A)无需运行会话B)无序占位符C)不需要使用梯度优化D)自动求微分[单选题]8.Keras的缺点是A)需要启动会话B)入门简单C)必须配合其他框架使用D)过度封装导致丧失灵活性[单选题]9.判断和之前信息是否有用的门是A)遗忘门B)输入门C)输出门D)更新门[单选题]10.对于神经网络,AW=Y,其中A是训练集合,Y是标签集合,总体损失函数E一般表示为是:A)0.5乘(Y-AX)的范数平方B)(Y-AX)C)Y对X的偏导数D)(AX-Y)[单选题]11.Tf.reshape(tensor,shape,name=None)函数的作用是将tensor变换为参数shape形式,其中的shape为一个()形式。-1所代表的含义是我们不用亲自去指定这一维的大小,函数会自动进行计算A)矢量B)向量C)列表D)凸集[单选题]12.下面哪个方法是对于空间数据的最大池化()A)MaxPooling2DB)AveragePooling1DC)AveragePooling2DD)GlobalAveragePooling2D[单选题]13.如果拋一个硬币,拋一次算一个事件结果;拋两次算一个事件结果;他们是A)一个概率空间B)两个概率空间C)一个样本空间D)一个概率空间,两个事件[单选题]14.下列关于运算符的说法正确的是()。A)算术运算符包括加、减、乘、除4种B)运算符?=?和运算符?==?是等效的C)逻辑表达式xD)指数运算符的优先级最高[单选题]15.pytorch封装类正向传播的函数是:A)callB)forwardC)backD)research[单选题]16.为节省神经网络模型的训练时间,神经网络模型的权重和偏移参数一般初始化为A)0.5B)1C)随机值D)0[单选题]17.实例的存储类似普通云服务器,分为系统盘和()A)文档盘B)数据盘C)软件盘D)内存盘[单选题]18.四维张量一般用来表示A)灰度图B)彩色图C)视频D)时间[单选题]19.lstm中的门,使用哪个激活函数控制A)reluB)sigmoidC)tanhD)softmax[单选题]20.提升管道性能描述错误的是:A)使用prefetch方法让数据准备和参数迭代两个过程相互并行。B)使用map时设置num_parallel_calls让数据转换过程多进程执行。C)使用cache方法让数据在第一个epoch后缓存到内存中,仅限于数据集不大情形。D)使用map转换时,不用batch,采用向量化的转换方法对每个batch进行转换。[单选题]21.带有正则化处理的函数是A)reLuB)sigmoidC)softmaxD)dropout[单选题]22.关于TensorFlow的描述,以下选项中错误的是()。A)TensorFlow是Python语育的一套优秀的CU图形库B)TensorFlow是谷歌公司基于DistBelief进行研发的第二代人工智能学习系统C)Tensor(张逊)指N维数组,Flow(流)指燕于数据流图的计算D)TensorFlow描述张量从流图的一端流动到另三端的计算过程[单选题]23.Anaconda是一款()软件。A)开源的python版本,包含conda、python等180多个科学包以及其依赖项B)是一款深度学习开发软件,集成了很多开发包C)是一款深度学习编译环境,提供了生成的APID)是一款版本管理平台,提供了不同版本的管理功能[单选题]24.keras中只保留模型的权重可以通过()方法实现A)model.save_weight()B)model.save_weights()C)model.save()D)model.json()[单选题]25.下列哪一项属于特征学习算法(representationlearningalgorithm)?()A)K近邻算法B)随机森林.C)神经网络D)都不属于[单选题]26.计算数组中间值的命令正确的是()。A)min()B)max()C)mean()D)median()[单选题]27.能实现将一维数据写入CSV文件中的是()A)foB)frC)foD)fname[单选题]28.RMSprop相比Momentum,可以选择更大的()A)损失函数B)学习率C)激活函数D)样本集[单选题]29.局部平均值又被称为A)常规平均值B)栅格平均值C)移动平均值D)唯一平均值[单选题]30.经典的网络LeNet-5第七层是全连接层Output.这个层共有10个节点分别代表输出数字范围是()A)0和9B)0*9C)0到9D)0到10[单选题]31.pytorch中求梯度的方式是A)optimizer.zero_grad()B)zero.autoC)cost.backward()D)optimizer.step()[单选题]32.Tf的全局变量初始化语句是A)tf.global_variables_initializer()B)tf.variables_initializerC)sess.run(w.initializer)D)tf.initializer()[单选题]33.一般来说,数学模型需要度量对比,则:A)需要满足距离空间B)可以不满足距离空间C)与距离无关D)以上全对[单选题]34.对于序列[1,2.1,1.9,1,3.1,2.9]可能是A)二项式分布B)高斯分布C)均匀分布D)0-1分布[单选题]35.矩阵A的Frobenius范数定义为矩阵A各项元素的绝对值平方的总()A)差B)点乘C)和D)商[单选题]36.可以处理梯度计算的参数是:A)requires_gradB)biasC)grad_outputD)ctx[单选题]37.对于概率空间,集合的划分,与下列最有关系的是A)距离空间B)概率空间C)向量空间D)排序[单选题]38.将numpy转成tensor的方式是:A)cloneB)tensorC)from_numpyD)view[单选题]39.哪个算法同一层使用不同的卷积核尺寸进行计算A)LeNetB)AlexNetC)ResNetD)Inception[单选题]40.考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个预先训练好的网络?A)除了最一层外所有的层都冻结,重新训练最后一层B)据重新训练模型C)只对最后几层进行调参(finetune)D)一进行选数用[单选题]41.使用函数tf.nn.conv2d()主要的目的是()A)增强图像B)简化图像C)特征提取D)图像处理[单选题]42.当使用conv2D层作为模型第一层时,需要提供()参数A)inputB)input_shapeC)input_dimD)output_dim[单选题]43.CNN传递数据处理时,数据应该是()维度A)1B)2C)3D)4[单选题]44.Whatdoesaneuroncompute?DA)AneuroncomputesthemeanofallfeaturesbeforeapplyingtheoutputtoanactivationfunctionB)Aneuroncomputesafunctiongthatscalestheinputxlinearly(Wx+b)C)Aneuroncomputesanactivationfunctionfollowedbyalinearfunction(z=Wx+b)D)Aneuroncomputesalinearfunction(z=Wx+b)followedbyanactivationFunction[单选题]45.前向传播过程+反向传播过程,接下来只需要进行(),不断调整边的权重A)求偏导B)求和C)四舍五入D)迭代[单选题]46.想要处理梯度消失,相对最好的激活函数是:A)sigmoidB)ReluC)tanhD)LeakyRelu[单选题]47.本学期的大作业,手写数字识别性能的最低要求是多少()。A)90%B)95%C)97%D)99%第2部分:多项选择题,共15题,每题至少两个正确答案,多选或少选均不得分。[多选题]48.卷积操作的主要目的就是对图像进行()A)增强B)降维C)理解D)特征提取[多选题]49.梯度下降法目前主要分为三种方法,区别在于每次参数更新时计算的样本数据量不同:A)小批量梯度下降法B)批量梯度下降法C)随机梯度下降法D)大量梯度下降法[多选题]50.数和矩阵相乘在函数和矩阵与矩阵相乘的函数分别是?A)tf.multiply(x2,y2)B)tf.matmul(x,y)C)tf.equalD)tf.cast[多选题]51.使用one-hot方法表示词汇有什么缺点?A)每个单词需要用高维向量来表示,而且只有一个数是零,其他都是1,表示冗余,存储量大B)每个单词表示的向量相乘都为零(正交),无法表示词汇之间的联系C)效率非常高D)能够处理非连续型数值特征[多选题]52.如果是填充后求卷积,图像尺寸不变化A)以0填充B)填充厚度为卷积核厚度减1的一半C)步长为1D)图像尺寸变小[多选题]53.计算图由()和()组成A)节点B)线C)张量D)变量[多选题]54.pytorch求导的方式可以是:A)backwardB)autograd.gradC)自动微分和优化器D)梯度磁带[多选题]55.Mini-batch比较好的取值有A)16B)32C)64D)128[多选题]56.关于连接主义,正确描述是A)基础理论是神经网络B)深度学习属于连接主义C)又称仿生学派D)产生在20世纪50年代产生[多选题]57.引起欠拟合的原因有()A)数据量大大,无法进行训练B)数据本身是非线性的但使用了线性模型C)模型本身过于简单D)特征数太少无法正确的建立统计关系[多选题]58.不能实现总体求和、总体平均的函数是:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm[多选题]59.Momentum算法可以使用()下降A)batchB)mini-batchC)LassoD)Ridge[多选题]60.深度学习中三个主义分别是A)符号主义B)连接主义C)激活主义D)行为主义[多选题]61.以下属于激活函数的有:A)ReluB)dropoutC)sigmoidD)softmax[多选题]62.语句中:tensorflow.truncated_normal(shape,mean,stddev)以下说法正确的是A)shape是张量形状B)正态随机数填充C)随机数需截断D)方差是stddev第3部分:判断题,共19题,请判断题目是否正确。[判断题]63.计算图只有在会话提供的环境中才能运行,分配计算资源。A)正确B)错误[判断题]64.提升卷积核(convolutionalkernel)的大小会显著提升卷积神经网络的性能。A)正确B)错误[判断题]65.Batch归一化增加了隐藏值分布变化的数量A)正确B)错误[判断题]66.Linux,全称GNU/Linux,是一种免费使用和自由传播的类UNIX操作系统A)正确B)错误[判断题]67.深度学习模型需要大量的训练数据,才能展现出神奇的效果,但现实生活中往往会遇到小样本问题,此时深度学习方法无法入手,传统的机器学习方法就可以处理A)正确B)错误[判断题]68.如果想获取当前场景背景的图像,则可以通过图像差分便可以提取出前景A)正确B)错误[判断题]69.当学习率设置的过大时,收敛过程将变得十分缓慢。而当学习率设置的过小时,梯度可能会在最小值附近来回震荡,甚至可能无法收敛A)正确B)错误[判断题]70.人工智能的两条技术发展路径分别是以模型学习驱动的数据智能、以认知仿生驱动的类脑智能。()A)正确B)错误[判断题]71.在一个神经网络里,知道每一个神经元的权值和偏差值是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,就可以近似任何函数。实现这个最佳的办法是随机赋值。A)正确B)错误[判断题]72.池化是降采样的唯一手段A)正确B)错误[判断题]73.风格迁移的内容可以被卷积神经网络更靠顶部的层激活所捕捉到。A)正确B)错误[判断题]74.Padding(填充)属性定义元素边框与元素内容之间的空间A)正确B)错误[判断题]75.给定概率空间,信息熵是针对无限个概率事件的。A)正确B)错误[判断题]76.BP网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。A)正确B)错误[判断题]77.Dropout的比例增加,模型能力增加。A)正确B)错误[判断题]78.卷积神经网络和循环神经网络都会发生权重共享。A)正确B)错误[判断题]79.常用来进行数据类型转换的函数是tf.fcast()A)正确B)错误[判断题]80.深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。A)正确B)错误[判断题]81.每个神经元可以有一个输入和多个输出。A)正确B)错误第4部分:问答题,共19题,请在空白处填写正确答案。[问答题]82.声明一个张量b=tf.constant([1,2,3],[4,5,6],dtype=32),则该张量的形状为_______。[问答题]83.在计算图节点间传递的数据都是______。[问答题]84.最大池化的具体操作是什么?[问答题]85.编程:实现下载并输出MNIST数据集的相关属性。[问答题]86.加深层的好处之一是可以_______网络的参数数量[问答题]87.简述tensorflow的构建阶段和执行阶段所做的操作。[问答题]88.写出变量定义函数的语法格式。[问答题]89.写出下图的卷积运算的运算结果和运算过程[问答题]90.卷积神经网络池化层的结构特点。[问答题]91.请你说说深度学习你都知道哪些框架?[问答题]92.什么是过拟合?什么是欠拟合?[问答题]93.循环神经网络,为什么好?[问答题]94.编程:实现简单回归。注:x_data和y_data是伪造的训练数据,默认权重Weight与偏置bias。[问答题]95.dropout=tf.nn.dropout(result,0.5,noise_shape=[4,1]),该程序中,隐藏层节点以_____的概率丢弃。[问答题]96.编程:使用Tensorflow定义两个矩阵,使用两种会话方法输出2个矩阵相乘的结果。[问答题]97.简述BP神经网络模型结构。[问答题]98.设置图形标题的方法_______[问答题]99.训练训练神经网络模型的步骤。[问答题]100.Dropunt是一种在学习的过程中_______神经元的方法1.答案:B解析:难易程度:易题型:2.答案:A解析:3.答案:A解析:4.答案:A解析:5.答案:A解析:6.答案:D解析:7.答案:C解析:8.答案:D解析:9.答案:A解析:10.答案:A解析:11.答案:C解析:12.答案:A解析:13.答案:B解析:14.答案:D解析:难易程度:中题型:15.答案:B解析:16.答案:C解析:17.答案:B解析:18.答案:C解析:批量图片,视频都可以是四维的19.答案:B解析:20.答案:D解析:21.答案:D解析:22.答案:A解析:难易程度:易题型:23.答案:A解析:24.答案:B解析:25.答案:C解析:26.答案:D解析:难易程度:易题型:27.答案:A解析:难易程度:易题型:28.答案:B解析:29.答案:C解析:30.答案:C解析:31.答案:C解析:32.答案:A解析:33.答案:A解析:34.答案:C解析:35.答案:C解析:36.答案:A解析:37.答案:B解析:38.答案:C解析:39.答案:D解析:40.答案:C解析:41.答案:C解析:42.答案:B解析:43.答案:D解析:44.答案:D解析:45.答案:D解析:46.答案:D解析:47.答案:B解析:难易程度:易题型:48.答案:BD解析:49.答案:ABC解析:梯度下降法目前主要分为三种方法,区别在于每次参数更新时计算的样本数据量不同:批量梯度下降法(BGD,BatchGradientDescent)随机梯度下降法(SGD,StochasticGradientDescent)小批量梯度下降法(Mini-batchGradientDescent)50.答案:AB解析:51.答案:AB解析:52.答案:ABC解析:53.答案:AB解析:54.答案:ABC解析:55.答案:ABCD解析:56.答案:ABCD解析:57.答案:BCD解析:引起欠拟合的原因有:1、模型本身过于简单,例如数据本身是非线性的但使用了线性模型;2、特征数太少无法正确的建立统计关系。58.答案:BD解析:59.答案:AB解析:60.答案:ABD解析:61.答案:ACD解析:62.答案:ABC解析:63.答案:对解析:64.答案:错解析:65.答案:错解析:66.答案:对解析:Linux,全称GNU/Linux,是一种免费使用和自由传播的类UNIX操作系统67.答案:对解析:深度学习模型需要大量的训练数据,才能展现出神奇的效果,但现实生活中往往会遇到小样本问题,此时深度学习方法无法入手,传统的机器学习方法就可以处理68.答案:对解析:69.答案:错解析:70.答案:对解析:71.答案:错解析:72.答案:错解析:73.答案:对解析:74.答案:对解析:75.答案:错解析:76.答案:对解析:77.答案:错解析:78.答案:对解析:79.答案:错解析:80.答案:对解析:81.答案:对解析:82.答案:(2,3);解析:83.答案:张量;解析:84.答案:最大池化的具体操作是:整个图片被不重叠的分割成若干个同样大小的小块(poolingsize)。每个小块内只取最大的数字,再舍弃其他节点后,保持原有的平面结构得出结果。解析:85.答案:Fromtensorflow.examples.tutorials.mnistimportinput_dataMnist=input_data.read_data_sets("data/",one_hot=True)Print(mnist.train.images.shape)Print(mnist.train.labels.shape)Print(mnist.validation.images.shape)Print(mnist.validation.labels.shape)Print(mnist.test.images.shape)Print(mnist.test.labels.shape)解析:86.答案:减少解析:87.答案:TensorFlow程序通常被组织成计算图的构建阶段和执行阶段。在构建阶段,节点的执行过程被描述成一个图,在执行阶段,使用会话执行图中的节点,产生结果。解析:88.答案:Tf.Variable(initial_value,trainable=True,collections=None,validate_shape=True,name=None)解析:89.答案:>解析:90.答案:池化层的主要作用是将一张高分辨率的图片转换为低分辨率的图片,从而达到减少整个神经网络参数的目的。解析:91.答案:Tensorflow;caffe;pytorch;MXNet。解析:92.答案:①对某个数据集过度拟合的状态称为过拟合②模型在训练数据上没有获得充分小的误差解析:93.答案:循环神经网络模型(RNN)是一种节点定向连接成环的人工神经网络,是一种反馈神经网络,RNN利用内部的记忆来处理任意时序的输入序列,并且在其处理单元之间既有内部的反馈连接又有前馈连接,这使得RNN可以更加容易处理不分段的文本等。解析:94.答案:#首先引进需要的包ImporttensorflowastfImportnumpyasnpIf__name__=="__main__":#x_data和y_data是伪造的训练数据x_data=np.random.rand(100).astype(np.float32)y_data=0.1*x_data+0.3#默认权重Weight与偏置bias#tf.random_uniform三个参数shape,minval,maxval#tf.Variable必要参数initial_value是一个tensorWeight=tf.Variable(t
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
评论
0/150
提交评论