《人工智能深度学习技术》考试复习题库大全-下(多选、判断题部分)_第1页
《人工智能深度学习技术》考试复习题库大全-下(多选、判断题部分)_第2页
《人工智能深度学习技术》考试复习题库大全-下(多选、判断题部分)_第3页
《人工智能深度学习技术》考试复习题库大全-下(多选、判断题部分)_第4页
《人工智能深度学习技术》考试复习题库大全-下(多选、判断题部分)_第5页
已阅读5页,还剩109页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

PAGEPAGE1《人工智能深度学习技术》考试复习题库大全-下(多选、判断题部分)多选题1.在深度神经网络中,如果是填充后求卷积,图像尺寸保持不变,以下哪些参数是正确的A、以0填充一圈B、以1填充一圈C、步长为1D、图像尺寸变小答案:AC2.语句train_step.run(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:0.5})这条语句的意义:A、train_step必须是优化器B、feed_dict接收训练集和标签集。C、要求百分之五十的神经元参与训练。D、这是训练过程的入口。答案:ABCD3.不能实现总体求和、总体平均的函数是:A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:BD4.神经风格迁移的损失函数包含哪几部分?A、内容图像的损失函数B、风格图像的损失函数C、交叉熵损失函数D、均方差损失函数答案:AB5.在tensorflow平台中,能实现卷积运算的函数是:A、tf.nn.conv2dB、tf.nn.depthwise_conv2dC、tf.nn.convolutionD、tf.random_normal答案:ABC6.语句中:tensorflow.truncated_normal(shape,mean,stddev)以下说法正确的是A、shape是张量形状B、正态随机数填充C、随机数需截断D、方差是stddev答案:ABC7.对于tf.nn.SoftMax函数,它可以:A、用于多类别分类B、映射到概率空间C、压缩数据D、用于卷积层答案:ABC8.Mini-batch比较好的取值有A、16B、32C、64D、128答案:ABCD9.程序语句例如conv2d(input_d,filter_d,strides=[1,3,3,1],padding='SAME'),这条语句的含意理解为()?A、步长在高度方向和宽度方向均为3B、填充图像边缘,使图像尺寸不变C、input_d是待卷积的数据D、进行卷积操作答案:ABCD10.TensorFlow软件库可以轻松地将计算工作部署到多种平台()A、CPUB、GPUC、TPUD、SDK答案:ABC11.BPTT算法是针对循环层的训练算法,它的基本原理和BP算法是一样的,也包含同样的几个步骤:A、前向计算每个神经元的输出值B、反向计算每个神经元的误差项值,它是误差函数E对神经元j的加权输入的偏导数C、计算每个权重的梯度D、最后再用随机梯度下降算法更新权重答案:ABCD12.对于w_data=np.mat([[1.0,3.0]]).T生成的张量维度是A、维度是(2,1)的张量B、是向量,值为[1,3]C、是矩阵[[1],[3]]D、是向量[[1,3]]的转置答案:ACD13.语句train_acc=accuracy.eval(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:1.0})A、是训练过程B、是测试过程C、输入训练集合D、输入dropout比例答案:ACD14.关于梯度消失,说法正确的是:A、可以通过激活函数防止梯度消失B、梯度消失对神经网络无影响C、尽量避免梯度消失D、梯度消失反向传播时,由于梯度值过小或消失的现象答案:ACD15.哪些是tensorflow的算术运算函数?A、add()B、subtract()C、multiply()D、div()答案:ABCD16.神经风格迁移过程包括?A、创建网络B、损失函数最小化C、梯度下降过程LOSS最小化D、数据清洗答案:ABC17.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)意义:A、定义学习步长B、优化器C、交叉熵损失函数D、开始训练答案:ABC18.TensorFlow框架可用于多个领域,例如:A、语音识别B、NLPC、计算机视觉D、自动驾驶答案:ABCD19.可以理解为压缩求和,常用于降维的函数和计算张量的各个维度上的元素的平均值的函数分别是?A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:AC20.Batch归一化步骤A、求每个训练批次数据的均值B、求每个训练批次数据的方差C、使用求得的均值和方差对该批次的训练数据做归一化,获得0-1分布D、尺度变换和偏移答案:ABCD21.以下属于激活函数的有:A、ReluB、dropoutC、sigmoidD、softmax答案:ACD22.字节逻辑运算10110111和01010101的异或操作:A、结果是10110110B、结果是11100010C、规律是见同为0,见异为1D、结果是11100011答案:BC23.张量语句tf.concat()是:A、合并张量B、与张量维度有关C、实现代数运算D、输入数据是一个张量答案:AB24.Batch归一化会起作用的原因包括A、通过归一化所有的输入特征值,以获得类似范围的值,加速学习B、将参数归一化可以减缓学习速率C、可以使权重比你的网络更滞后或更深D、可以使权重比你的网络更超前或更深答案:AC25.深度学习网络的卷积部分的组成有A、卷积层B、RELUC、POOLING层D、pedding答案:ABC26.神经网络中超参数调试方法A、随机选择点来试验超参数效果B、当你给超参数取值时,另一个惯例是采用由粗糙到精细的策略。C、只调试容易的D、给定默认值即可答案:AB27.计算机视觉特征检测点检测中,点特征的优势是?A、点特征属于局部特征,对遮挡有一定鲁棒性B、通常图像中可以检测到成百上千的点特征,以量取胜C、点特征有较好的辨识性,不同物体上的点容易区分D、点特征提取通常速度很快答案:ABCD28.关于符号主义,正确描述是A、又称逻辑主义B、又称心理学派C、基础理论是数理逻辑D、是研究生物的答案:ABC29.关于连接主义,正确描述是A、基础理论是神经网络B、深度学习属于连接主义C、又称仿生学派D、产生在20世纪50年代产生答案:ABCD30.AlphaGo下围棋的关键技术深度学习A、决策神经网络B、评估神经网络C、历史经验D、线性代数答案:AB31.如果用贝努力实验概率事件A,进行参数估计,参数是:P(A)=p(1)^m*p(0)^nA、让A的可能概率最大B、参数就是p(1)或p(0)C、让p(1)最大D、让m最大答案:AB32.对于卷积层网络的tf.nn.dropout,以下说法正确的是?A、在全连接层B、停止一些节点更新C、防止过拟合D、训练初给出答案:ABCD33.从图像中提取CNN特征,()模型是首选算法。它的缺点在于,参数量有140M之多,需要更()的存储空间。但是这个模型很有研究价值A、VGGB、大C、小D、少答案:AB34.在图像处理中,在颜色RGB建立三维向量的距离空间,能A、实现颜色分类B、计算两种颜色的差别C、计算两个图像差别D、与图像内容有关答案:ABC35.在AI领域,图像识别技术经常会应用到好多场景,比如应用案例有?A、人脸检测B、表情判断C、动作识别D、无人驾驶、车牌识别答案:ABCD36.哪些属于序列数据A、语音识别B、情感分类C、机器翻译D、DNA序列分析答案:ABCD37.以下哪些词向量之间的差值非常接近?A、男人,女人B、国王,王后C、父亲,母亲D、父亲,儿子答案:ABC38.人脸检测的图片通常有那几种类型?A、LIVE表示生活照;B、IDCARD表示身份证芯片照;C、WATERMARK表示带水印证件照;D、CERT表示证件照片;答案:ABCD39.深度学习的兴起主要得益于三个方面的原因A、新方法的出现,为神经网络深度的拓展解决了梯度弥散的问题;B、大量已标注数据的出现,为神经网络的训练做好了数据准备;C、GPU(图形处理器)的使用,为卷积计算提供了高速解决方案D、深度学习等于人工智能答案:ABC40.以下属于梯度下降的有A、BGDB、SGDC、Mini-BatchD、dropout答案:ABC41.对数坐标下,在[a,b]区间随机随机均匀地给r取值的说法正确的是A、取最小值的对数得到a的值B、取最小值的对数得到b的值C、取最大值的对数得到a的值D、取最大值的对数得到b的值答案:AD42.下面几个参数中,不属于卷积核的参数是A、步长B、填充C、输入通道D、输出通道答案:AB43.深度学习中通过动物来形容训练模型有A、熊猫法B、鱼子酱法C、猫狗法D、大鱼法答案:AB44.Anaconda包括()以及一大堆安装好的工具包,比如:numpy、pandas等A、CondaB、PythonC、OPENCVD、TPU答案:AB45.语句t=tf.ones_like(a)的几个意义是A、将t节点内容用a替换B、t节点对应张量维度和A相同C、t对应张量值为1D、a需要预先初始化答案:BCD46.以下说法,关于tensorflow描述正确的是A、集成了主流的机器学习算法B、支持分布式部署C、支持Python语言开发D、不支持深度学习答案:ABC47.下面哪些序列数据属于多对多(多个输入,多个输出)的关系A、音乐生成B、情感分类C、编码器-解码器D、机器翻译答案:CD48.()变换在数字图像处理中通常是对于图像的()提取A、BGRB、欧氏距离C、骨架D、RGB答案:BC49.神经网络解决非线性分类,是通过:A、构造神经网络B、用激活函数C、训练权重矩阵D、让损失最大化答案:ABC50.范数,在()、()及相关的数学领域,范数是一个函数,是矢量空间内的所有矢量赋予非零的正长度或大小。A、线性代数B、泛函分析C、腐蚀D、膨胀答案:AB51.在tf语句中,a=tf.Variable(25);执行sess.run(A.语句以后,以下说法正确的是:A、执行一个操作节点B、从python操作tf模块C、执行tf内的python模块D、实现python引用tf源代码答案:AB52.在语句tf.truncated_normal(U,stddev=0.1)和tf.constant(V)中,正确说法是:A、U是shape向量B、V是数值或列表C、U和V意义相同D、U和V意义不相同答案:ABD53.关于归一化描述正确的是:A、归一化可以预防过拟合B、归一化没有实质作用C、归一化将所有数据样本值缩放到0-1之间D、归一化是一种激活函数答案:AC54.在tensorflow中,tf.reshape函数的参数是(tensor,shape,name=None),以下哪些描述是正确的?A、函数的作用是将tensor变换为参数shape形式B、其中的shape为一个列表形式C、name可省略D、-1所代表的含义是我们不用亲自去指定这一维的大小,函数会自动进行计算答案:ABCD55.(Non-maximumsuppression,NMS)的本质是?A、搜索局部极大值B、抑制非极大值元素C、寻找出最小值D、寻找出阈值答案:AB56.关于卷积核是个张量,本身的参数,它包括有:A、高度B、宽度C、输入通道D、输出通道答案:ABCD57.Tensorflow中,函数tensorflow.nn.softmax_cross_entropy_with_logits()的功能描述正确的是A、在卷积层B、进行优化C、用信息熵D、一定全连接层答案:BCD58.要权释机器学习/深度学习在人工智能体系中的作用,通常从机器感知、()、()三方面来进行A、感知B、理解C、决策D、证明答案:BC59.对于矩阵A可以求逆,那么A必须A、是方阵B、行列式不为零C、任意矩阵D、行列式为1答案:AB60.以下可以处理Mnist数据集的分类算法有A、KNNB、逻辑回归C、卷积神经网络D、k-mean答案:ABC61.迁移学习是一种机器学习的方法,包含以下两种开发方法?A、开发模型的方法B、预训练模型的方法C、数据清洗D、似然变换答案:AB62.深度学习会用到()的学习方法来训练深度神经网络。A、有监督B、无监督C、行为主义D、机器学习答案:AB63.在关于解决棋类问题的方法中A、深蓝属于符号主义B、阿尔法go是连接主义C、深蓝是连接主义D、阿尔法go是行为主义答案:AB64.搜索参数的两种重要方式是A、没有足够计算资源,通过每天观察,不断调整参数B、同时试验多种模型,获得学习曲线C、没有足够计算资源,通过试验多种模型,获得学习曲线D、拥有足够资源时,通过每天观察一个参数,来进行调整答案:AB65.语句tf.transpose(x).eval()的意义是:A、对x进行转置B、从tf环境中获取x的数据交给python环境C、不对x转置D、不能获知x的内容答案:AB66.数学建模过程中,引入距离空间,可以:A、度量任意两个点的接近程度B、可以实现线性运算C、可以度量点到集合距离D、度量凸集合到凸集合的距离答案:ACD67.反向传播算法的过程如下:A、初始化联结权重Wij,对于输入的训练样本,求取每个节点输出和最终输出层的输出值B、对输出层求取偏导数C、对于隐藏层求取偏导数D、求取输出误差对于每个权重的梯度,更新权重答案:ABCD68.线性变换中,若A是方阵,用A对线性空间的向量t进行变换。其结果为TA、变换前后向量模有变化B、t角度变化到TC、T也是向量D、T和t维度相同答案:ABCD69.读入的图片,要想用tf卷积,需要A、将图片转换成张量B、需要按照tf的四元组格式C、需要定义卷积核D、定义步长答案:ABCD70.单个神经元能解决什么问题A、与B、或C、非D、异或答案:ABC71.以下哪些属于独热编码?A、[0,1,0,0]B、[0,1,1,0]C、[1,0,0,0]D、[0,0,0,1]答案:ACD72.在卷积神经网络中,随机生成的卷积核后:A、个别一些卷积核对特征提取几乎无贡献B、每个卷积核对特定特征进行提取C、有信号共振的原理D、特征最后形成编码,送入全连接网络答案:ABCD73.PyCharm使用()语言是提高开发效率的工具A、numpyB、PythonIDEC、PythonD、sklearn答案:BC74.在概率空间,概率事件Ai和概率样本点ai不同点在于A、样本点不能再划分B、事件可以再划分C、事件可能有多个样本D、事件的概率肯定大于等于样本点概率答案:ABCD75.人脸检测项目中,使用的图片格式通常有那几种?A、PNGB、JPGC、JPEGD、BMP答案:ABCD76.比较适合循环神经网络的应用有哪些?A、视频行为识别B、实体名字识别C、语音识别D、机器翻译答案:ABCD77.使用one-hot方法表示词汇有什么缺点?A、每个单词需要用高维向量来表示,而且只有一个数是零,其他都是1,表示冗余,存储量大B、每个单词表示的向量相乘都为零(正交),无法表示词汇之间的联系C、效率非常高D、能够处理非连续型数值特征答案:AB78.所谓函数的另一种描述是:A、它是一个集合B、可以看成一个映射C、一个概率空间D、一个线性空间答案:AB79.在tensorflow中,x=tf.cast(u,tf.float32)的意义,说法正确的是A、将随机数赋值给uB、将u内数据转换成float32C、将u内的数据进行洗牌处理D、实现类型转化的功能答案:BD80.图像识别常用的方案有那些?A、人脸检测B、表情判断C、动作识别D、无人驾驶答案:ABCD81.语句tf.nn.dropout(h_fc1,keep_prob)的意义是A、停止某些节点更新B、保留百分率为keep_prob的节点更新C、在全链接层有效D、可以停止任意层节点更新答案:ABCD82.语句tf.variables_initializer语句可以A、初始化一个变量B、初始化多个变量C、初始化全部变量D、初始化常量答案:ABC83.深度学习训练中,包含以下步骤;A、准备样本集合B、前向传递,求出lossC、求出反向的梯度dYD、按照梯度dY,确定的更新参数,更新X,继续循环答案:ABCD84.关于“熊猫方式”和鱼子酱方式的选择说法正确的是A、当计算机资源足够时选择“鱼子酱方式”B、当计算机资源足够时选择“熊猫方式”C、当计算机资源缺乏时选择“鱼子酱方式”D、当计算机资源缺乏时选择“熊猫方式”答案:AD85.手写体识别程序经常调用的四个数据集包括以下选项中那几个?()A、train-images.idx3-ubyteB、train-labels-idx1-ubyteC、t10k-images.idx3-ubyteD、t10k-labels-idx1-ubyte答案:ABCD86.归一化的特点:A、更容易收敛得到最优解B、权重值较小C、权重值大D、无特点答案:AB87.Tensorflow实现cnn模型的训练与使用开发过程的步骤通常包括()A、准备样本集合B、前向传递,求出lossC、求出反向的梯度D、按照梯度的反向传播,更新参数答案:ABCD88.程序语句tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)正确的描述为?A、第一个参数x:指输入。train的时候才是dropout起作用的时候B、第二个参数keep_prob:设置神经元被选中的概率,在初始化时keep_prob是一个占位符C、noise_shape:干扰形状。此字段默认是None,表示第一个元素的操作都是独立D、第五个参数name:指定该操作的名字答案:ABCD89.神经网络中哪些参数需要调试A、学习率αB、动量梯度下降的参数βC、mini-Batch的大小D、隐藏层数目答案:ABCD90.以下哪些tensorflow的函数可以对张量进行逻辑运算A、equal()B、not_equal()C、less()D、greater()答案:ABCD91.关于sigmoid函数,它的性质有什么?A、概率平均B、能解决非线性分类问题C、将负的权值映射到正值D、将正权值映射到负数答案:BC92.常用的梯度优化算法有:A、dropoutB、动量梯度下降法C、RMSpropD、Adam答案:BCD93.在深度学习中,从结构上说,卷积神经网络由()和()层构成A、卷积层B、全连接层C、图像滤波层D、边缘提取层答案:AB94.人工智能被分为三大学派或者三大主义,请从以下选项中选择出()?A、symbolicismB、connectionismC、actionismD、机器学习答案:ABC95.在循环神经网络中,哪些技术可以改善梯度消失问题A、LSTMB、GRUC、RNND、BRNN答案:AB96.离散有限个事件的信息熵是()A、有限的B、无限的C、可能为负D、可能大于1答案:AD97.人脸检测系统中,检测出人脸后,可对人脸进行分析,获得()等72个关键点A、眼B、口C、鼻D、轮廓答案:ABCD98.定义卷积核W_conv1=weight_variable([5,5,5,32])后A、尺寸5X5B、输入通道5C、输出通道32D、有32个卷积核答案:ABCD99.在程序中y_predict和y_actual的意义A、y_predict来自神经网络输出B、y_predict必从softmax函数出来。C、y_actual从标签集合来的。D、两者的维度属性一致。答案:ABCD100.Tf.nn.dropout()是tensorflow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层,具体的作用是有那些?A、停止某些节点更新B、保留百分率为keep_prob的节点更新C、在全链接层有效D、可以停止任意层节点更新答案:ABCD101.卷积后图像尺寸不变化,对于Padding的描述,正确的是A、以0填充B、填充厚度是卷积核厚度减1的一半C、步长为1D、图像尺寸变小答案:AB102.Momentum算法可以使用()下降A、batchB、mini-batchC、LassoD、Ridge答案:AB103.下面哪些语句哪些函数是优化器?A、tf.train.GradientDescentOptimizer()B、tf.train.AdamOptimizer()C、tf.train.Optimizer()基本的优化类D、tf.train.AdadeltaOptimizer()答案:ABCD104.交叉熵为-1/m∑[y(i)log(hθ(x(i)))+(1?y(i))log(1?hθ(x(i)))]A、m是训练输入元素个数B、∑的加和长度是输入个数C、y(i)来自标签的onehot表D、hθ(x(i))和标签one-hot表维度一致答案:ABCD105.反向算法BP网络学习包括以下()个过程A、组成输入模式由输入层经过隐含层向输出层的“模式顺传播”过程B、网络的期望输出与实际输出之差的误差信号由输出层经过隐含层逐层修正连接权的“误差逆传播”过程C、由“模式顺传播”与“误差逆传播”的反复进行的网络“记忆训练”过程D、网络趋向收敛即网络的总体误差趋向极小值的“学习收敛”过程答案:ABCD106.能实现总体加和或平均的函数分别是:A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:AC107.Tf中与梯度相关的函数是:A、tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)B、[db,dW,dx]=tf.gradient(C,[b,w,x])C、gradient=Optimizer.pute_gradients(loss)D、optm=Optimizer.apply_gradients(grads_holder)答案:ABCD108.由深度神经网络构成的网络结构中,其构成通常会包括那些层?A、输入层B、卷积层(激活函数)C、池化层D、全连接层答案:ABCD109.图像读写语句:image0=tf.image.decode_jpeg(value)A、对Value进行解码B、Value是jpeg格式数据C、value是压缩数据D、tf.image是图像处理类答案:ABCD110.有训练集包含num个训练样本,交叉熵在tf中的表述是:A、entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B、entropy=-tf.reduce_mean(y_actual*tf.log(y_predict))C、entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D、entropy=-tf.reduce_any(y_actual*tf.log(y_predict))答案:AB111.以下哪条tf语句能够描述损失函数A、loss=tf.reduce_mean(tf.square(y-y_datA.)B、loss=tf.reduce_sum(tf.square(y-y_datA.)C、loss=tf.reduce_mean(tf.add(y,y_datA.)D、loss=tf.reduce_mean(tf.subtract(y,y_datA.)答案:AB112.Inception网络主要是由那几层构成的?()A、卷积层B、激活函数C、池化层D、全连接层FC答案:ABCD113.CNN的网络训练后,形成模块model,其中数据包括A、所有卷积核B、所有的poolingC、连接层权重D、relu答案:ABCD114.语句a=np.array([1,2,3,45,22,100])S=tf.convert_to_tensor(A,name="sss")的正确断言是:A、a是np指定的张量B、可以实现对tf张量的任意填充C、convert_to_tensor将a转换成tf张量D、S是指向tf张量的结点答案:ABCD115.以下哪些框架可以用于深度学习领域A、caffeB、torchC、tensorflowD、mxnet答案:ABCD116.信息熵是对概率空间的整个系统描述,这里的概率空间描述正确的是:A、包含全部样本点B、可能有多种划分C、是核函数D、解决线性分类问题答案:AB117.Logistic回归又称logistic(),是一种广义的(),常用于()等领域A、回归分析B、线性回归分析模型C、数据挖掘,经济预测D、疾病自动诊断答案:ABCD118.例如集合外的一个点,该点到该集合的距离是A、是该点到集合边界点的最短距离B、是该点到集合内所有点的最短距离C、是该点到集合内任意一点的距离D、是该点到集合内非边界点的某点的距离答案:AB119.通过试验超参数的不同取值可以A、选择对训练集目标而言的最优解B、对于开发集而言的最优解C、超参搜索过程中最想优化的东西D、简化参数调试答案:ABC120.人工智能是解决机器()的学科A、感知B、理解C、决策D、证明答案:ABC121.浅层神经网络与深度神经网络比较,其区别之处是?A、浅层结构算法:其局限性在于有限样本和计算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定制约B、深度学习可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示,并展现了强大的从少数样本集中学习数据集本质特征的能力。C、深度学习多层的好处是可以用较少的参数表示复杂的函数D、深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。答案:ABCD122.关于正则化的正确说法有:A、要求在损失函数加正则化项B、是强制将w更新进行截止C、会减少过拟合D、会增加过拟合答案:ABC123.Inception网络都是顶尖的网络代表,Inception细分种类有那几种?()A、Inceptionv1B、Inceptionv2C、Inceptionv3,Inceptionv4D、Inception-ResNet答案:ABCD124.通常,使用TensorFlow框架进行开发,可以应用在实际领域和应用场景有那些?A、语音识别B、自然语言处理NLPC、计算机视觉D、风格迁移广告答案:ABCD125.关于正则化,描述正确的是:A、正则化可以防止欠拟合B、正则化可以防止过拟合C、dropout具有正则化效果D、relu函数具有正则化效果答案:BC126.以下多个选项其中属于AI描述其主要的三大主义或学派的是?A、机器学习B、连接主义C、行为主义D、符号主义答案:BCD127.Tf中能实现两个向量代数运算的语句是A、c=tf.greater(A,b)B、a=tf.subtract(A,b)C、b=tf.Equal(A,b)D、d=tf.matmul(A,b)答案:BD128.对于集合外一个点,到该集合的距离是A、是该点到集合边界点的最短距离B、是该点到集合内所有点的最短距离C、是该点到集合内任意一点的距离D、是该点到集合内非边界点的某点的距离答案:AB129.定义卷积核W_conv1=weight_variable([5,5,5,10])后A、尺寸5X5B、输入通道5C、输出通道5D、有10个卷积核答案:ABD130.Tf.slice(image,input,size)从,image取出局部A、image是输入张量B、input是定位点C、size是取出数据描述D、image只能有四维张量答案:ABC131.在循环神经网络中,GRU中有几个门?A、输入门B、遗忘门C、重置门D、更新门答案:CD132.要抽象和展示MathematicalModel通常会使用()等方式A、数学符号B、数学式子C、程序D、图形答案:ABCD133.Tf.nn.conv2d(x,W,name1=[1,1,1,1],name2='SAME')其中name1和name2对应单词是:A、name1是strideB、name2是paddingC、name1是paddingD、name2是stride答案:AB134.训练语句mnist=input_data.read_data_sets("MNIST_data/",one_hot=True)是指:A、如果本地有mnist就从本地读入B、如果本地没有mnist就从网上读入C、将训练数据转换成one_hot表D、将标签数据转换成one_hot表答案:ABD135.在tf中,与全局变量初始化相关的操作语句是A、init_op=tf.global_variables_initializer()B、withtf.Session()assess:C、sess.run(init_op)D、importnumpyasnp答案:ABC136.人脸质量信息是要返回人脸各部分的()等信息A、遮挡B、光照C、模糊D、完整度、置信度答案:ABCD137.目前,深度学习主要包括()?A、前馈神经网络B、卷积神经网络C、循环神经网络D、对抗神经网络答案:ABCD138.Sigmoid函数的性质有哪些?A、将输出数据压缩到[0,1]集合范围B、能解决非线性分类问题C、将负的权值映射到正值D、将正权值映射到负数答案:ABC139.关于训练,验证集划分,下列正确的是:A、不一定需要验证集B、数据集数量较少时,训练集和测试集比例可以是7:3C、任何数量的数据集,都应遵守训练集和测试集比例7:3的铁则D、大数据量的验证集,可以不遵循训练集和测试集比例7:3的原则答案:ABD140.人工智能的的三个主要流派是指A、符号主义B、连接主义C、行为主义D、机器学习答案:ABC141.关于行为主义的正确描述是A、基础理论是控制论B、产生在20世纪50年代产生C、是仿生昆虫的D、是研究自组织、自适应、自学习的答案:ABCD142.随机梯度下降的特点是:A、mini-batch大小为1B、每次迭代有可能原理最优解C、永远不会收敛D、不能使用向量化加速答案:ABCD143.如果填充图像后求卷积,并保持图像尺寸不变化A、以0填充B、填充厚度为卷积核厚度减1的一半C、步长为1D、步长大于1答案:ABC144.语句My_var_times_two=my_var.assign(2*my_var)A、让my_var对应变量翻倍B、有赋值C、My_var_times_two是一个节点D、需要先对my_var初始化答案:ABCD145.通常深度学习网络的卷积层部分的组成有A、卷积层B、RELUC、POOLING层D、pedding答案:ABC146.在数学里面,内积空间是增添了一个额外的结构的向量空间。这个额外的结构叫做(),或(),或()A、内积B、标量积C、点积D、点乘答案:ABC147.假定一个全连接网络有三个权重矩阵维度为W1[a,b],W2[c,d],W3[e,f],该网络A、输入维度为[M,a]B、输出维度[M,f]C、输入数据维度为[a,b]D、输出数据维度为[e,f]答案:AB148.Tensorflow中,哪些运算结果为TrueA、tf.equal(1.0,1)B、tf.equal(1.0,1.0)C、tf.equal(0,False)D、tf.equal(1,False)答案:ABC149.Sigmoid激活函数的用途是:A、解决非线性分类B、数据压缩至(0,1)C、是核函数D、解决线性分类问题答案:AB150.什么是影响神经网络的深度选择的因素?A、神经网络的类型,输入数据B、输出函数映射C、计算能力,即硬件和软件能力D、学习率答案:ABCD151.请选择有关Tensorflow基本概念正确的描述()A、使用图(graphs)来表示计算任务,用于搭建神经网络的计算过程B、在被称之为会话(Session)的上下文(context)中执行图C、使用张量(tensor)表示数据,用“阶”表示张量的维度,通过变量(Variable)维护状态D、使用feed和fetch可以为任意的操作赋值或者从其中获取数据答案:ABCD152.借助池化,网络存储可以有效提升存储的利用率,池化操作通常有几种?A、平均池化B、卷积C、最大池化D、全连接答案:AC153.关于反向传播算法,它也存在不足,其主要有:A、训练时间较长B、完全不能训练,训练时由于权值调整过大使激活函数达到饱和C、易陷入局部极小值D、“喜新厌旧”。训练过程中,学习新样本时有遗忘旧样本的趋势答案:ABCD154.迁移学习之开发模型的方法包括那几种?A、选择源任务B、开发源模型C、重用模型D、调整模型答案:ABCD155.在神经网络中,常常会用到如下函数:tensorflow.nn.softmax_cross_entropy_with_logits_V2()是A、在卷积层B、进行优化C、用信息熵D、一定全连接层答案:BCD156.哪些是Tensorflow的RNN中关于cell的类A、BasicRNNCellB、BasicLSTMCellC、GRUCellD、MultiRNNCell答案:ABCD157.反向传播算法BP主要由两个环节()()反复循环迭代,直到网络的对输入的响应达到预定的目标范围为止。A、激励传播B、权重更新C、消息传播D、激活函数答案:AB158.交叉熵函数是卷积神经网络中常使用函数softmax_cross_entropy的作用是?A、在全连接层B、进行优化时用C、用信息熵D、用softmax映射到概率空间答案:ABCD159.函数conv2d()有好几个参数…,对其参数描述正确的下面选项有那些?A、步长在高度方向和宽度方向均为stridesB、填充图像边缘,使图像尺寸不变C、input是待卷积的数据D、filter是卷积核答案:ABCD160.关于深度神经网络的构成,将卷积层放在前面,将全连接层放在后面,它们的作用是A、用卷积层提取特征B、pooling的下采样能够降低overfittingC、激活函数relu可以用到卷积层D、全连接层负责分类答案:ABCD161.能够跳出局部最优解的算法有:A、AdamB、MomentumC、RMSpropD、Lasso答案:ABC162.关于Padding的说法中:正确的是A、以0填充B、填充厚度是卷积核一半C、步长为1D、图像尺寸变小答案:AB163.关于LeNet深度神经网络的构成,它的组成描述是A、卷积层B、激活函数C、池化层D、全连接层答案:ABCD164.深度神经网络的构成中,把卷积层放在前面,全连接层放在后面,它们的作用是什么?A、用卷积层提取特征B、pooling的下采样能够降低overfittingC、激活函数relu可以用到卷积层D、全连接层只能有一层答案:ABC165.动量梯度下降算法是通过()和()控制梯度下降的A、平均值B、指数加权平均值C、学习率D、方差答案:BC166.语句a=tf.Variable([1,2,3])和b=tf.Variable(a)这条语句:A、合法B、非法C、合法但a需要提前初始化D、合法但不够安全答案:ACD167.在tf.matrix_inverse(x).eval()语句中A、对x进行求逆B、x是矩阵C、从tf环境中获取x的数据交给python环境D、不能获知x的内容答案:ABC168.在《深度学习》网络中,神经网络层的卷积部份一般都有什么层构成?A、卷积层B、RELUC、POOLING层D、pedding答案:ABC169.下列关于测试集,说法正确的是A、不管数据大小,始终保持30%作为测试集B、测试集和验证集不能共存C、在数据规模小时,可以保留30%测试集D、大数据时代,测试集不必占用数据集的30%,能够保证对模型的考核即可答案:CD170.数和矩阵相乘在函数和矩阵与矩阵相乘的函数分别是?A、tf.multiply(x2,y2)B、tf.matmul(x,y)C、tf.equalD、tf.cast答案:AB171.在一个概率空间,经过不同划分后,A、信息熵不同B、构成新概率空间C、信息熵不变D、不可能有多种划分答案:AB172.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)A、准备样本集合B、前向传递,求出lossC、求出反向的梯度dYD、按照梯度dY,确定的更新参数,更新X,继续循环答案:ABCD173.下列属于dropout特性的有:A、具有正则化功能B、具有激活函数功能C、常用于图像处理D、机器学习算法答案:AC174.梯度为0的点可以是A、局部最优解B、全局最优解C、鞍点D、转折点答案:ABC175.池化层是夹在连续的()之间的层次,其主要的工作是用来对数据进行下采样,从而压缩数据和参数的量,减少()A、卷积层B、过拟合C、池化D、正则化答案:AB176.Adam算法结合了()算法于一身A、RMSprop算法B、均方误差C、Momentum算法D、交叉熵答案:AC177.关于梯度的问题,以下说法错误的是:A、梯度下降会增加学习次数B、多使用梯度爆炸,增加计算效率提升模型准确率C、梯度下降可以减少计算量,建议使用D、梯度爆炸会增大计算量,编写代码时避免梯度爆炸答案:BC178.在神经网络中,以下哪种技术用于解决过拟合?A、DropoutB、正则化C、批规范化D、激活函数答案:ABC179.分类任务的损失函数,可以是:A、信息熵B、最小二乘平方损失C、距离模型D、概率模型答案:ABCD180.如果“connectionism”是AI三大主义之一,则对connectionism描述正确的有()A、基础理论是神经网络B、深度学习属于连接主义C、又称仿生学派D、产生在20世纪50年代产生答案:ABCD181.optimizer.zero_grad()放置的位置可以是A、cost.backward()之前B、optimizer.step()之后C、cost.backward()optimizer.step()之间D、模型创建前答案:ABD182.独热编码的特点有A、每一行只有一个1B、1所在的位置下标就是标签C、标签有几种,每个向量的长度就是多少D、适用于多分类交叉熵计算答案:ABCD183.可以处理深度过拟合问题的方式有A、数据增强B、dropoutC、L2正则D、批量归一化答案:ABCD184.属于pytorch中常用的损失函数有:A、nn.MSELossB、nn.CrossEntropyLossC、nn.L1LossD、nn.BCEWithLogitsLoss答案:ABCD185.二分类边界线描述正确的是A、正类别概率为0.5B、z=0C、正类别概率为0D、z=1答案:AB186.Dataset创建数据集常用的方法有:A、torch.utils.data.TensorDatasetB、torchvision.datasets.ImageFolderC、继承torch.utils.data.DatasetD、dataloder答案:ABC187.梯度下降的步骤包含A、正向传播B、反向传播C、参数更新D、求导答案:ABCD188.控制控制cnn降采样的方式有A、卷积B、最大池化C、平均池化D、全连接答案:ABC189.涉及到1*1卷积的网络模型有A、lenetB、alexnetC、resnetD、inception答案:CD190.做作为分类损失函数的有A、binary_crossentropyB、categorical_crossentropyC、sparse_categorical_crossentropyD、hinge答案:ABC解析:D为SVM中的合页损失191.不使用全连接处理序列问题的原因是A、时间步不能确定B、模型太简单C、只能处理分类D、算法精度不足答案:ABD192.使用relu激活函数的网络结构有A、LeNetB、AlexNetC、ResNetD、Inception答案:BCD193.keras.optimizers子模块中包含的优化方式有A、SGDB、AdagradC、RMSpropD、Nadam答案:ABCD194.循环模型中,除了存在c状态,还存在h状态的模型有A、rnnB、lstmC、gruD、embadding答案:BC195.CNN处理图像的三大优势是:A、图像不变性B、局部感知C、参数共享D、模型替换答案:ABC196.多分类可以使用的函数是A、reluB、softmaxC、sigmoidD、elu答案:BC197.性能优于alexnet的网络有:A、LeNetB、VGG16C、ResNetD、Inception答案:BCD198.optimizer中包含的方式有A、rmspropB、adagradC、adamD、sgd答案:ABCD199.可以作为激活函数的是A、reluB、tanhC、batchnormD、sigmoid答案:ABD解析:C为批量归一化200.pytorch中lstm的输出值有A、每个时间步的预测B、最后的状态值C、最后的预测值D、每个时间步的状态值答案:ABC201.不涉及隐藏层时,分类算法中,会用到激活函数有A、reluB、tanhC、softmaxD、sigmoid答案:CD202.cnn网络常用的步骤有A、卷积B、池化C、激活D、全连接答案:ABCD203.pytorch构建模型的三种方式A、继承nn.Module基类构建自定义模型B、使用nn.Sequential按层顺序构建模型C、继承nn.Module基类构建模型并辅助应用模型容器进行封装(nn.Sequential,nn.ModuleList,nn.ModuleDict)D、使用model直接处理答案:ABC204.pytorch在gpu上跑数据时,需要将()移动到gpu上A、模型B、数据C、tensorboardD、评估指标答案:AB205.张量结构操作A、张量创建B、索引切片C、维度变换D、合并分割答案:ABCD206.plie中包含的参数有A、metricsB、lossC、optimizerD、epochs答案:ABC207.nn.Sequential的等价使用方式有A、利用add_module方法B、利用变长参数C、利用OrderedDictD、都不是答案:ABC208.pytorch中lstm的输入值有A、样本B、初始状态C、初始预测D、权重答案:ABC209.模型的整体处理流程包含A、模型创建B、输入数据尺寸C、模型编译D、模型训练集预测答案:ABCD210.具有激活功能的函数有A、reluB、softmaxC、sigmoidD、tanh答案:ABCD211.常用的循环网络相关层有:A、nn.EmbeddingB、nn.LSTMC、nn.GRUD、nn.RNN答案:ABCD212.长短期记忆中的门有A、遗忘门B、输入门C、输出门D、更新门答案:ABC213.rnn可以用来处理A、图像类别预测B、语音分析C、情感分类D、文章创作答案:ABCD214.能进行正则化功能的处理有A、dropoutB、l1C、l2D、数据增强答案:ABCD215.以下属于深度学习常用框架的有A、tensorflow2.0B、kerasC、caffeD、sklearn答案:ABC216.长短期记忆中的门是A、输入门B、更新门C、遗忘门D、输出门答案:ACD217.Keras中的基础层有A、DenseB、BatchNormalizationC、SpatialDropout2DD、DenseFeature答案:ABCD218.比alexnet网络性能好的网络有A、lenetB、alexnetC、resnetD、inception答案:CD219.训练模型的三种方式:A、内置fitB、内置train_on_batchC、自定义训练循环D、内置pile答案:ABC220.池化的方式有:A、平均池化B、最大池化C、中值池化D、最小池化答案:AB221.以下和交叉熵相关的损失函数有:A、mseB、binary_crossentropyC、categorical_crossentropyD、sparse_categorical_crossentropy答案:BCD222.数据管道中可以使用获取数据的方式有A、from_tensor_slicesB、read_csvC、make_csv_datasetD、list_files答案:ACD223.以下可以连续求导的几乎函数有A、reluB、sigmoidC、tanhD、dropout答案:BC224.pytorch常用的数据类型有:A、torch.float16,B、16,C、8,D、torch.bool答案:ABCD225.inception同一层可以同时使用()尺寸的卷积核A、1*1B、3*3C、5*5D、11*11答案:ABC226.需要循环迭代的算法有A、k-meansB、线性回归C、svmD、逻辑回归答案:ABD227.使用到平均池化的cnn网络的有A、lenetB、alexnetC、resnetD、Inception答案:CD228.pytorch中tensorboard的可视化模块有A、writer.add_graphB、writer.add_scalarC、writer.add_histogramD、writer.add_figure答案:ABCD229.tensorflow2.0常用的三种计算图是A、静态计算图B、动态计算图C、AutographD、4维动态图答案:ABC230.pytorch梯度下降的相关函数有A、zero_gradB、backwardC、stepD、optim答案:ABC判断题1.用sigmoid函数不能将运算映射到概率空间。A、正确B、错误答案:B2.Yolo采用一个CNN网络来实现检测,是单管道策略,其训练与预测都是end-to-end,所以Yolo算法比较简洁且速度快A、正确B、错误答案:A3.距离只有在平面或三维空间有意义A、正确B、错误答案:B4.信息量就是信息熵。A、正确B、错误答案:B5.训练集分割为小一点的子集训练,这些子集被取名为mini-batchA、正确B、错误答案:A6.交叉熵(crossentropy)描述的是两个概率分布之间的距离,距离越小表示这两个概率越相近,越大表示两个概率差异越大。A、正确B、错误答案:A7.SOFTMAX函数,是用来将全数域函数结果映射到概率空间。A、正确B、错误答案:A8.RMSprop算法是将指数加权平均数先平方再开方A、正确B、错误答案:A9.在机器学习中,采用信息熵可以解决决策树问题。A、正确B、错误答案:A10.Tf.cast()函数的作用是执行tensorflow中张量数据类型转换,比如读入的图片如果是int8类型的,一般在要在训练前把图像的数据格式转换为float32A、正确B、错误答案:A11.Sess=tf.Session()Writer=tf.summary.FileWriter(TB_SUMMARY_DIR)Writer.add_graph(sess.graph)以上语句为实现可视化界面展示tensorboard移植语句A、正确B、错误答案:A12.人工神经网络是机器学习的子集,机器学习是人工智能体系的子集A、正确B、错误答案:A13.常用来进行数据类型转换的函数是tf.fcast()A、正确B、错误答案:B14.用卷积实现图像特征提取,就是借用共振原理。A、正确B、错误答案:B15.随机生成的卷积核,个别一些卷积核对特征提取几乎无贡献,但不影响运算。A、正确B、错误答案:A16.T_scope()的含义是在另外一个命名空间来定义变量A、正确B、错误答案:A17.在被卷积的2D图像上进行滑动,并在每个位置上与该像素点及其相领的像素点进行内积,这就是二维卷积的功能A、正确B、错误答案:A18.变量初始化有三种方式,个别,部分,全局变量初始化。A、正确B、错误答案:A19.占位符的定义,有助于将预先不知道的值带入运算中。A、正确B、错误答案:A20.TensorFlow基于数据流图,用于大规模分布式数值计算的开源框架。节点表示某种抽象的计算,边表示节点之间相互联系的张量A、正确B、错误答案:A21.对于一个固定划分,信息熵是针对全体概率事件的。A、正确B、错误答案:A22.激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中A、正确B、错误答案:A23.人类对智能机械的研究从1千年前就开始了。A、正确B、错误答案:A24.在一次学习问题中,只能通过一个样本进行学习,以能够认出同一个人。A、正确B、错误答案:A25.人工智能就是神经网络。A、正确B、错误答案:B26.ImporttensorflowastfPrint(help(tf))这个语句是寻求帮助的过程A、正确B、错误答案:A27.Tf.argmax(vector,1):返回的是vector中的最大值的索引号,如果vector是一个向量,那就返回一个值,如果是一个矩阵,那就返回一个向量,这个向量的每一个维度都是相对应矩阵行的最大值元素的索引号A、正确B、错误答案:A28.BP算法是神经网络发展历程中里程碑式的算法A、正确B、错误答案:A29.归一化指数函数Softmax函数,是用来将运算结果映射到概率空间。A、正确B、错误答案:A30.BP算法是由学习过程由信号的正向传播与误差的反向传播两个过程组成。由于多层前馈网络的训练经常采用误差反向传播算法,人们也常把将多层前馈网络直接称为BP网络A、正确B、错误答案:A31.优化算法减小学习率是为了减少迭代次数A、正确B、错误答案:B32.形状相似的两个信号序列,其相关系数也大。A、正确B、错误答案:A33.通过池化操作,特征损失不能太大。A、正确B、错误答案:A34.熵这个概念来自热力学,信息熵是借用。A、正确B、错误答案:A35.Dropout具有归一化功能A、正确B、错误答案:B36.在卷积神经网络中,可以利用多个不同的卷积核进行卷积操作A、正确B、错误答案:A37.所谓积分运算,就是求积的极限A、正确B、错误答案:B38.Tf.reduce_mean函数的作用是求平均值。第一个参数是一个集合,可以是列表、二维数组和多维数组。第二个参数指定在哪个维度上面求平均值。默认对所有的元素求平均A、正确B、错误答案:A39.开发软件Anaconda不可以在Win10平台安装A、正确B、错误答案:B40.全局最优解的函数损失值最小A、正确B、错误答案:A41.损失函数(lossfunction)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越大,模型的鲁棒性就越好。A、正确B、错误答案:B42.BP传播算法,主要由两个环节即(激励传播、权重更新)反复循环迭代,直到网络对输入的响应达到预定的目标/期望范围为止A、正确B、错误答案:A43.对于形如[[[],[]]]的张量,它的维度向量是[1,2,0]。A、正确B、错误答案:A44.对平方范数的损失函数求偏导数的结果,得到一个梯度向量。A、正确B、错误答案:A45.在使用SOFTMAX函数时,是将运算结果从向量空间转化到概率空间。A、正确B、错误答案:A46.在卷积神经网络中实施填充是一件十分重要的事情,如果没有填充,边缘区域的像素值基本不会受到卷积层的影响A、正确B、错误答案:A47.卷积神经网络中,其中,卷积层是分类的,全连接层是特征提取的。A、正确B、错误答案:B48.|A|一定大于AA、正确B、错误答案:B49.框架TensorFlow?最初是由GoogleBrain团队(隶属于Google的AI部门)中的研究人员和工程师联合开发的A、正确B、错误答案:A50.在自然界信息传播速度,是以指数函数的速度进行的。A、正确B、错误答案:A51.概率系统中,单个事件的信息熵,是系统信息熵的一个组成部分。A、正确B、错误答案:A52.神经风格迁移可以用任何预训练卷积神经网络来实现A、正确B、错误答案:A53.孪生网络又称为连体网络,网络中的连体是通过共享权值来实现。A、正确B、错误答案:A54.对于非规范的两个序列,比较相似度,可以用信息熵原理。A、正确B、错误答案:A55.对于函数tf.expand_dims函数用于对张量维度扩充。A、正确B、错误答案:A56.鞍点是多维空间中函数的最优解A、正确B、错误答案:B57.如果对多元数量函数求梯度,结果是个向量。A、正确B、错误答案:A58.TensorFlow最初由Google大脑的研究员和工程师开发出来,用于机器学习和神经网络方面的研究,于2015.10宣布开源,在众多深度学习框架中脱颖而出,在Github上获得了最多的Star量A、正确B、错误答案:A59.深度学习是隐藏层更多的人工神经网络模型A、正确B、错误答案:A60.出租车几何或曼哈顿距离(ManhattanDistance)是由十九世纪的赫尔曼·闵可夫斯基所创词汇A、正确B、错误答案:A61.有一个隐藏层网络,就是二层神经网络A、正确B、错误答案:A62.在程序中如果涉及区间条件判断,一定在全部条件进行验证。A、正确B、错误答案:A63.给定概率空间,信息熵是针对无限个概率事件的。A、正确B、错误答案:B64.不论多大的数据集,测试集数量必须保持在30%A、正确B、错误答案:B65.一句话所言事物的实现概率大,信息熵越大。A、正确B、错误答案:B66.编程语句os.environ['TF_CPP_MIN_LOG_LEVEL']='2'含意是编程程序时默认的显示等级只显示warning和ErrorA、正确B、错误答案:A67.所谓积分运算,就是求和的极限A、正确B、错误答案:A68.LeNet5网络最初是为了识别支票上面的手写数字而设计的A、正确B、错误答案:A69.梯度爆炸时,导数值比较大,发生数值溢出,会出现NaNA、正确B、错误答案:A70.全局变量初始化语句后,变量和常量都被初始化。A、正确B、错误答案:B71.导数和偏导没有本质区别,都是当自变量的变化量趋于0时,函数值的变化量与自变量变化量比值的极限A、正确B、错误答案:A72.在tf语句中X.Value是将x中的内容取出。A、正确B、错误答案:B73.经过权值和阈值不断迭代调整的过程,就是网络的学习与训练过程A、正确B、错误答案:A74.Yolo的泛化能力强,在做迁移时,模型鲁棒性高A、正确B、错误答案:A75.X.assign(100)是条立即数赋值语句。A、正确B、错误答案:A76.所谓损失函数,只有在训练的时候才参与运算,在训练以后,测试或应用中无需损失函数。A、正确B、错误答案:A77.均方损失函数,是个数量函数,它的张量的维度是0A、正确B、错误答案:A78.损失函数,可以由误差向量的总体范数平方定义A、正确B、错误答案:A79.在欧氏空间中,凸集是对于集合内的每一对点,连接该对点的直线段上的每个点也在该集合内。A、正确B、错误答案:A80.卷积神经网络的前几层检查提取例如边缘这样的简单特征A、正确B、错误答案:A81.超参数范围中,随机取值是选择合适的标尺进行取值A、正确B、错误答案:A82.损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分A、正确B、错误答案:A83.RecurrentNeuralNetwork。神经网络是一种节点定向连接成环的人工神经网络A、正确B、错误答案:A84.赋范空间中,v,ws属于向量空间V,||v+w||<=||v||+||w||表示三角不等式。A、正确B、错误答案:A85.由于Yolo是对整张图片做卷积,所以其在检测目标有更大的视野,它不容易对背景误判A、正确B、错误答案:A86.Tf语句X.Initializer的意义是对X常量初始化。A、正确B、错误答案:B87.学习率(Learningrate)作为监督学习以及深度学习中重要的超参,其决定着目标函数能否收敛到局部最小值以及何时收敛到最小值。合适的学习率能够使目标函数在合适的时间内收敛到局部最小值。A、正确B、错误答案:A88.概率空间的样本点,其对应概率必须相等。A、正确B、错误答案:A89.损失函数,可以由交叉熵定义A、正确B、错误答案:A90.Mini-batch是指只处理部分数据的梯度下降算法A、正确B、错误答案:B91.循环神经网络的权重系数是共享的,即在一次迭代中,循环节点使用相同的权重系数处理所有的时间步。A、正确B、错误答案:A92.Tf.summary.histogram()函数功能是输出一个直方图的SummaryprotocolbufferA、正确B、错误答案:A93.在神经网络框架中,常使用如下函数tf.truncated_normal(shape,mean,stddev)这个函数产生正态分布,均值和标准差自己设定A、正确B、错误答案:A94.张量维度或形状,是用一个向量描述。A、正确B、错误答案:A95.欧几里得距离,和曼哈顿距离的定义,互有矛盾。A、正确B、错误答案:B96.过拟合是指由于训练样本不足,导致测试结果不堪用A、正确B、错误答案:B97.自然界任何一个物理系统都存在固定振动频率,当外界有相同频率振动,就能使该物体产生共振。A、正确B、错误答案:A98.处理分类问题一般用神经网络,处理预测问题用线性回归。A、正确B、错误答案:A99.对于概率空间一个任意划分,其结果依然是概率空间。A、正确B、错误答案:A100.所谓图灵测试是一个典型思想实验。A、正确B、错误答案:A101.Non-MaximumSuppression,简称NMS,理解为抑制不是极大值的元素,可以理解为局部最大搜索A、正确B、错误答案:A102.在步长迭代运算中,连续函数与间断函数比较,好处在于,能够不间断运算。A、正确B、错误答案:A103.三元组损失算法中,只有选择难的三元组梯度下降法才能发挥作用。A、正确B、错误答案:A104.Batch归一化不能加速训练A、正确B、错误答案:B105.人工神经网络是一种模仿生物神经网络行为特征,进行信息处理的数学模型A、正确B、错误答案:A106.Tf.argmax可以认为就是np.argmax。tensorflow使用numpy实现的这个APIA、正确B、错误答案:A107.用二维滤波器在被卷积的2D图像上所有位置滑动,并在每个位置上与对应像素点及其领域像素点做内积,这就是二维卷积的原理A、正确B、错误答案:A108.Batch归一化增加了隐藏值分布变化的数量A、正确B、错误答案:B109.物体检测中应用NMS算法的主要目的是消除多余(交叉重复)的窗口,找到最佳物体检测位置。A、正确B、错误答案:A110.BP传播算法过程是经过信号前向传播与误差反向传播,W权值和阈值的调整反复进行,一直进行到预先设定的学习训练次数,或输出误差减小到允许的程度A、正确B、错误答案:A111.动量梯度下降法运行速度几乎总是快于标准的梯度下降算法A、正确B、错误答案:A112.Mini-batch不能使用正则化A、正确B、错误答案:B113.希尔伯特空间也是一个内积空间A、正确B、错误答案:A114.归一化是指将数据集数据缩放到0~1A、正确B、错误答案:A115.循环神经网络的LSTM中有三个门A、正确B、错误答案:A116.梯度和损失函数一样,也是数量函数A、正确B、错误答案:B117.机器学习是一种随着经验积累、自动提高性能、完成特定任务的计算机程序A、正确B、错误答案:A118.距离的大小程度,是一个标量。A、正确B、错误答案:A119.RNN的LSTM可以防止梯度消失或者梯度爆炸A、正确B、错误答案:A120.连接主义是研究中等生物智慧的行为,比如视觉。A、正确B、错误答案:A121.在深度神经网络中,通常使用一种叫修正线性单元(Rectifiedlinearunit,ReLU)作为神经元的激活函数A、正确B、错误答案:A122.TensorFlow能够直接解决各种机器学习任务。目标就是在一般情况下,无论遇到什么问题,TensorFlow都可以在一定程度上提供API的支持A、正确B、错误答案:A123.对一个概率空间的样本事件进行划分,划分后依然是概率空间。A、正确B、错误答案:A124.风格迁移的内容可以被卷积神经网络更靠顶部的层激活所捕捉到。A、正确B、错误答案:A125.全连接层能够实现卷积运算。A、正确B、错误答案:B126.双向循环神经网络(bidirectionalrecurrentneuralnetwork,Bi-RNN)由两层循环神经网络组成,它们的输入相同,只是信息传递的方向不同。A、正确B、错误答案:A127.Tf中,tf.assign_add,也是赋值语句。A、正确B、错误答案:A128.理论上用sigmoid函数也能将运算映射到概率空间。A、正确B、错误答案:A129.前向传播算法的作用是计算输入层结点对隐藏层结点的影响A、正确B、错误答案:A130.Tensorboard中,可以使用tf.summary.scalar记录标量A、正确B、错误答案:A131.若没有在超参数中作出正确的标尺决定,可以通过在均匀标出上选取多个数据进行弥补A、正确B、错误答案:A132.执行完语句tf.assign(start,new_value)后可以将变量start的值传递给新的变量new_valueA、正确B、错误答案:B133.梯度消失可以通过更好的激活函数来解决A、正确B、错误答案:A134.在一个系统中,信息量的概率平均就是信息熵。A、正确B、错误答案:A135.关于信息,这个概念目前还没有明确定义。A、正确B、错误答案:A136.事件的信息熵,是系统信息熵的一个组成部分。A、正确B、错误答案:A137.RecurrentNeuralNetwork,RNN这种网络的本质特征是在处理单元之间既有内部的反馈连接又有前馈连接A、正确B、错误答案:A138.GRU单元有记忆细胞CellA、正确B、错误答案:A139.DeanPomerleau在卡耐基梅隆大学于上世纪80年代末制造了一辆自动驾驶汽车,其算法核心是基于神经网络A、正确B、错误答案:A140.BP算法是通过梯度下降法对联结权重进行优化,所以需要计算误差函数对联结权重的偏导数。A、正确B、错误答案:A141.增大卷积核的大小必然会提高卷积神经网络的性能。A、正确B、错误答案:B142.分类问题用神经网络,预测问题用线性回归。A、正确B、错误答案:A143.Print(sess.run(tf.sigmoid(a)))是逻辑回归A、正确B、错误答案:B144.全连接层无法实现卷积运算。A、正确B、错误答案:A145.有了联结权重w和激活函数H(x)之后,就可以由前往后计算,依次算出所有的经过联结权重处理后的输出值,经过激活函数处理之后的输出值,最终算出输出层的y值。这就是前向传播算法A、正确B、错误答案:A146.关于循环神经网络,GRU中有两个门A、正确B、错误答案:A147.LSTM(Longshort-termmemory),主要由四个ponent组成:InputGate,OutputGate,MemoryCell以及ForgetGateA、正确B、错误答案:A148.在实际项目中,不一定需要验证集A、正确B、错误答案:A149.事件的信息量,与事件发生的概率无关。A、正确B、错误答案:B150.对于损失函数,有多种函数形式可以表达。A、正确B、错误答案:A151.随机梯度下降的学习率不会改变A、正确B、错误答案:B152.Tf.random_normal()函数用于从服从指定正态分布的数值中取出指定个数的值A、正确B、错误答案:A153.Tripletloss理解使loss在训练迭代中下降的越小越好,也就是要使得Anchor与Positive越接近越好,Anchor与Negative越远越好A、正确B、错误答案:A154.实践中,Batch归一化通常和训练集的mini-batch一起使用A、正确B、错误答案:A155.损失函数有两个表达方式,均方差表达,和信息熵表达。A、正确B、错误答案:A156.对于函数tf.reshape函数用于对张量变形。A、正确B、错误答案:A157.在古典概率空间,其样本点对应概率必须相等。A、正确B、错误答案:A158.自然界任何物体都存在固定振动频率,当外界有相同频率振动,就能使该物体产生共振。A、正确B、错误答案:A159.所谓导数是个方向,所谓梯度也是个方向。维度不同而已。A、正确B、错误答案:A160.深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示A、正确B、错误答案:A161.神经网络框架TensorFlow可以安装在Ubuntu、MacOS和Windows系统平台上A、正确B、错误答案:A162.函数tf.nn.softmax_cross_entropy_with_logits_

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论