版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
PAGEPAGE1人工智能自然语言技术N2考试复习题库(汇总)一、单选题1.relu函数的作用是可以将小于()的数输出为0A、-1B、0C、1D、x答案:B2.神经网络一般包括输入层、隐藏层和输出层,Batch归一化操作用于网络的什么层?A、输出层B、输入层C、无法在隐藏层起作用D、用于输入层,甚至深度隐藏层的归一化过程答案:D3.常用的激活函数,修正线性单元指的是以下哪个选项?A、sigmoidB、tanhC、reluD、leakyrelu答案:C4.以下哪个不属于LSTM的“门”A、遗忘门B、输入门C、输出门D、更新门答案:D5.Pytorch为机器学习和()提供了方便灵活的接口A、机器学习B、算法重构C、NPLD、深度学习答案:D6.sigmoid求导之后的取值范围是多少?A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C7.在使用TensorFlow中,下面哪个函数可以打印某点值A、A=tf.run()B、A=S.valueC、A=S.eval()D、tf.assign()答案:A8.tf.mul()函数对Tensor的作用是什么A、相减B、相除C、相乘D、相加答案:C9.反向传播过程中传递的参数是什么?A、学习率B、迭代次数C、误差D、网络层数答案:C10.以下的四个选项当中,哪个选项的算法指的是有监督的学习方式A、聚类B、降维C、回归算法D、PCA答案:C11.以下哪个激活函数是对Relu的改进A、tanhB、sigmoidC、softmaxD、leaky-Relu答案:D12.神经网络中经常使用到激活函数,下面关于激活函数的说法是正确的?A、神经网络中最好的激活函数是sigmoidB、激活函数有正则化作用C、dropout是CNN中的激活函数D、神经元输出后需要给定一个激活函数答案:D13.LDA这个模型是在哪一年提出的?A、2000B、2001C、2002D、2003答案:D14.以下四个选项中,哪个选项的缩写是RNNA、卷积神经网络B、标准神经网络C、循环神经网络D、自注意力机制答案:C15.在进行神经网络建模时,需要对目标数据进行怎样的操作A、度量化B、抽象化C、具体化D、理想化答案:A16.在模型构建前期,对数据进行划分,正常的将数据集进行切分为三个集合,下面哪个不被包含?A、确认集B、测试集C、验证集D、训练集答案:A17.LDA模型可以做什么事情A、将文档集中每篇文档的主题以概率分布的形式给出,从而通过分析一些文档抽取出它们的主题(分布)出来后,便可以根据主题(分布)进行主题聚类或文本分类B、可以找出来最优的分类超平面C、可以找到因变量和自变量之间的一次关系D、不确定答案:A18.sigmoid可以把值映射到0,1之间,对于二分类问题,一会把下sigmoid的阈值会设为多少A、0.5B、0.1C、1D、0答案:A19.tf开始执行每个变量里的初始化操作的函数是哪个A、variables_initializer()B、global_variables_initializer()C、sess.runD、global_initializer()答案:B20.tanh的输出范围是多少A、[0,1]B、[-1,1]C、[-1,0]D、[-0.5,0.5]答案:B21.下面哪个对batch归一化的解释不正确?A、使参数搜索问题变得容易B、使神经网络对超参数的选择更加稳定C、超参数的范围更加庞大D、仅作用于输入层答案:D22.BP算法是人工智能的里程碑,具体这个算法能起到什么作用A、最大化实际输出与训练集的误差率B、最小化实际输出与训练集的误差率C、均值化实际输出与训练集的误差率D、范数化实际输出与训练集的误差率答案:B23.造成RNN梯度消失与下面哪个因素有关A、激活函数求导B、学习率C、批处理数D、网络层数答案:A24.tf.abs对张量做什么操作A、求绝对值B、相减C、相除D、相加答案:A25.常用的操作Batch归一化的作用,和下列描述的哪个操作一样?A、reluB、dropoutC、sigmoidD、tanh答案:B26.CNN网络包含如下哪个概念A、视野域B、循环结构C、梯度消失D、以上都不包含答案:A27.tf.subtract的返回值是什么类型的数据A、范数B、数组C、矢量D、Tensor答案:D28.下列选项中关于Batch归一化的描述,描述错误的是哪个?A、使参数搜索问题变得容易B、使神经网络对超参数的选择更加稳定C、超参数的范围更加庞大D、仅作用于输入层答案:D29.tf.matmul()方法的作用是什么A、相与B、乘积C、相除D、相加答案:B30.哪个网络结构常用于人脸识别A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B31.关于在训练模型,选择超参数的过程中的随机取值指的是?A、随机选择标尺取值B、随机取值就是有效范围内随机均匀取值C、选择合适的标尺进行取值D、随机的进行均匀的取值答案:C32.下列四个选项中,哪个选项指的是mini-batchA、小批量梯度下降B、随机梯度下降C、批量梯度下降D、小批量损失计算答案:A33.以下四个人物中,哪个被誉为人工智能之父A、图灵B、冯-诺依曼C、维纳D、牛顿答案:A34.下面哪个尺寸一般被用于设置batch_size大小A、125B、126C、127D、128答案:D35.常用的激活函数relu,下列对该激活函数描述正确的是?A、引用了无效的单元格地址B、过滤无效神经元C、不是激发函数D、将正数保留,将负数置0答案:D36.以下描述,说的是下列选项中哪个激活函数?描述:输入信号<0时,输出都是0,输入信号>0的情况下,输出等于输入A、Sigmoid函数B、tanh函数C、ReLUD、cosh答案:C37.迁移学习说的是下面哪个网络?A、RNNB、CNNC、NLPD、TransferLearning答案:D38.tf.add函数是对两个tensor做什么运算?A、维度转化B、相加C、相减D、相乘答案:B39.当使用withtf.Session()创建的会话时,在关闭时的同事()释放资源A、自动B、手动C、不能D、无法答案:A40.以下哪个不属于长短期记忆网络A、输入门B、输出门C、更新门D、遗忘门答案:C41.神经网络中常用的dropout函数,下列选项中关于它的描述正确的是?A、属于正则处理B、一个激活函数C、用于分割数据集D、用于将数据样本多样化答案:A42.神经网络反向传播传播的是什么?A、学习率B、迭代次数C、误差D、网络层数答案:C43.NLP中的核心和最重要网络是哪个?A、CNNB、NNC、RNND、SVM答案:C44.以下哪个激活函数用来处理二分类任务A、tanhB、LeakyReluC、sigmoidD、relu答案:C45.实际工程问题中,需要根据业务和需求,构建相应的()?A、架构B、数学模型C、流程图D、数据集答案:B46.一下哪个网络是NLP中用的最多的A、ANNB、CNNC、RNND、DNN答案:C47.对LSTM的作用描述正确的是A、增大文本数量B、简化文本C、特征提取D、文本分类答案:C48.下面哪个与过拟合问题有关?A、DorpoutB、正则化C、批规范化D、以上技术均可以答案:D49.动量梯度法,是通过学习率和什么控制的,下列说法正确的是?A、指数加权平均数B、局部平均值C、全局平局值D、方差答案:A50.计算TensorFlow以硬件平台通常分为哪些版本A、CPU,GPU,TPUB、CPU,GPUC、CPUD、TPU答案:A51.对于选择超参数,选择了不同的取值,不可以_____?A、选择对训练集目标而言的最优解B、对于开发集而言的最优解C、超参搜索过程中最想优化的东西D、简化参数调试答案:D52.像个性化推荐,机器创作等这类任务,用到了以下哪个内容A、深度学习B、GANC、自编码D、迁移学习答案:A53.以下选项中关于sigmoid求导之后的值域描述正确的是?A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C54.LDA模型的隐变量Z是A、每个词对应的主题B、每篇文档对应的主题C、每段话对应的主题D、每个词组对应的主题答案:A55.tf.concat的作用?A、相加B、两个张量拼接C、相减D、求绝对值答案:B56.下面哪个网络常用于NLP任务中A、ANNB、CNNC、RNND、XNN答案:C57.RNN的意思是什么A、全连接网络B、卷积神经网络C、循环神经网络D、感知机网络答案:C58.以下几个选项中跟LDA最为接近的模型是?A、pLSAB、线性回归C、逻辑回归D、岭回归答案:A59.循环神经网络RNN的作用描述正确的是A、增大文本数量B、简化文本C、特征提取D、文本分类答案:C60.如何对比矩阵是否相等A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C61.使用的TensorFlow中的一个方法进行数据的计算tf.subtract,最终会返回什么类型的数据A、TensorB、数组C、矢量D、范数答案:A62.什么样的神经网络模型被称为深度学习模型?A、加入更多层,使神经网络的深度增加B、有维度更高的数据C、当这是一个图形识别的问题时D、以上都不正确答案:A63.在pLSA的基础上加入了什么框架就可以变成LDAA、XGBoostB、LightGBMC、贝叶斯D、随机森林答案:C64.learning_rate用于网络的什么作用A、调整学习率B、批处理C、dropoutD、过拟合答案:A65.深度学习中的“超参数”指哪个?A、隐藏层的大小B、激活值C、权重D、偏置答案:A66.如果对图像进行池化,ksize=[1,4,4,1]那么图像会变成多大A、缩小到1/2B、扩大四倍C、扩大两倍D、缩小到1/16答案:D67.常用的激活函数其中包括Tanh,它的导数的范围是在哪个区间?A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A68.以下哪个领域包含文本摘要任务A、图像识别B、数据挖掘C、自然语言D、不确定答案:C69.训练模型阶段,如果想要损失值最小,需要得到什么值?A、鞍点B、局部最优解C、转折点D、全局最优解答案:D70.以下选项中关于在图像特征经过几个卷积后,特征信号会发生怎样的变化:A、减弱B、不变C、增强D、都有可能答案:D71.常用的softmax函数,下列选项中描述正确得是哪个?A、主要用于二分类B、算出来为概率值C、将最小的概率值所对应的类别作为输入样本的输出类别D、所有的概率相加大于1答案:B72.CNN的全称是什么A、全连接网络B、循环神经网络C、卷积神经网络D、以上都不对答案:C73.sigmoid可以将数据的特征,映射到哪个区间?A、0,1B、0,-1C、10,0D、0,0.1答案:A74.交叉熵函数一般用作定义什么函数?A、损失函数B、激活函数C、relu函数D、sigmoid函数答案:A75.在网络模型的构建中,关于dropout运行的描述正确的是哪个?A、dropout能增加新样本防止过拟合B、随机取消一些节点,只是用部分节点进行拟合运算,防止过拟合C、dropout进行归一化操作,防止过拟合D、dropout通过给损失函数增加惩罚项,防止过拟合答案:B76.以下哪个技术可以用于机器创作A、深度学习B、GANC、自编码D、迁移学习答案:A77.tensoflow中的函数Graph.get_operations()的作用是什么A、返回图中的操作节点列表B、为节点创建层次化的名称,并返回一个上下文管理器C、完成图的构建,即将其设置为只读模式D、返回图中的操作节点列表答案:D78.BP算法说的是那两个参数之间的误差率A、最大化实际输出与训练集的误差率B、最小化实际输出与训练集的误差率C、均值化实际输出与训练集的误差率D、范数化实际输出与训练集的误差率答案:B79.在使用tensorflow提供了很多函数,例如multiply,这个函数实现的功能是什么?A、相除B、相乘C、相与D、相加答案:B80.下列对神经网络中的relu激活函数,正确的说法是哪个?A、引用了无效的单元格地址B、过滤无效神经元C、不是激发函数D、将正数保留,将负数置0答案:D81.在TensorFlow中conv2d(a,b,c,d)中,四个参数中的b代表的是什么意思A、被卷积数据B、卷积核C、步长D、填充答案:B82.BP算法最早时,是在以下哪个任务中得到了最早的应用A、手写数字识别B、CPUC、GPUD、不确定答案:A83.RNN的中文全称是什么?A、循环神经网络B、标准神经网络C、卷积神经网络D、自注意力机制答案:A84.sigmoid可以把值映射到0,1之间,通常情况下sigmoid的阈值会设为多少A、0.5B、0.1C、1D、0答案:A85.下列对于Batch归一化操作的应用范围描述正确的是?A、作用于输出层B、仅作用于输入层C、无法在隐藏层起作用D、用于输入层,甚至深度隐藏层的归一化过程答案:D86.在NLP自然语言处理中,不可以做以下选项中的那个任务A、会话机器人B、人脸检测C、推荐系统D、文本纠错答案:B87.哪个为人工智能之父A、图灵B、冯-诺依曼C、维纳D、牛顿答案:A88.在RNN循环神经网络中,在反向传播过程中很容易发生梯度消失现象,它与什么因素相关A、激活函数求导B、学习率C、批处理数D、网络层数答案:A89.什么是随机梯度下降A、随机赋值,祈祷它们是正确的B、搜索所有权重和偏差的组合,直到得到最佳值C、赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重D、以上都不正确答案:C90.模型训练阶段,使用优化算法是为了在迭代的过程中实现怎么的效果A、增大损失值B、使学习率衰减C、降低损失值D、提升正则项范围答案:B91.网络表示(NetworkEmbedding)模型是受到以下哪种模型的启发而来?A、LDAB、word2vecC、PageRankD、SVD答案:B92.在使用TensorFlow的过程中,如果想要打印某点值,应该怎么操作A、A=tf.run()B、A=S.valueC、A=S.eval()D、tf.assign()答案:A93.上升速度最快的是哪个函数A、线性函数B、指数函数C、对数函数D、幂函数答案:C94.在实际的应用中,通常的归一化和以下哪个选项中的描述一并使用A、训练集的mini-batchB、测试集的mini-batchC、整个训练集D、整个测试集答案:A95.dropout作为神经网络建模中常用的函数,它有什么用A、没有激活函数功能B、一种图像特征处理算法C、一种语音处理算法D、一种正则化方式答案:D96.以下哪些是神经网络中的“超参数”?A、隐藏层的大小B、激活值C、权重D、偏置答案:A97.以下几个选项中,哪个用来处理多分类任务A、tanhB、softmaxC、sigmoidD、relu答案:B98.tf开始执行每个variable里的initializer的函数是哪个A、sess.runB、global_variables_initializer()C、variables_initializer()D、global_initializer()答案:B99.tf.concat对张量做什么运算A、相加B、两个张量拼接C、相减D、求绝对值答案:B100.tf里的con1d的作用是什么A、二维卷积B、一维卷积C、lstm操作D、GRU操作答案:B101.关于Batch归一化的描述,说法正确的是?A、批量归一化B、仅对输入数据进行归一化C、仅对隐藏层进行归一化D、提升了参数搜索难度答案:A102.在实现前向传播和反向传播中使用的“cache”是什么?A、它用于跟踪我们正在搜索的超参数,以加速计算。B、用于在训练期间缓存代价函数的中间值。C、使用它传递反向传播中计算的变量到相应的前向传播步骤,它包含对于前向传播计算导数有用的变量。D、使用它传递前向传播中计算的变量到相应的反向传播步骤,它包含对于反向传播计算导数有用的变量。答案:D解析:cache“缓存”记录来自正向传播单元的值,并将其发送到反向传播单元,这是链式求导的需要。103.tf.Graph.finalize()的作用是什么A、返回图中的操作节点列表B、为节点创建层次化的名称,并返回一个上下文管理器C、返回图中的操作节点列表D、完成图的构建,即将其设置为只读模式答案:D104.Tanh的导数范围是多少?A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A105.多分类问题的最后一层一般用什么激活函数A、sigmoidB、tanhC、softmaxD、relu答案:C106.在下列神经网络的参数中,其中的参数的调试不包括哪个?A、学习率αB、动量梯度下降的参数βC、mini-Batch的大小D、输入图片大小答案:D107.正则化也是常用的手段,以下关于正则化描述错误的是哪个A、过拟合可以通过正则化方式消除B、常用的正则化方式由L1,L2,以及dropoutC、欠拟合可以通过正则化方式消除D、正则化是损失函数的一个补偿项答案:C108.tf.to_int64的作用?A、转为64位浮点类型–float64B、转为32位整型–int32C、字符串转为数字D、转为64位整型–int64答案:D109.tf.tanh的作用是什么A、计算元素的sigmoid值.B、计算元素的softmax值.C、计算元素的双曲正切值.D、计算元素的relu值答案:C110.以下哪个网络用于文本表示的网络A、RNNB、word2vecC、CNND、Transformer答案:B111.以下选项关于神经网络中,在对超参数的选择和调试中,其中最重要的参数应该是什么?A、mini-Batch的大小B、动量梯度下降的参数βC、学习率αD、隐藏层数目答案:C112.考虑文字背后语义关联的是A、TF(词频)B、TF-IDFC、TF,TF-IDFD、LDA主题模型答案:D113.Relu的求导,正半区的求导之后是多少A、0B、0.25C、1D、-1答案:C114.双曲正切激活函数,指的是以下哪个激活函数?A、ReluB、sigmoidC、tanhD、sin答案:C115.二项分布属于()A、连续型分布B、离散型分布C、正态分布D、伽玛分布答案:B116.LDA中的一个采样是什么采样A、gamma函数B、二项分布C、pLSAD、Gibbs采样答案:D117.下列说法中关于Batch归一化的描述,说法正确的是?A、批量归一化B、仅对输入数据进行归一化C、仅对隐藏层进行归一化D、提升了参数搜索难度答案:A118.以下四个选项中关于二项分布说法正确的是A、连续型分布B、离散型分布C、正态分布D、伽玛分布答案:B119.通常使用到的交叉熵函数是作为什么作用?A、损失函数B、激活函数C、sigmoid函数D、relu函数答案:A120.tf.mul的作用是什么A、相乘B、相加C、相减D、相除答案:A121.在动量梯度下降(Momentum)中,其中的参数β一般的默认值是多少?A、0.7B、0.8C、0.9D、1答案:C122.多分类问题一般用什么激活函数进行映射A、sigmoidB、tanhC、softmaxD、relu答案:C123.TensorFlow是一个开放源码的软件库,通常它有哪些版本A、CPU,GPU,TPUB、CPU,GPUC、CPUD、TPU答案:A124.在下列几关于mini-batch的说法当中,描述错误的是哪个?A、指的是批量梯度下降B、适用于样本量小的数据集C、每一次只运算部分数据,最后将全部数据进行运算D、适用于样本量大的数据答案:B125.sigmoid激活函数有什么致命的缺点?A、反向传播容易造成梯度消失B、正向传播容易造成梯度消失C、正向传播容易造成梯度爆炸D、以上都正确答案:A126.LDA的实质是在做一个什么东西A、根据给定的一篇文档,反推其主题B、可以找出来最优的分类超平面C、可以找到因变量和自变量之间的一次关系D、不确定答案:A127.在tf中常用的Add函数它的用途是做什么?A、维度转化B、相加C、相乘D、相减答案:B128.NLP中常用的激活函数Tanh,它的输出的值域范围是多少?A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A129.以下四个选项中能实现对比两个矩阵是否相等的是哪个函数?A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C130.下列管Batch归一化操作的作用描述正确的是?A、作用于输出层B、仅作用于输入层C、无法在隐藏层起作用D、用于输入层,甚至深度隐藏层的归一化过程答案:D131.下列选项中,处理梯度消失问题效果最好的函数是哪个?A、sigmoidB、tanhC、reluD、Leakyrelu答案:D132.下列四个选项中,对于正则化的描述正确的选项是哪个?A、每一个隐层都需要正则化B、正则化可以预防过拟合C、正则化可以预防欠拟合D、每一个模型中都需要正则化,否则无法正确预测结果答案:B133.tanh激活函数相比sigmoid是有优势的,体现在哪些方面A、解决了sigmoid输出为非0中心的问题B、tanh不易饱和C、tanh解决了sigmoid的指数运算D、tanh不会造成梯度消失答案:A134.在岭回归模型中,回归系数的先验分布是()。A、拉普拉斯分布B、正态分布C、正态分布与拉普拉斯的混合分布D、指数分布答案:B135.如果使用到了mini-batch去选取样本,一般对选择多大批次?A、61B、62C、63D、64答案:D136.Relu的求导非常简单所以速度快,它正半区的求导之后是多少A、0B、0.25C、1D、-1答案:C137.LDA称为()A、损失分布法B、内部衡量法C、打分卡法D、内部损失数据法答案:A138.下列选项中对于神经网络中的超参数调试的方法的描述,其中描述正确的是哪个选项?A、随机选择点来试验超参数效果B、当你给超参数取值时,另一个惯例是采用由精细到粗糙的策略。C、只调试容易的D、给定默认值即可答案:A139.在贝叶斯统计中,如果后验分布与先验分布属于同类,则被称为什么A、二项分布B、多项分布C、共轭分布D、Bete分布答案:C140.最简单常用的sigmoid激活函数的输出值的范围是在以下哪个区间中?A、0~1B、0~2C、-1~0D、-1~1答案:A141.batch_size一般设置为多少A、61B、62C、63D、64答案:D142.tf.nn.softmax_cross_entropy_with_logits的作用是什么?A、信息熵B、信息元C、交叉熵D、logits答案:C143.以下哪个手段不属于CNNA、局部连接B、权值共享C、池化操作D、多层次结构答案:D144.tensorflow的方法expand_dims用于对张量做什么操作A、改变tensor的形状B、返回数据的元素数量C、插入维度1进入一个tensor中D、返回tensor的rank答案:C145.sigmoid激活函数最大的问题是容易造成____?A、反向传播容易造成梯度消失B、正向传播容易造成梯度消失C、正向传播容易造成梯度爆炸D、以上都正确答案:A146.下列选项中哪个可以很好的解决梯度爆炸的问题?A、梯度剪切,正则B、增加拟合数据C、增加训练数据维度D、增加隐藏层答案:A147.使用withtf.Session()assess创建的会话时,在关闭的同时会()释放资源A、自动B、无法C、不能D、手动答案:A148.在对数据或者任务进行建模时,需要对目标进行怎样的操作A、度量化B、抽象化C、具体化D、理想化答案:A149.以下哪个领域包含命名实体识别任务A、图像识别B、数据挖掘C、自然语言D、不确定答案:C150.tf.abs的作用是什么A、相加B、相减C、相除D、求绝对值答案:D151.sigmoid激活函数的模型曲线是()?A、X型B、S型C、U型D、L型答案:B152.softmax是多分类中常用的函数,它又叫什么函数A、概率B、归一化C、损失函数D、空间答案:B153.以下几个选项中,哪个是对relu激活函数的改进A、tanhB、LeakyReluC、sigmoidD、softmax答案:B154.下列四个选项中,对于正则化(regularization)的描述正确的选项是哪个?A、每一个隐层都需要正则化(regularization)B、每一个模型中都需要正则化,否则无法正确预测结果C、正则化可以预防欠拟合D、正则化可以预防过拟合答案:D155.GAN网络指的是哪个网路A、生成对抗网络B、卷积神经网络C、循环神经网络D、全连接网络答案:A156.ReinforcementLearning是什么网络A、全连接网络B、迁移学习C、循环神经网络D、强化学习答案:D157.以下哪个不属于LSTMA、输入门B、输出门C、更新门D、遗忘门答案:C158.下列关于mini-batch原理的说法,描述正确的是?A、选取数据中部分数据进行梯度下降B、和批量梯度下降相同,只是将算法进行优化C、将数据每次进行一小批次处理,通过迭代将数据全部处理D、随机选取一些数据,计算梯度进行下降,每次将学习率降低一点答案:C159.常用的操作Batch归一化,对比到神经网络中,和下列描述的哪个步骤很相似?A、reluB、dropoutC、sigmoidD、tanh答案:B160.像TensorFlow这样的框架,为机器学习和()提供了方便灵活的接口A、机器学习B、算法重构C、NPLD、深度学习答案:D161.tf中的conv2d(a,b,c,d),参数b代表什么?A、被卷积数据B、步长C、卷积核D、填充答案:C162.softmax又可以称为什么函数A、概率B、归一化C、损失函数D、空间答案:B163.以下哪个激活函数的执行速度是最快的A、reluB、tanhC、sigmoidD、不能确定答案:A164.实际的应用中在数据预处理阶段会有数据划分,下列关于训练,测试以及验证说法错误的是哪个?A、训练集用于算子的拟合B、可以直接使用训练集来验证算子的准确率C、验证集和测试集用来评判算子的准确度D、可以不配置验证集答案:B165.神经网络的运行流程是从输入层到()再到输出层A、输出层B、隐藏层C、输出层D、激活函数层答案:B166.tanh的取值范围是多少?A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A167.以下几个描述中,关于优化算法减小学习率的原因,说法正确的是?A、一种默认定式B、减少内存容量C、避免在最优解附近大幅度摆动D、减少迭代次数答案:C168.tf.reshape()的用途是?A、相乘B、相加C、维度转化D、相减答案:C169.像sigmoid,relu,tanh等等这类叫做什么函数A、非激活B、激活C、极值D、修正线答案:B170.自动驾驶是如何起源的A、BP算法B、神经网络C、前向算法D、NFC答案:A171.通过以下哪种方式可以得到加权平均值A、局部平均值B、局部方差C、全局平均值D、全局方差答案:A172.以下几个选项中,哪个选项没描述神经网络的超参数是正确的A、权重B、偏置C、神经网络的层数D、激活值答案:C173.下列哪个说法是正确的?A、神经网络的更深层通常比前面层计算更复杂的输入特征。B、神经网络的前面层通常比更深层计算更复杂的输入特性。C、神经网络由输入和隐藏层构成D、神经网络的隐藏层只能是一层答案:A174.在NLP中,不可以做以下选项中的那个任务A、聊天机器人B、车牌检测C、推荐系统D、文本纠错答案:B175.哪个技术可以用来解决过拟合问题?A、DorpoutB、正则化C、批规范化D、以上技术均可以答案:D176.在使用tf时,其中有很多的接口,例如multiply,这个接口实现的功能是?A、相与B、相乘C、相除D、相加答案:B177.使用了mini-batch后,可以得到怎样的下降效果?A、损失函数值一直下降B、损失函数值总体趋势下降C、比梯度下降速度快D、梯度下降不明显答案:B178.人工智能起源于哪个年代?A、20世纪50年代B、20世纪60年代C、20世纪70年代D、20世纪80年代答案:A179.tf.Graph.get_operations()的作用是什么A、返回图中的操作节点列表B、为节点创建层次化的名称,并返回一个上下文管理器C、返回图中的操作节点列表D、完成图的构建,即将其设置为只读模式答案:C180.以下几个选项中,哪个选项是超参数A、权重B、偏置C、网络层数D、激活值答案:C181.对于超参数调试的方法的描述,其中描述正确的是哪个选项?A、随机选择点来试验超参数效果B、当你给超参数取值时,另一个惯例是采用由精细到粗糙的策略。C、只调试容易的D、给定默认值即可答案:A182.哪个激活函数的用于表示LSTM的“门”的概念A、reluB、tanhC、LeakyReluD、sigmoid答案:D183.在tf中常用的reshape函数它的用途是做什么?A、维度转化B、相加C、相乘D、相减答案:A184.以下几个网络在NLP中最为常用的是哪个?A、CNNB、NNC、RNND、SVM答案:C185.tf.to_int32的作用是什么A、字符串转为数字B、转为64位浮点类型–float64C、转为32位整型–int32D、转为64位整型–int64答案:C186.以下几个函数中,上升速度最快的是哪个A、线性函数B、指数函数C、幂函数D、对数函数答案:D187.哪个激活函数用于表示GRU的“门”A、reluB、tanhC、LeakyReluD、sigmoid答案:D188.在实现前向传播和反向传播中使用的“cache”(缓存)指哪个?A、它用于跟踪我们正在搜索的超参数,以加速计算。B、用于在训练期间缓存代价函数的中间值。C、使用它传递反向传播中计算的变量到相应的前向传播步骤,它包含对于前向传播计算导数有用的变量。D、使用它传递前向传播中计算的变量到相应的反向传播步骤,它包含对于反向传播计算导数有用的变量。答案:D解析:cache“缓存”记录来自正向传播单元的值,并将其发送到反向传播单元,这是链式求导的需要。189.在以下四个选项中哪些属于神经网络中的参数A、学习率B、权重C、迭代次数D、隐藏层的大小答案:B190.梯度消失是RNN模型中的常见问题,以下四个选项中,哪个不能缓解梯度消失A、调整激活函数类型B、使用batchnormC、训练值预处理D、增大隐藏层数量答案:D191.以下描述正确的是哪个?A、欠拟合是指验证集和测试集的准确率都无法保证正常业务使用B、欠拟合的现象是训练集和测试集准确率相近C、尽量不要出现适度拟合,会造成新数据准确率低D、过拟合的现象是训练集准确率低,而测试集准确率高答案:A192.下面哪个个关于softmax函数的说法是正确的?A、主要用于二分类B、算出来为概率值C、将最小的概率值所对应的类别作为输入样本的输出类别D、所有的概率相加大于1答案:B193.计算图模型是哪个框架中存在的A、pytorchB、tensorflowC、caffeD、paddle答案:B194.tensorflow的split()函数有什么用A、沿着某一维度连结tensorB、沿着某一维度将tensor分离为num_splittensorsC、对tensor进行切片操作D、沿着某维度进行序列反转答案:B195.下面哪个队tf.reverse的解释是正确的A、沿着某一维度连结tensorB、沿着某一维度将tensor分离为num_splittensorsC、对tensor进行切片操作D、沿着某维度进行序列反转答案:D196.哪个激活函数运行效率最高?A、reluB、tanhC、sigmoidD、不能确定答案:A197.下列几个选项中,关于RMSprop算法的特点描述正确的优哪些?A、指数加权平均数求和B、指数加权平均数先平方再开方C、指数加权平均数求微分D、指数加权平均数求均方误差答案:B198.在优化算法的计算当中,使用到了以下哪种方式A、标准差加权平均B、方差加权平均C、对数加权平均D、指数加权平均答案:D199.以下说法当中,LDA是可以做什么的A、对图像进行文本B、对图像进行特征提取C、对文档的主题进行分类或聚类D、以上都正确答案:C200.以下哪个激活函数常用于解决类似文本分类的多分类任务A、tanhB、sigmoidC、reluD、softmax答案:D201.数据归一化通常和以下哪个选项中一起使用A、训练集的mini-batchB、测试集的mini-batchC、整个训练集D、整个测试集答案:A202.最早的自动驾驶汽车是在80年代,它是基于哪种形式制造出来的A、BP算法B、神经网络C、前向算法D、NFC答案:A203.以下几个选项,哪一个常赋值给batch_sizeA、128B、127C、126D、125答案:A204.深度学习常用框架TensorFlow,在该框架下如何正确调用dropout函数A、tf.nn.dropoutB、tf.train.dropoutC、tf.dropoutD、tf.dropOut答案:A205.在模型训练的阶段,使用的优化算法中,超参数学习率会怎么变化A、保持不变B、持续较小C、持续增大D、不变答案:B206.在动量梯度下降中,其中的参数β一般的默认值是多少,下列哪个选项是正确的A、0.7B、0.8C、0.9D、1答案:C207.下列哪个激活函数,处理梯度消失问题效果最好?A、sigmoidB、LeakyreluC、reluD、tanh答案:B208.哪个激活函数修正了Relu激活函数的缺点A、tanhB、leaky-ReluC、softmaxD、sigmoid答案:B209.深度学习中最常使用的框架就是TensorFlow,该框架中的matmul方法的作用是什么A、相与B、乘积C、相除D、相加答案:B210.tensoflow中的图函数Graph.finalize()有什么用处?A、返回图中的操作节点列表B、为节点创建层次化的名称,并返回一个上下文管理器C、返回图中的操作节点列表D、完成图的构建,即将其设置为只读模式答案:D211.神经网络的训练过程,经常要做数据划分,以下说法正确的是?A、可以不设置训练集B、可以不设置测试集C、可以不设置验证集D、不确定答案:C212.tensorflow中的concat函数有什么用途?A、沿着某一维度连结tensorB、沿着某一维度将tensor分离为num_splittensorsC、对tensor进行切片操作D、沿着某维度进行序列反转答案:A213.以下四个选项中,哪个激活函数的的输出在0~1的范围之间A、reluB、tanhC、LeakyReluD、sigmoid答案:D214.以下几个选项中关于梯度消失的说法描述正确的是哪个选项?A、通过优化算法,处理梯度,可以更快做梯度下降,获取最优解B、由于数据处理或者激活函数选择不合理等原因,无法获取梯度,从而不能获得最优解C、由于隐藏层数量过少,无法获取梯度,从而不能获得最优解D、通过更多隐藏层,减少梯度迭代,从而更快的进行计算,获取最优解答案:B215.模型中可能会出现拟合的情况,下列选项中关于拟合说法正确的是?A、过拟合只发生在理论阶段,实际不会发生这种情况B、欠拟合是数据量过多,造成无法全部计算的现象C、训练准确率高,测试准确率低的情况,数据过拟合D、过拟合是指数据量大,计算复杂的情况答案:C216.以下哪个技术可以用于机器写诗、机器阅读A、深度学习B、GANC、自编码D、迁移学习答案:A217.relu是常用的激活函数,它可以将小于()的数输出为0A、-1B、0C、1D、x答案:B218.tanh相比sigmoid的优势之处何以体现A、解决了sigmoid输出为非0中心的问题B、tanh不易饱和C、tanh解决了sigmoid的指数运算D、tanh不会造成梯度消失答案:A219.修正线性函数指的是哪个函数A、sigmoidB、tanhC、reluD、Leakyrelu答案:C220.Relu函数存在一定的缺陷,以下哪个激活函数是对其进行的改进A、sigmoidB、LeakyreluC、reluD、tanh答案:B221.人工智能近几年大火,它最早是在什么时候出现的?A、20世纪50年代B、20世纪60年代C、20世纪70年代D、20世纪80年代答案:A222.正常的将数据集进行切分为三个集合,其中不包括下列哪个集合?A、测试集B、确认集C、验证集D、训练集答案:B223.以下哪个与LSTM无关A、遗忘门B、输入门C、输出门D、更新门答案:D224.下面哪个不属于超参数?A、学习率αB、动量梯度下降的参数βC、mini-Batch的大小D、输入图片大小答案:D225.为模型选择超参数,选择了不同的取值,不可以_____?A、选择对训练集目标而言的最优解B、对于开发集而言的最优解C、超参搜索过程中最想优化的东西D、简化参数调试答案:D226.Batch归一化操作用于网络的什么层?A、输出层B、输入层C、无法在隐藏层起作用D、用于输入层,甚至深度隐藏层的归一化过程答案:D227.backpropagation算法,其中的backpropagation指的什么方向进行传播?A、反向B、前后向C、全连接D、正向答案:A228.在神经网络中常使用到的非线性激活函数sigmoid,该函数的模型曲线是()?A、X型B、S型C、L型D、U型答案:B229.tensorflow的reshape方法可以对张量起什么用A、插入维度1进入一个tensor中B、改变tensor的形状C、改变tensor的数据类型D、转为32位整型–int32答案:B230.下列是对于Batch归一化的描述,其中它的流程步骤不包括下列哪个选项?A、求每个训练批次数据的均值B、求每个训练批次数据的方差C、使用求得的均值和方差对该批次的训练数据做归一化,获得0-1分布D、求每个训练批次的和答案:D231.在TensorFlow中的conv2d(a,b,c,d)函数中有四个参数,哪个参数是被卷积的数据?A、bB、aC、cD、d答案:B232.dropout作为常用的函数,它能起到什么作用A、没有激活函数功能B、一种正则化方式C、一种图像特征处理算法D、一种语音处理算法答案:B233.现有一份大小为n的数据集,如果采用mini-batch的方式,那么它的大小应该是多少A、1B、mC、0D、大于2,小于m答案:A234.tf.expand_dims是什么意思A、改变tensor的形状B、返回tensor的rankC、插入维度1进入一个tensor中D、返回数据的元素数量答案:C235.实际的应用中会有很多的数据,下列关于数据划分后的训练,测试以及验证说法错误的是哪个?A、可以直接使用训练集来验证算子的准确率B、训练集用于算子的拟合C、验证集和测试集用来评判算子的准确度D、可以不配置验证集答案:A236.使用TensorFlow去定义常量的操作,以下正确得是?A、tensor=tf.constant(1)B、tensor=tf.constant([1,2])C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D237.以下几个机器学习算法中,哪个算法是比较常用的无监督学习算法A、聚类B、K-近邻算法C、回归算法D、决策树答案:A238.什么情况下神经网络模型被称为深度学习模型?A、加入更多层,使神经网络的深度增加B、有维度更高的数据C、当这是一个图形识别的问题时D、以上都不正确答案:A239.Adam动态优化器,下列关于它的说法正确的是?A、强化了RMSprop算法B、强化了动量梯度算法C、同时使用Momentum和RMSprop算法D、没有核心答案:C240.tf如何定义常量?A、tensor=tf.constant([1,2])B、tensor=tf.constant(1)C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D241.以下哪个超参数的调试,对神经网络最重要?A、mini-Batch的大小B、动量梯度下降的参数βC、学习率αD、隐藏层数目答案:C242.tf.to_float的作用是什么A、将张量转换为float32类型.B、转为64位浮点类型–float64C、转为32位整型–int32D、转为64位整型–int64答案:A243.以下四个选项中,哪个操作不能解决梯度消失的问题A、调整激活函数类型B、使用batchnormC、增大隐藏层数量D、训练值预处理答案:C244.tensorflow里的函数con1d是进行什么操作A、二维卷积B、一维卷积C、GRU操作D、lstm操作答案:B245.下面哪个函数的现状是S曲线型的A、Sigmoid函数B、tanh函数C、ReLUD、cosh答案:C246.tf.slice的作用是什么A、沿着某一维度连结tensorB、沿着某一维度将tensor分离为num_splittensorsC、对tensor进行切片操作D、沿着某维度进行序列反转答案:C247.以下哪个函数常用于解决二分类问题A、tanhB、sigmoidC、softmaxD、relu答案:B248.在人工智能领域中,提出的一个重要的什么框架A、机器学习B、深度学习C、开源算法D、tensorflow答案:B249.文本纠错,机器翻译属于哪个领域的任务A、图像识别B、自然语言C、数据挖掘D、不确定答案:B250.以下四个框架当中,在深度学习领域应用最多的框架是哪个?A、caffeB、torchC、tensorflowD、mxnet答案:C251.迁移学习的英文表示是什么?A、RNNB、CNNC、NLPD、TransferLearning答案:D252.Batch归一化,在神经网络中有很强的作用,系列描述中,哪个选项说的不是它的作用A、减少了隐藏值分布变化的数量B、减少了输入值改变的问题C、有轻微的正则化效果D、增加了输入值改变的问题答案:D253.GAN网络的全称是什么A、生成对抗网络B、卷积神经网络C、循环神经网络D、全连接网络答案:A254.相比con1d,conv2d的作用是什么A、lstm操作B、一维卷积C、GRU操作D、二维卷积答案:D255.下列哪一项在神经网络中引入了非线性?A、随机梯度下降B、修正线性单元(ReLU)C、卷积函数D、以上都不正确答案:B256.下面哪个选项说的不是Batch归一化的作用A、减少了隐藏值分布变化的数量B、减少了输入值改变的问题C、有轻微的正则化效果D、增加了输入值改变的问题答案:D257.对图像特征经过做几个卷积操作后,特征信号会有什么变化:A、减弱B、不变C、增强D、都有可能答案:D258.在进行池化的时候,如果参数ksize=[1,4,4,1]那么图像会发生什么样的变化A、缩小到1/2B、缩小到1/16C、扩大两倍D、扩大四倍答案:B259.LDA中的五个分布其中的二项分布,是一个什么分布A、离散的随机分布B、连续的随机分布C、连续的分布D、不确定答案:A260.卷积神经网络包含如下哪个概念A、视野域B、循环结构C、梯度消失D、以上都不包含答案:A261.tf.conv2d(a,b,c,d)函数的四个参数,哪个参数表示输入数据?A、bB、aC、cD、d答案:B262.初始学习率一般设置为多大合适A、1000B、10C、100D、0.01答案:D263.知识图谱用到了哪个领域的技术A、计算机视觉B、数据挖掘C、自然语言处理D、机器学习答案:C264.在图像的人脸识别中,深度学习有哪些应用,使用到的是哪个网络结构A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B265.以下哪个与卷积神经网络无关A、局部连接B、权值共享C、池化操作D、多层次结构答案:D266.构建神经网络模型,经常会发生过拟合现象,下列选项中关于拟合说法正确的是?A、过拟合只发生在理论阶段,实际不会发生这种情况B、欠拟合是数据量过多,造成无法全部计算的现象C、过拟合是指数据量大,计算复杂的情况D、训练准确率高,测试准确率低的情况,数据过拟合答案:D267.反向传播指的是哪个变量的传递?A、训练轮次B、批处理数C、误差D、网络层数答案:C268.前项算法中,除了需要有联合权重w,还需要有一个什么函数,才能正常的进行计算A、激活函数B、正弦函数C、余弦函数D、都可以答案:A269.关于tf.conv2d函数,该方法接收到的张量维度是多大?A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A270.以下四个任务当中LDA可以很好的完成哪个任务?A、对图像进行文本B、对图像进行特征提取C、对文档的主题进行分类或聚类D、以上都正确答案:C271.tf.Variable(tf.random_normal([20,10,3,16])),在该操作中,关于定义的卷积核的高度,下列选项中描述正确的是?A、10B、20C、16D、3答案:B272.下列选项中,关于激活函数的描述,说法正确的是哪个?A、神经网络中最好的激活函数是sigmoidB、激活函数有正则化作用C、dropout是CNN中的激活函数D、神经元输出后需要给定一个激活函数答案:D273.哪个激活函数用于类似文本分类的二分类任务A、tanhB、reluC、softmaxD、sigmoid答案:D274.如果从一个区间[a,b],从中随机出一个值y,下列说法中不正确的是?A、取最小值的对数得到a的值B、取最小值的对数得到b的值C、取最大值的对数得到b的值D、取任意值r,则超参数设置为10的r次方答案:B275.下面哪一个说法更能解释随机梯度下降的原理A、随机赋值,祈祷它们是正确的B、搜索所有权重和偏差的组合,直到得到最佳值C、赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重D、以上都不正确答案:C276.RNN是什么的简称A、全连接网络B、卷积神经网络C、循环神经网络D、感知机网络答案:C277.AutoEncoder是什么网络和技术A、自编码器B、强化学习C、迁移学习D、循环神经网络答案:A278.对于超参数随机取值指的是?A、随机选择标尺取值B、随机取值就是有效范围内随机均匀取值C、选择合适的标尺进行取值D、随机的进行均匀的取值答案:C279.如果网络中遇到了梯度爆炸问题,下列选项中哪个可以很好的解决?A、梯度剪切,正则B、增加拟合数据C、增加训练数据维度D、增加隐藏层答案:A280.可以如何选择神经网络的参数或超参A、通过常识选择B、随机选择点来试验超参数效果C、选择输入的参数即可D、取离散参数的平均值答案:B281.LDA中的一个函数指的是以下哪个?A、Gibbs采样B、pLSAC、beta分布D、gamma函数答案:D282.以下几个选项中,哪个用来处理多类别任务A、tanhB、softmaxC、sigmoidD、relu答案:B283.tf.cast函数的返回值数据类型是什么A、整数型B、布尔型C、浮点型D、字符串答案:C284.在预处理极端,关于数据归一化的描述正确的哪个选项A、通过中值和均值进行确定B、通过方差和均值确定C、通过平均值和最小值确定D、通过标准差和均值确定答案:B285.关于梯度消失的解释,下面哪个是准确的?A、通过优化算法,处理梯度,可以更快做梯度下降,获取最优解B、由于数据处理或者激活函数选择不合理等原因,无法获取梯度,从而不能获得最优解C、由于隐藏层数量过少,无法获取梯度,从而不能获得最优解D、通过更多隐藏层,减少梯度迭代,从而更快的进行计算,获取最优解答案:B286.关于选择超参数的范围,下列选项中描述正确的是?A、随机取值可以提升搜索效率B、随机取值就是随机均匀取值C、范围就是[0,1]D、随机取值对搜索无影响答案:A287.以下哪个激活函数经常用来解决二分类问题A、tanhB、LeakyReluC、sigmoidD、relu答案:C288.文本分类,情感识别等等属于以下哪个选项的子任务A、数据挖掘B、不确定C、图像识别D、自然语言答案:D289.以下几个选项中,哪个选项指的是“修正线性单元”A、tanhB、LeakyReluC、sigmoidD、relu答案:D290.以下哪个不属于无监督学习A、聚类B、降维C、回归算法D、PCA答案:C291.以下哪个函数表示双曲正切激活函数?A、ReluB、sigmoidC、tanhD、sin答案:C292.tf.reshape有什么作用A、插入维度1进入一个tensor中B、改变tensor的形状C、改变tensor的数据类型D、转为32位整型–int32答案:B293.在自然语言中,主要应用到的是深度学习神经网络是以下哪个A、ANNB、CNNC、RNND、XNN答案:C294.以下哪个参数属于超参数?A、学习率B、激活值C、损失值D、偏置答案:A295.在人工智能领域中,提出的一个重要的技术是什么A、机器学习B、深度学习C、开源算法D、tensorflow答案:B296.下面哪个不是常用的激活函数?A、dropoutB、reluC、sigmoidD、tanh答案:A297.在TensorFlow框架中,如何正确的调用Adam优化器?A、tf.example.AdamOptimizerB、tf.train.AdamOptimizerC、tf.nn.AdamOptimizerD、tf.AdamOptimizer答案:B298.激活函数也在不断的更新,以下哪个激活函数是在Relu的基础上优化的A、sigmoidB、tanhC、reluD、Leakyrelu答案:D299.tf.Variable(tf.random_normal([20,10,5,16])),在该操作中,关于定义的卷积核高度是多少?A、10B、6C、16D、20答案:D300.tf.to_double的作用?A、将张量转换为float64类型B、转为32位整型–int32C、转为64位整型–int64D、字符串转为数字答案:A301.指数分布的均值的倒数的共轭先验分布是()A、贝塔分布B、泊松分布C、伽马分布D、指数分布答案:B302.以下四个选项中,哪个说的是修正线性函数A、sigmoidB、tanhC、reluD、Leakyrelu答案:C303.以下四个选项中关于sigmoid的图形曲线描述正确的是?A、U型B、M型C、X型D、S型答案:D304.tanh激活函数也有造成梯度消失等问题和sigmoid相比,()sigmoidA、优于B、劣与C、等于D、小于等于答案:A305.自动驾驶是基于哪种技术提出的A、BP算法B、神经网络C、前向算法D、NFC答案:A306.以下选项中关于拟合的问题,说法描述正确的是?A、过拟合的现象是训练集准确率低,而测试集准确率高B、欠拟合的现象是训练集和测试集准确率相近C、尽量不要出现适度拟合,会造成新数据准确率低D、欠拟合是指验证集和测试集的准确率都无法保证正常业务使用答案:D307.google开发的深度学习框架叫什么A、pytorchB、tensorflowC、caffeD、mxnet答案:B308.以下的四个选项中,哪个选项不是激活函数?A、reluB、sigmoidC、tanhD、dropout答案:D309.tanh激活函数的输出值在什么区间A、[0,1]B、[-1,1]C、[-1,0]D、[-0.5,0.5]答案:B310.tf.reverse的正确说法是哪一项?A、沿着某一维度连结tensorB、沿着某一维度将tensor分离为num_splittensorsC、对tensor进行切片操作D、沿着某维度进行序列反转答案:D311.tensorflow中的cast方法,返回值的数据类型是什么样的A、整数型B、布尔型C、浮点型D、字符串答案:C312.CNN中,一般选择有多个卷积核是为了什么A、同时提取多个图像的特征B、提取某些图像多个特征C、图像有多个通道D、与多特征无关答案:B313.pytorch框架是哪个公司开发的A、MITB、facebookC、googleD、apple答案:B314.像sigmoid,relu,tanh等等这类做非线性映射的函数叫做什么A、非激活B、激活C、极值D、修正线答案:B315.实际的开发问题中,需要根据需求和实际问题,构建相应的__?A、架构B、流程图C、数学模型D、数据集答案:C316.网络结构中常用的dropout函数,对其描述正确的是哪个?A、用于分割数据集B、一个激活函数C、属于正则处理D、用于将数据样本多样化答案:C317.文本分类,会话机器人等等属于以下哪个选项的子任务A、数据挖掘B、不确定C、图像识别D、自然语言答案:D318.conv2d的作用是什么A、一维卷积B、lstm操作C、GRU操作D、二维卷积答案:D319.前向传播过程中,除了需要有权重w,还需要有一个什么函数做非线性变换,才能较好的进行计算A、激活函数B、正弦函数C、余弦函数D、都可以答案:A320.关于对于数据切分的问题,以下说法正确的是?A、可以不设置训练集B、可以不设置测试集C、可以不设置验证集D、不确定答案:C321.CNN中设置多个卷积核是为了什么目的A、同时提取多个图像的特征B、提取某些图像多个特征C、图像有多个通道D、与多特征无关答案:B322.交叉熵函数是常用的损失函数,它是通过度量两个什么分布的差异性A、概率B、矢量C、矩阵信息D、空间答案:A323.LDA属于一个什么模型A、语言模型B、词袋子模型C、预训练模型D、不确定答案:B324.tf.split是什么意思A、沿着某一维度连结tensorB、沿着某一维度将tensor分离为num_splittensorsC、对tensor进行切片操作D、沿着某维度进行序列反转答案:B325.以下几个选项中,可以通过哪种方式来选择参数或超参A、通过常识选择B、随机选择点来试验超参数效果C、选择输入的参数即可D、取离散参数的平均值答案:B326.如果一个[a,b]的区间,从中随机出一个值x,那么下列说法中不正确的是?A、取最小值的对数得到a的值B、取最小值的对数得到b的值C、取最大值的对数得到b的值D、取任意值r,则超参数设置为10的r次方答案:B327.在框架TensorFlow下conv2d(),该方法接收到的张量维度是多大?A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A328.以下四个选项中,哪个函数的取值范围在[0~1]A、reluB、tanhC、LeakyReluD、sigmoid答案:D329.TensorFlow内置的dropoutAPI是哪个A、tf.train.dropoutB、tf.dropoutC、tf.dropOutD、tf.nn.dropout答案:D330.TensorFlow作为深度学习常用的框架,其中的tf.nn.softmax_cross_entropy_with_logits的作用是做什么的?A、信息熵B、信息元C、logitsD、交叉熵答案:D331.以下哪个函数常用于解决多分类问题A、tanhB、sigmoidC、softmaxD、relu答案:C332.BP算法,其中的BP指的怎样传播?A、反向B、正向C、前后向D、全连接答案:A多选题1.CNN模型的核心包括下面哪些选项A、局部连接B、权值共享C、多层次结构D、池化操作答案:ABD2.以下哪个任务是NLP中的常见任务A、文本摘要B、机器翻译C、阅读理解D、以上都不正确答案:ABC3.LDA中包含一个理念和一个概念A、共轭先验B、贝叶斯框架C、二项分布D、gamma函数答案:AB4.关于神经网络的层数说法,正确的分为哪几层A、输入层B、输出层C、隐藏层D、以上都正确答案:ABCD5.关于神经网络,由哪几部分组成A、输入层B、输出层C、隐藏层D、以上都正确答案:ABCD6.下列选项中,哪些是比较常用的梯度下降优化器?A、dropoutB、动量梯度下降法C、RMSpropD、Adam答案:BCD7.BP算法中最重要的两个环节,分别是什么?A、激励传播B、权重更新C、信息传播D、激活函数答案:AB8.在神经网络中,单个神经元能解决什么问题A、与B、或C、非D、异或答案:ABC9.以下哪些是CNN的内容A、卷积B、池化C、循环神经结构D、以上都不对答案:AB10.以下哪些属于GRUA、更新门B、重置门C、输入门D、输出门答案:AB11.经过Batch归一化的操作会产生相应的良性效果,那么为什么会该操作会产生作用A、通过归一化所有的输入特征值,以获得类似范围的值,加速学习B、将参数归一化可以减缓学习速率C、可以使权重比你的网络更滞后或更深D、可以使权重比你的网络更超前或更深答案:AC12.LightGBM的优化方向有哪些A、带深度限制的Leaf-wise的叶子生长策略B、直方图做差加速直接C、支持类别特征(CategoricalFeature)D、以上不都是答案:ABC13.pytorch框架可用于解决以下哪些问题A、NLPB、CVC、DMD、都不能答案:ABC14.以下哪些网络结构可用于做语料情感分析A、fastTextB、textRNNC、textCNND、以上都不可以答案:ABC15.在tensorflow中reshape函数其中的参数有(tensor,shape,name)等等,以下选项中描述正确的是A、函数的作用是将tensor变换为参数shape形式B、其中的shape为一个列表形式C、name可省略D、1所代表的含义是我们不用亲自去指定这一维的大小,函数会自动进行计算答案:ABCD16.下面哪些损失函数可以作为分类任务的损失函数A、信息熵B、概率模型C、最小二乘平方损失D、距离模型答案:ABCD17.从区间[a,b]中随机获取一个x值,对于该操作,下列选项中描述正确的有哪些?A、取最小值的对数得到a的值B、取最小值的对数得到b的值C、取最大值的对数得到a的值D、取最大值的对数得到b的值答案:AD18.下面哪些描述与AI的符号主义有关?A、又称逻辑主义B、又称心理学派C、基础理论是数理逻辑D、是研究生物的答案:ABC19.以下哪些网络是NLP中常用的网络结构A、RNNB、LSTMC、GRUD、以上都是的答案:ABCD20.LightGBM有什么样的优点A、速度快B、支持分布式C、占用内存小D、代码清晰易懂答案:ABCD21.下列关于LightGBM有什么优点,说法正确的是A、更快的训练速度B、更低的内存消耗C、更好的准确率D、分布式支持,可以快速处理海量数据答案:ABCD22.下面哪些关于特征工程正则化的描述是正确的?A、正则化可以防止欠拟合B、relu函数具有正则化效果C、正则化可以防止过拟合D、dropout具有正则化效果答案:CD23.LightGBM选择的优化方向有哪些A、带深度限制的Leaf-wise的叶子生长策略B、直方图做差加速直接C、支持类别特征(CategoricalFeature)D、以上不都是答案:ABC24.深度学习在自然语言中的应用有哪些A、机器创作B、个性化推荐C、文本分类D、情感分析答案:ABCD25.在预处理阶段,我们一般将数据集分为哪几个类别A、训练集B、验证集C、测试集D、批处理集答案:ABC26.人工智能机器人AlphaGo战胜了围棋大师,它程序中使用到的技术有哪些?A、决策神经网络B、评估神经网络C、历史经验D、线性代数答案:AB27.Batch归一化操作的具体流程是怎样的?A、求每个训练批次数据的均值B、求每个训练批次数据的方差C、使用求得的均值和方差对该批次的训练数据做归一化,获得0-1分布D、尺度变换和偏移答案:ABCD28.LDA当中的Topic个数怎么确定A、基于经验主观判断、不断调试、操作性强、最为常用。B、基于困惑度C、使用Log-边际似然函数的方法,这种方法也挺常用的。D、基于主题之间的相似度:计算主题向量之间的余弦距离,KL距离等。答案:ABCD29.以下四个选项中,哪些说的是LightGBM的优点A、更快的训练速度B、更低的内存消耗C、更好的准确率D、分布式支持,可以快速处理海量数据答案:ABCD30.关于如下运算:a=tf.Variable([3,4,5])和b=tf.Variable(a),以下描述正确的是A、合法B、非法C、合法但a需要提前初始化D、合法但不够安全答案:ACD31.关于LightGBM的优点,说法正确的是A、更快的训练速度B、更低的内存消耗C、更好的准确率D、分布式支持,可以快速处理海量数据答案:ABCD32.下列几个优化器中,可以跳出局部最优的分别有哪些?A、AdamB、MomentumC、RMSpropD、Lasso答案:ABC33.关于集合外一个点,到该集合的距离,描述正确的是哪些选项A、是该点到集合边界点的最短距离B、是该点到集合内所有点的最短距离C、是该点到集合内任意一点的距离D、是该点到集合内非边界点的某点的距离答案:AB34.CNN的池化层包括哪几种A、卷积B、最大池化C、最小池化D、平均池化答案:BD35.以下四个选项中,哪些对LightGBM的优点说法是准确的A、更好的准确率B、分布式支持,可以快速处理海量数据C、更快的训练速度D、更低的内存消耗答案:ABCD36.LightGBM在哪些地方进行了优化(区别XGBoost)?A、基于Histogram的决策树算法B、带深度限制的Leaf-wise的叶子生长策略C、直方图做差加速直接D、支持类别特征(CategoricalFeature)答案:ABCD37.下列几个选项当中,有哪些是属于梯度下降的A、BGDB、SGDC、mini-batchD、dropout答案:ABC38.在人工智能中包括三大领域,分别是以下哪些?A、符号主义B、连接主义C、行为主义D、深度学习答案:ABC39.常用的池化包含哪两种A、最小池化B、最大池化C、平均池化D、方差池化答案:BC40.关于TensorFlow中的语句,tf.variables_initializer以下描述正确的是A、初始化一个变量B、初始化多个变量C、初始化全部变量D、初始化常量答案:ABC41.LDA中有四个分布分别是哪四个分布A、二项分布B、多项分布C、beta分布D、Dirichlet分布答案:ABCD42.下列选项中,关于数据归一化描述正确的有哪些?A、更容易收敛得到最优解B、权重值较小C、权重值大D、无特点答案:AB43.CNN中的pooling手段一般包含哪两种A、最小池化B、最大池化C、平均池化D、方差池化答案:BC44.在Histogram算法之上,LightGBM还做了哪些优化A、带深度限制的Leaf-wise的叶子生长策略B、直方图做差加速直接C、支持类别特征(CategoricalFeature)D、不确定答案:ABC45.tf.train.AdamOptimizer(1e-4).minimize(cross_entropy),以下四个选项中,关于上述代码描述正确的是哪些选项A、定义学习步长B、优化器C、交叉熵损失函数D、开始训练答案:ABC46.自然语言的落地成品有哪些A、知识图谱B、机器人C、人脸检测D、推荐系统答案:ABD47.下列选项中关于tf.nn.SoftMax函数的描述以下正确的是哪些选项?A、用于多类别分类B、映射到概率空间C、压缩数据D、用于卷积层答案:ABC48.数据切分阶段中,下列关于数据的训练集和验证集的划分,描述正确的有哪些?A、不一定需要验证集B、数据集数量较少时,训练集和测试集比例可以是7:3C、任何数量的数据集,都应遵守训练集和测试集比例7:3的原则D、大数据量的验证集,可以不遵循训练集和测试集比例7:3的原则答案:ABD49.下列损失函数中,哪些损失函数可以作为分类任务的损失函数A、信息熵B、最小二乘平方损失C、距离模
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 租房退房要求打扫卫生的合同(2篇)
- 咨询服务类合同(2篇)
- 人教A版湖南省名校联考联合体2023-2024学年高一上学期期末考试数学试题
- 初中体育+障碍跑+作业设计
- 2023年国家公务员录用考试《申论》真题(副省卷)及答案解析
- 第4课《一着惊海天-目击我国航母舰载战斗机首架次成功着舰》八年级语文上册精讲同步课堂(统编版)
- 西南林业大学《操作系统原理》2022-2023学年期末试卷
- 西京学院《新媒体交互设计》2022-2023学年第一学期期末试卷
- 获奖过程说明附件8
- 西京学院《工程地质》2021-2022学年第一学期期末试卷
- 高效能人士的七个习惯讲义-习惯5 知彼解己课件
- 意义类答题方法
- 实验三四大麦类小麦、大麦、黑麦、燕麦
- 颜真卿介绍课件
- 《兄弟》作品简介名著导读PPT模板
- 三年级上册美术第14课美丽的花挂毯沪教版课件6
- 土木工程施工安全风险与管理措施探究
- 办公大楼供配电系统设计
- 制剂室培训课件
- 帝光公司OEC目标“日事日毕、日清日高”实施方案
- 医院投诉登记表1
评论
0/150
提交评论