人工智能算法知识考试题库(附答案)_第1页
人工智能算法知识考试题库(附答案)_第2页
人工智能算法知识考试题库(附答案)_第3页
人工智能算法知识考试题库(附答案)_第4页
人工智能算法知识考试题库(附答案)_第5页
已阅读5页,还剩66页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

(新版)人工智能算法知识考试题库(附答案)

一、单选题

1.在人脸检测算法中,不属于该算法难点的是()

A、出现人脸遮挡

B、人脸角度变化大

C、需要检测分辨率很小的人脸

D、需要检测不同性别的人脸

答案:D

解析:在人脸检测算法中,不属于该算法难点的是需要检测不同性别

的人脸

2.机器执行学习的框架体现了其学习的本质是()

A、参数预估

B、机器翻译

C、图像识别

D、参数估计

答案:D

解析:机器执行学习的框架体现了其学习的本质是参数估计

3.假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问

题,logistics回归需要很长时间才能训练。如何提高训练速度?()

A、降低学习率,减少迭代次数

B、降低学习率,增加迭代次数

C、提高学习率,增加迭代次数

D、增加学习率,减少迭代次数

答案:D

4.O是使用某一位置的相邻输出的总体统计特征来代替网络在该位

置的输出

A、卷积

B、约化

C、池化

D、批归一化

答案:C

解析:池化是使用某一位置的相邻输出的总体统计特征来代替网络在

该位置的输出

5.图计算中图数据往往是O和不规则的,在利用分布式框架进行图

计算时,首先需要对图进行划分,将负载分配到各个节点上

A、结构化

B、非结构化

C、对称化

D、规则化

答案:B

解析:图计算中图数据往往是非结构化和不规则的,在利用分布式框

架进行图计算时,首先需要对图进行划分,将负载分配到各个节点上

6.在CNN中,梯度下降法的作用是()。

A、线性变换

B、非线性变换

C、求函数最小值

D、加速训练

答案:C

解析:在CNN中,梯度下降法的作用是求函数最小值。

7.Y0L0v3网格数为输出特征图[N,C,H,W]的()

A、C

B、C*H

C、H*W

D、nan

答案:C

8.目标检测常用性能指标的是()

A、信噪比

B、平方误差

C、mAP

D、分辨率

答案:C

解析:mAP表示算法处理每张照片时间。

9.在选择神经网络的深度时,下面哪些参数需要考虑?1神经网络的

类型(如MLP,CNN)2输入数据3计算能力(硬件和软件能力决定)4学

习速率5映射的输出函数

A、1,2,4,5

B、2,3,4,5

C、都需要考虑

D、1,3,4,5

答案:C

10.以下关于降维,表述错误的是:()

A、降维过程中可以保留原始数据的所有信息。

B、多维缩放的目标是要保证降维后样本之间的距离不变。

C、线性降维方法目标是要保证降维到的超平面能更好的表示原始数

据。

D、核线性降维方法目标是通过核函数和核方法来避免采样空间投影

到高维空间再降维之后的低维结构丢失。

答案:A

ll.NaveBayes(朴素贝叶斯)是一种特殊的Bayes分类器,特征变量

是X,类别标签是C,它的一个假定是()

A、各类别的先验概率P(C)是相等的

B、以0为均值,sqr(2)/2为标准差的正态分布

C、特征变量X的各个维度是类别条件独立随机变量

D、P(X|C)是高斯分布

答案:C

12.独热编码的缺点是:①.过于稀疏②.词与词的相关性比较小③.

易于编码④.容易存储

A、③④

B、①②

C、①③

D、②④

答案:B

解析:独热编码的缺点是:①.过于稀疏②.词与词的相关性比较小

13.从一个初始策略出发,不断迭代进行策略评估和改进,直到策略

收敛、不再改变为止,这样的作法称为(—)

A、策略迭代

B、值迭代

C、策略改进

D、最优值函数

答案:A

14.以下属于回归算法的评价指标是?

A、召回率

B、混淆矩阵

C、均方误差

D、准确率

答案:C

15.在下列人工神经学习算法中,哪种是能够根据期望的和实际的网

络输出之间的差来调整神经元之间连接的强度或权。()

A、有师学习

B、无师学习

C、强化学习

D、都不是

答案:A

16.关于循环神经网络以下说法错误的是?

A、循环神经网络可以根据时间轴展开

B、LSTM无法解决梯度消失的问题

C、LSTM也是一种循环神经网络

D、循环神经网络可以简写为RNN

答案:B

17.O常做为CNN网络的最后一层。

A、卷积层

B、池化层

C、全连接层

D、归一化层

答案:C

解析:全连接层常做为CNN网络的最后一层。

18.为了对某图像中的目标进行分析和识别,一般需要对图像进行O

处理。

A、图像加噪

B、图像采集

C、图像压缩

D、图像分割

答案:D

解析:为了对某图像中的目标进行分析和识别,一般需要对图像进行

图像分割处理。

19.以下关于算法的说法中,不正确的是

A、机器学习算法分为有监督、半监督和无监督三种

B、卷积神经网络是重要的迁移学习算法

C、决策树算法属于监督学习类别

D、K-Means是属于无监督学习算法

答案:B

20.VGG-19中卷积核的大小为

A、3x3

B、5x5

C、3x3,5x5

D、不确定

答案:A

解析:VGG-19中卷积核的大小为3x

21.在卷积操作过程中计算featuremap的尺寸:设图像大小为

300*300,卷积核大小为3*3,卷积窗口移动的步长为1,则

featuremaps的大小是()个元素?

A、78400

B、88804

C、91204

D、99856

答案:B

22.Inception模块采用()的设计形式,每个支路使用()大小的

卷积核。

A、多通路,不同

B、单通路,不同

C、多通路,相同

D、单通路,相同

答案:A

解析:Inception模块采用多通路,不同的设计形式,每个支路使用

多通路,不同大小的卷积核。

23.xgboost在代价函数里加入了O,用于控制模型的复杂度

A、正则项

B、非线性

C、激活函数

D、特征变换

答案:A

解析:xgboost在代价函数里加入了正则项,用于控制模型的复杂度

24.CRF(条件随机场)和HMM(隐马尔可夫模型)之间的主要区别是

什么?

A、CRF是生成式的,而HMM是判别式模型

B、CRF是判别式模型,州M是生成式模型。

C、CRF和H删都是生成式模型

D、CRF和HMM都是判别式模型。

答案:B

25.在K-摇臂赌博机中,若尝试次数非常大,在一段时间后,摇臂的

奖赏能很好的近似出来,不再需要探索,则可让£随着尝试次数增加

而(一)

A、增大

B、置为无穷

C、置为0

D、减少

答案:D

26.关于聚类说法错误的是()

A、在无监督学习任务中,研究最多、应用最广的是聚类

B、聚类可作为一个单独过程,用于找寻数据内在的分布结构,但不

能作为其他学习任务的前驱过程

C、聚类分析的目标是组内的对象之间是相似的,不同组中的对象是

不同的

D、组内的相似性越大,组间差别越大,聚类就越好

答案:B

解析:聚类可作为一个单独过程,用于找寻数据内在的分布结构,可

以作为其他学习任务的前驱过程

27.学习器的实际预测输出与样本的真实输出之间的差异称为()o

A、错误率

B、精度

C、误差

D、查准率

答案:C

28.下列可以用于聚类问题的机器学习算法有()

A、决策树

B、k-means

C、随机森林

D、逻辑回归

答案:B

29.使用交叉验证最简单的方法是在估计器和数据集上调用什么辅助

函数?

A、cross_val_score

B、cross_val%

C、val_score

D、cross_score

答案:A

30.以下关于随机森林算法的描述中错误的是

A、可以处理高维度的属性,并且不用做特征选择

B、随机森林的预测能力不受多重共线性影响

C、也擅长处理小数据集和低维数据集的分类问题

D、能应对正负样本不平衡问题

答案:C

31.根据边的性质不同,概率图模型可大致分为两类:第一类是使用

有向无环图表示变量间的依赖关系,称为第二类是使用无向

图表示变量间的相关关系,称为无向图模型或马尔可夫网

(Markovnetwork)。

A、贝叶斯网

B、拉普拉斯网

C、帕斯卡网

D、塞缪尔网

答案:A

32.对不具备泛化能力的规则转变为更一般的规则的最基础的技术为

A、最大一般泛化

B、最小一般泛化

C、最大一般特化

D、最小一般特化

答案:B

33.长短期记忆LSTM的核心贡献是引入了()的巧妙构思,该构思中的

权重视上下文而定,而不是固定的。

A、自增加

B、自循环

C、自递归

D、自减少

答案:B

解析:长短期记忆LSTM的核心贡献是引入了自循环的巧妙构思,该构

思中的权重视上下文而定,而不是固定的。

34.半监督支持向量机中最著名的是TSVM

(TransductiveSupportVectorMachine)0与标准SVM一■样,TSVM也

是针对()问题的学习方法?

A、分类

B、回归

C、聚类

D、二分类

答案:D

35.协同训练(co-training)是针对()数据设计?

A、多角度

B、多视图

C、多环境

D、多版本

答案:B

36.哪个不是常用的聚类算法()。

A、K-Means

B、DBSCAN

C、GMMs

D、Softmax

答案:D

解析:Softmax不是常用的聚类算法。

37.高层的特征是低层特征的组合,从低层到高层的特征表达越来越

O,也即越来越能表现语义或者意图。

A、具体和形象化

B、抽象和概念化

C、具体和概念化

D、抽象和具体化

答案:B

解析:高层的特征是低层特征的组合,从低层到高层的特征表达越来

越抽象和概念化,也即越来越能表现语义或者意图。

38.以才哪种组合在CNN不常见

A、conv+relu

B、conv+relu+pool

C、conv+relu+pool+fc

D、conv+k-means

答案:D

解析:conv+k-means组合在CNN不常见

39.我们可以将深度学习看成一种端到端的学习方法,这里的端到端

指的是

A、输入端-输出端

B、输入端-中间端

C、输出端-中间端

D、中间端-中间端

答案:A

40.标准循环神经网络隐含层的输入对于网络输出的影响随时间

A、不断递归而衰退

B、不断递归而增强

C、先增强后减弱

D、先减弱后增强

答案:A

41.GBDT算法相比于随机森林算法,以下哪种表述是错误的?

A、GBDT算法比随机森林容易欠拟合

B、随机森林是并行计算的,而GBDT不能

C、GBDT算法比随机森林容易过拟合

D、GBDT与随机森林都是建立在CART树的基础之上的

答案:C

42.LVW属于哪种特征选择方法()

A、包裹式

B、启发式

C、嵌入式

D、过滤式

答案:A

43.以下说法正确的是()。

A、聚类是非监督学习

B、分类是非监督学习

C、聚类是监督学习

D、以上都不对

答案:A

44.以下算法中可以用于图像平滑的是0。

A、均值滤波;

B、对比度增强

C、二值化

D、动态范围压缩

答案:A

解析:以下算法中可以用于图像平滑的是均值滤波;。

45.在20K文档的输入数据上为机器学习模型创建了文档一词矩阵

(document-termmatrix)。以下哪项可用于减少数据维度?(1)关

键词归一化(KeywordNormalization)(2)潜在语义索引

(LatentSemanticIndexing)(3)隐狄利克雷分布

(LatentDirichletAllocation)

A、只有(1)

B、(2)、(3)

C、⑴、(3)

D、⑴、(2)、(3)

答案:D

46.下列哪项不属于集成学习

A、随机森林

B、Adaboost

C、kNN

D、XGBoost

答案:C

解析:集成方法分类为:Bagging(并行训练):随机森林,Boosting

(串行训练):Adaboost,GBDT:XgBoost,Stacking,Blending

47.随着句子的长度越来越多,神经翻译机器将句意表征为固定维度

向量的过程将愈加困难,为了解决这类问题,下面哪项是我们可以采

用的?

A、使用递归单元代替循环单元

B、使用注意力机制(attentionmechanism)

C、使用字符级别翻译(characterleveltranslation)

D、所有选项均不对

答案:B

48.符号集a、b、c、d,它们相互独立,相应概率为1/2、1/4、1/8、

1/16,其中包含信息量最小的符号是()

A、a

B、b

C、c

D、d

答案:A

49.数据科学家经常使用多个算法进行预测,并将多个机器学习算法

的输出(称为〃集成学习〃)结合起来,以获得比所有个体模型都更好

的更健壮的输出。则下列说法正确的是?()

A、基本模型之间相关性高。

B、基本模型之间相关性低。

C、集成方法均使用加权平均代替投票方法。

D、基本模型都来自于同一算法。

答案:B

50.DBSCAN在最坏情况下的时间复杂度是()。

A、0(m)

B、0(m2)

C、0(login)

D、0(m*logm)

答案:B

51.在数据挖掘中,比较成熟的预测算法包括Logistic回归模型、()、

决策树、神经网络等

A、线性回归

B、时间序列

C、灰色模型

D、贝叶斯网络

答案:D

52.在下列哪些应用中,我们可以使用深度学习来解决问题?

A、蛋白质结构预测

B、化学反应的预测

C、外来粒子的检测

D、所有这些

答案:D

53.梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而

损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆

炸问题?

A、用改良的网络结构比如LSTM和GRUs

B、梯度裁剪

C、Dropout

D、所有方法都不行

答案:B

54.EM算法是()

A、有监督

B、无监督

C、半监督

D、都不是

答案:B

55.启发式搜索是寻求问题()解的一种方法

A、最优

B、一般

C、满意

D、最坏

答案:C

56.马尔可夫预测模型是将时间序列看作一个过程,通过对事物不同

状态的O

与状态之间转移概率的研究,确定状态变化趋势,预测事物的未来。

A、初始概率

B、结果概率

C、形成概率

答案:A

57.常见的图像预处理方法不包括(一)。

A、图像降噪

B、图像增强

C、图像尺寸归一化

D、图像标注

答案:D

解析:常见的图像预处理方法不包括图像标注。

58.在处理序列数据时,较容易出现梯度消失现象的深度学习模型是

A、CNN

B、LSTM

C、GRU

D、RNN

答案:D

解析:RNN(RecurrentNeuralNetwork)是一类用于处理序列数据的神

经网络。RNN存在一些问题梯度较容易出现衰减或爆炸(BPTT)-梯度

爆炸

59.前馈神经网络通过误差后向传播(BP算法)进行参数学习,这是

一种()

机器学习手段

A、监督学习

B、无监督学习

C、半监督学习

D、无监督学习和监督学习的结合

答案:A

60.在强化学习的过程中,学习率a越大,表示采用新的尝试得到的结

果比例越(),保持旧的结果的比例越()。

A、大

B、小

C、大

D、大

E、小

答案:A

61.L1和L2正则化是传统机器学习常用来减少泛化误差的方法,以

下关于两者的说法正确的是:

A、L1正则化可以做特征选择

B、L1和L2正则化均可做特征选择

C、L2正则化可以做特征选择

D、L1和L2正则化均不可做特征选择

答案:A

62.规则生成本质上是一个贪心搜索的过程,须有一定的机制来缓解

过拟合的风险,最常见的做法是(一)

A、序列化

B、剪枝

C、去重

D、重组

答案:B

63.卷积神经网络的英文缩写是:

A、DNN

B、CNN

C、RNN

D、Tanh

答案:B

解析:卷积神经网络的英文缩写是CNN

64.深度学习中的不同最优化方式,如SGD,ADAM下列说法中正确的

A、在实际场景下,应尽量使用ADAM,避免使用SGD

B、同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法

C、相同超参数数量情况下,比起自适应的学习率调整方式,SGD加

手动调节通常会取得更好效果

D、同样的初始学习率情况下,ADAM比SGD容易过拟合

答案:C

解析:相同超参数数量情况下,比起自适应的学习率调整方式,SGD

加手动调节通常会取得更好效果

65.下列属于特征降维的方法有

A、主成分分析PCA

B、数据采样

C、正则化

D、最小二乘法

答案:A

66.强化学习的基础模型是()模型

A、马可夫决策

B、贝叶斯

C、HMM

D、最大后验概率

答案:A

67.在£-greedy策略当中,£的值越大,表示采用随机的一个动作的

概率越(),采用当前Q函数值最大的动作的概率越()。

A、大

B、小

C、大

D、大

E、小

答案:A

68.()反映的是模型每一次输出结果与模型输出期望之间的误差,

即模型的稳定性。反应预测的波动情况。

A、标准差

B、方差

C、偏差

D、平方差

答案:B

解析:方差反映的是模型每一次输出结果与模型输出期望之间的误差,

即模型的稳定性。反应预测的波动情况。

69.K-Means算法无法聚以下哪种形状的样本

A、圆形分布

B、螺旋分布

C、带状分布

D、凸多边形分布

答案:B

70.()是一种基于树结构进行决策的算法。

A、轨迹跟踪

B、决策树

C、数据挖掘

D、K近邻算法

答案:B

解析:轨迹跟踪又称为前轮反馈控制法(Frontwheelfeedback),核

心在于基于前轮中心的路径跟踪偏差量对方向盘转向控制量进行计

算。决策树算法是一种逼近离散函数值的方法,它是一种典型的分类

方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,

然后使用决策对新数据进行分析。数据挖掘是指从大量的数据中通过

算法搜索隐藏于其中信息的过程。K近邻算法,即是给定一个训练数

据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个

实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类

中。符合题意的为B项决策树。答案选B

71.关于bagging下列说法错误的是:()

A、各基分类器之间有较强依赖,不可以进行并行训练。

B、最著名的算法之一是基于决策树基分类器的随机森林。

C、当训练样本数量较少时,子集之间可能有重叠。

D、为了让基分类器之间互相独立,需要将训练集分为若干子集。

答案:A

72.数据在完成特征工程的操作后,在构建模型的过程中,以下哪个

选项不属于决策树构建过程当中的步骤?

A、剪枝

B、特征选取

C、数据清理

D、决策树生成

答案:C

73.通过以下哪些指标我们可以在层次聚类中寻找两个集群之间的差

异?()

A、单链接

B、全链接

C、均链接

D、以上都行

答案:D

74.关于线性回归的描述,以下说法正确的有()

A、基本假设包括随机干扰项是均值为0,方差为1的标准正态分布

B、基本假设包括随机干扰项是均值为0的同方差正态分布

C、多重共线性会使得参数估计值方差减小

D、基本假设包括不服从正态分布的随机干扰项

答案:B

解析:线性回归基本假设包括随机干扰项是均值为0的同方差正态分

75..混沌度(Perplexity)是一种常见的应用在使用深度学习处理NLP

问题过程中的评估技术,关于混沌度,哪种说法是正确的?

A、混沌度没什么影响

B、混沌度越低越好

C、混沌度越高越好

D、混沌度对于结果的影响不一定

答案:B

76.环境在接受到个体的行动之后,会反馈给个体环境目前的状态

(state)以及由于上一个行动而产生的()。

A、action

B、reward

C、state

D、agent

答案:B

77.ONE-HOT-ENCODING可用于什么特征处理

A、类别型特征

B、有序性特征

C、数值型特征

D、字符串型特征

答案:A

78.ResNet-50有多少个卷积层?()

A、48

B、49

C、50

D、51

答案:B

79.语义网络表达知识时,有向弧AKO链、ISA链是用来表达节点知

识的

A、无悖性

B、可扩充性

C、继承性

D、连贯性

答案:C

解析:语义网络表达知识时,有向弧AKO链、ISA链是用来表达节点

知识的继承性

80.为了将特征转变成Embedding表示,所有特征均需转变成()

A、数字

C、6

D、26

答案:B

81.()的核心训练信号是图片的〃可区分性〃。模型需要区分两个输

入是来自于同一图片的不同视角,还是来自完全不同的两张图片。

A、对比学习

B、强化学习

C、迁移学习

D、深度学习

答案:A

解析:对比学习的核心训练信号是图片的〃可区分性〃。模型需要区分

两个输入是来自于同一图片的不同视角,还是来自完全不同的两张图

片。

82.在神经网络中,我们是通过以下哪个方法在训练网络的时候更新

参数,从而最小化损失函数的?

A、正向传播算法

B、池化计算

C、卷积计算

D、反向传播算法

答案:D

83.LSTM单元中引入了哪些门来更新当前时刻的单元状态向量?

A、输入门、遗忘门

B、任意门、输入门

C、输出门、任意门

D、遗忘门、任意门

答案:A

解析:LSTM单元中引入了哪些门来更新当前时刻的单元状态向量?

84.下列神经网络特点描述错误的是()

A、适应性

B、由简单单元组成

C、广泛并行互连的网络

D、线性特性

答案:D

85.循环神经网络中,假设输入是一个32*32*3的图像,3表示RGB

三通道,卷积核的结构是5*5*3,共6个不同的卷积核,一个卷积核

产生一个featuremap,则输出的featuremap矩阵的结构是()。

A、27*27*3

B、28*28*3

C、27*27*6

D、28*28*6

答案:D

解析:循环神经网络中,假设输入是一个32*32*3的图像,3表示RGB

三通道,卷积核的结构是5*5*3,共6个不同的卷积核,一个卷积核

产生一个featuremap,则输出的featuremap矩阵的结构是28*28*6。

86.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中

Lasso是用来拟合什么样的线性模型的?

A、稀疏数据

B、稀疏系数

C、稀疏标签

答案:B

87.如果问题存在最优解,则下面几种搜索算法中,哪一个必然可以

得到该最优解

A、广度优先搜索

B、深度优先搜索

C、有界深度优先搜索

D、启发式搜索

答案:A

解析:广度优先搜索搜索的范围最广

88.在强化学习过程中,()表示随机地采取某个动作,以便于尝试各种

结果;()表示采取当前认为最优的动作,以便于进一步优化评估当前

认为最优的动作的值。

A、探索

B、开发

C、开发

D、探索

E、探索

答案:A

89.对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,

而是都设成0,下面哪个叙述是正确的?

A、其他选项都不对

B、没啥问题,神经网络会正常开始训练

C、神经网络可以训练,但是所有的神经元最后都会变成识别同样的

东西

D、神经网络不会开始训练,因为没有梯度改变

答案:C

90.下列哪些不是〃子集搜索〃中的搜索方式(一)

A、单向搜索

B、双向搜索

C、前向搜索

D、后向搜索

答案:A

91.LARS属于哪种特征选择方法(一)

A、包裹式

B、启发式

C、嵌入式

D、过滤式

答案:C

92.生成式方法是直接基于()的方法?

A、生成式学习

B、生成式场景

C、生成式数据

D、生成式模型

答案:D

93.下面哪个叙述是对的?Dropout对一个神经元随机屏蔽输入权重

Dropconnect对一个神经元随机屏蔽输入和输出权重

A、1是对的,2是错的

B、都是对的

C、1是错的,2是对的

D、都是错的

答案:D

94.机器学习中做特征选择时,下面方法或信息不一定有用的是

A、卡方检验

B、信息增益

C、数据采样

D、期望交叉燃

答案:C

95.下列关于特征选择的说法错误的是(一)

A、可以提高特征关联性

B、可以减轻维数灾难问题

C、可以降低学习任务的难度

D、特征选择和降维具有相似的动机

答案:A

96.全局梯度下降算法、随机梯度下降算法和批量梯度下降算法均属

于梯度下降算法,以下关于其有优缺点说法错误的是:

A、全局梯度算法可以找到损失函数的最小值

B、批量梯度算法可以解决局部最小值问题

C、随机梯度算法可以找到损失函数的最小值

D、全局梯度算法收敛过程比较耗时

答案:C

97.下面的问题,属于分类问题的是;

A、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工在接下来一段时间内的工资涨幅

B、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工下一季度的绩效考核分数

C、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工是否可能会在接下来的一段时间内离职

D、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工下一季度的销售额

答案:C

98.关于精度与错误率的说法中错误的是()。

A、精度与错误率的和为1

B、精度与错误率都可以反映模型的好坏

C、精度与错误率都可以用概率密度函数表示

D、精度是评价模型的唯一标准

答案:D

解析:精度是不是评价模型的唯一标准

99.如果问题存在最优解,则下面几种搜索算法中,广度优先搜索必

然可以得到该最优解,O可以认为是〃智能程度相对比较高〃的算法。

A、无界深度优先搜索

B、深度优先搜索

C、有界深度优先搜索

D、启发式搜索

答案:D

100.下列哪个函数不可以做非线性激活函数?()

A、y=tanh(x)

B、y=sin(x)

C、y=max(x,0)

D、y=2x

答案:D

101.Softmax算法中温度趋近于0时Softmax将趋于(

A、仅探索

B、仅利用

C、全探索

D、全利用

答案:B

102.闵可夫斯基距离表示为曼哈顿距离时,p为()。

A、1

B、2

C、3

D、4

答案:A

解析:闵可夫斯基距离定义为:该距离最常用的P是2和1,前者是

欧几里得距离),后者是曼哈顿距离。

103.下面的问题,哪一个属于分类问题的是()

A、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工下一季度的销售额

B、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工下一季度的绩效考核分数

C、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工在接下来一段时间内的工资涨幅

D、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等

数据,预测员工是否可能会在接下来的一段时间内离职

答案:D

104.Relief属于哪种特征选择方法()

A、包裹式

B、启发式

C、嵌入式

D、过滤式

答案:D

105.哪种聚类方法采用概率模型来表达聚类()

A、K-means

B、LVQ

C、DBSCAN

D、高斯混合聚类

答案:D

106.faster-rcnn回归分支采用()loss

A、LI

B、L2

C、SmoothLl

D、nan

答案:C

107.在一个神经网络中,知道每一个神经元的权重和偏差是最重要的

一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,

但怎么获知每个神经的权重和偏移呢?

A、搜索每个可能的权重和偏差组合,直到得到最佳值

B、赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重

C、随机赋值,听天由命

D、以上都不正确的

答案:B

108.卷积神经网络中的局部连接是指:在进行图像识别的时候,不需

要对整个图像进行处理,只需要关注图像中某些()的区域。

A、一般

B、特殊

C、连续

D、重点

答案:B

109.下列人工神经网络属于反馈网络的是()

A、Hopfield网

B、BP网络

C、多层感知器

D、LVQ网络

答案:A

解析:$BP网络、多层感知器、LVQ网络属于前馈网络

110.下列关于K-Means聚类说法错误的是()

A、聚类的簇个数会由模型自动给出

B、可以使用多组随机的初始中心点进行计算

C、聚类前应当进行维度分析

D、聚类前应当进行数据标准化

答案:A

解析:聚类的簇个数由人为确定。

111.LSTM是一种什么网络?

A、卷积神经网

B、前馈神经网

C、循环神经网

D、李生网络

答案:C

解析:LSTM是一种循环神经网络

H2.在经典的卷积神经网络模型中,Softmax函数是跟在什么隐藏层

后面的?

A、卷积层

B、池化层

C、全连接层

D、以上都可以

答案:C

113.回归分析中定义的()

A、解释变量和被解释变量都是随机变量

B、解释变量为非随机变量,被解释变量为随机变量

C、解释变量和被解释变量都为非随机变量

D、解释变量为随机变量,被解释变量为非随机变量

答案:B

114.如果强行限制输出层的分布是标准化的,可能会导致某些特征模

式的丢失,所以在标准化之后,BatchNorm会紧接着对数据做缩放和

O

A、平移

B、删除

C、移动

D、收敛

答案:A

解析:如果强行限制输出层的分布是标准化的,可能会导致某些特征

模式的丢失,所以在标准化之后,BatchNorm会紧接着对数据做缩放

和平移

115.关于MNIST,下列说法错误的是()。

A、是著名的手写体数字识别数据集

B、有训练集和测试集两部分

C、训练集类似人学习中使用的各种考试试卷

D、测试集大约包含10000个样本和标签

答案:C

116.Relu在零点不可导,那么在反向传播中怎么处理()

A、设为0

B、设为无穷大

C、不定义

D、设为任意值

答案:A

解析:Relu在零点不可导,那么在反向传播中设为

117.神经网络由许多神经元(Neuron)组成,每个神经元接受一个输

入,对输入进行处理后给出一个输出。请问下列关于神经元的描述中,

哪一项是正确的?

A、每个神经元可以有一个输入和一个输出

B、每个神经元可以有多个输入和一个输出

C、每个神经元可以有多个输入和多个输出

D、上述都正确

答案:D

解析:每个神经元可以有一个或多个输入,和一个或多个输出。如图

所示的神经网络结构中,隐藏层的每一个神经元都是多输入多输出。

若将输出层改为一个神经元,则隐藏层每个神经元都是一个输出;若

将输入层改为一个神经元,则隐藏层每个神经元都是一个输入。

118.神经网络中Dropout的作用()

A、防止过拟合

B、减小误差

C、增加网络复杂度

答案:A

解析:dropout是指在深度学习网络的训练过程中,对于神经网络单

元,按照一定的概率将其暂时从网络中丢弃。

119.人工神经网络与生物神经网络的关系:

A、完全拷贝

B、一点点关系都没有

C、人工神经网络受生物神经网络启发

D、同一事物的两个名称

答案:C

解析:人工神经网络受生物神经网络启发

120.模型有效的基本条件是能够()已知的样本

A、结合

B、拟合

C、联合

D、聚集

答案:B

解析:模型有效的基本条件是能够拟合已知的样本

121.下列选项中,哪个不是关键词提取常用的算法O

A、TF-IDF

B、TextRank

C、SSA

D、LDA

答案:C

解析:SSA(SalpSwarmAlgorithm)是一种元启发式算法

122.如果在大型数据集上训练决策树。为了花费更少的时间来训练这

个模型,下列哪种做法是正确的?

A、增加树的深度

B、增加学习率

C、减小树的深度

D、减少树的数量

答案:C

123.支持向量机(SVM)中的代价参数C表示什么?()

A、交叉验证的次数

B、用到的核函数

C、在分类准确性和模型复杂度之间的权衡

D、以上都不对

答案:C

124.在深度学习网络中,反向传播算法用于寻求最优参数,在反向传

播算法中使用的什么法则进行逐层求导的?

A、链式法则

B、累加法则

C、对等法则

D、归一法则

答案:A

二.多项选择题

125.数据挖掘的挖掘方法包括:()()

A、聚类分析

B、回归分析

C、神经网络

D、决策树算法

答案:ABCD

126.下面哪些是基于核的机器学习算法()

A、最大期望算法

B、径向基核函数

C、线性判别分析法

D、支持向量机

答案:BCD

127.支持向量机的求解通常是借助于凸优化技术,针对线性核SVM来

说,主要的求解提升效率方法为(一)。

A、割平面法

B、随机梯度下降

C、坐标下降法

D、快速采样法

答案:ABC

128.校验数据有效性

A、读入数据

B、拆分样本集合

C、训练样本集乱序

D、生成批次数据

答案:ABCD

129.常用的机器学习算法,可使用哪些开发包()

A、sklearn

B、xgboost

C、lightgbm

D、numpy

答案:ABC

130.深度学习网络架构中,存在的主要问题难点有

A、数据精度设置

B、每层卷积核多少设置

C、网络层数选取

D、激活函数选取

答案:BCD

131.EM算法每次迭代包括哪些步骤?

A、求期望

B、求极大值

C、求标准差

D、求方差

答案:AB

解析:EM算法每次迭代包括求期望、求极大值

132.与浅层神经网络相比,深度学习的不同在于()和()。

A、强调了模型结构的深度

B、明确了特征学习的重要性

C、所需训练集数据较少

D、数据集没有局部相关性

答案:AB

133.哪些技术是RCNN采用而FasterRCNN没有用?()

A、SVM分类

B、使用SelectiveSearch输出候选框

C、使用MLP进行分类与回归预测

D、使用ROIpooling

答案:AB

134.RCNN三大不足是()

A、SelectiveSearch质量不好

B、每个候选框都需要cnn计算特征计算量大

C、svm没有联合训练,训练时间增长

D、模型效果优于faster-rcnn

答案:ABC

135.汉语的演化史表明,量词的真实功用可能与()没有任何关系

A、隐喻机制

B、个体化机制

C、单复数区分

D、补足音素

答案:BC

136.不确定性类型按性质可分哪些?

A、随机性

B、模糊性

C、不完全性

D、不一致性

答案:ABCD

137.聚类试图将数据集中的样本划分为若干个通常是的

子集,每个子集称为一个〃簇〃,每个簇对应一定的概念(如无籽瓜、

浅色瓜等),这些概念对聚类算法是的,聚类过程仅能自

动形成簇结构,簇对应的概念含义由使用者来把握和命名。

A、相交

B、不相交

C、事先已知

D、事先未知

答案:BD

138.BERT模型的主要创新点都在pre-train方法上,即用了()和

()两种方法分别捕捉词语和句子级别的representation。

A、MaskedLM

B、MaskedML

C、NextSentencePrediction

D、PreSentencePrediction

答案:AC

139.Relu激活函数的缺点?

A、由于负数部分恒为0,会导致一些神经元无法激活

B、输出不是以0为中心

C、解决了梯度消失、爆炸的问题

D、计算方便,计算速度快,求导方便

答案:ABCD

140.DSSM经典模型的优点有()

A、解决了字典爆炸问题,降低了计算复杂度

B、省去了人工特征工程

C、采用有监督训练,精度较高

D、效果不可控

答案:ABC

141.图像分类是根据图像的语义信息对不同类别图像进行区分,是计

算机视觉的核心,是O、人脸识别等其他高层次视觉任务的基础

A、物体检测

B、图像分割

C、物体跟踪

D、行为分析

答案:ABCD

142.关于支持向量机,哪项说法正确?

A、支持向量机可以用于处理二分类及多分类问题

B、支持向量机只能用于线性可分的分类问题

C、支持向量机可用于回归问题

D、核函数的选择对支持向量机的性能影响较大

答案:ACD

解析:支持相量机不仅用于线性可分的分类问题,也可用于线性不可

分的情况。

143.以下哪些机器学习算法可以不对特征做归一化处理()

A、随机森林

B、逻辑回归

C、SVM

D、GBDT

答案:AD

144.机器学习的算法中,以下哪个不是无监督学习?

A、GMM

C、tanh

D、skip

答案:ABC

145.关于卷积神经网络池化层以下描述正确的是?

A、池化操作采用扫描窗口实现

B、池化层可以起到降维的作用

C、常用的池化方法有最大池化和平均池化

D、经过池化的特征图像变小了

答案:ABCD

146.哪些项属于集成学习?

A、Knn

B、Adaboost

C、随机森林XGBoost

D、XGBoost

答案:BCD

147.以下哪些不是常见的自然语言处理的网络结构。

A、LeNet

B、Bert

C、VGG

D、ResNet

答案:ACD

解析:ACD通常用于图像处理。

148.下面的Python开发包中,属于深度学习框架的有()

A、flask

B、Tensorflow

C、Keras

D、Mxnet

答案:BCD

149.模型压缩的主要方法有哪些?

A、模型剪枝

B、模型蒸储

C、模型参数量化

D、nan

答案:ABC

150.KNN是一种()o

A、勤奋学习模型

B、参数模型

C、懒惰学习模型

D、非参数模型

答案:BC

151.机器学习中评价指标有哪些()

A、Accuracy

B、Precision

C、Recall

D、Iou

答案:ABC

152.关于对数几率回归,以下说法正确的是O

A、对数几率回归是一种分类学习方法

B、对数几率回归无需事先假设数据分布

C、对数几率回归是可得到近似概率预测

D、对数几率回归任意阶可导的凸函数

答案:ABCD

153.DSSM模型总的来说可以分成三层结构,分别是()

A、输入层

B、表示层

C、匹配层

D、输出层

答案:ABC

154.需要循环迭代的算法有()。

A、k-means

B、线性回归

C、svm

D、逻辑回归

答案:ABD

155.卷积神经网络的核心思想是

A、局部感知

B、参数共享

C、全连接

答案:AB

解析:卷积神经网络相邻的两层只有部分节点相连,因此排除全连接。

卷积神经网络具有局部感知和参数共享两个特点,局部感知即卷积神

经网络的每个神经元只对图像的局部像素进行感知,然后在更高层将

这些局部的信息进行合并,从而得到图像的全部表征信息;权值共享

网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减

少了权值的数量。

156.以下哪些激活函数容易产生梯度消失问题?

A、ReLU

B、Softplus

C、Tanh

D、Sigmoid

答案:CD

157.Transformer由且仅由()和()组成。只要计算资源够,可以

通过堆叠多层Transformer来搭建复杂网络。

A、Self-Attenion

B、FeedForwardNeuralNetwork

C、FeedBackwardNeuralNetwork

D、Self-Action

答案:AB

158.分类问题的评估方法包括

A、正确率

B、精确率

C、召回率

D、均方误差

答案:ABC

159.决策树学习算法包括哪几个部分?

A、特征选择

B、树的生成

C、分类决策规则

D、树的剪枝

答案:ABD

解析:k近邻算法的三要素:距离度量,k值选择,分类决策规则

160.卷积神经网络结构包括()、()、()。

A、输入层

B、卷积层

C、隐含层

D、输出层

答案:ACD

161.matplotlib中,subplots_adjust方法中的()和()参数分别

控制图片的宽度和高度百分比,以用作子图间的间距。

A、wspace

B、hspace

C、vspace

D、Ispace

答案:AB

162.下列哪些开发包,已包含一些常用的机器学习算法?()

A、sklearn

B、xgboost

C、lightgbm

D、numpy

答案:ABC

163.CNN常见的数据集有()

A、PASCALVOC

B、MNIST

C、ImageNet

D、CIFAR-10

答案:ABCD

164.关于卷积神经网络池化成层以下描述正确的是?

A、经过池化的特征图像变小了

B、池化操作采用扫描窗口实现

C、池化层可以起到降维的作用

D、常用的池化方法有最大池化和平均池化

答案:ABCD

165.下列有监督学习算法中可解决回归问题的算法包括

A、线性回归

B、逻辑回归

C、神经网络

D、随机森林

答案:ACD

解析:逻辑回归无法解决回归问题

166.下列那些方式可处理神经网络中的过拟合问题?

A、L1/L2正则化

B、dropout

C、dataargumentation

D、earlystop

答案:ABCD

167.属于卷积神经网络(CNN)的有O。

A、VGGNet

B、ResNet

C、AlexNet

D、GoogleNet

答案:ABCD

168.可以用随机梯度下降法求解参数的模型分别有()

A、线性回归

B、卷积神经网络

C、循环神经网络

D、LSTM

答案:ABCD

169.Embedding编码有哪些特点?

A、特征稠密

B、特征稀疏

C、能够表征词与词之间的相互关系(相似度计算)

D、泛化性更好,支持语义运算sim

答案:ACD

170.关于神经网络模型的说法,哪些是不正确的O

A、神经网络的工作原理与生物体内的神经元是完全一样的

B、训练神经网络的实质是对复杂函数求参数最优解的过程

C、增加神经网络的层数和增加每层的神经元个数的效果是一样的

D、神经网络只能进行二分类,不能进行更多种类的分类了

答案:ACD

171.以下算法中可以用于图像处理中去噪的是()。

A、中值滤波

B、均值滤波

C、最小值滤波

D、最大值滤波

答案:ABCD

172.下列可用于隐马尔可夫预测的算法是()。

A、维特比算法

B、Baum-Welch算法

C、前向-后向算法

D、拟牛顿法

答案:ABCD

解析:A是教材原文;B是EM算法,可用于求解隐马尔可夫模型,C

和D用于求解条件随机场,而隐马尔可夫模型可以写成条件随机场的

形式。

173.SVM中常用的核函数包括哪些?

A、高斯核函数

B、多项式核函数

C、Sigmiod核函数

D、线性核函数

答案:ABCD

解析:SVM常用的核函数包括:线性核函数、多项式核函数、高斯核

函数、Sigmiod核函数

174.常见的MRC任务可以分为四种类型:()。

A、完形填空

B、多项选择

C、片段抽取

D、自由回答

答案:ABCD

175.在自然语言处理任务中,首先需要考虑字、词如何在计算机中表

示。通常,有两种表示方式:()表示和()表示

A、on-hot

B、one-hot

C、分布式

D、集中式

答案:BC

176.非线性核SVM研究重点是设计快速近似算法,包括O

A、随机分布

B、随机傅里叶特征

C、采样

D、低秩逼近

答案:BCD

177.领域型知识图谱的构建过程主要包含哪几个部分

A、知识融合

B、本体构建

C、知识抽取

D、知识存储

答案:ABCD

178.下列关于DSSM经典模型的结构的说法不正确的是()

A、线性

B、双塔

C、三塔

D、非线性

答案:ACD

179.当发现机器学习模型过拟合时,以下操作正确的是:

A、降低特征维度

B、增加样本数量

C、添加正则项

D、增加特征维度

答案:ABC

180.那种机器学习算法不需要对数据进行标注

A、有监督学习

B、无监督学习

C、强化学习

D、深度学习

答案:BC

181.数据真实性具备哪两种特质?

A、准确性

B、不确定性

C、可信赖度

D、杂乱性

答案:AC

182.考虑到RNN(或者LSTM,GRU等)类模型只能从()依次计算或者

从()依次计算,带来了一定的局限性

A、前向后

B、后向前

C、左向右

D、右向左

答案:CD

183.深度学习中常用的损失函数有?

A、L1损失函数

B、均方误差损失函数

C、交叉燧误差损失函数

D、自下降损失函数

答案:BC

三.判断题

184.x,y=y,x在Python中是非法的.

A、正确

B、错误

答案:B

解析:x,y=y,x在Python中是合法的.

185.经典的全连接神经网络中,隐含层可以增加网络深度和复杂度

A、正确

B、错误

答案:A

186.在处理序列数据时,较容易出现梯度消失现象的模型是RNNo

A、正确

B、错误

答案:A

解析:RNN有短期记忆问题,无法处理很长的输入序列,训练RNN需

要投入极大的成本

187.普通的循环神经网络会遇到梯度爆炸和梯度消失的问题,所以现

在在自然语言处理领域,一般会使用LSTM网络模型。

A、正确

B、错误

答案:A

解析:长短时记忆网络(LongShortTermMemory,简称LSTM)模型,

本质上是一■种特定形式的循环神经网络(RecurrentNeuralNetwork,

简称RNN)。LSTM模型在RNN模型的基础上通过增加门限(Gates)来

解决RNN短期记忆的问题,使得循环神经网络能够真正有效地利用长

距离的时序信息。

188.Inception块的设计思想:多通路(multi-path)设计形式,使用

不同大小的卷积核提取图像特征,并附加最大池化操作,将这四个输

出层沿着通道这一维度进行拼接。最终输出特征图将包含不同大小的

卷积核提取到的特征

A、正确

B、错误

答案:A

189.Gini指数越大表示集合中被选中的样本被分错的概率越小,也

就是说集合的纯度越高。

A、正确

B、错误

答案:B

解析:注意:Gini指数越小表示集合中被选中的样本被分错的概率

越小,也就是说集合的纯度越高,反之,集合越不纯。

190.对于skip-gram模型,根据上下文预测中心词,对于k个输入一

般取加权平均的方式处理。

A、正确

B、错误

答案:B

191.目标检测位置的准确度可以用IOU值评估,IOU的计算方法是求

检测结果和真实标注的并集和交集的比值。

A、正确

B、错误

答案:B

192.在神经网络里,将经过反向传播之后,梯度值衰减到接近于零的

现象称作梯度消失现象

A、正确

B、错误

答案:A

193.卷积神经网络的输入层不可以处理多维数据

A、正确

B、错误

答案:B

194.如果增加多层感知机(MultilayerPerceptron)的隐层层数,测

试集的分类错会减小。

A、正确

B、错误

答案:B

195.误差逆传播算法(BP)仅可用于多层前馈神经网络的学习算法

A、正确

B、错误

答案:B

解析:BP算法不仅可用于多层前馈神经网络,还可用于其他类型的

神经网络.

196.卷积神经网络是含有卷积层的神经网络,二维卷积层有高和宽两

个空间维度,常用来处理文本数据。

A、正确

B、错误

答案:B

197.resnet可以很好解决梯度消失问题。

A、正确

B、错误

答案:A

解析:ResNet的一个重要设计原则是:当featuremap大小降低一半

时,featuremap的数量增加一倍,这保持了网络层的复杂度。从图5

中可以看到,ResNet相比普通网络每两层间增加了短路机制,这就

形成了残差学习,

198.VGG的主要思想是通过重复使用简单的基础块来构建深度模型为

深度神经网络的构建提供了方向

A、正确

B、错误

答案:A

199.随机森林的收敛性与Bagging相似,随机森林的起始性能往往相

对较好,随着个体学习器数目的增加,随机森林通常会收敛到更低的

泛化误差。

A、正确

B、错误

答案:B

解析:随机森林的起始性能往往相对较差,特别是在集成中只包含一

个基学习器时。这很容易理解,因为通过引入属性扰动,随机森林中

个体学习器的性能往往有所降低。然而,随着个体学习器数目的增加,

随机森

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论