版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
试卷科目:人工智能机器学习技术练习人工智能机器学习技术练习(习题卷27)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能机器学习技术练习第1部分:单项选择题,共58题,每题只有一个正确答案,多选或少选均不得分。[单选题]1.聚类属于()A)监督学习B)无监督学习C)强化学习答案:B解析:[单选题]2.SVM中要寻找和计算的MMH是指()A)最大边缘超平面B)超平面C)最小边缘超平面答案:A解析:[单选题]3.假如使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其他特征保持不变。然后重新训练测试。则下列说法正确的是()。A)训练样本准确率一定会降低B)训练样本准确率一定增加或保持不变C)测试样本准确率一定会降低D)测试样本准确率一定增加或保持不变答案:B解析:在模型中增加更多特征一般会增加训练样本的准确率,减小偏差。但测试样本准确率不一定增加,除非增加的特征是有效特征。[单选题]4.以下说法中正确的是()。A)Python3.x完全兼容Python2.x。B)在Windows平台上编写的Python程序无法在Unix平台运行。C)不可以在同一台计算机上安装多个Python版本。D)Python是跨平台的答案:D解析:[单选题]5.建立一个模型,通过这个模型根据已知的变量值来预测其他某个变量值属于数据挖掘的哪一类任务?A)根据内容检索B)建模描述C)预测建模D)寻找模式和规则答案:C解析:[单选题]6.有关机器学习分类算法的Precision和Recall,以下定义中正确的是(假定tp=truepositive,tn=truenegative,fp=falsepositive,fn=Falsenegative)()A)Precision=tp/(tp+fp),Recall=tp/(tp+fn)B)Precision=tp/(tn+fp),Recall=tp/(tp+fn)C)Precision=tp/(tn+fn),Recall=tp/(tp+fp)D)Precision=tp/(tp+fp),Recall=tp/(tn+fn)答案:A解析:[单选题]7.以下说法正确的是()A)在使用KNN算法时,k通常取奇数B)KNN是有监督学习算法C)在使用KNN算法时,k取值越大,模型越容易过拟合D)KNN和K-means都是无监督学习算法答案:B解析:在使用KNN算法时,k取值越大,模型越容易欠拟合,KNIN是有监督的机器学习算法。[单选题]8.以下关于Sigmoid的特点说法错误的是()。A)Sigmoid函数计算量小B)趋向无穷的地方,函数变化很小,容易出现梯度消失的现象C)可以将函数值的范围压缩到[0,1]D)函数处处连续答案:A解析:[单选题]9.()聚类方法采用概率模型来表达聚类。A)K-meansB)LVQC)DBSCAND)高斯混合聚类答案:D解析:高斯混合聚类(MixtureofGaussian)采用概率模型来表达聚类。[单选题]10.交叉验证如果设置K=5,会训练几次?()A)1B)3C)5D)6答案:C解析:[单选题]11.下列是机器学习中降维任务的准确描述的为A)依据某个准则对项目进行排序B)将其映射到低维空间来简化输入C)预测每个项目的实际值D)对数据对象进行分组答案:B解析:[单选题]12.在LogisticRegression中,如果同时加入L1和L2范数,会产生什么效果()A)可以做特征选择,并在一定程度上防止过拟合B)能解决维度灾难问题C)能加快计算速度D)可以获得更准确的结果答案:A解析:[单选题]13.常用的图像分割方法是把图像(__)分成不同等级。A)颜色B)灰度C)大小D)亮度信息答案:B解析:[单选题]14.线性SVM和一般线性分类器的区别主要是()A)是否进行了空间映射B)是否确保间隔最大化C)是否能处理线性不可分问题D)训练误差通常较低答案:A解析:[单选题]15.聚类算法属于(__)。A)半监督学习B)有监督学习C)无监督学习D)一种分类方法答案:C解析:[单选题]16.在抽样方法中,当合适的样本容量很难确定时,可以使用的抽样方法是:A)有放回的简单随机抽样B)无放回的简单随机抽样C)分层抽样D)渐进抽样答案:D解析:[单选题]17.一个包里有5个黑球,10个红球和17个白球。每次可以从中取两个球出来,放置在外面。那么至少取________次以后,一定出现过取出一对颜色一样的球。A)16B)9C)4D)1答案:A解析:[单选题]18.借助对数形式的变换曲线可以达到压缩图像灰度动态范围的目的,这是因为?A)变换前的灰度值范围比变换后的灰度值范围大;B)变换后仅取了一部分灰度值的范围;C)变换前后灰度值的范围不同;D)对数形式的变换曲线是单增的曲线;答案:B解析:[单选题]19.特征工程的目的是()。A)找到最合适的算法B)得到最好的输入数据C)减低模型复杂度D)加快计算速度答案:B解析:特征工程的目的是筛选出更好的特征,获取更好的训练数据。[单选题]20.图像数据分析的常用方法不包括()A)图像变换B)图像编码和压缩C)图像增强和复原D)图像数据采集答案:D解析:[单选题]21.(__)是事先将训练样本存储下来,然后每当遇到一个新增样本,学习系统分析此样本与以前存储样本之间的关系,并据此把一个目标函数值赋给新增样本。A)基于实例学习B)遗传算法C)人工神经网络D)归纳学习答案:A解析:[单选题]22.感知机描述错误的是:-P99A)感知机根据正确的程度进行权重调整;B)输入层接收外界输入信号传递给输出层;C)输出层是M-P神经元;D)感知机能容易实现逻辑与、或、非运算;答案:A解析:[单选题]23.关于广播变量,下面哪个是错误的()。A)任何函数调用B)是只读的C)存储在各个节点D)存储在磁盘或HDFS答案:D解析:[单选题]24.下面关于?领域务实知识?相关描述不正确的有(__)。A)?领域务实知识?是对数据科学家的特殊要求B)领域务实知识具有显著的面向领域性C)领域务实知识是数据科学的理论基础D)在组建团队时,不需重视领域专家的参与答案:D解析:[单选题]25.在一个神经网络中,确定每个神经元的权重和偏差很重要。用()方法可以确定神经元的权重和偏差,从而对函数进行拟合。A)随机赋值,祈祷它们是正确的B)搜索所有权重和偏差的组合,直到得到最佳值C)赋予一个初始值,通过检杳与真值的误差,逐步迭代更新权重D)以上都不正确答案:C解析:[单选题]26.IDF采用了IWF的几次平方?()A)一次B)二次C)三次D)四次答案:A解析:[单选题]27.下列哪项具体任务不属于情感分析?()A)情感分类B)观点抽取C)观点问答D)段落匹配答案:D解析:[单选题]28.(__)中基学习器的多样性不仅来自样本扰动,还来自属性扰动。A)AdaBoostB)RFC)BaggingD)传统决策树答案:B解析:[单选题]29.如右图所示有向图,节点G的马尔可夫毯为()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:D解析:[单选题]30.若学习如何种瓜,在种瓜过程中不断摸索,从而总结出好的种瓜策略。这个过程抽象出来,就是(__)。A)机器学习B)深度学习C)强化学习D)有监督学习答案:C解析:[单选题]31.下列函数中,用于沿着轴方向堆叠Pandas对象的是()。A)concat()B)join()C)merge()D)combine_first()答案:A解析:[单选题]32.LSTM调整参数时信息的传播方向是()。A)后向传播B)前向传播C)双向传播D)跳跃传播答案:A解析:[单选题]33.下列有关神经网络的问题正确的有?1增加层数可能扩大测试误差2减少层数一定缩小测试误差3增加层数一定减少训练误差A)1B)1and3C)1and2D)2答案:A解析:一般情况增加层数能让模型在训练集和测试集中都表现出更好的效果,但有研究表明层数多的神经网络相对于层数较少的神经网络可能呈现更大的训练误差,所以问题不能下定论,答案应该选择A。[单选题]34.KL散度是根据什么构造的可分性判据()A)最小损失准则B)后验概率C)类概率密度D)几何距离答案:C解析:[单选题]35.Stage的Task的数量由什么决定()。A)PartitionB)JobC)StageD)TaskScheduler答案:A解析:[单选题]36.ResNet-50有多少个卷积层?()A)48B)49C)50D)51答案:B解析:[单选题]37.当训练样本近似线性可分时,通过(),学习一个()。A)硬间隔,最大化非线性支持向量机B)软间隔,最大化线性支持向量机C)硬间隔,最大化线性支持向量机D)软间隔,最大化非线性支持向量机答案:B解析:[单选题]38.在DIKW金字塔中属于未来的是()。A)信息B)数据C)知识D)智慧答案:D解析:[单选题]39.假负率是指(__)。A)正样本预测结果数/正样本实际数B)被预测为负的正样本结果数/正样本实际数C)被预测为正的负样本结果数/负样本实际数D)负样本预测结果数/负样本实际数答案:B解析:[单选题]40.下面关于奇异值分解(SVD)的描述中错误的是()。A)奇异值分解就是把一个线性变换分解成两个线性变换B)奇异值往往对应着矩阵中隐含的重要信息,且重要性和奇异值大小正相关C)SVD是对PCA的改进,其计算成本更低,相同之处是两者的目标都是为了降维D)奇异值不仅可以应用在数据压缩上,还可以对图像去噪答案:A解析:[单选题]41.下列关于特征编码的叙述中,不正确的是()A)特征编码是将非数值型特征转换成数值型特征的方法B)数字编码与特征的排序无关C)One-Hot编码中,原始特征有n种取值,转换后就会产生n列新特征D)哑变量编码解决了One-Hot编码中存在线性关系的问题答案:B解析:[单选题]42.若A为假命题,B为真命题,以下命题中假命题有()A)¬AB)AC)AD)B答案:B解析:[单选题]43.关于梯度下降算法,以下说法中不正确是:A)在训练集非常大时,批量梯度下降算法会运行得极慢;随机梯度下降和小批量梯度下降可以解决该问题B)随机梯度下降运行速度快,内存开销很小,可以支持使用海量数据集进行训练C)当损失函数很不规则时(存在多个局部最小值)时,相对批量梯度下降算法,随机梯度下降算法更有可能跳过局部最小值,最终接近全局最小值D)梯度下降算法一定能收敛于全局最小值答案:D解析:[单选题]44.tf.nn.rnn_cell.BasicLSTMCell(n_hidden,forget_bias=1.0,state_is_tuple=True)函数中的参数forget_bias的含义是()。A)神经元个数B)遗忘系数C)返回状态D)神经元类型答案:B解析:[单选题]45.以下哪一项在神经网络中引入了非线性()A)DropoutB)ReLUC)卷积函数D)随机梯度下降答案:B解析:[单选题]46.n!后面有多少个0,6!=1*2*3*4*5*6=720.720后面有1个0,n=10000,求n!。A)2498B)2499C)2450D)2451答案:B解析:[单选题]47.如果线性回归模型中的随机误差存在异方差性,那么参数的OLS估计量是()。A)无偏的,有效的B)无偏的,非有效的C)有偏的,有效的D)有偏的,非有效的答案:B解析:OLS即普通最小二乘法,由高斯-马尔可夫定理可知,在给定经典线性回归的假定下,最小二乘估计量是具有最小方差的线性无偏估计量。根据证明过程可知,随机误差中存在异方差性不会影响其无偏性,而有效性证明中涉及同方差性,即异方差性会影响参数OLS估计量的有效性,得到的参数估计量不是有效估计量。[单选题]48.以下关于集成的描述,错误的是__。A)集成学习通过构建并结合多个学习器来完成学习任务,也称为多分类器系统、基于委员会的学习等B)集成中只包含同种类型的个体学习器,如?决策树集成?,?神经网络集成?等,这样的集成是?同质?的C)集成中同时包含多种类型的个体学习器,这样的集成是?异质?的,异质集成的个体学习器一般称为基学习器D)随着集成中个体分类器(相互独立)数目T的增大,集成的错误率将指数级下降,最终趋向于零答案:C解析:[单选题]49.()是利用不同模型的相加,构成一个更好的模型,求取模型一般都采用序列化方法,后面的模型依据前面的模型A)baggingB)boostingC)弱学习算法D)以上都不对答案:B解析:[单选题]50.选择Logistic回归中的One-Vs-All方法中的哪个选项是真实的。A)我们需要在n类分类问题中适合n个模型B)我们需要适合n-1个模型来分类为n个类C)我们需要只适合1个模型来分类为n个类D)这些都没有答案:A解析:如果存在n个类,那么n个单独的逻辑回归必须与之相适应,其中每个类的概率由剩余类的概率之和确定。[单选题]51.回归模型中存在多重共线性,你如何解决这个问题?1/去除这两个共线性变量2/我们可以先去除一个共线性变量3/计算VIF(方差膨胀因子),采取相应措施4/为了避免损失信息,我们可以使用一些正则化方法,比如,岭回归和lasso回归.以下哪些是对的:A)1B)2C)2和3D)2,3和4答案:D解析:解决多重公线性,可以使用相关矩阵去去除相关性高于75%的变量(有主观成分).也可以VIF,如果VIF值<=4说明相关性不是很高,VIF值>=10说明相关性较高.我们也可以用岭回归和lasso回归的带有惩罚正则项的方法.我们也可以在一些变量上加随机噪声,使得变量之间变得不同,但是这个方法要小心使用,可能会影响预测效果.[单选题]52.正是由于BP神经网络的强大的表示能力,它经常遭遇(__),其训练误差持续降低,但测试误差却可能上升。A)欠拟合B)误差过大C)误差过小D)过拟合答案:D解析:[单选题]53.聚类分析是数据挖掘的一种重要技术,以下哪个算法不属于聚类算法?()A)K-MeansB)DBSCANC)SVMD)EM答案:C解析:[单选题]54.下列哪一种偏移,是我们在最小二乘直线拟合的情况下使用的?图中横坐标是输入X,纵坐标是输出Y。A)垂直偏移(verticaloffsets)B)垂向偏移(perpendicularoffsets)C)两种偏移都可以D)以上说法都不对答案:A解析:线性回归模型计算损失函数,例如均方差损失函数时,使用的都是verticaloffsets。perpendicularoffsets一般用于主成分分析(PCA)中。[单选题]55.决策树模型的规模应当是()。A)越复杂越好B)越简单越好C)适当限制其复杂程度D)尽可能利用所有特征答案:C解析:决策树模型的规模复杂可能产生过拟合,因此并非越复杂做好,应适当限制其复杂程度。[单选题]56.请阅读下面的程序:FrompandasimportSeriesImportpandasaspdFromnumpyimportNaNSeries_obj=Series([2,1,NaN])Print(pd.isnull(series_obj))执行上述程序后,最终输出的结果为()。A)0False1False2TrueB)0True1True2FalseC)0False1False2FalseD)0True1True2True答案:A解析:[单选题]57.以下关于降维的表述,错误的是()。A)降维过程中可以保留原始数据的所有信息B)多维缩放的目标是要保证降维后样本之间的距离不变C)线性降维方法目标是要保证降维到的超平面能更好地表示原始数据D)核线性降维方法目标是通过核函数和核方法来避免采样空间投影到高维空间再降维之后的低维结构丢失答案:A解析:降维过程中尽量保留原始数据的信息,但不能保留原始数据的全部信息。[单选题]58.我们想在大数据集上训练决策树,为了使用较少时间,我们可以:A)增加树的深度B)增加学习率(learningrate)C)减少树的深度D)减少树的数量答案:C解析:增加树的深度,会导致所有节点不断分裂,直到叶子节点是纯的为止.所以,增加深度,会延长训练时间.决策树没有学习率参数可以调.(不像集成学习和其它有步长的学习方法)决策树只有一棵树,不是随机森林.第2部分:多项选择题,共17题,每题至少两个正确答案,多选或少选均不得分。[多选题]59.感知机描述正确的是:-P99A)感知机输入层和输出层都进行激活函数处理;B)感知机可以用来解决非线性问题;C)感知机与、或、非问题都是线性可分的问题;D)感知机只有输出层进行激活函数处理;答案:CD解析:[多选题]60.下面属于数据产品开发的特征有(__)。A)以数据为中心B)多样性C)层次性D)增值性答案:ABCD解析:[多选题]61.下列哪项是关键词归一化技术?A)词干提取(Stemming)B)词性标注(PartofSpeech)C)命名实体识别(NamedEntityRecognition)D)词形还原(Lemmatization)答案:AD解析:[多选题]62.下面哪些用循环神经网络处理效果比较好()A)语音识别B)自然语言处理C)图像识别D)人脸识别答案:AB解析:[多选题]63.用区域聚合法分割图像,要求(__)。A)各个点在平面上相邻接B)各个点是在平面上分散C)邻接点的特征相似D)点与点之间无关答案:AC解析:[多选题]64.信息熵是信息论中重要的信息度量,以下不正确的是()A)可度量不确定程度B)是运算中的商C)可度量信息量D)是向量的模答案:BD解析:[多选题]65.下面关于L1范式正则化描述正确的是(__)。A)压缩感知问题可以通过L1范数最小化问题求解B)L1范数正则化有助于降低过拟合风险C)采用L1范数时平方误差项等值线与正则化项等值线的交点常出现在坐标轴上D)L1范数正则化比L2范数正则化更有易于获得稀疏解答案:ABCD解析:[多选题]66.下面属于非线性模型的机器学习的方法()A)决策树B)PCAC)多层感知机D)单层感知机答案:AC解析:[多选题]67.专家系统的主要组成部分包括()A)知识库B)推理引擎C)用户接口D)自主学习系统答案:ABC解析:[多选题]68.决策树递归返回的条件为()。A)训练数据集使用完B)所有的类标签完全相同C)特征用完D)遇到丢失值答案:BC解析:决策树的生成是一个递归过程。在决策树基本算法中,有三种情形会导致递归返回:①结点包含的样本全属于同一类别,无须划分;②当前属性集为空,或是所有样本在所有属性上取值相同,无法划分;③当前结点包含的样本集合为空,不能划分。[多选题]69.下面哪些是基于核的机器学习算法?()A)ExpectationMaximizationB)RadialBasisFunctionC)LinearDiscrimimateAnalysisD)SupportVectorMachine答案:BCD解析:[多选题]70.贝叶斯网的推断描述正确的为A)马尔科夫链需很短的时间就能趋于平衡;B)马尔科夫链需很长的时间才能趋于平衡;C)吉布斯采样收敛速度慢;D)吉布斯采样收敛速度快;答案:BC解析:[多选题]71.分类模型的误差包括(___)。A)训练误差B)泛化误差C)再代入误差D)表现误差答案:ABC解析:[多选题]72.关于卷积神经网络以下说法正确的是()A)常见池化层有最大池化与平均池化B)卷积核不可以用来提取图片全局特性C)处理图片时,是以扫描窗口的方式对图像做卷积D)卷积神经网络可以包含卷积层,池化层和全连接层答案:ACD解析:[多选题]73.在机器学习中,如果一味的去提高训练数据的预测能力,所选模型的复杂度往往会很高,这种现象称为过拟合。所表现的就是模型训练时候的误差很小,但在测试的时候误差很大,对于产生这种现象以下说法正确的是:()A)样本数量太少B)样本数量过多C)模型太复杂D)模型太简单答案:AC解析:[多选题]74.(__)不属于集中趋势分析。A)数值平均数B)位置平均数C)离散系数D)正相关答案:CD解析:[多选题]75.让学习器不依赖外界交互、自动地利用未标记样本来提升学习性能的有哪些?A)监督学习B)半监督SVMC)半监督聚类D)直推学习答案:BCD解析:第3部分:判断题,共16题,请判断题目是否正确。[判断题]76.梯度下降算法是最常用也是最有效的神经网络的优化办法,完全可以满足不同类型的需求A)正确B)错误答案:错解析:[判断题]77.在初始数据量足够时,自助法比交叉验证法更为常用。A)正确B)错误答案:错解析:[判断题]78.深度学习在人工智能领域表现并不突出A)正确B)错误答案:错解析:[判断题]79.Pandas只有Series和DataFrame两种数据结构。A)正确B)错误答案:错解析:Pandas有Series、DataFrame、Panel三种数据结构[判断题]80.决策树分类器的假设空间VC维可以为无穷大A)正确B)错误答案:对解析:[判断题]81.逻辑回归是一种解决回归问题的算法A)正确B)错误答案:错解析:[判断题]82.单次使用留出法得到的结果往往稳定可靠。__A)正确B)错误答案:错解析:[判断题]83.集合中的元素没有特定顺序但可以重复。A)正确B)错误答案:错解析:[判断题]84.在距离度量中,最常⽤的是?闵可夫斯基距离?。当p=2时,闵可夫斯基距离就是欧式距离,当p=1时,闵可夫斯基距离就是曼哈顿距离。A)正确B)错误答案:对解析:[判断题]85.预剪枝决策树其训练时间开销比后剪枝决策树要大得多。__A)正确B)错误答案:错解析:[判断题]86.使用ID3构建的决策树有两点明显不足:实例各特征的取值必须是离散值,而不能是连续实数值;预测目标值只能为离散值
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 财政部货物类合同管理规定
- 钢琴启蒙老师年终总结
- 煤气检查和使用安全:预防火灾和中毒事故
- 《色彩心理学》课件
- 《船用卸扣》规范
- 进出口业务知识培训
- 抗蠕虫药相关行业投资规划报告范本
- 骨代谢异常的生物化学诊断课件
- 铁路安全警示教育室
- 防治结核病的内容讲解
- 项目目标成本测算书样表
- 小学课外阅读案例分析
- 家长会课件:小学四年级数学期中家长会课件
- 《煤矿重大危险源评估报告》
- 职业生涯规划概述课件
- 人教版六年级数学上册《全册》完整版课件
- 航空氦(HE)光泵磁力仪项目综合评估报告
- 九年级英语《Unit 6 When was it invented》说课稿
- 陶行知与乡村教育智慧树知到期末考试答案2024年
- 2024届高考英语复习语法填空课件
- 《蜀相》课件 统编版高中语文选择性必修下册
评论
0/150
提交评论