《机器学习-Python实践》试卷及答案 卷10_第1页
《机器学习-Python实践》试卷及答案 卷10_第2页
《机器学习-Python实践》试卷及答案 卷10_第3页
《机器学习-Python实践》试卷及答案 卷10_第4页
《机器学习-Python实践》试卷及答案 卷10_第5页
已阅读5页,还剩4页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1页,共1页一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、假设你正在做一个项目,它是一个二元分类问题。你在数据集上训练一个模型,并在验证数据集上得到混淆矩阵。基于上述混淆矩阵,下面哪个选项会给你正确的预测。()1精确度是~0.912错误分类率是~0.913假正率(Falsecorrectclassification)是~0.954真正率(Truepositiverate)是~0.95A1和3B2和4C1和4D2和32、对于下面的超参数来说,更高的值对于决策树算法更好吗?1用于拆分的样本量()2树深3树叶样本A1和2B2和3C1和3D1、2和3E无法分辨3、假如我们使用非线性可分的SVM目标函数作为最优化对象,我们怎么保证模型线性可分?()A设C=1B设C=0C设C=无穷大D以上都不对4、NaveBayes是一种特殊的Bayes分类器,特征变量是X,类别标签是C,它的一个假定是:()A.各类别的先验概率P(C)是相等的B.以0为均值,sqr(2)/2为标准差的正态分布C.特征变量X的各个维度是类别条件独立随机变量D.P(X|C)是高斯分布5、假定某同学使用NaiveBayesian(NB)分类模型时,不小心将训练数据的两个维度搞重复了,那么关于NB的说法中正确的是:()A.这个被重复的特征在模型中的决定作用会被加强B.模型效果相比无重复特征的情况下精确度会降低C.如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样。D.当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题6、统计模式分类问题中,当先验概率未知时,可以使用()A.最小最大损失准则B.最小误判概率准则C.最小损失准则D.N-P判决7、甲盒中有200个螺杆,其中有160个A型螺杆;乙盒中有240个螺母,其中有180个A型的。现从甲乙两盒中各任取一个,则能配成A型螺栓的概率为多少?()A.1/20B.15/16C.3/5D.19/208、关于激活函数功能表述正确的是?()A.信号强度大于阈值的向下一层传播B.信号强度小于阈值的向下一层传播C.信号强度始终不向下一层传播D.以上都不对9、激活函数的作用描述错误的是?()A.辅助信号传输的门控函数B.构建模型的非线性特性C.提升学习复杂模型的能力D.对与非线性没有帮助,可有可无10、如下那些函数没有梯度消失的问题?()A.ReLUB.sigmoidC.tanhD.softmax二、判断题(本大题共10小题,每题1分,共10分)1、如果一个经过训练的机器学习模型在测试集上达到100%的准确率, 这是否意味着该模型将在另外一个新的测试集上也能得到100%的准确率。 ()2、如果自变量X和因变量Y之间存在高度的非线性和复杂关系,那 么树模型很可能优于经典回归方法。()3、在训练完SVM之后,我们可以只保留支持向量,而舍去所有非支持 向量。 仍然不会影响模型分类能力。()4、两个变量相关,它们的相关系数r可能为0。()5、如果两个变量相关,那么它们一定是线性关系吗?()6、“过拟合”只在监督学习中出现,在非监督学习中,没有“过拟合”, 这是()7、错误率(ErrorRate)是分类错误的样本数占样本总数的比例。 ()8、DSS主要是基于数据仓库.联机数据分析和数据挖掘技术的应用。 ()9、OLAP技术侧重于把数据库中的数据进行分析、转换成辅助决策信息, 是继数据库技术发展之后迅猛发展起来的一种新技术。()10、商业智能系统与一般交易系统之间在系统设计上的主要区别在于: 后者把结构强加于商务之上,一旦系统设计完毕,其程序和规则不会轻 易改变;而前者则是一个学习型系统,能自动适应商务不断变化的要求。 ()三、填空(本大题共10小题,每题3分,共30分)1、是具有相同特征和纬度的对象的集合,表现为一张二维数据表。2、线性回归如果是泊松分布,那就是。3、经验误差(empiricalerror)也叫。4、训练过程中用到的数据叫。5、模型没有很好地捕捉到数据特征,不能够很好地拟合数据叫。6、评判分类效果好坏的三个指标就是上面介绍的三个指标:,,。7、损失函数也叫或。8、分类(Classification):是把不同的数据划分开,其过程是通过训练数据集获得一个分类器,再通过分类器去预测未知数据,分类是一种。9、聚类的一般过程数据准备:和。10、聚类的特征选择:从最初的特征中选择最有效的特征,并将其存储在中。四、简答题(本大题共3小题,共30分)1、预剪枝和后剪枝两种剪枝策略对比?2、什么是核技巧,有什么用处?3、硬投票分类器和软投票分类器有什么区别?一、选择题1.C 2.E 3.C 4.C 5.BD 6.AD 7.C 8.A 9.D 10.A二、判断题1.错 2.对 3.对 4.对 5.错 6.错 7.对 8.对 9.错 10.对 三、填空题1.矩阵 2.泊松回归 3.训练误差 4.训练集 5.欠拟合 6.正确率召回率F值 7.代价函数目标函数 8.监督学习(SupervisedLearning)方法 9.特征标准化降维 10.向量四、简答题1、答:后剪枝决策树通常比预剪枝决策树保留了更多的分支;后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树;后剪枝决策树训练时间开销比未剪枝决策树和预剪枝决策树都要大的多。2、答:核技巧使用核函数,确保在高维空间不需要明确计算点的坐标,而是计算数据的特征空间中的内积。这使其具有一个很有用的属性:更容易的计算高维空间中点的坐标。许多算法都可以表示称这样的内积形式,使用核技巧可以保证低维数据在高维空间中运用算法进行计算。3、答:硬投票分类器只是统计每个分类器的投票,然后

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论