《机器学习-Python实践》试卷及答案 卷8_第1页
《机器学习-Python实践》试卷及答案 卷8_第2页
《机器学习-Python实践》试卷及答案 卷8_第3页
《机器学习-Python实践》试卷及答案 卷8_第4页
《机器学习-Python实践》试卷及答案 卷8_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1页,共1页一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、产量(X,台)与单位产品成本(y,元/台)之家你的回归方程为y=356-1.5x,这说明()A。产量每增加一台,单位产品成本增加356元B。产品每增加一台,单位产品的成本减少1.5元C.产量每增加一台,单位产品的成本平均增加356元D。产量每增加一台,单位产品成本平均减少1.5元2、直线方程y=wx+b,其中b表示()A.系数B截距C.斜率D权重3、以下描述中,对梯度解释正确的是(多选)()A梯度是一个向量,有方向有大小B求梯度就是对梯度向量的各个元素求偏导C梯度只有大小没有方向D梯度只有方向没有大小4、关于误差ε的说法正确的是(多选)()A误差可以看做随机比变量B误差的概率分布符合正态分布C误差的概率分布符合均匀分布D如果模型设计优良,误差可以避免5、标准差与方差的关系是(多选)()A标准差是方差的算术平方根B标准差可以反映离散程度,也可以反映出样本的量纲C方差只能反映离散程度D标准差的平方是方差6、SVM中的核技巧(Kernaltrick)的作用包括以下哪项?()A.特征升维B.特征降维C.防止过拟合D.处理离散数据7、在数据预处理阶段,我们常常对数值特征进行归一化或标准化 (standardization,normalization)处理。这种处理方式理论上不会对下列 哪个模型产生很大影响?()A.k-MeansB.k-NNC.决策树D.谱聚类8、下面哪个激活函数在图像分类中不能作为输出层?()

A.sigmoid

B.Tanh

C.ReLU

D.If(x>5,1,0)

9、使用batchnormalization可以解决以下哪一个神经网络训练中的 问题?

()

A.防止梯度消失

B.防止激活过高或者过低

C.网络训练太慢

D.B和C10、感知器不包括下面那个结构:()A.输入层B.隐藏层C.输出层D.计算层二、判断题(本大题共10小题,每题1分,共10分)1、预剪枝是在决策树生成过程中,对树进行剪枝,提前结束树的分支 生长。()2、决策树的剪枝基本策略有预剪枝(Pre-Pruning)和后剪枝。()3、常见的决策树算法是ID3,C4.5,CART树。()4、决策树的剪枝是为了简化决策树模型,避免过拟合。()5、最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。()6、朴素贝叶斯(分类器)是一种生成模型,它会基于训练样本对每个可能的类别建模。()7、P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。()8、Boosting:串行,各个及学习器顺序生成,因为后一个模型参数依赖于前一轮模型的预测结果。()9、Bagging:各个学习器可以并行生成。()10、Adaboost采用迭代的思想,继承了Boosting算法,每次迭代只训练一个弱学习器,训练好的弱学习器将参与下一次迭代。()三、填空(本大题共10小题,每题3分,共30分)1、在某些情况下,我们会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们将其称之为。2、回归常用评估方法:,,。3、信息越有序,信息熵越。4、训练用到的每个样本叫。5、模型没有很好地捕捉到数据特征,不能够很好地拟合数据叫。6、提取出的正确信息条数/提取出的信息条数是。7、回归问题对数值型连续随机变量进行预测和建模的监督学习算法。回归往往会通过计算来确定模型的精确性。8、AdaBoost很好的利用了进行级联。9、AdaBoost可以将不同的作为弱分类器。10、AdaBoost具有很高的精度;相对于和,AdaBoost充分考虑的每个分类器的权重。四、简答题(本大题共3小题,共30分)1、SVM、LR、决策树的对比?2、朴素贝叶斯的特点是?3、讨论目前机器学习应用中存在的主要问题?一、选择题1.D 2.B 3.AB 4.AB 5.ABC 6.C 7.C 8.D 9.A 10.D二、判断题1.对 2.对 3.对 4.对 5.对 6.对 7.对 8.对 9.对 10.对 三、填空题1.张量 2.平均误差绝对值误差R2 3.低 4.训练样本 5.欠拟合 6.正确率 7.误差(Error) 8.弱分类器 9.分类算法 10.bagging算法RandomForest算法四、简答题1、模型复杂度:SVM支持核函数,可处理线性非线性问题;LR模型简单,训练速度快,适合处理线性问题;决策树容易过拟合,需要进行剪枝。损失函数:SVMhingeloss;LRL2正则化;Adaboost指数损失。数据敏感度:SVM添加容忍度对outlier不敏感,只关心支持向量,且需要先做归一化;LR对远点敏感。数据量:数据量大就用LR,数据量小且特征少就

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论