《机器学习-Python实践》试卷及答案 卷6_第1页
《机器学习-Python实践》试卷及答案 卷6_第2页
《机器学习-Python实践》试卷及答案 卷6_第3页
《机器学习-Python实践》试卷及答案 卷6_第4页
《机器学习-Python实践》试卷及答案 卷6_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1页,共1页一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、下列哪一项能反映出X和Y之间的强相关性?()A.相关系数为0.9B.对于无效假设β=0的p值为0.0001C.对于无效假设β=0的t值为30D.以上说法都不对2、机器学习中做特征选择时,可能用到的方法有?(多选)()A.卡方B.信息增益C.平均互信息D.期望交叉熵3、以下说法中正确的是()A.SVM对噪声(如来自其他分部的噪声样本)具备鲁棒性B.在adaboost算法中,所有被分错样本的权重更新比例相同C.boosting和bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重D.给定n个数据点,如果其中一半用于训练,一半用户测试,则训练 误差和测试误差之间的差别会随着n的增加而减少4、以下描述错误的是()A.SVM是这样一个分类器,它寻找具有最小边缘的超平面,因此它也经常被称为最小边缘分类器B.在聚类分析当中,簇内的相似性越大,簇间的差别越大,聚类的效果就越差C.在决策树中,随着树中结点输变得太大,即使模型的训练误差还在继续降低,但是检验误差开始增大,这是出现了模型拟合不足的原因D.聚类分析可以看作是一种非监督的分类5、若在二维空间中线性不可分,SVM算法会通过()方法解决。A.核函数B.激活函数C.剪枝D.特征选择6、线性回归能完成的任务是()A.预测离散值B.预测连续值C.分类D.聚类7、产量(X,台)与单位产品成本(y,元/台)之家你的回归方程为y=356-1.5x,这说明()A.产量每增加一台,单位产品成本增加356元B.产品每增加一台,单位产品的成本减少1.5元C.产量每增加一台,单位产品的成本平均增加356元D.产量每增加一台,单位产品成本平均减少1.5元8、下面哪个是通用的模型逼近器?

()

A.KernelSVM

B.NeuralNetworks

C.BoostedDecisionTrees

D.Alloftheabove

9、下面那个问题可以用深度学习来解决?()

A.蛋白质结构预测

B.化学反应的预测

C.外来粒子的检测

D.以上所有

10、当您在CNN中使用1×1卷积时,以下哪个语句是真实的?()A.Itcanhelpindimensionalityreduction

B.Itcanbeusedforfeaturepooling

C.Itsufferslessoverfittingduetosmallkernelsize

D.Alloftheabove

二、判断题(本大题共10小题,每题1分,共10分)1、逻辑回归的目的就是提高二分类的效率。()2、SGD计算根据全部样本构造出来的代价函数的梯度。()3、用线性代数的方式描述函数或者方程的好处之一是书写方便。()4、Π是求积符号。()5、Σ是求和符号。()6、回归任务是预测连续值。()7、分类任务是预测连续值。()8、集成学习:可以用作抽样分布,从原始数据集中提取出自主样本集。 ()9、基学习器可以使用权值学习有利于高权值样本的模型。()10、Boosting:每一轮的训练集不变,只是训练集中每个样本的权重发生变化,权值根据上一轮的预测结果进行调整。()三、填空(本大题共10小题,每题3分,共30分)1、求函数机制的方法有两大类,分别是和。2、机器学习中做特征选择时,可能用到的、、、。3、算法在决策树生成的过程中,用信息增益比来选择特征。4、Gini指数越小表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度。5、p(x|θ)是给定参数θ的概率分布:。6、马式距离的特征则是:。7、一个表示一组有序排列的数。通过次序中的索引,我们可以确定每个单独的数。8、Adaboost算法不需要预先知道的错误率上限,且最后得到的的分类精度依赖于所有弱分类器的分类精度,可以深挖分类器的能力,Adaboost可以根据弱分类器的反馈,自适应地调整假定的错误率,执行的效率高。9、Adaboost可以在不改变训练数据,只改变,使得数据在不同学习器中产生不同作用,类似于重采样。10、关联规则挖掘问题可以划分成两个子问题:发现和生成。四、简答题(本大题共3小题,共30分)1、有数据集D1,其中样本的特征是离散取值(可以简单地考虑取二值),数据集D2和D1基本一样,唯一的区别是D2中每个样本的某个特征被重复了100次,请问在这两个数据集上训练的朴素贝叶斯分类器是否一样,请给出具体分析?2、一元线性回归有哪些基本假定?3、讨论数据数量和质量对机器学习的影响?一、选择题1.A 2.ABCD 3.C 4.C 5.A 6.B 7.D 8.D 9.D 10.D二、判断题1.对 2.错 3.对 4.对 5.对 6.对 7.错 8.对 9.对 10.对 三、填空题1.解析解(闭式解)数值解 2.卡方信息增益平均互信息期望交叉熵 3.C4.5 4.越高 5.似然函数 6.平移不变性、旋转不变性、尺度不变性 7.向量 8.弱分类器强分类器 9.数据权值分布 10.频繁项目集关联规则四、简答题1、解:分类器是不一样的。因为朴素贝叶斯方法假设了特征间的独立性,但D2中的100个特征彼此不独立,因此不在适用,如果用了两者的结果不等。在D2上训练,被重复的特征的概率会被乘100次,放大了它的影响。2、答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论