《机器学习-Python实践》试卷7_第1页
《机器学习-Python实践》试卷7_第2页
《机器学习-Python实践》试卷7_第3页
《机器学习-Python实践》试卷7_第4页
《机器学习-Python实践》试卷7_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1页,共1页一、单项选择题(本大题共10小题,每题3分,共30分)试卷(2021试卷(2021-2022学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、如果使用线性回归模型,下列说法正确的是?()A.检查异常值是很重要的,因为线性回归对离群效应很敏感B.线性回归分析要求所有变量特征都必须具有正态分布C.线性回归假设数据中基本没有多重共线性D.以上说法都不对2、建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现3对变量(Var1和Var2、Var2和Var3、Var3和Var1)之间的相关性分别为-0.98、0.45和1.23。我们能从中推断出什么呢?()A.Var1和Var2具有很高的相关性B.Var1和Var2存在多重共线性,模型可以去掉其中一个特征C.Var3和Var1相关系数为1.23是不可能的D.以上都对3、下列哪种方法可以用来减小过拟合?(多选)()A.更多的训练数据B.L1正则化C.L2正则化D.减小模型的复杂度4、向量X=[1,2,3,4,-9,0]的L1范数为?()A.1B.19C.6D.√1115、关于L1、L2正则化下列说法正确的是?()A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点B.L2正则化技术又称为LassoRegularizationC.L1正则化得到的解更加稀疏D.L2正则化得到的解更加稀疏6、有N个样本,一般用于训练,一般用于测试。若增大N值,则训 练误差和测试误差之间的差距会如何变化?()A.增大B.减小C.不变D.以上均不对7、在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟 合(over-fitting)中影响最大?()A.多项式阶数B.更新权重w时,使用的是矩阵求逆还是梯度下降C.使用常数项D.学习率8、输入层中的节点数为10,隐层为5。从输入层到隐层的最大连接数 为?

()

A.50

B.Lessthan50

C.Morethan50

D.Itisanarbitraryvalue

9、如果我们希望预测n个类(p1,p2..pk)的概率,使得所有n的p 的和等于1,则以下哪个函数可以用作输出层中的激活函数?

()

A.Softmax

B.ReLu

C.Sigmoid

D.Tanh

10、采取什么措施不可以防止过拟合?()

A.数据压缩;

B.权值共享;

C.提前结束模型迭代;

D.采用dropout;二、判断题(本大题共10小题,每题1分,共10分)1、FP——将负类预测为正类数。()2、交叉熵损失函数的好处是可以克服方差代价函数更新权重过慢的问 题。()3、逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法, 运用梯度下降来求解参数,来达到将数据二分类的目的。()4、SVM无法做多分类。()5、SVM不涉及核函数。()6、BGD计算根据全部样本的构造出来的代价函数的梯度。()7、SGD计算根据全部样本构造出来的代价函数的梯度。()8、Bagging:训练集是在原始集中有放回抽取的,从原始集中选出的训练集之间是独立的。()9、Boosting:根据错误率不断调整样本的权值,错误率越大则权值越大。()10、Bagging:每个样本的权重相等。()三、填空(本大题共10小题,每题3分,共30分)1、熵指的是体系的的程度。2、信息越有序,信息熵越。3、训练过程中用到的数据叫。4、分类是预测,比如把人分为好人和坏人之类的学习任务。5、模型把训练样本学习“太好了”,可能把一些训练样本自身的特性当做了所有潜在样本都有的一般性质,导致泛化能力下降叫。6、评判分类效果好坏的三个指标就是上面介绍的三个指标:,,。7、从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化叫。8、Appriori属性1:如果项目集X是频繁项目集,那么它的所有非空子集都是。9、分类分析的三个步骤:、、

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论