在线网课知道智慧《机器学习(同济大学)》单元测试考核答案_第1页
在线网课知道智慧《机器学习(同济大学)》单元测试考核答案_第2页
在线网课知道智慧《机器学习(同济大学)》单元测试考核答案_第3页
在线网课知道智慧《机器学习(同济大学)》单元测试考核答案_第4页
在线网课知道智慧《机器学习(同济大学)》单元测试考核答案_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第一章单元测试1【判断题】回归和分类都是有监督学习问题。()A.错B.对2【判断题】输出变量为有限个离散变量的预测问题是回归问题;输出变量为连续变量的预测问题是分类问题。()A.错B.对3【单选题】(2分)关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x是自变量,y是因变量。()A.回归和相关在x和y之间都是互为对称的B.回归和相关在x和y之间都是非对称的C.回归在x和y之间是非对称的,相关在x和y之间是互为对称的D.回归在x和y之间是对称的,相关在x和y之间是非对称的4【判断题】如果一个经过训练的机器学习模型在测试集上达到100%的准确率,这就意味着该模型将在另外一个新的测试集上也能得到100%的准确率。()A.对B.错5【判断题】机器学习学得的模型适用于新样本的能力,称为"泛化"能力,这是针对分类和回归等监督学习任务而言的,与聚类这样的无监督学习任务无关。()A.错B.对6【判断题】机器学习时,我们通常假设样本空间中的全体样本都服从某个未知"分布",并且我们获得的每个样本都是独立地从这个分布上采样获得的。()A.对B.错7【判断题】从归纳偏好一般性原则的角度看,"奥卡姆剃刀"(Occam'srazor)准则与“大道至简”说的是相同的道理。()A.对B.错8.【多选题】正确答案:ACD以下方法或系统属于"符号主义"(symbolism)学习技术的是()A."结构学习系统"B.支持向量机C."基于逻辑的归纳学习系统“D."概念学习系统"9.【多选题】正确答案:CD以下方法或技术属于统计学习范畴的是()A.Hopfield神经网络B.感知机C.支持向量机D.核方法10【判断题】归纳学习相当于"从样例中学习",即从训练样例中归纳出学习结果。()A.错B.对第二章单元测试1【判断题】回归问题和分类问题都有可能发生过拟合。()A.对B.错2.【多选题】(3分)正确答案:ABC对于k折交叉验证,以下对k的说法正确的是()A.k越大,不一定越好,选择大的k会加大评估时间B.选择更大的k,就会有更小的bias(因为训练集更加接近总数据集)C.在选择k时,要最小化数据集之间的方差D.k越大越好3.【多选题】正确答案:CD小明参加Kaggle某项大数据竞赛,他的成绩在大赛排行榜上原本居于前20,后来他保持特征不变,对原来的模型做了1天的调参,将自己的模型在自己本地测试集上的准确率提升了3%,然后他信心满满地将新模型的预测结果更新到了大赛官网上,结果懊恼地发现自己的新模型在大赛官方的测试集上准确率反而下降了。对此,他的朋友们展开了讨论,下列说法正确的是()A.从机器学习理论的角度,这样的情况不应该发生,应该去找大赛组委会反应B.小明应该乖乖使用默认的参数就行了,调参是不可能有收益的C.小明可以考虑一下,使用交叉验证来验证一下是否发生了过拟合D.小明这个有可能是由于过拟合导致的4.【多选题】正确答案:ABCD下列哪种方法可以用来减小过拟合?()A.L2正则化B.更多的训练数据C.减小模型的复杂度D.L1正则化5【单选题】(2分)下列关于bootstrap说法正确的是?()A.从总的M个特征中,无放回地抽取m个特征(m<M)B.从总的N个样本中,有放回地抽取n个样本(n<N)C.从总的M个特征中,有放回地抽取m个特征(m<M)D.从总的N个样本中,无放回地抽取n个样本(n<N)6【单选题】(3分)评估完模型之后,发现模型存在高偏差(highbias),应该如何解决?()A.减少模型的特征数量B.增加模型的特征数量C.增加样本数量第三章单元测试1【单选题】(2分)如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?()A.选项中的答案都不对B.测试样本误差始终为零C.测试样本误差不可能为零2【单选题】(2分)下列关于线性回归分析中的残差(Residuals)说法正确的是?()A.残差均值总是小于零B.残差均值总是为零C.残差均值总是大于零D.选项中的说法都不对3.【多选题】正确答案:ABCD下列哪些假设是我们推导线性回归参数时遵循的?()A.模型误差在统计学上是独立的B.X与Y有线性关系(多项式关系)C.误差一般服从0均值和固定标准差的正态分布D.X是非随机且测量没有误差的4【单选题】(2分)一般来说,下列哪种方法常用来预测连续独立变量?()A.逻辑回归B.线性回归和逻辑回归都行C.线性回归5【单选题】(2分)上图中哪一种偏移,是我们在最小二乘直线拟合的情况下使用的?图中横坐标是输入X,纵坐标是输出Y。()A.垂直偏移(verticaloffsets)B.垂向偏移(perpendicularoffsets)C.两种偏移都可以6【单选题】(3分)加入使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其它特征保持不变。然后重新训练测试。则下列说法正确的是?()A.训练样本准确率一定会降低B.训练样本准确率一定增加或保持不变C.测试样本准确率一定会降低D.测试样本准确率一定增加或保持不变7【单选题】(3分)点击率预测是一个正负样本不平衡问题(例如99%的没有点击,只有1%点击)。假如在这个非平衡的数据集上建立一个模型,得到训练样本的正确率是99%,则下列说法正确的是?()A.模型正确率并不高,应该建立更好的模型B.无法对模型做出好坏评价C.模型正确率很高,不需要优化模型了第四章单元测试1.【多选题】正确答案:AB在决策树分割结点的时候,下列关于信息增益说法正确的是()A.如果选择一个属性具有许多特征值,那么这个信息增益是有偏差的B.信息增益可以用”1比特-熵”获得C.纯度高的结点需要更多的信息来描述它2【判断题】(3分如果自变量X和因变量Y之间存在高度的非线性和复杂关系,那么树模型很可能优于经典回归方法。()A.对B.错3【判断题】在决策树学习过程中,用属性α对样本集D进行划分所获得的"信息增益"越大,则意味着使用属性α来进行划分所获得的"纯度提升"越大。()A.对B.错4.【多选题】正确答案:BCD对于划分属性选择,以下说法正确的是()A.选项中说法都不对B.C4.5算法并不是直接选择增益率最大的候选划分属性,而是先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。C.信息增益准则对可取值数目较多的属性有所偏好D.增益率准则对可取值数目较少的属性有所偏好5【判断题】数据集D的纯度可用它的基尼值来度量,基尼值越小,则数据集D的纯度越高。()A.对B.错第五章单元测试1【单选题】(2分)假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,你会得到输出-0.01。X可能是以下哪一个激活函数?()A.ReLUB.SigmoidC.tanhD.选项中都有可能2【单选题】(3分)在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟合(over-fitting)中影响最大?()A.使用常数项B.更新权重w时,使用的是矩阵求逆还是梯度下降C.多项式阶数3.【多选题】正确答案:BCD深度神经网络中常用Relu函数作为激活函数,其好处是:()A.选项中没有正确答案B.具有稀疏特性C.收敛快D.求梯度简单4【单选题】(2分)梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?()A.梯度裁剪B.用改良的网络结构比如LSTM和GRUsC.DropoutD.选项中的方法都不行5【单选题】(2分)Dropout技术在下列哪种神经层中将无法发挥显著优势?()A.RNN层B.仿射层(全连接层)C.卷积层第六章单元测试1【单选题】(2分)如果SVM模型欠拟合,以下方法哪些可以改进模型()A.减小惩罚参数C的值B.减小核函数的参数C.增大惩罚参数C的值2【判断题】在训练完SVM之后,我们可以只保留支持向量,而舍去所有非支持向量,仍然不会影响模型分类能力。()A.错B.对3.【多选题】(3分)正确答案:ABCD关于SVM与感知机,以下说法正确的是:()A.优化方法方面,感知机采用梯度下降法,而SVM采用不等式约束结合拉格朗日乘子B.损失函数方面,感知机采用的是误分类,易造成过拟合,而SVM采用间隔最大化(合页损失函数),一定程度上可避免过拟合C.感知机只用于线性分类,SVM可用于线性和非线性分类D.都是用于分类的监督学习算法4【判断题】支持向量机SVM是结构风险最小化模型,而逻辑回归LR是经验风险最小化模型。()A.错B.对5【判断题】逻辑回归LR是参数模型,支持向量机SVM是非参数模型。()A.对B.错6.【多选题】(3分)正确答案:ABD关于SVM如何选用核函数,下列说法正确的是:()A.非线性核主要用于线性不可分以及特征数较少样本量一般的情况B.线性核主要用于线性可分以及样本数与特征数差不多的情况C.选项中说法都不对D.高斯核和tanh核都属于非线性核,而且高斯核还可以把原始维度映射到无穷多维第七章单元测试1.【多选题】(3分)正确答案:AC下列关于极大似然估计(MaximumLikelihoodEstimate,MLE),说法正确的是()A.MLE可能并不存在B.MLE总是存在C.如果MLE存在,那么它的解可能不是唯一的D.如果MLE存在,那么它的解一定是唯一的2【判断题】朴素贝叶斯属于生成式模型,而SVM和决策树属于判别式模型。()A.错B.对3【判断题】朴素贝叶斯分类器有属性条件独立的假设前提。()A.对B.错4.【多选题】正确答案:AC上面三个贝叶斯模型中,属性之间存在依赖关系的是:()A.(c)B.(a)C.(b)D.都不存在5.【多选题】正确答案:ABC关于贝叶斯网络,以下说法正确的是:()A.贝叶斯网络是一种概率图模型B.贝叶斯网络是有向无环图模型C.贝叶斯网络又称信念网络D.贝叶斯网络是无向有环图模型第八章单元测试1【单选题】(3分)下面关于RandomForest和GradientBoostingTrees说法正确的是?()A.在GradientBoostingTrees中可以生成并行树,因为它们是相互独立的B.无论任何数据,GradientBoostingTrees总是优于RandomForestC.RandomForest的中间树不是相互独立的,而GradientBoostingTrees的中间树是相互独立的D.两者都使用随机特征子集来创建中间树2【单选题】(2分)数据科学家经常使用多个算法进行预测,并将多个机器学习算法的输出(称为“集成学习”)结合起来,以获得比所有个体模型都更好的更健壮的输出。则下列说法正确的是?()A.基本模型都来自于同一算法B.基本模型之间相关性高C.基本模型之间相关性低D.集成方法中,使用加权平均代替投票方法3.【多选题】(3分)正确答案:ABD以下方法属于集成学习方法的是()A.stackingB.boostingC.bootstrappingD.bagging4.【多选题】正确答案:BC如果用“三个臭皮匠顶个诸葛亮”来比喻集成学习的话,那么对三个臭皮匠的要求可能是:()A.选项中说法都不对B.三个臭皮匠的优点各不相同C.三个臭皮匠不能太差,每个人考试都能及格D.三个臭皮匠的缺点各不相同5【判断题】集成学习中个体学习器的多样性不宜高,否则容易顾此失彼,降低系统的总体性能。()A.对B.错第九章单元测试1【单选题】(2分)向量x=[1,2,3,4,-9,0]的L1范数是()A.4B.20C.19D.52.【多选题】(3分)正确答案:BC如何在监督式学习中使用聚类算法?()A.在应用监督式学习算法之前,不能将其类别ID作为特征空间中的一个额外的特征B.在应用监督式学习算法之前,可以将其类别ID作为特征空间中的一个额外的特征C.首先,可以创建聚类,然后分别在不同的集群上应用监督式学习算法D.在应用监督式学习之前,不能创建聚类3.【多选题】正确答案:ABD下列聚类方法属于原型聚类的是()A.高斯混合聚类B.学习向量量化LVQC.DBSCAND.K-Means算法4.【多选题】正确答案:ABCDK-Means聚类的主要缺点有:()A.聚类效果依赖于聚类中心的初始化B.对于非凸数据集或类别规模差异太大的数据效果不好C.K值很难确定D.对噪音和异常点敏感E.原理复杂,不容易实现5【判断题】k均值算法和"学习向量量化"都是原型聚类方法,也都属于无监督学习方法。()A.对B.错第十章单元测试1【单选题】(3分)使用k=1的kNN算法,下图二分类问题,“+”和“o”分别代表两个类,那么,用仅拿出一个测试样本的交叉验证方法,交叉验证的错误率是()A.0%到100%B.0%C.100%2【单选题】(2分)下列说法错误的是?()A.进行PCA降维时,需要计算协方差矩阵B.当目标函数是凸函数时,梯度下降算法的解一般就是全局最优解C.利用拉格朗日函数能解带约束的优化问题D.沿负梯度的方向一定是最优的方向3【单选题】(2分)以下哪些方法不可以直接来对文本分类?()A.kNNB.支持向量机C.决策树D.K-Means4.【多选题】(3分)正确答案:AD下列哪些算法可以用来够造神经网络?()A.逻辑回归B.选项中都不行C.kNND.线性回归5.【多选题】正确答案:ACD我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,如何有效地训练模型?()A.尝试使用在线机器学习算法B.选项中都不对C.对训练集随机采样,在随机采样的数据上建立模型D.使用PCA算法减少特征维度6【单选题】(2分)上图中,主成分的最佳数目是多少?()A.10B.30C.20D.无法确定第十一章单元测试1.【多选题】正确答案:AB关于L1正则和L2正则下面的说法正确的是()A.L1范数会使权值稀疏B.L2

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论