《机器学习-Python实践》试卷及答案 共10套_第1页
《机器学习-Python实践》试卷及答案 共10套_第2页
《机器学习-Python实践》试卷及答案 共10套_第3页
《机器学习-Python实践》试卷及答案 共10套_第4页
《机器学习-Python实践》试卷及答案 共10套_第5页
已阅读5页,还剩75页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1页,共1页一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、关于支持向量机SVM,下列说法错误的是()A.L2正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力B.Hinge损失函数,作用是最小化经验分类错误C.分类间隔为1||w||1||w||,||w||代表向量的模D.当参数C越小时,分类间隔越大,分类错误越多,趋于欠学习2、假定某同学使用NaiveBayesian(NB)分类模型时,不小心将训练数据的两个维度搞重复了,那么关于NB的说法中正确的是:()A.这个被重复的特征在模型中的决定作用会被加强B.模型效果相比无重复特征的情况下精确度会降低C.如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样。D.当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题3、关于Logit回归和SVM不正确的是()A.Logit回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率。A错误B.Logit回归的输出就是样本属于正类别的几率,可以计算出概率,正确C.SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。D.SVM可以通过正则化系数控制模型的复杂度,避免过拟合。4、以下哪些方法不可以直接来对文本分类?()A、KmeansB、决策树C、支持向量机D、KNN正确答案:A分类不同于聚类。5、关于Logit回归和SVM不正确的是()A.Logit回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率。A错误B.Logit回归的输出就是样本属于正类别的几率,可以计算出概率,正确C.SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。D.SVM可以通过正则化系数控制模型的复杂度,避免过拟合。6、下列不是SVM核函数的是()A.多项式核函数B.logistic核函数C.径向基核函数D.Sigmoid核函数7、模型的高bias是什么意思,我们如何降低它?机器学习ML基础易()A.在特征空间中减少特征B.在特征空间中增加特征C.增加数据点D.B和C8、当你使用Boosting提升算法时,你会考虑弱学习器,以下哪项是使用弱学习器的主要原因?()A.防止过拟合B.防止欠拟合C.防止过拟合和防止欠拟合D.都不对9、梯度提升中,利用学习率来获得最优输出是非常重要的,在选择学习速率时, 下列描述正确的是:()A.学习率越大越好B.学习率越小越好C.学习率应该小一点但是不能太小D.学习率不能太大也不能太小,根据情况而定10、下列哪个算法不是集成学习算法的例子:()A.RandomForestB.AdaBoostC.GBDTD.XgboostE.DecisionTree二、判断题(本大题共10小题,每题1分,共10分)1、错误率(ErrorRate)是分类错误的样本数占样本总数的比例。()2、决策树算法可以用于小数据集。()3、支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。()4、SVM在小样本训练集上能够得到比其它算法好很多的结果。()5、最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。()6、决策树只能处理数据型属性。()7、逻辑回归计算速度快。()8、集成学习(ensemblelearning)通过构建并结合多个学习器(learner)来完成学习任务()9、集成学习可获得比单一学习器更良好的泛化性能(特别是在集成弱学习器(weaklearner)时)。()10、集成学习以bagging、RandomForest等算法为代表的,各个学习器之间相互独立、可同时生成的并行化方法。()三、填空(本大题共10小题,每题3分,共30分)1、熵指的是体系的的程度。2、算法利用信息增益进行特征的选择,信息增益反映的是给定条件后不确定性减少的程度。3、算法在决策树生成的过程中,用信息增益比来选择特征。4、p(x|θ)是给定参数θ的概率分布:。5、线性回归如果是泊松分布,那就是。6、回归常用评估方法:,,。7、基尼指数(基尼不纯度)=*。8、聚类(Clustering)是指把相似的数据划分到一起,具体划分的时候并不关心这一类的标签,目标就是把相似的数据聚合到一起,聚类是一种。9、分类(Classification):是把不同的数据划分开,其过程是通过训练数据集获得一个分类器,再通过分类器去预测未知数据,分类是一种。10、聚类的一般过程数据准备:和。四、简答题(本大题共3小题,共30分)1、L1和L2正则先验分别服从什么分布?什么是最小二乘法?常用的降维技术有哪些?一、选择题1.C 2.BD 3.A 4.A 5.A 6.B 7.B 8.B 9.D 10.E二、判断题1.对 2.对 3.对 4.对 5.对 6.错 7.对 8.对 9.对 10.对 三、填空题1.混乱 2.ID3 3.C4.5 4.似然函数 5.泊松回归 6.平均误差绝对值误差R2 7.样本被选中的概率样本被分错的概率 8.无监督学习(UnsupervisedLearning)方法 9.监督学习(SupervisedLearning)方法 10.特征标准化降维四、简答题1、答:L1和L2正则先验分别服从什么分布,L1是拉普拉斯分布,L2是高斯分布。2、答:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。3、答:(1)主成分分析(PCA)在PCA中,数据从原来的坐标系转换到新的坐标系,由数据本身决定。转换坐标系时,以方差最大的方向作为坐标轴方向,因为数据的最大方差给出了数据的最重要的信息。第一个新坐标轴选择的是原始数据中方差最大的方法,第二个新坐标轴选择的是与第一个新坐标轴正交且方差次大的方向。重复该过程,重复次数为原始数据的特征维数。大部分方差都包含在最前面的几个新坐标轴中,因此,可以忽略余下的坐标轴,即对数据进行了降维处理。(2)因子分析(FA)在因子分析中,假设在观察数据的生成中有一些观察不到的隐变量;假设观察数据是这些隐变量和某些噪声的线性组合;那么隐变量的数据可能比观察数据的数目少,也就是说通过找到隐变量就可以实现数据的降维。(3)独立成分分析(ICA)ICA假设数据是从N个数据源生成的,这一点和因子分析有些类似。假设数据为多个数据源的混合观察结果,这些数据源之间在统计上是相互独立的,而在PCA中只假设数据是不相关的。同因子分析一样,如果数据源的数目少于观察数据的数目,则可以实现降维过程。本篇以下内容主要介绍PCA。优点:降低数据的复杂性,识别最重要的多个特征。缺点:不一定需要,且可能损失有用信息。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、假设,现在我们已经建了一个模型来分类,而且有了99%的预测准确率,我们可以下的结论是:()A.模型预测准确率已经很高了,我们不需要做什么了B.模型预测准确率不高,我们需要做点什么改进模型C.无法下结论D.以上都不对2、我们想在大数据集上训练决策树,为了使用较少时间,我们可以:()A.增加树的深度B.增加学习率(learningrate)C.减少树的深度D.减少树的数量3、对于线性回归,我们应该有以下哪些假设?()1.找到离群点很重要,因为线性回归对利群点很敏感2.线性回归要求所有变量必须符合正态分布3.线性回归假设数据没有多重线性相关性A.1和2B.2和3C.1,2和3D.以上都不是4、关于正态分布,下列说法错误的是:()A.正态分布具有集中性和对称性B.正态分布的均值和方差能够决定正态分布的位置和形态C.正态分布的偏度为0,峰度为1D.标准正态分布的均值为0,方差为15、决策树的父节点和子节点的熵的大小关系是什么?()A.决策树的父节点更大B.子节点的熵更大C.两者相等D.根据具体情况而定6、下列关于极大似然估计(MaximumLikelihoodEstimate,MLE),说法正确的是(多选)?()A.MLE可能并不存在B.MLE总是存在C.如果MLE存在,那么它的解可能不是唯一的D.如果MLE存在,那么它的解一定是唯一的7、一般来说,下列哪种方法常用来预测连续独立变量?()A.线性回归B.逻辑回顾C.线性回归和逻辑回归都行D.以上说法都不对8、你使用随机森林生成了几百颗树(T1,T2,...,Tn),然后对这些树的预测结果进行综合,下列说法正确的是:()1、每棵树是通过所有数据的子集构建而成的2、每棵树学习的样本数据都是通过随机有放回采样而得的3、每棵树是通过数据集的子集和特征的子集构建而成的4、每棵树是通过所有的数据构建而成的A.1和2B.2和4C.1、2和3D.2和39、下面关于随机森林和GBDT的说法正确的是:()①这两种方法都可以用来解决分类问题②随机森林解决分类问题,GBDT解决回归问题③随机森林解决回归问题,GBDT解决分类问题④这两种方法都可以用来解决回归问题A.①B.②C.③D.④E.①和④10、关于随机森林和GBDT,下列说法错误的是:()A.随机森林中每个学习器是相互独立的B.随机森林利用了bagging的思想来构建强学习器C.GBDT利用了Boosting的思想来构建强学习器D.GBDT中每个学习器之间没有任何联系二、判断题(本大题共10小题,每题1分,共10分)1、SVM是一个凸优化问题,因此局部最优解一定是全局最优解的优点。()2、错误否定(FalseNegative,FN):预测为假,实际为真。()3、逻辑回归的因变量可以是二分类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释。所以实际中最常用的就是二分类的逻辑回归。()4、决策树只能处理数据型属性。()5、朴素贝叶斯适合高维数据。()6、随机事件X所包含的信息量与其发生的概率有关。发生的概率越小,其信息量就越小。()7、决策树短时间内处理大量数据,得到可行且效果较好的结果。()8、集成学习以boosting、Adaboost等算法为代表的,个体学习器不是串行序列化生成的、具有依赖关系。()9、Adaboost算法流程给数据中的每一个样本一个权重。()10、Adaboost算法流程训练数据中的每一个样本,得到第一个分类器()三、填空(本大题共10小题,每题3分,共30分)1、评判分类效果好坏的三个指标就是上面介绍的三个指标:,,。2、提取出的正确信息条数/提取出的信息条数是。3、模型把训练样本学习“太好了”,可能把一些训练样本自身的特性当做了所有潜在样本都有的一般性质,导致泛化能力下降叫。4、分类是预测,比如把人分为好人和坏人之类的学习任务。5、训练用到的每个样本叫。6、训练过程中用到的数据叫。7、在某些情况下,我们会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们将其称之为。8、聚类的特征选择:从最初的特征中选择最有效的特征,并将其存储在?中。9、聚类的特征提取:通过对进行转换形成新的突出特征。10、聚类的聚类:基于某种距离函数进行相似度度量,获取。四、简答题(本大题共3小题,共30分)1、为什么朴素贝叶斯如此“朴素”?2、简单说下有监督学习和无监督学习的区别?3、特征选择与数据降维(特征提取)?一、选择题1.B 2.C 3.D 4.C 5.B 6.AC 7.A 8.D 9.E 10.D二、判断题1.对 2.对 3.对 4.错 5.错 6.错 7.对 8.错 9.对 10.对 三、填空题1.正确率召回率F值 2.正确率 3.过拟合 4.离散值5.训练样本 6.训练集 7.张量 8.向量 9.选择的特征 10.簇四、简答题1、因为它假定所有的特征在数据集中的作用是同样重要和独立的。正如我们所知,这个假设在现实世界中是很不真实的,因此,说朴素贝叶斯真的很“朴素”。2、答:有监督学习:对具有标记的训练样本进行学习,以尽可能对训练样本集外的数据进行分类预测。(LR,SVM,BP,RF,GBDT)无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。(KMeans,DL)3、答:降维的方法:结合专业知识剔除或合并类别通过数据概要来发现变量间的信息重叠(并剔除或合并类别)对数据进行转换,例如将分类型变量转换为数值型变量使用如主成分分析(PCA)这样的自动降维技术来创建一系列新的变量(原变量的加权平均)。这些变量互不相关,并且其中很小的一个子集就包含了原始数据中很大一部分信息(因此我们可以只使用新变量集的一个子集来实现降维)。可以利用一些数据挖掘的方法:如回归模型、分类和回归树等,这些方法可以用于剔除冗余变量,以及合并分类型变量中的相似类别。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、个人健康和年龄的相关系数是-1.09。根据这个你可以告诉医生哪个结论?()A.年龄是健康程度很好的预测器B.年龄是健康程度很糟的预测器C.以上说法都不对D:两者没关系2、假如我们利用Y是X的3阶多项式产生一些数据(3阶多项式能很好地拟合数据)。那么,下列说法正确的是(多选)?()A.简单的线性回归容易造成高偏差(bias)、低方差(variance)B.简单的线性回归容易造成低偏差(bias)、高方差(variance)C.3阶多项式拟合会造成低偏差(bias)、高方差(variance)D.3阶多项式拟合具备低偏差(bias)、低方差(variance)3、假如你在训练一个线性回归模型,有下面两句话:()1.如果数据量较少,容易发生过拟合。2.如果假设空间较小,容易发生过拟合。关于这两句话,下列说法正确的是?A.1和2都错误B.1正确,2错误C.1错误,2正确D.1和2都正确4、假如我们使用Lasso回归来拟合数据集,该数据集输入特征有100个(X1,X2,…,X100)。现在,我们把其中一个特征值扩大10倍(例如是特征X1),然后用相同的正则化参数对Lasso回归进行修正。那么,下列说法正确的是?()A.特征X1很可能被排除在模型之外B.特征X1很可能还包含在模型之中C.无法确定特征X1是否被舍弃D.以上说法都不对5、假如使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其它特征保持不变。然后重新训练测试。则下列说法正确的是?()A.训练样本准确率一定会降低B.训练样本准确率一定增加或保持不变C.测试样本准确率一定会降低D.测试样本准确率一定增加或保持不变6、下面这张图是一个简单的线性回归模型,图中标注了每个样本点预测值与真实值的残差。计算SSE(平方误差和)为多少?()A.3.02B.0.75C.1.01D.0.6047、关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x是自变量,y是因变量。()A.回归和相关在x和y之间都是互为对称的B.回归和相关在x和y之间都是非对称的C.回归在x和y之间是非对称的,相关在x和y之间是互为对称的D.回归在x和y之间是对称的,相关在x和y之间是非对称的8、关于AdaBoost,下列说法中正确的是(多选):()A.它是一种集成学习算法B.每个分类器的权重和被它正确分类的样本的权重相同C.后一个基学习器要依赖于前一个基学习器的分类错误率和样本的权重D.后一个基学习器每次只学习前一个基学习器被分错的样本9、集成学习策略有哪些() A.投票法B.平均法C.学习法D.上述都有10、集成学习策略常用于分类的是:()A.投票法B.平均法C.学习法D.上述都有二、判断题(本大题共10小题,每题1分,共10分)1、决策树短时间内处理大量数据,得到可行且效果较好的结果。()朴素贝叶斯适合高维数据。()标量是0阶张量。()协方差是衡量两个变量线性相关性强度及变量尺度。()联合分布可求边缘分布,但若只知道边缘分布,无法求得联合分布。()随机变量可以分为离散型随机变量和连续型随机变量。()矩阵的L0范数:矩阵的非0元素的个数,通常用它来表示稀疏,L0范数越小0元素越多,也就越稀疏。()Adaboost算法流程计算该分类器的错误率,根据错误率计算要给分类器分配的权重。()9、Adaboost算法流程将第一个分类器分错误的样本权重增加。()10、Adaboost算法流程然后再用新的样本权重训练数据,得到新的分类器。()三、填空(本大题共10小题,每题3分,共30分)1、一个表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。2、马式距离的特征则是:。3、p(x|θ)是给定参数θ的概率分布:。4、基尼指数(基尼不纯度)=*。5、Gini指数越小表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度。6、表示在样本集合中一个随机选中的样本被分错的概率。7、算法在决策树生成的过程中,用信息增益比来选择特征。8、聚类结果评估:分析结果,如距离误差和(SSE)等。9、人工神经网络(ArtificialNeuralNetworks,ANNs),也简称为神经网络(NNs),是模拟进行信息处理的一种数学模型,以对大脑的生理研究成果为基础,其目的在于模拟大脑的某些机理与机制,实现一些特定的功能。10、生物神经元主要由,,,组成。四、简答题(本大题共3小题,共30分)1、梯度下降法找到的一定是下降最快的方向么?2、什么是最小二乘法?3、K-Means和KNN算法的区别是什么?一、选择题1.C 2.AD 3.B 4.B 5.B 6.A 7.C 8.AC 9.D 10.A二、判断题1.对 2.错 3.对 4.对 5.对 6.对 7.对 8.对 9.对 10.对 三、填空题1.标量 2.平移不变性、旋转不变性、尺度不变性 3.似然函数 4.样本被选中的概率样本被分错的概率 5.越高 6.基尼指数(基尼不纯度) 7.C4.5 8.聚类 9.生物神经网络的结构和功能 10.细胞体树突轴突突触四、简答题1、答:梯度下降法并不是下降最快的方向,它只是目标函数在当前的点的切平面(当然高维问题不能叫平面)上下降最快的方向。在PracticalImplementation中,牛顿方向(考虑海森矩阵)才一般被认为是下降最快的方向,可以达到Superlinear的收敛速度。梯度下降类的算法的收敛速度一般是Linear甚至Sublinear的(在某些带复杂约束的问题)。2、答:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。3、首先,这两个算法解决的是数据挖掘中的两类问题。K-Means是聚类算法,KNN是分类算法。其次,这两个算法分别是两种不同的学习方式。K-Means是非监督学习,也就是不需要事先给出分类标签,而KNN是有监督学习,需要我们给出训练数据的分类标识。最后,K值的含义不同。K-Means中的K值代表K类。KNN中的K值代表K个最接近的邻居。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x是自变量,y是因变量。()A.回归和相关在x和y之间都是互为对称的B.回归和相关在x和y之间都是非对称的C.回归在x和y之间是非对称的,相关在x和y之间是互为对称的D.回归在x和y之间是对称的,相关在x和y之间是非对称的2、逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用?()A.Sigmoid函数B.tanh函数C.ReLU函数D.LeakyReLU函数3、关于两个逻辑回归模型中的β0、β1值,下列说法正确的是?注意:y=β0+β1*x,β0是截距,β1是权重系数。()A.绿色模型的β1比黑色模型的β1大B.绿色模型的β1比黑色模型的β1小C.两个模型的β1相同D.以上说法都不对4、在n维空间中(n>1),下列哪种方法最适合用来检测异常值?()A.正态概率图B.箱形图C.马氏距离D.散点图5、逻辑回归与多元回归分析有哪些不同之处?()A.逻辑回归用来预测事件发生的概率B.逻辑回归用来计算拟合优度指数C.逻辑回归用来对回归系数进行估计D.以上都是6、如果一个SVM模型出现欠拟合,那么下列哪种方法能解决这一问题?()A.增大惩罚参数C的值B.减小惩罚参数C的值C.减小核系数(gamma参数)D.以上都不是7、我们知道二元分类的输出是概率值。一般设定输出概率大于或等于0.5,则预测为正类;若输出概率小于0.5,则预测为负类。那么,如果将阈值0.5提高,例如0.6,大于或等于0.6的才预测为正类。则准确率(Precision)和召回率(Recall)会发生什么变化(多选)?()A.准确率(Precision)增加或者不变B.准确率(Precision)减小C.召回率(Recall)减小或者不变D.召回率(Recall)增大8、集成学习策略常用于处理数值问题的是:()A.投票法B.平均法C.学习法D.上述都有9、关于学习法表述正确的事()A.平均法和投票法是对弱学习器的结果做平均或者投票,相对比较简单,但是可能学习误差较大,于是就有了学习法。B.学习法是一种更为强大的结合策略,即通过另一个学习器来进行结合。C.Stacking是学习法的典型代表。Stacking先从初级数据集训练出初级学习器,然后“生成”一个新数据集用于训练次级学习器。在这个新数据集中,初级学习器的输出被当作样例输入特征。D.上述都对10、以下关于Bagging算法的特点描述正确的是()A.Bagging通过降低基学习器的方差改善了泛化误差B.bagging对样本进行有放回的重采样,学习结果是各个学习模型的平均值C.由于重采样的样本集具有相似性以及使用相同的学习器模型,因此,各学习模型的结果相近,即模型有近似相等的偏差和方差。D.以上描述都对二、判断题(本大题共10小题,每题1分,共10分)1、矩阵的L0范数:矩阵的非0元素的个数,通常用它来表示稀疏,L0范数越小0元素越多,也就越稀疏。()2、随机事件X所包含的信息量与其发生的概率有关。发生的概率越小,其信息量就越小。()3、SVM通过寻找使得训练数据尽可能分开且分类间隔最大的超平面实现结构风险最小化。()4、logit回归输出的是Y属于某一类的概率,也可以表示某事件发生的概率。()5、P(θ|x)是在数据X的支持下,θ发生的概率:后验概率。()6、P(θ)是在没有数据支持下,θ发生的概率:先验概率。()7、F1值定义为:F1=2PR/(P+R)。()8、Adaboost算法流程将所有弱分类器加权求和,得到分类结果(注意是分类器权重)。()9、集成学习通过将多个单个学习器集成/组合在一起,使它们共同完成学习任务,以达到提高预测准确率的目的。()10、Boosting是一个顺序过程,每个后续模型都会尝试纠正先前模型的错误,后续的模型依赖于之前的模型。()三、填空(本大题共10小题,每题3分,共30分)1、算法利用信息增益进行特征的选择,信息增益反映的是给定条件后不确定性减少的程度。2、机器学习中做特征选择时,可能用到的、、、。3、已知坐标轴中两点A(2,−2)B(−1,2),这两点的曼哈顿距离(L1距离)是。4、求函数机制的方法有两大类,分别是和。5、损失函数也叫或。6、从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化叫。7、回归问题对数值型连续随机变量进行预测和建模的监督学习算法。回归往往会通过计算来确定模型的精确性。8、人工神经元模型可以看成是由3种基本元素组成,,。9、学习算法是指针对学习问题的明确规则,学习类型是由参数变化发生的形式决定的,不同的学习算法对神经元的权值调整的表达式是不同的。人工神经网络常用的算法有,,。10、在最基本的BP算法中,学习率在整个训练过程是保持不变的,学习率过,算法可能振荡而不稳定;学习率过,则收敛速度慢,训练时间。四、简答题(本大题共3小题,共30分)1、简单介绍下Logistics回归。?2、常见的分类算法有哪些?3、机器学习能解决哪些问題?每一类使用的常用方法有哪些?举例说明其应用?一、选择题1.C 2.A 3.B 4.C 5.D 6.A 7.AC 8.B 9.D 10.D二、判断题1.对 2.错 3.对 4.对 5.对 6.对 7.对 8.对 9.对 10.对三、填空题1.ID3 2.卡方信息增益平均互信息期望交叉熵 3.7 4.解析解(闭式解)数值解 5.代价函数目标函数 6.特征选择 7.误差(Error) 8.一组连接一个加法器一个激活函数 9.有监督Hebb算法单层感知器梯度LMS算法 10.大小长四、简答题1、答:Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。2、答:SVM、神经网络、随机森林、逻辑回归、KNN、贝叶斯等。3、答:监督学习:分类:逻辑回归、决策树、KNN、随机森林、支持向量机、朴素贝叶斯数字预测:线性回归、KNN、GradientBoosting*AdaBoost无监督学习:聚类、关联分析强化学习一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、点击率预测是一个正负样本不平衡问题(例如99%的没有点击,只有1%点击)。假如在这个非平衡的数据集上建立一个模型,得到训练样本的正确率是99%,则下列说法正确的是?()A.模型正确率很高,不需要优化模型了B.模型正确率并不高,应该建立更好的模型C.无法对模型做出好坏评价D.以上说法都不对2、如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的?()A.增加树的深度B.增加学习率C.减小树的深度D.减少树的数量3、我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,如何有效地训练模型?()A.对训练集随机采样,在随机采样的数据上建立模型B.尝试使用在线机器学习算法C.使用PCA算法减少特征维度D.以上都对4、机器学习中做特征选择时,可能用到的方法有?(多选)()a.卡方b.信息增益c.平均互信息d.期待交叉熵5、如何在监督式学习中使用聚类算法(多选)?()A.首先,可以创建聚类,然后分别在不同的集群上应用监督式学习算法B.在应用监督式学习算法之前,可以将其类别ID作为特征空间中的一个额外的特征C.在应用监督式学习之前,不能创建聚类D.在应用监督式学习算法之前,不能将其类别ID作为特征空间中的一个额外的特征6、下面哪句话是正确的?()A.机器学习模型的精准度越高,则模型的性能越好B.增加模型的复杂度,总能减小测试样本误差C.增加模型的复杂度,总能减小训练样本误差D.以上说法都不对7、如果使用线性回归模型,下列说法正确的是?()A.检查异常值是很重要的,因为线性回归对离群效应很敏感B.线性回归分析要求所有变量特征都必须具有正态分布C.线性回归假设数据中基本没有多重共线性D.以上说法都不对8、以下关于Bagging特点的描述不正确的是()A.Bagging是一个很低效的集成学习算法B.Bagging复杂度与基学习器同阶C.由于每一个样本被选中的概率相同,因此bagging并不侧重于训练数据集中的任何特定实例。D.对于噪声数据,bagging不太受过分拟合的影响。9、下面哪个选项中哪一项属于确定性算法?()A.随机森林B.PCAC.KmeansD.GBDT10、下列属于无监督学习的是()A、k-meansB、SVMC、最大熵D、CRF二、判断题(本大题共10小题,每题1分,共10分)1、FP——将负类预测为正类数。()2、交叉熵损失函数的好处是可以克服方差代价函数更新权重过慢的问 题。()3、逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,运用梯度下降来求解参数,来达到将数据二分类的目的。()4、决策树容易发生欠拟合。()5、决策树容易发生过拟合。()6、SVM无法做多分类。()7、SVM自带正则项。()8、先从初始训练集训练出一个基学习器,再根据基学习器的表现对训 练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多的 关注,然后基于调整后的样本分布来训练下一个基学习器。()9、Boosting是一个迭代的过程,通过改变训练样本的分布,使得基分 类器聚焦在那些很难分的样本上。()10、Boosting结合了很多弱学习器来形成一个强学习器,单个模型表 现不佳,但它们在数据集的某些部分表现很好。()三、填空(本大题共10小题,每题3分,共30分)1、回归问题对数值型连续随机变量进行预测和建模的监督学习算法。回归往往会通过计算来确定模型的精确性。2、评判分类效果好坏的三个指标就是上面介绍的三个指标:,,。3、提取出的正确信息条数/提取出的信息条数是。4、模型把训练样本学习“太好了”,可能把一些训练样本自身的特性当做了所有潜在样本都有的一般性质,导致泛化能力下降叫。5、模型没有很好地捕捉到数据特征,不能够很好地拟合数据叫。6、分类是预测,比如把人分为好人和坏人之类的学习任务。7、训练用到的每个样本叫。8、boosting算法得基本原理,以及的三种典型算法原理:,,。9、Adaboost提供一种,在框架内可以使用各种方法构建子分类器,可以使用简单的弱分类器,不用对特征进行筛选,也不存在过拟合的现象。10、Adaboost算法不需要的先验知识,最后得到的强分类器的分类精度依赖于所有弱分类器。无论是应用于人造数据还是真实数据,Adaboost都能显著的提高学习精度。四、简答题(本大题共3小题,共30分)1、常见的监督学习算法有哪些?带核的SVM为什么能分类非线性问题?3、举例说明机器学习的基本过程,并举例说明基本步骤各有哪些方法?一、选择题1.B 2.C 3.D 4.ABCD 5.AB 6.C 7.A 8.A 9.B 10.A二、判断题1.对 2.对 3.对 4.对 5.对 6.错 7.对 8.对 9.对 10.对 三、填空题1.误差(Error) 2.正确率召回率F值 3.正确率 4.过拟合 5.欠拟合 6.离散值 7.训练样本 8.adaboostGBM(Gradientbosstingmachine)XGBoost 9.框架 10.弱分类器四、简答题1、答:感知机、SVM、人工神经网络、决策树、逻辑回归2、答:核函数的本质是两个函数的內积,而这个函数在SVM中可以表示成对于输入值的高维映射。注意核并不是直接对应映射,核只不过是一个内积。3、答:定义分析目标、收集数据、数据预处理、数据建模、模型训练、模型评估、模型应用一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、下列哪一项能反映出X和Y之间的强相关性?()A.相关系数为0.9B.对于无效假设β=0的p值为0.0001C.对于无效假设β=0的t值为30D.以上说法都不对2、机器学习中做特征选择时,可能用到的方法有?(多选)()A.卡方B.信息增益C.平均互信息D.期望交叉熵3、以下说法中正确的是()A.SVM对噪声(如来自其他分部的噪声样本)具备鲁棒性B.在adaboost算法中,所有被分错样本的权重更新比例相同C.boosting和bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重D.给定n个数据点,如果其中一半用于训练,一半用户测试,则训练 误差和测试误差之间的差别会随着n的增加而减少4、以下描述错误的是()A.SVM是这样一个分类器,它寻找具有最小边缘的超平面,因此它也经常被称为最小边缘分类器B.在聚类分析当中,簇内的相似性越大,簇间的差别越大,聚类的效果就越差C.在决策树中,随着树中结点输变得太大,即使模型的训练误差还在继续降低,但是检验误差开始增大,这是出现了模型拟合不足的原因D.聚类分析可以看作是一种非监督的分类5、若在二维空间中线性不可分,SVM算法会通过()方法解决。A.核函数B.激活函数C.剪枝D.特征选择6、线性回归能完成的任务是()A.预测离散值B.预测连续值C.分类D.聚类7、产量(X,台)与单位产品成本(y,元/台)之家你的回归方程为y=356-1.5x,这说明()A.产量每增加一台,单位产品成本增加356元B.产品每增加一台,单位产品的成本减少1.5元C.产量每增加一台,单位产品的成本平均增加356元D.产量每增加一台,单位产品成本平均减少1.5元8、下面哪个是通用的模型逼近器?

()

A.KernelSVM

B.NeuralNetworks

C.BoostedDecisionTrees

D.Alloftheabove

9、下面那个问题可以用深度学习来解决?()

A.蛋白质结构预测

B.化学反应的预测

C.外来粒子的检测

D.以上所有

10、当您在CNN中使用1×1卷积时,以下哪个语句是真实的?()A.Itcanhelpindimensionalityreduction

B.Itcanbeusedforfeaturepooling

C.Itsufferslessoverfittingduetosmallkernelsize

D.Alloftheabove

二、判断题(本大题共10小题,每题1分,共10分)1、逻辑回归的目的就是提高二分类的效率。()2、SGD计算根据全部样本构造出来的代价函数的梯度。()3、用线性代数的方式描述函数或者方程的好处之一是书写方便。()4、Π是求积符号。()5、Σ是求和符号。()6、回归任务是预测连续值。()7、分类任务是预测连续值。()8、集成学习:可以用作抽样分布,从原始数据集中提取出自主样本集。 ()9、基学习器可以使用权值学习有利于高权值样本的模型。()10、Boosting:每一轮的训练集不变,只是训练集中每个样本的权重发生变化,权值根据上一轮的预测结果进行调整。()三、填空(本大题共10小题,每题3分,共30分)1、求函数机制的方法有两大类,分别是和。2、机器学习中做特征选择时,可能用到的、、、。3、算法在决策树生成的过程中,用信息增益比来选择特征。4、Gini指数越小表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度。5、p(x|θ)是给定参数θ的概率分布:。6、马式距离的特征则是:。7、一个表示一组有序排列的数。通过次序中的索引,我们可以确定每个单独的数。8、Adaboost算法不需要预先知道的错误率上限,且最后得到的的分类精度依赖于所有弱分类器的分类精度,可以深挖分类器的能力,Adaboost可以根据弱分类器的反馈,自适应地调整假定的错误率,执行的效率高。9、Adaboost可以在不改变训练数据,只改变,使得数据在不同学习器中产生不同作用,类似于重采样。10、关联规则挖掘问题可以划分成两个子问题:发现和生成。四、简答题(本大题共3小题,共30分)1、有数据集D1,其中样本的特征是离散取值(可以简单地考虑取二值),数据集D2和D1基本一样,唯一的区别是D2中每个样本的某个特征被重复了100次,请问在这两个数据集上训练的朴素贝叶斯分类器是否一样,请给出具体分析?2、一元线性回归有哪些基本假定?3、讨论数据数量和质量对机器学习的影响?一、选择题1.A 2.ABCD 3.C 4.C 5.A 6.B 7.D 8.D 9.D 10.D二、判断题1.对 2.错 3.对 4.对 5.对 6.对 7.错 8.对 9.对 10.对 三、填空题1.解析解(闭式解)数值解 2.卡方信息增益平均互信息期望交叉熵 3.C4.5 4.越高 5.似然函数 6.平移不变性、旋转不变性、尺度不变性 7.向量 8.弱分类器强分类器 9.数据权值分布 10.频繁项目集关联规则四、简答题1、解:分类器是不一样的。因为朴素贝叶斯方法假设了特征间的独立性,但D2中的100个特征彼此不独立,因此不在适用,如果用了两者的结果不等。在D2上训练,被重复的特征的概率会被乘100次,放大了它的影响。2、答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0i=1,2,…,n3、答:机器学习需要一定数量的数据作为支揮。数据量:过多会耗費更多的计算资源,还可能有不平衡数据集、维度灾难等问題。数据量过少会导致机器学习的准确率下降,甚至不能完成学习的目标。数据数量和质量问题会导致过拟合或欠拟合的现象,优秀的数据集对机器学习的结果影响是决定性的。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、如果使用线性回归模型,下列说法正确的是?()A.检查异常值是很重要的,因为线性回归对离群效应很敏感B.线性回归分析要求所有变量特征都必须具有正态分布C.线性回归假设数据中基本没有多重共线性D.以上说法都不对2、建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现3对变量(Var1和Var2、Var2和Var3、Var3和Var1)之间的相关性分别为-0.98、0.45和1.23。我们能从中推断出什么呢?()A.Var1和Var2具有很高的相关性B.Var1和Var2存在多重共线性,模型可以去掉其中一个特征C.Var3和Var1相关系数为1.23是不可能的D.以上都对3、下列哪种方法可以用来减小过拟合?(多选)()A.更多的训练数据B.L1正则化C.L2正则化D.减小模型的复杂度4、向量X=[1,2,3,4,-9,0]的L1范数为?()A.1B.19C.6D.√1115、关于L1、L2正则化下列说法正确的是?()A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点B.L2正则化技术又称为LassoRegularizationC.L1正则化得到的解更加稀疏D.L2正则化得到的解更加稀疏6、有N个样本,一般用于训练,一般用于测试。若增大N值,则训 练误差和测试误差之间的差距会如何变化?()A.增大B.减小C.不变D.以上均不对7、在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟 合(over-fitting)中影响最大?()A.多项式阶数B.更新权重w时,使用的是矩阵求逆还是梯度下降C.使用常数项D.学习率8、输入层中的节点数为10,隐层为5。从输入层到隐层的最大连接数 为?

()

A.50

B.Lessthan50

C.Morethan50

D.Itisanarbitraryvalue

9、如果我们希望预测n个类(p1,p2..pk)的概率,使得所有n的p 的和等于1,则以下哪个函数可以用作输出层中的激活函数?

()

A.Softmax

B.ReLu

C.Sigmoid

D.Tanh

10、采取什么措施不可以防止过拟合?()

A.数据压缩;

B.权值共享;

C.提前结束模型迭代;

D.采用dropout;二、判断题(本大题共10小题,每题1分,共10分)1、FP——将负类预测为正类数。()2、交叉熵损失函数的好处是可以克服方差代价函数更新权重过慢的问 题。()3、逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法, 运用梯度下降来求解参数,来达到将数据二分类的目的。()4、SVM无法做多分类。()5、SVM不涉及核函数。()6、BGD计算根据全部样本的构造出来的代价函数的梯度。()7、SGD计算根据全部样本构造出来的代价函数的梯度。()8、Bagging:训练集是在原始集中有放回抽取的,从原始集中选出的训练集之间是独立的。()9、Boosting:根据错误率不断调整样本的权值,错误率越大则权值越大。()10、Bagging:每个样本的权重相等。()三、填空(本大题共10小题,每题3分,共30分)1、熵指的是体系的的程度。2、信息越有序,信息熵越。3、训练过程中用到的数据叫。4、分类是预测,比如把人分为好人和坏人之类的学习任务。5、模型把训练样本学习“太好了”,可能把一些训练样本自身的特性当做了所有潜在样本都有的一般性质,导致泛化能力下降叫。6、评判分类效果好坏的三个指标就是上面介绍的三个指标:,,。7、从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化叫。8、Appriori属性1:如果项目集X是频繁项目集,那么它的所有非空子集都是。9、分类分析的三个步骤:、、。10、决策树包含三种结点:、、。四、简答题(本大题共3小题,共30分)1、决策树的剪枝方法有哪些?2、SVM的超参数有哪些?3、讨论深度学习的发展对推动机器学习的意义?一、选择题1.A 2.D 3.ABCD 4.B 5.C 6.B 7.A 8.A 9.A 10.A二、判断题1.对 2.对 3.对 4.错 5.错 6.对 7.错 8.对 9.对 10.对 三、填空题1.混乱 2.低 3.训练集 4.离散值 5.过拟合 6.正确率召回率F值 7.特征选择 8.频繁项目集 9.挖掘分类规则分类规则评估分类规则应用 10.根结点(矩形表示)内部结点(矩形表示)叶结点/终结点(椭圆表示)四、简答题1、答:预剪枝:提前结束决策树的增长:类目数量、方差性能提升。2、答:C和gamma,C正则系数,gamma决定支持向量的数量。3、答:深度学习需要大量的标记数据并需要大量的计算能力,因此深度学习可以较好地应对机器学习中大规模数据集,为机器学习提供了解决复杂问题的方法。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、产量(X,台)与单位产品成本(y,元/台)之家你的回归方程为y=356-1.5x,这说明()A。产量每增加一台,单位产品成本增加356元B。产品每增加一台,单位产品的成本减少1.5元C.产量每增加一台,单位产品的成本平均增加356元D。产量每增加一台,单位产品成本平均减少1.5元2、直线方程y=wx+b,其中b表示()A.系数B截距C.斜率D权重3、以下描述中,对梯度解释正确的是(多选)()A梯度是一个向量,有方向有大小B求梯度就是对梯度向量的各个元素求偏导C梯度只有大小没有方向D梯度只有方向没有大小4、关于误差ε的说法正确的是(多选)()A误差可以看做随机比变量B误差的概率分布符合正态分布C误差的概率分布符合均匀分布D如果模型设计优良,误差可以避免5、标准差与方差的关系是(多选)()A标准差是方差的算术平方根B标准差可以反映离散程度,也可以反映出样本的量纲C方差只能反映离散程度D标准差的平方是方差6、SVM中的核技巧(Kernaltrick)的作用包括以下哪项?()A.特征升维B.特征降维C.防止过拟合D.处理离散数据7、在数据预处理阶段,我们常常对数值特征进行归一化或标准化 (standardization,normalization)处理。这种处理方式理论上不会对下列 哪个模型产生很大影响?()A.k-MeansB.k-NNC.决策树D.谱聚类8、下面哪个激活函数在图像分类中不能作为输出层?()

A.sigmoid

B.Tanh

C.ReLU

D.If(x>5,1,0)

9、使用batchnormalization可以解决以下哪一个神经网络训练中的 问题?

()

A.防止梯度消失

B.防止激活过高或者过低

C.网络训练太慢

D.B和C10、感知器不包括下面那个结构:()A.输入层B.隐藏层C.输出层D.计算层二、判断题(本大题共10小题,每题1分,共10分)1、预剪枝是在决策树生成过程中,对树进行剪枝,提前结束树的分支 生长。()2、决策树的剪枝基本策略有预剪枝(Pre-Pruning)和后剪枝。()3、常见的决策树算法是ID3,C4.5,CART树。()4、决策树的剪枝是为了简化决策树模型,避免过拟合。()5、最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。()6、朴素贝叶斯(分类器)是一种生成模型,它会基于训练样本对每个可能的类别建模。()7、P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。()8、Boosting:串行,各个及学习器顺序生成,因为后一个模型参数依赖于前一轮模型的预测结果。()9、Bagging:各个学习器可以并行生成。()10、Adaboost采用迭代的思想,继承了Boosting算法,每次迭代只训练一个弱学习器,训练好的弱学习器将参与下一次迭代。()三、填空(本大题共10小题,每题3分,共30分)1、在某些情况下,我们会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们将其称之为。2、回归常用评估方法:,,。3、信息越有序,信息熵越。4、训练用到的每个样本叫。5、模型没有很好地捕捉到数据特征,不能够很好地拟合数据叫。6、提取出的正确信息条数/提取出的信息条数是。7、回归问题对数值型连续随机变量进行预测和建模的监督学习算法。回归往往会通过计算来确定模型的精确性。8、AdaBoost很好的利用了进行级联。9、AdaBoost可以将不同的作为弱分类器。10、AdaBoost具有很高的精度;相对于和,AdaBoost充分考虑的每个分类器的权重。四、简答题(本大题共3小题,共30分)1、SVM、LR、决策树的对比?2、朴素贝叶斯的特点是?3、讨论目前机器学习应用中存在的主要问题?一、选择题1.D 2.B 3.AB 4.AB 5.ABC 6.C 7.C 8.D 9.A 10.D二、判断题1.对 2.对 3.对 4.对 5.对 6.对 7.对 8.对 9.对 10.对 三、填空题1.张量 2.平均误差绝对值误差R2 3.低 4.训练样本 5.欠拟合 6.正确率 7.误差(Error) 8.弱分类器 9.分类算法 10.bagging算法RandomForest算法四、简答题1、模型复杂度:SVM支持核函数,可处理线性非线性问题;LR模型简单,训练速度快,适合处理线性问题;决策树容易过拟合,需要进行剪枝。损失函数:SVMhingeloss;LRL2正则化;Adaboost指数损失。数据敏感度:SVM添加容忍度对outlier不敏感,只关心支持向量,且需要先做归一化;LR对远点敏感。数据量:数据量大就用LR,数据量小且特征少就用SVM非线性核。2、答:优点:在数据较少的情况下仍然有效,可以处理多类别问题。缺点:对于输入数据的准备方式较为敏感。适用数据类型:标称型数据。3、答:选择什么模型或算法、选择什么优化方法、如何对数据进行预处理、目标函数是什么、过拟合与欠拟合的处理、维度爆炸。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、选择Logistic回归中的One-Vs-All方法中的哪个选项是真实的。()A我们需要在n类分类问题中适合n个模型B我们需要适合n-1个模型来分类为n个类C我们需要只适合1个模型来分类为n个类D这些都没有2、假设对给定数据应用了Logistic回归模型,并获得了训练精度X和测试精度Y。现在要在同一数据中添加一些新特征,以下哪些是错误的选项。()注:假设剩余参数相同。A训练精度提高B训练准确度提高或保持不变C测试精度提高或保持不变3、假定特征F1可以取特定值:A、B、C、D、E和F,其代表着学生在大学所获得的评分。在下面说法中哪一项是正确的?()A特征F1是名义变量(nominalvariable)的一个实例。B特征F1是有序变量(ordinalvariable)的一个实例。C该特征并不属于以上的分类。D以上说法都正确。4、下面哪一项对梯度下降(GD)和随机梯度下降(SGD)的描述是正确的?()1在GD和SGD中,每一次迭代中都是更新一组参数以最小化损失函数。2在SGD中,每一次迭代都需要遍历训练集中的所有样本以更新一次参数。3在GD中,每一次迭代需要使用整个训练集的数据更新一个参数。A只有1B只有2C只有3D都正确5、假定你正在处理类属特征,并且没有查看分类变量在测试集中的分 布。现在你想将onehotencoding(OHE)应用到类属特征中。()那么在训练集中将OHE应用到分类变量可能要面临的困难是什么?A.分类变量所有的类别没有全部出现在测试集中B.类别的频率分布在训练集和测试集是不同的C.训练集和测试集通常会有一样的分布D.A和B都正确6、假定你现在解决一个有着非常不平衡类别的分类问题,即主要类别 占据了训练数据的99%。现在你的模型在测试集上表现为99%的准确度。 那么下面哪一项表述是正确的?()1准确度并不适合于衡量不平衡类别问题2准确度适合于衡量不平衡类别问题3精确率和召回率适合于衡量不平衡类别问题4精确率和召回率不适合于衡量不平衡类别问题A1and3B1and4C2and3D2and47、假设我们有一个数据集,在一个深度为6的决策树的帮助下,它可 以使用100%的精确度被训练。现在考虑一下两点,并基于这两点选择正确 的选项。()注意:所有其他超参数是相同的,所有其他因子不受影响。1深度为4时将有高偏差和低方差2深度为4时将有低偏差和低方差A只有1B只有2C1和2D没有一个8、与人类神经元相比,人工神经元的输入类比于什么?()A.树突B.轴突C.细胞核D.细胞膜9、与人类神经元相比,人工神经元的输出类比于什么?()A.树突B.轴突C.细胞核D.细胞膜10、以下关于感知器中的链接方式表示正确的是?()A.输入层与隐藏层相连B.输入层与输出层相连C.隐藏层与细胞核相连D.输入层与输入层相连二、判断题(本大题共10小题,每题1分,共10分)1、P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事 件B发生下事件A的条件概率。()2、输出变量为连续变量的预测问题是分类问题。()3、回归及分类常用的评估指标都是准确率和召回率。()4、决策树只用来分类。()5、一般来说,回归不用在分类问题上,但也有特殊情况,逻辑回归可 以用来解决0/1分类问题。()6、回归问题与分类问题都有可能发生过拟合。()7、如果一个经过训练的机器学习模型在测试集上达到100%的准确率, 这是否意味着该模型将在另外一个新的测试集上也能得到100%的准确率。 ()8、序列数据没有时间戳。()9、定量属性可以是整数值或者是连续值。()10、可视化技术对于分析的数据类型通常不是专用性的。()三、填空(本大题共10小题,每题3分,共30分)1、损失函数也叫或。2、已知坐标轴中两点A(2,−2)B(−1,2),这两点的曼哈顿距离(L1距离)是。3、算法利用信息增益进行特征的选择,信息增益反映的是给定条件后不确定性减少的程度。4、表示在样本集合中一个随机选中的样本被分错的概率。5、基尼指数(基尼不纯度)=*。6、欧式距离的特征是:、。7、一个表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。8、AdaBoost迭代次数也就是数目不太好设定,可以使用交叉验证来进行确定;

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论