《机器学习-Python实践》试卷及答案 共5套_第1页
《机器学习-Python实践》试卷及答案 共5套_第2页
《机器学习-Python实践》试卷及答案 共5套_第3页
《机器学习-Python实践》试卷及答案 共5套_第4页
《机器学习-Python实践》试卷及答案 共5套_第5页
已阅读5页,还剩37页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1页,共1页一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、关于支持向量机SVM,下列说法错误的是()A.L2正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力B.Hinge损失函数,作用是最小化经验分类错误C.分类间隔为1||w||1||w||,||w||代表向量的模D.当参数C越小时,分类间隔越大,分类错误越多,趋于欠学习2、假定某同学使用NaiveBayesian(NB)分类模型时,不小心将训练数据的两个维度搞重复了,那么关于NB的说法中正确的是:()A.这个被重复的特征在模型中的决定作用会被加强B.模型效果相比无重复特征的情况下精确度会降低C.如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样。D.当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题3、关于Logit回归和SVM不正确的是()A.Logit回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率。A错误B.Logit回归的输出就是样本属于正类别的几率,可以计算出概率,正确C.SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。D.SVM可以通过正则化系数控制模型的复杂度,避免过拟合。4、以下哪些方法不可以直接来对文本分类?()A、KmeansB、决策树C、支持向量机D、KNN正确答案:A分类不同于聚类。5、关于Logit回归和SVM不正确的是()A.Logit回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率。A错误B.Logit回归的输出就是样本属于正类别的几率,可以计算出概率,正确C.SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。D.SVM可以通过正则化系数控制模型的复杂度,避免过拟合。6、下列不是SVM核函数的是()A.多项式核函数B.logistic核函数C.径向基核函数D.Sigmoid核函数7、模型的高bias是什么意思,我们如何降低它?机器学习ML基础易()A.在特征空间中减少特征B.在特征空间中增加特征C.增加数据点D.B和C8、当你使用Boosting提升算法时,你会考虑弱学习器,以下哪项是使用弱学习器的主要原因?()A.防止过拟合B.防止欠拟合C.防止过拟合和防止欠拟合D.都不对9、梯度提升中,利用学习率来获得最优输出是非常重要的,在选择学习速率时, 下列描述正确的是:()A.学习率越大越好B.学习率越小越好C.学习率应该小一点但是不能太小D.学习率不能太大也不能太小,根据情况而定10、下列哪个算法不是集成学习算法的例子:()A.RandomForestB.AdaBoostC.GBDTD.XgboostE.DecisionTree二、判断题(本大题共10小题,每题1分,共10分)1、错误率(ErrorRate)是分类错误的样本数占样本总数的比例。()2、决策树算法可以用于小数据集。()3、支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。()4、SVM在小样本训练集上能够得到比其它算法好很多的结果。()5、最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。()6、决策树只能处理数据型属性。()7、逻辑回归计算速度快。()8、集成学习(ensemblelearning)通过构建并结合多个学习器(learner)来完成学习任务()9、集成学习可获得比单一学习器更良好的泛化性能(特别是在集成弱学习器(weaklearner)时)。()10、集成学习以bagging、RandomForest等算法为代表的,各个学习器之间相互独立、可同时生成的并行化方法。()三、填空(本大题共10小题,每题3分,共30分)1、熵指的是体系的的程度。2、算法利用信息增益进行特征的选择,信息增益反映的是给定条件后不确定性减少的程度。3、算法在决策树生成的过程中,用信息增益比来选择特征。4、p(x|θ)是给定参数θ的概率分布:。5、线性回归如果是泊松分布,那就是。6、回归常用评估方法:,,。7、基尼指数(基尼不纯度)=*。8、聚类(Clustering)是指把相似的数据划分到一起,具体划分的时候并不关心这一类的标签,目标就是把相似的数据聚合到一起,聚类是一种。9、分类(Classification):是把不同的数据划分开,其过程是通过训练数据集获得一个分类器,再通过分类器去预测未知数据,分类是一种。10、聚类的一般过程数据准备:和。四、简答题(本大题共3小题,共30分)1、L1和L2正则先验分别服从什么分布?什么是最小二乘法?常用的降维技术有哪些?一、选择题1.C 2.BD 3.A 4.A 5.A 6.B 7.B 8.B 9.D 10.E二、判断题1.对 2.对 3.对 4.对 5.对 6.错 7.对 8.对 9.对 10.对 三、填空题1.混乱 2.ID3 3.C4.5 4.似然函数 5.泊松回归 6.平均误差绝对值误差R2 7.样本被选中的概率样本被分错的概率 8.无监督学习(UnsupervisedLearning)方法 9.监督学习(SupervisedLearning)方法 10.特征标准化降维四、简答题1、答:L1和L2正则先验分别服从什么分布,L1是拉普拉斯分布,L2是高斯分布。2、答:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。3、答:(1)主成分分析(PCA)在PCA中,数据从原来的坐标系转换到新的坐标系,由数据本身决定。转换坐标系时,以方差最大的方向作为坐标轴方向,因为数据的最大方差给出了数据的最重要的信息。第一个新坐标轴选择的是原始数据中方差最大的方法,第二个新坐标轴选择的是与第一个新坐标轴正交且方差次大的方向。重复该过程,重复次数为原始数据的特征维数。大部分方差都包含在最前面的几个新坐标轴中,因此,可以忽略余下的坐标轴,即对数据进行了降维处理。(2)因子分析(FA)在因子分析中,假设在观察数据的生成中有一些观察不到的隐变量;假设观察数据是这些隐变量和某些噪声的线性组合;那么隐变量的数据可能比观察数据的数目少,也就是说通过找到隐变量就可以实现数据的降维。(3)独立成分分析(ICA)ICA假设数据是从N个数据源生成的,这一点和因子分析有些类似。假设数据为多个数据源的混合观察结果,这些数据源之间在统计上是相互独立的,而在PCA中只假设数据是不相关的。同因子分析一样,如果数据源的数目少于观察数据的数目,则可以实现降维过程。本篇以下内容主要介绍PCA。优点:降低数据的复杂性,识别最重要的多个特征。缺点:不一定需要,且可能损失有用信息。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、假设,现在我们已经建了一个模型来分类,而且有了99%的预测准确率,我们可以下的结论是:()A.模型预测准确率已经很高了,我们不需要做什么了B.模型预测准确率不高,我们需要做点什么改进模型C.无法下结论D.以上都不对2、我们想在大数据集上训练决策树,为了使用较少时间,我们可以:()A.增加树的深度B.增加学习率(learningrate)C.减少树的深度D.减少树的数量3、对于线性回归,我们应该有以下哪些假设?()1.找到离群点很重要,因为线性回归对利群点很敏感2.线性回归要求所有变量必须符合正态分布3.线性回归假设数据没有多重线性相关性A.1和2B.2和3C.1,2和3D.以上都不是4、关于正态分布,下列说法错误的是:()A.正态分布具有集中性和对称性B.正态分布的均值和方差能够决定正态分布的位置和形态C.正态分布的偏度为0,峰度为1D.标准正态分布的均值为0,方差为15、决策树的父节点和子节点的熵的大小关系是什么?()A.决策树的父节点更大B.子节点的熵更大C.两者相等D.根据具体情况而定6、下列关于极大似然估计(MaximumLikelihoodEstimate,MLE),说法正确的是(多选)?()A.MLE可能并不存在B.MLE总是存在C.如果MLE存在,那么它的解可能不是唯一的D.如果MLE存在,那么它的解一定是唯一的7、一般来说,下列哪种方法常用来预测连续独立变量?()A.线性回归B.逻辑回顾C.线性回归和逻辑回归都行D.以上说法都不对8、你使用随机森林生成了几百颗树(T1,T2,...,Tn),然后对这些树的预测结果进行综合,下列说法正确的是:()1、每棵树是通过所有数据的子集构建而成的2、每棵树学习的样本数据都是通过随机有放回采样而得的3、每棵树是通过数据集的子集和特征的子集构建而成的4、每棵树是通过所有的数据构建而成的A.1和2B.2和4C.1、2和3D.2和39、下面关于随机森林和GBDT的说法正确的是:()①这两种方法都可以用来解决分类问题②随机森林解决分类问题,GBDT解决回归问题③随机森林解决回归问题,GBDT解决分类问题④这两种方法都可以用来解决回归问题A.①B.②C.③D.④E.①和④10、关于随机森林和GBDT,下列说法错误的是:()A.随机森林中每个学习器是相互独立的B.随机森林利用了bagging的思想来构建强学习器C.GBDT利用了Boosting的思想来构建强学习器D.GBDT中每个学习器之间没有任何联系二、判断题(本大题共10小题,每题1分,共10分)1、SVM是一个凸优化问题,因此局部最优解一定是全局最优解的优点。()2、错误否定(FalseNegative,FN):预测为假,实际为真。()3、逻辑回归的因变量可以是二分类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释。所以实际中最常用的就是二分类的逻辑回归。()4、决策树只能处理数据型属性。()5、朴素贝叶斯适合高维数据。()6、随机事件X所包含的信息量与其发生的概率有关。发生的概率越小,其信息量就越小。()7、决策树短时间内处理大量数据,得到可行且效果较好的结果。()8、集成学习以boosting、Adaboost等算法为代表的,个体学习器不是串行序列化生成的、具有依赖关系。()9、Adaboost算法流程给数据中的每一个样本一个权重。()10、Adaboost算法流程训练数据中的每一个样本,得到第一个分类器()三、填空(本大题共10小题,每题3分,共30分)1、评判分类效果好坏的三个指标就是上面介绍的三个指标:,,。2、提取出的正确信息条数/提取出的信息条数是。3、模型把训练样本学习“太好了”,可能把一些训练样本自身的特性当做了所有潜在样本都有的一般性质,导致泛化能力下降叫。4、分类是预测,比如把人分为好人和坏人之类的学习任务。5、训练用到的每个样本叫。6、训练过程中用到的数据叫。7、在某些情况下,我们会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们将其称之为。8、聚类的特征选择:从最初的特征中选择最有效的特征,并将其存储在?中。9、聚类的特征提取:通过对进行转换形成新的突出特征。10、聚类的聚类:基于某种距离函数进行相似度度量,获取。四、简答题(本大题共3小题,共30分)1、为什么朴素贝叶斯如此“朴素”?2、简单说下有监督学习和无监督学习的区别?3、特征选择与数据降维(特征提取)?一、选择题1.B 2.C 3.D 4.C 5.B 6.AC 7.A 8.D 9.E 10.D二、判断题1.对 2.对 3.对 4.错 5.错 6.错 7.对 8.错 9.对 10.对 三、填空题1.正确率召回率F值 2.正确率 3.过拟合 4.离散值5.训练样本 6.训练集 7.张量 8.向量 9.选择的特征 10.簇四、简答题1、因为它假定所有的特征在数据集中的作用是同样重要和独立的。正如我们所知,这个假设在现实世界中是很不真实的,因此,说朴素贝叶斯真的很“朴素”。2、答:有监督学习:对具有标记的训练样本进行学习,以尽可能对训练样本集外的数据进行分类预测。(LR,SVM,BP,RF,GBDT)无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。(KMeans,DL)3、答:降维的方法:结合专业知识剔除或合并类别通过数据概要来发现变量间的信息重叠(并剔除或合并类别)对数据进行转换,例如将分类型变量转换为数值型变量使用如主成分分析(PCA)这样的自动降维技术来创建一系列新的变量(原变量的加权平均)。这些变量互不相关,并且其中很小的一个子集就包含了原始数据中很大一部分信息(因此我们可以只使用新变量集的一个子集来实现降维)。可以利用一些数据挖掘的方法:如回归模型、分类和回归树等,这些方法可以用于剔除冗余变量,以及合并分类型变量中的相似类别。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、个人健康和年龄的相关系数是-1.09。根据这个你可以告诉医生哪个结论?()A.年龄是健康程度很好的预测器B.年龄是健康程度很糟的预测器C.以上说法都不对D:两者没关系2、假如我们利用Y是X的3阶多项式产生一些数据(3阶多项式能很好地拟合数据)。那么,下列说法正确的是(多选)?()A.简单的线性回归容易造成高偏差(bias)、低方差(variance)B.简单的线性回归容易造成低偏差(bias)、高方差(variance)C.3阶多项式拟合会造成低偏差(bias)、高方差(variance)D.3阶多项式拟合具备低偏差(bias)、低方差(variance)3、假如你在训练一个线性回归模型,有下面两句话:()1.如果数据量较少,容易发生过拟合。2.如果假设空间较小,容易发生过拟合。关于这两句话,下列说法正确的是?A.1和2都错误B.1正确,2错误C.1错误,2正确D.1和2都正确4、假如我们使用Lasso回归来拟合数据集,该数据集输入特征有100个(X1,X2,…,X100)。现在,我们把其中一个特征值扩大10倍(例如是特征X1),然后用相同的正则化参数对Lasso回归进行修正。那么,下列说法正确的是?()A.特征X1很可能被排除在模型之外B.特征X1很可能还包含在模型之中C.无法确定特征X1是否被舍弃D.以上说法都不对5、假如使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其它特征保持不变。然后重新训练测试。则下列说法正确的是?()A.训练样本准确率一定会降低B.训练样本准确率一定增加或保持不变C.测试样本准确率一定会降低D.测试样本准确率一定增加或保持不变6、下面这张图是一个简单的线性回归模型,图中标注了每个样本点预测值与真实值的残差。计算SSE(平方误差和)为多少?()A.3.02B.0.75C.1.01D.0.6047、关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x是自变量,y是因变量。()A.回归和相关在x和y之间都是互为对称的B.回归和相关在x和y之间都是非对称的C.回归在x和y之间是非对称的,相关在x和y之间是互为对称的D.回归在x和y之间是对称的,相关在x和y之间是非对称的8、关于AdaBoost,下列说法中正确的是(多选):()A.它是一种集成学习算法B.每个分类器的权重和被它正确分类的样本的权重相同C.后一个基学习器要依赖于前一个基学习器的分类错误率和样本的权重D.后一个基学习器每次只学习前一个基学习器被分错的样本9、集成学习策略有哪些() A.投票法B.平均法C.学习法D.上述都有10、集成学习策略常用于分类的是:()A.投票法B.平均法C.学习法D.上述都有二、判断题(本大题共10小题,每题1分,共10分)1、决策树短时间内处理大量数据,得到可行且效果较好的结果。()朴素贝叶斯适合高维数据。()标量是0阶张量。()协方差是衡量两个变量线性相关性强度及变量尺度。()联合分布可求边缘分布,但若只知道边缘分布,无法求得联合分布。()随机变量可以分为离散型随机变量和连续型随机变量。()矩阵的L0范数:矩阵的非0元素的个数,通常用它来表示稀疏,L0范数越小0元素越多,也就越稀疏。()Adaboost算法流程计算该分类器的错误率,根据错误率计算要给分类器分配的权重。()9、Adaboost算法流程将第一个分类器分错误的样本权重增加。()10、Adaboost算法流程然后再用新的样本权重训练数据,得到新的分类器。()三、填空(本大题共10小题,每题3分,共30分)1、一个表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。2、马式距离的特征则是:。3、p(x|θ)是给定参数θ的概率分布:。4、基尼指数(基尼不纯度)=*。5、Gini指数越小表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度。6、表示在样本集合中一个随机选中的样本被分错的概率。7、算法在决策树生成的过程中,用信息增益比来选择特征。8、聚类结果评估:分析结果,如距离误差和(SSE)等。9、人工神经网络(ArtificialNeuralNetworks,ANNs),也简称为神经网络(NNs),是模拟进行信息处理的一种数学模型,以对大脑的生理研究成果为基础,其目的在于模拟大脑的某些机理与机制,实现一些特定的功能。10、生物神经元主要由,,,组成。四、简答题(本大题共3小题,共30分)1、梯度下降法找到的一定是下降最快的方向么?2、什么是最小二乘法?3、K-Means和KNN算法的区别是什么?一、选择题1.C 2.AD 3.B 4.B 5.B 6.A 7.C 8.AC 9.D 10.A二、判断题1.对 2.错 3.对 4.对 5.对 6.对 7.对 8.对 9.对 10.对 三、填空题1.标量 2.平移不变性、旋转不变性、尺度不变性 3.似然函数 4.样本被选中的概率样本被分错的概率 5.越高 6.基尼指数(基尼不纯度) 7.C4.5 8.聚类 9.生物神经网络的结构和功能 10.细胞体树突轴突突触四、简答题1、答:梯度下降法并不是下降最快的方向,它只是目标函数在当前的点的切平面(当然高维问题不能叫平面)上下降最快的方向。在PracticalImplementation中,牛顿方向(考虑海森矩阵)才一般被认为是下降最快的方向,可以达到Superlinear的收敛速度。梯度下降类的算法的收敛速度一般是Linear甚至Sublinear的(在某些带复杂约束的问题)。2、答:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。3、首先,这两个算法解决的是数据挖掘中的两类问题。K-Means是聚类算法,KNN是分类算法。其次,这两个算法分别是两种不同的学习方式。K-Means是非监督学习,也就是不需要事先给出分类标签,而KNN是有监督学习,需要我们给出训练数据的分类标识。最后,K值的含义不同。K-Means中的K值代表K类。KNN中的K值代表K个最接近的邻居。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x是自变量,y是因变量。()A.回归和相关在x和y之间都是互为对称的B.回归和相关在x和y之间都是非对称的C.回归在x和y之间是非对称的,相关在x和y之间是互为对称的D.回归在x和y之间是对称的,相关在x和y之间是非对称的2、逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用?()A.Sigmoid函数B.tanh函数C.ReLU函数D.LeakyReLU函数3、关于两个逻辑回归模型中的β0、β1值,下列说法正确的是?注意:y=β0+β1*x,β0是截距,β1是权重系数。()A.绿色模型的β1比黑色模型的β1大B.绿色模型的β1比黑色模型的β1小C.两个模型的β1相同D.以上说法都不对4、在n维空间中(n>1),下列哪种方法最适合用来检测异常值?()A.正态概率图B.箱形图C.马氏距离D.散点图5、逻辑回归与多元回归分析有哪些不同之处?()A.逻辑回归用来预测事件发生的概率B.逻辑回归用来计算拟合优度指数C.逻辑回归用来对回归系数进行估计D.以上都是6、如果一个SVM模型出现欠拟合,那么下列哪种方法能解决这一问题?()A.增大惩罚参数C的值B.减小惩罚参数C的值C.减小核系数(gamma参数)D.以上都不是7、我们知道二元分类的输出是概率值。一般设定输出概率大于或等于0.5,则预测为正类;若输出概率小于0.5,则预测为负类。那么,如果将阈值0.5提高,例如0.6,大于或等于0.6的才预测为正类。则准确率(Precision)和召回率(Recall)会发生什么变化(多选)?()A.准确率(Precision)增加或者不变B.准确率(Precision)减小C.召回率(Recall)减小或者不变D.召回率(Recall)增大8、集成学习策略常用于处理数值问题的是:()A.投票法B.平均法C.学习法D.上述都有9、关于学习法表述正确的事()A.平均法和投票法是对弱学习器的结果做平均或者投票,相对比较简单,但是可能学习误差较大,于是就有了学习法。B.学习法是一种更为强大的结合策略,即通过另一个学习器来进行结合。C.Stacking是学习法的典型代表。Stacking先从初级数据集训练出初级学习器,然后“生成”一个新数据集用于训练次级学习器。在这个新数据集中,初级学习器的输出被当作样例输入特征。D.上述都对10、以下关于Bagging算法的特点描述正确的是()A.Bagging通过降低基学习器的方差改善了泛化误差B.bagging对样本进行有放回的重采样,学习结果是各个学习模型的平均值C.由于重采样的样本集具有相似性以及使用相同的学习器模型,因此,各学习模型的结果相近,即模型有近似相等的偏差和方差。D.以上描述都对二、判断题(本大题共10小题,每题1分,共10分)1、矩阵的L0范数:矩阵的非0元素的个数,通常用它来表示稀疏,L0范数越小0元素越多,也就越稀疏。()2、随机事件X所包含的信息量与其发生的概率有关。发生的概率越小,其信息量就越小。()3、SVM通过寻找使得训练数据尽可能分开且分类间隔最大的超平面实现结构风险最小化。()4、logit回归输出的是Y属于某一类的概率,也可以表示某事件发生的概率。()5、P(θ|x)是在数据X的支持下,θ发生的概率:后验概率。()6、P(θ)是在没有数据支持下,θ发生的概率:先验概率。()7、F1值定义为:F1=2PR/(P+R)。()8、Adaboost算法流程将所有弱分类器加权求和,得到分类结果(注意是分类器权重)。()9、集成学习通过将多个单个学习器集成/组合在一起,使它们共同完成学习任务,以达到提高预测准确率的目的。()10、Boosting是一个顺序过程,每个后续模型都会尝试纠正先前模型的错误,后续的模型依赖于之前的模型。()三、填空(本大题共10小题,每题3分,共30分)1、算法利用信息增益进行特征的选择,信息增益反映的是给定条件后不确定性减少的程度。2、机器学习中做特征选择时,可能用到的、、、。3、已知坐标轴中两点A(2,−2)B(−1,2),这两点的曼哈顿距离(L1距离)是。4、求函数机制的方法有两大类,分别是和。5、损失函数也叫或。6、从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化叫。7、回归问题对数值型连续随机变量进行预测和建模的监督学习算法。回归往往会通过计算来确定模型的精确性。8、人工神经元模型可以看成是由3种基本元素组成,,。9、学习算法是指针对学习问题的明确规则,学习类型是由参数变化发生的形式决定的,不同的学习算法对神经元的权值调整的表达式是不同的。人工神经网络常用的算法有,,。10、在最基本的BP算法中,学习率在整个训练过程是保持不变的,学习率过,算法可能振荡而不稳定;学习率过,则收敛速度慢,训练时间。四、简答题(本大题共3小题,共30分)1、简单介绍下Logistics回归。?2、常见的分类算法有哪些?3、机器学习能解决哪些问題?每一类使用的常用方法有哪些?举例说明其应用?一、选择题1.C 2.A 3.B 4.C 5.D 6.A 7.AC 8.B 9.D 10.D二、判断题1.对 2.错 3.对 4.对 5.对 6.对 7.对 8.对 9.对 10.对三、填空题1.ID3 2.卡方信息增益平均互信息期望交叉熵 3.7 4.解析解(闭式解)数值解 5.代价函数目标函数 6.特征选择 7.误差(Error) 8.一组连接一个加法器一个激活函数 9.有监督Hebb算法单层感知器梯度LMS算法 10.大小长四、简答题1、答:Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。2、答:SVM、神经网络、随机森林、逻辑回归、KNN、贝叶斯等。3、答:监督学习:分类:逻辑回归、决策树、KNN、随机森林、支持向量机、朴素贝叶斯数字预测:线性回归、KNN、GradientBoosting*AdaBoost无监督学习:聚类、关联分析强化学习一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、点击率预测是一个正负样本不平衡问题(例如99%的没有点击,只有1%点击)。假如在这个非平衡的数据集上建立一个模型,得到训练样本的正确率是99%,则下列说法正确的是?()A.模型正确率很高,不需要优化模型了B.模型正确率并不高,应该建立更好的模型C.无法对模型做出好坏评价D.以上说法都不对2、如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的?()A.增加树的深度B.增加学习率C.减小树的深度D.减少树的数量3、我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,如何有效地训练模型?()A.对训练集随机采样,在随机采样的数据上建立模型B.尝试使用在线机器学习算法C.使用PCA算法减少特征维度D.以上都对4、机器学习中做特征选择时,可能用到的方法有?(多选)()a.卡方b.信息增益c.平均互信息d.期待交叉熵5、如何在监督式学习中使用聚类算法(多选)?()A.首先,可以创建聚类,然后分别在不同的集群上应用监督式学习算法B.在应用监督式学习算法之前,可以将其类别ID作为特征空间中的一个额外的特征C.在应用监督式学习之前,不能创建聚类D.在应用监督式学习算法之前,不能将其类别ID作为特征空间中的一个额外的特征6、下面哪句话是正确的?()A.机器学习模型的精准度越高,则模型的性能越好B.增加模型的复杂度,总能减小测试样本误差C.增加模型的复杂度,总能减小训练样本误差D.以上说法都不对7、如果使用线性回归模型,下列说法正确的是?()A.检查异常值是很重要的,因为线性回归对离群效应很敏感B.线性回归分析要求所有变量特征都必须具有正态分布C.线性回归假设数据中基本没有多重共线性D.以上说法都不对8、以下关于Bagging特点的描述不正确的是()A.Bagging是一个很低效的集成学习算法B.Bagging复杂度与基学习器同阶C.由于每一个样本被选中的概率相同,因此bagging并不侧重于训练数据集中的任何特定实例。D.对于噪声数据,ba

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论