《机器学习-Python实践》试卷及答案 共5套_第1页
《机器学习-Python实践》试卷及答案 共5套_第2页
《机器学习-Python实践》试卷及答案 共5套_第3页
《机器学习-Python实践》试卷及答案 共5套_第4页
《机器学习-Python实践》试卷及答案 共5套_第5页
已阅读5页,还剩34页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1页,共1页一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、下列哪一项能反映出X和Y之间的强相关性?()A.相关系数为0.9B.对于无效假设β=0的p值为0.0001C.对于无效假设β=0的t值为30D.以上说法都不对2、机器学习中做特征选择时,可能用到的方法有?(多选)()A.卡方B.信息增益C.平均互信息D.期望交叉熵3、以下说法中正确的是()A.SVM对噪声(如来自其他分部的噪声样本)具备鲁棒性B.在adaboost算法中,所有被分错样本的权重更新比例相同C.boosting和bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重D.给定n个数据点,如果其中一半用于训练,一半用户测试,则训练 误差和测试误差之间的差别会随着n的增加而减少4、以下描述错误的是()A.SVM是这样一个分类器,它寻找具有最小边缘的超平面,因此它也经常被称为最小边缘分类器B.在聚类分析当中,簇内的相似性越大,簇间的差别越大,聚类的效果就越差C.在决策树中,随着树中结点输变得太大,即使模型的训练误差还在继续降低,但是检验误差开始增大,这是出现了模型拟合不足的原因D.聚类分析可以看作是一种非监督的分类5、若在二维空间中线性不可分,SVM算法会通过()方法解决。A.核函数B.激活函数C.剪枝D.特征选择6、线性回归能完成的任务是()A.预测离散值B.预测连续值C.分类D.聚类7、产量(X,台)与单位产品成本(y,元/台)之家你的回归方程为y=356-1.5x,这说明()A.产量每增加一台,单位产品成本增加356元B.产品每增加一台,单位产品的成本减少1.5元C.产量每增加一台,单位产品的成本平均增加356元D.产量每增加一台,单位产品成本平均减少1.5元8、下面哪个是通用的模型逼近器?

()

A.KernelSVM

B.NeuralNetworks

C.BoostedDecisionTrees

D.Alloftheabove

9、下面那个问题可以用深度学习来解决?()

A.蛋白质结构预测

B.化学反应的预测

C.外来粒子的检测

D.以上所有

10、当您在CNN中使用1×1卷积时,以下哪个语句是真实的?()A.Itcanhelpindimensionalityreduction

B.Itcanbeusedforfeaturepooling

C.Itsufferslessoverfittingduetosmallkernelsize

D.Alloftheabove

二、判断题(本大题共10小题,每题1分,共10分)1、逻辑回归的目的就是提高二分类的效率。()2、SGD计算根据全部样本构造出来的代价函数的梯度。()3、用线性代数的方式描述函数或者方程的好处之一是书写方便。()4、Π是求积符号。()5、Σ是求和符号。()6、回归任务是预测连续值。()7、分类任务是预测连续值。()8、集成学习:可以用作抽样分布,从原始数据集中提取出自主样本集。 ()9、基学习器可以使用权值学习有利于高权值样本的模型。()10、Boosting:每一轮的训练集不变,只是训练集中每个样本的权重发生变化,权值根据上一轮的预测结果进行调整。()三、填空(本大题共10小题,每题3分,共30分)1、求函数机制的方法有两大类,分别是和。2、机器学习中做特征选择时,可能用到的、、、。3、算法在决策树生成的过程中,用信息增益比来选择特征。4、Gini指数越小表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度。5、p(x|θ)是给定参数θ的概率分布:。6、马式距离的特征则是:。7、一个表示一组有序排列的数。通过次序中的索引,我们可以确定每个单独的数。8、Adaboost算法不需要预先知道的错误率上限,且最后得到的的分类精度依赖于所有弱分类器的分类精度,可以深挖分类器的能力,Adaboost可以根据弱分类器的反馈,自适应地调整假定的错误率,执行的效率高。9、Adaboost可以在不改变训练数据,只改变,使得数据在不同学习器中产生不同作用,类似于重采样。10、关联规则挖掘问题可以划分成两个子问题:发现和生成。四、简答题(本大题共3小题,共30分)1、有数据集D1,其中样本的特征是离散取值(可以简单地考虑取二值),数据集D2和D1基本一样,唯一的区别是D2中每个样本的某个特征被重复了100次,请问在这两个数据集上训练的朴素贝叶斯分类器是否一样,请给出具体分析?2、一元线性回归有哪些基本假定?3、讨论数据数量和质量对机器学习的影响?一、选择题1.A 2.ABCD 3.C 4.C 5.A 6.B 7.D 8.D 9.D 10.D二、判断题1.对 2.错 3.对 4.对 5.对 6.对 7.错 8.对 9.对 10.对 三、填空题1.解析解(闭式解)数值解 2.卡方信息增益平均互信息期望交叉熵 3.C4.5 4.越高 5.似然函数 6.平移不变性、旋转不变性、尺度不变性 7.向量 8.弱分类器强分类器 9.数据权值分布 10.频繁项目集关联规则四、简答题1、解:分类器是不一样的。因为朴素贝叶斯方法假设了特征间的独立性,但D2中的100个特征彼此不独立,因此不在适用,如果用了两者的结果不等。在D2上训练,被重复的特征的概率会被乘100次,放大了它的影响。2、答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0i=1,2,…,n3、答:机器学习需要一定数量的数据作为支揮。数据量:过多会耗費更多的计算资源,还可能有不平衡数据集、维度灾难等问題。数据量过少会导致机器学习的准确率下降,甚至不能完成学习的目标。数据数量和质量问题会导致过拟合或欠拟合的现象,优秀的数据集对机器学习的结果影响是决定性的。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、如果使用线性回归模型,下列说法正确的是?()A.检查异常值是很重要的,因为线性回归对离群效应很敏感B.线性回归分析要求所有变量特征都必须具有正态分布C.线性回归假设数据中基本没有多重共线性D.以上说法都不对2、建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现3对变量(Var1和Var2、Var2和Var3、Var3和Var1)之间的相关性分别为-0.98、0.45和1.23。我们能从中推断出什么呢?()A.Var1和Var2具有很高的相关性B.Var1和Var2存在多重共线性,模型可以去掉其中一个特征C.Var3和Var1相关系数为1.23是不可能的D.以上都对3、下列哪种方法可以用来减小过拟合?(多选)()A.更多的训练数据B.L1正则化C.L2正则化D.减小模型的复杂度4、向量X=[1,2,3,4,-9,0]的L1范数为?()A.1B.19C.6D.√1115、关于L1、L2正则化下列说法正确的是?()A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点B.L2正则化技术又称为LassoRegularizationC.L1正则化得到的解更加稀疏D.L2正则化得到的解更加稀疏6、有N个样本,一般用于训练,一般用于测试。若增大N值,则训 练误差和测试误差之间的差距会如何变化?()A.增大B.减小C.不变D.以上均不对7、在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟 合(over-fitting)中影响最大?()A.多项式阶数B.更新权重w时,使用的是矩阵求逆还是梯度下降C.使用常数项D.学习率8、输入层中的节点数为10,隐层为5。从输入层到隐层的最大连接数 为?

()

A.50

B.Lessthan50

C.Morethan50

D.Itisanarbitraryvalue

9、如果我们希望预测n个类(p1,p2..pk)的概率,使得所有n的p 的和等于1,则以下哪个函数可以用作输出层中的激活函数?

()

A.Softmax

B.ReLu

C.Sigmoid

D.Tanh

10、采取什么措施不可以防止过拟合?()

A.数据压缩;

B.权值共享;

C.提前结束模型迭代;

D.采用dropout;二、判断题(本大题共10小题,每题1分,共10分)1、FP——将负类预测为正类数。()2、交叉熵损失函数的好处是可以克服方差代价函数更新权重过慢的问 题。()3、逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法, 运用梯度下降来求解参数,来达到将数据二分类的目的。()4、SVM无法做多分类。()5、SVM不涉及核函数。()6、BGD计算根据全部样本的构造出来的代价函数的梯度。()7、SGD计算根据全部样本构造出来的代价函数的梯度。()8、Bagging:训练集是在原始集中有放回抽取的,从原始集中选出的训练集之间是独立的。()9、Boosting:根据错误率不断调整样本的权值,错误率越大则权值越大。()10、Bagging:每个样本的权重相等。()三、填空(本大题共10小题,每题3分,共30分)1、熵指的是体系的的程度。2、信息越有序,信息熵越。3、训练过程中用到的数据叫。4、分类是预测,比如把人分为好人和坏人之类的学习任务。5、模型把训练样本学习“太好了”,可能把一些训练样本自身的特性当做了所有潜在样本都有的一般性质,导致泛化能力下降叫。6、评判分类效果好坏的三个指标就是上面介绍的三个指标:,,。7、从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化叫。8、Appriori属性1:如果项目集X是频繁项目集,那么它的所有非空子集都是。9、分类分析的三个步骤:、、。10、决策树包含三种结点:、、。四、简答题(本大题共3小题,共30分)1、决策树的剪枝方法有哪些?2、SVM的超参数有哪些?3、讨论深度学习的发展对推动机器学习的意义?一、选择题1.A 2.D 3.ABCD 4.B 5.C 6.B 7.A 8.A 9.A 10.A二、判断题1.对 2.对 3.对 4.错 5.错 6.对 7.错 8.对 9.对 10.对 三、填空题1.混乱 2.低 3.训练集 4.离散值 5.过拟合 6.正确率召回率F值 7.特征选择 8.频繁项目集 9.挖掘分类规则分类规则评估分类规则应用 10.根结点(矩形表示)内部结点(矩形表示)叶结点/终结点(椭圆表示)四、简答题1、答:预剪枝:提前结束决策树的增长:类目数量、方差性能提升。2、答:C和gamma,C正则系数,gamma决定支持向量的数量。3、答:深度学习需要大量的标记数据并需要大量的计算能力,因此深度学习可以较好地应对机器学习中大规模数据集,为机器学习提供了解决复杂问题的方法。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、产量(X,台)与单位产品成本(y,元/台)之家你的回归方程为y=356-1.5x,这说明()A。产量每增加一台,单位产品成本增加356元B。产品每增加一台,单位产品的成本减少1.5元C.产量每增加一台,单位产品的成本平均增加356元D。产量每增加一台,单位产品成本平均减少1.5元2、直线方程y=wx+b,其中b表示()A.系数B截距C.斜率D权重3、以下描述中,对梯度解释正确的是(多选)()A梯度是一个向量,有方向有大小B求梯度就是对梯度向量的各个元素求偏导C梯度只有大小没有方向D梯度只有方向没有大小4、关于误差ε的说法正确的是(多选)()A误差可以看做随机比变量B误差的概率分布符合正态分布C误差的概率分布符合均匀分布D如果模型设计优良,误差可以避免5、标准差与方差的关系是(多选)()A标准差是方差的算术平方根B标准差可以反映离散程度,也可以反映出样本的量纲C方差只能反映离散程度D标准差的平方是方差6、SVM中的核技巧(Kernaltrick)的作用包括以下哪项?()A.特征升维B.特征降维C.防止过拟合D.处理离散数据7、在数据预处理阶段,我们常常对数值特征进行归一化或标准化 (standardization,normalization)处理。这种处理方式理论上不会对下列 哪个模型产生很大影响?()A.k-MeansB.k-NNC.决策树D.谱聚类8、下面哪个激活函数在图像分类中不能作为输出层?()

A.sigmoid

B.Tanh

C.ReLU

D.If(x>5,1,0)

9、使用batchnormalization可以解决以下哪一个神经网络训练中的 问题?

()

A.防止梯度消失

B.防止激活过高或者过低

C.网络训练太慢

D.B和C10、感知器不包括下面那个结构:()A.输入层B.隐藏层C.输出层D.计算层二、判断题(本大题共10小题,每题1分,共10分)1、预剪枝是在决策树生成过程中,对树进行剪枝,提前结束树的分支 生长。()2、决策树的剪枝基本策略有预剪枝(Pre-Pruning)和后剪枝。()3、常见的决策树算法是ID3,C4.5,CART树。()4、决策树的剪枝是为了简化决策树模型,避免过拟合。()5、最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。()6、朴素贝叶斯(分类器)是一种生成模型,它会基于训练样本对每个可能的类别建模。()7、P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。()8、Boosting:串行,各个及学习器顺序生成,因为后一个模型参数依赖于前一轮模型的预测结果。()9、Bagging:各个学习器可以并行生成。()10、Adaboost采用迭代的思想,继承了Boosting算法,每次迭代只训练一个弱学习器,训练好的弱学习器将参与下一次迭代。()三、填空(本大题共10小题,每题3分,共30分)1、在某些情况下,我们会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们将其称之为。2、回归常用评估方法:,,。3、信息越有序,信息熵越。4、训练用到的每个样本叫。5、模型没有很好地捕捉到数据特征,不能够很好地拟合数据叫。6、提取出的正确信息条数/提取出的信息条数是。7、回归问题对数值型连续随机变量进行预测和建模的监督学习算法。回归往往会通过计算来确定模型的精确性。8、AdaBoost很好的利用了进行级联。9、AdaBoost可以将不同的作为弱分类器。10、AdaBoost具有很高的精度;相对于和,AdaBoost充分考虑的每个分类器的权重。四、简答题(本大题共3小题,共30分)1、SVM、LR、决策树的对比?2、朴素贝叶斯的特点是?3、讨论目前机器学习应用中存在的主要问题?一、选择题1.D 2.B 3.AB 4.AB 5.ABC 6.C 7.C 8.D 9.A 10.D二、判断题1.对 2.对 3.对 4.对 5.对 6.对 7.对 8.对 9.对 10.对 三、填空题1.张量 2.平均误差绝对值误差R2 3.低 4.训练样本 5.欠拟合 6.正确率 7.误差(Error) 8.弱分类器 9.分类算法 10.bagging算法RandomForest算法四、简答题1、模型复杂度:SVM支持核函数,可处理线性非线性问题;LR模型简单,训练速度快,适合处理线性问题;决策树容易过拟合,需要进行剪枝。损失函数:SVMhingeloss;LRL2正则化;Adaboost指数损失。数据敏感度:SVM添加容忍度对outlier不敏感,只关心支持向量,且需要先做归一化;LR对远点敏感。数据量:数据量大就用LR,数据量小且特征少就用SVM非线性核。2、答:优点:在数据较少的情况下仍然有效,可以处理多类别问题。缺点:对于输入数据的准备方式较为敏感。适用数据类型:标称型数据。3、答:选择什么模型或算法、选择什么优化方法、如何对数据进行预处理、目标函数是什么、过拟合与欠拟合的处理、维度爆炸。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、选择Logistic回归中的One-Vs-All方法中的哪个选项是真实的。()A我们需要在n类分类问题中适合n个模型B我们需要适合n-1个模型来分类为n个类C我们需要只适合1个模型来分类为n个类D这些都没有2、假设对给定数据应用了Logistic回归模型,并获得了训练精度X和测试精度Y。现在要在同一数据中添加一些新特征,以下哪些是错误的选项。()注:假设剩余参数相同。A训练精度提高B训练准确度提高或保持不变C测试精度提高或保持不变3、假定特征F1可以取特定值:A、B、C、D、E和F,其代表着学生在大学所获得的评分。在下面说法中哪一项是正确的?()A特征F1是名义变量(nominalvariable)的一个实例。B特征F1是有序变量(ordinalvariable)的一个实例。C该特征并不属于以上的分类。D以上说法都正确。4、下面哪一项对梯度下降(GD)和随机梯度下降(SGD)的描述是正确的?()1在GD和SGD中,每一次迭代中都是更新一组参数以最小化损失函数。2在SGD中,每一次迭代都需要遍历训练集中的所有样本以更新一次参数。3在GD中,每一次迭代需要使用整个训练集的数据更新一个参数。A只有1B只有2C只有3D都正确5、假定你正在处理类属特征,并且没有查看分类变量在测试集中的分 布。现在你想将onehotencoding(OHE)应用到类属特征中。()那么在训练集中将OHE应用到分类变量可能要面临的困难是什么?A.分类变量所有的类别没有全部出现在测试集中B.类别的频率分布在训练集和测试集是不同的C.训练集和测试集通常会有一样的分布D.A和B都正确6、假定你现在解决一个有着非常不平衡类别的分类问题,即主要类别 占据了训练数据的99%。现在你的模型在测试集上表现为99%的准确度。 那么下面哪一项表述是正确的?()1准确度并不适合于衡量不平衡类别问题2准确度适合于衡量不平衡类别问题3精确率和召回率适合于衡量不平衡类别问题4精确率和召回率不适合于衡量不平衡类别问题A1and3B1and4C2and3D2and47、假设我们有一个数据集,在一个深度为6的决策树的帮助下,它可 以使用100%的精确度被训练。现在考虑一下两点,并基于这两点选择正确 的选项。()注意:所有其他超参数是相同的,所有其他因子不受影响。1深度为4时将有高偏差和低方差2深度为4时将有低偏差和低方差A只有1B只有2C1和2D没有一个8、与人类神经元相比,人工神经元的输入类比于什么?()A.树突B.轴突C.细胞核D.细胞膜9、与人类神经元相比,人工神经元的输出类比于什么?()A.树突B.轴突C.细胞核D.细胞膜10、以下关于感知器中的链接方式表示正确的是?()A.输入层与隐藏层相连B.输入层与输出层相连C.隐藏层与细胞核相连D.输入层与输入层相连二、判断题(本大题共10小题,每题1分,共10分)1、P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事 件B发生下事件A的条件概率。()2、输出变量为连续变量的预测问题是分类问题。()3、回归及分类常用的评估指标都是准确率和召回率。()4、决策树只用来分类。()5、一般来说,回归不用在分类问题上,但也有特殊情况,逻辑回归可 以用来解决0/1分类问题。()6、回归问题与分类问题都有可能发生过拟合。()7、如果一个经过训练的机器学习模型在测试集上达到100%的准确率, 这是否意味着该模型将在另外一个新的测试集上也能得到100%的准确率。 ()8、序列数据没有时间戳。()9、定量属性可以是整数值或者是连续值。()10、可视化技术对于分析的数据类型通常不是专用性的。()三、填空(本大题共10小题,每题3分,共30分)1、损失函数也叫或。2、已知坐标轴中两点A(2,−2)B(−1,2),这两点的曼哈顿距离(L1距离)是。3、算法利用信息增益进行特征的选择,信息增益反映的是给定条件后不确定性减少的程度。4、表示在样本集合中一个随机选中的样本被分错的概率。5、基尼指数(基尼不纯度)=*。6、欧式距离的特征是:、。7、一个表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。8、AdaBoost迭代次数也就是数目不太好设定,可以使用交叉验证来进行确定;数据不平衡导致分类精度下降。9、AdaBoost训练比较耗时,每次重新选择最好切分点。10、聚类(Clustering)是指把相似的数据划分到一起,具体划分的时候并不关心这一类的标签,目标就是把相似的数据聚合到一起,聚类是一种。四、简答题(本大题共3小题,共30分)1、决策树算法特点?2、预剪枝核心思想是?3、如果你已经在完全相同的训练集上训练了五个不同的模型,并且它们都达到了95%的准确率,是否还有机会通过结合这些模型来获得更好的结果?如果可以,该怎么做?如果不行,为什么??一、选择题1.A 2.B 3.B 4.A 5.D 6.A 7.A 8.A 9.B 10.A二、判断题1.对 2.错 3.错 4.错 5.对 6.对 7.错 8.对 9.对 10.错 三、填空题1.代价函数目标函数 2.7 3.ID3 4.基尼指数(基尼不纯度) 5.样本被选中的概率样本被分错的概率 6.平移不变性旋转不变性 7.标量 8.弱分类器 9.当前分类器 10.无监督学习(UnsupervisedLearning)方法四、简答题1、答:优点:计算复杂度不高,输出结果易于理解,数据有缺失也能跑,可以处理不相关特征。缺点:容易过拟合。适用数据类型:数值型和标称型。2、答:其中的核心思想就是,在每一次实际对结点进行进一步划分之前,先采用验证集的数据来验证划分是否能提高划分的准确性。如果不能,就把结点标记为叶结点并退出进一步划分;如果可以就继续递归生成节点。3、答:如果你已经训练了五个不同的模型,并且都达到了95%的精度,你可以尝试将它们组合成一个投票集成,这通常会带来更好的结果。如果模型之间非常不同(例如,一个SVM分类器,一个决策树分类器,以及一个Logistic回归分类器等),则效果更优。如果它们是在不同的训练实例(这是bagging和pasting集成的关键点)上完成训练,那就更好了,但如果不是,只要模型非常不同,这个集成仍然有效。一、单项选择题(本大题共10小题,每题3分,共30分)试卷(试卷(学年第1学期)考试科目机器学习-Python实践(A卷)适用专业班级(年级)得分命题人:审阅人:班级学号姓名考试科目装订线1、假设你正在做一个项目,它是一个二元分类问题。你在数据集上训练一个模型,并在验证数据集上得到混淆矩阵。基于上述混淆矩阵,下面哪个选项会给你正确的预测。()1精确度是~0.912错误分类率是~0.913假正率(Falsecorrectclassification)是~0.954真正率(Truepositiverate)是~0.95A1和3B2和4C1和4D2和32、对于下面的超参数来说,更高的值对于决策树算法更好吗?1用于拆分的样本量()2树深3树叶样本A1和2B2和3C1和3D1、2和3E无法分辨3、假如我们使用非线性可分的SVM目标函数作为最优化对象,我们怎么保证模型线性可分?()A设C=1B设C=0C设C=无穷大D以上都不对4、NaveBayes是一种特殊的Bayes分类器,特征变量是X,类别标签是C,它的一个假定是:()A.各类别的先验概率P(C)是相等的B.以0为均值,sqr(2)/2为标准差的正态分布C.特征变量X的各个维度是类别条件独立随机变量D.P(X|C)是高斯分布5、假定某同学使用NaiveBayesian(NB)分类模型时,不小心将训练数据的两个维度搞重复了,那么关于NB的说法中正确的是:()A.这个被重复的特征在模型中的决定作用会被加强B.模型效果相比无重复特征的情况下精确度会降低C.如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样。D.当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题6、统计模式分类问题中,当先验概率未知时,可以使用()A.最小最大损失准则B.最小误判概率准则C.最小损失准则D.N-P判决7、甲盒中有200个螺杆,其中有160个A型螺杆;乙盒中有240个螺母,其中有180个A型的。现从甲乙两盒中各任取一个,则能配成A型螺栓的概率为多少?()A.1/20B.15/16C.3/5D.19/208、关于激活函数功能表述正确的是?()A.信号强度大于阈值的向下一层传播B.信号强度小于阈值的向下一层传播C.信号强度始终不向下一层传播D.以上都不对9、激活函数的作用描述错误的是?()A.辅助信号传输的门控函数B.构建模型的非线性特性C.提升学习复杂模型的能力D.对与非线性没有帮助,可有可无10、如下那些函数没有梯度消失的问题?()A.ReLUB.sigmoidC.tanhD.softmax二、判断题(本大题共10小题,每题1分,共10分)1、如果一个经过训练的机器学习模型在测试集上达到100%的准确率, 这是否意味着该模型将在另外一个新的测试集上也能得到100%的准确率。 ()2、如果自变量X和因变量Y之间存在高度的非线性和复杂关系,那 么树模型很可能优于经典回归方法。()3、在训练完SVM之后,我们可以只保留支持向量,而舍去所有非支持 向量。 仍然不会影响模型分类能力。()4、两个变量相关,它们的相关系数r

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论