版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
机器学习智慧树知到期末考试答案+章节答案2024年同济大学EM算法一定会收敛,但是可能收敛到局部最优。()
答案:对ID3决策树学习算法是以信息增益为准则来选择划分属性的。()
答案:对逻辑回归LR是参数模型,支持向量机SVM也是参数模型。()
答案:错数据集D的纯度可用它的基尼值来度量,基尼值越大,则数据集D的纯度越高。()
答案:错给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小。()
答案:对在模型中增加更多特征一般会增加训练样本的准确率,减小bias,但是测试样本准确率不一定增加。()
答案:对一般来说,回归不用在分类问题上,但是也有特殊情况,比如logistic回归可以用来解决0/1分类问题。()
答案:对如果自变量X和因变量Y之间存在高度的非线性和复杂关系,那么树模型很可能劣于经典回归方法。()
答案:错选项中哪种方法可以用来减小过拟合?()
答案:L2正则化###减小模型的复杂度###L1正则化###更多的训练数据变量选择是用来选择最好的判别器子集,如果要考虑模型效率,我们应该做哪些变量选择的考虑?()
答案:多个变量是否有相同的功能###交叉验证###特征是否携带有效信息
答案:(b)###(c)关于SVM与感知机,选项中说法正确的是:()
答案:都是用于分类的监督学习算法###优化方法方面,感知机采用梯度下降法,而SVM采用不等式约束结合拉格朗日乘子###损失函数方面,感知机采用的是误分类,易造成过拟合,而SVM采用间隔最大化(合页损失函数),一定程度上可避免过拟合###感知机只用于线性分类,SVM可用于线性和非线性分类选项中关于RandomForest和GradientBoostingTrees说法正确的是?()
答案:两者都使用随机特征子集来创建中间树
答案:垂直偏移(verticaloffsets)假如使用一个较复杂的回归模型来拟合样本数据,使用Ridge回归,调试正则化参数λ,来降低模型复杂度。若λ较小时,关于偏差(bias)和方差(variance),下列说法正确的是?()
答案:若λ较小时,偏差减小,方差增大朴素贝叶斯分类器是一种特殊的Bayes分类器,特征变量是X,类别标签是C,它的一个假定是:()
答案:以0为均值,sqr(2)/2为标准差的正态分布
答案:100%在数据预处理阶段,我们常常对数值特征进行归一化或标准化(standardization,normalization)处理。这种处理方式理论上不会对下列哪个模型产生很大影响?()
答案:决策树下面哪句话是正确的?()
答案:增加模型的复杂度,总能减小训练样本误差
答案:(b)假设某地区流行病识别中,正常(w1)和异常(w2)两类的先验概率分别为:正常状态:P(w1)=0.9异常状态:P(w1)=0.1现有一待识别个例,其观察值为x,从类条件概率密度分布曲线上可查得:p(x|w1)=0.2,p(x|w2)=0.4那么该个例的状态是()
答案:正常状态下列说法错误的是?()
答案:沿负梯度的方向一定是最优的方向下列哪种方法可以用来减小过拟合?()
答案:减小模型的复杂度###L2正则化###L1正则化###更多的训练数据回归问题和分类问题都有可能发生过拟合。()
答案:对k均值算法可看作是高斯混合聚类在混合成分方差相等、且每个样本仅指派给一个混合成分时的特例。()
答案:对一个循环神经网络可以被展开成为一个完全连接的、具有无限长度的普通神经网络。()
答案:对支持向量机SVM是结构风险最小化模型,而逻辑回归LR是经验风险最大化模型。()
答案:错L1范数和L2范数正则化都有助于降低过拟合风险,但后者还会带来一个额外的好处:它比前者更易于获得"稀疏"(sparse)解。()
答案:错决策树的分界面是线性的。()
答案:错在决策树学习过程中,如果当前结点划分属性为连续属性,那么该属性还可作为其后代结点的划分属性。()
答案:对K-means算法中初始点的选择对最终结果没有影响,不同的初始值结果都一样。()
答案:错监督式学习中存在过拟合,而对于非监督式学习来说,没有过拟合。()
答案:错SVM对缺失数据敏感,而且当观测样本很多时,SVM方法的效率也不是很高。()
答案:对在决策树的划分属性选择中,信息增益准则对可取值数目较少的属性有所偏好,而增益率准则对可取值数目较多的属性有所偏好。()
答案:错Logistic回归目标函数是最小化后验概率。()
答案:错剪枝(pruning)是决策树学习算法对付"欠拟合"的主要手段,其基本策略有"预剪枝"(pre-pruning)和"后剪枝"(post-pruning)。()
答案:错对于PCA处理后的特征,其朴素贝叶斯特征相互独立的假设一定成立,因为所有主成分都是正交的,所以不相关。()
答案:错SVM不直接依赖数据分布,而逻辑回归LR则依赖整体数据分布,因为SVM只与支持向量那几个点有关系,而LR和所有点都有关系。()
答案:对后剪枝决策树通常比预剪枝决策树保留了更多的分支。一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树。()
答案:对关于神经网络,下列说法正确的是?()
答案:减少网络层数,可能会减少测试集分类错误率###增加网络层数,可能会增加测试集分类错误率以下描述中,对梯度解释正确的是()
答案:梯度是一个向量,有方向有大小###求梯度就是对梯度向量的各个元素求偏导建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现3对变量(Var1和Var2、Var2和Var3、Var3和Var1)之间的相关性分别为-0.98、0.45和1.23。我们能从中推断出什么呢?()
答案:Var3和Var1相关系数为1.23是不可能的###Var1和Var2存在多重共线性,模型可以去掉其中一个特征###Var1和Var2具有很高的相关性对于划分属性选择,选项中说法正确的是()
答案:增益率准则对可取值数目较少的属性有所偏好###C4.5算法并不是直接选择增益率最大的候选划分属性,而是先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。###信息增益准则对可取值数目较多的属性有所偏好影响聚类算法结果的主要因素有()。
答案:特征选取;###分类准则;###模式相似性测度。下列方法中,可以用于特征降维的方法包括?()
答案:线性判别分析LDA###主成分分析PCA###矩阵奇异值分解SVD###AutoEncoder下列关于PCA说法正确的是?()
答案:在使用PCA之前,我们必须标准化数据###应该选择具有最大方差的主成分###可以使用PCA在低维空间中可视化数据以下哪种方法属于判别式模型(discriminativemodel)?()
答案:支持向量机###线性判别分析LDA集成学习中个体学习器多样性增强的主要途径有:()
答案:数据样本扰动###输出表示扰动###算法参数扰动###输入属性扰动有一些基学习器对数据样本的扰动不敏感,称为稳定基学习器。下列学习器属于稳定基学习器的是:()
答案:线性学习器###k近邻学习器###支持向量机###朴素贝叶斯智能化中医望诊时,对一幅舌脉图像(伸出舌头的人脸图像),希望把舌头部分从人脸的其他部分划分出来,可以采用以下方法:将整幅图的每个象素的属性记录在一张数据表中,然后用某种方法将这些数据按它们的自然分布状况划分成两类。因此每个象素就分别得到相应的类别号,从而实现了舌头图像的分割。那么这种方法属于:()
答案:非监督学习关于L1、L2正则化下列说法正确的是?()
答案:L1正则化得到的解更加稀疏已知坐标系中两点A(2,−2)和B(−1,2),这两点的曼哈顿距离(L1距离)是()
答案:7模型的bias很高,我们如何降低它?()
答案:在特征空间中增加特征K-Means算法无法聚以下哪种形状的样本?()
答案:螺旋分布k-NN最近邻方法在什么情况下效果较好?()
答案:样本较少但典型性好假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,你会得到输出-0.01。X可能是以下哪一个激活函数?()
答案:tanh如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?()
答案:选项中的说法都不对假设我们使用原始的非线性可分版本的Soft-SVM优化目标函数。我们需要做什么来保证得到的模型是线性可分离的?()
答案:C正无穷大线性回归能完成的任务是()
答案:预测连续值Dropout技术在下列哪种神经层中将无法发挥显著优势?()
答案:RNN层逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用?()
答案:Sigmoid函数选项中关于线性回归分析中的残差(Residuals)说法正确的是?()
答案:残差均值总是为零机器学习训练时,Mini-Batch的大小优选为2个的幂,如256或512。它背后的原因是什么?()
答案:Mini-Batch设为2的幂,是为了符合CPU、GPU的内存要求,利于并行化处理如果两个变量相关,那么它们一定是线性关系吗?()
答案:不一定选项中哪些方法不可以直接来对文本分类?()
答案:K-Means我们想在大数据集上训练决策树,为了使用较少时间,我们可以()
答案:减少树的深度关于欠拟合(under-fitting),下面哪个说法是正确的?()
答案:训练误差较大,测试误差较大在n维空间中(n>1),下列哪种方法最适合用来检测异常值?()
答案:马氏距离SVM中核技巧(Kernaltrick)的作用包括以下哪项?()
答案:特征升维关于特征选择,下列对Ridge回归和Lasso回归说法正确的是?()
答案:Lasso回归适用于特征选择我们希望减少数据集中的特征数量。你可以采取以下哪一个步骤来减少特征?()
答案:使用反向消除法(BackwardElimination)###计算不同特征之间的相关系数,删去相关系数高的特征之一###使用正向选择法(ForwardSelection)###逐步选择消除法(Stepwise)下列哪一种方法的系数没有闭式(closed-form)解?()
答案:Lasso关于L1正则和L2正则下面的说法正确的是()
答案:L1范数会使权值稀疏###L2正则化表示各个参数的平方和的开方值以下哪些方法不可以直接来对文本分类?()
答案:K-Means我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,如何有效地训练模型?()
答案:尝试使用在线机器学习算法###对训练集随机采样,在随机采样的数据上建立模型###使用PCA算法减少特征维度
答案:30
答案:100%下列哪些算法可以用来够造神经网络?()
答案:线性回归###逻辑回归如何在监督式学习中使用聚类算法?()
答案:首先,可以创建聚类,然后分别在不同的集群上应用监督式学习算法###在应用监督式学习算法之前,可以将其类别ID作为特征空间中的一个额外的特征向量x=[1,2,3,4,-9,0]的L1范数是()
答案:19k均值算法和"学习向量量化"都是原型聚类方法,也都属于无监督学习方法。()
答案:错K-Means聚类的主要缺点有:()
答案:K值很难确定###聚类效果依赖于聚类中心的初始化###对于非凸数据集或类别规模差异太大的数据效果不好###对噪音和异常点敏感下列聚类方法属于原型聚类的是()
答案:高斯混合聚类###K-Means算法###学习向量量化LVQ数据科学家经常使用多个算法进行预测,并将多个机器学习算法的输出(称为“集成学习”)结合起来,以获得比所有个体模型都更好的更健壮的输出。则下列说法正确的是?()
答案:基本模型之间相关性低下面关于RandomForest和GradientBoostingTrees说法正确的是?()
答案:两者都使用随机特征子集来创建中间树如果用“三个臭皮匠顶个诸葛亮”来比喻集成学习的话,那么对三个臭皮匠的要求可能是:()
答案:三个臭皮匠不能太差,每个人考试都能及格###三个臭皮匠的优点各不相同集成学习中个体学习器的多样性不宜高,否则容易顾此失彼,降低系统的总体性能。()
答案:错以下方法属于集成学习方法的是()
答案:bagging###boosting###stacking下列关于极大似然估计(MaximumLikelihoodEstimate,MLE),说法正确的是()
答案:如果MLE存在,那么它的解可能不是唯一的###MLE可能并不存在
答案:(b)###(c)朴素贝叶斯分类器有属性条件独立的假设前提。()
答案:对朴素贝叶斯属于生成式模型,而SVM和决策树属于判别式模型。()
答案:对关于贝叶斯网络,以下说法正确的是:()
答案:贝叶斯网络又称信念网络###贝叶斯网络是有向无环图模型###贝叶斯网络是一种概率图模型逻辑回归LR是参数模型,支持向量机SVM是非参数模型。()
答案:对关于SVM与感知机,以下说法正确的是:()
答案:感知机只用于线性分类,SVM可用于线性和非线性分类###都是用于分类的监督学习算法###优化方法方面,感知机采用梯度下降法,而SVM采用不等式约束结合拉格朗日乘子###损失函数方面,感知机采用的是误分类,易造成过拟合,而SVM采用间隔最大化(合页损失函数),一定程度上可避免过拟合如果SVM模型欠拟合,以下方法哪些可以改进模型()
答案:增大惩罚参数C的值支持向量机SVM是结构风险最小化模型,而逻辑回归LR是经验风险最小化模型。()
答案:对在训练完SVM之后,我们可以只保留支持向量,而舍去所有非支持向量,仍然不会影响模型分类能力。()
答案:对关于SVM如何选用核函数,下列说法正确的是:()
答案:线性核主要用于线性可分以及样本数与特征数差不多的情况###非线性核主要用于线性不可分以及特征数较少样本量一般的情况###高斯核和tanh核都属于非线性核,而且高斯核还可以把原始维度映射到无穷多维深度神经网络中常用Relu函数作为激活函数,其好处是:()
答案:收敛快###具有稀疏特性###求梯度简单梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?()
答案:梯度裁剪在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟合(over-fitting)中影响最大?()
答案:多项式阶数在决策树分割结点的时候,下列关于信息增益说法正确的是()
答案:信息增益可以用”1比特-熵”获得###如果选择一个属性具有许多特征值,那么这个信息增益是有偏差的对于划分属性选择,以下说法正确的是()
答案:信息增益准则对可取值数目较多的属性有所偏好###增益率准则对可取值数目较少的属性有所偏好###C4.5算法并不是直接选择增益率最大的候选划分属性,而是先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。在决策树学习过程中,用属性α对样本集D进行划分所获得的"信息增益"越大,则意味着使用属性α来进行划分所获得的"纯度提升"越大。()
答案:对数据集D的纯度可用它的基尼值来度量,基尼值越小,则数据集D的纯度越高。()
答案:对如果自变量X和因变量Y之间存在高度的非线性和复杂关系,那么树模型很可能优于经典回归方法。()
答案:对一般来说,下列哪种方法常用来预测连续独立变量?()
答案:线性回归点击率预测是一个正负样本不平衡问题(例如99%的没有点击,只有1%点击)。假如在这个非平衡的数据集上建立一个模型,得到训练样本的正确率是99%,则下列说法正确的是?()
答案:模型正确率并不高,应该建立更好的模型加入使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其它特征保持不变。然后重新训练测试。则下列说法正确的是?()
答案:训练样本准确率一定增加或保持不变
答案:垂直偏移(verticaloffsets)下列关于线性回归分析中的残差(Residuals)说法正确的是?()
答案:残差均值总是为零下列哪些假设是我们推导线性回归参数时遵循的?()
答案:X与Y有线性关系(多项式关系)###模型误差在统计学上是独立的###误差一般服从0均值和固定标准差的正态分布###X是非随机且测量没有误差的下列关于bootstrap说法正确的是?()
答案:从总的N个样本中,有放回地抽取n个样本(n<N)评估完模型之后,发现模型存在高偏差(highbias),应该如何解决?()
答案:增加模型的特征数量小明参加Kaggle某项大数据竞赛,他的成绩在大赛排行榜上原本居于前20,后来他保持特征不变,对原来的模型做了1天的调参,将自己的模型在自己本地测试集上的准确率提升了3%,然后他信心满满地将新模型的预测结果更新到了大赛官网上,结果懊恼地发现自己的新模型在大赛官方
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 教育信息化在校园食品安全中的应用
- 浙教版高中信息技术必修模块《信息技术基础》说课稿:5.3电子公告板
- 小学教师心理健康的重要性与维护策略
- 2025年度酒店行业全面消杀与卫生管理合同
- 《认识小数》(说课稿)-2023-2024学年三年级下册数学人教版
- Unit 3 Lesson1说课稿 2024-2025学年冀教版(2024)七年级英语上册
- 2025年建筑材料研发与技术转让协议2篇
- Unit 5 Places Lesson 2 Our town(说课稿)-2024-2025学年北师大版(三起)英语五年级上册
- 2025年手机销售与售后服务合同范本6篇
- 2 说话要算数2023-2024学年四年级下册道德与法治同步说课稿(统编版)
- 2024年医师定期考核临床业务知识考试题库及答案(共三套)
- 2014新PEP小学英语六年级上册-Unit5-What-does-he-do复习课件
- 建筑材料供应链管理服务合同
- 孩子改名字父母一方委托书
- 2024-2025学年人教版初中物理九年级全一册《电与磁》单元测试卷(原卷版)
- 江苏单招英语考纲词汇
- 2024年事业单位财务工作计划例文(6篇)
- 2024年工程咨询服务承诺书
- 青桔单车保险合同条例
- 车辆使用不过户免责协议书范文范本
- 2023-2024学年天津市部分区九年级(上)期末物理试卷
评论
0/150
提交评论