机器学习基础知到智慧树章节测试课后答案2024年秋太原理工大学_第1页
机器学习基础知到智慧树章节测试课后答案2024年秋太原理工大学_第2页
机器学习基础知到智慧树章节测试课后答案2024年秋太原理工大学_第3页
机器学习基础知到智慧树章节测试课后答案2024年秋太原理工大学_第4页
机器学习基础知到智慧树章节测试课后答案2024年秋太原理工大学_第5页
已阅读5页,还剩23页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习基础知到智慧树章节测试课后答案2024年秋太原理工大学第一章单元测试

样本是连续型数据且有标签,我们采用()进行机器学习。

A:分类算法B:嵌入算法C:聚类算法D:回归算法

答案:回归算法在机器学习中,样本常被分成()。

A:评估集B:测试集C:其它选项都有D:训练集

答案:其它选项都有机器学习算法需要显示编程,具备归纳、总结等自学习能力。()

A:错B:对

答案:错机器学习和人工智能、深度学习是一个概念,都是指机器模仿人类推理、学习能力。()

A:错B:对

答案:错特征工程非常重要,在采用机器学习算法前,首先需要利用特征工程确定样本属性。()

A:对B:错

答案:对

第二章单元测试

K近邻算法认为距离越近的相似度越高。()

A:对B:错

答案:对K近邻算法中数据可以不做归一化,因为是否归一化对结果影响不大。()

A:错B:对

答案:错K近邻算法中采用不同的距离公式对于结果没有影响。()

A:错B:对

答案:错在上面图中,K=5,绿色样本的类别是()。

A:蓝色正方形B:红色三角形C:绿色圆形D:不能确定

答案:蓝色正方形在K近邻算法中,K的选择是()?

A:越大越好B:其它都不正确C:与样本有关D:越小越好

答案:与样本有关

第三章单元测试

下列()中两个变量之间的关系是线性的。

A:人的工作环境和健康状况B:猫的皮毛颜色和体重C:重力和质量D:女儿的身高和父亲的体重

答案:重力和质量下列说法不正确的是()。

A:回归分析就是研究两个事物的相关性B:回归就是数据拟合C:回归用于预测输入变量和输出变量之间的关系D:线性回归模型也可以解决线性不可分的情况

答案:回归就是数据拟合从某大学随机选择8名女大学生,其身高x(cm)和体重y(kg)的回归方程是y=0.849x-85.712,则身高172cm的女大学生,预测体重为()。

A:60.316kgB:大于60.316kgC:其它都不正确D:小于60.316kg

答案:60.316kglasso中采用的是L2正则化。()

A:错B:对

答案:错线性回归中加入正则化可以降低过拟合。()

A:错B:对

答案:对

第四章单元测试

以下说法正确的是()。

A:logistic回归只能处理线性可分问题B:logistic回归和线性回归是相同的C:logistic回归是回归模型D:logistic回归的样本属性是连续型数据

答案:logistic回归的样本属性是连续型数据logistic回归只能用于二分类问题。()

A:错B:对

答案:错logistic回归中也可以用正则化方法来防止过拟合。()

A:对B:错

答案:对考虑一个有两个属性的logistic回归问题。假设,则分类决策平面是()。

A:B:C:D:

答案:假设训练了一个logistic回归分类器,对于一个样本我们有,则该式说明()。

A:B:C:D:

答案:;

第五章单元测试

以下关于梯度下降算法说法正确的是()。

A:计算预测值和真实值之间的误差B:如果目标函数梯度不存在就无法用梯度下降算法C:学习率的选取会影响梯度下降算法的求解速度D:梯度下降算法是计算目标函数的最大值

答案:学习率的选取会影响梯度下降算法的求解速度随机梯度下降导致方向变化过大,不能很快收敛到最优解。()

A:错B:对

答案:对小批量梯度下降是结合了批量梯度下降和随机梯度下降,性能比批量梯度下降和随机梯度下降都好。()

A:错B:对

答案:对批量梯度下降是最原始的形式,它是指在每一次迭代时使用一部分样本的梯度来更新参数。()

A:错B:对

答案:错随机梯度下降中每次迭代使用一个样本的梯度。()

A:错B:对

答案:对

第六章单元测试

决策树模型中建树的基本原则是()。

A:取值多的属性应放在上层B:应利用尽可能多的属性C:信息增益大的属性应放在上层D:取值少的属性应放在上层

答案:信息增益大的属性应放在上层哪些情况下必须停止树的增长()

A:当前数据子集为空B:当前数据子集的标签一致C:没有更多可用属性D:当前训练误差已经较低

答案:当前数据子集为空;当前数据子集的标签一致;没有更多可用属性;当前训练误差已经较低关于决策树剪枝操作正确的描述是()。

A:可以有效降低训练误差B:后剪枝优于预剪枝C:用测试集来进行剪枝D:可以防止过拟合

答案:可以防止过拟合决策树模型中如何处理连续型属性()。

A:根据信息增益选择阈值进行离散化B:随机选择数据标签发生变化的位置进行离散化C:直接忽略D:利用固定阈值进行离散化

答案:根据信息增益选择阈值进行离散化下面哪个可能是决策树的决策边界()。

A:B:C:D:

答案:

第七章单元测试

下面对集成学习模型中的弱学习器描述错误的是?()

A:弱学习器通常会过拟合B:弱学习器通常带有高偏差,所以其并不能解决复杂学习问题C:弱学习器可以通过集成变成强学习器D:弱学习器经常不会过拟合

答案:弱学习器通常会过拟合给定数据集及弱分类器如上图,回答问题:初始样本的权重为()。

A:0.5B:1C:0.1D:其它都不对

答案:0.1给定数据集及弱分类器如上图,回答问题:第一次迭代选择的分类器是(

)。

A:任何一个都可以B:C:D:

答案:;给定数据集及弱分类器如上图,回答问题:

经过一次迭代,第一个弱学习器的权重为()。

A:其它都不对B:0.6496C:0.4236D:0.3

答案:0.4236给定数据集及弱分类器如上图,回答问题:经过一次迭代,错误分类的样本权重更新为()。

A:其它都不对B:C:D:

答案:

第八章单元测试

下列选项中,对于硬间隔支持向量机,超平面应该是()。

A:B:C:D:

答案:下列选项中,对于软间隔支持向量机,超平面应该是()。

A:B:C:D:

答案:现有一个能被正确分类且远离超平面的样本,如果将其删除,不会影响超平面的选择。()

A:错B:对

答案:对上图中,长方形框中的样本松弛变量的值为()。

A:大于0,小于1B:等于0C:大于1D:等于1

答案:大于1上图中哪个超平面泛化能力更强()。

A:AB:其它都不对C:A、B一样D:B

答案:A

第九章单元测试

训练样本如下,其中和

是特征,取值的集合为A1={1,2,3}和

A2={S,M,L},C是类标记,取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,样本属于

1的概率为:()

A:6.67%B:无法确定C:1.48%D:10%

答案:1.48%训练样本如上,其中和是特征,取值的集合为A1={1,2,3}和

A2={S,M,L},C是类标记,取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,确定的分类为:()

A:1或者-1都可以B:-1C:1D:无法确定

答案:-1训练样本如上,其中和是特征,取值的集合为A1={1,2,3}和

A2={S,M,L},C是类标记,取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,样本属于

-1的概率为:()

A:1.48%B:10%C:无法确定D:6.67%

答案:10%朴素贝叶斯的基本假设是属性之间是相互独立的。()

A:错B:对

答案:对朴素贝叶斯是概率模型。()

A:错B:对

答案:对

第十章单元测试

以下对经典K-means聚类算法解释正确的是()

A:能自动识别类的个数,不能随机挑选初始点为中心点计算B:能自动识别类的个数,随机挑选初始点为中心点计算C:不能自动识别类的个数,随机挑选初始点为中心点计算D:不能自动识别类的个数,不能随机挑选初始点为中心点计算

答案:不能自动识别类的个数,随机挑选初始点为中心点计算以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代中,样本“15”到质心16的距离是()

A:0B:6C:3D:1

答案:1以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代结束后,样本20的分类为()

A:都不属于B:原质心16的类C:不能计算D:原质心22的类

答案:原质心22的类以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代结束后,原质心16的类包含()个样本。

A:5B:2C:1D:3

答案:3以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代结束后,原质心16更新后的质心是()。

A:15.33B:15C:36.25D:17.2

答案:15.33

第十一章单元测试

如果某个项集是频繁的,那么它的所有子集也是频繁的。()

A:对B:错

答案:对如果某个项集是频繁的,那么它的所有超集也是频繁的。()

A:对B:错

答案:错根据上面交易记录,回答问题:2级频繁项集有()。

A:橙汁,豆奶B:尿布,豆奶C:尿布,橙汁D:豆奶,葡萄酒

答案:尿布,豆奶根据上面交易记录,回答问题:规则“豆奶->莴苣”的可信度是()。

A:4/4B:1C:3/4D:3/5

答案:3/4根据上面交易记录,回答问题:“豆奶”的支持度是()。

A:1B:4/5C:3/5D:2/5

答案:4/5

第十二章单元测试

下列关于主成分分析法(PCA)说法错误的是?()

A:主成分分析法可用于低维数据的可视化处理B:要选出方差最大的作为主成分C:进行主成分分析之前要对数据进行中心化D:要选出方差最小的作为主成分

答案:要选出方差最小的作为主成分主成分分析是一个线性变化,就是把数据变换到一个新的坐标系统中。()

A:对B:错

答案:对假设将原矩阵降维到一维,采用的特征向量为,则映射后的结果为()。

A:B:C:其它结果都不对D:

答案:假设有五条样本,属性是二维,样本数据为:请回答以下问题:协方差矩阵为()。

A:B:C:其它结果都不对

D:

答案:假设有五条样本,属性是二维,样本数据为:请回答以下问题:进行中心化后的结果为()。

A:B:C:D:其它结果都不对

答案:

第十三章单元测试

以下说法中错误的是()。

A:ATA的特征值的平方根即为A的奇异值B:正定矩阵的特征值即为奇异值C:AAT的特征值的平方根即为A的奇

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论