机器学习基础智慧树知到答案2024年太原理工大学_第1页
机器学习基础智慧树知到答案2024年太原理工大学_第2页
机器学习基础智慧树知到答案2024年太原理工大学_第3页
机器学习基础智慧树知到答案2024年太原理工大学_第4页
机器学习基础智慧树知到答案2024年太原理工大学_第5页
已阅读5页,还剩20页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习基础太原理工大学智慧树知到答案2024年第一章测试

样本是连续型数据且有标签,我们采用()进行机器学习。

A:分类算法B:嵌入算法C:回归算法D:聚类算法

答案:C在机器学习中,样本常被分成()。

A:评估集B:训练集C:测试集D:其它选项都有

答案:D机器学习算法需要显示编程,具备归纳、总结等自学习能力。()

A:对B:错

答案:B机器学习和人工智能、深度学习是一个概念,都是指机器模仿人类推理、学习能力。()

A:错B:对

答案:A特征工程非常重要,在采用机器学习算法前,首先需要利用特征工程确定样本属性。()

A:错B:对

答案:B

第二章测试

K近邻算法认为距离越近的相似度越高。()

A:对B:错

答案:AK近邻算法中数据可以不做归一化,因为是否归一化对结果影响不大。()

A:对B:错

答案:BK近邻算法中采用不同的距离公式对于结果没有影响。()

A:错B:对

答案:A在上面图中,K=5,绿色样本的类别是()。

A:蓝色正方形B:红色三角形C:绿色圆形D:不能确定

答案:A在K近邻算法中,K的选择是()?

A:与样本有关B:越小越好C:越大越好D:其它都不正确

答案:A

第三章测试

下列()中两个变量之间的关系是线性的。

A:猫的皮毛颜色和体重B:女儿的身高和父亲的体重C:人的工作环境和健康状况D:重力和质量

答案:D下列说法不正确的是()。

A:回归用于预测输入变量和输出变量之间的关系B:线性回归模型也可以解决线性不可分的情况C:回归就是数据拟合D:回归分析就是研究两个事物的相关性

答案:C从某大学随机选择8名女大学生,其身高x(cm)和体重y(kg)的回归方程是y=0.849x-85.712,则身高172cm的女大学生,预测体重为()。

A:其它都不正确B:小于60.316kgC:60.316kgD:大于60.316kg

答案:Classo中采用的是L2正则化。()

A:对B:错

答案:B线性回归中加入正则化可以降低过拟合。()

A:对B:错

答案:A

第四章测试

以下说法正确的是()。

A:logistic回归的样本属性是连续型数据B:logistic回归是回归模型C:logistic回归只能处理线性可分问题D:logistic回归和线性回归是相同的

答案:Alogistic回归只能用于二分类问题。()

A:错B:对

答案:Alogistic回归中也可以用正则化方法来防止过拟合。()

A:对B:错

答案:A考虑一个有两个属性的logistic回归问题。假设,则分类决策平面是()。

A:B:C:D:

答案:A假设训练了一个logistic回归分类器,对于一个样本我们有,则该式说明()。

A:B:C:D:

答案:AD

第五章测试

以下关于梯度下降算法说法正确的是()。

A:计算预测值和真实值之间的误差B:梯度下降算法是计算目标函数的最大值C:如果目标函数梯度不存在就无法用梯度下降算法D:学习率的选取会影响梯度下降算法的求解速度

答案:D随机梯度下降导致方向变化过大,不能很快收敛到最优解。()

A:错B:对

答案:B小批量梯度下降是结合了批量梯度下降和随机梯度下降,性能比批量梯度下降和随机梯度下降都好。()

A:对B:错

答案:A批量梯度下降是最原始的形式,它是指在每一次迭代时使用一部分样本的梯度来更新参数。()

A:对B:错

答案:B随机梯度下降中每次迭代使用一个样本的梯度。()

A:对B:错

答案:A

第六章测试

决策树模型中建树的基本原则是()。

A:应利用尽可能多的属性B:信息增益大的属性应放在上层C:取值多的属性应放在上层D:取值少的属性应放在上层

答案:B哪些情况下必须停止树的增长()

A:当前数据子集的标签一致B:当前训练误差已经较低C:没有更多可用属性D:当前数据子集为空

答案:ABCD关于决策树剪枝操作正确的描述是()。

A:可以防止过拟合B:用测试集来进行剪枝C:后剪枝优于预剪枝D:可以有效降低训练误差

答案:A决策树模型中如何处理连续型属性()。

A:根据信息增益选择阈值进行离散化B:随机选择数据标签发生变化的位置进行离散化C:直接忽略D:利用固定阈值进行离散化

答案:A下面哪个可能是决策树的决策边界()。

A:B:C:D:

答案:C

第七章测试

下面对集成学习模型中的弱学习器描述错误的是?()

A:弱学习器经常不会过拟合B:弱学习器通常会过拟合C:弱学习器通常带有高偏差,所以其并不能解决复杂学习问题D:弱学习器可以通过集成变成强学习器

答案:B给定数据集及弱分类器如上图,回答问题:初始样本的权重为()。

A:其它都不对B:0.1C:1D:0.5

答案:B给定数据集及弱分类器如上图,回答问题:第一次迭代选择的分类器是(

)。

A:B:任何一个都可以C:D:

答案:CD给定数据集及弱分类器如上图,回答问题:

经过一次迭代,第一个弱学习器的权重为()。

A:0.4236B:0.6496C:其它都不对D:0.3

答案:A给定数据集及弱分类器如上图,回答问题:经过一次迭代,错误分类的样本权重更新为()。

A:B:C:其它都不对D:

答案:D

第八章测试

下列选项中,对于硬间隔支持向量机,超平面应该是()。

A:B:C:D:

答案:B下列选项中,对于软间隔支持向量机,超平面应该是()。

A:B:C:D:

答案:D现有一个能被正确分类且远离超平面的样本,如果将其删除,不会影响超平面的选择。()

A:错B:对

答案:B上图中,长方形框中的样本松弛变量的值为()。

A:大于1B:等于1C:大于0,小于1D:等于0

答案:A上图中哪个超平面泛化能力更强()。

A:BB:AC:A、B一样D:其它都不对

答案:B

第九章测试

训练样本如下,其中和

是特征,取值的集合为A1={1,2,3}和

A2={S,M,L},C是类标记,取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,样本属于

1的概率为:()

A:10%B:1.48%C:无法确定D:6.67%

答案:B训练样本如上,其中和是特征,取值的集合为A1={1,2,3}和

A2={S,M,L},C是类标记,取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,确定的分类为:()

A:-1B:1C:1或者-1都可以D:无法确定

答案:A训练样本如上,其中和是特征,取值的集合为A1={1,2,3}和

A2={S,M,L},C是类标记,取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,样本属于

-1的概率为:()

A:无法确定B:1.48%C:6.67%D:10%

答案:D朴素贝叶斯的基本假设是属性之间是相互独立的。()

A:对B:错

答案:A朴素贝叶斯是概率模型。()

A:对B:错

答案:A

第十章测试

以下对经典K-means聚类算法解释正确的是()

A:不能自动识别类的个数,随机挑选初始点为中心点计算B:能自动识别类的个数,随机挑选初始点为中心点计算C:能自动识别类的个数,不能随机挑选初始点为中心点计算D:不能自动识别类的个数,不能随机挑选初始点为中心点计算

答案:A以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代中,样本“15”到质心16的距离是()

A:1B:3C:6D:0

答案:A以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代结束后,样本20的分类为()

A:都不属于B:原质心16的类C:原质心22的类D:不能计算

答案:C以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代结束后,原质心16的类包含()个样本。

A:3B:5C:2D:1

答案:A以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代结束后,原质心16更新后的质心是()。

A:36.25B:15.33C:15D:17.2

答案:B

第十一章测试

如果某个项集是频繁的,那么它的所有子集也是频繁的。()

A:错B:对

答案:B如果某个项集是频繁的,那么它的所有超集也是频繁的。()

A:错B:对

答案:A根据上面交易记录,回答问题:2级频繁项集有()。

A:尿布,橙汁B:豆奶,葡萄酒C:橙汁,豆奶D:尿布,豆奶

答案:D根据上面交易记录,回答问题:规则“豆奶->莴苣”的可信度是()。

A:4/4B:1C:3/5D:3/4

答案:D根据上面交易记录,回答问题:“豆奶”的支持度是()。

A:3/5B:2/5C:1D:4/5

答案:D

第十二章测试

下列关于主成分分析法(PCA)说法错误的是?()

A:要选出方差最小的作为主成分B:主成分分析法可用于低维数据的可视化处理C:进行主成分分析之前要对数据进行中心化D:要选出方差最大的作为主成分

答案:A主成分分析是一个线性变化,就是把数据变换到一个新的坐标系统中。()

A:对B:错

答案:A假设将原矩阵降维到一维,采用的特征向量为,则映射后的结果为()。

A:B:C:D:其它结果都不对

答案:B假设有五条样本,属性是二维,样本数据为:请回答以下问题:协方差矩阵为()。

A:其它结果都不对

B:C:D:

答案:C假设有五条样本,属性是二维,样本数据为:请回答以下问题:进行中心化后的结果为()。

A:B:其它结果都不对C:D:

答案:C

第十三章测试

以下说法中错误的是()。

A:正定矩阵的特征值即为奇异值B:ATA的特征值的平方根即为A的奇异值C:负定矩阵的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论