机器学习智慧树知到期末考试答案2024年_第1页
机器学习智慧树知到期末考试答案2024年_第2页
机器学习智慧树知到期末考试答案2024年_第3页
机器学习智慧树知到期末考试答案2024年_第4页
机器学习智慧树知到期末考试答案2024年_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习智慧树知到期末考试答案2024年机器学习下列关于感知器算法的说法中错误的是()

A:在感知器算法中的学习率是可以改变的B:感知器算法也适用于线性不可分的样本C:在感知器算法中,如果样本不是线性可分的,则算法最后不会收敛D:在感知器算法中可以通过调整学习率来减少迭代次数答案:感知器算法也适用于线性不可分的样本关于K均值算法说法不正确的是()。

A:使用时需要预先确定聚类的类数B:K均值算法是基于划分的聚类C:K均值算法不适用于所有的聚类问题D:当类中数据集构成凸集时,取得最差的效果答案:K一个正例(2,3),一个负例(0,-1),下面哪个是SVM超平面?()

A:x+2y-3=0B:2x+y-4=0C:无法计算D:2y+x-5=0答案:x+2y-3=0Logistic回归与多重线性回归比较()

A:logistic回归的因变量为二分类变量B:Logistic回归和多重线性回归的因变量都可为二分类变量C:Logistic回归的自变量必须是二分类变量D:多重线性回归的因变量为二分类变量答案:logistic回归的因变量为二分类变量下面关于机器学习与深度学习的描述错误的是()

A:深度学习是多层人工神经网络,典型模型包括卷积神经网络等B:深度学习是机器学习的一个分支C:深度学习由人工神经网络演变而来D:卷积结构是循环神经网络基础结构答案:深度学习是机器学习的一个分支主成分分析中,各主成分之间()

A:存在线性关系B:互不相关C:相互独立D:彼此相关答案:互不相关关于L1、L2正则化下列说法正确的是?()

A:L1正则化得到的解更加稀疏B:L2正则化技术又称为LassoRegularizationC:L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点D:L2正则化得到的解更加稀疏答案:L1下列哪一种方法的系数没有闭式(closed-form)解?()

A:Ridge回归和LassoB:选项中没有正确答案C:LassoD:Ridge回归答案:Lasso下面是交叉验证的几种方法:1.Bootstrap2.留一法交叉验证3.5折交叉验证4.重复使用两次5折交叉验证请对上面四种方法的执行时间进行排序,样本数量为1000。()

A:2>3>4>1B:1>2>3>4C:4>1>2>3D:2>4>3>1答案:2>4>3>1选项中哪些方法不可以直接来对文本分类?()

A:决策树B:kNNC:支持向量机D:K-Means答案:K-Means选项中关于bootstrap说法正确的是?()

A:从总的N个样本中,无放回地抽取n个样本(n<N)B:从总的M个特征中,有放回地抽取m个特征(m<M)C:从总的N个样本中,有放回地抽取n个样本(n<N)D:从总的M个特征中,无放回地抽取m个特征(m<M)答案:从总的N个样本中,有放回地抽取n个样本(n<N)为了观察测试Y与X之间的线性关系,X是连续变量,使用下列哪种图形比较适合?()

A:柱形图B:散点图C:直方图答案:散点图智能化中医望诊时,对一幅舌脉图像(伸出舌头的人脸图像),希望把舌头部分从人脸的其他部分划分出来,可以采用以下方法:在该图像中分别在舌头区域与其他区域各画出一个窗口,把在这两个窗口中的象素数据作为训练集,用Fisher准则方法求得分类器参数,再用该分类器对整幅图进行分类。那么这种方法属于:()

A:非监督学习B:监督学习C:半监督学习答案:监督学习SVM中核技巧(Kernaltrick)的作用包括以下哪项?()

A:防止欠拟合B:防止过拟合C:特征降维D:特征升维答案:特征升维智能化中医望诊时,对一幅舌脉图像(伸出舌头的人脸图像),希望把舌头部分从人脸的其他部分划分出来,可以采用以下方法:将整幅图的每个象素的属性记录在一张数据表中,然后用某种方法将这些数据按它们的自然分布状况划分成两类。因此每个象素就分别得到相应的类别号,从而实现了舌头图像的分割。那么这种方法属于:()

A:半监督学习B:监督学习C:非监督学习答案:非监督学习bootstrap数据是什么意思?()

A:有放回地从总共N个样本中抽样n个样本B:有放回地从总共M个特征中抽样m个特征C:无放回地从总共N个样本中抽样n个样本D:无放回地从总共M个特征中抽样m个特征答案:有放回地从总共N个样本中抽样n个样本如果两个变量相关,那么它们一定是线性关系吗?()

A:是B:不一定答案:不一定关于L1、L2正则化下列说法正确的是?()

A:L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点B:L1正则化得到的解更加稀疏C:L2正则化技术又称为LassoRegularizationD:L2正则化得到的解更加稀疏答案:L1关于欠拟合(under-fitting),下面哪个说法是正确的?()

A:训练误差较小,测试误差较大B:训练误差较大,测试误差较大C:训练误差较大,测试误差较小答案:训练误差较大,测试误差较大模型的bias很高,我们如何降低它?()

A:增加数据点B:在特征空间中减少特征C:在特征空间中增加特征答案:在特征空间中增加特征加入使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其它特征保持不变。然后重新训练测试。选项中说法正确的是?()

A:训练样本准确率一定增加或保持不变B:测试样本准确率一定会降低C:训练样本准确率一定会降低D:测试样本准确率一定增加或保持不变答案:训练样本准确率一定增加或保持不变k-NN最近邻方法在什么情况下效果较好?()

A:样本呈团状分布B:样本呈链状分布C:样本较少但典型性好D:样本较多但典型性不好答案:样本较少但典型性好在数据预处理阶段,我们常常对数值特征进行归一化或标准化(standardization,normalization)处理。这种处理方式理论上不会对下列哪个模型产生很大影响?()

A:决策树B:k-NNC:k-Means答案:决策树机器学习训练时,Mini-Batch的大小优选为2个的幂,如256或512。它背后的原因是什么?()

A:Mini-Batch为偶数的时候,梯度下降算法训练的更快B:Mini-Batch设为2的幂,是为了符合CPU、GPU的内存要求,利于并行化处理C:选项中的说法都不对D:不使用偶数时,损失函数是不稳定的答案:Mini-Batch设为2的幂,是为了符合CPU、GPU的内存要求,利于并行化处理已知坐标系中两点A(2,−2)和B(−1,2),这两点的曼哈顿距离(L1距离)是()

A:25B:1C:7D:0答案:7Dropout技术在下列哪种神经层中将无法发挥显著优势?()

A:选项中没有正确答案B:卷积层C:仿射层(全连接层)D:RNN层答案:RNN层假如你在训练一个线性回归模型,有下面两句话:1.如果数据量较少,容易发生过拟合。2.如果假设空间较小,容易发生过拟合。关于这两句话,下列说法正确的是?()

A:1和2都错误B:1和2都正确C:1正确,2错误D:1错误,2正确答案:1以垃圾微信识别为例,TomMitchell的机器学习的定义中,性能度量值P是什么?()

A:P是识别B:P是不必要条件C:P是垃圾微信D:P是识别为正确的概率答案:P是识别下列哪个不属于常用的文本分类的特征选择算法?()

A:主成分分析B:互信息C:卡方检验值D:信息增益答案:主成分分析给定三个变量X,Y,Z。(X,Y)、(Y,Z)和(X,Z)的Pearson相关性系数分别为C1、C2和C3。现在X的所有值加2(即X+2),Y的全部值减2(即Y-2),Z保持不变。那么运算之后的(X,Y)、(Y,Z)和(X,Z)相关性系数分别为D1、D2和D3。现在试问D1、D2、D3和C1、C2、C3之间的关系是什么?()

A:D1=C1,D2>C2,D3<C3B:D1=C1,D2>C2,D3>C3C:D1=C1,D2<C2,D3<C3D:D1=C1,D2=C2,D3=C3E:D1=C1,D2<C2,D3>C3答案:D1=C1,D2=C2,D3=C3假如我们使用非线性可分的SVM目标函数作为最优化对象,我们怎么保证模型线性可分?()

A:设C=0B:设C=无穷大C:其余选项都不对D:设C=1答案:设C=无穷大符号集a、b、c、d他们相互独立,相应概率为1/2、1/4、1/8、1/16,其中包含信息量最小的符号是()

A:aB:cC:dD:b答案:a中文同义词替换时,常用到Word2Vec,以下说法错误的是()。

A:Word2Vec得到的都是语义上的同义词B:Word2Vec基于概率统计C:Word2Vec结果符合当前语料环境D:Word2Vec受限于训练语料的数量和质量答案:Word2Vec得到的都是语义上的同义词我们想在大数据集上训练决策树,为了使用较少时间,我们可以()。

A:减少树的深度B:增加树的深度C:减少树的数量D:增加学习率(learningrate)答案:减少树的深度以下哪些方法不可以直接来对文本分类?()

A:支持向量机B:KNNC:决策树D:K-means答案:K-means词向量描述正确的是()。

A:女人+漂亮=女神B:自然语言表示的单词不能转换为计算机能够理解的向量或矩阵形式C:没有正确答案D:词向量技术是将词转化成为稀疏向量的技术答案:女人+漂亮=女神关于数据集划分,下列说法正确的是()

A:训练集与测试集的理想划分比例是5:5B:庞大数据集的训练集与测试集的划分比例可以为9:1C:训练集的数据量越大,模型的泛化能力越好D:训练集的数据总是越多越好答案:庞大数据集的训练集与测试集的划分比例可以为9:1下列属于无监督学习的是()。

A:最大熵B:K-meansC:SVMD:CRF答案:K-meansSPSS的界面中,以下是主窗口是()。

A:结果输出窗口B:语法编辑窗口C:脚本编辑窗口D:数据编辑窗口答案:数据编辑窗口深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大量的矩阵相乘,现在需要计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别为m∗n,n∗p,p∗q,且mA:AC(B)B:所以效率都相同C:(AB)CD:

A(BC)答案:(AB)C在HMM中,如果已知观察序列和产生观察序列的状态序列,那么可用以下哪种方法直接进行参数估计()。

A:EM算法B:维特比算法C:极大似然估计D:前向后向算法答案:极大似然估计一般来说,下列哪种方法常用来预测连续独立变量?()

A:其余选项说法都不对B:逻辑回顾C:线性回归D:线性回归和逻辑回归都行答案:线性回归关于SVM泛化误差描述正确的是()。

A:SVM的误差阈值B:超平面与支持向量之间距离C:SVM对未知数据的预测能力答案:SVM对未知数据的预测能力”点击率问题”是这样一个预测问题,99%的人是不会点击的,而1%的人是会点击进去的,所以这是一个非常不平衡的数据集。假设,现在我们已经建了一个模型来分类,而且有了99%的预测准确率,我们可以下的结论是()

A:模型预测准确率已经很高了,我们不需要做什么了B:其余选项都不对C:无法下结论D:模型预测准确率不高,我们需要做点什么改进模型答案:无法下结论在spss的基础分析模块中,作用是“以行列表的形式揭示数据之间的关系”的是()

A:交叉表B:数据描述C:相关D:多重相应答案:交叉表文本信息检索的一个核心问题是文本相似度计算,将查询条件和文本之间的相似程度数值化,从而方便比较。当文档和查询都表示成向量时,可以利用向量的内积的大小近似地表示两个向量之间的相关程度。设有两个文档和查询抽取特征和去除停用词后分别是:文档d1:a、b、c、a、f、b、a、f、h文档d2:a、c查询q:a、c、a特征项集合为{a、b、c、d、e、f、g、h}如果采用二值向量表示,那么利用内积法计算出q和d1、d2的相似度分别是()。

A:0、0B:1、1C:7、2D:2、2答案:2、2下列哪一种偏移,是我们在最小二乘直线拟合的情况下使用的?图中横坐标是输入X,纵坐标是输出Y。()

A:其余选项说法都不对B:垂向偏移(perpendicularoffsets)C:两种偏移都可以D:垂直偏移(verticaloffsets)答案:垂直偏移(verticaloffsets)下面哪些对「类型1(Type-1)」和「类型2(Type-2)」错误的描述是错误的?()

A:类型1错误通常在其是正确的情况下拒绝假设而出现。B:类型2通常称之为假正类,类型1通常称之为假负类。C:类型1通常称之为假正类,类型2通常称之为假负类。答案:类型2通常称之为假正类,类型1通常称之为假负类。如果预测的结果与将来的实际情况总会存在着或大或小、或多或少、或前或后的偏差,它表明预测具有()

A:局限性B:近似性C:不确定性D:科学性答案:不确定性下面有关分类算法的准确率,召回率,F1值的描述,错误的是()。

A:准确率是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率B:为了解决准确率和召回率冲突问题,引入了F1分数C:正确率、召回率和F值取值都在0和1之间,数值越接近0,查准率或查全率就越高D:召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率答案:为了解决准确率和召回率冲突问题,引入了F1分数模式识别中,不属于马氏距离较之于欧氏距离的优点是()

A:考虑了模式的分布B:平移不变性C:尺度不变性答案:平移不变性在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为10w条数据,负样本只有1w条数据,以下最合适的处理方法是()。

A:将负样本重复10次,生成10w样本量,打乱顺序参与分类B:将负样本每个权重设置为10,正样本权重为1,参与训练过程C:从10w正样本中随机抽取1w参与分类D:直接进行分类,可以最大限度利用数据答案:将负样本每个权重设置为10,正样本权重为1,参与训练过程朴素贝叶斯算法在统计训练样本中每个类别出现的频率时,若某一特征值的概率为0会使整个概率乘积变为0(称为数据稀疏)问题,解决的的办法有()

A:通过聚类将未出现的特征找出相关特征的概率求平均值进行替代B:其余选项都不对C:剔除掉某一特征值的概率为0的特征D:采用贝叶斯估计,如拉普拉斯平滑答案:剔除掉某一特征值的概率为0的特征###通过聚类将未出现的特征找出相关特征的概率求平均值进行替代###采用贝叶斯估计,如拉普拉斯平滑朴素贝叶斯算法能取得较好的效果是因为()

A:其余选项都不对B:如果属性间依赖关系的影响能相互抵消,在属性条件独立性假设时不会对性能产生负面影响。C:如果属性间依赖对所有类别相互影响相同,在属性条件独立性假设下可以降低计算D:对分类各类别的条件概率排序正确,无需精准概率值就可以获得正确分类;答案:正确假如我们利用Y是X的3阶多项式产生一些数据(3阶多项式能很好地拟合数据)。那么,下列说法正确的是?()

A:3阶多项式拟合会造成低偏差(bias)、高方差(variance)B:3阶多项式拟合具备低偏差(bias)、低方差(variance)C:简单的线性回归容易造成高偏差(bias)、低方差(variance)D:简单的线性回归容易造成低偏差(bias)、高方差(variance)答案:3阶多项式拟合具备低偏差(bias)、低方差(variance)###简单的线性回归容易造成高偏差(bias)、低方差(variance)数据清理中,处理缺失值的方法是()。

A:整例删除B:变量删除C:成对删除D:估算答案:估算###变量删除###成对删除###整例删除在统计模式识分类问题中,当先验概率未知时,可以使用?()

A:最小损失准则B:最小最大损失准则C:N-P判决D:最小误判概率准则答案:N-P判决###最小最大损失准则机器学习中L1正则化和L2正则化的区别是?()

A:使用L1可以得到稀疏的权值B:使用L2可以得到稀疏的权值C:使用L2可以得到平滑的权值D:使用L1可以得到平滑的权值答案:使用L1可以得到稀疏的权值;使用L2可以得到平滑的权值下面哪些算法模型可以用来完成命名实体的任务?()

A:LDAB:GBDTC:seq2seqD:HMME:CRFF:LSTM答案:CRF###HMM###LSTM###seq2seq机器学习中做特征选择时,可能用到的方法有?()

A:卡方B:平均互信息C:信息增益D:期望交叉熵答案:信息增益###卡方###平均互信息###期望交叉熵以下描述错误的是:()

A:在聚类分析当中,簇内的相似性越大,簇间的差别越大,聚类的效果就越差。B:在决策树中,随着树中结点数变得太大,即使模型的训练误差还在继续减低,但是检验误差开始增大,这是出现了模型拟合不足的问题。C:SVM是这样一个分类器,他寻找具有最小边缘的超平面,因此它也经常被称为最小边缘分类器(minimalmarginclassifier)D:聚类分析可以看作是一种非监督的分类。答案:c精确率(Precision),也叫查准率。即正确预测为正的占全部预测为正的比例。是真正正确的占所有预测为正的比例()

A:正确B:错误答案:正确K均值聚类的核心目标是将给定的数据集划分为K个簇,并给出每个数据对应的簇中心点。()

A:错误B:正确答案:正确预剪枝是在决策树的构建过程中加入限制,比如控制叶子节点最少的样本个数,提前停止。()

A:错B:对答案:错给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小。()

A:错误B:正确答案:正确基尼指数偏向于多值属性;当类数较大时,基尼指数求解比较困难;基尼指数倾向于支持在两个分区中生成大小相同的测试。()

A:错误B:正确答案:正确聚类算法中不需要给出标签y。()

A:正确B:错误答案:正确决策树只能用于分类问题,不能用于回归问题。()

A:对B:错答案:错在AdaBoost算法中,所有被错分的样本的权重更新比例相同。()

A:错B:对答案:对训练集与测试集的划分对最终模型的确定无影响。()

A:正确B:错误答案:错误如果特征很多,决策树中最后没有用到的特征一定是无用的。()

A:对B:错答案:错强化学习包含哪些元素?()

A:ActionB:StateC:RewardD:Agent答案:Reward###Agent###State###Action以下输入梯度下降法的有:()

A:丢弃法B:小批量梯度下降法C:批量梯度下降法D:随机梯度下降法答案:随机梯度下降法主成分分析中可以利用()求解主成分

A:协方差矩阵B:Hessian矩阵C:距离矩阵D:相关系数矩阵答案:相关系数矩阵###协方差矩阵变量选择是用来选择最好的判别器子集,如果要考虑模型效率,我们应该做哪些变量选择的考虑?()

A:模型是否具有解释性B:特征是否携带有效信息C:交叉验证D:多个变量是否有相同的功能答案:交叉验证###多个变量是否有相同的功能###特征是否携带有效信息我们知道二元分类的输出是概率值。一般设定输出概率大于或等于0.5,则预测为正类;若输出概率小于0.5,则预测为负类。那么,如果将阈值0.5提高,例如0.6,大于或等于0.6的才预测为正类。则准确率(Precision)和召回率(Recall)会发生什么变化?()

A:准确率(Precision)增加或者不变B:准确率(Precision)减小C:召回率(Recall)增大D:召回率(Recall)减小或者不变答案:准确率(Precision)增加或者不变###召回率(Recall)减小或者不变对于划分属性选择,选项中说法正确的是()

A:选项中说法都不对B:增益率准则对可取值数目较少的属性有所偏好C:C4.5算法并不是直接选择增益率最大的候选划分属性,而是先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。D:信息增益准则对可取值数目较多的属性有所偏好答案:信息增益准则对可取值数目较多的属性有所偏好###增益率准则对可取值数目较少的属性有所偏好###C4.5算法并不是直接选择增益率最大的候选划分属性,而是先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的选项中哪种方法可以用来减小过拟合?()

A:减小模型的复杂度B:L2正则化C:L1正则化D:更多的训练数据答案:更多的训练数据###L1正则化###L2正则化###减小模型的复杂度建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现3对变量(Var1和Var2、Var2和Var3、Var3和Var1)之间的相关性分别为-0.98、0.45和1.23。我们能从中推断出什么呢?()

A:Var1和Var2具有很高的相关性B:选项中没有正确答案C:Var3和Var1相关系数为1.23是不可能的D:Var1和Var2存在多重共线性,模型可以去掉其中一个特征答案:Var1和Var2具有很高的相关性###Var1和Var2存在多重共线性,模型可以去掉其中一个特征###Var3和Var1相关系数为1.23是不可能的集成学习中个体学习器多样性增强的主要途径有:()

A:数据样本扰动B:输入属性扰动C:算法参数扰动D:输出表示扰动答案:数据样本扰动###输入属性扰动###输出表示扰动###算法参数扰动以下哪种方法属于判别式模型(discriminativemodel)?()

A:隐马尔可夫模型(HMM)B:朴素贝叶斯判别式模型C:线性判别分析LDAD:支持向量机答案:支持向量机有一些基学习器对数据样本的扰动不敏感,称为稳定基学习器。下列学习器属于稳定基学习器的是:()

A:线性学习器B:朴素贝叶斯C:支持向量机D:神经网络E:k近邻学习器答案:线性学习器;朴素贝叶斯;支持向量机;k近邻学习器我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,如何有效地训练模型?()

A:对训练集随机采样,在随机采样的数据上建立模型B:使用PCA算法减少特征维度C:选项中没有正确答案D:尝试使用在线机器学习算法答案:使用PCA算法减少特征维度###对训练集随机采样,在随机采样的数据上建立模型###尝试使用在线机器学习算法在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为10万条数据,负样本只有1万条数据,以下合适的处理方法是()

A:将负样本每个权重设置为10,正样本权重为1,参与训练过程B:将负样本重复10次,生成10万样本量,打乱顺序参与分类C:从10万正样本中随机抽取1万参与分类D:直接进行分类,可以最大限度利用数据答案:将负样本每个权重设置为10,正样本权重为1,参与训练过程贝尔曼期望方程的基本思想是将待求解问题分解为若干子问题,从这些子问题的解得到原问题的解。()

A:对B:错答案:对线性回归算法、逻辑回归算法和支持向量机等监督式学习算法,都是经验损失最小化架构在具体问题中的表现。()

A:错误B:正确答案:错误聚类分析是对未知分类的事物按照“物以类聚”的思想对其进行分类的一种算法。常用的算法有K均值聚类算法,其是基于层级的聚类算法。()

A:错误B:正确答案:错误马尔科夫性特点:未来与现在有关,下一个状态既和当前状态有关,又和之前的状态有关。()

A:正确B:错误答案:错误在实际应用中,不同的学习模型使用的损失函数一般情况下也不一样。()

A:正确B:错误答案:正确增大正则化系数可以用于处理欠拟合()

A:错误B:正确答案:正确强化学习主要任务是使智能体能够根据环境的状态,获得最佳行动策略。()

A:正确B:错误答案:正确SVM分类超平面的解是唯一的,要满足间隔最大化。感知机的解不唯一,没有间隔最大化的约束条件,满足分开数据点的分界面都是可以的。()

A:错误B:正确答案:正确‏L2正则化得到的解更加稀疏。()

A:正确B:错误答案:错误牛顿迭代法是二阶收敛的,梯度下降是一阶收敛,所以牛顿法多数情况下收敛更快。()

A:正确B:错误答案:错误随机梯度下降算法可以有效提高逻辑回归的拟合度。()

A:正确B:错误答案:错误梯度下降法需要预先设定学习率,然后通过多次迭代求解最优参数。()

A:错B:对答案:对次梯度方法是传统的梯度下降方法的拓展,用来处理不可导的凸函数。它的优势是比传统方法处理问题范围大,劣势是算法收敛速度慢。()

A:错B:对答案:对在决策树学习过程中,一般而言,随着划分过程的不断进行,分支节点的”纯度“将越来越高。()

A:对B:错答案:错给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小。()

A:正确B:错误答案:正确剪枝(pruning)是决策树学习算法对付"欠拟合"的主要手段,其基本策略有"预剪枝"(pre-pruning)和"后剪枝"(post-pruning)。()

A:错B:对答案:错在属性个数比较多或者属性之间相关性较大时,朴素贝叶斯分类器的分类效率比不上决策树模型。()

A:对B:错答案:对一个循环神经网络可以被展开成为一个完全连接的、具有无限长度的普通神经网络。()

A:对B:错答案:对在训练完SVM之后,只保留支持向量,而舍去所有非支持向量,仍然不会影响模型分类能力。()

A:对B:错答案:对如果自变量X和因变量Y之间存在高度的非线性和复杂关系,那么树模型很可能劣于经典回归方法。()

A:对B:错答案:错决策树的分界面是线性的。()

A:正确B:错误答案:错误逻辑回归LR是参数模型,支持向量机SVM也是参数模型。()

A:对B:错答案:错监督式学习中存在过拟合,而对于非监督式学习来说,没有过拟合。()

A:错B:对答案:错K-means算法中初始点的选择对最终结果没有影响,不同的初始值结果都一样。()

A:对B:错答案:错随机森林中基学习器的多样性不仅来自样本扰动,还来自属性扰动和输出表示扰动。()

A:错B:对答案:错ID3决策树学习算法是以信息增益为准则来选择划分属性的。()

A:对B:错答案:对在决策树的划分属性选择中,信息增益准则对可取值数目较少的属性有所偏好,而增益率准则对可取值数目较多的属性有所偏好。()

A:错B:对答案:错SVM对缺失数据敏感,而且当观测样本很多时,SVM方法的效率也不是很高。()

A:对B:错答案:对ID3算法以()作为测试属性的选择标准。

A:分类的速度B:所划分的类个数C:信息增益D:信息熵答案:AI参考:正确选项是【D:信息熵】。\n\nID3算法是一种基于信息增益的决策树分类算法,用于从一组属性中选择最优属性以生成决策树。信息熵是描述数据集中的不确定性或信息量的指标,因此ID3算法以信息熵作为测试属性的选择标准,以此来最小化数据集的不确定性并提高分类的准确性。因此,选项D是正确答案。选项A、B、C虽然也是一些常见的选择标准,但在ID3算法中不是主要标准。'线性回归模型假设标签随机变量服从_______?Logistic回归模型假设标签随机变量服从_______?Softmax回归模型假设标签随机变量服从_______?()

A:伯努利分布、正态分布、多项分布B:正态分布、伯努利分布、多项分布C:正态分布、多项分布、伯努利分布D:伯努利分布、多项分布、正态分布答案:AI参考:正确答案是C:正态分布、多项分布、伯努利分布。\n\n线性回归模型假设标签随机变量服从正态分布,Logistic回归模型假设标签随机变量服从多项分布,Softmax回归模型假设标签随机变量服从伯努利分布。因此,选项C是正确答案。选项A和D中的顺序错误,选项B中的多项分布和伯努利分布位置颠倒。'以下哪个选项不属于策略算法的实现过程?()

A:将策略参数化B:输入某个状态,输出一个动作的概率分布C:使用神经网络寻找最差策略D:使用线性模型或者神经网络对策略函数建模答案:AI参考:正确选项是B:输入某个状态,输出一个动作的概率分布。\n\n策略算法的主要目的是寻找一个最优策略,即在给定状态下,选择最佳动作的概率分布。实现策略算法的过程中,通常会先将策略参数化(A对),使用神经网络或线性模型对策略函数进行建模(D对),然后使用这些模型在给定状态下输出动作的概率分布(B错,不属于策略算法的实现过程)。最后,通过反复迭代和优化这些模型,逐渐逼近最优策略。使用神经网络寻找最差策略(C对)也是策略算法的一种实现方式。'以下(1)动态规划算法、(2)蒙特卡洛算法、(3)时序差分算法,无模型的算法有哪些?()

A:(1),(2)B:(2),(3)C:全都不是D:(1),(3)答案:AI参考:正确选项为C:全都不是。\n\n动态规划算法和蒙特卡洛算法不需要使用模型,而时序差分算法虽然不是严格意义上的无模型算法,但其核心思想是通过差分来估计时间序列的变化,不需要事先建立模型。因此,这三个算法中只有动态规划算法和蒙特卡洛算法是无模型的算法。'在二元分类问题中,给定样本的特征组及其标签将标签为1的样本称为正采样,标签为0的样本称为负采样。设为模型对样本的标签预测。将称为正预测,称为负预测。

以下说法不正确的是()

A:如果且1,则称该预测为假正(falsepositive)B:如果且1,则称该预测为真正(truepositive)C:如果且,则称该预测为假负(falsenegative)D:如果且,则称该预测为真负(truenegative)答案:AI参考:正确答案是D:如果且,则称该预测为真负(truenegative)。\n\n根据题意,将标签为1的样本称为正采样,标签为0的样本称为负采样。设y为模型对样本的标签预测,将正预测称为当y=1时,样本被正确预测为正样本,负预测称为当y=0时,样本被正确预测为负样本。\n\n选项D表述不正确,因为如果样本被正确预测为负样本,即y=0时,样本被正确预测为负样本,而不是真负样本。因此,选项D中的“真负”表述不准确。\n\n其他选项A、B、C均符合题意。选项A表示假正预测,即当模型预测为正样本时,实际样本为负样本的情况;选项B表示真正预测,即当模型预测为正样本时,实际样本也为正样本的情况;选项C表示假负预测,即当模型预测为负样本时,实际样本为正样本的情况。'线性回归经常使用的优化算法是()

A:A和BB:正规方程C:最优值搜索D:梯度下降法答案:AI参考:正确选项是D:梯度下降法。\n\n梯度下降法是一种常用的优化算法,广泛应用于线性回归等机器学习算法中,用于寻找函数的最小值点。在梯度下降法中,通过不断迭代更新参数,逐步逼近函数的最小值点,从而优化线性回归模型。正规方程(B)和最优值搜索(C)不是常用的优化算法,通常用于求解线性回归模型的系数,而不是用于优化算法。因此,选项D:梯度下降法是线性回归经常使用的优化算法。'PCA的理论基础是()

A:方差最大理论B:系数最大理论C:残差最大理论D:成分最大理论答案:AI参考:正确选项是:A:方差最大理论。\n\nPCA(主成分分析)的理论基础是方差最大理论,即在新变量维度缩放的过程中,尽可能地保留原始数据中的所有方差信息。通过对数据降维,保留原始数据中的最大方差信息,达到简化数据和提高数据可解释性的目的。'在回归分析中,下列哪个选项不属于线性回归()。

A:多个因变量与多个自变量的回归B:一元线性回归C:分段回归D:多元线性回归答案:AI参考:正确答案是C:分段回归。\n\n回归分析中,属于线性回归的是一元线性回归和多元线性回归,即选项B和D,即只有一个因变量和一个自变量的回归分析和有多个因变量多个自变量的回归分析属于线性回归。而选项A和B均符合线性回归的定义。选项C分段回归则不属于线性回归。故选C分段回归。'下列说法错误的是?()

A:当目标函数是凸函数时,梯度下降算法的解一般就是全局最优解B:利用拉格朗日函数能解带约束的优化问题C:沿负梯度的方向一定是最优的方向D:进行PCA降维时,需要计算协方差矩阵答案:AI参考:正确答案是C:沿负梯度的方向一定是最优的方向。\n\n梯度下降算法是解决无约束优化问题的一种常用方法,在目标函数是凸函数时,梯度下降算法的解一般是全局最优解,因此A选项正确。拉格朗日函数是一种求解带约束优化问题的常用方法,利用拉格朗日函数可以求解带约束的优化问题,因此B选项正确。沿负梯度的方向不一定是最优的方向,因此C选项错误。在进行PCA降维时,需要计算协方差矩阵,D选项正确。'以下属于回归任务的是()

A:预测云南野生大象未来的走向B:判断一个西瓜是本地瓜还是外地瓜C:根据一个人的头像判断性格D:预测一个房子的价格答案:AI参考:正确选项是D:预测一个房子的价格。\n\n回归任务是指根据已知的数据预测一个因变量的值,这个因变量通常是一个数值型的结果。在这个问题中,回归任务的任务是预测房子的价格,因为房子的价格是一个可以量化的数值,所以是回归任务。而A、B、C三个选项中的预测都是根据已知数据进行预测,但不是根据已知结果来预测未来的值,因此不是回归任务。'局部线性嵌入中,原空间局部信息指的是()。

A:除中心样本外的样本对中心样本的线性表示信息B:邻域样本对中心样本的线性表示信息C:ABC都是D:中心样本的局部邻域样本信息答案:AI参考:正确答案是D:中心样本的局部邻域样本信息。\n\n在局部线性嵌入中,原空间局部信息指的是中心样本的局部邻域样本信息。这是因为局部线性嵌入方法通过将数据点周围的邻域中的样本点线性组合,来获取数据点的局部特征,从而实现对数据点的局部线性表示。因此,中心样本的局部邻域样本信息是原空间局部信息的重要组成部分。选项A和B虽然也涉及到样本对中心样本的线性表示信息,但不够全面,因此不是正确答案。选项C则完全不相关,因此也不正确。'下列哪个不属于LDA和PCA的相同点()

A:两者在降维时均使用了矩阵特征值分解的思想。B:两者均可以对数据进行降维。C:两者均属于监督式学习算法。D:两者都假设数据符合高斯分布。答案:AI参考:正确选项是【两者均属于监督式学习算法】。\n\nLDA(线性判别分析)和PCA(主成分分析)都是常用的降维方法,它们都使用了矩阵特征值分解的思想,可以对数据进行降维,并且都假设数据符合高斯分布。但是,LDA是一种有监督学习算法,而PCA是一种无监督学习算法,因此不属于监督式学习算法。因此,选项C是正确答案。'()

A:B:C:D:答案:AI参考:正确选项是【C】。\n\n题目中给出的是一个图片链接,链接指向的是一个PNG格式的图片文件。根据常识和题目要求,应该选择一个与图片相关的选项,而C选项“”符合这个要求,因此是正确答案。A、B、D选项都与图片无关,因此不是正确答案。'假定你使用了一个很小值的RBF核,这意味着:()

A:模型将考虑使用远离超平面的点建模B:模型仅使用接近超平面的点来建模C:ABC都不正确D:模型不会被点到超平面的距离所影响答案:AI参考:答案选【ABC都不正确】。\n\n使用一个小值的RBF核意味着模型在建模时,会考虑使用远离超平面的点,但不会受到点到超平面的距离的影响。因此,选项C和D都是不正确的。而选项A和B则分别描述了RBF核的不同应用场景,但都不是题干中所描述的。因此,正确答案是ABC都不正确。'下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是()

A:LSTM是双向的RNNB:LSTM是RNN的扩展方法,通过特有结构设计来避免长期依赖问题C:LSTM是多层的RNND:LSTM是简化版的RNN答案:AI参考:选项B:LSTM是RNN的扩展方法,通过特有结构设计来避免长期依赖问题,是正确的描述。长短期记忆网络(LSTM)是一种特殊的循环神经网络(RNN),它通过特殊的设计结构,如记忆单元和门结构,有效地解决了RNN中存在的长期依赖问题,从而在许多自然语言处理任务中表现出了优越的性能。因此,选项B“LSTM是RNN的扩展方法,通过特有结构设计来避免长期依赖问题”是正确的描述。选项A和C描述的是LSTM与RNN之间的关系,但不够准确;选项D则表述错误,LSTM并不是简化版的RNN。'以下说法正确的是()。

A:Logistic回归算法是模型假设为Sigmoid函数的经验损失最小化算法。B:Logistic回归算法是针对多元分类问题的一个重要算法。C:线性回归算法是用于解决分类问题的方法。D:回归问题和分类问题是两类非监督式学习问题。答案:AI参考:正确答案是B:Logistic回归算法是针对多元分类问题的一个重要算法。\n\nLogistic回归是一种基于概率的非线性回归分析方法,它通过将输入特征映射到概率空间,从而实现对多元分类问题的建模。因此,选项B是正确的。选项A和C都是关于Logistic回归算法的描述,但是它们的描述不够准确。选项D则是关于非监督式学习问题的描述,与Logistic回归算法无关。因此,答案为B。'下面哪句话是正确的?()

A:机器学习模型的精准度越高,则模型的性能越好B:增加模型的复杂度,总能减小测试样本误差C:增加模型的复杂度,总能减小训练样本误差答案:AI参考:正确选项是:A:机器学习模型的精准度越高,则模型的性能越好。\n\n原因分析:\n\nA选项:“机器学习模型的精准度越高,则模型的性能越好”这个选项表述是正确的。机器学习模型的精准度代表模型预测结果的准确性,而模型的性能还涉及到模型的稳定性和运行效率等因素。通常来说,精准度是衡量模型性能的重要指标之一。因此,如果模型的精准度越高,那么模型的性能也会越好。\n\nB选项:“增加模型的复杂度,总能减小测试样本误差”这个选项表述不准确。增加模型的复杂度并不能直接减小测试样本误差,而是需要根据模型的特点和数据的特点来选择合适的模型结构和参数设置,以达到减小测试样本误差的目的。\n\nC选项:“增加模型的复杂度,总能减小训练样本误差”这个选项表述也是不准确的。模型复杂度的增加并不一定能够减小训练样本误差,有时候反而会增加训练样本误差。因为模型的复杂度增加可能导致过拟合现象的出现,而过拟合现象通常会导致训练样本误差的增加。\n\n综上所述,A选项是正确的。'设,则当x-->1时,()。

A:a(x)与b(x)是等价无穷小B:a(x)是比b(x)高阶的无穷小C:a(x)与b(x)是同阶无穷小,但不是等价无穷小D:b(x)是比a(x)高阶的无穷小答案:AI参考:答案:C\n推理过程:\n首先根据题干给出的图片可知图片宽度为155.99127pt,高度为27.447165pt。因为一个单位为pt的长度是固定的,所以根据比值的缩放可以推断出x->1时图片宽高是按比例缩放的,因此可知b(x)的宽度是按比例缩小了的a(x),且其比例是无穷小。即当x->1时,b(x)的宽度相对于a(x)来说是一个无穷小量,因此两者是同阶无穷小,但不是等价无穷小。选项A、B、D显然都错误。\n综上所述,正确答案是C:a(x)与b(x)是同阶无穷小,但不是等价无穷小。'以下关于聚类算法说法正确的是()。

A:合并聚类算法是基于密度的聚类B:聚类分析是无监督学习算法C:聚类目标是将数据集中的样本划分为若干个不相交的子集D:K均值算法是一个近似算法答案:AI参考:关于聚类算法的说法正确的是:C:聚类目标是将数据集中的样本划分为若干个不相交的子集。\n\n解释:A选项错误,因为合并聚类算法是基于距离的聚类;B选项错误,因为聚类分析是一种有监督学习算法;D选项错误,因为K均值算法是一个优化算法而非近似算法。因此,只有C选项是正确的,因为它准确地描述了聚类的目标。'LDA降维的目标是将带有标签的数据降维,投影到低维空间同时满足三个条件有:()

A:在所投影的维度上数据的方差最大B:投影后使得同类样本尽可能近,不同类样本尽可能远C:尽可能多地保留数据样本的信息D:寻找使样本尽可能好分的最佳投影方向答案:AI参考:正确选项为:B,C\n\nLDA降维的目标是将带有标签的数据降维,投影到低维空间同时尽可能多地保留数据样本的信息,并且使得同类样本尽可能近,不同类样本尽可能远。在选择投影方向时,LDA算法会尝试寻找使样本尽可能好分的最佳投影方向,但这不是其唯一目标。因此,选项B和C是正确的。选项A和D虽然也是LDA降维的目标之一,但并不是LDA算法的核心目标。'关于BP神经网络的缺点说法正确的是()

A:随着神经网络的层数加深,训练过程存在严重的“梯度弥散”现象,即网络的输出结果通过反向传播,当到达前面层时,梯度会逐渐消失,使得不能指引网络权值的训练,从而导致网络不能正常收敛。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论