机器学习(山东联盟)智慧树知到期末考试答案章节答案2024年山东财经大学_第1页
机器学习(山东联盟)智慧树知到期末考试答案章节答案2024年山东财经大学_第2页
机器学习(山东联盟)智慧树知到期末考试答案章节答案2024年山东财经大学_第3页
机器学习(山东联盟)智慧树知到期末考试答案章节答案2024年山东财经大学_第4页
机器学习(山东联盟)智慧树知到期末考试答案章节答案2024年山东财经大学_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习(山东联盟)智慧树知到期末考试答案+章节答案2024年山东财经大学高斯混合模型假设样本的生成过程由高斯混合分布给出。

答案:对只需要一个包含足够多神经元的隐层,多层前馈网络就能以任意精度逼近任意复杂度的连续函数

答案:对非线性降维的方法,是基于核技巧对线性降维方法进行核化。

答案:对CNN由于其结构复杂,不能用BP算法进行训练

答案:错AGENS方法是一种采用自底向上聚合策略的层次聚类方法。

答案:对度量学习是指通过学习确定一种距离度量方式。

答案:对局部线性嵌入是一种常用的度量学习方法

答案:错由于BP神经网络强大的表示能力,它经常遭遇欠拟合

答案:错距离度量一般满足的性质为:非负性、同一性、对称性和直递性。

答案:对频率主义学派认为参数是未观察到的随机变量,其本身也可有分布,因此,可假定参数服从一个先验分布,然后,基于观察到的数据来计算参数的后验分布。

答案:错Jaccard系数是一种性能度量的内部指标。

答案:错下面哪几种()机器学习的分类,完全不需要人工标注数据?

答案:无监督学习###强化学习常用的核函数有()

答案:拉普拉斯核###多项式核###线性核###高斯核决策树模型中,决策过程中提出的每个判定问题都是对某个属性的“测试”,每个“测试”考虑的范围,不必限定在上次决策结果的范围之内。

答案:错支持向量机通常采用二次规划算法来求解

答案:对估计类条件概率P(x|C)的常用策略先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。

答案:对决策树学习中,因决策分支过多,把训练集自身的一些特点,当做所有数据都具有的一般性质。因此,可主动去掉一些分支,降低过拟合的风险。

答案:对决策树学习算法采用选择部分属性和剪枝的技术,得到最终的决策树。

答案:对PCA是一种有监督的线性降维方法。

答案:错缓解维数灾难的一个重要途径是降维。

答案:对对数几率回归模型不仅预测出“类别”,且可得到“类别”的近似概率预测。

答案:对在神经网络的训练过程中,(

)方法被用来在参数空间中寻找一种使误差最小的最优参数。

答案:用多组不同的参数初始化多个神经网络,按标准方法训练后,取其中误差最小的解作为最终参数。###遗传算法###使用“模拟退火”技术###使用随机梯度下降对于正交属性中的样本点,用一个超平面对所有样本进行恰当表达,则该超平面需要满足最大可分性和最小重构性。

答案:对一个拥有d个输入神经元、L个输出神经元、q个隐层神经元的多层前馈网络中有()个参数需要调整

答案:(d+L+1)q+LAGENS方法是种常用的层次聚类方法

答案:对信息熵是度量样本集合纯度的唯一指标。

答案:错DBI指数是一种常用的外部指标。

答案:错密度聚类方法一般从样本的分布出发,考察样本之间的可连接性,并基于可连接样本不断扩展聚类簇以获得最终的聚类结果。

答案:对线性模型中,属性的系数大,表明该属性较为重要

答案:对局部线性嵌入和等度量映射都属于流形学习的范畴。

答案:对剪枝是决策树学习算法对付“欠拟合”的主要手段

答案:错支持向量机模型的复杂程度与支持向量的数目有关

答案:对为了避免其他属性携带的信息被训练集中未出现的属性值“抹去”,在估计概率值时通常要进行“平滑”,常用“拉普拉斯修正”

答案:对神经网络的训练过程可以看作一个参数寻优过程,即在参数空间中,寻找一组最优参数使得神经网络在训练集上的误差最小

答案:对PCA方法中使所有样本的投影尽可能分开,则需最大化投影点的方差。

答案:对AdaBoost算法过程包括()。

答案:确定分类器权重ɑt###初始化样本权值分布D1###基于分布Dt从数据集D中训练出分类器ht###估计分类器ht的误差具有最大间隔的划分超平面的优点是()

答案:鲁棒###泛化能力强朴素贝叶斯分类器的训练过程就是基于训练集D来估计(),并为每个属性估计()。

答案:P(c),P(xi|c)线性判别分析地基本思想是给定训练样例集,设法将样例投影到()上。

答案:一条直线距离等度量映射是在降维时试图保持相邻样本之间的线性关系。

答案:错贝叶斯学派认为参数虽然未知,但却是客观存在的固定值,因此,可通过优化似然函数等准则来确定参数值。

答案:错最近重构性是指样本点到这个超平面的距离都足够近;最大可分性是指样本点在这个超平面上的投影尽可能分开。

答案:对降维后的维度是由用户确定的,主要是通过重构的角度设置一个阈值,然后确定维度d

答案:对Agens方法是一种原型聚类,其聚类方法主要是实现对聚类原型的表示。

答案:错由于无论是高维空间还是低维空间,每个空间在样本属性上都定义了一个距离度量,因此,寻找合适的空间即使在寻找合适的距离度量。

答案:对对于不能线性可分的情况,考虑采用核的方法把不线性可分的高维空间映射到线性可分的低维空间。

答案:对主成分分析是可以实现线性降维,同时达到对数据的降噪。

答案:对K近邻学习方法属于懒惰学习,是其的著名代表。

答案:对BP算法基于梯度下降策略,以目标的负梯度方向对参数进行调整

答案:对高斯混合聚类假设样本满足高斯混合分布。

答案:对对降维效果的评估,通常是比较降维前后学习器的性能,若性能提高则认为降维起到作用。

答案:对常用的替代损失函数有()

答案:hinge损失###指数损失###对率损失支持向量回归的本质是一个回归问题

答案:错缓解BP神经网络过拟合常采用的策略有()

答案:正则化###早停随机森林算法的个体学习器间存在强依赖关系,是一种串行生成的序列化方法。

答案:错给定训练数据集,交叠的采样子集的方法是()。

答案:Bagging流形学习方法是模式识别中的基本方法,分为线性流形学习算法和非线性流形学习算法。下列属于线性流形学习算法的是()

答案:主成分分析假设基分类器的错误率相互独立,则由Hoeffding不等式可得,在一定条件下,随着集成分类器数目的增加,集成的错误率将()。

答案:指数级下降一般来说,欲获得低维子空间,最简单的是对原始高维空间进行线性变换。

答案:对Bagging算法的个体学习器间不存在强依赖关系,是一种可同时生成的并行化方法。

答案:对信息熵度量采用的划分选择为基尼指数。

答案:错决策树模型中,决策过程的最终结论对应了我们所希望的判定结果。

答案:对贝叶斯网学习的首要任务就是通过对训练样本“计数”,估计出每个结点的条件概率表。

答案:错处理混合属性之间的距离通常将米科夫斯基距离和VDM方法结合。

答案:对在空间上线性可分的两类点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的

答案:错密度聚类方法假设聚类结构能够通过样本分布的概率密度确定。

答案:错阈值移动可以解决类别不平衡问题。

答案:对等度量映射是一种常用的度量学习方法。

答案:错现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性

答案:对降维是指通过某种数学变换将原始高维属性空间转变为一个低维“子空间”,可以用来缓解维数灾难。

答案:对误差逆传播算法是迄今最成功的神经网络学习算法。

答案:对引入软间隔是为了允许支持向量机在一些样本上出错。

答案:对训练数据较少时更容易发生欠拟合

答案:对演绎是从一般到特殊的"特化"过程,即从基础原理推演出具体状况

答案:对尽管多层网络比单层感知机结构复杂,但是它们的训练难度是相同的

答案:错广义线性模型的目标函数,即为最大化样本标记属于其真实标记的概率。

答案:对流形学习在实际中降维性能一般不好。

答案:对直接使用频率来估计类条件概率P(x|c)是可行的。

答案:错单一属性的线性回归目标函数为f(x)=ωx+b使得min(f(x)–y)2

答案:对训练完成后,大部分训练样本不需要保留,最终模型只与支持向量有关

答案:对常用的广义线性回归有单位跃阶函数、对数线性回归、对数几率回归

答案:对高斯混合聚类采用概率模型来表达聚类原型

答案:对支持向量是指分布在样本簇边缘的样本点。

答案:错方差度量了学习算法期望预测与真实结果的偏离程度

答案:错获得假设(模型)空间时,从特殊到一般的过程属于

答案:泛化###归纳分类学习任务中,若不同类别的训练样本数目差别很大时,对学习过程没有明显影响

答案:错以下哪些方法可以用于单个学习器性能的比较()。

答案:t-检验###二项检验加权平均法的权重,一般是从训练数据中学习而得,规模比较大的集成,要学习的权重比较多,较容易导致欠拟合。

答案:错下列属于支持向量机核函数的是()

答案:高斯核###线性核###多项式核###Sigmoid核神经网络中的激活函数可以采用线性函数

答案:错要获得好的集成,个体学习器应“好而不同”,即个体学习器要有一定的(),即学习器不能太坏,并且要有(),即学习器间具有差异。

答案:准确性###多样性处理无序属性之间的距离通常采用VDM算法。

答案:对机器学习可以应用在下列哪些领域()

答案:天气预报###商业营销###搜索引擎###自动驾驶汽车决策树算法的泛化性能提升,则验证集精度()

答案:提高AdaBoost适用于()任务。

答案:二分类无监督学习任务中研究最多、应用最广的是任务是()

答案:聚类线性回归模型中,联系函数g(∙)为对数几率函数ln(y/(1-y))时,该线性模型成为()

答案:对数几率回归结合策略中,具有初级学习器和结合学习器的是()。

答案:学习法局部线性嵌入在降维时试图保持邻域内样本之间的线性关系。

答案:相邻样本之间的线性关系随机森林的优点不包括()。

答案:初始性能较好以下关于回归的说法中,不正确的是()。

答案:回归的目标属性是离散的多层感知机表示异或逻辑时最少需要()个隐含层(仅考虑二元输入)

答案:2线性回归模型中,对数ln(y)函数是在求取输入空间到输出空间的()映射

答案:非线性函数k近邻分类器没有被广泛使用的原因是其泛化错误率不超过贝叶斯最有分类器错误率的两倍。

答案:对PCA方法满足的重要性质是()

答案:最大可分性###最近重构性PCA方法满足的重要性质是:最大重构性和最近可分性。

答案:错流形学习中的流形是指在局部与欧式空间同胚的空间,即()

答案:在局部有欧式空间的性质距离等度量映射是在降维时试图保持()

答案:相邻样本之间的距离主成分分析是最常用的一种降维方法。

答案:对在高维情形下出现的数据样本稀疏、距离计算困难等问题是所有机器学期方法共同面临的严重障碍,被称为维数灾难,

答案:对K近邻学习是急切学习的著名代表。

答案:错缓解维数灾难的操作是()

答案:降维在训练阶段就对样本进行学习处理的方法是急切学习。

答案:对常用的聚类距离计算采用()。

答案:闵可夫斯基无监督学习是指训练样本的标记信息是(),目标是通过对()标记训练样本的学习来揭示数据内在的性质及规律,为进一步的数据分析提供基础

答案:未知,无聚类性能度量大致有两类指标:外部指标和内部指标。

答案:对常见的原型聚类方法:K均值聚类、学习向量量化和密度聚类。

答案:错无监督学习任务中研究最多、应用最广的是“分类”。

答案:错聚类的基本目标是()

答案:簇内相似度高###簇间相似度低常用的聚类距离计算采用“余弦相似度距离”

答案:错懒惰学习是指在训练阶段(),训练时间开销为零,待收到测试样本后再进行处理。

答案:对训练样本进行保存层次聚类试图在不同层次对数据及进行划分,从而形成树形的聚类结构。

答案:对Boosting,个体学习器存在强依赖关系,逐个生成基学习器,每次调整训练数据的样本分布

答案:对分歧代表了个体学习器在样本x上的不一致性。

答案:对对基决策树的每个结点,首先,从该结点的属性集合中,随机选择一个包含k个属性的子集。然后,从这个子集中,选择一个最优属性,用于划分。该方法是()。

答案:随机森林随机改变一些训练样本的标记;将多分类任务,拆解为一系列二分类任务,来训练基学习器,这属于()。

答案:输出表示扰动若同时有多个标记获最高票,则从中随机选取一个,该结合策略是()。

答案:相对多数投票法Bagging是并行式集成学习的最著名的代表,给定训练数据集,采用()方法采样数据。

答案:自主采样要获得好的集成,个体学习器应满足()。

答案:学习器不能太差###学习器应该不同假设集成通过()结合T个分类器,若有超过半数的基分类器正确则分类就正确。

答案:简单投票法Boosting算法关注降低偏差,可对泛化性能()的学习器,构造出很()的集成。

答案:相对弱,强在样本X上的条件风险是指将一个真实标记为Cj的样本x分类为ci所产生的期望损失。

答案:对通过已知变量观测值来推测待推测查询变量的过程称为“推断”

答案:对极大似然估计是试图在θc所有可能的取值中,找到一个能使数据出现的“可能性”的最大的值。

答案:对对分类任务来说,在所有相关概率都已知的理想情况下,()考虑如何基于这些概率和误判损失来选择最优的类别标记。

答案:贝叶斯决策论贝叶斯网的近似推断常使用吉布斯采样(Gibbssampling)来完成,吉布斯采样可以看做,每一步仅依赖于前一步的状态,这是一个“马尔可夫链”。

答案:对为了适当考虑一部分属性间的相互依赖信息,从而不需要进行完全联合概率计算,又不至于彻底忽略了比较强的熟悉依赖关系,这种分类器是()。

答案:半朴素贝叶斯分类器一个贝叶斯网由结构和参数两部分组成,结构是一个(),每个节点对应个属性,若两属性有直接依赖关系,则它们由一条边连接起来,参数定量描述这种依赖关系。

答案:有向无环图拉普拉斯修正没能避免因训练集样本不充分而导致概率估值为0的问题。

答案:错朴素贝叶斯分类器假设所有属性相互独立,其训练过程就成了基于训练集D来估计类先验概率P(c),并估计()。

答案:每个属性的条件概率P(xi|c)为了更好地解决线性不可分问题,我们常常需要扩大可选函数的范围。

答案:对支持向量机的学习策略是()

答案:间隔最大训练样本集越大,SVM的分类结果越好

答案:错支持向量机的经验风险描述了模型的某些性质

答案:错核函数的引入是将原始空间中不可分的训练样本映射到高维的特征空间后变得可分。

答案:对线性可分支持向量机是一种()模型

答案:二分类支持向量机的求解通常采用()来求解

答案:二次规划算法当训练样本线性不可分时可采用()来缓解和解决

答案:软间隔###核函数只拥有一层功能神经元(能进行激活函数处理)的感知机学习能力依然很强,能解决异或这样的非线性可分问题。

答案:错基于梯度的搜索是使用最广泛的参数寻优方法,若误差函数在当前点的梯度为零,则已达到全局最小。

答案:错若两类模式是线性可分的,即存在一个线性超平面能将它们分开,则感知机的学习过程一定会收敛。

答案:对BP神经网络由于其强大的表示能力,经常遭遇()问题,即训练误差持续下降,但测试误差却可能上升。

答案:过拟合在现实任务中,人们常采用以下策略来试图跳出局部极小,进而接近全局最小

答案:遗传算法###模拟退火###随机梯度下降多隐层感知机比单隐层感知机的表达能力强

答案:错BP算法基于()策略对参数进行调整

答案:梯度下降剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。

答案:对基尼值可以度量样本集合的纯度。

答案:对预剪枝策略降低了过拟合风险。

答案:对决策树的结点包含()

答案:根结点###叶结点###内部结点在属性划分中,信息增益越大,结点的纯度()

答案:提升越大基尼指数,反映了从D中随机抽取两个样本,其类别标记一致的概率

答案:错决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。

答案:错决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。

答案:对决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。

答案:错多变量决策树中的非叶子节点是对()属性的线性组合进行测试。

答案:若干个决策树学习算法中,属性a的信息增益越大,则使用该属性进行划分所获得的“纯度提升”越大。

答案:对决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树

答案:对线性回归目的是学得多项式模型以尽可能准确地预测实值输出标记。

答案:错在分类学习任务中,若正例远少于反例时,可以通过增加一些正例解决类别不平衡问题。

答案:对线性判别分析模型中,同类样本的投影点尽可能近,即同类样本的协方差尽可能小

答案:对线性判别分析在对新样例进行分类时,将其投影到曲线上,再根据投影点的位置来确定新样本的类别。

答案:错线性判别分析(LDA)设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近

答案:对线性判别分析可通过该投影减小样本点的维数,且投影过程中使用了类别信息。因此,线性判别分析也常被视为一种经典的()

答案:监督降维技术基于均方误差最小化来进行模型求解的方法,称为“最小二乘法”。

答案:对线性模型学得的参数ω直观地表达了各属性在预测中的重要性,因此,该模型具有较好的可解释性。

答案:对在线性模型的基础上,引入层级结构或高维映射,构成非线性模型。因此,非线性模型可以转换为线性模型。

答案:对解决类别不平衡的方法包括()

答案:过采样###欠采样###阈值移动线性回归目的是学得一个()以尽可能准确地预测实值输出标记

答案:线性模型过拟合不可以彻底避免。

答案:对以下哪些是可能导致模型过拟合的原因()

答案:学习迭代次数过多###训练集和测试集特征分布不一致###训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论