模式识别(山东联盟)智慧树知到期末考试答案章节答案2024年青岛大学_第1页
模式识别(山东联盟)智慧树知到期末考试答案章节答案2024年青岛大学_第2页
模式识别(山东联盟)智慧树知到期末考试答案章节答案2024年青岛大学_第3页
模式识别(山东联盟)智慧树知到期末考试答案章节答案2024年青岛大学_第4页
免费预览已结束,剩余5页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

模式识别(山东联盟)智慧树知到期末考试答案+章节答案2024年青岛大学线性分类器虽然简单,但是分类效果不一定不好

答案:对当各类的协方差矩阵相等并且是对角阵时,判别函数本质上是一个线性判别函数。

答案:对当每一类均符合高斯分布时,采用的二次判别函数形式可以得到简化。

答案:对在最大似然估计中,可以使用对数形式的似然函数来进行估计。

答案:对顺序前进法是一种自上而下的搜索方法。

答案:错聚类分析算法属于有监督学习

答案:错穷举法适用于特征总数很大的情况。

答案:错分类器越复杂,分类效果越好

答案:错如果选择的决策方案合适,决策的错误率可能为0

答案:错对于多层前馈神经网络来说,神经网络的层数和节点数目越多,解决问题的能力越强。

答案:对在梯度下降迭代算法中,新的权值的调整是与上一次的权值和所有错分样本有关的。

答案:对下面关于分段线性判别函数的说法中正确的是

答案:具有推广性的分段线性分类器是对各个子类分别定义一个线性判别函数,判别时将样本划分到判别函数最大的子类所属的类别。###分段线性判别函数能够逼近任意的超曲面,具有很强的适应性。PCA算法是从一组特征中计算出一组按重要性从大到小排列的新特征,它们是原有特征的线性组合,并且相互之间是不相关的。

答案:对在BP算法中,学习率选的越大,收敛速度越快。

答案:错下面关于基于类内类间距离的可分性判据的说法中正确的是

答案:基于类内类间距离的可分性判据的值越大,说明可分离性越好。###当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。分段线性判别函数能够逼近任意的超曲面,具有很强的适应性。

答案:对感知器算法的思想是选择一个合适的权向量a,使得aT与错分样本的乘积小于或等于零。

答案:对在已知特征和类别的关系的条件下,可以使用基于知识的方法来进行分类

答案:对ID3方法可以确保生成最优的决策树

答案:错最小平方误差判别方法中的准则函数是误差长度的平方和。

答案:对若已知特征的情况下,一定可以通过模式识别方法得到特征和类别之间的对应关系

答案:错使用CV2法得到的分类器估计结果会更准确一些。

答案:对在梯度下降算法中初始权值可以是任意的。

答案:对在类别数量未知的情况下,可以采用二分树的方式进行分类器设计。

答案:对在基于熵的可分性判据中,如果判据的值越小,则说明类别的可分性就越差。

答案:错贝叶斯估计学习过程的优势是序贯地给出类概率密度函数,是一个动态学习过程,随着数据的序贯馈入,实时给出数据类的判断。

答案:对特征选择和特征提取的目的是为了降低特征空间的维度。

答案:对在基于熵的可分性判据中利用熵的大小来作为类别可分性的判据。

答案:对紧致性与分离度是两个互斥的指标,如果不断增加聚类数目,紧致性将会随之增加,但分离度也会相应的减小。

答案:对自举法是无放回的抽样方法。

答案:错当各类的协方差矩阵相等并且是对角阵时,各类样本落入以均值为中心,同样大小的超球体内。

答案:对一个数据集只能生成一种决策树

答案:错特征的提取和选择对分类器的性能没有影响。

答案:错下列属于非监督识别的是

答案:CT图像的分割下列关于模式识别的说法中,错误的是

答案:模式识别研究的问题就是如何通过机器实现样本的特征提取贝叶斯决策是通过计算样本后验概率的大小来进行决策的,下面表达式中wi代表类别,x代表样本,能够表示后验概率的是

答案:P(wi|x)下列关于感知器算法的说法中错误的是

答案:感知器算法也适用于线性不可分的样本最小平方误差判别方法只适用于线性不可分的情况。

答案:错在使用聚类指标进行评价时,一种聚类方法只有在所有指标上都等同于或超出另外一种方法时,才断定该方法在聚类性能上胜过另一方法。

答案:对在模式识别系统中,只有确定了问题的具体类型、先验分布情况、以及其他一些信息,才能确定哪种形式的分类器将提供最好的性能。

答案:对如果在采取每一个决策或行动时,都使条件风险最小,则对所有的x做出决策时,其期望风险也必然最小。

答案:对在BP算法中数据的正向传播和误差的反向传播是同时进行的。

答案:错在进行交叉验证时,,一般让临时训练集较大,临时测试集较小,这样得到的错误率估计就更接近用全部样本作为训练样本时的错误率。

答案:对正态分布概率密度函数的两个主要参数是均值和方差

答案:对对原始特征进行去均值处理后,主成分分析方法和K-L变换方法是等价的

答案:对在分段线性判别函数的设计当中很重要的一个问题是子类的划分问题

答案:对在解空间中的解向量应该对所有的样本都满足aTyi>0的条件。

答案:对过学习问题是指神经网络在训练样本集上的误差很小,但是在独立的测试样本集上误差很大。

答案:对在感知器算法中训练样本需要经过增广化处理和规范化处理。

答案:对在多层前馈网络中,隐藏层神经节点数量的确定是神经网络设计中非常重要的一步。

答案:对自举法的基本思想是,从原始样本集中进行多次自举抽样,目的就是为了模仿从总体中得到多个同样大小的样本集,从每个自举样本集得到一个估计,用多个估计的平均作为最后的估计结果。

答案:对紧致性指标越小,说明聚类结果越好。

答案:对基于熵的可分性判据中,判据的值越大,说明类别可分性越差。

答案:对在利用神经网络进行分类直线,需要将数据进行归一化处理的目的,是为了将数据的各维数的特征的作用均衡化。

答案:对如果一类分布比较接近高斯分布,即分布为团状,而另外一类则较均匀的分布在第一类附近,需要分别求出每一类的判别函数来进行类别的划分。

答案:错压缩近邻法去除的是远离分类边界,对于最后的决策没有贡献的样本。

答案:对主成分分析的目的是将多个原始特征压缩为互不相关的少数综合特征的过程。

答案:对在解空间中,越靠近边缘的解越可靠。

答案:错通过PCA方法得到的新特征能够完全表达原始特征的信息。

答案:错下面关于特征选择与提取的说法中正确的是

答案:在特征选择中,有两个很重要的方面,一个是特征的评价准则,另外一个是特征的寻优算法。###在不影响分类效果的前提下,特征越少越有利于分类。下列关于正态分布的描述中正确的是

答案:正态分布概率密度函数的两个主要参数是均值和方差###在多元正态分布中,区域的大小由方差来决定。###在多元正态分布中,区域的中心由均值来决定。###正态分布参数的维数取决于样本的维数下面算法中不属于特征选择的次优算法的是

答案:顺序后退法###顺序前进法基于最小错误率的贝叶斯决策的核心思想是将样本判别为后验概率最大的类别

答案:对多层神经网络的同一层的神经元之间通过可修正的权值互联。

答案:错C均值算法需要进行迭代计算

答案:对贝叶斯学习的过程中,样本的数量对学习的结果没有影响

答案:错单个感知器可以解决非线性问题的分类。

答案:错多层神经网络的各层神经元之间通过可修正的权值互联。

答案:对下面关于PCA算法的说法中错误的是

答案:PCA算法是通过变换矩阵得到原有特征的线性组合,新特征之间是线性相关的。在利用神经网络进行分类时,神经网络的输入节点的个数______输入的特征数量。

答案:等于下面关于错误率的说法中错误的是

答案:在实际当中,人们主要采用理论分析的方法来评价监督模式识别系统中分类器的错误率。关于非监督学习的评价方法中错误的是

答案:紧致性指标的范围是从0到无穷大,该值越大,说明聚类结果越好。下列表达中不能影响贝叶斯估计结果的是

答案:数据的线性变换下面关于解空间的描述中错误的是

答案:在解空间中满足aTyi>0的条件的解向量是唯一的。下面不能用来度量概率距离的参数是

答案:欧式距离下面关于最大似然估计的说法中正确的是

答案:在最大似然函数估计中,要估计的参数是一个确定的量。###最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数。###在最大似然估计中要求各个样本必须是独立抽取的。基于最小错误率的贝叶斯决策规则可以采用不同的形式,下列不能表达其决策规则的是

答案:先验概率下面关于分支定界法的说法中正确的是

答案:分枝定界法也是一种特征选择的最优算法。###分枝定界法的计算量与具体问题和数据有关。###分枝定界法是一种自顶向下的方法,具有回溯的过程。选择性抽样是根据样本的先验概率来确定检验集数量的抽样方法。

答案:对测试集的样本数量越多,对分类器错误率的估计就越准确。

答案:对下面关于交叉验证法的说法中正确的是

答案:交叉验证法中的测试集过小会带来错误率估计方差大的问题,这个问题可以通过多轮实验的平均得到一定的缓解。###交叉验证法不仅可以估计分类器的错误率,还可以用于分类器参数的选择。###n倍交叉验证法和留一法都是交叉验证法的具体形式。在总的样本集不是很大的情况下,可以采用交叉验证法来较好的估计分类器性能。

答案:对特征提取不仅可以降低特征空间的维度,还可以消除特征之间的相关性。

答案:对穷举法是一种基本的特征选择最优算法。

答案:对基于类内类间距离的可分性判据和概率密度函数的可分性判据都可以有不同的表达形式。

答案:对理想的判据应该对特征具有单调性,加入新的特征不会使判据减小。

答案:对熵表示不确定性,熵越小不确定性越大。

答案:错分级聚类又叫层次聚类,需要构建聚类树

答案:对C均值聚类算法对噪声和孤立点不敏感

答案:错C均值算法是基于相似性度量的

答案:对分级聚类可以使用多种不同的类间相似性度量

答案:对过拟合不会影响分类模型的泛化能力

答案:错先剪枝可以有效解决过拟合问题,但是后剪枝不能

答案:错一个数据集能生成多种决策树

答案:对随机森林算法是基于自举思想的一种决策树改进算法

答案:对ID3方法的目的是降低系统信息熵

答案:对k-近邻法中k的选取一般为偶数。

答案:错近邻法是一种有监督学习

答案:对剪辑近邻法去除的是远离分类边界,对于最后的决策没有贡献的样本。

答案:错剪辑近邻法剪除的是靠近分类面边缘的样本。

答案:对下面关于BP神经网络的说法错误的是

答案:BP算法由误差的正向传播和数据的反向传播两个过程构成。在模式识别中,神经网络的输入层的神经元的个数与样本的特征数量相关。

答案:对利用神经网络对两类问题进行分类时,可以用一个输出节点来实现。

答案:对神经网络的模型受到哪些因素的影响。

答案:连接权值的学习###传递函数###网络结构下面关于神经网络的说法中正确的是

答案:神经元是神经网络的基本组成单元。###多个感知器可以解决非线性问题的分类。###单个感知器可以实现线性分类。###多层神经网络由输入层、隐藏层和输出层组成。隐含层或输出层具有激活函数。

答案:对在线性判别函数的表达式中,一般情况下,权向量w的维数和样本的维数是一致的。

答案:对多类问题的贝叶斯分类器中判别函数的数量与类别数量是有直接关系的。

答案:对下面关于超平面的说法中正确的是

答案:超平面的法线方向与判别函数的权向量的方向是一致的。###权向量与超平面垂直。###判别函数可以度量样本x到超平面的距离。###分类面的位置是由判别函数的阈值决定的。fisher线性判别方法可以将样本从多维空间投影到一维空间。

答案:对参数估计是已知概率密度的形式,而参数未知。

答案:对概率密度函数的参数估计需要一定数量的训练样本,样本越多,参数估计的结果越准确。

答案:对概率密度函数的估计的本质是根据训练数据来估计概率密度函数的形式和参数。

答案:对贝叶斯估计中是将未知的参数本身也看作一个随机变量,要做的是根据观测数据对参数的分布进行估计。

答案:对当各类的协方差矩阵不等时,决策面是超二次曲面。

答案:对当各类的协方差矩阵相等时,分类面为超平面,并且与两类的中心连线垂直。

答案:错下面关于贝叶斯分类器的说法中错误的是

答案:贝叶斯分类器中的判别函数的形式是唯一的我们在对某一模式x进行分类判别决策时,只需要算出它属于各类的条件风险就可以进行决策了。

答案:对下列关于最小风险的贝叶斯决策的说法中正确的有

答案:最小错误率的贝叶斯决策是最小风险的贝叶斯决

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论