版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
PAGEPAGE1《机器学习》期末考试复习题库(含答案)一、单选题1.混淆矩阵的真负率公式是为A、TP/(TP+FN)B、FP/(FP+TN)C、FN/(TP+FN)D、TN/(TN+FP)答案:D2.一个包含n类的多分类问题,若采用一对剩余的方法,需要拆分成多少次?A、nB、1C、n-1D、n+1答案:C解析:答案解析:在一对剩余(One-versus-Rest,简称OVR)的方法中,对于一个包含n类的多分类问题,会将其中一类作为正例,其余n-1类作为反例,依次构建n个二分类模型。所以需要拆分成n-1次。因此,选项C是正确的答案。3.哪一个是机器学习的合理定义?A、机器学习是计算机编程的科学B、机器学习从标记的数据中学习C、机器学习是允许机器人智能行动的领域D、机器学习能使计算机能够在没有明确编程的情况下学习答案:D4.对Boosting模型的描述错误的是A、采用串行训练模式B、增加被错误分类样本的权值C、通过改变训练集进行有针对性的学习D、基础分类器采用少数服从多数原则进行集成答案:D解析:Boosting是一种集成学习方法,它通过串行训练多个基础分类器来提高模型的性能。在每次迭代中,Boosting算法会根据上一次迭代的结果调整训练集的权重,使得被错误分类的样本在后续迭代中得到更多的关注。基础分类器的集成方式通常是通过加权投票或其他方式来综合多个分类器的预测结果,而不是少数服从多数原则。因此,选项D是错误的。5.如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?A、测试样本误差始终为零B、测试样本误差不可能为零C、以上答案都不对答案:C6.下列哪种方法可以用来缓解过拟合的产生:()。A、正则化B、增加更多的特征C、以上都是D、增加模型的复杂度答案:A7.7.以下哪个不是原型聚类算法()A、K均值算法B、学习向量量化LVQC、高斯混合聚类D、PCA算法答案:D解析:答案解析:K均值算法、学习向量量化LVQ、高斯混合聚类都属于原型聚类算法。而PCA算法(主成分分析)主要用于数据降维,通过线性变换将原始数据变换到一组各维度线性无关的表示上,从而提取数据的主要特征,并非原型聚类算法。因此,选项D是正确答案。8.在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟合(over-fitting)中影响最大?A、多项式阶数B、更新权重w时,使用的是矩阵求逆还是梯度下降C、使用常数项答案:A9.一对一法分类器,k个类别需要多少个SVM:A、k(k-1)/2B、k(k-1)C、kD、k!答案:A解析:一对一法是一种解决多类别分类问题的方法。在一对一法中,对于$k$个类别,需要构建$k(k-1)/2$个二分类器,每个二分类器用于区分两个类别。具体来说,对于每个类别$i$,需要构建$k-1$个二分类器,其中第$j$个二分类器用于区分类别$i$和类别$j$。这样,总共需要构建的二分类器数量为:$$\begin{align*}&\frac{k(k-1)}{2}\\=&\frac{k\times(k-1)}{2}\\=&\frac{k^2-k}{2}\\=&\frac{k(k-1)}{2}\end{align*}$$因此,选项A是正确答案。10.下列贝叶斯网结构中不属于三种典型的依赖关系A、同父结构B、选择结构C、顺序结构D、V型结构答案:B解析:答案解析:在贝叶斯网中,存在三种典型的依赖关系,分别是同父结构、顺序结构和V型结构。同父结构中,多个子节点共享同一个父节点;顺序结构体现节点之间的先后顺序依赖;V型结构反映了两个子节点通过共同父节点产生的依赖。而选择结构并非贝叶斯网中的典型依赖关系。所以,正确答案是选项B。11.下列两个变量之间的关系中,那一个是线性关系A、学生的性别与他(她)的数学成绩B、人的工作环境与他的身体健康状况C、儿子的身高与父亲的身高D、正方形的边长与周长答案:D12.下面符合特征选择标准的是()A、越少越好B、越多越好C、选择能够反映不同事物差异的特征D、以上均不对答案:C解析:特征选择的目的是选取最能有效区分不同类别或事物的特征。如果特征过少,可能无法充分体现事物的特点和差异;特征过多可能会引入噪声和冗余信息,增加计算负担且不一定能提高准确性。而选择能够反映不同事物差异的特征,才是最关键和有意义的,这样能更好地进行分析和判断。所以选项C正确,选项A、B过于绝对和片面,选项D错误。因此答案是C。13.下列哪一种偏移,是我们在最小二乘直线拟合的情况下使用的?图中横坐标是输入X,纵坐标是输出Y。A、垂直偏移B、垂向偏移C、两种偏移都可以D、以上说法都不对答案:A14.以下哪个是PCA算法的主要应用?A、聚类B、分类C、距离度量D、数据压缩答案:D解析:PCA(PrincipalComponentAnalysis)算法即主成分分析算法,是一种常用的数据分析方法。PCA算法的主要目的是将高维数据投影到低维空间中,同时尽可能保留数据的方差信息。通过这种方式,可以实现数据的降维,减少数据的维度,同时保留数据的主要特征。在数据压缩方面,PCA算法可以将高维数据投影到低维空间中,从而实现数据的压缩。通过这种方式,可以减少数据的存储空间,同时提高数据的传输和处理效率。在聚类和分类方面,虽然PCA算法可以用于数据的预处理和特征提取,但它并不是一种直接的聚类或分类算法。在聚类和分类中,通常需要使用其他算法,如K-Means算法、SVM算法等。在距离度量方面,PCA算法可以用于计算数据之间的距离,但它并不是一种专门的距离度量算法。在距离度量中,通常需要使用其他算法,如欧几里得距离、余弦相似度等。因此,选项D是正确的答案。15.1.将数据集D进行适当处理,产生出训练集S和测试集T,有哪些常见的做法:A、留出法B、交叉验证法C、自助法D、以上都是答案:D16.在机器学习中,学得的模型适用于新样本的能力称为()A、分析能力B、泛化能力C、训练能力D、验证能力答案:B解析:在机器学习中,模型的重要作用是对未曾见过的新样本进行准确预测或分类。泛化能力就是指模型从已有的训练数据中学习到的知识和规律,应用到新的、未见过的数据上并取得良好效果的能力。一个具有良好泛化能力的模型,能够有效地处理实际场景中的各种新情况。而分析能力、训练能力、验证能力都不能准确描述学得的模型适用于新样本的能力。所以,答案是B选项。17.线性回归能完成的任务是A、预测离散值B、预测连续值C、分类D、聚类答案:B18.假设现在只有两个类,这种情况下SVM需要训练几次?A、1B、2C、3D、4答案:A19.对决策树进行剪枝处理的主要目的是什么A、避免欠拟合B、提高对训练集的学习能力C、避免过拟合,降低泛化能力D、避免过拟合,提升泛化能力答案:D20.若某学习器预测的是离散值,则此类学习任务称为()A、分类B、聚类C、回归D、强化学习答案:A解析:在机器学习中,根据预测值的类型,可以将学习任务分为分类和回归两类。分类任务的目标是预测离散的类别标签,例如将邮件分为垃圾邮件和正常邮件,将图像分为猫、狗、汽车等类别。而回归任务的目标是预测连续的数值,例如预测房价、股票价格等。聚类任务则是将数据集中的样本分成若干个簇,使得同一个簇内的样本相似度较高,而不同簇之间的样本相似度较低。强化学习则是通过与环境的交互来学习最优的决策策略,以获得最大的累积奖励。因此,若某学习器预测的是离散值,则此类学习任务称为分类,选项A正确。21.在SVM中,margin的含义是()A、差额B、损失误差C、幅度D、间隔答案:D22.KNN算法属于一种典型的()算法A、监督学习B、无监督学习C、半监督学习D、弱监督学习答案:A解析:KNN算法是一种基于实例的学习算法,它通过计算新数据与训练数据之间的距离,来确定新数据的类别。在KNN算法中,每个训练数据都被标记了一个类别,因此KNN算法属于一种有监督学习算法。有监督学习是指从有标记的训练数据中学习模型,以便对新的数据进行预测或分类。在KNN算法中,训练数据的标记信息被用于确定新数据的类别,因此KNN算法是一种有监督学习算法。因此,正确答案是选项A。23.在构造决策树时,以下哪种不是选择属性的度量的方法A、信息值B、信息增益C、信息增益率D、基尼指数答案:A解析:在决策树算法中,选择属性的度量方法主要有信息增益、信息增益率和基尼指数。这些方法的目的是评估每个属性对于分类的贡献程度,以便选择最优的属性作为决策节点。信息增益衡量了一个属性在划分数据集时能够减少的不确定性程度。信息增益率则对信息增益进行了归一化处理,以避免偏向于具有较多取值的属性。基尼指数则是一种衡量数据集不纯度的指标,通过选择使基尼指数最小的属性来进行划分。而信息值并不是一种常见的选择属性的度量方法。因此,正确答案是A。24.以下关于Sigmoid的特点说法错误的是()。A、Sigmoid函数计算量小B、趋向无穷的地方,函数变化很小,容易出现梯度消失的现象C、可以将函数值的范围压缩到[0,1]D、函数处处连续答案:A25.BP算法总结错误的是()。A、当前层的连接权值梯度,取决于当前层神经元阈值梯度和上一层神经元输出B、算法只要知道上一层神经元的阈值梯度,就能计算当前层神经元的阈值梯度和连接权值梯度C、隐层的阈值梯度只跟本层的神经元输出值有关D、隐层阈值梯度取决于隐层神经元输出、输出层阈值梯度和隐层与输出层的连接权值答案:C26.以下哪个不是常见的决策树算法A、ID3B、C4.5C、ARTD、BSCAN答案:D27.假设我们使用原始的非线性可分版本的Soft-SVM优化目标函数。我们需要做什么来保证得到的模型是线性可分离的?A、C=0B、C=1C、正无穷大D、C负无穷大答案:C28.不属于KNN算法要素的是:A、k值的选择B、距离度量C、分类决策的规则D、训练样本的个数答案:D解析:KNN算法是一种基本的分类与回归方法,其主要要素包括k值的选择、距离度量和分类决策的规则。k值的选择会影响算法的性能和结果,不同的距离度量方式会影响样本之间的相似度计算,而分类决策的规则则决定了如何根据邻居的类别来确定待分类样本的类别。训练样本的个数并不是KNN算法的要素之一,而是影响算法性能的一个因素。因此,正确答案是D。29.下列中为判别模型的是()A、高斯混合模型B、隐含马尔科夫模型C、GAN模型D、逻辑回归模型答案:D解析:答案解析:判别模型是直接对条件概率P(y|x)进行建模,旨在寻找不同类别之间的决策边界。逻辑回归模型就是通过输入特征x来预测输出类别y的概率,直接对P(y|x)进行建模。而高斯混合模型、隐含马尔科夫模型和GAN模型更多地是对数据的分布或生成过程进行建模,属于生成模型。所以,选项D是判别模型,是正确答案。30.关于logistic回归和SVM不正确的是()A、Logistic回归目标函数是最小化后验概率B、Logistic回归可以用于预测事件发生概率的大小C、SVM目标是结构风险最小化D、SVM可以有效避免模型过拟合答案:A31.机器学习这个术语是由()定义的?A、rthurSamuelB、GuidovanRossumC、JamesGoslingD、以上都不是答案:A32.下列方法中,属于无监督学习的为()A、线性回归B、K均值C、神经网络D、决策树答案:B监督学习是指在没有标记的数据集上进行学习的方法,目的是发现数据中的潜在模式或结构。在选项中,K均值算法是一种典型的无监督学习方法,它通过将数据分组为不同的簇,自动发现数据中的内在分组模式,而不需要事先给定数据的类别标签。线性回归、神经网络和决策树通常在有监督学习中应用,需要有已知的输出标签来进行模型的训练和预测。所以,答案选B。33.以下关于机器学习描述错误的是?A、是一门涉及统计学、系统辨识、逼近理论、神经网络、优化理论、计算机科学、脑科学等诸多领域的交叉学科B、研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能C、器学习强调三个关键词:算法、模型、训练D、基于数据的机器学习是现代智能技术中的重要方法之一答案:C解析:机器学习是一门涉及多领域的交叉学科,它研究计算机模拟或实现人类学习行为以获取新知识或技能,A、B选项正确。基于数据的机器学习也是现代智能技术中的重要方法之一,D选项正确。而C选项中“器学习”表述错误,应为“机器学习”。因此,正确答案是C。34.下面关于SVM算法叙述不正确的是()A、SVM在解决小样本、非线性及高维模式识别问题中具有优势B、SVM是一种基于经验风险最小化准则的算法C、SVM求得的解为全局唯一最优解D、SVM最终分类结果只与少数支持向量有关答案:B解析:SVM是一种有监督的学习模型,它的基本思想是找到一个最优的超平面,将不同类别的样本分开。以下是对每个选项的分析:-**A选项**:SVM在解决小样本、非线性及高维模式识别问题中具有优势,这是因为它可以通过核函数将数据映射到高维空间,从而更好地处理非线性问题。-**B选项**:SVM是一种基于结构风险最小化准则的算法,而不是经验风险最小化准则。结构风险最小化准则考虑了模型的复杂度和泛化能力,而经验风险最小化准则只考虑了模型在训练集上的表现。-**C选项**:SVM求得的解为全局唯一最优解,这是因为它通过求解一个凸二次规划问题来找到最优的超平面。-**D选项**:SVM最终分类结果只与少数支持向量有关,这是因为支持向量是离超平面最近的样本点,它们对分类结果的影响最大。因此,选项B是不正确的。35.假如我们使用Lasso回归来拟合数据集,该数据集输入特征有100个(X1,X2,…,X100)。现在,我们把其中一个特征值扩大10倍(例如是特征X1),然后用相同的正则化参数对Lasso回归进行修正。那么,下列说法正确的是?A、特征X1很可能被排除在模型之外B、特征X1很可能还包含在模型之中C、无法确定特征X1是否被舍弃D、以上说法都不对答案:B36.混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是A、四分之一B、二分之一C、七分之四D、三分之二答案:B解析:准确率的计算公式为:准确率=(TP+TN)/(TP+TN+FP+FN),其中TP表示真正例,TN表示真负例,FP表示假正例,FN表示假负例。将题目中给出的值代入公式,得到准确率=(16+4)/(16+4+12+8)=20/40=1/2。因此,选项B是正确答案。37.神经网络算法有时会出现过拟合的情况,那么采取以下哪些方法解决过拟合更为可行()。A、为参数选取多组初始值,分别训练,再选取一组作为最优值B、增大学习的步长C、减少训练数据集中数据的数量D、设置一个正则项减小模型的复杂度答案:D38.1.下面不属于过拟合原因的是A、特征维度过多B、模型假设过于复杂C、训练数据过多D、噪声过多答案:C解析:过拟合是指模型在训练数据上表现良好,但在新数据上表现不佳的现象。造成过拟合的原因主要有以下几点:-特征维度过多:过多的特征可能导致模型过于复杂,从而容易过拟合。-模型假设过于复杂:过于复杂的模型可能会拟合训练数据中的噪声,而不是真正的模式。-噪声过多:训练数据中存在过多的噪声,模型可能会过度拟合这些噪声,而忽略了真正的模式。而训练数据过多通常不会导致过拟合,相反,更多的训练数据可以帮助模型更好地学习数据中的模式,从而提高模型的泛化能力。因此,选项C不属于过拟合的原因。39.SVM算法的性能取决于:A、以上所有B、软间隔参数C、核函数的参数D、核函数的选择答案:A解析:答案解析:SVM(支持向量机)算法的性能受到多个因素的综合影响。软间隔参数决定了对异常点和噪声的容忍程度。核函数的选择决定了数据在高维空间的映射方式,不同的核函数适用于不同特征的数据集。核函数的参数则会进一步影响核函数的效果和模型的复杂度。综上所述,SVM算法的性能取决于以上所有选项,即选项A是正确的。40.假设你有以下数据:(0,2)(2,2)(3,1)输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-OneOut)交叉验证得到的均方误差是多少?A、10/32B、39/27C、49/27D、55/27答案:C解析:首先,通过给定的数据进行线性回归拟合得到模型。然后,使用留一法交叉验证,依次将每个数据点作为测试集,其余数据点用于训练模型,并计算测试集的均方误差。经过详细的计算和分析,最终得出的结果是49/27。因此,选项C是正确答案。41.对于在原空间中线性不可分问题,支持向量机()。A、无法处理B、将数据映射到核空间中C、在原空间中寻找非线性函数的划分数据D、在原空间中寻找线性函数划分数据答案:B42.下列关于过拟合的说法错误的是A、过拟合是指模型在训练集上表现很好,但是在交叉验证集和测试集上表现一般B、解决过拟合可以采用Dropout方法C、解决过拟合可以采用参数正则化方法D、数据集扩增不能用来解决过拟合问题答案:D解析:过拟合是指模型在训练集上表现很好,但在交叉验证集和测试集上表现一般或较差的现象,A选项正确。Dropout方法通过在训练过程中随机忽略一些神经元,减少神经元之间的共适应性,从而缓解过拟合,B选项正确。参数正则化方法通过对模型的参数进行约束或惩罚,减少模型的复杂度,从而避免过拟合,C选项正确。数据集扩增可以通过增加训练数据的数量和多样性,来减少模型对训练数据的过度拟合,D选项错误。因此,答案选D。43.关于维数灾难说法错误的是?A、高维度数据可使得算法泛华能力变得越来越弱B、降低高维度数据会对数据有所损伤C、高维度数据增加了运算难度D、高维度数据难以可视化答案:A解析:A选项错误,高维度数据会导致模型复杂度增加、过拟合风险增大等问题,从而使得算法泛化能力变弱,而不是越来越强。B选项正确,降低维度可能会损失一些信息。C选项正确,高维数据运算量会大幅增加,带来运算难度。D选项正确,高维度数据很难直观地进行可视化展示。所以说法错误的是A。44.下列有关SVM和LR说法不正确的是()A、SVM是分类模型,LR是回归模型B、SVM和LR都是分类模型C、SVM是判别式模型D、LR判别式模型答案:A解析:SVM(SupportVectorMachine)和LR(LogisticRegression)都可以用于分类问题,因此选项A不正确,选项B正确。SVM是判别式模型,它直接学习决策边界,而不考虑数据的生成过程,因此选项C正确。LR也是判别式模型,它通过学习特征与类别之间的线性关系来进行分类,因此选项D正确。综上所述,不正确的说法是选项A。45.若svm出现欠拟合,以下合适的做法是A、使用更powful的kernelB、增加训练样本C、使用L2正规化D、做数据增强答案:A解析:当SVM出现欠拟合时,使用更强大(powerful)的核函数(kernel)可以增加模型的复杂度和表达能力,有助于改善欠拟合情况。增加训练样本不一定能解决欠拟合问题,有可能仍然无法很好地拟合。使用L2正规化通常是防止过拟合的手段。数据增强主要用于增加数据的多样性,对欠拟合的改善作用不直接。所以A选项正确。46.谷歌新闻每天收集非常多的新闻,并运用()方法再将这些新闻分组,组成若干类有关联的新闻。于是,搜索时同一组新闻事件往往隶属同一主题的,所以显示到一起。A、关联规则B、聚类C、回归D、分类答案:B47.关于BP算法信号前向传播的说法正确的是()。A、BP算法在计算正向传播输出值时需要考虑激活函数B、P算法信号前向传播的计算量跟输入层神经元数目无关C、BP算法只有在隐层才有激活函数D、BP算法信号传播的顺序是输出层、隐层、输入层。答案:A48.以下有关随机森林算法的说法错误的是:A、随机森林算法的分类精度不会随着决策树数量的增加而提高B、随机森林算法对异常值和缺失值不敏感C、随机森林算法不需要考虑过拟合问题D、决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型分类效果越好答案:C解析:随机森林是一种常用的机器学习算法,它由多个决策树组成。以下是对每个选项的分析:A.通常情况下,随着决策树数量的增加,随机森林的分类精度会逐渐提高,但在一定程度后可能会趋于稳定。因此,选项A是正确的。B.随机森林对异常值和缺失值具有一定的容忍度,因为它是基于多个决策树的集成学习算法。每个决策树在训练时会自动处理缺失值,并且对于异常值的影响相对较小。因此,选项B是正确的。C.虽然随机森林在一定程度上可以减少过拟合的风险,但仍然需要考虑过拟合问题。特别是在数据量较小或特征数量较多的情况下,过拟合可能仍然会发生。因此,选项C是错误的。D.决策树之间的相关系数越低,说明它们之间的差异越大,能够提供更多的信息。同时,每棵决策树的分类精度越高,整个随机森林的分类效果也会越好。因此,选项D是正确的。综上所述,说法错误的是选项C。49.下列激活函数中,能够实现将特征限制到区间[-1,1]的是哪一个A、TanhB、LogisticC、ReLUD、Sigmoid答案:A50.5.EM算法的停止条件()A、已达到最大迭代轮数B、数据样本异常C、训练器异常D、似然函数减小答案:A解析:答案解析:EM算法是一种迭代算法,用于求解包含隐变量的概率模型参数。在实际应用中,通常需要设置停止条件来决定何时结束迭代。已达到最大迭代轮数是常见的停止条件之一。因为如果无限制地迭代下去,可能会增加计算成本,且不一定能显著改善结果。而数据样本异常、训练器异常通常不是EM算法正常的停止条件。似然函数一般是增大的,而不是减小。所以,选项A是正确的答案。51.“没有免费的午餐定理”告诉我们A、我们不能对问题有先验假设B、没有可以适应一切问题的算法C、设计好的算法是徒劳的D、对于一个特定的问题,任何算法都是一样好的答案:B解析:“没有免费的午餐定理”(NoFreeLunchTheorem)是机器学习和优化理论中的一个重要概念。它的主要含义是,在所有可能的问题上,没有一种算法可以在所有情况下都优于其他算法。具体来说,这个定理告诉我们,对于任何一个算法,它在某些问题上可能表现得很好,但在其他问题上可能表现得很差。因此,我们不能期望有一种通用的算法可以解决所有的问题,也不能对任何算法有先验的假设。在实际应用中,我们需要根据具体的问题选择合适的算法,并对算法进行评估和优化。同时,我们也需要不断探索和研究新的算法,以提高解决问题的效率和质量。因此,选项B是正确的答案。52.4.“学习向量量化”与一般聚类算法不同的是()A、数据样本带有类别标记B、结构不同C、向量程度不同D、簇的种类不同答案:A解析:“学习向量量化”是一种有监督的学习算法,而一般聚类算法大多是无监督的。有监督学习中数据样本通常带有类别标记,这是它与一般聚类算法的重要区别。选项B中结构不同不是本质区别;选项C向量程度不同表述不准确;选项D簇的种类不同也不是关键不同点。所以答案选A。53.在大数据集上训练决策树,为了使用较少时间,我们可以()A、增加树的深度B、增加学习率C、减少树的深度D、减少树的数量答案:C54.关于决策树结点划分指标描述正确的是A、类别非纯度越大越好B、信息增益越大越好C、信息增益率越小越好D、基尼指数越大越好答案:B解析:在决策树中,信息增益表示特征使数据集的不确定性减少的程度,信息增益越大,说明该特征对分类的作用越明显,越有利于对数据集进行准确划分,所以信息增益越大越好,B选项正确;而类别非纯度、信息增益率和基尼指数都不是越大越好,A、C、D选项错误。55.做一个二分类预测问题,先设定阈值为0.5,概率大于等于0.5的样本归入正例类(即1),小于0.5的样本归入反例类(即0)。然后,用阈值n(n>0.5)重新划分样本到正例类和反例类,下面哪一种说法正确是()1.增加阈值不会提高召回率2.增加阈值会提高召回率3.增加阈值不会降低查准率4.增加阈值会降低查准率A、1B、2C、1、3D、2、4答案:C解析:召回率是实际为正例的样本中被预测为正例的比例。增加阈值,会使得被判定为正例的样本减少,原本一些可能被判定为正例的现在可能被归为反例,这样就可能导致召回率降低或不变,不会提高,所以1正确,2错误。查准率是预测为正例的样本中实际为正例的比例,增加阈值后,预测为正例的样本更可能是真正的正例,查准率可能提高或不变,不会降低,所以3正确,4错误。综上,正确答案是C。56.下列不是SVM核函数的是:A、多项式核函数B、logistic核函数C、径向基核函数D、Sigmoid核函数答案:B57.点击率的预测是一个数据比例不平衡问题(比如训练集中样本呈阴性的比例为99%,阳性的比例是1%),如果我们用这种数据建立模型并使得训练集的准确率高达99%。我们可以得出结论是:A、模型的准确率非常高,我们不需要进一步探索B、模型不好,我们应建一个更好的模型C、无法评价模型D、以上都不正确答案:B58.下列哪种归纳学习采用符号表示方式?A、经验归纳学习B、遗传算法C、联接学习D、强化学习答案:A59.StandardScaler预处理方法可以表示为?=(?-?)/,其中?表示特征所在列的A、最大值B、分解阈值C、均值D、方差答案:D解析:在StandardScaler预处理方法中,公式为$x'=(x-\mu)/\sigma$,其中$x$表示原始数据,$\mu$表示均值,$\sigma$表示标准差。而标准差的平方就是方差。因此,在这个公式中,$?=\sigma$,表示特征所在列的方差。所以,正确答案是D。60.下列关于主成分分析的表述错误的是A、主成分分析方法一种数据降维的方法B、通过主成分分析,可以将多个变量缩减为少数几个新的变量,而信息并没有损失,或者说信息损失很少C、通过主成分分析,可以用较少的新的指标来代替原来较多的指标反映的信息,并且新的指标之间是相互独立的D、主成分分析是数据增维的方法答案:D解析:主成分分析是一种数据降维的方法,它可以将多个相关变量转换为少数几个不相关的综合指标,即主成分。这些主成分能够尽可能地保留原始数据的信息,同时减少数据的维度。选项A正确,主成分分析的主要目的就是降低数据的维度。选项B也正确,通过主成分分析,原始变量的大部分信息可以被压缩到少数几个主成分中,信息损失较小。选项C同样正确,主成分之间是相互独立的,这有助于简化数据分析和解释。而选项D错误,主成分分析是减维而不是增维的方法。综上所述,正确答案是D。61.朴素贝叶斯分类器的三种实现不包括A、基于伯努利模型实现B、基于多项式模型实现C、属性条件独立性假设实现D、基于高斯模型实现答案:C解析:朴素贝叶斯分类器常见的实现方式有基于伯努利模型、基于多项式模型和基于高斯模型。而属性条件独立性假设是朴素贝叶斯分类器的基本假设,并非是一种具体的实现方式。所以,答案选C。62.下面关于贝叶斯分类器描述错误的是A、以贝叶斯定理为基础B、是基于后验概率C、可以解决有监督学习的问题D、可以用极大似然估计法解贝叶斯分类器答案:B解析:答案解析:贝叶斯分类器是以贝叶斯定理为基础,可用于解决有监督学习的问题,常用极大似然估计法求解。然而,贝叶斯分类器是基于先验概率和条件概率,而不是基于后验概率。所以,选项B描述错误,选项A、C、D均符合贝叶斯分类器的特点。因此,答案选择B选项。63.1下列关于线性回归说法错误的是()A、在现有模型上,加入新的变量,所得到的R^2的值总会增加B、线性回归的前提假设之一是残差必须服从独立正态分布C、残差的方差无偏估计是SSE/(n-p)D、自变量和残差不一定保持相互独立答案:D解析:A选项正确,加入新变量可能会提高模型的拟合优度,从而使R^2值增加。B选项正确,线性回归的前提假设之一是残差服从独立正态分布。C选项正确,SSE/(n-p)是残差方差的无偏估计。D选项错误,自变量和残差应该保持相互独立。综上所述,正确答案是D。64.以下哪项是非线性降维方法A、PCA(主成分分析)B、LDA(线性判别)C、ICA(独立成分分析)D、KPCA(核化线性降维)答案:D解析:线性降维方法是指在降维过程中保持数据的线性结构不变,如PCA、LDA和ICA。而非线性降维方法则是通过引入非线性变换来实现降维,KPCA就是一种核化的线性降维方法,它通过核函数将数据映射到高维特征空间,然后在该空间中进行线性降维,从而能够处理非线性数据。因此,选项D是正确的答案。65.在变量选择过程中,下列哪些方法可用于检查模型的性能?a.多重变量用于同一个模型b.模型的可解释性c.特征的信息d.交叉验证A、dB、abcC、acdD、全部答案:C66.当数据分布不平衡时,我们可采取的措施不包括()。A、对数据分布较多的类别赋予更大的权重B、对数据分布较多的类别欠采样C、对数据分布较少的类别过采样D、对数据分布较少的类别赋予更大的权重答案:A67.极大似然估计是()A、与总体分布无关的统计量B、通过总体分布才能求出来的统计量C、似然方程的解D、对数似然方程的解答案:B解析:极大似然估计是一种统计方法,用于估计总体分布中的参数。它的基本思想是在给定观测数据的情况下,找到使得观测数据出现的概率最大的参数值。具体来说,极大似然估计通过构建似然函数来实现。似然函数表示在给定参数值的情况下,观测数据出现的概率。然后,通过最大化似然函数来找到最有可能的参数值。在计算极大似然估计时,需要知道总体分布的形式。只有在知道总体分布的情况下,才能计算似然函数,并进行参数估计。因此,极大似然估计是通过总体分布才能求出来的统计量,答案为B。68.关于决策树,以下哪种说法是正确的A、可读性强B、只用于分类问题C、只用于回归问题D、是无监督学习答案:A69.按照求解方法进行分类算法的划分,下列中为生成模型的是()A、决策树B、K近邻C、贝叶斯分类器D、支持向量机SVM答案:C解析:生成模型是对联合概率分布进行建模。贝叶斯分类器基于贝叶斯定理,通过先验概率和条件概率来计算后验概率,它对数据的分布进行建模,属于生成模型。决策树、K近邻和支持向量机SVM主要是通过对数据的划分、距离计算或构建超平面等来进行分类,它们更多是直接对决策边界进行构建,属于判别模型。所以答案选C。70.决策树模型中应如何妥善处理连续型属性A、直接忽略B、利用固定阈值进行离散化C、根据信息增益选择阈值进行离散化D、随机选择数据标签发生变化的位置进行离散化答案:C解析:在决策树模型中,对于连续型属性,如果直接忽略则无法充分利用其信息;利用固定阈值进行离散化可能不够准确和灵活;随机选择数据标签发生变化的位置进行离散化缺乏科学依据和合理性。而根据信息增益选择阈值进行离散化,能够基于数据的分布和特征,选择最优的划分点,最大程度地提高决策树的分类准确性和纯度。所以,选项C是正确的答案。71.哪些机器学习模型经过训练,能够根据其行为获得的奖励和反馈做出一系列决策?A、无监督学习B、监督学习C、强化学习D、以上全部答案:C72.1.()是并行式集成学习方法最著名的代表A、随机森林B、oostingC、BaggingD、AdaBoost答案:C解析:Bagging是通过自助抽样(bootstrapsling)对样本进行有放回抽样来产生多个训练集,然后基于这些训练集训练多个基学习器,最后将它们组合,是并行式集成学习方法。随机森林是基于Bagging思想的一种扩展。Boosting和AdaBoost是顺序式集成学习方法。所以选项C正确。73.模型评估的常用方法有哪些A、留出法B、交叉验证法C、自助法D、以上都是答案:D解析:留出法是将数据集划分为训练集和测试集来评估模型;交叉验证法将数据集多次划分进行训练和验证以更全面地评估;自助法通过有放回抽样生成训练集和测试集。这三种方法都是模型评估中常用的有效手段,它们从不同角度和方式来对模型进行评估和验证,各有特点和适用场景,所以答案选D,即以上都是。74.极大似然估计中参数是()A、确定且已知的量B、确定且未知的量C、已知的随机变量D、未知的随机变量答案:B解析:极大似然估计是一种统计方法,用于估计概率分布中的参数。在极大似然估计中,参数被视为固定但未知的量。我们的目标是找到使观测数据出现的概率最大的参数值。这意味着我们假设参数是确定的,但我们不知道它的确切值,需要通过数据来估计。虽然参数在估计之前是未知的,但在估计过程中,我们将其视为固定的值,并通过最大化似然函数来找到最有可能的参数值。因此,选项B是正确的答案。75.以下关于降维说法不正确的是?A、降维是将训练样本从高维空间转换到低维空间B、降维有助于数据可视化C、通过降维可以更有效地发掘有意义的数据结构D、降维不会对数据产生损伤答案:D解析:降维是一种数据处理技术,旨在减少数据的维度数量,同时尽可能保留数据的重要信息。以下是对每个选项的分析:A.降维确实是将数据从高维空间转换到低维空间。通过这种方式,可以减少数据的复杂性,使得数据更容易处理和分析。B.降维有助于数据可视化。在高维数据中,很难直观地理解数据的分布和结构。通过将数据降维到二维或三维空间,可以使用图表或图形来展示数据,从而更好地理解数据的特征。C.降维可以更有效地发掘有意义的数据结构。通过减少维度数量,可以突出数据中的主要特征和模式,有助于发现数据中的隐藏结构和关系。D.然而,降维并不总是不会对数据产生损伤。在降维过程中,可能会丢失一些信息,特别是当数据的维度非常高时。因此,在进行降维时,需要谨慎选择合适的降维方法,并评估降维对数据的影响。综上所述,选项D不正确,降维可能会对数据产生一定的损伤。76.关于EM算法正确的是A、EM算法包括两步:E算法和M算法B、EM算法一定能收敛到全局最大值点C、英文全称是Expectation-MinimizationD、以上都不正确答案:A解析:答案A正确。EM算法(Expectation-MaximizationAlgorithm)的确包括期望步骤(E步骤)和最大化步骤(M步骤)这两个主要部分。B选项错误,EM算法不一定能收敛到全局最大值点,可能收敛到局部最优值。C选项,EM算法的英文全称是Expectation-Maximization,表述正确,但不全面。综合来看,A选项对EM算法的描述最为准确完整,所以答案选A。77.关于数据规范化,下列说法中错误的是()。A、标准化实际上是将数据在样本的标准差上做了等比例的缩放操作B、归一化利用了样本中的最大值和最小值C、包含标准化和归一化D、标准化在任何场景下受异常值的影响都很小答案:D78.2.当训练集很多时,一种更为强大的结合策略是使用(),即通过另一个学习器来进行结合。A、学习法B、平均法C、投票法D、加权投票法答案:A解析:当训练集数量庞大时,学习法可以利用训练集来训练一个新的学习器,对其他学习器的结果进行整合和优化,能更好地适应复杂情况,相比平均法、投票法、加权投票法等更具优势和适应性。所以当训练集很多时,使用学习法来结合更为强大,故答案选A。79.同质集成中的个体学习器亦称()A、基学习器B、同质学习器C、组件学习器D、异质学习器答案:A解析:同质集成中的个体学习器也被称为基学习器。这是因为在同质集成中,所有的个体学习器都是基于相同的学习算法或模型构建的,它们在数据上进行训练并生成预测结果。这些基学习器的预测结果被组合起来,以获得最终的集成预测结果。基学习器的选择和训练是同质集成的关键步骤。通常,会选择多个不同的基学习器,并使用交叉验证等技术来评估它们的性能。然后,将性能较好的基学习器组合起来,以提高集成的性能。与基学习器相对应的是异质学习器,它们是基于不同的学习算法或模型构建的。在异质集成中,会使用多个不同类型的个体学习器,并将它们的预测结果组合起来,以获得更好的预测性能。因此,选项A是正确的答案。80.下列误差和错误中,哪一项是由于训练样本的错误而导致?A、泛化误差B、偏差C、方差D、噪声答案:D81.关于BP算法优缺点的说法错误的是()。A、BP算法不能用于处理非线性分类问题B、P算法容易陷入局部最小值C、BP算法训练时间较长D、BP算法训练时候可能由于权值调整过大使得激活函数达到饱和答案:A82.一般来说,下列哪种方法常用来预测连续独立变量?A、线性回归B、逻辑回顾C、线性回归和逻辑回归都行D、以上说法都不对答案:A83.EM算法是()学习算法A、有监督B、无监督C、半监督D、都不是答案:B解析:EM算法是一种迭代算法,用于在含有隐变量的概率模型中寻找最大似然估计或最大后验概率估计。在无监督学习中,数据没有标记或类别信息,而EM算法可以用于处理这种类型的数据,例如聚类分析、高斯混合模型等。在这些应用中,EM算法通过迭代估计隐变量的分布和模型参数,来优化模型的似然函数或后验概率。因此,EM算法是一种无监督学习算法,选择选项B。84.3.以下哪些是无序属性()A、{1,2,3}B、{飞机,火车、轮船}C、闵可夫斯基距离D、{小,中,大}答案:B序属性是指属性的值之间没有特定的顺序关系。选项A中的数字有大小顺序;选项C闵可夫斯基距离是一个数值概念,不是属性;选项D中的“小、中、大”通常也隐含着一定的顺序。而选项B中“飞机、火车、轮船”只是不同交通工具的列举,它们之间不存在固有的顺序关系,属于无序属性。所以答案选B。85.关于BP算法特点描述错误的是()A、输入信号顺着输入层、隐层、输出层依次传播B、计算之前不需要对训练数据进行归一化C、预测误差需逆向传播,顺序是输出层、隐层、输入层D、各个神经元根据预测误差对权值进行调整答案:B86.下列不属于集成学习方法是A、baggingB、connectingC、boostingD、stacking答案:B解析:集成学习是通过组合多个学习器来提高性能的方法。常见的集成学习方法有bagging、boosting和stacking。A选项bagging是通过自助采样法生成多个训练集,然后训练多个基学习器,最后综合结果。C选项boosting是通过迭代地训练弱学习器,根据上一轮学习结果调整样本权重。D选项stacking是将多个基学习器的预测结果作为输入,训练一个元学习器来进行最终预测。而B选项connecting并非常见的集成学习方法。综上,答案选B。87.8.K均值算法的K指的是什么?A、K是均值的数值B、K是均值的最大限值C、K是分类的数量D、K是分类的迭代次数答案:B解析:K均值算法是一种常用的无监督学习算法,用于将数据集划分为K个不同的簇。在K均值算法中,K表示要划分的簇的数量。K均值算法的基本思想是通过迭代的方式将数据点分配到K个簇中,使得每个簇内的数据点尽可能相似,而不同簇之间的数据点尽可能不同。具体来说,K均值算法的步骤如下:1.选择K个初始聚类中心。2.将每个数据点分配到距离其最近的聚类中心所在的簇中。3.计算每个簇中所有数据点的平均值,作为新的聚类中心。4.重复步骤2和3,直到聚类中心不再发生变化或达到指定的迭代次数。通过不断迭代,K均值算法可以将数据集划分为K个不同的簇,使得每个簇内的数据点具有较高的相似度,而不同簇之间的数据点具有较低的相似度。因此,选项C是正确的答案。88.下列是机器学习中降维任务的准确描述的为A、依据某个准则对项目进行排序B、将其映射到低维空间来简化输入C、预测每个项目的实际值D、对数据对象进行分组答案:B89.9.关于K-均值算法,以下说法不正确的是A、K-均值算法是一种划分方法。B、K-均值算法能发现任意形状的簇。C、K-均值算法不一定收敛于全局最优解。D、比起DBSCAN算法来,K更好答案:B解析:K-均值算法是基于划分的聚类算法,A选项正确;它一般只能发现球状簇,对于非球状等任意形状的簇较难发现,B选项错误;该算法可能会陷入局部最优解而不一定收敛到全局最优解,C选项正确;DBSCAN算法在一些情况下有其独特优势,不能简单说K-均值算法比DBSCAN算法更好,D选项表述不准确。所以答案选B。90.构建一个最简单的线性回归模型需要几个系数(只有一个特征)?A、1个B、2个C、3个D、4个答案:B91.以下关于神经网络的说法中,正确的是()?A、增加网络层数,一定能减小训练集错误率B、减小网络层数,一定能减小测试集错误率C、增加网络层数,可能增加测试集错误率D、增加网络层数,一定增加测试集错误率答案:C解析:在神经网络中,增加网络层数可以增加模型的表达能力,从而可能提高模型在训练集上的性能。然而,过多的网络层数也可能导致过拟合,使得模型在测试集上的性能下降。A选项中,增加网络层数不一定能减小训练集错误率,如果模型过拟合了训练集,那么增加网络层数可能会使错误率增加。B选项中,减小网络层数不一定能减小测试集错误率,因为网络层数过少可能无法充分拟合数据,导致模型在测试集上的性能不佳。C选项中,增加网络层数可能增加测试集错误率,这是因为过拟合的风险增加了。D选项中,增加网络层数不一定会增加测试集错误率,具体情况取决于模型的复杂度和数据的特点。因此,正确答案是C。92.决策树中不包含以下哪种结点A、根节点B、内部结点C、叶节点D、外部结点答案:D解析:决策树是一种常见的机器学习算法,它通过对数据的分裂和归纳构建出一棵树形结构,用于预测或分类。决策树由根节点、内部节点和叶节点组成。根节点是决策树的起点,代表整个数据集。内部节点表示对某个特征的测试,根据测试结果将数据集分裂为多个子集。叶节点则表示最终的决策或分类结果。而外部结点并不是决策树中的一种节点类型,因此选项D是正确答案。93.关于SVM泛化误差描述正确的是A、超平面与支持向量之间距离B、超平面与支持向量之间距离C、SVM的误差阈值答案:B解析:答案解析:在支持向量机(SVM)中,泛化误差与超平面和支持向量之间的距离密切相关。支持向量是决定超平面位置的关键样本点。超平面与支持向量之间的距离能够反映模型的泛化能力,距离越大,模型的泛化误差通常越小,模型的性能和稳定性越好。因此,选项B是正确的答案。94.以下关于学习率说法错误的是()。A、学习率太大会导致无法收敛B、学习率必须是固定不变的C、学习率的选择不能太大也不能太小D、学习率太小会使得算法陷入局部极小点答案:B95.下列有关支持向量机说法不正确的是:A、得到的是局部最优解B、具有很好的推广能力C、采用结构风险最小化原理D、是凸二次优化问题答案:A96.如果一个SVM模型出现欠拟合,那么下列哪种方法能解决这一问题?A、增大惩罚参数C的值B、减小惩罚参数C的值C、减小核系数(gamma参数)D、都不正确答案:A解析:支持向量机(SVM)中,增大惩罚参数C的值,可以使模型对训练数据的拟合更加紧密,从而缓解欠拟合问题。C值较小会导致对误分类的容忍度较高,可能出现欠拟合。减小核系数主要影响模型的复杂度和泛化能力,但对解决欠拟合不是主要方法。所以当模型出现欠拟合时,增大C的值是可行的办法,答案选A。97.KNN算法是基于()A、概率空间B、颜色空间C、距离空间D、线性空间答案:C98.决策树学习的关键是A、初始结点选择B、剪枝C、选择最优划分属性D、分枝答案:C解析:决策树的构建过程就是对数据集不断进行划分的过程。选择最优划分属性能够决定如何对数据进行分支,这直接影响到决策树的结构和预测准确性。如果划分属性选择不当,可能导致决策树过于复杂或不准确。初始结点选择相对来说不是最关键的,剪枝是后续优化的步骤,分枝是根据划分属性确定的。所以关键是选择最优划分属性,答案选C。99.关于随机森林,说法错误的是:A、相对于Boosting系列的Adaboost和GBDT,RF实现比较简单。B、在训练后,可以给出各个特征对于输出的重要性C、训练高度串行化D、随机采样,训练出的模型的方差小,泛化能力强答案:C解析:随机森林是一种常用的机器学习算法,具有以下特点:-选项A:RF实现相对简单,与Boosting系列的Adaboost和GBDT相比,它不需要进行迭代训练。-选项B:随机森林可以通过计算每个特征在决策树中的重要性来评估特征的重要性。-选项C:训练过程是高度并行化的,可以在多个决策树之间并行计算。-选项D:通过随机采样和特征选择,随机森林可以减少模型的方差,提高泛化能力。因此,说法错误的是选项C。100.1.对函数dist(.,.)若它是一个距离度量则需要满足的基本特性中以下哪个不是正确答案A、非负性B、同一性C、递增性D、对称性答案:C解析:答案解析:在距离度量的基本特性中,非负性指的是距离不能为负,这是基本要求;同一性表示两点重合时距离为0;对称性表明两点之间的距离与顺序无关。而递增性并非距离度量的基本特性。所以选项C不是距离度量需要满足的基本特性,选项A、B、D均是正确的基本特性。因此,正确答案是选项C。101.以下关于感知器说法错误的是:()A、感知器中的偏置只改变决策边界的位置B、可为感知器的输出值设置阈值使其用于处理分类问题C、单层感知器可以用于处理非线性学习问题D、感知器是最简单的前馈式人工神经网络答案:C102.对主成分分析PCA方法描述正确的是:A、投影矩阵是正交矩阵B、进行非正交投影C、PCA不需要进行样本去均值D、投影到特征值最小的方向答案:A解析:PCA方法的核心思想是通过线性变换将高维数据投影到低维空间,同时尽可能保留数据的方差信息。在这个过程中,投影矩阵是正交矩阵,即它的列向量相互正交,这可以保证投影后的向量之间没有相关性。进行正交投影可以使数据在低维空间中具有更好的可分性和解释性。PCA通常需要对样本进行去均值处理,以消除数据的平移和缩放影响。投影到特征值最大的方向可以最大程度地保留数据的方差信息。综上所述,选项A是正确的。103.下列表述中,在k-fold交叉验证中关于选择K说法正确的是A、较大的K并不总是好的,选择较大的K可能需要较长的时间来评估你的结果B、相对于期望误差来说,选择较大的K会导致低偏差(因为训练folds会变得与整个数据集相似)C、在交叉验证中通过最小化方差法来选择K值D、以上都正确答案:D解析:在k-fold交叉验证中,K值的选择会影响模型的评估结果和计算时间。较大的K值可以减少偏差,但会增加计算时间;较小的K值则可能导致高方差。选择K值时,可以通过最小化方差法来找到最优值。同时,期望误差也会影响K值的选择。因此,选项D是正确的。104.下列关于线性回归分析中的残差(Residuals)说法正确的是?A、残差均值总是为零B、残差均值总是小于零C、残差均值总是大于零D、以上说法都不对答案:A105.四个点坐标为(1,1),(1,0),(-1,-1),(-1,0),用SVM分类的决策边界是A、y=xB、x=0C、y=-xD、y=0答案:B解析:观察这四个点,(1,1)和(-1,-1)关于原点对称,(1,0)和(-1,0)在y轴上且关于原点对称。可以发现以x=0这条直线为界能很好地将这四个点分开,直线x=0左侧是(-1,-1)和(-1,0),右侧是(1,1)和(1,0)。而其他选项的直线都不能准确地将这四个点分类,所以答案选B。106.下列关于Boosting和Bagging的描述正确的是:A、Boosting主要关注降低方差B、oosting的代表算法有随机森林C、Bagging基于自助采样法D、Bagging主要关注降低偏差答案:C解析:A选项错误,Boosting主要是降低偏差;B选项错误,随机森林是Bagging的代表算法;C选项正确,Bagging确实是基于自助采样法;D选项错误,Bagging主要是降低方差。所以正确答案是C。107.关于BP算法反向传播的说法正确的是()。A、BP算法反向传播进行更新时一般用到微积分的链式传播法则B、P算法更新量与步长关系不大C、BP算法反向传播的预测误差值一般由真实标签值和预测标签值的差计算得来D、BP算法反向传播的目的是只对权值进行更新答案:A108.ID3决策树算法以()为准则来选择划分属性A、信息增益B、信息熵C、基尼系数D、信息增益率答案:A解析:ID3决策树算法是一种基于信息论的决策树学习算法,它以信息增益为准则来选择划分属性。信息增益表示得知某个特征的信息后,数据集的不确定性减少的程度。在ID3算法中,选择具有最高信息增益的属性作为划分属性,因为这样可以使决策树的分支更加简洁,从而提高决策树的泛化能力。因此,选项A是正确的答案。109.以下关于训练集、验证集和测试集说法不正确的是()。A、验证集用于调整模型参数B、测试集是纯粹是用于测试模型泛化能力C、以上说法都不对D、训练集是用来训练以及评估模型性能答案:D110.下列有关核函数不正确的是:A、可以采用cross-va1idalion方法选择最佳核函数B、满足Mercer条件的函数不一定能作为支持向量机的核函数C、极大地提高了学习机器的非线性处理能力D、函数与非线性映射并不是一一对应的关系答案:B111.10.基于层次的聚类算法包括()。A、合并的层次聚类B、基于密度的聚类算法C、基于划分的算法D、基于网络的聚类算法答案:A解析:层次聚类算法是一种基于距离或相似性度量的聚类方法,它将数据集逐步分解成层次结构,直到达到某种终止条件。其中,合并的层次聚类算法是一种自底向上的方法,它首先将每个数据点视为一个单独的簇,然后逐步将相似的簇合并成更大的簇,直到所有数据点都属于同一个簇为止。因此,选项A是正确的答案。112.在一个线性回归问题中,我们使用R平方(R-Squared)来判断拟合度。此时,如果增加一个特征,模型不变,则下面说法正确的是?A、如果R-Squared增加,则这个特征有意义B、如果R-Squared减小,则这个特征没有意义C、仅看R-Squared单一变量,无法确定这个特征是否有意义。D、以上说法都不对答案:C113.朴素贝叶斯分类器的特征不包括A、孤立的噪声对该分类器的影响不大B、数据的缺失值影响不大C、要求数据的属性是相互独立的D、条件独立的假设可能不成立答案:C114.对于非概率模型而言,可按照判别函数线性与否分成线性模型与非线性模型。下面哪个模型不属于线性模型?A、感知机B、AdaBoostC、K-meansD、k近邻答案:B解析:对于非概率模型,线性模型的判别函数是线性的,而非线性模型的判别函数则不是线性的。在这四个选项中,感知机、K-means和k近邻的判别函数都是线性的,而AdaBoost是一种集成学习算法,它通过组合多个弱学习器来构建一个强学习器,其判别函数不是线性的。因此,不属于线性模型的是选项B。115.6.AGNES是一种()聚合策略的层次聚类算法A、自顶向下B、自底向上C、由最近样本决定D、最远样本决定答案:B解析:答案解析:AGNES(AGglomerativeNESting)算法是一种层次聚类算法,它采用自底向上的聚合策略。在该算法中,每个数据点最初被视为一个单独的簇,然后逐步将相似的簇合并在一起,形成更大的簇。这种自底向上的方式与自顶向下的方式相反,自顶向下是先将所有数据点视为一个大簇,然后逐步细分。由最近样本决定和最远样本决定是其他聚类算法中的策略,与AGNES算法无关。因此,正确答案是选项B。116.朴素贝叶斯是一种典型的基于概率的机器学习方法,它利用了A、先验概率B、后验概率C、以上都是D、以上都不是答案:C解析:朴素贝叶斯方法中,先验概率是在没有任何额外信息或证据的情况下对某个事件发生概率的估计,它在朴素贝叶斯中起到重要作用;同时也会利用后验概率,通过已知的条件来计算事件在特定情况下的概率。所以它既利用了先验概率也利用了后验概率,选项C正确。判断题1.模型泛化能力与训练样本数量无关A、正确B、错误答案:B解析:答案解析:模型的泛化能力很大程度上受训练样本数量的影响。通常,训练样本数量越多,模型能学习到更多的特征和规律,从而能更好地应对新的数据,泛化能力会更强;如果训练样本数量过少,模型可能会过度拟合训练数据,导致泛化能力变差。2."过拟合是有监督学习的挑战,而不是无监督学习"A、正确B、错误答案:A3.剪枝是决策树学习算法对付“过拟合”的主要手段,决策树剪枝的基本策略有“预剪枝”和“后剪枝”。A、正确B、错误答案:A解析:决策树是一种常用的机器学习算法,在决策树的学习过程中,如果树的分支过多,可能会导致模型过拟合,即模型在训练集上表现很好,但在测试集上表现很差。为了避免过拟合,可以采用剪枝的方法。剪枝的基本策略有“预剪枝”和“后剪枝”两种。预剪枝是在决策树生成过程中,对每个节点在划分前进行估计,如果当前节点的划分不能带来决策树泛化性能提升,则停止划分并将当前节点标记为叶节点。后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶节点进行考察,若将该节点对应的子树替换为叶节点能带来决策树泛化性能提升,则将该子树替换为叶节点。4.给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小A、正确B、错误答案:A解析:当数据点数量$n$增加时,用于训练和测试的数据点也会增加。更多的数据点可以提供更全面的信息,从而使模型能够更好地拟合数据。训练误差是模型在训练数据上的误差,而测试误差是模型在未见过的测试数据上的误差。随着$n$的增加,训练数据和测试数据的分布会更加接近,模型在训练数据上的拟合程度也会更好地反映在测试数据上。因此,训练误差和测试误差之间的差别会随着$n$的增加而减小。这意味着模型在训练数据上的表现会更接近在测试数据上的表现,从而提高模型的泛化能力。5.贝叶斯网不是因果关系网络图A、正确B、错误答案:B解析:答案解析:贝叶斯网本质上可以用来表示变量之间的因果关系,通过节点和边的结构,能够对因果关系进行建模和推断6.逻辑回归分类的精度不够高,因此在业界很少用到这个算法A、正确B、错误答案:B7.数据有噪声,有重复值,不会导致SVM算法性能下降A、正确B、错误答案:B解析:SVM算法对噪声和重复值比较敏感,这些数据问题可能会导致算法性能下降。噪声数据可能会干扰模型的学习,导致模型对真实数据的拟合不准确;重复值可能会使模型过度拟合,从而影响模型的泛化能力。8.K均值算法的E值越小则簇内样本相似度越低A、正确B、错误答案:B解析:答案解析:在K均值算法中,E值(误差平方和)越小,表示各个簇内样本点到其所在簇质心的距离之和越小,说明簇内样本的相似度越高,数据的聚合程度越好9.神经网络算法不能用于数据降维A、正确B、错误答案:B解析:神经网络算法可以用于数据降维。它通过学习数据的特征表示,将高维数据映射到低维空间,从而实现数据降维。神经网络算法在数据降维方面具有一定的优势,可以自动学习数据的特征,并且能够处理非线性数据。10.Bagging是并行式集成学习方法最著名的代表A、正确B、错误答案:A解析:答案解析:Bagging方法是通过对原始数据集进行有放回的抽样,构建多个训练集,然后基于每个训练集训练一个基学习器,最后将这些基学习器的预测结果进行集成。由于每个基学习器是独立训练的,因此可以并行进行,提高了训练效率11.梯度下降法中梯度方向是函数值下降最快方向。A、正确B、错误答案:B解析:在梯度下降法中,梯度方向是函数值上升最快的方向,而负梯度方向才是函数值下降最快的方向。12.BP算法“喜新厌旧”,在学习新样本后,会把旧样本逐渐遗忘。A、正确B、错误答案:A13.KNN算法的基本思路是近朱者赤,近墨者黑A、正确B、错误答案:A解析:KNN算法的基本思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。这与“近朱者赤,近墨者黑”的思路相似,即一个样本的类别可以根据其周围的样本类别来确定。14.AGNES算法分为单链接、全链接、均链接算法A、正确B、错误答案:A解析:答案解析:AGNES算法(层次聚类算法)确实包括单链接、全链接和均链接这几种算法。单链接根据两个类中距离最近的两个样本的距离来衡量类间距离;全链接根据两个类中距离最远的两个样本的距离来衡量;均链接则基于两类中所有样本对距离的平均值。15.流形学习是一种非线性的维数约简方法A、正确B、错误答案:A解析:流形学习是一种非线性的维数约简方法,它的基本思想是将高维数据映射到低维流形上,使得数据在低维空间中具有更好的表示和可视化效果。流形学习方法可以有效地处理高维数据中的非线性结构,并且在许多领域中得到了广泛的应用。16.输出变量为连续变量的预测问题是分类问题A、正确B、错误答案:B17.Bagging只适用于二分类任务A、正确B、错误答案:B解析:Bagging是一种集成学习方法,它可以用于分类和回归任务,不仅仅适用于二分类任务。在分类任务中,Bagging可以通过组合多个基分类器的预测结果来提高整体的分类性能。对于多分类任务,Bagging同样可以应用,只需要将每个基分类器的输出转换为对应的类别概率或类别标签即可。18.分类预测型任务从已分类的数据中学习模型,并对新的未知分类的数据使用该模型进行解释,得到这些数据的分类。根据标签的不同,分别称为分类任务和预测任务。如果类标签是连续的类别,称为预测任务。A、正确B、错误答案:A解析:答案解析:在分类预测型任务中,通过对已有分类数据的学习构建模型。对于新数据,运用此模型进行分类或预测。当类标签为离散类别时是分类任务,而当类标签为连续类别时则为预测任务,这是此类任务的常见定义和分类方式19.如果数据量较少,容易发生过拟合。A、正确B、错误答案:A解析:答案解析:在数据量较少的情况下,模型学习到的是数据中的细节和噪声,而非普遍的规律和特征,这会导致模型过度拟合训练数据,使其在面对新数据时表现不佳20.2.Bagging被誉为“代表集成学习技术水平的方法”A、正确B、错误答案:B解析:答案解析:虽然Bagging是一种集成学习方法,但它并非被誉为“代表集成学习技术水平的方法”。Boosting等其他集成学习方法在某些方面可能具有更突出的表现和优势21.随机森林的训练效率通常低于BaggingA、正确B、错误答案:B解析:随机森林是一种基于决策树的集成学习算法,它通过随机选择特征和样本进行训练,从而提高模型的泛化能力和预测准确性。与Bagging算法相比,随机森林在训练过程中不需要进行多次抽样,因此训练效率更高。22.预剪枝决策树通常比后剪枝决策树保留了更多的分支。A、正确B、错误答案:B解析:答案解析:后剪枝决策树是在生成完整决策树之后,根据一定的规则进行剪枝,所以通常会保留更多有用的分支。而预剪枝决策树在生成过程中就提前进行剪枝,限制了决策树的生长,往往会剪掉较多的分支23.决策树是基于树结构来进行决策的,决策树学习的目的是为了产生一棵泛化能力强的决策树。A、正确B、错误答案:A解析:答案解析:决策树通过对数据的分析构建树形结构,根据不同特征进行分支和判断,从而实现决策。其核心目标就是生成一棵能够在新数据上具有良好预测能力,即泛化能力强的决策树,以准确地对未知情况做出合理决策24.“独依赖估计”是半朴素贝叶斯分类器最常用的一种策略A、正确B、错误答案:A解析:半朴素贝叶斯分类器是一种在朴素贝叶斯分类器的基础上进行改进的算法,它允许每个属性在类别之外最多依赖一个其他属性。“独依赖估计”就是半朴素贝叶斯分类器中最常用的一种策略,它假设每个属性只依赖于一个其他属性,这种假设在一定程度上放松了朴素贝叶斯分类器的条件独立性假设,提高了分类的准确性。25.机器学习方法传统上可以分为2类?A、正确B、错误答案:B解析:机器学习方法传统上可以分为有监督学习、无监督学习和强化学习三类。26.KNN没有显示的训练过程,它在训练阶段只是把数据保存下来,训练时间开销为0,等收到测试样本后进行处理。A、正确B、错误答案:A解析:KNN(K最近邻)算法的训练过程实际上是将训练数据存储起来,以便在测试阶段使用。在训练阶段,KNN算法不需要进行模型的学习或参数的调整,因此训练时间开销为0。当收到测试样本时,KNN算法会计算测试样本与训练数据中各个样本的距离,并选择距离最近的K个样本。然后,根据这K个样本的类别信息,通过投票等方式确定测试样本的类别。27.在初始数据量足够时,自助法比交叉验证法更为常用。A、正确B、错误答案:B解析:自助法和交叉验证法都是常用的模型评估和选择方法。在初始数据量足够的情况下,交叉验证法更为常用,因为它可以更有效地利用数据,并且可以更准确地评估模型的性能。自助法是一种通过有放回地抽样来生成多个训练集和测试集的方法,它可以用于评估模型的稳定性和泛化能力。但是,自助法需要更多的计算资源,并且可能会导致过拟合。交叉验证法是一种将数据集分为多个子集,然后在每个子集上进行训练和测试的方法,它可以用于评估模型的性能和选择最优的模型参数。交叉验证法可以有效地避免过拟合,并且可以更准确地评估模型的性能。因此,在初始数据量足够时,交叉验证法比自助法更为常用。28.在基于SGD随机梯度下降算法的神经网络中,每次打乱数据是非常重要和必不可少A、正确B、错误答案:A解析:在基于SGD随机梯度下降算法的神经网络中,每次打乱数据是非常重要和必不可少的。这是因为SGD是一种基于随机抽样的优化算法,它通过不断地从数据集中随机抽取小批量数据来更新模型的参数。如果数据没有被打乱,那么每次迭代时模型看到的数据集都是相同的,这可能会导致模型陷入局部最优解。因此,为了确保SGD能够有效地收敛到全局最优解,每次迭代时都需要打乱数据集,以确保模型能够看到不同的数据分布。29.硬投票计算出每个类别的平均估算概率,然后选出概率最高的类别。A、正确B、错误答案:B解析:硬投票是指在集成学习中,通过多个模型的投票结果来确定最终的分类结果。它并不是计算每个类别的平均估算概率,而是直接统计每个模型对每个类别的投票数量,最终选择投票数量最多的类别作为最终的分类结果。30.分类是预测数据对象的离散类别,预测是用于数据对象的连续取值A、正确B、错误答案:A解析:分类和预测是两种数据分析任务。分类的目的是将数据对象划分到不同的离散类别中,每个类别都有明确的定义和边界。预测则是根据已知的数据对象及其特征,预测未知数据对象的连续取值。例如,根据学生的成绩、学习时间等特征,将学生分为优秀、良好、中等、及格和不及格等不同的类别,这是分类任务;根据历史房价数据预测未来房价的走势,这是预测任务。31.支持向量是最靠近决策表面的数据点A、正确B、错误答案:A解析:答案解析:在支持向量机中,支持向量是那些距离决策表面最近的样本点。这些点对于确定决策表面的位置和方向起着关键作用32.概率模型的训练过程就是参数估计的过程A、正确B、错误答案:A解析:概率模型是一种基于概率理论的数学模型,用于描述随机现象的概率分布。在概率模型中,参数是描述概率分布的关键因素,例如正态分布的均值和方差、泊松分布的均值等。训练概率模型的目的是通过对数据的学习和分析,估计出模型的参数,从而确定概率分布的具体形式。这个过程通常涉及到使用最大似然估计、贝叶斯估计等方法来估计参数的值。33.BP算法的正向传播是为获取训练误差。A、正确B、错误答案:A解析:BP算法的正向传播过程是将输入数据通过神经网络的各个层进行计算,得到输出结果。在这个过程中,并没有直接获取训练误差。训练误差是通过比较神经网络的输出结果与实际标签之间的差异来计算的。在正向传播之后,需要进行反向传播,通过计算误差对神经网络的权重进行调整,以减小误差。34.BP算法的反向传播是为了对权值进行调整。A、正确B、错误答案:A解析:BP算法(BackpropagationAlgorithm)是一种常用的神经网络训练算法。在BP算法中,反向传播的目的是根据网络的输出误差来调整网络中的权值,使得网络的输出逐渐逼近期望的输出。在正向传播过程中,输入信号通过网络的各个层,经过计算得到输出结果。然后,将输出结果与期望的输出进行比较,得到误差。在反向传播过程中,误差信号从输出层开始,逐层向前传播,并根据误差信号对权值进行调整。具体来说,对于每一个神经元,根据其连接的前一层神经元的输出和误差信号,计算出该神经元的误差项,并根据误差项对该神经元的权值进行调整。通过不断地进行正向传播和反向传播,网络的权值逐渐调整,使得网络的输出误差逐渐减小,最终达到训练的目的。35.逻辑回归是一个回归模型A、正确B、错误答案:B解析:逻辑回归虽然名称中有“回归”,但实际上它是一种分类模型,用于预测离散的类别标签。它通过建立输入特征与输出类别之间的线性关系,来对新的数据进行分类预测。36.训练算法的目的就是要让模型拟合训练数据A、正确B、错误答案:B解析:答案解析:训练算法的目的并非仅仅是让模型拟合训练数据,而是要让模型具有良好的泛化能力,能够对新的、未曾见过的数据进行准确的预测和处理。如果只是一味拟合训练数据,可能会导致过拟合,模型在面对新数据时表现不佳37.无监督学习任务中研究最多、应用最广的是聚类A、正确B、错误答案:A解析:答案解析:在无监督学习中,聚类是一种常见且重要的方法。它通过对数据的内在特征和模式进行分析,将相似的数据点归为一类,无需事先给定类别标签。由于其能够自动发现数据中的分组结构和潜在模式,
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 学生社团资产管理
- 商场电梯电缆铺设改造施工合同
- 水利保护堰塘施工合同
- 屋顶防水施工墙面协议
- 家居建材预付卡购物规则
- 摄影棚紧急疏散指南
- 旅游旺季兼职导游聘用合同
- 武汉体育训练基地租赁合同模板
- 商业用水监管规定
- 工业生产线租赁合同模板
- 地震应急演练实施方案村委会(2篇)
- 2024年合肥市梅山饭店有限公司招聘笔试冲刺题(带答案解析)
- 基础有机化学实验智慧树知到期末考试答案章节答案2024年浙江大学
- 幼儿园进餐案例及分析总结
- 2024年中考英语第一次模拟考试(南京卷)
- 2023-2024学年江西省南昌二十八中教育集团八年级(上)期末英语试卷
- 三级合伙人制度
- 2024年湖北省黄石市黄石港区政府雇员招聘37人公开引进高层次人才和急需紧缺人才笔试参考题库(共500题)答案详解版
- 矿业施工组织设计方案
- 殡仪馆鲜花采购投标方案
- 水利水电工程建设用地设计标准(征求意见稿)
评论
0/150
提交评论