统计学复习答案1-5_第1页
统计学复习答案1-5_第2页
统计学复习答案1-5_第3页
统计学复习答案1-5_第4页
统计学复习答案1-5_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、1、 传统的统计模式识别体系是什么?基于确定性推理一分类方法回归分析(基于最小二乘法)线性分类器(感知机,logistic回归,支持向量机)非线性分类器(多层感知机,核支持向量机)二特征生成(无监督学习)流形学习(把维数降低)稀疏表示(把维数增高)深度学习(卷积神经网络,自解码神经网络)聚类算法三、理论分析复杂度分析泛化能力分析基于概率原理一分类算法 基于贝叶斯决策理论(基于分类损失最小角度)二特征生成深度学习(基于玻尔兹曼机方法)具有概率的PCA(概率神经网络)三数据的概率表达含参模型(EM算法),不含参模型(数据独立)概率图模型(马尔可夫链)【附加】物理环境、数据获取/感知、预处理、特征提

2、取、训练数据、特征提取/选择、模型学习/估计、后处理、分类、决策。2、 什么是生成模型?判别模型?及其他们各自的特点?【附加】生成模型又叫产生式模型,估计的是联合概率分布。通过学习联合概率分布P(x,y),然后求出条件概率分布P(Y|X)作为预测模型,P(Y|X)= P(x,y)/P(X)模型表达了输入X,与产生Y的生成关系。(用于随机生成的观察值建模,特别是在给定某些隐藏参数情况下。在机器学习中,或用于直接对数据建模(用概率密度函数对观察到的draw建模),或作为生成条件概率密度函数的中间步骤。通过使用贝叶斯rule可以从生成模型中得到条件分布。)判别模型又可以称为条件模型,或条件概率模型,

3、估计的是条件概率分布。判别模型由数据学习决策函数f(x)或者条件概率分布P(Y|X)作为预测模型,即判别模型。(又可以称为条件模型,或条件概率模型。估计的是条件概率分布(conditional distribution), p(class|context)。利用正负例和分类标签,focus在判别模型的边缘分布。目标函数直接对应于分类准确率。)生成模型的特点:可以还原联合概率分布P(x,y);当样本容量增加时,学到的模型更快收敛到真实模型;存在隐变量,还可以学习;(网上资料:一般主要是对后验概率建模,从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度。只关注自己的inclass本身(即

4、点左下角区域内的概率),不关心到底 decision boundary在哪。)判别模型特点:直接面对预测学习,通常准确率高;可以对数据进行各种程度上的抽象、定义特征和使用特征。(网上资料:寻找不同类别之间的最优分类面,反映的是异类数据之间的差异。)3、 讨论线性回归模型中参数向量的最大后验估计和最大似然估计之间的基本差别?最大后验估计是根据经验数据获得对难以观察的量的点估计,与最大似然估计类似,但是最大的不同是,最大后验估计融入了要估计量的先验分布,故最大后验估计可以看做是规则化的最大似然估计。最大似然估计提供了一种给定观察数据来评估模型参数的方法,即“模型已定,参数未知”。最大似然估计中采样

5、需满足一个很重要的假设,就是所有的采样都是独立同分布。通过采样,获取部分数据,然后通过最大似然估计来获取满足假设中的正态分布的均值和方差。最大似然估计只考虑某个模型能产生某个给定观察序列的概率,而未考虑该模型本身的概率。最大似然估计的一般求解过程:1、写出似然函数;2、对似然函数取对数;3、求导数;4、解似然方程。4、 试描述基于最小二乘法求解线性回归问题的步骤?答案:1、假定有训练集=x1,d1,x2,d2,xN,dN,定义如下能量函数:J=12i=1Ni2()=12i=1N(di-Txi)22、通过梯度下降算法,计算得到,t+1=t-J(t),称为学习速率。3、令y=Tx,wJ=212y-

6、dTx-d=(y-d)x,因此,计算参数的算法是t+1=t+(d-y)x。对于N个样本情形,可以改造算法如下:t+1=t+i=1N(di-yi)xi5、 感知机学习算法原理?6、 感知机学习算法练习批更新算法 首先判断给定误分类点所属的正确分类,然后批更新权重值 注意当误分类为负值时将负号放在前相乘7、 支持向量机的基本原理?软间隔支持向量机原理?支持向量机原理:在线性可分的情况下,寻求一个超平面,使得超平面将样本集分开,并且满足对于分类样本的几何间隔最大化 (求解时定义函数间隔为一将其转化为对偶问题求解)软间隔:样本线性近似可分的情况下 不满足函数间隔大于等于1的情况 引入松弛变量(针对每一

7、个样本点 (作用)衡量间隔最大和误分类点个数)8、 什么是支持向量?答案:位于两个超平面上的点就称为支持向量。线性可分的情况下:训练样本集中距离分类超平面距离最近的实例点。位于分界线上的点训练数据中对应于0的实例点称为支持向量。9、 能推导对偶函数,得出KKT条件。参见课件最后例子。10、 能基于支持向量机的方法,推导决策面,参见统计学习方法书。根据上题公式Ld 对求导 求出各的值 11、 为什么多层感知机能进行非线性分类?(基于异或问题讨论)12、 试描述多层感知机的BP算法?13、 能运用BP算法在实例中,进行计算,参见课件例子。14、 解释核支持向量机的基本愿力,并阐述对核的基本要求?1

8、5、 为什么要多核学习?并描述多核学习算法步骤?16、 描述adaboost算法的基本原理?答案:针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。算法本身通过改变数据分布来实现,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。17、 解释最大似然估计与最大后验估计异同点,并能用最大似然估计方法估计参数(参考课件例子)18、 EM算法流程,并可以应用与实际例子。(参考课件)答案:a、确定Z=(X,Y),Y是隐藏的变量,X是已知数据集;b、确定PZ=PX,Y,P(Y|X,g) 形式,为要

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论