算法及其推广_第1页
算法及其推广_第2页
算法及其推广_第3页
算法及其推广_第4页
算法及其推广_第5页
已阅读5页,还剩21页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

关于算法及其推广第一页,共二十六页,2022年,8月28日EM算法是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法(ExpectationMaximization),简称EM算法。第二页,共二十六页,2022年,8月28日极大似然估计极大似然估计是概率论在统计学中的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次实验,观察其结果,利用结果推出参数的大概值。第三页,共二十六页,2022年,8月28日极大似然估计似然函数:已知样本集X,X是通过概率密度p(x|θ)抽取。样本集X中各个样本的联合概率:为了便于分析,由于L(θ)是连乘的,还可以定义对数似然函数,将其变成连加的:第四页,共二十六页,2022年,8月28日极大似然估计求极值可以转换为以下方程:θ的极大似然估计量表示为:第五页,共二十六页,2022年,8月28日9.1EM算法的引入9.1.1 EM算法9.1.2 EM算法的导出9.1.3 EM算法在非监督学习中的应用9.2EM算法的收敛性第六页,共二十六页,2022年,8月28日9.1.1EM算法例9.1(三硬币模型)假设有3枚硬币,分别记作A,B,C.这些硬币正面出现的概率分别是π,p,q.进行如下掷硬币试验:先掷硬币A,根据其结果选出硬币B或硬币C,正面选硬币B,反面选硬币C;然后掷选出的硬币,掷硬币的结果,出现正面记作1,出现反面记作0;独立地重复n次试验(这里,n=10),观测结果如下:1,1,0,1,0,0,1,0,1,1假设只能观测到掷硬币的结果,不能观测掷硬币的过程。问如何估计三硬币正面出现的概率,即三硬币模型的参数。第七页,共二十六页,2022年,8月28日解三硬币模型可以写作y:观测变量,表示一次试验观测的结果是1或0z:隐变量,表示未观测到的掷硬币A的结果θ:θ=(π,p,q)是模型参数第八页,共二十六页,2022年,8月28日将观测数据表示为Y=(Y1,Y2,…,Yn)T,未观测数据表示为Z=(Z1,Z2,…,Zn)T,则观测数据的似然函数为

即考虑求模型参数θ=(π,p,q)的极大似然估计,即

第九页,共二十六页,2022年,8月28日EM算法首先选取参数的初值,记作

,然后通过下面的步骤迭代计算参数的估计值,直至收敛为止。第i次迭代参数的估计值为。EM算法的第i+1次迭代如下E步:计算在模型参数下观测数据yj来自掷硬币B的概率

那么观测数据yj

来自硬币C的概率为1-μ(i+1)第十页,共二十六页,2022年,8月28日M步:先写出期望然后分别求导,计算模型参数的新估计值第十一页,共二十六页,2022年,8月28日假设模型参数的初值取为由E步公式对yj=1与yj=0均有μj(1)=0.5利用M步迭代公式,得到继续计算μj(2)=0.5,j=1,2,…,10继续迭代,得于是得到模型参数θ的极大似然估计:

EM算法与初值的选择有关,选择不同的初值可能得到不同的参数估计值。如果取初值

那么得到的模型参数的极大似然估计是第十二页,共二十六页,2022年,8月28日算法9.1(EM算法)输入:观测变量数据Y,隐变量数据Z,联合概率分布P(Y,Z|θ),条件概率分布P(Z,Y|θ);输出:模型参数θ.(1)选择参数的初值,开始迭代,参数的初值可以任意选择,但需注意EM算法对初值是敏感的;(2)E步:记为第i次迭代参数θ的估计值,在第i+1次迭代得E步,计算这里,是在给定观测数据Y和当前的参数估计下隐变量数据Z的条件概率分布.注意,的第一个变元表示要极大化的参数,第2个变元表示参数的当前估计值.每次迭代实际在求Q函数及其极大;第十三页,共二十六页,2022年,8月28日(3)M步:求使极大化的θ,确定i+1次迭代得参数的估计值(4)重复第(2)步和第(3)步,直到收敛,这里给出停止迭代得条件,一般是对较小的正数,若满足

则停止迭代.第十四页,共二十六页,2022年,8月28日定义9.1(Q函数)完全数据(观测变量数据Y和隐变量数据Z)的对数似然函数关于在给定观测数据Y和当前参数下对未观测数据Z的条件概率分布的期望称为Q函数,即第十五页,共二十六页,2022年,8月28日9.1.2EM算法的导出琴生(Jensen)不等式如果f是凸函数,X是随机变量,那么

E[f(X)]≥f(EX)特别地,如果f是严格凸函数,E[f(X)]≥f(EX)那么当且仅当p(x=E[X])=1,也就是说X是常量。这里我们将f(E[X])简写为f(EX)Jensen不等式应用于凹函数时,不等号方向反向,也就是E[f(X)]≤f(EX)第十六页,共二十六页,2022年,8月28日下面通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法,由此可以清楚地看出EM算法的作用。假设在第i次迭代后θ的估计值是.我们希望新估计值θ能使L(θ)增加,即L(θ)>L(),并逐步达到极大值.为此,考虑两者的差:第十七页,共二十六页,2022年,8月28日利用Jensen不等式得到其下界:令则

第十八页,共二十六页,2022年,8月28日任何可以使增大的θ,也可以使L(θ)增大.为了使L(θ)有尽可能大的增长,选择

使达到极大,即现在求的表达式.省去对θ的极大化而言是常数的项,有上式等价于EM算法的一次迭代,即求Q函数及其极大化.EM算法是通过不断求解下界的极大化逼近求解对数似然函数极大化的算法.第十九页,共二十六页,2022年,8月28日第二十页,共二十六页,2022年,8月28日9.1.3EM算法在非监督学习中的应用有时训练数据只有输入没有对应的输出{(x1,·),(x2,·),…,(xn,·)},从这样的数据学习模型称为非监督学习问题EM算法可以用于生产模型的非监督学习生成模型由联合概率分布P(X,Y)表示,可以认为非监督学习训练数据是联合概率分布产生的数据.X为观测数据,Y为未观测数据.第二十一页,共二十六页,2022年,8月28日9.2EM算法的收敛性定理9.1设P(Y|θ)为观测数据的似然函数,(i=1,2,…)为EM算法得到的参数估计序列,则(i=1,2,…)为对应的似然函数序列,则是单调递增的,即第二十二页,共二十六页,2022年,8月28日证明由于取对数有由令于是对数似然函数可以写成第二十三页,共二十六页,2022年,8月28日只需证明右端为非负值即得出结果,由于使达到极大,所以有

其第二项,由

得出第二十四页,共二十六页,2022年,8月28日定理9.2设L(θ)=logP(Y|θ)为观测数据的对数似然函数,(i=1,2,…)为EM算法得到的参数估计序列,(i=1,2,…)为对应的对数似然函数序列.(1)如果P(Y|θ)有上界,则收敛到某一值L*;(2)

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论