电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > PPTX文档下载
分享到微信 分享到微博 分享到QQ空间

EM算法及其应用实例

  • 资源ID:34276834       资源大小:1,021.26KB        全文页数:31页
  • 资源格式: PPTX        下载积分:10金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要10金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

EM算法及其应用实例

,目录(content),目录(content),最大期望算法简介(Expectation Maximization) (1/7),定义:最大期望算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计。在统计计算中,最大期望(EM)算法是在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。最大期望经常用在机器学习和计算机视觉的数据聚类(Data Clustering)领域。,最大期望算法简介(Expectation Maximization) (2/7),问题提出假设我抽到了200个人的身高数据,现在每一个数据我都不知道那个是男的那个是女的,也就是说我想分别估计男女身高平均值(mean)、方差(variance),有点困难。,EM算法推导过程 (3/7),假定:有数据= 1 , 2 , ,需要估计参数= 1 , 2 , 采用最大似然法估计(Maximum Likelihood Estimation, MLE),用L()来表示最大似然函数,则必有L = =1 ( |) 如果数据集(Data Set)X是完全数据(Complete Data),即信息没有缺失,那么估计可以直接求偏导来计算(Partial Derivative),正如上面提到的一个例子,如果我们收集到的200个身高数据,并且知道那个是男的那个是女的,那么计算他们的平均身高和方差是一件很简单的事情。问题出来了,如果数据集X是非完全数据(Incomplete Data),即缺失信息,那么传统的似然估计法估计参数将变得不可行。如上面的例子提到,收集的数据不知道那个数据是来自男生样本(Sample),还是女生样本。,EM算法推导过程 (4/7),现在假定每一个数据点(Data Point)均含有隐藏信息,我们把这种隐藏信息称之为隐变量或者潜变量(Latent Variable),用符号Z表示,其集合= 1 , 2 , 那么似然函数就可以写成L = =1 ( ,|) 用l()表示对似然函数对数化: l = =1 log( ( ,|) ) ;用条件概率继续将其分解为:l()= =1 log( , (|) = =1 log (| , (|) (| ) ) =1 log( , (|) ) (Jensen Inequity) = |; (l(),EM算法推导过程 (5/7),记含有潜变量的最大似然函数下界(Lower Bound)B()= =1 log( , (|) ) 第t+1次迭代情况l +1 l B(; )B(; )=l + =1 log( , (|) )0,EM算法推导过程 (6/7),求出的theta是局部最优,不是全局最优,EM算法推导过程 (7/7),EM算法流程Repeat Until convergenceE-Step:Compute for each z in the data set X;(计算个数为k*n)M-step:Compute =argmax B(; ),目录(content),几个EM应用实例,Gaussian Mixture ModelProbabilistic Latent Semantic Analysis ModelLatent Dirichlet Allocation Model,Gaussian Mixture Model-Generative Model,高斯模型描述:P( ;)= =1 ( ; , ) 其中 ; , = 1 (2) 2 | 1 2 1 2 1 =1 =1,Gaussian Mixture Model -Generative Model,参数估计:设 = 1 , 2 , 对应于 的隐藏信息,其中若 = 1,表示 属于第类 0,否则不属于类 那么 的分布为 : = =1 且: =1; =( ; , )进而有: ; = =1 ( ; , ) ,Gaussian Mixture Model-Generative Model,最大似然函数 ,; = =1 =1 ( ; , ) 最大似然函数对数化l ,; = =1 =1 log( ; , ) )+ log = =1 =1 2 log 2 1 2 log 1 2 1 + 用EM算法来求参数E-Step: =1 ; , = | = ( =1, ; , ) ( ; , ) = ( =1, ; , ) =1 ( =1, ; , ) = ( ; , ) =1 ( ; , ),Gaussian Mixture Model-Generative Model,M-Step:B()= | ; (l ,; )= =1 =1 ( ) 2 log 2 1 2 log 1 2 1 + 构造拉格朗日函数B= =1 =1 ( ) 1 2 log 1 2 1 + ( =1 1) 对 求导,得 =1 ( )= ,可以推导得: = =1 ( ) =1 =1 ( ) = =1 =1 ; , =1 =1 =1 ; , 对 求偏导 =1 ( ) 1 ( ) =0,可以推导得: = =1 ( ) =1 ( ) = =1 =1 ; , =1 =1 ; , ,Gaussian Mixture Model-Generative Model,对 求偏导预备知识: log| = 1 ; 1 = 1 1 =1 ( ) 1 2 1 + 1 2 1 1 =0 = =1 ( ) =1 ( ) = =1 =1 ; , =1 =1 ; , ,

注意事项

本文(EM算法及其应用实例)为本站会员(油条)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.