电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > PPT文档下载
分享到微信 分享到微博 分享到QQ空间

3极限熵及马科夫信源

  • 资源ID:34136845       资源大小:939.50KB        全文页数:51页
  • 资源格式: PPT        下载积分:10金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要10金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

3极限熵及马科夫信源

2.5 离散平稳信源,2.5.1 离散平稳信源的数学定义2.5.2 二维平稳信源及其信息熵2.5.3 离散平稳信源的极限熵,2.5.1 离散平稳信源的数学定义,实际情况下,离散信源的输出是空间或时间的离散符号序列,而且在序列中符号之间有依赖关系.此时可用随机矢量来描述信源发出的消息,即,其中任一变量Xi表示t=i时刻所发出的信号。信源在此时刻将要发出什么信号取决于以下两点:(1) 与信源在t=i时刻随机变量Xi的取值的概率分布P(Xi)有关。(2) 与t=i时刻以前信源发出的符号有关,即与条件概率 P(xi|xi-1xi-2) 有关,一般情况下,它也是时间t=i的函数,,如果信源分布与与时间无关,即时间的推移不引起信源统计特性的变化,设i、j为两任意时刻,若有,离散平稳信源的数学定义(1),具有这样性质的信源称为一维平稳信源,掷骰子掷5次后, 再掷第6次时,掷出的点数的概率分布与前5次的概率分布相同-平稳信源,离散平稳信源的数学定义(2),如果一维平稳信源的联合概率分布P(xixi+1)也与时间起点无关,即,(i、j为任意整数且ij),则信源称为二维平稳信源。 上述等式表示任何时刻信源连续发出二个符号的联合概率分布也完全相等。,以此类推,如果各维联合概率分布均与时间起点无关,既当t=i, t=j(i、j为任意整数且ij)时有:,离散平稳信源的数学定义(3),2.5-1,那么,信源是完全平稳的。这种各维联合概率分布均与时间起点无关的完全平稳信源称为离散平稳信源。,因为联合概率与条件概率有以下关系:,离散平稳信源的数学定义(4),根据2.5-1式可得,注意: 平稳信源的条件概率与时间起点无关,只与关联长度N有关。如果某时刻发出什么信号与前发出的N个符号有关,那么任何时刻他们的依赖关系是一样的。,2.5.2 二维平稳信源及其信息熵,二维平稳信源满足以下条件:,设有离散一维信源的概率空间为:,二维平稳信源的信息熵(1),由此一维信源组成的二维信源的概率空间为:,同时还已知连续两个信源符号出现的联合概率分布P(aiaj) (i, j=1,2, q) ,并有:,根据信息熵的定义可求得此信源的信息熵为:,二维平稳信源的信息熵(2),我们把H(X1X2)称为X1X2的联合熵。此值表示原来信源X输出任意一对消息的共熵,即描述信源X输出长度为2的序列的平均不确定性,或者是信息量。,因为信源X发出的符号序列中前后两个符号之间有依赖性,所以首先可以求得已知前面一个符号X1=ai信源输出下一个符号的平均不确定性。 以下表所示的信源为例,二维平稳信源的信息熵(3),所以,已知前面一个符号X1=ai信源输出下一个符号的平均不确定性,即信息熵为:,上式是对下一个符号aj的可能取值进行统计平均。而前一个符号X1取值范围是a1,a2,a3,a4中的任一个。对于某一个ai存在一个平均不确定性H(X2|X1=ai)。对所有ai的可能值进行统计平均就得当前面一个符号已知时,再输出后面一个符号的总的平均不确定性,二维平稳信源的信息熵(4),此值为二维平稳信源的条件熵,根据概率关系展开式,我们可以得到联合熵与条件熵的关系式,二维平稳信源的信息熵(5),根据概率关系展开式,我们可以得到联合熵与条件熵的关系式,而上式中的第一项可变换为:,二维平稳信源的信息熵(6),从上面的推导得: H(X1X2)=H(X1)+H(X2|X1),物理意义:联合熵等于前一个符号出现的熵加上前一个符号已知时后一个符号出现的条件熵。 这就是熵的强可加性。,同理可以证明: H(X1X2)=H(X2)+H(X1|X2),二维平稳信源的信息熵(7),条件熵与无条件熵的大小关系 H(X2|X1) H(X2),证明 在区域0,1中,设函数f(x)=-xlogx, 它在正区域内是型函数, 设P(aj|ai)=pij,P(ai)=pi, 根据詹森不等式,得,因其中,所以有,二维平稳信源的信息熵(8),只有当P(aj|ai)=P(aj)时,等式成立。,不难看出 H(X1X2)=H(X1)+H(X2|X1)H(X1)+H(X2)所以 H(X1X2)2H(X),物理意义解释:因为当二个符号间有依赖关系时,就意味着在前一个符号发生的条件下,其后面跟着什么符号不是不确定的,而是有的符号发生的可能性大,有的发生的可能性小,从而平均不确定性减少。,例2.6 某离散二维平稳信源,并设发出的符号只与前一个符号有关,即可用联合概率P(aiaj)给出它们的关联程度。如下表所示:,例题讲解(1),表2.2 P(aiaj),例如: P(ai=0 ,aj=0 )=1/4, P(ai=0,aj=1)=1/18,例题讲解(2),由概率关系可得,不难求得条件概率P(aj|ai),把计算结果列于表2.3,表2.3 P(aj|ai),例如: P(aj=0|ai=0)=9/11, P(aj=0|ai=1)=1/8,例题讲解(3),假设信源符号间无依赖性,计算得X的信源熵为,在本例中,考虑信源符号间的依赖性时,计算得条件熵,或者,例题讲解(4),联合熵,可见 H(X1X2)=H(X1)+H(X2|X1),关于本例的说明:信源的这个条件熵比信源无依赖时的熵H(X)减少了0.672比特,这正是符号之间有依赖性所造成的结果。联合熵H(X1X2)表示平均每二个信源符号所携带的信息量。那么平均每一个信源符号携带的信息量近视为 H2(X)= H(X1X2)/2=1.205(比特/符号) 可见 H2(X)< H(X),2.5.3 离散平稳信源的极限熵,设离散平稳有记忆信源,发出的符号序列为(,X1,X2,XN,XN+1,),假设信源符号之间的依赖长度为N,并已知各维概率分布:,并满足,符号的相互依赖关系往往不仅存在于相邻的两个符号之间,而且存在于更多的符号之间。所以,对于一般平稳有记忆信源,可以证一些重要结论。为此,本节将从一维信源入手,来探讨多维信源的性质,离散平稳信源的极限熵(1),离散平稳信源的一系列联合熵为:,为了计算离散平稳信源的信息熵,我们定义N长的信源符号序列中平均每个信源符号所携带的信息量为:,此值称为平均符号熵。,因信源符号之间的依赖关系长度为N,所以可以求出已知前面N-1个符号时,后面出现一个符号的平均不确定性。也就是已知前面N-1个符号时,后面出现一个符号所携带的信息量,即得一系列条件熵。,离散平稳信源的极限熵(2),对于离散平稳信源,当H1(X)<时,具有以下几点性质:条件熵H(XN|X1X2XN-1)随N的增加是非递增的N给定时,平均符号熵条件熵 ,即 HN(X)H(XN|X1X2XN-1)平均符号熵HN(X) 随N的增加是非递增的,4. 存在,且,则称H为平稳信源的极限熵或极限信息量。,离散平稳信源的极限熵(3),证明 根据上文的讨论,同理可以证得 H(X3|X1X2)H(X3|X2)因为是平稳信源,所以有 H(X3|X2)=H(X2|X1) 故得 H(X3|X1X2)H(X2|X1)H(X1)由此递推,对于平稳信源有 H(XN|X1X2XN-1)H(XN-1|X1X2XN-2) H(XN-2|X1X2XN-3) H(X3|X1X2) H(X2|X1) H(X1)性质(1)得证,离散平稳信源的极限熵(4),证明,根据性质(1)NHN(X)=H(X1,X2, ,XN)=H(X1)+H(X2|X1)+H(XN|X1X2XN-1) H(XN|X1X2XN-1)+ H(XN|X1X2XN-1)+ + H(XN|X1X2XN-1) =N H(XN|X1X2XN-1)所以证得性质(2),即 HN(X)H(XN|X1X2XN-1),同理 NHN(X)=H(X1X2XN) = H(XN|X1X2XN-1)+ H(X1X2XN-1) = H(XN|X1X2XN-1)+(N-1)HN-1(X)再利用性质(2) NHN(X)HN(X) +(N-1)HN-1(X)所以 HN(X)HN-1(X)即平均符号熵HN(X) 随N的增加是非递增的。,离散平稳信源的极限熵(5),又因 HN(X) 0即有 0HN(X)HN-1(X)HN-2(X)H1(X)<,故,存在,且处于0和H1(X)之间的某一有限值。,现在证明性质(4),离散平稳信源的极限熵(7),当k取足够大时(k>),固定N,而H(X1X2XN-1)和H(XN|X1X2XN-1)为定值,所以,上式中,再令N>,因其极限存在,所以得,H(XN+k|X1X2XNXN+k-1)H(XN|X1X2XN-1) H(XN+k-1|X1X2XNXN+k-2)H(XN|X1X2XN-1) H(XN+k-2|X1X2XNXN+k-3)H(XN|X1X2XN-1) H(XN+1|X1X2XNXN+k-1)H(XN|X1X2XN-1),离散平稳信源的极限熵(7),当k取足够大时(k>),固定N,而H(X1X2XN-1)和H(XN|X1X2XN-1)为定值,所以,上式中,再令N>,因其极限存在,所以得,离散平稳信源的极限熵(8),根据夹逼定理得,由性质(2),令N>,则,HN(X)H(XN|X1X2XN-1),故性质(4)得证,2.6 马科夫信源,2.6.1 马科夫信源的定义 2.6.2 马科夫信源的信源熵,马科夫信源的定义,在非平稳信源中,其输出的符号系列中符号之间的依赖关系是有限的,即任何时刻信源符号发生的概率只与前面已经发出的若干个符号有关。描述这类信源,还需引入状态变量Ei。,设一般信源所处的状态SE1,E2,,EJ,在每一状态下可能的输出的符号XA=a1,a2,aq。 当信源发出一个符号后,信源所处的状态将发生转移。信源输出的随机符号序列为: x1,x2,xL-1,xL, ,

注意事项

本文(3极限熵及马科夫信源)为本站会员(野鹰)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.