好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

信息论与编码(傅祖云-讲义)第二章.ppt

62页
  • 卖家[上传人]:lil****ar
  • 文档编号:275916685
  • 上传时间:2022-04-11
  • 文档格式:PPT
  • 文档大小:1.22MB
  • / 62 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • 第二章第二章 离散信源及其信息测度离散信源及其信息测度 第一节 信源的数学模型及分类第二节 离散信源的信息熵第三节 信息熵的基本性质第四节 离散无记忆的扩展信源第五节 离散平稳信源第六节 马尔可夫信源第七节 信源剩余度与自然语言的熵n 信源的主要问题信源的主要问题 1 1如何描述信源(信源的数学建模问题)描述信源(信源的数学建模问题) 2 2怎样计算信源所含的信息量怎样计算信源所含的信息量 3 3怎样有效的表示信源输出的消息,也就是信源编码问题怎样有效的表示信源输出的消息,也就是信源编码问题第一节 信源的数学模型及分类 在通信系统中,收信者在未收到信息以前,对信源发出什么样的消息是不确定的,是随机的,所以可以用随机变量、随机矢量或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度来描述信源 不同的信源根据其输出消息的不同的随机性质进行分类信源的定义及分类信源的定义及分类n离散信源n连续信源信源是发出消息的源,信源输出以符号形式出现的信源是发出消息的源,信源输出以符号形式出现的信源是发出消息的源,信源输出以符号形式出现的信源是发出消息的源,信源输出以符号形式出现的具具具具体消息。

      体消息按照信源发出的消息在时间上和幅度上按照信源发出的消息在时间上和幅度上的分布情况:的分布情况:n是指发出在时间和幅度上都是离散分布的离是指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都散消息的信源,如文字、数字、数据等符号都是离散消息是离散消息是指发出在时间和幅度上都是连续分布的连是指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息图形等都是连续消息时间(空间时间(空间时间(空间时间(空间) )取值取值取值取值信源种类信源种类信源种类信源种类举例举例举例举例数学描述数学描述数学描述数学描述离散离散离散离散离散信源离散信源(数字信源)(数字信源)文字、数据、文字、数据、离散化图象离散化图象 离散随机变量序列离散随机变量序列 离散离散连续连续连续信号连续信号跳远比赛的结果、跳远比赛的结果、语音信号抽样以后语音信号抽样以后 连续随机变量序列连续随机变量序列 连续连续连续连续波形信源波形信源(模拟信源)(模拟信源) 语音、音乐、热噪语音、音乐、热噪声、图形、图象声、图形、图象 随机过程随机过程 连续连续离散离散不常见不常见第一节 信源的数学模型及分类1、离散信源 数学模型如下: 集合X中,包含该信源包含的所有可能输出的消息,集合P中包含对应消息的概率密度,各个消息的输出概率总和应该为1。

      例:掷骰子;抛硬币;天气预报第一节 信源的数学模型及分类2、连续信源 数学模型如下: 每次只输出一个消息,但消息的可能数目是无穷多个 例:电压、温度等离散信源的进一步分类离散信源的进一步分类uu发出单个符号的信源发出单个符号的信源uu发出符号序列的信源发出符号序列的信源指信源每次只发出指信源每次只发出一个符号代表一一个符号代表一个消息个消息指信源每次发出一指信源每次发出一组含二个以上符号组含二个以上符号的符号序列代表一的符号序列代表一个消息个消息n根据随机变量间是否统计独立将信源分为有记忆信源有记忆信源和无无记忆信源记忆信源n离散无记忆信源n离散有记忆信源所发出的各个符号是相互独立所发出的各个符号是相互独立的,发出的符号序列中的各个的,发出的符号序列中的各个符号之间没有统计关联性,各符号之间没有统计关联性,各个符号的出现概率是它自身的个符号的出现概率是它自身的先验概率先验概率所发出的各个符号所发出的各个符号的概率是有关联的的概率是有关联的 有记忆信源符号间的概率关联性可用两种方式:有记忆信源符号间的概率关联性可用两种方式:n一种是用信源发出的一个符号序列的整体概率(即联合概率)一种是用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征反映有记忆信源的特征n一种限制记忆长度,即某一个符号出现的概率只与前面一个一种限制记忆长度,即某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征,这就是发出符号序列的映记忆特征,这就是发出符号序列的马尔可夫信源马尔可夫信源n根据各维随机变量的概率分布是否随时间的推移而变化将根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源信源分为平稳信源和非平稳信源 一个实际信源的统计特性往往是相当复杂的,要想找到精确的数学模型很困难。

      实际应用时常常用一些可以处理可以处理的数学模型来近似随机序列,特别是离散平稳随机序列是我们研究的主要内容第二节 离散信源的信息熵1、自信息 我们认为,一个字符它所携带的信息量是和该字符出现的概率有关,概率可以表征自信息量的大小 根据客观事实和人们的习惯概念,应满足以下条件:第二节 离散信源的信息熵(2)当时(3)当 时(4)两个独立事件的联合信息量应等于它们分别的信息量之和1) 应是先验概率的单调递减函数,即当 时第二节 离散信源的信息熵 根据上述条件可以从数学上证明这种函数形式是对数函数,即: 有两个含义: 1、当事件发生前,表示该事件发生的不确定性;2、当事件发生后,表示该事件所提供的信息量 自信息量的单位取决于对数所取的底,若以2为底,单位为比特,以e为底,单位为奈特,以10为底,单位为哈特,通常取比特为单位第二节 离散信源的信息熵例:设天气预报有两种消息,晴天和雨天,出现的概率分别为1/4和3/4,我们分别用 来表示晴天,以 来表示雨天,则我们的信源模型如下: 第二节 离散信源的信息熵我们定义自信息的数学期望为信源的平均信息量信息熵具有以下两种物理含义:1、表示信源输出前信源的平均不确定性2、表示信源输出后,每个符号所携带的平均信息量2、信息熵例:天气预报,有两个信源 则:说明第二个信源的平均不确定性更大一些第二节 离散信源的信息熵第三节 信息熵的基本性质熵函数可以表示为:第三节 信息熵的基本性质性质1:非负性H(X)0由于0pi1,所以logpi0,则总有H(X)0。

      性质2:对称性 n根据加法交换律可以证明,当变量交换顺序时熵函数的值不变n信源的熵只与概率空间的总体结构有关,而与个概率分量对应的状态顺序无关;第三节 信息熵的基本性质性质3:确定性;当信源X的信源空间X,P中任一个概率分量等于1,根据完备空间特性,其它概率分量必为0,这时信源为一个确知信源,其熵为0如果一个信源的输出符号几乎必然为某一状态,那么这个信源没有不确定性,信源输出符号后不提供任何信息量第三节 信息熵的基本性质性质4:扩展性 这说明信源空间中增加某些概率很小的符号,虽然当发出这些符号时,提供很大的信息量,但由于其概率接近于0,在信源熵中占极小的比重,使信源熵保持不变 第三节 信息熵的基本性质性质5 :极值性 上式表明,对于具有q个符号的离散信源,只有在q个信源符号等可能出现的情况下,信源熵才能达到最大值,这也表明等概分布的信源的平均不确定性最大,这是一个很重要得结论,称为最大离散熵定理最大离散熵定理例:对于一个二元信源 H(X)=H(1/2,1/2)=log2=1bit/信源符号第四节 离散无记忆的扩展信源 实际信源输出的消息往往是时间上或空间上的一系列符号,如电报系统,序列中前后符号间一般是有统计依赖关系的。

      我们先讨论离散无记忆信源,此时,信源序列的前后符号之间是统计独立的 如在二元系统中,我们可以把两个二元数字看成一组,会出现四种可能情况:00、01、10和11,我们可以把这四种情况看成一个新的信源称为二元无记忆信源的二次扩展信源,相应的,如果把N个二元数字看成一组,则新的信源称为二元无记忆信源的N此扩展信源第四节 离散无记忆的扩展信源一般情况设一个离散无记忆信源为:则该信源的N次扩展信源为:第四节 离散无记忆的扩展信源其中:根据信息熵的定义:可以证明,对于离散无记忆的扩展信源例例: 离散无记忆信源的N次扩展信源离散无记忆信源为:X:a1,a2,a3; P(X):1/4, 1/2, 1/42次扩展信源为::A1A9信源的9个符号为:A1=a1a1A2=a1a2A3=a1a3A4=a2a1A5=a2a2A6=a2a3A7=a3a1A8=a3a2A9=a3a3第四节 离散无记忆的扩展信源第四节 离散无记忆的扩展信源其概率关系为 :A1A2A3A4A5A6A7A8A91/16 1/81/16 1/81/41/81/16 1/81/16计算可知第五节 离散平稳信源 一般来说,信源的前后消息之间有前后依赖关系,可以用随机矢量描述:信源在某一时刻发出什么样的值取决于两方面1、这一时刻该变量的概率分布2、这一时刻以前发出的消息 如一个人讲话 我们现在讨论平稳的随机序列,所谓平稳是指序列的统计性质与时间的推移无关(两个任意时刻信源发出相同相同符号的概率分布完全相同)。

      1、离散平稳信源的数学定义第五节 离散平稳信源2、二维平稳信源及其信息熵 最简单的平稳信源二维平稳信源,信源发出序列中只有前后两个符号间有依赖关系,我们可以对其二维扩展信源进行分析信源的概率空间:连续两个信源符号出现的联合概率分布为:第五节 离散平稳信源已知符号 出现后,紧跟着 出现的条件概率为: 由二维离散信源的发出符号序列的特点可以把其分成每两个符号一组,每组代表新信源 中的一个符号并假设组与组之间是统计独立的,互不相关的 得到一个新的离散无记忆信源 ,其联合概率空间为:第五节 离散平稳信源根据信息熵的定义,可得:(1)联合熵可以表征信源输出长度为2的平均不确定性,或所含有的信息量因此可以用 作为二维平稳信源的信息熵的近似值第五节 离散平稳信源(2)条件熵则:第五节 离散平稳信源另外还可以得到:只有信源统计独立时等号成立可以证明:例2-15 设某二维离散信源的原始信源的信源空间 X=x1,x2,x3; P(X)=1/4, 1/4, 1/2, 一维条件概率为: p(x1/x1)=1/2; p(x2/x1)=1/2; p(x3/x1)=0; p(x1/x2)=1/8; p(x2/x2)=3/4; p(x3/x2)=1/8; p(x1/x3)=0; p(x2/x3)=1/4; p(x3/x3)=3/4;第五节 离散平稳信源例2-15 原始信源的熵为: H(X)=1.5 bit/符号条件熵: H(X2/X1)=1.4 bit/符号可见: H(X2/X1)H(X)二维信源的熵:H(X1X2)=H(X1)+H(X2/X1)=2.9 bit/消息每个信源符号提供的平均信息量为: H2(X1X2)=H(X1X2)/2=1.45 bit/符号。

      第五节 离散平稳信源第五节 离散平稳信源我们现在有两种方法去近似信源的实际熵两种方法去近似信源的实际熵,p一种是平均符号熵H(X1X2)/2为1.45bit,但这种方法不太准确,因为它把两个消息看成一组,认为两组之间是统计独立的,实际上它们之间是有关联的;p另一种是我们可以用条件熵来近似,H(X2/X1)为1.4bit,到底那一种正确呢?我们可以通过对一般离散平稳信源的分析来找到这个答案分析:我们用来近似信源的实际熵第五节 离散平稳信源3、离散平稳信源的极限熵平均符号熵条件熵有以下几点性质 (1)条件熵随N的增加是非递增的 (2)N给定时,平均符号熵大于等于条件熵 (3)平均符号熵随N的增加是非递增的 (4)称 为极限熵 第五节 离散平稳信源 可以证明,对于二维离散平稳信源,条件熵等于极限熵,因此条件熵就是二维离散平稳信源的真实熵 对于一般信源,求出极限熵是很困难的,然而,一般来说,取N不大时就可以得到与极限熵非常接近的条件熵和平均符号熵,因此可以用条件熵条件熵和平均符号熵平均符号熵来近似极限熵第六节 马尔可夫信。

      点击阅读更多内容
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.