
信息论信源及信息熵.ppt
29页第3章 信源及信源熵 重庆交通大学计算机与信息学院通信工程系李益才2012年8月信息论信源及信息熵第3章 信源及信息熵3.1 信源的分类及其数学模型3.2 离散单符号信源 3.3 离散多符号信源 3.4 * 连续信源 第3章 信源及信息熵信源(Information Source)是信息的来源,是产生消息(符号)、时间离散的消息序列(符号序列)以及时间连续的消息的来源信源输出的消息都是随机的,因此可用概率来描述其统计特性在信息论中,用随机变量X、随机矢量X、随机过程 {X(e,t)}分别表示产生消息、消息序列以及时间连续消息的信源信源的主要问题:p如何描述信源(信源的数学建模问题)如何描述信源(信源的数学建模问题)p怎样计算信源所含的信息量怎样计算信源所含的信息量 p怎样有效的表示信源输出的消息,也就是信源编码问题怎样有效的表示信源输出的消息,也就是信源编码问题 3.1 信源的分类及其数学模型信源的分类及其数学模型•信源的分类由多种方法,我们常根据信源输出的消息在时间和取值上是离散或连续进行分类:时间(空间时间(空间)取值取值信源种类信源种类举例举例数学描述数学描述离散离散离散信源(数字信源)文字、数据、离散化图象 离散随机变量序列 离散连续连续信号跳远比赛的结果、语音信号抽样以后 连续随机变量序列 连续连续波形信源(模拟信源) 语音、音乐、热噪声、图形、图象 随机过程 连续离散不常见表表3.1 信源的分类信源的分类3.1 信源的分类及其数学模型信源的分类及其数学模型•我们还可以根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源,根据随机变量间是否统计独立将信源分为有记忆信源和无记忆信源。
•一个实际信源的统计特性往往是相当复杂的,要想找到精确的数学模型很困难实际应用时常常用一些可以处理的数学模型来近似随机序列,特别是离散平稳随机序列是我们研究的主要内容随机序列3.2 离散单符号信源离散单符号信源 输出单个离散取值的符号的信源称为离散单符号信源它是最简单也是最基本的信源,是组成实际信源的基本单元它用一个离散随机变量表示信源所有可能输出的消息和消息对应的概率共同组成的二元序对[X,P(X)] 称为信源的概率空间:信源输出的所有消息的自信息的统计平均值定义为信源的平均自信息量(信息熵),它表示离散单符号信源的平均不确定性: 3.3 离散多符号信源离散多符号信源 定义3.1:对于随机变量序列X1,X2,…,Xn,…,在任意两个不同时刻i和j(i和j为大于1的任意整数)信源发出消息的概率分布完全相同,即对于任意的N,N=0,1,2,…,XiXi+1…Xi+N…和XjXj+1…Xj+N…具有相同的概率分布也就是 即各维联合概率分布均与时间起点无关的信源称为离散平稳信源 3.3 离散多符号信源离散多符号信源对于离散多符号信源, 我们引入熵率的概念,它表示信源输出的符号序列中,平均每个符号所携带的信息量。
定义3.2 随机变量序列中,对前N个随机变量的联合熵求平均: 称为平均符号熵如果当 时上式极限存在,则 称为熵率,或称为极限熵,记为 3.3.1 离散平稳无记忆信源离散平稳无记忆信源 离散平稳无记忆信源输出的符号序列是平稳随机序列,并且符号之间是无关的,即是统计独立的假定信源每次输出的是N长符号序列,则它的数学模型是N维离散随机变量序列:X=X1X2…XN ,并且每个随机变量之间统计独立同时,由于是平稳信源,每个随机变量的统计特性都相同,我们还可以把一个输出N长符号序列的信源记为:根据统计独立的多维随机变量的联合熵与信息熵之间的关系,可以推出:离散平稳无记忆信源的熵率:3.3.2 离散平稳有记忆信源离散平稳有记忆信源 实际信源往往是有记忆信源 对于相互间有依赖关系的N维随机变量的联合熵存在以下关系(熵函数的链规则) : 定理3.1 对于离散平稳信源,有以下几个结论: ((1)条件熵)条件熵 随随N的增加是递减的;的增加是递减的; ((2))N给定时平均符号熵大于等于条件熵,即给定时平均符号熵大于等于条件熵,即 ((3)平均符号熵)平均符号熵 随随N的增加是递减的;的增加是递减的; ((4)如果)如果 ,则,则 存在,并且存在,并且条件熵条件熵 随随N的增加是递减的的增加是递减的L给定时平均符号熵大于等于条件熵给定时平均符号熵大于等于条件熵结合结论1:平均符号熵平均符号熵 随随N的增加是递减的;的增加是递减的;运用结论2得:如果如果 ,则,则3.3.3 马尔可夫信源马尔可夫信源有一类信源,信源在某时刻发出的符号仅与在此之前发出的有限个符号有关,而与更早些时候发出的符号无关,这称为马尔可夫性,这类信源称为马尔可夫信源。
马尔可夫信源可以在N不很大时得到 如果信源在某时刻发出的符号仅与在此之前发出的 m个符号有关,则称为m阶马尔可夫信源,它的熵率: 通常记作:(马尔可夫性)(平稳性)3.3.3 马尔可夫信源马尔可夫信源马尔可夫信源是一类相对简单的有记忆信源,信源在某一时刻发出某一符号的概率除与该符号有关外,只与此前发出的有限个符号有关因此我们把前面若干个符号看作一个状态,可以认为信源在某一时刻发出某一符号的概率除了与该符号有关外,只与该时刻信源所处的状态有关,而与过去的状态无关信源发出一个符号后,信源所处的状态即发生改变,这些状态的变化组成了马氏链图3.1 马尔可夫信源3.3.3 马尔可夫信源马尔可夫信源对于一般的m阶马尔可夫信源,它的概率空间可以表示成: 令 ,从而得到马尔 可夫信源的状态空间: 状态空间由所有状态及状态间的状态转移概率组成。
通过引入状态转移概率,可以将对马尔可夫信源的研究转化为对马尔可夫链的研究3.3.3 马尔可夫信源马尔可夫信源遍历m阶马尔可夫信源的熵率计算p当时间足够长后,遍历的马尔可夫信源可以视作平稳信当时间足够长后,遍历的马尔可夫信源可以视作平稳信源来处理,又因为源来处理,又因为m阶马尔可夫信源发出的符号只与最近阶马尔可夫信源发出的符号只与最近的的m个符号有关,所以极限熵个符号有关,所以极限熵 等于条件熵等于条件熵 p对于齐次遍历的马尔可夫链,其状态对于齐次遍历的马尔可夫链,其状态 由由 唯一唯一确定,因此有确定,因此有 所以所以 3.3.3 马尔可夫信源马尔可夫信源求遍历的马尔可夫信源的极限熵需要求状态转移概率和状态的平稳概率分布.设状态的平稳分布为:W=(W1 W2 W3 W4 …) 根据马尔可夫链遍历的充分条件有WP=W 其中P为状态转移概率矩阵,W1+W2+…=1例:设一个二元一阶马尔可夫信源,信源符号集为{0,1},信源输出符号的条件概率为: p(0|0)=0.25;p(0|1)=0.5;p(1|0)=0.75;p(1|1)=0.5求状态转移概率矩阵并画出状态转移图.例:设有一个二元二阶马尔可夫信源,其信源符号集合为X={0,1},输出符号的条件概率为: p(0|00)=p(1|11)=0.8; p(0|01)=p(0|10)=p(1|01)=p(0|10)=0.5; p(1|00)=p(0|11)=0.2 1. 求状态转移概率矩阵并画出状态转移图; 2. 求该信源的极限熵.一个三元一阶马尔可夫信源的基本符号为0、1、2,这3个符号等概率出现,并且具有相同的转移概率。
1)写出状态转移矩阵;(2)画出状态图;(3)求各符号稳态分布;(4)求各状态稳态分布;(5)求信源极限熵有一马尔可夫信源,已知状态转移概率:p(s1|s1)=2/3 p(s2|s1)=1/3 p(s1|s2)=1 p(s2|s2)=01)写出状态转移矩阵;(2)画出状态图;(4)求各状态稳态分布;(5)求信源极限熵 3.3.4 信源的相关性和剩余度信源的相关性和剩余度 根据定理3.1可得 由此看出,由于信源输出符号间的依赖关系也就是信源的相关性使信源的实际熵减小信源输出符号间统计约束关系越长,信源的实际熵越小当信源输出符号间彼此不存在依赖关系且为等概率分布时,信源的实际熵等于最大熵 定义3.3 一个信源的熵率(极限熵)与具有相同符号集的最大熵的比值称为熵的相对率:信源剩余度为: 3.3.4 信源的相关性和剩余度信源的相关性和剩余度信源的剩余度来自两个方面,一是信源符号间的相关性,相关程度越大,符号间的依赖关系越长,信源的实际熵越小,另一方面是信源符号分布的不均匀性使信源的实际熵越小 为了更经济有效的传送信息,需要尽量压缩信源的剩余度,压缩剩余度的方法就是尽量减小符号间的相关性,并且尽可能的使信源符号等概率分布。
从提高信息传输效率的观点出发,人们总是希望尽量去掉剩余度但是从提高抗干扰能力角度来看,却希望增加或保留信源的剩余度,因为剩余度大的消息抗干扰能力强 信源编码是减少或消除信源的剩余度以提高信息的传输效率,而信道编码则通过增加冗余度来提高信息传输的抗干扰能力 3.4* 连续信源连续信源 3.4.1 连续信源的微分熵连续随机变量的取值是连续的,一般用概率密度函数来描述其统计特征p单变量连续信源的数学模型为单变量连续信源的数学模型为 ,并满足,并满足 是实数域,表示是实数域,表示 的取值范围的取值范围p对于取值范围有限的连续信源还可以表示成:对于取值范围有限的连续信源还可以表示成: ,,并满足并满足 ,,(a,b)是是X的取值范围的取值范围通过对连续变量的取值进行量化分层,可以将连续随机变量用离散随机变量来逼近量化间隔越小,离散随机变量与连续随机变量越接近当量化间隔趋于0时,离散随机变量就变成了连续随机变量通过这种方式,我们来推导连续随机变量的熵 3.4.1 连续信源的微分熵连续信源的微分熵定义连续信源的微分熵为:微分熵又称为差熵。
虽然已不能代表连续信源的平均不确定性,也不能代表连续信源输出的信息量,但是它具有和离散熵相同的形式,也满足离散熵的主要特性,比如可加性,但是不具有非负性 同样,我们可以定义两个连续随机变量的联合熵: 以及条件熵 3.4.2 连续信源的最大熵连续信源的最大熵离散信源当信源符号为等概分布时有最大熵连续信源微分熵也有极大值,但是与约束条件有关,当约束条件不同时,信源的最大熵不同我们一般关心的是下面两种约束下的最大熵定理3.1 在输出幅度受限的情况,服从均匀分布的随机变量X具有最大输出熵 定理3.2 对于平均功率受限的连续随机变量,当服从高斯分布时具有最大熵对于均值为(对于均值为m ,方差为,方差为 的连续随机变量,平均功率的连续随机变量,平均功率p=直流功率直流功率+交流功率交流功率= )) 3.4.3 连续信源的熵功率连续信源的熵功率 均值为零,平均功率限定为p的连续信源当服从高斯分布时达到最大熵: 也就是说高斯信源的熵值与p有确定的对应关系: p现在假定限定的平均功率为现在假定限定的平均功率为p,某连续信源的熵为,某连续信源的熵为h(X),,则与它具有相同熵的高斯信源的平均功率则与它具有相同熵的高斯信源的平均功率 定义为熵功率定义为熵功率即即 p所以,所以, ,当该连续信源为高斯信源时等号成立。
当该连续信源为高斯信源时等号成立p 的大小可以表示连续信源剩余的大小如果熵功率等的大小可以表示连续信源剩余的大小如果熵功率等于信源平均功率,表示信源没有剩余;熵功率和信源的于信源平均功率,表示信源没有剩余;熵功率和信源的平均功率相差越大,说明信源的剩余越大所以信源平平均功率相差越大,说明信源的剩余越大所以信源平均功率和熵功率之差均功率和熵功率之差 称为连续信源的剩余度称为连续信源的剩余度。












