好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

信息论与编码第5章PPT课件.ppt

77页
  • 卖家[上传人]:鲁**
  • 文档编号:588199793
  • 上传时间:2024-09-07
  • 文档格式:PPT
  • 文档大小:1.23MB
  • / 77 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • 第第5章 信源编码章 信源编码 编码(Coding)分为信源编码(Source Coding)和信道编码(Channel Coding),其中信源编码又分为无失真信源编码和限失真信源编码一般称u无失真信源编码定理为Shannon第一极限定理;u信道编码定理(包括离散和连续信道)称为Shannon第 二极限定理;u限失真信源编码定理称为Shannon第三极限定理 第第5章 信源编码章 信源编码l信源编码的主要任务:由于信源符号之间存在分布不均 匀和相关性,使得信源存在冗余度,信源编码的主要任务就是减少冗余,提高编码效率l信源编码的基本途径:n 使序列中的各个符号尽可能地互相独立,即解除相关性;n 使编码中各个符号出现的概率尽可能地相等,即概率均 匀化 第第5章 信源编码章 信源编码信源编码的基础是信息论中的两个编码定理:n无失真编码定理n限失真编码定理 ∆无失真编码只适用于离散信源 ∆对于连续信源,只能在失真受限制的情况下进行限失真编码 第第5章 信源编码章 信源编码本章讨论离散信源编码,首先从无失真编码定理出发,重点讨论以香农码、费诺码和霍夫曼码为代表的几种无失真信源码然后介绍限失真编码定理最后简单介绍了一些常用的信源编码方法 5.1 编码的定义编码的定义信源编码器信道码符号(元)图5-1 信源编码器示意图XYX——信源符号(Source Symbol )序列Y——码字(Codeword)序列 5.1 编码的定义编码的定义信源编码是指信源输出符号经信源编码器编码后转换成另外的压缩符号(码字Codeword)无失真信源编码:可精确无失真地复制信源输出的消息 5.1 编码的定义编码的定义将信源消息分成若干组,即符号序列xi, xi=(xi1xi2…xil…xiL), xilA={a1,a2,…,ai,…,an}每个符号序列xi依照固定码表映射成一个码字yi, yi=(yi1yi2…yil…yiL), yilB={b1,b2,…,bi,…,bm}这样的码称为分组码(Block Codes),也叫块码只有分组码才有对应的码表,而非分组码中则不存在码表 5.1 编码的定义编码的定义如图5-1所示,如果信源输出符号序列长度L=1,信源符号集 A(a1,a2,…,an)信源概率空间为 若将信源X通过二元信道传输,就必须把信源符号ai变换成由0,1符号组成的码符号序列,这个过程就是信源编码 5.1 编码的定义编码的定义码可分为两类:一、固定长度的码,码中所有码字的长度 都相同,如表5-1中的码1就是定长码(Fixed Length Codes)二、可变长度码,码中的码字长短不一,如表中码2就是变长码(Variable Length Codes) 5.1 编码的定义编码的定义不同的码符号序列,如表5-1所示表5-1 变长码与定长码信源符号ai信源符号出现概率p(ai)码表码1码2a1p(a1)000a2p(a2)0101a3p(a3)10001a4p(a4)11111 5.1 编码的定义编码的定义(1)奇异码(Singular Codes)和非奇异码 (Nonsingular Codes) 若信源符号和码字是一一对应的,则该码为非奇异码, 反之为奇异码 如表5-2中的码1是奇异码,码2是非奇异码信源符号ai符号出现概率p(ai)码1码2码3码4a11/20011a21/411101001a31/80000100001a41/8110110000001表5-2 码的不同属性 5.1 编码的定义编码的定义(2)唯一可译码 (Uniquely Decodable Codes) 任意有限长的码元序列,只能被唯一地分割成一个个的码字,便称为唯一可译码 唯一可译码中又分为非即时码和即时码(Instantaneous Codes):如果接收端收到一个完整的码字后,不能立即译码,还需等下一个码字开始接收后才能判断是否可以译码,这样的码叫做非即时码。

      5.1 编码的定义编码的定义即时码:只要收到符号就表示该码字已完整,可以立即译码即时码又称为非延长码(Undelayed Codes),任意一个码字都不是其它码字的前缀部分,有时叫做异前缀码(Prefix Codes) 码码奇异码非分组码分组码非奇异码非唯一可译码非即时码即时码(非延长码)唯一可译码 5.1 编码的定义编码的定义 5.1 编码的定义编码的定义通常可用码树来表示各码字的构成 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1二进制码树树根root树枝 orders节点 notes终端节点 terminal nodes01 5.1 编码的定义编码的定义 0 1 2 0 1 2 0 1 2 0 1 20 1 20 1 2三进制码树 5.1 编码的定义编码的定义唯一可译码存在的充分和必要条件是各码字的长度Ki 应符合克劳夫特不等式(Kraft Inequality): 5.1 编码的定义编码的定义例5.1 (p.88) 设二进制码中X (a1, a2 , a3 , a4 ),K1=1,K2=2,K3=2,K4=3,应用上述判断定理: 因此不存在满足这种Ki的唯一可译码。

      5.1 编码的定义编码的定义a1=1 0 1 0 1 0 1a2=01a3=011a4=000{1,01,001,000} 惟一可译码;{1,01,101,000} 不是惟一可译码;均满足克劳夫特不等式克劳夫特不等式只是用来说明唯一可译码是否存在是否存在,并不能作为唯一可译码的判据 5.2 无失真信源编码无失真信源编码信源输出X=(X1X2…Xl…XL),Xl{a1,a2,…,ai,…,an}编码为 ,Yk{b1,b2,…,bj,…,bm}要求能够无失真或无差错地译码,同时传送Y时所需要的信息率最小 5.2 无失真信源编码无失真信源编码Yk平均每个符号的最大信息量为log mKL长码字的最大信息量为KLlog m则传送每一个信源符号需要的信息率平均为 5.2 无失真信源编码无失真信源编码所谓信息率最小,就是找到一种编码方式使 最小无失真信源编码定理研究的内容:最小信息率为多少时,才能得到无失真的译码?若小于这个信息率是否还能无失真地译码?这就是无失真信源编码定理所要研究的内容n定长编码定理n变长编码定理 5.2 无失真信源编码无失真信源编码n5.2.1 定长编码定理K是定值 且惟一可译码由L个符号组成的、每个符号的熵为HL(X)的无记忆平稳信源符号序列X1X2…Xl…XL,可用KL=K个符号Y1,Y2,…,Yk,…,(每个符号有m种可能值)进行定长编码。

      对任意 >0, >0,只要则当L足够大时,必可使译码差错小于;反之,当 时,译码差错一定是有限值,而L足够大时,译码几乎必定出错 5.2 无失真信源编码无失真信源编码定长编码定理含义:码字所能携带的信息量大于信源序列输出的信息量,则可以使传输几乎无失真,当然条件是L足够大反之,当 时,不可能构成无失真的编码,也就是不可能做一种编码器,能使收端译码时差错概率趋于零 时,则为临界状态,可能无失真,也可能有失真 5.2 无失真信源编码无失真信源编码连续信源的情况——由于信源的信息量趋于无限,显然不能用离散符号序列Y来完成无失真编码,而只能进行限失真编码 5.2 无失真信源编码无失真信源编码编码效率定义为即信源的平均符号熵为H(X),采用平均符号码长为 来编码,所得的效率编码效率总是小于1,且最佳编码效率为编码定理从理论上阐明了编码效率接近1的理想编码器的存在性,它使输出符号的信息率与信源熵之比接近于1,即 只要L足够大 5.2 无失真信源编码无失真信源编码5.2.2 变长编码定理在变长编码中,码长K是变化的根据信源各个符号的统计特性,如概率大的符号用短码,概率小的用较长的码,使得编码后平均码长降低,从而提高编码效率。

      统计匹配) 5.2 无失真信源编码无失真信源编码单个符号变长编码定理:若离散无记忆信源的符号熵为H(X),每个信源符号用m进制码元进行变长编码,一定存在一种无失真编码方法,其码字平均长度满足下列不等式 5.2 无失真信源编码无失真信源编码 离散平稳无记忆序列变长编码定理: 对于平均符号熵为HL(X)的离散平稳无记忆信源,必存在一种无失真编码方法,使平均信息率满足不等式其中为任意小正数用变长编码来达到相当高的编码效率,一般所要求的符号长度L可以比定长编码小得多 5.2 无失真信源编码无失真信源编码编码效率总是小于1,可以用它来衡量各种编码方法的优劣为了衡量各种编码方法与最佳码的差距,定义码的剩余度为 5.2 无失真信源编码无失真信源编码例5.2 (p.93) 设离散无记忆信源的概率空间为其信源熵为若用二元定长编码(0,1)来构造一个即时码:平均码长 =1 二元码符号/信源符号 5.2 无失真信源编码无失真信源编码编码效率为输出的信息率为 R=0.811 比特/二元码符号长度为2的信源序列进行变长编码(编码方法后面讨论),其即时码如下表 aip(ai)即时码a1a19/160a1a23/1611a2a13/16100a2a21/16101 5.2 无失真信源编码无失真信源编码二元码符号/信源序列二元码符号/信源符号码字平均长度为每个符号的平均码长为编码效率信息效率 R2=0.961 比特/二元码符号 5.2 无失真信源编码无失真信源编码L=3 R3=0.985 比特/二元码符号 L=4 R4=0.991 比特/二元码符号 5.2 无失真信源编码无失真信源编码5.2.3 最佳变长编码 凡是能载荷一定的信息量,且码字的平均长度最短,可分离的变长码的码字集合称为最佳变长码能获得最佳码的编码方法主要有:n香农(Shannon)编码n费诺(Fano)编码n哈夫曼(Huffman)编码等 5.2 无失真信源编码无失真信源编码香农(Shannon)码(1) 将信源消息符号按其出现的概率大小依次排列概率大小依次排列(2) 依照下列不等式确定整数的码长确定整数的码长Ki(3) 为了编成唯一可译码,计算第计算第 i 个消息的累加概率个消息的累加概率(4) 将累加概率累加概率 Pi 变换成二进制数变换成二进制数(5) 取 Pi 二进数的小数点后小数点后Ki位即为该消息符号的二进制位即为该消息符号的二进制码字码字 5.2 无失真信源编码无失真信源编码例5.3 (p.95) 设信源共7个符号,其概率和累加概率如下表所示 信源符号 ai 符号概率(ai)累加概率 Pi -log p(ai)码字长度 Ki 码 字a10.2002.323000a20.190.22.393001a30.180.392.473011a40.170.572.563100a50.150.742.743101a60.100.893.3241110a70.010.996.6471111110 5.2 无失真信源编码无失真信源编码指数分数十进制二进制2-11/21.5.12-21/22.25.012-31/23.125.0012-41/24.0625.00012-51/25.03125.0000 12-61/26.015625.0000 01…………例如:0.2=.125+.0625+… → .001+.0001+…=.0011… …0.57=.5+.0625+… → .1+.0001+…=.1001… …0.99=.5+.25+.125+.0625+.03125+0.015625+… .75 .875 .9375 .96875 .984375 0.1+0.01+0.001+0.0001+0.00001+0.000001+…=0.1111110… 5.2 无失真信源编码无失真信源编码码元/符号比特/码元 信源熵平均码长信息效率比特/符号 5.2 无失真信源编码无失真信源编码费诺(Fano)编码方法(属于概率匹配编码)(1) 将信源消息符号按其出现的概率大小依次排列概率大小依次排列:(2) 将依次排列的信源符号按按概概率率值值分分为为两两大大组组,使两个组的概率之和近于相同,并对各组赋予一个二进制码元“0”和“1”;(3) 将每一大组的信源符号进一步再分成两组进一步再分成两组,使划分后的两个组的概率之和近于相同,并又赋予两个组一个二进制符号“0”和“1”。

      4) 如此重复重复,直至每个组只剩下一个信源符号为止5) 信源符号所对应的码字对应的码字即为费诺码 5.2 无失真信源编码无失真信源编码例5.4 (p.96) 对例5.3中的信源进行费诺编码消息符号ai各 个 消息概率 p(ai)第一次分组第二次分组第三次分组第四次分组二元码字码长Kia10.2000002a20.19100103a30.1810113a40.1710102a50.15101103a60.101011104a70.01111114 5.2 无失真信源编码无失真信源编码 码元/符号 bit/符号 平均码长信息效率 5.2 无失真信源编码无失真信源编码 哈夫曼(Huffman)码(1) 将信源消息符号按其出现的概率大小依次排列概率大小依次排列,(2) 取两个概率最小的字母分别配以两个概率最小的字母分别配以0和和1两个码元两个码元,并将这两个概率相加作为一个新字母的概率,与未分配的二进符号的字母重新排队重新排队3) 对重排后的两个概率最小符号重复步骤重复步骤(2)的过程的过程4) 不断继续上述过程,直到最后两个符号配以直到最后两个符号配以0和和1为止为止5) 从最后一级开始,向前返回得到各个信源符号所对应的返回得到各个信源符号所对应的码元序列,即相应的码字码元序列,即相应的码字。

      5.2 无失真信源编码无失真信源编码0.20 0.20 0.26 0.35 0.39 0.61 1.00.19 0.19 0.20 0.26 0.35 0.390.18 0.18 0.19 0.20 0.260.17 0.17 0.18 0.190.15 0.15 0.170.10 0.110.01010101010101例5.5 (p.96) 对例5.3中的信源进行哈夫曼编码 5.2 无失真信源编码无失真信源编码信源符号ai概率p(ai)码字Wi码长Kia10.20102a20.19112a30.180003a40.170013a50.150103a60.1001104a70.0101114 5.2 无失真信源编码无失真信源编码 码元/符号 bit/符号平均码长信息效率 5.2 无失真信源编码无失真信源编码哈夫曼编码方法得到的码并非唯一的n每次对信源缩减时,赋予信源最后两个概率最小的符号,用0和1是可以任意的,所以可以得到不同的哈夫曼码,但不会影响码字的长度。

      n对信源进行缩减时,两个概率最小的符号合并后的概率与其它信源符号的概率相同时,这两者在缩减信源中进行概率排序,其位置放置次序是可以任意的,故会得到不同的哈夫曼码此时将影响码字的长度,一般将合并的概率放在上面,这样可获得较小的码方差 5.2 无失真信源编码无失真信源编码例5.6 (p.97) 设有离散无记忆信源信源符号ai概率p(ai)码字Wi1码长Ki1码字Wi2码长Ki2a10.411002a20.2012102a30.20003112a40.1001040103a50.1001140113 5.2 无失真信源编码无失真信源编码0.4 0.4 0.4 0.6 1.0 0.2 0.2 0.4 0.40.2 0.2 0.20.1 0.2 0.10.4 0.4 0.4 0.6 1.0 0.2 0.2 0.4 0.40.2 0.2 0.20.1 0.20.10101010101010101 5.2 无失真信源编码无失真信源编码 码元/符号 两种方法给出的Huffman码的平均码长是相同的所以编码效率也是相同的 5.2 无失真信源编码无失真信源编码但两种码的质量是不相同的,用码方差描述第一种方法的码方差为第二种方法的码方差为可见,第二种方法的码方差比第一种方法的码方差小许多,也就是说第二种方法的Huffman码的质量要好 5.2 无失真信源编码无失真信源编码 进行哈夫曼编码时,为得到码方差最小的码,应使合并的信源符号位于缩减信源序列尽可能高的位置上,以减少再次合并的次数,充分利用短码。

      5.2 无失真信源编码无失真信源编码哈夫曼码是用概率匹配方法进行信源编码n哈夫曼码的编码方法保证了概率大的符号对应于短码,概率小的符号对应于长码,充分利用了短码;n缩减信源的最后二个码字总是最后一位不同,从而保证了哈夫曼码是即时码 5.3 限失真信源编码定理限失真信源编码定理 信息率失真函数给出了失真小于D时所必须具有的最小信息率R(D);只要信息率大于R(D),一定可以找到一种编码,使译码后的失真小于D 5.3 限失真信源编码定理限失真信源编码定理限失真信源编码定理:设离散无记忆信源X的信息率失真函数R(D),则当信息率R>R(D),只要信源序列长度L足够长,一定存在一种编码方法,其译码失真小于或等于D+,为任意小的正数反之,若R

      5.3 限失真信源编码定理限失真信源编码定理限失真信源编码定理只能说明最佳编码是存在的,而具体构造编码方法却一无所知因而就不能象无失真编码那样从证明过程中引出概率匹配的编码方法一般只能从优化的思路去求最佳编码实际上迄今尚无合适的可实现的编码方法可接近R(D)这个界 n实用化技术不同于单纯理论探讨;实用技术不是只追求理论上的性能(如:压缩比),还要考虑工程上的可实现性n为了与复杂的实际信源统计匹配,实际的信源编码方法往往都不是单一的方法,而是多种方法的组合应用n本节简单介绍几种常用的信源编码方法5.4 常用信源编码方法简介常用信源编码方法简介 5.4 常用信源编码方法简介常用信源编码方法简介5.4.1 游程编码 在二元序列中,连0段称为0游程 连1段称为1游程二元码序列: 000101110010001 … 可变换成下列游程序列: 31132131 … 若已知二元序列以0起始,从游程序列很容易恢复成原来的二元序列 游程序列是多元序列,各长度可按霍夫曼编码或其它方法处理以达到压缩码率的目的 5.4 常用信源编码方法简介常用信源编码方法简介n多元序列也存在相应的游程序列,但与二元序列变换所得到的游程序列不同,每个 r 游程的前后均可以是 r 以外的任何符号的游程序列,因此需要插入一个标志来说明后面游程的类别 n多元序列变换成游程序列再进行压缩编码没有多大意义 n游程编码只适用于二元序列,对于多元信源,一般不直接利用游程编码 5.4 常用信源编码方法简介常用信源编码方法简介n冗余位编码,——游程编码在多元信源的应用如下多元序列(x为含信息的代码,y为冗余位)x1,x2,…,xm1,y,y,…,y,x m1+1,xm1+2,…xm2,y,y,… 可以用下面序列表示 11,…,100,…,000111,…,111000 x1,x2,…,xm1,x m1+1,x m1+2…x 2,… 1表示信息位,0表示冗余位 5.4 常用信源编码方法简介常用信源编码方法简介5.4.2 算术编码 非分组码的编码方法之一——算术码编码的基本思路:从全序列出发,将信源序列的概率映射到[0,1]区间上,使每个序列对应这个区间内的一点,可以是一个二进制小数这些点把[0,1]区间分成许多小段,小段的长度对应某一序列的概率在段内取一个二进制小数,其长度与该序列的概率匹配,从而实现高效率编码 0(P1) P2 P3 P4 P5 …… 1 ……p1 p2 p3 p4 5.4 常用信源编码方法简介常用信源编码方法简介符号概率与积累概率的递推关系采用累积概率P(S)表示码字C(S),符号概率p(S)表示状态区间A(S) 5.4 常用信源编码方法简介常用信源编码方法简介P(S)把区间[0,1)分割成许多小区间,每个小区间的长度等于各序列的概率p(S),小区间内的任一点可用来代表这序列 5.4 常用信源编码方法简介常用信源编码方法简介 0(P1) P2 P3 P4 P5 …… 1 ……p1 p2 p3 p4 代表大于或等于的最小整数。

      把积累概率P(S)写成二进位的小数,取其前L位;如果有尾数,就进位到第L位,这样得到一个数C 5.4 常用信源编码方法简介常用信源编码方法简介例如P(S)=0.10110001,p(S)=1/17,则L=5, 得C=0.10111这个C就可作为S的码字 编码效率很高,当序列很长时,可达到概率匹配平均代码长度接近S的熵值可以唯一地译码 5.4 常用信源编码方法简介常用信源编码方法简介符号符号概率pi符号累积概率Pja0.100(1/2)0.000b0.010(1/4)0.100c0.001(1/8)0.110d0.001(1/8)0.111例例 有四个符号a,b,c,d构成简单序列S=abda,各符号及其对应概率如下表,算术编解码过程如下: 5.4 常用信源编码方法简介常用信源编码方法简介设起始状态为空序列,则=1,C()=0 5.4 常用信源编码方法简介常用信源编码方法简介 5.4 常用信源编码方法简介常用信源编码方法简介C(abda)即为编码后的码字010111 5.4 常用信源编码方法简介常用信源编码方法简介A() A(a) a b c d A(a,b) a b c da b c dA(a,b,d)C() 0(Pa) pa Pb pb Pc pc Pd pd 1C(0)C(a,b,d)C(a,b)算术编码过程 5.4 常用信源编码方法简介常用信源编码方法简介译码 nC(abda)=0.010111<0.1[0,0.1] 第一个符号为a 放大至[0,1](×pa-1):nC(abda)×21=0.10111[0.1,0.110] 第二个符号为b 去掉累积概率Pb: 0.10111-0.1=0.00111 5.4 常用信源编码方法简介常用信源编码方法简介n放大至[0,1](×p b-1): 0.00111×22=0.111 [0.111,1] 第三个符号为d n去掉累积概率Pd: 0.111-0.111=0 放大至[0,1](×pd-1):0×24=0 [0,0.1] 第四个符号为a 5.4 常用信源编码方法简介常用信源编码方法简介算术编码从性能上看具有许多优点,特别是由于所需的参数很少,不象哈夫曼编码那样需要一个很大的码表,常设计成自适应算术编码来针对一些信源概率未知或非平稳情况。

      5.4 常用信源编码方法简介常用信源编码方法简介但是在实际实现时还有一些问题,如计算复杂性、计算的精度以及存储量等,随着这些问题的逐渐解决,算术编码正在进入实用阶段,但要扩大应用范围或进一步提高性能,降低造价,还需进一步改进 n5.4.3 矢量量化编码n5.4.4 预测编码n5.4.2 变换编码5.4 常用信源编码方法简介常用信源编码方法简介 。

      点击阅读更多内容
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.