电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

信息论课件chap2信源及其熵

174页
  • 卖家[上传人]:E****
  • 文档编号:90657139
  • 上传时间:2019-06-14
  • 文档格式:PPT
  • 文档大小:2.02MB
  • / 174 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • 1、1,第二章 信源及其熵,并不是我们注意到的每一件事都重要,也不是每一件重要的事我们都注意到了。 -爱因斯坦(1879-1955),2,本章介绍,信源的统计特性和数学模型 各类信源的信息测度-熵及其性质,3,第一章知识回顾,通信系统模型:,4,2.1 信源的数学模型及分类,对信息论的学习可从信源开始 消息是信息的载荷者。信息是抽象的,消息是具体的。要研究信息,还得从研究消息入手。 描述信源消息的工具 由于信源发送什么消息预先是不可知的,我们借助于一个样本空间及其概率测度-概率空间来描述信源。,5,2.1.1 信源的数学模型,用概率空间描述信源 或 式中X为信源,p(x)为信源符号出现的概率。,6,2.1.2 信源的分类,按照信源发出的消息在时间和幅度上的分布情况,将:,信源,离散信源,连续信源,7,离散信源,离散信源是指信源发出在时间和幅度上都是离散消息的信源。 按照离散信源发出的符号之间的关系,可细分为:,举例,j g a f g k h z,kugf uosd fawe uryn vapa iqpo dfna sdhg,cont ente d wit h little yet wis

      2、h ing for more,city face with namehand from high that,9,(1)单个符号的离散无记忆信源,从讨论信源的特征入手,给出定量度量信息的方法。 以天文学范畴的事件为例: 小行星撞击地球、月食、日食、流星雨、星系的产生与消亡等等,都是天文学内一个个离散的事件 如果将一个事件用一个符号来表示,则一个符号代表一个完整的消息 如果把都是天文学内的事件看作是天文学这个“信源”输出的符号,则这个信源可以看作是单符号离散信源。,10,(1)单个符号的离散无记忆信源,单符号离散信源的实例 掷骰子每次只能是1,2,3,4,5,6中的某一个; 天气预报可能是晴、阴、雨、雪、风、冰雹中的一种或其组合以及温度、污染等; 二进制通信中传输的只是1、0两个数字;等等。,11,(1)单个符号的离散无记忆信源, 这种符号或数字都可以看作某一集合中的事件,每个符号或数字(事件)都是信源中的元素,它们的出现往往具有一定的概率。 因此,信源又可以看作是具有一定概率分布的某一符号集合。 特点:输出是单个符号(代码)的消息,符号集的取值A:a1,a2,aq是有限的或可数的,可用一

      3、维离散型随机变量X来描述。,12,(1)单个符号的离散无记忆信源,数学模型:设每个信源符号ai出现的(先验)概率 p(ai) (i=1,2,q) 满足:,概率空间能表征离散信源的统计特性,因此也称概率空间为信源空间。,13,举例,例:某信源发出0,1信号,p(0)=1/2,p(1)=1/2, 如果是发出单个符号的无记忆信源,14,(2)符号序列的离散无记忆信源,特点:信源输出的是多个消息符号,即输出符号序列,就要用随机矢量 X=(X1,X2,XN) 来描述,也称随机序列。 进一步:若随机矢量X的各维概率分布都与时间起点无关 ,则为离散平稳信源; 再进一步:离散平稳信源的特例,信源发出的符号都相互统计独立,即各随机变量Xi (i=1,2,N)之间统计独立;,15,(2)符号序列的离散无记忆信源,性质: 独立P (X )= P (X1, X2, ,XN)= P1(X1) P2(X2) PN(XN) 平稳 P1 (Xi) = P2 (Xi)= = PN (Xi) ,16,(2)符号序列的离散无记忆信源,N维随机矢量的一个取值,i(ai1 ai2aiN),P(aik )是符号集A的一维概率分布

      4、,设各随机变量Xi取值同样符号集A:a1,a2,aq,则,17,(2)符号序列的离散无记忆信源,例:某信源副发出0,1信号,p(0)=1/2,p(1)=1/2, 如果是发出单个符号的无记忆信源,18,(2)符号序列的离散无记忆信源,如果是发出符号长度为2的符号序列的无记忆信源。 样本空间中不再是单个变量,而是随机矢量:A=(0,0),(0,1),(1,0),(1,1) 信源模型如下:,19,(2)符号序列的离散无记忆信源,因为是无记忆符号信源,所以各个符号序列的计算,所以本信源模型如下:,20,若信源空间 描述的信源X的各输出Xi间统计独立、且取值同一符号集A,则X为离散无记忆信源,称该信源输出的N维随机矢量X 为离散无记忆信源X的N次扩展信源,(2)符号序列的离散无记忆信源,21,若X 取值为符号集i (ai1ai2aiN), 其中(i1 , i2 ,iN =1,2 , ,q),则离散无记忆信源的N次扩展信源的数学模型是X信源空间的N重空间:,(2)符号序列的离散无记忆信源,22,(3)有记忆信源,有记忆信源定义:信源不同时刻发出的符号之间是相互依赖; 需要在维随机变量的联合概率密度

      5、分布中,引入条件概率来说明它们之间的关系。 表述复杂度随长度增加而增加,依赖关系随长度降低; 如:中文、英文等自然语言,23,(4)m阶马尔可夫信源,不同时刻发出的符号间的依赖关系,记忆信源的记忆长度为m+1时,称这种有记忆信源为m阶马尔可夫信源 若上述条件概率与时间起点 i 无关,信源输出的符号序列可看成为时齐马尔可夫链,则此信源称为时齐马尔可夫信源,24,(5)输出单符号的连续信源,特点:输出是单个符号(代码)的消息,输出消息的符号集A的取值是连续的,可用一维的连续型随机变量X 来描述。 例:语音信号、热噪声信号、遥控系统中有关电压、温度、压力等测得的连续数据等等。,25,(5)输出单符号的连续信源,数学模型:连续型的概率空间。即:,或,满足,或,26,更一般情况:随机波形信源,实际信源输出的消息常常是时间和取值都是连续的。这类信源称为随机波形信源。 随机波形信源在某一固定时间 t0 的可能取值是连续和随机的。对于这种信源输出的消息,可用随机过程来描述。 例:语音信号X(t)、热噪声信号n(t)、电视图像信号X(r(t),g(t),b(t)等时间连续函数。,27,2.1.2信源的分

      6、类,28,2.2 离散信源的信息熵其性质,讨论基本的离散信源(即输出为单个符号的消息,且这些消息间两两互不相容) 基本的离散信源可用一维随机变量X来描述信源的输出,信源的数学模型可抽象为:,问题:这样的信源能输出多少信息? 每个消息的出现携带多少信息量?,29,2.2.1自信息量(self-information),明天太阳将从东方升起。,明天武汉要下雨。,明天火星撞向地球。,30,2.2.1自信息量,对信息量的度量 事物发生不确定性的度量 事物发生的概率,自信息量,31,自信息量 函数表达,1,0,32,自信息量 计算单位,2,bit,信息论中常用的对数底数是2,信息量的单位为比特(bit, binary unit),e,nat,取自然对数为底数,信息量的单位为奈特(nat, nature unit),hart,10,取10为底数,信息量的单位为哈特( Hart, Hartley的缩写),33,2.2.1 自信息量 续,对数及常用公式,34,自信息量 例1,例:某地二月份天气的概率分布统计如下: 这四种气候的信息量分别为:,可见: 不同天气情况有不同的自信息量; 自信息量具有随机变量

      7、的性质,35,自信息量 例2,36,37,自信息量 例3,例: 设某班学生在一次考试中获优(A)、良 (B)、中(C)、及格(D)和不及格 (E)的人数相等。当教师通知某甲:“你 没有不及格”,甲获得了多少比特信息?为 确定自己的成绩,甲还需要多少信息?,38,自信息量 例3 续,解:根据题意,“没有不及格”或“pass”的概率为,因此当教师通知某甲“没有不及格”后,甲获得信息:,39,计算举例 续,在已知“pass”后, 成绩为“优”(A),“良”(B), “中”(C)和“及格”(D) 的概率相同:,为确定自己的成绩,甲还需信息,40,2.2.2 信息熵(information entropy),思考1:自信息量能否反映整个信源 输出信息的情况?,自信息量I(xi)是指某一信源发出的某一消息符号xi所含有的信息量,自信息量I(xi)是随机变量,不能用它来作为整个信源输出信息的信息测度。,41,2.2.2 信息熵,定义自信息的数学期望为平均自信息量Hr(X),称为信息熵:,42,由于这个表达式和统计物理学中热熵的表达式相似,且在概念上也有相似之处,因此借用“熵”这个词,把H(X)称为信

      8、息“熵”; 信息熵的单位由自信息量的单位决定,即取决于对数的底。,H(X)的单位:r 进制单位符号 (r1),2.2.2 信息熵,43,信息熵 物理含义,2)表示信源输出后,每个消息所提供的平均信息量;,1)表示信源输出前,信源的平均不确定性;,3)表征变量X的随机性。,4)从平均意义上表征信源的总体特征。,44,熵的计算 例1:,有一布袋内放l00个球,其中80个球是红色的, 20个球是白色的。 随便摸出一个球,猜测是什么颜色, 那么其概率空间为:,45,熵的计算例1: 续,如果被告知摸出的是红球,那么获得的信息量是: I (a1) log p(a1) log0.8= 0.32 (比特) 如被告知摸出来的是白球,所获得的信息量应为: I (a2) log p(a2) log0.2 = 2.32 (比特) 平均摸取一次所能获得的信息量为 : H(X)= p(a1) I (a1) + p(a2) I (a2) =0.72(比特/符号),46,熵是从整个集合的统计特性来考虑的,它从平均意义上来表征信源的总体特征。 例如,有两信源X、Y,其概率空间分别,计算其熵,得:H(X)=0.08( b

      9、it /符号) H(Y)=1(bit / 符号) H(Y)H(X),因此信源Y比信源X的平均不确定性要大。,熵的计算例2:,47,例 设甲地的天气预报为:晴(占48)、阴(占28)、大雨(占18)、小雨(占18)。又设乙地的天气预报为:晴 (占78),小雨(占18)。试求两地天气预报各自提供的平均信息量。若甲地天气预报为两极端情况,一种是晴出现概率为1而其余为0。另一种是晴、阴、小雨、大雨出现的概率都相等为14。试求这两极端情况所提供的平均信息量。又试求乙地出现这两极端情况所提供的平均信息量。,熵的计算例3:,解:甲地天气预报 构成的信源空间为:,则其提供的平均信息量即信源的信息熵:,乙地天气预报的信源空间为:,结论:甲地天气预报提供的平均信息量大于乙地,因为乙地比甲地的平均不确定性小。,49,甲地极端情况,极端情况1:晴天概率1,结论:等概率分布时信源的不确定性最大,所以信息熵(平均信息量)最大。,极端情况2:各种天气等概率分布,50,乙地极端情况,极端情况1:晴天概率1,结论:在极端情况2下,甲地比乙地提供更多的信息量。 因为,甲地可能出现的消息数比乙地可能出现的消息数多。,极端情况2:各种天气等概率分布,51,信息熵是信源概率空间的一种特殊矩函数。这个矩函数的大小,与信源的符号数及其概率分布有关。 我们用概率矢量P来表示概率分布P(a):,2.2.3信息熵的基本性质,这样,信息熵H(X)是概率矢量P或它的分量p1,p2,pq的q-1元函数(因各分量满足上述条件限制,所以独立变量只有q-1元)。,52,2.2.3信息熵的基本性质,一般 H(X)可写成:,53,熵函数,H(P)是概率矢量P的函数,称为熵函数。我们用下述表示方法: 用H(x) 表示以离散随机变量x描述的信源的信息熵; 用H(P) 或 H(p1, p2 , , pq )表示概率矢量为 P = (p

      《信息论课件chap2信源及其熵》由会员E****分享,可在线阅读,更多相关《信息论课件chap2信源及其熵》请在金锄头文库上搜索。

      点击阅读更多内容
    最新标签
    信息化课堂中的合作学习结业作业七年级语文 发车时刻表 长途客运 入党志愿书填写模板精品 庆祝建党101周年多体裁诗歌朗诵素材汇编10篇唯一微庆祝 智能家居系统本科论文 心得感悟 雁楠中学 20230513224122 2022 公安主题党日 部编版四年级第三单元综合性学习课件 机关事务中心2022年全面依法治区工作总结及来年工作安排 入党积极分子自我推荐 世界水日ppt 关于构建更高水平的全民健身公共服务体系的意见 空气单元分析 哈里德课件 2022年乡村振兴驻村工作计划 空气教材分析 五年级下册科学教材分析 退役军人事务局季度工作总结 集装箱房合同 2021年财务报表 2022年继续教育公需课 2022年公需课 2022年日历每月一张 名词性从句在写作中的应用 局域网技术与局域网组建 施工网格 薪资体系 运维实施方案 硫酸安全技术 柔韧训练 既有居住建筑节能改造技术规程 建筑工地疫情防控 大型工程技术风险 磷酸二氢钾 2022年小学三年级语文下册教学总结例文 少儿美术-小花 2022年环保倡议书模板六篇 2022年监理辞职报告精选 2022年畅想未来记叙文精品 企业信息化建设与管理课程实验指导书范本 草房子读后感-第1篇 小数乘整数教学PPT课件人教版五年级数学上册 2022年教师个人工作计划范本-工作计划 国学小名士经典诵读电视大赛观后感诵读经典传承美德 医疗质量管理制度 2 2022年小学体育教师学期工作总结
    关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
    手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
    ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.