好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

信息与计算科学毕业论文设计.doc

40页
  • 卖家[上传人]:s9****2
  • 文档编号:483649913
  • 上传时间:2024-03-10
  • 文档格式:DOC
  • 文档大小:1.96MB
  • / 40 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • 摘要信息论是人们在长期通信实践活动中,由通信技术与概率论、随机过程、数理统计等学科相结合而逐步开展起来的一门新兴交叉学科而熵是信息论中事件出现概率的不确定性的量度,能有效反映事件包含的信息随着科学技术,特别是信息技术的迅猛开展,信息理论在通信领域中发挥了越来越重要的作用,由于信息理论解决问题的思路和方法独特、新颖和有效,信息论已渗透到其他科学领域随着计算机技术和数学理论的不断开展,人工智能、神经网络、遗传算法、模糊理论的不断完善,信息理论的应用越来越广泛在图像处理研究中,信息熵也越来越受到关注为了寻找快速有效的图像处理方法,信息理论越来越多地渗透到图像处理技术中本文通过进一步探讨概论率中熵的概念,分析其在图像处理中的应用,通过概念的分析理解,详细讨论其在图像处理的各个方面:如图像分割、图像配准、人脸识别,特征检测等的应用 本文介绍了信息熵在图像处理中的应用,总结了一些基于熵的根本概念,互信息的定义并给出了信息熵在图像处理特别是图像分割和图像配准中的应用,最后实现了信息熵在图像配准中的方法关键词:信息熵,互信息,图像分割,图像配准AbstractInformation theory is a new interdisciplinary subject developed in people long-term munication practice, bining with munication technology, theory of probability, stochastic processes, and mathematical statistics. Entropy is a measure of the uncertainty the probability of the occurrence of the event in the information theory, it can effectively reflect the information event contains. With the development of science and technology, especially the rapid development of information technology, information theory has played a more and more important role in the munication field, because the ideas and methods to solve the problem of information theory is unique, novel and effective, information theory has penetrated into other areas of science. With the development of puter technology and mathematical theory, continuous improvement of artificial intelligence, neural network, genetic algorithm, fuzzy theory, there are more and more extensive applications of information theory. In the research of image processing, the information entropy has attracted more and more attention. In order to find the fast and effectiveimage processing method, information theory is used more and more frequently in the image processing technology. In this paper, through the further discussion on concept of entropy, analyzes its application in image processing, such as image segmentation, image registration, face recognition, feature detection etc.This paper introduces the application of information entropy in image processing, summarizes some basic concepts based on the definition of entropy, mutual information. And the information entropy of image processing especially for image segmentation and image registration. Finally realize the information entropy in image registration.Keywords:Information entropy, Mutual information, Image segmentation,Image registration目 录摘 要...........1ABSTRACT2目 录31 引言51.1 信息熵的概念5信息熵的根本性质与证明66771.展开性71.确定性82 基于熵的互信息理论9互信息的概述9互信息的定义9熵与互信息的关系93信息熵在图像分割中的应用11图像分割的根本概念11图像分割的研究现状11图像分割的方法11基于改良粒子群优化的模糊熵煤尘图像分割12根本粒子群算法12改良粒子群优化算法131314实验结果与分析16一种新信息熵的定义与其在图像分割中的应用19香农熵的概念与性质19一种信息熵的定义与证明192122二维信息熵阈值法的复杂性分析24结论与分析254信息熵在图像配准中的应用274.1 图像配准的根本概述27基于互信息的图像配准27Powell算法28变换28平移变换294.4.2 旋转变换30基于互信息的图像配准的设计与实现31总体设计思路和图像配准实现31直方图33联合直方图33灰度级差值技术344.4.5 优化搜索方法级结论355 结 语37致38参考文献391 引言1.1. 信息熵的概念1948年,美国科学家香农(C.E.Shannon)发表了一篇著名的论文《通信的数学理论》。

      他从研究通信系统传输的实质出发,对信息做了科学的定义,并进展了定性和定量的描述他指出,信息是事物运动状态或存在方式的不确定性的描述其通信系统的模型如下所示: 信 源编 码信 道信号解 码信 宿干 扰噪 声图1.1 信息的传播信息的根本作用就是消除人们对事物的不确定性信息熵是信息论中用于度量信息量的一个概念假定是随机变量的集合,表示其概率密度,计算此随机变量的信息熵的公式是:表示一对随机变量的联合密度函数,他们的联合熵可以表示为:信息熵描述的是信源的不确定性,是信源中所有目标的平均信息量信息量是信息论的中心概念,将熵作为一个随机事件的不确定性或信息量的量度,它奠定了现代信息论的科学理论根底,如果一条信息是由个字符连成的字符串组成,并且每个字符有种可能,那么这条信息就有种不同的排列情况,那么可以用度量信息量,但这时的信息量随着消息的长度按指数增加,为了使信息量的度量值按线性增加,Hartley给出了取对数的信息量的定义: (1.1)由上式可以看出,信息量随着消息的可能性组合增多而增多,如果消息只有一种可能性时即事件为必然事件时,那么消息中包含的信息量为零。

      因此可以看出,可能收到的不同消息越多,对收到哪条消息的不确定性就越大;相反,收到只有一种可能性的消息,不确定性为零,Hartley对消息的度量实际是对不确定性的度量Hartley度量方法的不足之处是他所定义信息量是假定所有符号发生的概率一样,但实际情况各符号并不一定都等概发生,为此,Shannon用概率加权来衡量消息出现的可能性,对Hartley的度量方法做出改良设某一随机过程中有k种可能的情况,每种情况发生的概率分别是,,…,,Shannon给出了熵的如下定义: (1.2) 当所有可能的事件均以相等的概率发生时,上式就成了Hartley定 义的熵,并且这时熵取得最大值,即(1.3)所以,Hartley熵是,Shannon熵的特殊情形,而Shannon更具有一般性Shannon熵包含三种含义:第一种含义是度量信息量,事件发生概率与获得的信息量成反比,即概率越大,信息量越少,又由式(1.3)知,概率越大,信息量越少,熵越小,所以可用熵的大小来度量信息量,熵越大,信息量越大;第二是度量事件概率分布的分散度,概率集中分布时熵值小,分散性越强,熵越大;三含义是度量事件发生的不确定性,概率越大,事件的不确定性越小,熵越小。

      利用上面第三个含义,可以用Shannon熵,来度量图像包含的信息量,图像灰度值的概率分布是每灰度值出现的次数除以图像中所有灰度值出现的总次数,此时图像的信息量可依据这个概率分布来计算,一幅图像中不同的灰度值较少,各灰度值出现的概率较高,如此对应的灰度值较低,意味着这幅图像含有的信息量很少反之,如果一幅图像中含有很多不同的灰度值,且各灰度值发生的概率又根本一致,如此它的熵值会很高,那么这幅图像包含的信息量很大信息熵的根本性质与证明单峰性信息熵的单峰性可表述为:先考察由、两个事件构成的概率系统,其产生的概率分别为和如此该系统的信息通过求极限 不难证明:(1) 当时,这是一种产生的概率为0,产生的概率为1 确实定系统2) 当时这是一种产生的概率为1,产生的概率为0 确实定系统3) 对函数可以通过求导数的方式寻找其极值点该函数的一阶导数为令如此有,求得为该函数的驻点因为二阶导数当时,恒小于0 ,所以当时函数有极大值这说明当、两事件产生的概率一样时,具有最大值,这是一种不确定性最大的不确定系统4) 假如概率系统中有个事件,当每一事件产生的概率一样〔均为〕时,如此系统的信息熵具有最大值该结论可以通过以下的讨论来证明:具有个事件的概率系统其信息熵可表示为,这是在约束条件下的极值问题。

      应用因子法,设:将对事件的概率求一阶偏导数,并令使用约束条件确定值,可求得〔常数〕同理有〔常数〕,即当时,有极大值1.2.2 对称性信息熵的对称性可表述为:设某一概率系统中n 个事件的概率分布为 当对事件位置的顺序进展任意置换后,得到新的概率分布为,并有以下关系成立:它表示概率系统中事件的顺序虽不同,但概率系统的熵H 是不变的,即概率系统的熵与事件的顺序无关1.2.3 渐化性信息熵的渐化性可表述为:设概率为的事件可分解为概率分别为和的两个事件,如此有:信息熵。

      点击阅读更多内容
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.