好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

霍普菲尔德Hopfiel.ppt

51页
  • 卖家[上传人]:大米
  • 文档编号:578255701
  • 上传时间:2024-08-23
  • 文档格式:PPT
  • 文档大小:743.60KB
  • / 51 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • 霍普菲尔德(Hopfield)神经网络1、网络结构形式2、非线性系统状态演变的形式3、离散型的霍普菲尔德网络(DHNN)4、连续性的霍普菲尔德网络(CHNN) 网络结构形式        Hopfield网络是单层对称全反馈网络,根据激活函数选取的不同,可分为离散型和连续性两种( DHNN,CHNN)DHNN:作用函数为hadlim,主要用于联想记忆CHNN:作用函数为S型函数,主要用于优化计算        反馈网络的结构如图2.8.1所示                                 图2.8.1Hopfield网络结构 非线性系统状态演变的形式        在Hopfield网络中,由于反馈的存在,其加权 输入和ui,i=1~n为网络状态,网络的输出为y1~yn, 则u,y的变化过程为一个非线性动力学系统可用非线性差(微)分方程来描述一般有如下的几种状态演变形式:       (1)渐进稳定       (2)极限环       (3)混沌现象       (4)状态轨迹发散       Hopfield网络的稳定性可用能量函数进行分析      目前,人工神经网络常利用渐进稳定点来解决某些问题。

      例如,如果把系统的稳定点视为一个记忆的话,那么从初态朝这个稳定点的演变过程就是寻找记忆的过程初态可以认为是给定的有关记忆的部分信息如果把系统的稳定点视为一个能量函数的极小点,把能量函数视为一个优化问题的目标函数,那么从初态朝这个稳定点的演变过程就是一个求该优化问题的过程这样的优点在于它的解并不需要真的去计算,而只要构成这种反馈网络,适当的设计其连接值和输入就可达到目的 离散型的 Hopfield神经网络1、I/O关系2、两种工作方式3、网络的稳定性分析4、DHNN网络设计 网络结构及I/O关系       图2.8.2是一个有三个节点的DHNN结构        对于以符号函数为激活函数的网络,网络的方程可写为:                                                    图2.8.2 两种工作方式      DHNN主要有以下两种工作方式:    (1)串行工作方式  在某一时刻只有一个神经元按照上式改变状态,而其它神经元的输出不变这一变化的神经元可以按照随机的方式或预定的顺序来选择    (2)并行工作方式  在某一时刻有N个神经元按照上式改变状态,而其它的神经元的输出不变。

      变化的这一组神经元可以按照随机方式或某种规则来选择当N=n时,称为全并行方式 DHNN的稳定工作点Xi(t+1)= Xi(t)=sgn(∑j=1nWijXi(t)-θi ) i=1,2,…,n 网络的稳定性分析      DHNN的能量函数定义为:       关于DHNN的稳定性有如下的定理:      当网络工作在串行方式下时,若W为对称阵,且其对角元素非负,则其能量函数单调下降,网络总能收敛到一个稳定点       全并行方式下也有同样的结论 DHNN网络设计      用 DHNN实现联想记忆需要考虑两个重要的问题:①怎样按记忆确定网络的W和;②网络给定之后如何分析它的记忆容量下面将分别讨论1、权值设计的方法2、记忆容量分析3、权值修正的其它方法        在MATLAB中,用函数newhop.m来设计一个Hopfield网络:          net = newhop(T) 权值设计的方法      权值设计的方法有外积法、伪逆法、正交设计法等下面仅介绍外积法,它是一种比较简单,在一定条件下行之有效的方法 例例  设计DHNN,并考察其联想性能说明所设计的网络没有准确的记忆所有期望的模式。

      记忆容量分析      当网络只记忆一个稳定的模式时,该模式肯定被网络准确无误的记忆住但当所要记忆的模式增加时,情况则发生了变化,主要表现在下列两点上:1、权值移动2、交叉干扰 权值移动      在网络的学习过程中,网络对权值的记忆实际上是逐个实现的即对权值W,有程序:当网络准确的X1时,为了记忆X2,需要在记忆样本X1的权值上加上对样本X2的记忆项X2 X2T-I,将权值在原来值的基础上产生了移动这样网络有可能部分得遗忘了以前以记忆住的模式)endIXXWWqkforWTKK-+===, 1  0       从动力学的角度来看,k值较小时,网络Hebb学习规则,可以使输入学习样本成为其吸引子随着k值的增加,不但难以使后来的样本成为网络的吸引子,而且有可能使已记忆住的吸引子的吸引域变小,使原来处于吸引子位置上的样本从吸引子的位置移动对一记忆的样本发生遗忘,这种现象称为“疲劳” 交叉干扰       网络在学习多个样本后,在回忆阶段即验证该记忆样本时,所产生的干扰,称为交叉干扰      对外积型设计而言,如果输入样本是彼此正交的,n个神经元的网络其记忆容量的上界为n但是在大多数情况下,学习样本不可能是正交的,因而网络的记忆容量要比n小得多,一般为(0.13~0.15)n,n为神经元数。

      权值修正的其它方法1、学习规则2、伪逆法3、正交化权值设计  学习规则         学习规则基本公式是:        即通过计算该神经元节点的实际激活值A(t),与期望状态T(t)进行比较,若不满足要求,将两者的误差的一部分作为调整量,若满足要求,则相应的权值保持不变 伪逆法 正交化权值设计        这一方法的基本思想和出发点是为了满足下面四个要求:                1)保证系统在异步工作时的稳定性,即它的权值是对称的;        2)保证所有要求记忆的稳定平衡点都能收敛到自己;        3)使伪稳定点的数目尽可能的少;        4)使稳定点的吸引域尽可能的大MATLAB函数[w,b]=solvehop(T); 连续性的Hopfield网络      CHNN是在DHNN的基础上提出的,它的原理和DHNN相似由于CHNN是以模拟量作为网络的输入输出量,各神经元采用并行方式工作,所以它在信息处理的并行性、联想性、实时性、分布存储、协同性等方面比DHNN更接近于生物神经网络我们将从以下几点来讨论CHNN1、网络模型2、CHNN方程的解及稳定性分析3、关于Hopfield能量函数的几点说明4、关于CHNN的几点结论 CHNN的网络模型        图2.8.3是Hopfield动态神经元模型。

              对于神经元,放大器的I/O关系可用如下的方程来描述:               图2.8.4是CHNN的结构图  Hopfield动态神经元模型 图2.8.4u1 对上述方程变形得: CHNN方程的解及稳定性分析        对于CHNN来说,关心的同样是稳定性问题在所有影响电路系统稳定的所有参数种,一个比较特殊的参数值是放大器的放大倍数从前面的分析中可以看出,当放大器的放大倍数足够大时,网络由连续性转化成离散型,状态与输出之间的关系表现了激活函数的形状,而正是激活函数代表了一个网络的特点,所以,下面着重分析不同激活函数关系对系统的稳定性的影响1、激活函数为线性函数时2、激活函数为非线性函数时        当激活函数为线性函数时,即         对于非线性系统进行稳定性分析,方法之一就是在系统的平衡点附近对系统进行线性化处理也可以基于网络的能量函数下面介绍Hopfield能量函数法        此定理表明,随着时间的演化,网络的状态总是朝能量减少的方向运动网络的平衡点就是E的极小点 关于Hopfield能量函数的几点说明        当对反馈网络应用能量函数后,从任一初始状态开始,因为在每次迭代后都能满足E≤0,所以网络的能量将会越来越小,最后趋于稳定点E=0。

             Hopfield能量函数的物理意义是:在那些渐进稳定点的吸引域内,离吸引点越远的状态,所具有的能量越大,由于能量函数的单调下降特性,保证状态的运动方向能从远离吸引点处,不断地趋于吸引点,直到达到稳定点         几点说明:         1)能量函数为反馈网络的重要概念根据能量函数可以方便的判断系统的稳定性;         2)能量函数与李雅普诺夫函数的区别在于:李氏被限定在大于零的范围内,且要求在零点值为零;         3)Hopfield选择的能量函数,只是保证系统稳定和渐进稳定的充分条件,而不是必要条件,其能量函数也不是唯一的 关于CHNN的几点结论        1)具有良好的收敛性;        2)具有有限个平衡点;        3)如果平衡点是稳定的,那么它也一定是渐进稳定的;         4)渐进稳定平衡点为其能量函数的局部极小点;         5)能将任意一组希望存储的正交化矢量综合为网络的渐进平衡点;         6)网络的存储信息表现为神经元之间互连的分布式动态存储;         7)网络以大规模、非线性、连续时间并行方式处理信息,其计算时间就是网络趋于平衡点的时间。

      Hopfield网络在组合优化中的应用 w组合优化问题,就是在给定约束条件下,求出使目标函数极小(或极大)的变量组合问题 w将Hopfield网络应用于求解组合优化问题,就是把目标函数转化为网络的能量函数,把问题的变量对应于网络的状态这样当网络的能量函数收敛于极小值时,问题的最优解也随之求出  w旅 行 商 问 题 , 简 称 TSP( Traveling Salesman Problem)问题的提法是:设有N个城市,             ,记为:                ,用dij表示ci和cj之间的距离, dij>0,(i,j=1,2,…n) w有一旅行商从某一城市出发,访问各城市一次且仅一次后再回到原出发城市要求找出一条最短的巡回路线 N=5 TSP Probelm   N=5,并用字母A、B、C、D、E、分别代表这5个城市当任选一条路径如B->D->E->A->C,,则其总路径长度可表示为   第一步就是将问题映照到一个神经网络假定每个神经元的放大器有很高的放大倍数,神经元的输出限制在二值0和1上,则映照问题可以用一个换位矩阵(Permutation Matrix)来进行,换位矩阵可如下图所示。

         换位矩阵次序城市12345A00010B10000C00001D01000E00100 约束条件和最优条件    矩阵的每个元素对应于神经网络中的每个神经元,则这个问题可用N2=52=25个神经元组成的Hop-field网络来求解  问题的约束条件和最优条件如下: (1)  一个城市只能被访问一次=>换位矩阵每行只有一个“1” (2)一次只能访问一个城市=>换拉矩阵每列只有一个“1” (3)总共有N个城市=>换位矩阵元素之和为N   (4)求巡回路径最短=>网络能量函数的最小值对应于TSP的最短路径  结论    用vij表示换位矩阵第i行、第j列的元素,显然只能取1或0同时,vij也是网络神经元的状态     结论:            构成最短路径的换位矩阵一定是形成网络能量函数极小点的网络状态 网络能量函数的构成  续1 续2 续3 能量函数表达式 网络加权及阀值 求解TSP网络的迭代方程  迭代步骤 迭代续1 。

      点击阅读更多内容
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.