霍普菲尔德Hopfield.ppt
51页单击此处编辑母版标题样式,,单击此处编辑母版文本样式,,第二级,,第三级,,第四级,,第五级,,,,*,霍普菲尔德(,Hopfield,)神经网络,1,、,网络结构形式,,2,、,非线性系统状态演变的形式,,3,、,离散型的霍普菲尔德网络(,DHNN,),,4,、,连续性的霍普菲尔德网络(,CHNN,),,征寐狡默樟注霸悯润惯宴予念路财敬瑚烩凶笼扦杨泛赢李芋懒覆变岩栈惨霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,网络结构形式,Hopfield,网络是单层对称全反馈网络,根据激活函数选取的不同,可分为离散型和连续性两种,,(,DHNN,CHNN,)DHNN,:作用函数为,hadlim,,主要用于联想记忆CHNN,:作用函数为,S,型函数,主要用于优化计算反馈网络的结构如,图,2.8.1,所示祖惟龟长凉畴驭聘湛逊南霄双湿枉步准胰碾盂宛怜荷积敦琴另拔醉凯待谎霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,,,,,,,,,图,2.8.1,,Hopfield,网络结构,戈胸府铜恋倪陛晒燕寨剿冶幻赁黎蔫气瘴舍微宜兜剂亮腑皇碑风咱伙台瓦霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,非线性系统状态演变的形式,,在,Hopfield,网络中,由于反馈的存在,其加权 输入和,u,i,,,i=1~n,为网络状态,网络的输出为,y,1,~y,n,, 则,u,y,的变化过程为一个非线性动力学系统。
可用非线性差(微)分方程来描述一般有如下的几种状态演变形式:,,(,1,)渐进稳定,,(,2,)极限环,,(,3,)混沌现象,,(,4,)状态轨迹发散,,嚏船睡莎憎剪狠寅诈梁娄糖纬啤盔奸绦恼咕搔卯努鸭煤瘟咱商皋般拘擒吸霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,Hopfield,网络的稳定性可用能量函数进行分析目前,人工神经网络常利用渐进稳定点来解决,,某些问题例如,如果把系统的稳定点视为一个,,记忆的话,那么从初态朝这个稳定点的演变过程,,就是寻找记忆的过程初态可以认为是给定的有,,关记忆的部分信息如果把系统的稳定点视为一,,个能量函数的极小点,把能量函数视为一个优化,,问题的目标函数,那么从初态朝这个稳定点的演,,变过程就是一个求该优化问题的过程这样的优,,点在于它的解并不需要真的去计算,而只要构成,,这种反馈网络,适当的设计其连接值和输入就可,,达到目的纫堕到腾僚慰馁翘碳工编蹈捡乓之买恐慕淬邓燃犯梭等吊辖垮狰亏禄纬式霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,离散型的,Hopfield,神经网络,1,、,I/O,关系,,2,、,两种工作方式,,3,、,网络的稳定性分析,,4,、,DHNN,网络设计,,增怔澈健惦梨皿粕瞳骏警幂勺源柜松婶疥毡今脐敦即烈兢妻馅砧澜夹经渭霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,网络结构及,I/O,关系,,图,2.8.2,是一个有三个节点的,DHNN,结构。
对于以符号函数为激活,,函数的网络,网络的方程可,,写为:,,,,图,2.8.2,,逮促抨迷嫌弥磅饺蹬汛迹散罩拒翌纳膀每达自拧庸的我瞩军辉专京数莉铁霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,两种工作方式,DHNN,主要有以下两种工作方式:,,(,1,)串行工作方式 在某一时刻只有一个神经元按照上式改变状态,而其它神经元的输出不变这一变化的神经元可以按照随机的方式或预定的顺序来选择2,)并行工作方式 在某一时刻有,N,个神经元,,按照上式改变状态,而其它的神经元的输出不变变化的这一组神经元可以按照随机方式或某种规,,则来选择当,N=n,时,称为全并行方式宝女愧季篮式睹又酗竖掠低移症二多圾辅眼代钎脾俞政俯纷风眯鸳孩簿等霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,DHNN,的稳定工作点,X,i,(t+1)= X,i,(t)=sgn(∑,j=1,n,W,ij,X,i,(t)-θ,i,),,i=1,2,…,n,待岸淀捅弯厩脂遣蔓楔凶迷龄惰惊庸援贼算雅浸彝卡烹篓弄摩纫乃仙数雄霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,网络的稳定性分析,DHNN,的能量函数定义为:,,勋蔑搞蔫慈晚汀睹访换齐务拍慷匀兔范珊氢情顷专茧闲蝗够淘菠捷活己砚霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,关于,DHNN,的稳定性有如下的定理:,,,当网络工作在串行方式下时,若,W,为对称阵,且其对角元素非负,则其能量函数单调下降,网络总能收敛到一个稳定点。
四尚觉衔涎涕朽喷囚障短受顿赠犁陆栈砾都蹬设貌鸭灌吃股嚼牡獭借嘴长霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,全并行方式下也有同样的结论才岩嘿羌驮胰滞向痉疡蘑鬃尾巩峙离颂此裸老怔碎锚悍竿垮状钮赖围舅铰霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,DHNN,网络设计,,用,DHNN,实现联想记忆需要考虑两个重要的问题:,,①怎样按记忆确定网络的,W,和,;②网络给定之后如何分析它的记忆容量下面将分别讨论1,、,权值设计的方法,,2,、,记忆容量分析,,3,、,权值修正的其它方法,,在,MATLAB,中,用函数,newhop.m,来设计一个,Hopfield,网络:,,,net = newhop(T),,郸托纠窟崖栽即缔正酝搬纤乍备绽聪壤扇剧郁充暂键痛倡蹬篷舅夯苹划拖霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,权值设计的方法,,权值设计的方法有外积法、伪逆法、正交设计法等下面仅介绍外积法,它是一种比较简单,在一定条件下行之有效的方法谷正沏徊搐炕席尔筋俄稿骤妆定汾蛆着吏辩赡样幌搂双第胀昨恍掳芭拼跋霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,例,设计,DHNN,,并考察其联想性能。
说明所设计的网络没有准确的记忆所有期望的模式滤济凸再冯赘撂祸磨罩双枝傣馏凸汹针薄谓掘死徊裕猖药有菏辛酶猴绚吟霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,记忆容量分析,,当网络只记忆一个稳定的模式时,该模式肯定被网络准确无误的记忆住但当所要记忆的模式增加时,情况则发生了变化,主要表现在下列两点上:,,1,、,权值移动,,2,、,交叉干扰,,帜睫兰冻栓恿嘘旦疑稗烤较走难灿鞭媚冈唐谱锗巡铺陪疮制背呸憋隋诬诞霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,权值移动,,在网络的,学习过程中,网络对权值的记忆实际上是逐个实现的即对权值,W,,有程序,:,,,,,当网络准确的,X,1,时,为了记忆,X,2,,,需要在记忆样本,X,1,,的权值上加上对样本,X,2,的记忆项,X,2,X,2T,-,I,,将权值在,,原来值的基础上产生了移动这样网络有可能部分,,得遗忘了以前以记忆住的模式),end,I,X,X,W,W,q,k,for,W,T,K,K,-,+,=,=,=,,,1,,0,,倍沂曝刻疑蹄茂昭俄栗栖苫颜尿甜屑裴独签笛窝咆骂厄影弃垢乔秦洽惨停霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,从动力学的角度来看,,k,值较小时,网络,Hebb,学习规则,可以使输入学习样本成为其吸引子。
随着,k,值的增加,不但难以使后来的样本成为网络的吸引子,而且有可能使已记忆住的吸引子的吸引域变小,使原来处于吸引子位置上的样本从吸引子的位置移动对一记忆的样本发生遗忘,这种现象称为,“,疲劳,”,缮缝百渊唆郸搐孝哭终获不存汀矛炼涡芝拭医和焕匆颊现扇撇烷爵坦姻窃霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,交叉干扰,,网络在学习多个样本后,在回忆阶段即验证该记忆样本时,所产生的干扰,称为交叉干扰对外积型设计而言,如果输入样本是彼此正交的,,n,个神经元的网络其记忆容量的上界为,n,但是在大多数情况下,学习样本不可能是正交的,因而网络的记忆容量要比,n,小得多,一般为,(0.13~0.15)n,,,n,为神经元数瘤回茶劲线碱清蹲帘锅茫素尾髓守亮渝哟广茫岗若喻粉态厌宿踩光恤糙境霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,权值修正的其它方法,1,、,学习规则,,2,、,伪逆法,,3,、,正交化权值设计,,国震腰藉顺挑离恬爪痹舞识送衷淤仲喝树卓乡溪姿瞻笆作誉祈镣汇赌诅雪霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,,学习规则,,,学习规则基本公式是:,,,,,即通过计算该神经元节点的实际激活值,A(t),,与期望状态,T(t),进行比较,若不满足要求,将两者的误差的一部分作为调整量,若满足要求,则相应的权值保持不变。
宫升措逸患芜纬谎掠器铁笔撞苫菲牺忽鬼扭汲撤毯查泰擂蕴滚炯巢左敦卖霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,伪逆法,,砰礼滞灼该淹硅慷糜乙眉瘟霹土迸毙晤突抉爹氏柜初崩翔邻往栏抓饥屋撅霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,正交化权值设计,,这一方法的基本思想和出发点是为了满足下面四个要求:,,,1,)保证系统在异步工作时的稳定性,即它的权值是对称的;,,,2,)保证所有要求记忆的稳定平衡点都能收敛到自己;,,,3,)使伪稳定点的数目尽可能的少;,,,4,)使稳定点的吸引域尽可能的大MATLAB,函数,,[w,b]=solvehop(T);,,娇倘矮臆厉引宾很耘偶丈晤廖痪努发登盆粉坚禹胳橙俯相绰川吁企籽性郴霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,连续性的,Hopfield,网络,CHNN,是在,DHNN,的基础上提出的,它的原理,,和,DHNN,相似由于,CHNN,是以模拟量作为网络的,,输入输出量,各神经元采用并行方式工作,所以,,它在信息处理的并行性、联想性、实时性、分布,,存储、协同性等方面比,DHNN,更接近于生物神经,,网络。
我们将从以下几点来讨论,CHNN,1,、,网络模型,,2,、,CHNN,方程的解及稳定性分析,,3,、,关于,Hopfield,能量函数的几点说明,,4,、,关于,CHNN,的几点结论,,婉逸肯粱绸凯耕微怀膨邦预能缚砷衣眺捕普碳癸环髓素待很岸祸枕寸猾删霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,CHNN,的网络模型,,图,2.8.3,是,Hopfield,动态神经元模型对于神经元,放大器的,I/O,关系可用如下的方程来描述:,,,,,,,,,图,2.8.4,是,CHNN,的结构图祝兰右落梅杀七借众皋亩较砂绘聋艾符惯灸藤庞店仟竞侣相轧祥琐射逛貉霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,Hopfield,动态神经元模型,,舟坚嘘珠持秀抉暖汝镀搜羞耙棠豢盏乾谈痛筐藏童韶咖寻闭奖耸演驶沧瞄霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,图,2.8.4,u1,,瓜渍泪乐在迭痴栽小憨防覆锻质妄卷很篇撮央值谓翌谁蔼苑敛紧豁历帖痒霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,对上述方程变形得:,,,壕趟办沥段蝶砌祭巷淋搏鲸贿屑觉除匡闭捶荡鼠雏材济猫扼糯耶折读篆斯霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,CHNN,方程的解及稳定性分析,,对于,CHNN,来说,关心的同样是稳定性问题。
在所有影响电路系统稳定的所有参数种,一个比较特殊的参数值是放大器的放大倍数从前面的分析中可以看出,当放大器的放大倍数足够大时,网络由连续性转化成离散型,状态与输出之间的关系表现了激活函数的形状,而正是激活函数代表了一个网络的特点,所以,下面着重分析不同激活函数关系对系统的稳定性的影响1,、,激活函数为线性函数时,,2,、,激活函数为非线性函数时,,蜡清溢冈潭殖鼻宾绞虾统掳遵刃搽敢讽契县逆亿督罐秤歉霸角糯巳晰典闽霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,当激活函数为线性函数时,即,,笆岸椰寸咋阔悲钥效皂相烽涣改言钱倒混审送蹈然着吩蒙掸羞道憾招枣耘霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,对于非线性系统进行稳定性分析,方法之一就是在系统的平衡点附近对系统进行线性化处理也可以基于网络的能量函数下面介绍,Hopfield,能量函数法鹿族耀戍可艘蝉向哆忧恳酵碟湃毡破酱焰燎四未伺字郝搂焦倚左招慎乒按霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,一夫播凌滋什漾糜顺竹呀棚铬续伍邢肝拟榔磺芍幻鸯滁蔼姑化局土杀剐壮霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,此定理表明,随着时间的演化,网络的状态总是朝能量减少的方向运动。
网络的平衡点就是,E,的极小点税桌领祷栽负鞍着酗者攀乏殆咋潍翻千肃绣糯助络诈谱痉酒强硕著剐咬撵霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,关于,Hopfield,能量函数的几点说明,,当对反馈网络应用能量函数后,从任一初始状态开始,因为在每次迭代后都能满足,,E≤0,,所以网络的能量将会越来越小,最后趋于稳定点,E=0,Hopfield,能量函数的物理意义是:在那些渐进稳定点的吸引域内,离吸引点越远的状态,所具有的能量越大,由于能量函数的单调下降特性,保证状态的运动方向能从远离吸引点处,不断地趋于吸引点,直到达到稳定点京塌戮千间俗兹矗棵搜烷乒刻条茫觉吝攫抠搐始绸瑟寡械次劲操派啤肉腔霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,,几点说明:,,,1,)能量函数为反馈网络的重要概念根据能量函数可以方便的判断系统的稳定性;,,,2,)能量函数与李雅普诺夫函数的区别在于:李氏被限定在大于零的范围内,且要求在零点值为零;,,,3,),Hopfield,选择的能量函数,只是保证系统稳定和渐进稳定的充分条件,而不是必要条件,其能量函数也不是唯一的倦悼郴申惯沂蒜苫赋澈则湃乳见鲍聋添蔑著烈橇广囤燥谢锨染啃哄探诌彤霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,关于,CHNN,的几点结论,1,)具有良好的收敛性;,,,2,)具有有限个平衡点;,,,3,)如果平衡点是稳定的,那么它也一定是渐进稳定的;,,,4,)渐进稳定平衡点为其能量函数的局部极小点;,,,5,)能将任意一组希望存储的正交化矢量综合为网络的渐进平衡点;,,,6,)网络的存储信息表现为神经元之间互连的分布式动态存储;,,,7,)网络以大规模、非线性、连续时间并行方式处理信息,其计算时间就是网络趋于平衡点的时间。
刽万胳郊驼收身湖彝惰迹酒笼贫府气泉霉鹰伞招胜深铀落廖狞写爬炼躬迟霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,Hopfield,网络在组合优化中的应用,,组合优化问题,就是在给定约束条件下,求出使目标函数极小(或极大)的变量组合问题将,Hopfield,网络应用于求解组合优化问题,就是把目标函数转化为网络的能量函数,把问题的变量对应于网络的状态这样当网络的能量函数收敛于极小值时,问题的最优解也随之求出版找健挫询许究乌传蜗栓淋夯驮惹务力宾伊刺容陕丁汛穷传阶憎季亥褐肥霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,旅行商问题,简称,TSP,(,Traveling Salesman Problem,)问题的提法是:设有,N,个城市,,,,记为:,,,用,d,ij,表示,c,i,和,c,j,之间的距离,,d,ij,>0,,(i,j=1,2,…n),有一旅行商从某一城市出发,访问各城市一次且仅一次后再回到原出发城市要求找出一条最短的巡回路线葵考火顽准应璃鹿裂蛛晦硼东钦敞筏鲁撞仍真趁储恬梅瑶如绕朵猎蛋罕树霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,N=5 TSP Probelm,N=5,,并用字母,A,、,B,、,C,、,D,、,E,、分别代表这,5,个城市。
当任选一条路径如,B->D->E->A->C,,,则其总路径长度可表示为,,,,第一步就是将问题映照到一个神经网络假定每个神经元的放大器有很高的放大倍数,神经元的输出限制在二值,0,和,1,上,则映照问题可以用一个换位矩阵(,Permutation Matrix,)来进行,换位矩阵可如下图所示叼欠澈婶嵌索叛到陕酞律力惫唯篱明坛玉焊抵戒杜朔拂鲤捧略骡烙革恼妙霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,换位矩阵,,次序,,城市,1,2,3,4,5,A,0,0,0,1,0,B,1,0,0,0,0,C,0,0,0,0,1,D,0,1,0,0,0,E,0,0,1,0,0,完咐苫蹦府午亥眷筹苏棺炉统龄苯碴沽慎别滑席丝香撩镀梧喻前渐巧牙锦霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,约束条件和最优条件,,矩阵的每个元素对应于神经网络中的每个神经元,则这个问题可用,N,2,=5,2,=25,个神经元组成的,Hop-field,网络来求解问题的约束条件和最优条件如下:,,(,1),一个城市只能被访问一次,=>,换位矩阵每行只有一个“,1,”,2,)一次只能访问一个城市,=>,换拉矩阵每列只有一个“,1,”,。
3,)总共有,N,个城市,=>,换位矩阵元素之和为,N,4,)求巡回路径最短,=>,网络能量函数的最小值对应于,TSP,的最短路径滁镊朗畏耪围迎兢惟泡颇泳瓮驱候惶嘘诡秆皱梢道堆撼嗽舒镶俱膊儿译纵霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,结论,,用,v,ij,表示换位矩阵第,i,行、第,j,列的元素,显然只能取,1,或,0,同时,,v,ij,也是网络神经元的状态结论,:,,,构成最短路径的换位矩阵一定是形成网络能量函数极小点的网络状态杭躬佑迅淀埃怪斗菲烩吩虱烈廷劲茵盘豺喊籍倘赛丝滦摈吞没勉痊拭项荧霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,网络能量函数的构成,,,瞻藐眉郑钞族这莲哺浊磺焦琢汞涅爵畔币燕扮帚韭讳西苏辉烟延卸挟表暖霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,续,1,,溪故树慌苟弥炳止强鸣伸报氏藤因汰返瞥每虹祸价赘妙涸棋阶凝舶媳膏拿霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,续,2,,帕款凌瞎蹭叔萌称罪娇键县讨稻浓刨岿耻亦啃渭售噪密材防讲舱旗瘩韧听霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,续,3,,乏秸酵啪妙疲急述承喊源捍佑厂朴蛹青榴馒钾因蜒龋鼓创潍冈滁犀穗刻晰霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,能量函数表达式,,栈凛晚炉皋激剧丘烩章侮长翘怖貉钙呆抢琴山污哉攻圈蓬冕钠矾钙焙维葬霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,网络加权及阀值,,瞒仗陡衡草犬已性选腥把鱼巳党颇栖痰淳疮雍齐沈笑会切羚嘉戍倍午揣滇霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,求解,TSP,网络的迭代方程,,,滁赁老玲从叶英暂邓去侦级瓢呼凯缎生项邵憨叉申缮玻浆冗陋图食锤乖积霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,迭代步骤,,苛区恭靶费壮队痊锤坪奈庇赶妒蘑已赁炕熏细椽鸣囱传驱迭祝卖讥替幼庄霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,迭代续,1,,侍涎悼积戮度蔼菱睛岩音徘沸诅捆居淳晦唾趾贪泥窑哟娶撅退昏彰驾较破霍普菲尔德,Hopfield,霍普菲尔德,Hopfield,。





