第三章 人工神经网络-5-自组织自组织竞争人工神经网络课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《第三章 人工神经网络-5-自组织自组织竞争人工神经网络课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第三章 人工神经网络-5-自组织自组织竞争人工神经网络课件 第三 人工 神经网络 组织 竞争 课件
- 资源描述:
-
1、第五讲第五讲 自组织竞争人工神经自组织竞争人工神经网络网络 计算机科学与技术学院计算机科学与技术学院q在实际的神经网络中,比如人的视网膜中,存在实际的神经网络中,比如人的视网膜中,存在着一种在着一种“侧抑制侧抑制”现象,即一个神经细胞兴现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产奋后,通过它的分支会对周围其他神经细胞产生抑制。生抑制。q自组织竞争人工神经网络正是基于上述生物结自组织竞争人工神经网络正是基于上述生物结构和现象形成的。它能够对输入模式进行自组构和现象形成的。它能够对输入模式进行自组织训练和判断,并将其最终分为不同的类型。织训练和判断,并将其最终分为不同的类型。q与
2、与BPBP网络相比,这种自组织自适应的学习能力网络相比,这种自组织自适应的学习能力进一步拓宽了人工神经网络在模式识别、分类进一步拓宽了人工神经网络在模式识别、分类方面的应用,另一方面,竞争学习网络的核方面的应用,另一方面,竞争学习网络的核心心竞争层,又是许多种其他神经网络模型竞争层,又是许多种其他神经网络模型的重要组成部分。的重要组成部分。计算机科学与技术学院计算机科学与技术学院5.1 5.1 几种联想学习规则几种联想学习规则 q格劳斯贝格格劳斯贝格( (S SGrossbergGrossberg) )提出了提出了两种类型的神经元模型:内星与外两种类型的神经元模型:内星与外星,用以来解释人类及
3、动物的学习星,用以来解释人类及动物的学习现象。现象。q内星可以被训练来识别矢量;内星可以被训练来识别矢量;q外星可以被训练来产生矢量。外星可以被训练来产生矢量。 计算机科学与技术学院计算机科学与技术学院图图8.1 8.1 格劳斯贝格内星模型图格劳斯贝格内星模型图 内星是通过联接权矢量内星是通过联接权矢量W W接受一组输入信号接受一组输入信号P P 计算机科学与技术学院计算机科学与技术学院图图8 82 2 格劳斯贝格外星模型图格劳斯贝格外星模型图 外星则是通过联接权矢量向外输出一组信号A。 它们之所以被称为内星和外星,主要是因为其网络的它们之所以被称为内星和外星,主要是因为其网络的结构像星形,且
4、内星的信号流向星的内部;而外星的结构像星形,且内星的信号流向星的内部;而外星的信号流向星的外部。信号流向星的外部。 计算机科学与技术学院计算机科学与技术学院 实现内星输入输出转换的激活函数是硬限制函数。实现内星输入输出转换的激活函数是硬限制函数。 可以通过内星及其学习规则来训练某一神经元节点只响应可以通过内星及其学习规则来训练某一神经元节点只响应特定的输入矢量特定的输入矢量P P,它是借助于调节网络权矢量它是借助于调节网络权矢量W W近似于输近似于输入矢量入矢量P P来实现的。来实现的。单内星中对权值修正的格劳斯贝格内星学习规则为:单内星中对权值修正的格劳斯贝格内星学习规则为: (81) 由由
5、(8(81)1)式可见,内星神经元联接强度的变化式可见,内星神经元联接强度的变化ww1j1j是与输是与输出成正比的。如果内星输出出成正比的。如果内星输出a a被某一外部方式而维护高值时,被某一外部方式而维护高值时,那么通过不断反复地学习,权值将能够逐渐趋近于输入矢那么通过不断反复地学习,权值将能够逐渐趋近于输入矢量量p pj j的值,并趋使的值,并趋使ww1j1j逐渐减少,直至最终达到逐渐减少,直至最终达到w w1j1jp pj j,从而使内星权矢量学习了输入矢量从而使内星权矢量学习了输入矢量P P,达到了用内星来识别达到了用内星来识别一个矢量的目的。另一方面,如果内星输出保持为低值时,一个矢
6、量的目的。另一方面,如果内星输出保持为低值时,网络权矢量被学习的可能性较小,甚至不能被学习。网络权矢量被学习的可能性较小,甚至不能被学习。 5.1.15.1.1内星学习规则内星学习规则计算机科学与技术学院计算机科学与技术学院q现在来考虑当不同的输入矢量现在来考虑当不同的输入矢量p p1 1和和p p2 2分别出现在同一内分别出现在同一内星时的情况。星时的情况。q首先,为了训练的需要,必须将每一输入矢量都进行单首先,为了训练的需要,必须将每一输入矢量都进行单位归一化处理。位归一化处理。q当第一个矢量当第一个矢量p p1 1输入给内星后,网络经过训练,最终达输入给内星后,网络经过训练,最终达到到W
7、 W(p(p1 1) )T T。此后,给内星输入另一个输入矢量此后,给内星输入另一个输入矢量p p2 2,此此时内星的加权输入和为新矢量时内星的加权输入和为新矢量p p2 2与已学习过矢量与已学习过矢量p p1 1的点的点积,即:积,即: 因为输入矢量的模已被单位化为因为输入矢量的模已被单位化为1 1,所以内星的加权输,所以内星的加权输入和等于输入矢量入和等于输入矢量p p1 1和和p p2 2之间夹角的余弦。之间夹角的余弦。 计算机科学与技术学院计算机科学与技术学院 根据不同的情况,内星的加权输入和可分为如下几种情况:根据不同的情况,内星的加权输入和可分为如下几种情况:p p2 2等于等于p
8、 p1 1,即有即有12120 0,此时,内星加权输入和为此时,内星加权输入和为1 1;p p2 2不等于不等于p p1 1,内星加权输入和为内星加权输入和为0 0;p p2 2-p-p1 1,即即1212180180时,内星加权输入和达到最小值时,内星加权输入和达到最小值- -1 1。q由此可见,对于一个已训练过的内星网络,当输入端再次由此可见,对于一个已训练过的内星网络,当输入端再次出现该学习过的输入矢量时,内星产生出现该学习过的输入矢量时,内星产生1 1的加权输入和;的加权输入和;而与学习过的矢量不相同的输入出现时,所产生的加权输而与学习过的矢量不相同的输入出现时,所产生的加权输入和总是
9、小于入和总是小于1 1。q当多个相似输入矢量输入内星,最终的训练结果是使网络当多个相似输入矢量输入内星,最终的训练结果是使网络的权矢量趋向于相似输入矢量的平均值的权矢量趋向于相似输入矢量的平均值。计算机科学与技术学院计算机科学与技术学院q内星网络中的相似度是由偏差内星网络中的相似度是由偏差b b来控制,由设计者在训来控制,由设计者在训练前选定,典型的相似度值为练前选定,典型的相似度值为b b-0.95-0.95,这意味着输这意味着输入矢量与权矢量之间的夹角小于入矢量与权矢量之间的夹角小于18184848。若选。若选b b- -0.90.9时,则其夹角扩大为时,则其夹角扩大为25254848。一
10、层具有一层具有s s个神经元的内星,可以用相似的方式进行训个神经元的内星,可以用相似的方式进行训练,权值修正公式为:练,权值修正公式为: MATLAB神经网络工具箱中内星学习规则的执行是用神经网络工具箱中内星学习规则的执行是用函数函数learnis.m来完成上述权矢量的修正过程:来完成上述权矢量的修正过程:dW1earnis(W,P,A,lr); W=W十十dW; 计算机科学与技术学院计算机科学与技术学院例8.1 设计内星网络进行以下矢量的分类辨识:我们首先对网络进行初始化处理我们首先对网络进行初始化处理: R,Qsize(P);S,Qsize(T);Wzeros(S,R);B-0.95* o
11、nes(S,1);max-epoch10;lr0.7;so81.m计算机科学与技术学院计算机科学与技术学院q外星网络的激活函数是线性函数,它被用来学习回忆外星网络的激活函数是线性函数,它被用来学习回忆一个矢量,其网络输入一个矢量,其网络输入P P也可以是另一个神经元模型的也可以是另一个神经元模型的输出。输出。q外星被训练来在一层外星被训练来在一层s s个线性神经元的输出端产生一个个线性神经元的输出端产生一个特别的矢量特别的矢量A A。q对于一个外星,其学习规则为:对于一个外星,其学习规则为: 与内星不同,外星联接强度的变化与内星不同,外星联接强度的变化ww是与输入矢量是与输入矢量P P成成正比
12、的。这意味着当输入矢量被保持高值,比如接近正比的。这意味着当输入矢量被保持高值,比如接近1 1时,每个权值时,每个权值w wijij将趋于输出将趋于输出a ai i值,若值,若p pj j1 1,则外星使权则外星使权值产生输出矢量。值产生输出矢量。 当输入矢量当输入矢量p pj j为为0 0时,网络权值得不到任何学习与修正。时,网络权值得不到任何学习与修正。 8.1.28.1.2外星学习规则外星学习规则计算机科学与技术学院计算机科学与技术学院q当有r个外星相并联,每个外星与s个线性神经元相连组成一层外星时,其权值修正方式为:其中:其中:W Ws sr r权值列矢量;权值列矢量;lrlr学习速率
13、;学习速率;A As sq q外星输出;外星输出;P Pr rq q外星输入外星输入。MATLABMATLAB工具箱中实现外星学习与设计的函数为工具箱中实现外星学习与设计的函数为learnoslearnos.m.m,其调用过程如下:其调用过程如下:dWdWlearnoslearnos(W(W,A A,P P,lrlr) ); W WW W十十dWdW; 计算机科学与技术学院计算机科学与技术学院 例例8 822下面有两元素的输入矢量以及与它们相关下面有两元素的输入矢量以及与它们相关的四元素目标矢量,试设计一个外星网络实现有的四元素目标矢量,试设计一个外星网络实现有效的矢量的获得,外星没有偏差。效
14、的矢量的获得,外星没有偏差。 P1 0;T0.1826 0.6325; 0.36510.3162; 0.54770.3162; 0.73030.6325;计算机科学与技术学院计算机科学与技术学院科荷伦学习规则是由内星规则发展而来的。科荷伦学习规则是由内星规则发展而来的。科荷伦规则为:科荷伦规则为:科荷伦学习规则实际上是内星学习规则的一个特例,但科荷伦学习规则实际上是内星学习规则的一个特例,但它比采用内星规则进行网络设计要节省更多的学习,因它比采用内星规则进行网络设计要节省更多的学习,因而常常用来替代内星学习规则。而常常用来替代内星学习规则。 8 81 13 3科荷伦学习规则科荷伦学习规则计算机
15、科学与技术学院计算机科学与技术学院在在MATLABMATLAB工具箱中,在调用科荷伦学习规则函工具箱中,在调用科荷伦学习规则函数数learnklearnk.m.m时,一般通过先寻找输出为时,一般通过先寻找输出为1 1的行的行矢量矢量i i,然后仅对与然后仅对与i i相连的权矩阵进行修正。相连的权矩阵进行修正。使用方法如下:使用方法如下: i ifind(A=1)find(A=1);dWdWlearnklearnk(W(W,P P,i i,1r)1r);W WW W十十dWdW;一般情况下科荷伦学习规则比内星学习规则一般情况下科荷伦学习规则比内星学习规则能够提高训练速度能够提高训练速度1 1到到
16、2 2个数量级。个数量级。 计算机科学与技术学院计算机科学与技术学院82自组织竞争网络自组织竞争网络 8 82 21 1网络结构网络结构 竞争网络由单层神经元网络组成,其输入节点与输出竞争网络由单层神经元网络组成,其输入节点与输出节点之间为全互联结。节点之间为全互联结。 因为网络在学习中的竞争特性也表现在输出层上,所因为网络在学习中的竞争特性也表现在输出层上,所以在竞争网络中把输出层又称为竞争层,而与输入节以在竞争网络中把输出层又称为竞争层,而与输入节点相连的权值及其输入合称为输入层。点相连的权值及其输入合称为输入层。 计算机科学与技术学院计算机科学与技术学院 从网络的结构图中可以看出,自组织
17、竞争网络的权从网络的结构图中可以看出,自组织竞争网络的权值有两类:值有两类:一类是输入节点一类是输入节点j j到到i i的权值的权值w wijij(i(i1 1,2 2、s s;j j1 1,2 2、r)r),这些权值是通过训练可以被调整的;这些权值是通过训练可以被调整的; 另一类是竞争层中互相抑制的权值另一类是竞争层中互相抑制的权值w wikik(k(k1 1,2 2、s)s)。这类权值是固定不变的,且它满足一定的分布这类权值是固定不变的,且它满足一定的分布关系。关系。 它们是一种对称权值,即有它们是一种对称权值,即有w wikikw wkiki,同时相同神同时相同神经元之间的权值起加强的作
18、用,即满足经元之间的权值起加强的作用,即满足w w1111w w1111w wkkkk0 0,而不同神经元之间的权值相互抑制,而不同神经元之间的权值相互抑制,对于对于kiki有有w wijij0 0。 计算机科学与技术学院计算机科学与技术学院设网络的输入矢量为:设网络的输入矢量为:P Ppp1 1 p p2 2 p pr r T T;对应网络的输出矢量为:对应网络的输出矢量为:A Aaa1 1 a a2 2 a as s T T。由于竞争网络中含有两种权值,所以其激活函数的加权输由于竞争网络中含有两种权值,所以其激活函数的加权输入和也分为两部分:来自输入节点的加权输入和入和也分为两部分:来自输
19、入节点的加权输入和N N与来与来自竞争层内互相抑制的加权输入和自竞争层内互相抑制的加权输入和G G。对于第对于第i i个神经元个神经元有:有:1)1)来自输入节点的加权输入和为:来自输入节点的加权输入和为: 2)2)来自竞争层内互相抑制的加权输入和为:来自竞争层内互相抑制的加权输入和为: 计算机科学与技术学院计算机科学与技术学院a)a)如果在竞争后,第如果在竞争后,第i i个节点个节点“赢赢”了,则有:了,则有:而其他所有节点的输出均为零,即而其他所有节点的输出均为零,即: 此时此时 b)b)如果在竞争后,第如果在竞争后,第i i个节点个节点“输输”了,而了,而“赢赢”的节点的节点为为l l,
20、则有:则有: 此时此时计算机科学与技术学院计算机科学与技术学院所以对整个网络的加权输入总和有下式成立:所以对整个网络的加权输入总和有下式成立:s sl l= =n nl l+w+wllll 对于对于“赢赢”的节点的节点l ls si i= =n ni i-|w-|wiiii| | 对于所有对于所有”输输“的节点的节点i i1 1,2 2s s,ilil由此可以看出,经过竞争后只有获胜的那个节点的加权由此可以看出,经过竞争后只有获胜的那个节点的加权输入总和为最大。竞争网络的输出为:输入总和为最大。竞争网络的输出为: 在判断竞争网络节点胜负的结果时,可直接采用在判断竞争网络节点胜负的结果时,可直接
展开阅读全文