第5章-自组织竞争神经网络 - 第五章 自组织竞争神经网络课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《第5章-自组织竞争神经网络 - 第五章 自组织竞争神经网络课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第5章-自组织竞争神经网络 第五章 自组织竞争神经网络课件 组织 竞争 神经网络 第五 课件
- 资源描述:
-
1、第五章第五章 自组织竞争神经网络自组织竞争神经网络 第五章第五章 自组织竞争神经网络自组织竞争神经网络 5.1 概述概述 5.2 自组织特征映射网络自组织特征映射网络 5.3 自适应共振理论模型自适应共振理论模型 5.4 神经认知机神经认知机 5.1 概述概述 在实际的神经网络中,存在一种侧抑制的现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制这种侧抑制在脊髓和海马中存在,在人眼的视网膜中也存在。 另外,在认知过程中除了从教师那儿得到知识外,还有一种不需要教师指导的学习,这种直接依靠外界刺激,“无师自通”达到的功能有时也称为自学习、自组织的学习方法。 自组织竞争人工神经网络
2、就是基于上述两种生物结构和现象的基础上生成的,它的权是经过Hebb规则或类似Hebb规则学习后得到的。 5.2 自组织特征映射网络自组织特征映射网络 5.2.1 网络拓扑结构及工作过程网络拓扑结构及工作过程 5.2.2 自组织映射学习算法自组织映射学习算法 5.2.3 自组织映射网络的工作原理自组织映射网络的工作原理 5.2.4 网络的应用实例网络的应用实例 芬兰学者Kohonen认为一个神经网络接受外界输入模式时,将会分成不同的区域,各区域对输入模式将会有不同的响应特性,最临近的神经元互相激励,而较远的神经元之间相互抑制,而更远的神经元之间又有较弱的激励作用。在受到外界刺激时,刺激最强的地方
3、形成一个Bubble(墨西哥帽),在此Bubble区中,神经元权向量会自动调节,直到与输入向量的某一最大分量方向相重合为止。 图图5.1 神经元的作用分布曲线神经元的作用分布曲线 图图 5.2 网络结构网络结构 +-+-1x 2xnx 输出层输入层5.2.1 网络拓扑结构及工作过程网络拓扑结构及工作过程 图图5.3 Nj(t)的形状变化情况的形状变化情况 )(0tNj)(2tNj)(1tNj)(0tNj)(2tNj)(1tNj对于任意一个输入节点i和输出节点j有: i1,2,.,n , j1,2,.,n 且: niiijjXWY15.2.2 自组织映射学习算法自组织映射学习算法 连接权值的初始
4、化。 t=0:0Wij1,i1,2,n,j1,2,m 对网络输入一个样本模式。 XK=(X1,X2,Xn) 计算与全部输出节点间的权值向量的距离 j1,2,m (5.2.2) 选择有最小距离的节点为竞争获胜节点 j1,2,m niijij(t)W(X(t)d12)min(*jjdd 调整权值 (5.2.3) 其中,0(t)1,衰减函数,随着时间t而递减;(Nj,Nj*)限界函数,随着Nj*距离递减。 若还有输入样本则转,当所有的样本输入完,且满足: i1,2,.,n, j1,2,m(5.2.4) 或者完成指定的学习次数后算法结束,否则转。)(0)(),()(*tNjWtNjtWXNNtWjij
5、jijijjij)() 1(max(tWtWijij (t)和Nj*有一般化数学方法,凭经验选取。初始时, Nj*选取较大,后逐渐变小, (t)开始时较大,后逐渐变为0。 从自组织映射网络算法来看,该网络有以下特点:从自组织映射网络算法来看,该网络有以下特点: (1)网络中的权值是输入样本的记忆。如果输出节点j与输入层n个节点的连接权值向量用Wj表示,对应某一类样本XK输入,使j节点达到的匹配最大,那么Wj通过学习以后十分靠近XK,因此以后当XK再次输入时,j节点必定兴奋, j节点是样本的XK代表。 (2)网络学习时对权值的调整,不只是对兴奋的节点所对应的权值进行调整,而对其周围区域Nj内的节
6、点同时进行调整,因此对于在Nj内的节点可以代表不只是一个样本XK,而是与XK比较相近的样本都可以在Nj内得到反映,因此这种网络对于样本的畸变和噪声的容限大。 (3)网络学习结果使比较相近的输入样本在输出二维平面上位置也比较接近。 (4)可实现在线学习,已修改的权值将保留。5.3 自适应共振理论模型自适应共振理论模型 5.3.1 自适应共振理论自适应共振理论(ART) 5.3.2 ART1神经网络神经网络 5.3.3 ART1网络学习算法的改进网络学习算法的改进 5.3.4 ART2神经网络神经网络 5.3.5 ART神经网络在人像识别中的应用神经网络在人像识别中的应用 5.3.1 自适应共振理
7、论自适应共振理论(ART) 自适应共振理论(Adaptive Resonance Theory,简称)是由美国Boston大学S.Grossberg和A.Carpenter提出的。这一理论包括ART1和ART2两种模型,可以对任意多和任意复杂的二维模式进行自组织、自稳定和大规模并行处理。前者用于二进制输入,后者用于连续信号输入。 如图5.8所示,它由两个相继连接的存储单元STM-F1和STM-F2组成,分成注意子系统和取向子系统。 F1 和F2之间的连接通路为自适应长期记忆(LTM)。 图图5.8 ART原理图原理图 STM-F2STM-F1增益控制注意子系统取向子系统STM重置波输入模式增益
8、控制LTM+-+-+ ART的主要优点:的主要优点: 1、可完成实时学习,且可适应非平稳的环境; 2、对已学习过的对象具有稳定的快速识别能力,同时又能迅速适应学习的新对象; 3、具有自归一能力,根据某些特征在全体中所占的比例,有时作为关键特征,有时又被当作噪声处理; 4、不需要事先已知样本结果,可非监督学习; 5、容量不受输入通道数的限制,存储对象也不要求是正交的; 6、此系统可以完全避免陷入局部极小点的问题。 5.3.2 ART1神经网络神经网络 一、一、ART1神经网络基本结构神经网络基本结构 图图5.9 ART1 网络的基本结构网络的基本结构 GRCGReset输入x门限 网络的基本结构
9、由两层神经网节点构成两个子系统,分别称比较层(Compare,简称C层)和识别(Recognition,简称R层)。另外还有三种控制信号,即复位信号(简称Reset)及两种逻辑控制信号G1和G2。 1.C 层结构层结构:具有n个节点,每个节点接受来自三个方面的信号。 信号1:输入X的第i个分量Xi。 信号2:R层第j个单元的自上而下返回信号Rj。 信号3:G1控制信号。 设C层第i个单元输出为Ci。 Ci根据“2/3规则”产生,即Ci具有三个信号中的多数相同的值。 网络开始运行时, G1 =1,R层反馈信号为0。 2.R 层结构层结构: R层功能结构相当于一种前向竞争网络,假设输出层有m个节点
10、,m类输入模式。输出层节点能动态增长,以满足设立新模式类的需要。设由C层自下而上连接到R层第j个的节点的权向量用Wj=w1j,w2j,.,wnj 表示。C层输出向量C沿Wj向前馈送,经过竞争在R层输出端产生获胜节点,指示本次输入向量类别。 3.控制信号控制信号 (1)G1:设输入模式X各元素的逻辑“或”为X0,R各元素的逻辑“或非”为R0,则G1=X0R0,即只有在R层输出向量R为全0,而输入X不为全0时,G1=1,其他情况下G1=0。 (2)G2是输入模式X各元素的逻辑“或”,即X为全0时, G2是0。其他情况下G2是1。 (3)Reset:设预先设定的相似性度量为。如按某种事先设定的测量标
展开阅读全文