自组织特征映射SOFMSelf课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《自组织特征映射SOFMSelf课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 组织 特征 映射 SOFMSelf 课件
- 资源描述:
-
1、2006-12-27北京科技大学 自动化系 付冬梅 623349672006-12-27北京科技大学 自动化系 付冬梅2p自组织竞争神经网络类型自组织竞争神经网络类型自适应共振理论(Adaptive Resonance Theory,ART)网络自组织特征映射(self-Organizing Map,SOM)网络对传(Counter Propagation,CP)网络协同神经网络(Synergetic Neural NetworkSNN)2006-12-27北京科技大学 自动化系 付冬梅3p由芬兰学者Teuvo Kohonen于1981年提出。p基本上为输入层和映射层的双层结构,映射层的神经元
2、互相连接,每个输出神经元连接至所有输入神经元。Im Teuvo Kohonen2006-12-27北京科技大学 自动化系 付冬梅4 神经网络系统中的一个主要特点是它具有学习功能。通过神经网络系统中的一个主要特点是它具有学习功能。通过学习它可以提取一组数据中的重要特征或找出其内在规律和学习它可以提取一组数据中的重要特征或找出其内在规律和本质属性(如分布特征,或按某种特征聚类),不断调整本本质属性(如分布特征,或按某种特征聚类),不断调整本身的学习过程,通常把网络的这种功能称为自学习或自组织身的学习过程,通常把网络的这种功能称为自学习或自组织功能。这种无教师监督,能自动的向环境学习,并根据学习功能
3、。这种无教师监督,能自动的向环境学习,并根据学习所得到的重要特征来记忆知识的网络统称为自组织神经网络。所得到的重要特征来记忆知识的网络统称为自组织神经网络。自组织特征映射(自组织特征映射(SOFM,Self-Organizing Feature Map)是芬兰学者是芬兰学者Kohonen提出的一种神经网络模型,它模拟了哺乳提出的一种神经网络模型,它模拟了哺乳动物大脑皮质神经的侧抑制、自组织等特性,动物大脑皮质神经的侧抑制、自组织等特性,1984年年Kohonen将芬兰语音精确地组织为因素图,将芬兰语音精确地组织为因素图,1986年又将运动指令组织年又将运动指令组织成运动控制图,由于这些成功应用
4、使成运动控制图,由于这些成功应用使SOFM引起世人的高度重引起世人的高度重视,形成一类很有特色的无师训练神经网络模型。视,形成一类很有特色的无师训练神经网络模型。2006-12-27北京科技大学 自动化系 付冬梅5 SOFM网络的思想来源网络的思想来源 SOFM网络的结构模型网络的结构模型 SOFM神经元的基本功能函数神经元的基本功能函数 SOFM的基本学习算法的基本学习算法 仿真实例仿真实例 几点注意事项几点注意事项 2006-12-27北京科技大学 自动化系 付冬梅610.1 SOFM网络的思想来源网络的思想来源自组织特征映射的思想来源有两个方面自组织特征映射的思想来源有两个方面人脑的自组
5、织性人脑的自组织性人脑的矢量量化人脑的矢量量化 尽管目前人们对脑细胞如何组织来协调处理复杂信息的过尽管目前人们对脑细胞如何组织来协调处理复杂信息的过程和机理还不十分清楚,但已有以下几点共识:程和机理还不十分清楚,但已有以下几点共识:n人脑的自组织性人脑的自组织性(1)(1)原始信息如一句话、一个图形是多维信号,图形可看成一原始信息如一句话、一个图形是多维信号,图形可看成一个二维点阵加上三原色颜色等分量。脑皮层尽管有许多沟个二维点阵加上三原色颜色等分量。脑皮层尽管有许多沟回,但本质上是一个二维平面的拓扑变形,脑皮层的每个回,但本质上是一个二维平面的拓扑变形,脑皮层的每个细胞可视作二维平面上一个点
6、。多维信号传递到脑皮层的细胞可视作二维平面上一个点。多维信号传递到脑皮层的过程可视作高维空间信号到二维空问信号的降维映射,降过程可视作高维空间信号到二维空问信号的降维映射,降维过程去掉了原始信号的次要特征维过程去掉了原始信号的次要特征,保留了其主要特征。保留了其主要特征。2006-12-27北京科技大学 自动化系 付冬梅7(2)(2)信号空间信号空间 中具有相近特征的信号被映射到脑皮层中相近中具有相近特征的信号被映射到脑皮层中相近区域时,大致保留了信号在区域时,大致保留了信号在 中的概率分布特征及拓扑结中的概率分布特征及拓扑结构特征,即大脑有自动归类能力,将信号物以类聚。构特征,即大脑有自动归
7、类能力,将信号物以类聚。(3)(3)以响应最强的一个神经元为中心,形成一个区域,大致以响应最强的一个神经元为中心,形成一个区域,大致来说,中心强度大,离中心越远越弱。来说,中心强度大,离中心越远越弱。(4)(4)神经细胞之间有侧抑制,存在竞争。这种竞争是通过反馈神经细胞之间有侧抑制,存在竞争。这种竞争是通过反馈实现的,对自己给予最大正反馈,对邻居给予一定正反馈,实现的,对自己给予最大正反馈,对邻居给予一定正反馈,对远处的细胞则给予负反馈即抑制。对远处的细胞则给予负反馈即抑制。nRnR2006-12-27北京科技大学 自动化系 付冬梅8 图10.1是反馈强度的示意图,平面上细胞按离中心神经元j的
8、距离分成三个区域:近距离的侧激励区;稍远一些有一个抑制作用的环形区域;环外是一个弱激励区,在初步分析时可忽略。图10.2用黑点大小表示侧激励区各神经细胞兴奋的强弱。图10.1 侧抑制作用示意圈 图10.2 气泡示意图 2006-12-27北京科技大学 自动化系 付冬梅9 矢量量化是矢量量化是2020世纪世纪8080年代提出的一种数据压缩方法,年代提出的一种数据压缩方法,广泛用于语音及图像数据的传输,其基本思想是将输入空广泛用于语音及图像数据的传输,其基本思想是将输入空间划分成多个不相交的超多面体,每个超多面体可称为一间划分成多个不相交的超多面体,每个超多面体可称为一个区域,每个区域中选一个代表
9、点,称为码本向量,这样个区域,每个区域中选一个代表点,称为码本向量,这样凡同一区域的点均用码本向量来表示,数据可大大压缩。凡同一区域的点均用码本向量来表示,数据可大大压缩。如何根据信号的特点来划分区域,如何由代表点重构信号如何根据信号的特点来划分区域,如何由代表点重构信号(语音、图象语音、图象)而不致与原信号失真等问题,本课堂不计划而不致与原信号失真等问题,本课堂不计划详述,感兴趣的同学可以参考有关文献。详述,感兴趣的同学可以参考有关文献。n人脑的矢量量化人脑的矢量量化2006-12-27北京科技大学 自动化系 付冬梅1010.2 SOFM网络的结构模型网络的结构模型 最初的自组织特征映射是一
10、个单层网络(见图10.3)。各神经元处在一个平面上,一般用矩形或六边形等排列方式。输入端处于平面之外的下侧,每个输入端口与所有神经元均有连接,称为前向权,它们可以迭代调整。在神经元平面上侧,实际上每个神经元还有一个输出端,不再画出,平面上各单元采用全连接,称为侧向权,以构成抑制引起竞争。为了图形的清晰,图3未画出侧向权。侧向抑制机制是通过邻域和学习因子实现的,具体表现见后面的学习算法。2006-12-27北京科技大学 自动化系 付冬梅11 竞争层竞争层输入层输入层SOFMSOFM神经网络结构神经网络结构10.2 SOFM网络的结构模型网络的结构模型2006-12-27北京科技大学 自动化系 付
11、冬梅12图图10.3 10.3 最初的最初的SOFMSOFM网络结构示意图网络结构示意图2006-12-27北京科技大学 自动化系 付冬梅1310.3 SOFM神经元的基本功能函数神经元的基本功能函数ijw12,TiiiinwwwwL记 为j个输入端指向第i神经元的权,令 神经元i的输出可以采用两种方式:1)内积形式 1,nTiijjijw xw xw x 2)欧氏距离形式 122()iiijjjdwxwx采用这两种函数目的在于衡量输入矢量 与单位的权矢量 之间匹配的程度,内积越大或距离 越小,与 匹配程度越高。xiwidxiw(10.1)(10.2)2006-12-27北京科技大学 自动化系
12、 付冬梅14 当所有的权与输入向量均归一化处理 ,后,1iw 1x 以上两种表示等价。简单证明如下:2222,2,22,iiiiiiiiiidwxwx wxw ww xx xww xxw x =-2+=所以(10.2)的极小对应(10.1)的极大。不过归一化处理后。所有权向量都处在单位球面上,损失了一个维数。当权向量维数高的时候,这种损失对结果影响不会太大,如若维数低,则影响不能忽略,最好用不要归一化处理,直接用(10.2)式。(10.3)2006-12-27北京科技大学 自动化系 付冬梅1510.4 SOFM的基本学习算法的基本学习算法 SOFM网络算法的主要生物学依据来源于大脑的侧向交互原
13、理,即所谓的墨西哥草帽效应:相邻近的神经元之间的局部交互的方式是侧向交互,它遵从下列有关规则:1)以发出信号的神经元为圆心,对该神经元近邻的神经元的交互作用表现为兴奋性侧反馈;2)以发出信号的神经元为圆心,对该神经元远邻的神经元的交互作用表现为抑制性侧反馈。生物学上的近邻是指从发出信号的神经元为圆心半径约为50500m左右的神经元;远邻是指半径为200m2mm左右的神经元。比远邻更远的神经元则表现的是弱激励作用。2006-12-27北京科技大学 自动化系 付冬梅16 这种局部交互方式如图10.4所示。由于这种交互作用的曲线类似于墨西哥人带的帽子,所以也称这种交互方式为“墨西哥帽”。图图10.4
14、 10.4 墨西哥帽示意图墨西哥帽示意图2006-12-27北京科技大学 自动化系 付冬梅17n无教师学习无教师学习 学习是无师的,其目的是调整前向权,但调整过程也体现了侧抑制作用。学习算法步骤如下:Step1 权值初始化,将每个 赋以一个小的随机值 。ijw(0)ijwxStep2 输入训练样本矢量 ,令t=0。Step3 用公式(10.2)计算 与所有前向权量矢量之间的距离 x22()iidw txStep4 选择获胜单元c,使 22mincidd2006-12-27北京科技大学 自动化系 付冬梅18Step6 令t:=t+1转Step3。Step7 当 时,停止对当前样本的学习,转Ste
15、p2。Step8 重复Step2Step7,直至所有样本使用完毕。()cw tStep5 调整 (1)()()(),()(1)(),()ijijjijcijijcw tw tt xw tiN tw tw t iN t式中 是学习因子,随时间而递减,范围 ,是c的领域,其半径随t而减小。()t0()1t()cN t0tT2006-12-27北京科技大学 自动化系 付冬梅19 关于学习率函数 的选择。原则上可选一个单调下降函数,至于是线性下降还是负指数下降没有硬性规定,只有一些经验法则。如采用线性下降函数,根据Konhonen本人的经验,前10000步下降要快。后10000步下降要慢。()t 关于
16、领域 的形状及收缩规律,也只有经验法则。形状一般取矩形、六边形或圆形。为简单起见半径 的缩小可采用线性下降函数,但注意不要下降到0。如果 1,则退化为独活型竞争。()cN t()cr N()cr N2006-12-27北京科技大学 自动化系 付冬梅20图10.5是两种形状领域的逐步缩小示意图。图10.5 领域逐步缩小示意图2006-12-27北京科技大学 自动化系 付冬梅21关于学习率 和领域 大小的一种统一考虑如下:取()t()cN t220()()exp(/()tciicthth errt0(0)1cihh式中 是常数,是t的单减函数,常数 ,是第i个神经元在平面上的坐标,是获胜单元c在平
展开阅读全文