神经网络-配套-Ch16pres课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《神经网络-配套-Ch16pres课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 配套 Ch16pres 课件
- 资源描述:
-
1、161自适应谐振理论(ART)162竞争网络学习过程稳定性问题 稳定性:当有许多输入送进一个竞争网络时,不能保证网络总是形成稳定聚类,即不能保证权值会最终收敛。可塑性:网络的自适应性,即先前学到的内容被后面的学习内容破坏掉。稳定性/可塑性二难问题如何能让网络既能最大限度地接纳新的模式,同时又能保证较少地影响已学到的模式?163基本的ART体系结构第1层第2层调整子系统重置增益控制期望值输入ART1:处理二值离散信号;ART2:处理连续模拟信号;ART3:兼容前两种结构的功能并将两层网络扩大为任意多层网络。164ART 子系统第1层比较输入模式和期望值L1-L2 连接(Instars)完成聚类操
2、作W1:2的每一行是一个原型模式第2层竞争,对比度增强L2-L1连接(Outstars)期望值完成模式回忆W2:1的每一列是一个原型模式调整子系统当期望值和输入不匹配时重置废除当前取胜的神经元165ART1的第1层增益控制期望值二值向量二值向量166第1层的操作dn1t()dt-n1t()b+1n1t()pW2:1a2t +n1t()b-1+W-1a2t +=a1hardlim+n1=hardlim+n 1,n00,n0=并联模型:激励输入(与期望值比较)抑制输入(增益控制)Outstar回忆167第1层的激励输入pW2:1a2t +假设第2层的神经j竞争获胜(采用“胜者全得”的竞争方法):W
3、2:1a2w12:1w22:1wj2:1wS22:1001wj2:1=pW2:1a2+pwj2:1+=(W2:1的第j列)因此,激励输入是输入模式与L2-L1期望值的和:168第1层的抑制输入W-1a2t W-11 111 111 11=当第2层活跃时(一个神经元竞争获胜),增益控制是一个元素全为1的 维向量,当第2层不活跃时(所有神经元的输出是零),增益控制是一个0向量。增益控制:1S169稳定状态分析:情况Idni1dt-ni1b+1ni1 piwi j2:1aj2j1=S2+ni1b-1+aj2j1=S2+=情况I:第2层不活跃(每个a2j=0)dni1dt-ni1b+1ni1 pi+=
4、在稳定状态时:a1p=因此,如果第2层不活跃:0ni1b+1ni1pi+1pi+ni1b+1pi+=ni1b+1pi1pi+-=Pi取值为0或11610稳定状态分析:情况II情况II:第2层活跃(一个a2j=1)dni1dt-ni1b+1ni1 piwi j2:1+ni1b-1+=在稳定状态:0ni1b+1ni1 piwi j2:1+ni1b-1+1piwi j2:11+ni1b+1piwi j2:1+b-1+=ni1b+1piwi j2:1+b-12piwi j2:1+-=我们希望第1层使用逻辑AND运算结合输入向量和来自第2层的期望值:n1i0,如果w2:1i,j 和 pi 等于1;n1i
5、0,如果w2:1i,j 或 pi 等于0。b+12 b-10b+1b-10b+12 b-1b+1a1pwj2:1=因此,如果第2层活跃并且偏置满足上述条件:1611第1层小结如果第2层活跃(一个a2j=1)且满足 :a1pwj2:1=如果第2层不活跃(每个 a2j=0):a1p=b+12 b-1b+11612第1层的例子=0.1,+b1=1 和-b1=1.5W2:11 10 1=p01=0.1dn11dt-n111n11 p1w1 22:1+n111.5+n111n11 01+n111.5+3n110.5=0.1dn21dt-n211n21 p2w2 22:1+n211.5+n211n21 1
6、1+n211.5+4n210.5+=dn11dt-30n115=dn21dt-40n215+=设第2层活跃,并且神经元2赢得竞争。1613例子的响应n11t 16-1e30t=n21t 18-1e40 t=pw22:1011101a1=1614ART1的第2层加强中心抑制周围保证输出为二值信号用于“加强中心/抑制周围”式反馈连接1615第2层的操作激励输入加强中心反馈Instar识别抑制输入抑制周围反馈并联模型:n2t()b-2+W-2f2n2t()()?b+2n2t()W+2f2n2t()()W1:2a1+dn2t()dt-n2t()=1616第2层的例子0.1=b+211=b-211=W1
7、:2w1:21Tw1:22T0.5 0.510=f2n()10 n 2,n00,n0=0.1dn12t()dt-n12t()1n12t()f2n12t()()w1:21Ta1+n12t()1+f2n22t()()+=0.1dn22t()dt-n22t()1n22t()f2n22t()()w1:22Ta1+n22t()1+f2n12t()().+=(快于线性,胜者全得)考虑有两个神经元的一层:1617例子的响应w1:22Ta1n22t w1:21Ta1n12t a201=ta110=1618第2 层小结ai21,ifw1:2iTa1maxw1:2jTa1=0,otherwise=1619调整子系
展开阅读全文