第五章神经网络原理与控制v2课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《第五章神经网络原理与控制v2课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第五 神经网络 原理 控制 v2 课件
- 资源描述:
-
1、第五章 神经网络原理5.1 神经网络的基本概念5.2 前向神经网络及主要算法5.3 反馈网络5.4 神经网络控制2022-11-21神经系统 的复杂性2022-11-212022-11-212022-11-212022-11-212022-11-212022-11-212022-11-215.1 神经网络的基本概念5.1.1 生物神经元2022-11-215.1.1 生物神经元n人的大脑由人的大脑由1012个神经元构成,神经元互个神经元构成,神经元互相连接成神经网络相连接成神经网络n神经元组成:细胞体为主体n神经元功能:刺激、兴奋、传导、效应n形状图n突触传递信息特点2022-11-21形状图
2、2022-11-215.1.2 人工神经元模型BNN 信息传递过程 为 MISO 系统,信号为脉冲,当脉冲到达突触前膜时,前膜释放化学物质,结果在突触后产生突触后电位,其大小与脉冲密度有关(时间总合效应)。各通道都对电位产生影响(空间总合效应)2022-11-21 BNN 脉冲,ANN 模拟电压nANN等效模拟电压近似BNN脉冲密度,仅有空间累加无时间累加(可认为时间累加已隐含于等效模拟电压之中)nANN中未考虑时延、不应期及疲劳等 可建立更为精确的模型,但一般NN研究无此必要(方法论)2022-11-21人工神经元模型 BNN 信息传递过程 为 MISO 系统,信号为脉冲,当脉冲到达突触前膜
3、时,前膜释放化学物质,结果在突触后产生突触后电位,其大小与脉冲密度有关(时间总合效应)。各通道都对电位产生影响(空间总合效应)。2022-11-21 单个神经元特性单个神经元特性 神经元的神经元的膜电位膜电位与时间关系如下与时间关系如下spike2022-11-21实际神经元记录:膜电位膜电位Recording from a real neuron:membrane potential2022-11-21神经元模型(1)n神经元是人工神经网络的基本处理单元,它一般是一个多输入/单输出的非线性元件。神经元输出除受输入信号的影响之外,同时也受到神经元内部其他因素的影响,所以在人工神经元的建模中,常
4、常还加有一个额外输入信号,称为偏差(bias),有时也称为阈值或门限值。2022-11-21神经元模型(2)n。2022-11-21抽象可得数学表达式:i 加权值(weights)阀值(threshold)(s)作用函数(activated transfer function)1(11)niiiSx()(12)ys2022-11-21作用函数的基本作用n1、控制输入对输出的激活作用;n2、对输入、输出进行函数转换;n3、将可能无限域的输入变换成指定的有限范围内的输出。2022-11-21几种常用的作用函数 1、阀值型(硬限制型)2、线性型 3、S型函数(Sigmoid)4、辐射基函数2022-
5、11-21(1)、阀值型(硬限制型)0*0 0*1 )*(bPWbPWbPWfA生物学背景:生物学背景:神经细胞的兴奋与抑制;单极性2022-11-210*1 0*1 )*(bPWbPWbPWfA生物学背景:神经细胞的兴奋与抑制:双极性2022-11-21(2)、线性型a)全线性 n bPWbPWfA*)*(生物学背景:神经细胞的比例作用(全方位)2022-11-21b)正线性0*n 0*0 )*(bPWbPWbPWfA生物学背景:神经细胞的线性比例作用(单方向)2022-11-21(3)、S型函数(Sigmoid)a)对数正切 y=1/(e-n+1)生物学背景:神经细胞的非线性比例作用(单向
6、)2022-11-21b)双曲正切 y=tanh(n)生物学背景:神经细胞的非线性比例作用(全方位)2022-11-21(4)辐射基函数a)高斯函数生物学背景:视觉,听觉等类神经细胞的区域性非线性用2022-11-21b)三角波函数生物学背景:视觉,听觉等类神经细胞的区域性非线性用的线性近似2022-11-215.2.2 人工神经网络的构成n基本模型n连接的几种基本形式n前向网络(feed-forward Networks)n回归网络(recurrent Networks)n互联网络(全互连与局部互连)n也可是以上几种形式的组合2022-11-21人工神经网络种类1).前向型 感知器、线性网络
7、(ADALINE),BP网络 RBF 网络,2).反馈型 Hopfield 网络3).竞争型 ART,SOFM等2022-11-21Perceptron 应用举例1。水果分类Matlab 演示 nnd3pc.m(chap 3)2022-11-21前向型神经网络基本模型 2022-11-21前向网络n结构图2022-11-21前向网络特点 1).神经元分层排列,可又多层 2).层间无连接 3).方向由入到出 多层感知器(BP)网络 (perceptron/BP即为 此)应用最为广泛2022-11-21回归网络全反馈结构图2022-11-21Inner RNN结构图2022-11-21回归网络特点
8、nOutput 与 Input相连(全反馈)特点:1.内部前向 2.输出反馈到输入 例:Fukushima网络nInner recurrent 特点:层间元互相连接2022-11-21互联网络n结构图 2022-11-21互联网络特点n每个元都与其它元相连 例:Hopfield Boltzmann机 2022-11-21Hopfield反馈神经网络结构2022-11-21反馈网络特点n系统:反馈动力学系统,有一稳定时间n作用:联想记忆,求解优化问题2022-11-21ANN与BNN的比较BNNANN单元上差别单元上差别影响因素多忽略了影响关系简单信息上差别信息上差别脉冲模拟电压规模及智能规模及
9、智能大,高小 H a 1=tansig(IW 1,1 p 1+b 1)tansig(x)=tanh(x)=(ex-e-x)/(ex+e-x)nH-O a 2=purelin(LW 2,1 a 1+b 2)输入层神经元个数nn隐含层神经元个数s1n输出层神经元个数s22022-11-21学习(训练)的基本原理采用最小二乘方法,利用梯度搜索技术,使网络的实际输出值与期望输出值的误差均均方值最小。基本的EBP算法是极小化二次性指标函数E而得到的。1mkkEE2222,1111()22sski ki ki kiiEyye2022-11-21学习(训练)n输入q组样本 p1,p2,.,pq piRnn期
10、望输出 T1,T2,.,Tq,T Rs2n网络输出a21,a22,.,a2qa2Rs2n p1t1,p2t2,pQtQ,Fx E e2=E ta2=均方误差Fx EeTe=Et aTt a=向量情况Fx tk ak Ttk ak eTk ek =2022-11-21BP算法流程(学习算法)由两部分组成:信息的正向传播和误差的反向传播。在正向传播过程中,输入信息从输入经隐含层逐层计算传向输出层,每一层神经元的状态只影响下一层的神经元的状态。如果在输出层没有得到期望的输出,则计算输出层的误差变化值,然后转向反向传播,通过网络将误差信号沿原来的连接通道反传回来修改各层神经元的权值直到达到期望目标。2
11、022-11-21学习过程设输入为P,输入神经元有r个,隐含层内有s1个神经元,作用函数为f1,输出层内有s2个神经元,对应的作用函数为f2,输出为A,目标为T。2022-11-21学习(训练)2n解决方法 误差最小n实质为一个优化问题n思路1:梯度法(gradient)n找出误差与加权系数的关系 n得到加权系数改变的规律2022-11-21梯度法原理(1)1.对无约束极值问题min()nf XXR设:F(X)二次可微,具有极小点X*,()()()()()()()()()()()()(1)()()()()()()()()lim0()0()()kkkkkkTkkTkkkkkkkXXPfXfXPf
12、XfXPoofXPfXPfXXXP可 保 证11/21/202284梯度法原理(2)()()()()()()()()cos()kTkkkkkfXPfXPPfX可以使函数值下降最快2022-11-21最速下降法,要求最速下降法,要求E的极小点的极小点 ijijwEwwijijwEE0,此时,此时wij0取取ijwEE0wij2022-11-21学习训练算法(思路)mkkEE1wi jmk1+wi jmk Fwi jm-=bimk1+bimk Fbim-=近似最陡下降法2022-11-21链式法则f n wdwd-f n dnd-n wdwd-=f n n cos=ne2w=f n w e2wco
13、s=f n w dwd-f n dnd-n w dwd-n sin 2e2we2wsin 2e2w=例应用于梯度计算Fwi jm-Fnim-nimwi jm-=Fbim-Fnim-nimbim-=2022-11-211)信息的正向传递隐含层中的第i个神经元的输出为:111(11),1,2,1riijjijafwpbis输出层第k个神经元的输出为:1122(212),1,2,2skkiikiafwabks定义误差函数为:2211(,)(2)2skkkE W Bta2022-11-21学习训练算法 正向传播I-H H-O 2.计算误差 ek=tk-a2k111111(1)niijjijiiNetw
14、pbafNet11221222(2)SkkiikikkNetwabafNet2022-11-21寻找加权系数改变与误差的关系考虑一个样本输入到网络的情况,此时误差平方和为1。输出层权系数的调整(误差与输出层关系直接)221212111 E(W,B)(2)212(212)2SkkkSSkkiikkitatfwab22222kkikikkiEENetwwNetw net2k2022-11-21定义:因为:式中:11222222212kkkkkSkkiikiaEEN etaN etN etwab (2)222(2)2(2)122kkkkkkkkEtaaafNetfNetNetNet 2=12kiki
15、Netaw2022-11-2122222 (2)2211kkikikkikikkiNetEEwwNetwtafaa2(2)22 1kkkkbtaf 小结:11/21/2022隐含层权系数的修正ANiANkANjw1ij1i21w2k1w2ki2kw2km2m输入层输入层输出层输出层隐含层隐含层2022-11-21隐含层权系数的修正111ijiiEapaNet 1(1)1ijiEfNetpa 1ijp 111111iijjijiijiEENetEwpwNetwNet 误差e与w1无显函数关系,采用链式法则找关系111111(1)niijjijiiNetw pbafNet11221222(2)Sk
16、kiikikkNetwabafNet11/21/202295 不能直接计算,需通过其他量间接计算1iEa212111212121 2121 22SkkikiSSkiikikiSkkikEENetaNetaEwaNetaw 2212211 E(W,B)(2)212(2)2SkkkSkkktatfNet11221222(2)SkkiikikkNetwabafNet2022-11-2196隐含层权值修正小结:212111(1)221 11(1)22 SijijikkijkSiikkikwpfNetwpfNetw11*11iiib 2022-11-21总结输出节点k隐含节点j统一形式22122kiki
17、kkkwata211111(11)22 ijijSiiikkikwpaaw10,1,2immmijjwamap 2022-11-21BP算法解释输出层误差 ej(j=1s2)隐含层误差 ei(i=1n1)ei与ej的关系?ei可以认为是由ej加权组合形成的。由于作用函数的存在,ej的等效作用为 j i=ejf()212sikkikew2022-11-21 初始化 加输入和期望输出计算隐层和输出层的输出迭代次数加1调节输出层和隐层的连接权值2(1)2()1(1)21()11kikikiijijijwtwtwttapw 改变训练样板训练样终止?迭代终止?BP算法的基本流程NoNoyy2022-11
18、-21n导数nlogsigmatlab 函数:dA_dN=dlogsig(N,A)ntansignmatlab 函数:dA_dN=dtansig(N,A)1()1()()(1()xf xefxf xf x2()()1()xxxxeefxeefxfx2022-11-21小结n感知器网络 分类nBP网络分类与函数逼近 反向传播学习算法,调整权值。讲解1)示例2)MATLAB 实现2022-11-21示例:函数逼近 1-2-1Network+-taexgx 1/x=2022-11-211 1.021.0,12 0.5,12 0,0.5WWVVbbb,2022-11-21修正公式:1.前向计算2.权值
19、修正1 122,1,2(),1,2iiiiiIOsw xbizf siyv zv zb,1,2(),1,2()1,2iiiiiiiietyvezibewev fs xibev fsi 2022-11-21具体步骤(一步):前向计算(输入输出计算)y1/1=1s1=w1*x+b1=-1.0*1.0+0=-1.0;s2=w2*x+b2=1.0*1.0+0=1.0z1=logsig(s1)=logsig(-1.0)=0.7311;z2=logsig(s2)=logsig(1.0)=0.2689t=v1*z1+v2*z2+b=0.7311+0.2689+0.5=1.5误差计算 e=1-1.5=-0.5
展开阅读全文