P神经网络课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《P神经网络课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 课件
- 资源描述:
-
1、2022-6-61人工神经元模拟生物神经元的人工神经元模拟生物神经元的一阶特性一阶特性。输入:输入:X=(x1,x2,xn)联接权:联接权:W=(w1,w2,wn)T网络输入:网络输入:net=xiwi向量形式:向量形式:net=XW2022-6-62xn wnx1 w1x2 w2net=XW激活函数执行对该神经元所获得的网络输入的变换,激活函数执行对该神经元所获得的网络输入的变换,也可以称为激励函数、活化函数:也可以称为激励函数、活化函数: o=f(net) 1、线性函数(、线性函数(Liner Function) f(net)=k*net+c 2022-6-63netooc if netf
2、(net)= k*netif |net|0为一常数,被称为饱和值,为该神经元的最大输为一常数,被称为饱和值,为该神经元的最大输出。出。 2022-6-642022-6-65 - - net o if netf(net)=-if net 、均为非负实数,均为非负实数,为阈值为阈值二值形式:二值形式:1if netf(net)=0if net 双极形式:双极形式:1if netf(net)=-1if net 2022-6-66 2022-6-67-onet0压缩函数(压缩函数(Squashing Function)和逻辑斯特函数)和逻辑斯特函数(Logistic Function)。)。f(net
3、)=a+b/(1+exp(-d*net)a,b,d为常数。它的饱和值为为常数。它的饱和值为a和和a+b。最简单形式为:最简单形式为:f(net)= 1/(1+exp(-d*net) 函数的饱和值为函数的饱和值为0和和1。S形函数有较好的增益控制形函数有较好的增益控制 2022-6-682022-6-69a+b o(0,c)netac=a+b/2生物神经网生物神经网六个基本特征六个基本特征神经元及其联接神经元及其联接、信号传递信号传递、训练训练、刺激刺激与与抑制、累积效果抑制、累积效果、 阈值阈值。人工神经元的基本构成人工神经元的基本构成2022-6-610 xn wnx1 w1x2 w2net
4、=XW激活函数与激活函数与M-P模型模型 线性函数、非线性斜面函数、线性函数、非线性斜面函数、阈值函数阈值函数 S形函数形函数 M-P模型模型2022-6-611x2 w2 fo=f(net)xn wnnet=XWx1 w12022-6-612x1x2xno1o2omwnmw11w1mw2mwn1输出层输出层输入层输入层W=(wij)输出层的第输出层的第j个神经元的网络输入记为个神经元的网络输入记为netj:netj=x1w1j+x2w2j+xnwnj其中其中, 1 j m。取。取NET=(net1,net2,netm)NET=XWO=F(NET)2022-6-6132022-6-614输出层
5、输出层x1o1w11w1mx2o2w2mxnomwn1输入层输入层VV=(vij)NET=XW+OVO=F(NET)时间参数时间参数神经元的状态在主时钟的控制下同步变化神经元的状态在主时钟的控制下同步变化考虑考虑X总加在网上的情况总加在网上的情况NET(t+1)=X(t)W+O(t)VO(t+1)=F(NET(t+1)O(0)=0考虑仅在考虑仅在t=0时加时加X的情况。的情况。 稳定性判定稳定性判定2022-6-6152022-6-616输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xn层次划分层次划分 信号只被允许从较低层流向较高层。信号只被允许从较低层流向较高层。层号确定层的高低
6、:层号较小者,层次较层号确定层的高低:层号较小者,层次较低,层号较大者,层次较高。低,层号较大者,层次较高。输入层输入层:被记作第:被记作第0层。该层负责接收来自层。该层负责接收来自网络外部的信息网络外部的信息2022-6-617输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xn第第j层层:第:第j-1层的直接后继层(层的直接后继层(j0),它直接接),它直接接受第受第j-1层的输出。层的输出。输出层输出层:它是网络的最后一层,具有该网络的:它是网络的最后一层,具有该网络的最大层号,负责输出网络的计算结果。最大层号,负责输出网络的计算结果。隐藏层隐藏层:除输入层和输出层以外的其它各层
7、叫:除输入层和输出层以外的其它各层叫隐藏层。隐藏层不直接接受外界的信号,也不隐藏层。隐藏层不直接接受外界的信号,也不直接向外界发送信号直接向外界发送信号2022-6-618输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xn约定约定 : :输出层的层号为该网络的层数:输出层的层号为该网络的层数:n层网络,或层网络,或n级网络。级网络。第第j-1层到第层到第j层的联接矩阵为第层的联接矩阵为第j层联接矩阵,输出层对应的矩层联接矩阵,输出层对应的矩阵叫输出层联接矩阵。今后,在需要的时候,一般我们用阵叫输出层联接矩阵。今后,在需要的时候,一般我们用W(j)表示第表示第j层矩阵层矩阵。2022-
8、6-619输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xnW(1)W(2)W(3)W(h)2022-6-620输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xnW(1)W(2)W(3)W(h)非线性激活函数非线性激活函数 F(X)=kX+CF(X)=kX+CF F3 3(F(F2 2(F(F1 1(XW(XW(1)(1)W)W(2)(2)W)W(3)(3) )2022-6-6212022-6-622x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxn如果将输出信号反馈到输入端如果将输出信号反馈到输入端,就可构成一个多层就可构成一个多层的循环网络。的循环网络。输入的
9、原始信号被逐步地加强、被修复。输入的原始信号被逐步地加强、被修复。大脑的大脑的短期记忆特征短期记忆特征:看到的东西不是一下子就从看到的东西不是一下子就从脑海里消失的。脑海里消失的。稳定稳定:反馈信号会引起网络输出的不断变化。我们:反馈信号会引起网络输出的不断变化。我们希望这种变化逐渐减小,并且最后能消失。当变希望这种变化逐渐减小,并且最后能消失。当变化最后消失时,网络达到了平衡状态。如果这种化最后消失时,网络达到了平衡状态。如果这种变化不能消失,则称该网络是不稳定的。变化不能消失,则称该网络是不稳定的。 2022-6-623人工神经网络最具有吸引力的特点是它的学习能力。人工神经网络最具有吸引力
10、的特点是它的学习能力。1962年,年,Rosenblatt给出了人工神经网络著名的学习给出了人工神经网络著名的学习定理:人工神经网络可以学会它可以表达的任何东定理:人工神经网络可以学会它可以表达的任何东西。西。人工神经网络的表达能力大大地限制了它的学习能力。人工神经网络的表达能力大大地限制了它的学习能力。人工神经网络的学习过程就是对它的训练过程人工神经网络的学习过程就是对它的训练过程2022-6-624无导师学习无导师学习(Unsupervised Learning)与无导师训练与无导师训练(Unsupervised Training)相对应相对应 抽取样本集合中蕴含的统计特性抽取样本集合中蕴
11、含的统计特性,并以神经元之间的,并以神经元之间的联接权的形式存于网络中。联接权的形式存于网络中。2022-6-625有导师学习有导师学习(Supervised Learning)与有导师训练与有导师训练(Supervised Training)相对应。相对应。输入向量与其对应的输出向量构成一训练。输入向量与其对应的输出向量构成一训练。有导师学习的训练算法的主要步骤包括:有导师学习的训练算法的主要步骤包括:1) 从样本集合中取一个样本(从样本集合中取一个样本(Ai,Bi););2) 计算出网络的实际输出计算出网络的实际输出O; 3) 求求D=Bi-O;4) 根据根据D调整权矩阵调整权矩阵W; 5
12、 5) 对每个样本重复上述过程,直到对整个样本集来说,对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。误差不超过规定范围。 2022-6-626Widrow和和Hoff的写法的写法:Wij( (t+1) )=Wij( (t) )+( (yj- aj( (t)oi( (t) )也可以写成:也可以写成:Wij( (t+1) )=Wij( (t) )+Wij( (t) )Wij(t)(t)=joi(t)(t)j=yj- aj(t)(t)Grossberg的写法为:的写法为: Wij(t)=a(t)=ai i(t)(o(t)(oj j(t)-W(t)-Wijij(t)(t)更一般的更
13、一般的Delta规则为:规则为: Wij( (t) )=g( (ai(t),yj,oj( (t) ),Wij( (t)2022-6-6271 概述概述 2 基本基本BP算法算法 3 算法的改进算法的改进 4 算法的实现算法的实现 5 算法的理论基础算法的理论基础 6 几个问题的讨论几个问题的讨论 2022-6-6281、BP算法的出现算法的出现非循环多级网络的训练算法非循环多级网络的训练算法UCSD PDP小组的小组的Rumelhart、Hinton和和Williams1986年年独立地给出了独立地给出了BP算法清楚而简单的描述算法清楚而简单的描述1982年,年,Paker就完成了相似的工作就
14、完成了相似的工作1974年,年,Werbos已提出了该方法已提出了该方法2、弱点、弱点:训练速度非常慢、局部极小点的逃离问题、:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛。算法不一定收敛。3、优点:、优点:广泛的适应性和有效性。广泛的适应性和有效性。2022-6-6294、BP网络主要用于1)函数逼近:用输入向量和相应的输出向量训练一个网络逼近一个函数。2)模式识别:用一个特定的输出向量将它与输入向量联系起来。3)分类:把输入向量 以所定义的合适方式进行分类。4)数据压缩:减少输出向量维数以便于传输或存储。2022-6-6301 网络的构成网络的构成 神经元的网络输入:神经元的网络输
15、入:neti=x1w1i+x2w2i+xnwni神经元的输出:神经元的输出:2022-6-631netenetfo11)()1 ()()1 (1)(22ooooeenetfnetnet应该将应该将net的值尽量控制在收敛比较快的范围内的值尽量控制在收敛比较快的范围内可以用其它的函数作为激活函数,只要该函数是处处可导的可以用其它的函数作为激活函数,只要该函数是处处可导的2022-6-632 0.5f (net)0.25o0 1 1(0,0.5) net(0,0)oneteo112022-6-633x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxnW(1)W(2)W(3)W(L)1.BP
展开阅读全文