书签 分享 收藏 举报 版权申诉 / 42
上传文档赚钱

类型人工神经网络讲稿ch4课件.ppt

  • 上传人(卖家):晟晟文业
  • 文档编号:5188627
  • 上传时间:2023-02-16
  • 格式:PPT
  • 页数:42
  • 大小:505KB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《人工神经网络讲稿ch4课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    人工 神经网络 讲稿 ch4 课件
    资源描述:

    1、2/4/2023人工神经网络讲稿ch41第第4章章 BP网络网络 主要内容主要内容:BP网络的构成网络的构成隐藏层权的调整分析隐藏层权的调整分析 Delta规则理论推导规则理论推导算法的收敛速度及其改进讨论算法的收敛速度及其改进讨论 BP网络中的几个重要问题网络中的几个重要问题 重点:重点:BP算法算法 难点:难点:Delta规则的理论推导规则的理论推导 2/4/2023人工神经网络讲稿ch424.1 概述概述 1、BP算法的出现算法的出现非循环多级网络的训练算法非循环多级网络的训练算法UCSD PDP小组的小组的Rumelhart、Hinton和和Williams1986年年独立地给出了独立

    2、地给出了BP算法清楚而简单的描述算法清楚而简单的描述1982年,年,Paker就完成了相似的工作就完成了相似的工作1974年,年,Werbos已提出了该方法已提出了该方法2、弱点、弱点:训练速度非常慢、局部极小点的逃离问题、:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛算法不一定收敛3、优点:、优点:广泛的适应性和有效性。广泛的适应性和有效性。2/4/2023人工神经网络讲稿ch434.2 基本基本BP算法算法 4.2.1 网络的构成网络的构成 神经元的网络输入:神经元的网络输入:neti=x1w1i+x2w2i+xnwni神经元的输出:神经元的输出:netenetfo11)()1()

    3、()1(1)(22ooooeenetfnetnet2/4/2023人工神经网络讲稿ch44输出函数分析输出函数分析 0.5f(net)0.25o0 11(0,0.5)net(0,0)oneteo11应该将应该将net的值尽量控制在收敛比较快的范围的值尽量控制在收敛比较快的范围内内可以用其它的函数作为激活函数,只要该函数可以用其它的函数作为激活函数,只要该函数是处处可导的是处处可导的2/4/2023人工神经网络讲稿ch45网络的拓扑结构网络的拓扑结构x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxnW(1)W(2)W(3)W(L)2/4/2023人工神经网络讲稿ch46网络的拓扑结构网

    4、络的拓扑结构 BP网的结构网的结构输入向量、输出向量的维数、网络隐藏层输入向量、输出向量的维数、网络隐藏层的层数和各个隐藏层神经元的个数的决定的层数和各个隐藏层神经元的个数的决定实验:增加隐藏层的层数和隐藏层神经元实验:增加隐藏层的层数和隐藏层神经元个数不一定总能够提高网络精度和表达能个数不一定总能够提高网络精度和表达能力力BPBP网一般都选用二级网络网一般都选用二级网络2/4/2023人工神经网络讲稿ch47网络的拓扑结构网络的拓扑结构x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxnWV2/4/2023人工神经网络讲稿ch484.2.2 训练过程概述训练过程概述 样本:样本:(输

    5、入向量,理想输出向量输入向量,理想输出向量)权初始化:权初始化:“小随机数小随机数”与饱和状态;与饱和状态;“不不同同”保证网络可以学。保证网络可以学。1 1、向前传播阶段:、向前传播阶段:(1)从样本集中取一个样本)从样本集中取一个样本(Xp,Yp),将,将Xp输入网络;输入网络;(2)计算相应的实际输出)计算相应的实际输出Op:Op=Fl(F2(F1(XpW(1)W(2)W(L)2/4/2023人工神经网络讲稿ch494.2.2 训练过程概述训练过程概述 2 2、向后传播阶段、向后传播阶段误差传播阶段:误差传播阶段:(1)计算实际输出)计算实际输出Op与相应的理想输出与相应的理想输出Yp的

    6、差;的差;(2)按极小化误差的方式调整权矩阵。)按极小化误差的方式调整权矩阵。(3)网络关于第)网络关于第p p个样本的误差测度:个样本的误差测度:mjpjpjpoyE1221(4)网络关于整个样本集的误差测度:网络关于整个样本集的误差测度:ppEE2/4/2023人工神经网络讲稿ch4104.2.3 误差传播分析误差传播分析 1、输出层权的调整、输出层权的调整wpq=wpq+wpqwpq=qop=fn(netq)(yq-oq)op=oq(1-oq)(yq-oq)op wpqANpANq第第L-1层层第第L层层wpq2/4/2023人工神经网络讲稿ch4112 2、隐藏层权的调整、隐藏层权的调

    7、整 ANpANqANhvhppk-11kwp1wpqqkwpmmk第第k-2层层第第k层层第第k-1层层2/4/2023人工神经网络讲稿ch4122 2、隐藏层权的调整、隐藏层权的调整pk-1的值和的值和1k,2k,mk 有关有关不妨认为不妨认为pk-1通过权通过权wp1对对1k做出贡献,做出贡献,通过权通过权wp2对对2k做出贡献,做出贡献,通过权通过权wpm对对mk做出贡献。做出贡献。pk-1=fk-1(netp)(wp11k+wp22k+wpmm k)2/4/2023人工神经网络讲稿ch4132 2、隐藏层权的调整、隐藏层权的调整vhp=vhp+vhp vhp=pk-1ohk-2=fk-

    8、1(netp)(wp11k+wp22k+wpmmk)ohk-2=opk-1(1-opk-1)(wp11k+wp22k+wpmmk)ohk-2ANpANqANhvhppk-11kwp1wpmqkwpqmk第第k-2层层第第k层层第第k-1层层2/4/2023人工神经网络讲稿ch4144.2.4 基本的基本的BP算法算法 样本集:样本集:S=(X1,Y1),(,(X2,Y2),),(,(Xs,Ys)基本思想基本思想:逐一地根据样本集中的样本逐一地根据样本集中的样本(Xk,Yk)计算出实际输计算出实际输出出Ok和误差测度和误差测度E1,对,对W(1),W(2),W(L)各各做一次调整,重复这个循环,

    9、直到做一次调整,重复这个循环,直到Ep do 4.1 E=0;2/4/2023人工神经网络讲稿ch416算法算法4-1基本基本BP算法算法 4.2 对对S中的每一个样本(中的每一个样本(Xp,Yp):):4.2.1 计算出计算出Xp对应的实际输出对应的实际输出Op;4.2.2 计算出计算出Ep;4.2.3 E=E+Ep;4.2.4 根据相应式子调整根据相应式子调整W(L);4.2.5 k=L-1;4.2.6 while k0 do 4.2.6.1 根据相应式子调整根据相应式子调整W(k);4.2.6.2 k=k-1 4.3 E=E/2.0 2/4/2023人工神经网络讲稿ch4174.3 算法

    10、的改进算法的改进 1、BP网络接受样本的顺序对训练结果有较大网络接受样本的顺序对训练结果有较大影响。它更影响。它更“偏爱偏爱”较后出现的样本较后出现的样本2、给集中的样本安排一个适当的顺序,是非常给集中的样本安排一个适当的顺序,是非常困难的。困难的。3、样本顺序影响结果的原因:样本顺序影响结果的原因:“分别分别”、“依依次次”4、用用(X1,Y1),(,(X2,Y2),),(,(Xs,Ys)的)的“总效果总效果”修改修改W(1),W(2),W(L)。w(k)ij=p w(k)ij2/4/2023人工神经网络讲稿ch418算法算法4-2 4-2 消除样本顺序影响的消除样本顺序影响的BP算法算法

    11、1 for k=1 to L do1.1 初始化初始化W(k);2 初始化精度控制参数初始化精度控制参数;3 E=+1;4 while E do 4.1 E=0;4.2 对所有的对所有的i,j,k:w(k)ij=0;2/4/2023人工神经网络讲稿ch4194.3 对对S中的每一个样本(中的每一个样本(Xp,Yp):):4.3.1 计算出计算出Xp对应的实际输出对应的实际输出Op;4.3.2 计算出计算出Ep;4.3.3 E=E+Ep;4.3.4 对所有对所有i,j根据相应式子计算根据相应式子计算p w(L)ij;4.3.5 对所有对所有i,j:w(L)ij=w(L)ij+p w(L)ij;4

    12、.3.6 k=L-1;4.3.7 while k0 do4.3.7.1 对所有对所有i,j根据相应式子计算根据相应式子计算p w(k)ij;4.3.7.2 对所有对所有i,j:w(k)ij=w(k)ij+p w(k)ij;4.3.7.3 k=k-1 4.4 对所有对所有i,j,k:w(k)ij=w(k)ij+w(k)ij;4.5 E=E/2.0 2/4/2023人工神经网络讲稿ch420算法算法4-2 分析分析 较好地解决了因样本的顺序引起的精度问较好地解决了因样本的顺序引起的精度问题和训练的抖动问题题和训练的抖动问题 收敛速度:比较慢收敛速度:比较慢 偏移量:给每一个神经元增加一个偏移量偏移

    13、量:给每一个神经元增加一个偏移量来加快收敛速度来加快收敛速度 冲量冲量:联接权的本次修改要考虑上次修改联接权的本次修改要考虑上次修改的影响,以减少抖动问题的影响,以减少抖动问题 2/4/2023人工神经网络讲稿ch421算法算法4-2 分析分析冲量设置冲量设置 Rumelhart等人等人1986年年 wij=joi+wij wij为上一次的修改量,为上一次的修改量,为冲量系数,一般可为冲量系数,一般可取到取到0.9 Sejnowski与与Rosenberg,1987年年 wij=(1-)joi+wij)wij也是上一次的修改量,也是上一次的修改量,在在0和和1之间取值之间取值 2/4/2023

    14、人工神经网络讲稿ch4224.4 算法的实现算法的实现 主要数据结构主要数据结构WH,m输出层的权矩阵;输出层的权矩阵;Vn,H输入(隐藏)层的权矩阵;输入(隐藏)层的权矩阵;om输出层各联接权的修改量组成的向量;输出层各联接权的修改量组成的向量;hH隐藏层各联接权的修改量组成的向量;隐藏层各联接权的修改量组成的向量;O1隐藏层的输出向量;隐藏层的输出向量;O2输出层的输出向量;输出层的输出向量;(X,Y)一个样本。一个样本。2/4/2023人工神经网络讲稿ch423算法的主要实现步骤算法的主要实现步骤 用不同的小伪随机数初始化用不同的小伪随机数初始化W,V;初始化精度控制参数初始化精度控制参

    15、数;学习率;学习率;循环控制参数循环控制参数E=+1;循环最大次数;循环最大次数M;循环次数控制参数循环次数控制参数N=0;while E&N0,此时,此时wij0取取ijwEE0wij2/4/2023人工神经网络讲稿ch431ijjjijwnetnetEwE而其中的而其中的kkkjjownet所以,所以,iijkkkjijjowowwnet最速下降法,要求最速下降法,要求E的极小点的极小点2/4/2023人工神经网络讲稿ch432ijijkkkjjijjjijonetEwownetEwnetnetEwE令令jjnetE所以所以wij=joi为学习率为学习率最速下降法,要求最速下降法,要求E的

    16、极小点的极小点2/4/2023人工神经网络讲稿ch433ANj为输出层神经元为输出层神经元 oj=f(netj)容易得到容易得到)net(fnetojjj)net(foEnetooEnetEjjjjjjj从而从而2/4/2023人工神经网络讲稿ch434)()(22()21(21212jjjjjjjjmkkkjoyoyooyooyoEANj为输出层神经元为输出层神经元2/4/2023人工神经网络讲稿ch435所以,所以,)net(f)oy(jjjj故,当故,当ANj为输出层的神经元时,它对应为输出层的神经元时,它对应的联接权的联接权wij应该按照下列公式进行调整:应该按照下列公式进行调整:ij

    17、jjijijijijo)oy)(net(fwowwANj为输出层神经元为输出层神经元2/4/2023人工神经网络讲稿ch436ANj为隐藏层神经元为隐藏层神经元 jjjjjnetooEnetE)net(fnetojjj)net(foEjjjm1k2kk)oy(21E函数2/4/2023人工神经网络讲稿ch437ANj为隐藏层神经元为隐藏层神经元netk=hHlllkow1hH1kjkkj)onetnetE(oEjkjHlllkjkwoowoneth1oio2o1oHhnetk是是 oj下一级的神下一级的神经元的网络输入经元的网络输入oj2/4/2023人工神经网络讲稿ch438ANj为隐藏层神

    18、经元为隐藏层神经元hhH1kjkkH1kjkkjwnetEonetnetEoE hH1kjkkjwoEkknetE2/4/2023人工神经网络讲稿ch439ANj为隐藏层神经元为隐藏层神经元)net(fw)net(foEjH1kjkkjjjh)net(fwjH1kjkkjh2/4/2023人工神经网络讲稿ch440ANj为隐藏层神经元为隐藏层神经元ijH1kjkkijo)net(fwwhijH1kjkkijijo)net(fwwwh2/4/2023人工神经网络讲稿ch4414.6 几个问题的讨论几个问题的讨论 收敛速度问题收敛速度问题 局部极小点问题局部极小点问题 逃离逃离/避开局部极小点避开

    19、局部极小点:修改修改W、V的初值的初值并不是总有效。并不是总有效。逃离逃离统计方法;统计方法;Wasserman,1986将将Cauchy训练与训练与BP算法结合起来,可以在保证算法结合起来,可以在保证训练速度不被降低的情况下,找到全局极小点。训练速度不被降低的情况下,找到全局极小点。2/4/2023人工神经网络讲稿ch4424.6 几个问题的讨论几个问题的讨论 网络瘫痪问题网络瘫痪问题 在训练中,权可能变得很大,这会使神经元的在训练中,权可能变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的网络输入变得很大,从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子,导函数在此点上的取值很小。根据相应式子,此时的训练步长会变得非常小,进而将导致训此时的训练步长会变得非常小,进而将导致训练速度降得非常低,最终导致网络停止收敛练速度降得非常低,最终导致网络停止收敛 稳定性问题稳定性问题 用修改量的综合实施权的修改用修改量的综合实施权的修改连续变化的环境,它将变成无效的连续变化的环境,它将变成无效的

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:人工神经网络讲稿ch4课件.ppt
    链接地址:https://www.163wenku.com/p-5188627.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库