书签 分享 收藏 举报 版权申诉 / 190
上传文档赚钱

类型BP人工神经网络及matlab实现课件.ppt

  • 上传人(卖家):晟晟文业
  • 文档编号:5217863
  • 上传时间:2023-02-17
  • 格式:PPT
  • 页数:190
  • 大小:1.82MB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《BP人工神经网络及matlab实现课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    BP 人工 神经网络 matlab 实现 课件
    资源描述:

    1、BP人工神经人工神经网络网络本章的基本内容本章的基本内容nRumelhart,McClelland于于1985年提出了年提出了BP网络的误差网络的误差反向后传反向后传BP(Back Propagation)学习算法学习算法nBP算法基本原理算法基本原理q利用输出后的误差来估计输出层的直接前导层的误差,利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。反传下去,就获得了所有其他各层的误差估计。J.McClelland David Rumelhart BP网络是一种前

    2、向映射网络。网络的结构见下一页的图形。其中:u是网络的输入向量,y是网络的输出向量。神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层)。前层节点至后层节点通过权联接。由于这种网络常常用BP学习算法后的网络权值,所以常称BP人工神经网络。5-1 网络结构和模型网络结构和模型5-1 网络结构和模型网络结构和模型 u y u y 5-1 网络结构与模型网络结构与模型 njuuu1 yx nw 1w )(xf 5-1 网络结构和模型网络结构和模型 BP网络的神经元模型是改进了感知器神经元模型得到的。输入层:隐层:输出层:fxex()=+-11fxeexx()=-

    3、+-11fxeexx()=-+-11fxex()=+-11()f xkx=1,()ijwf xx=5-2 BP网络的学习算法网络的学习算法 多层前馈网络的反向传播多层前馈网络的反向传播 (BPBP)学习算法,)学习算法,简称简称BPBP学习算法,这是一种有导师的学习算法学习算法,这是一种有导师的学习算法,是是梯度下降法梯度下降法在多层前馈网中的应用。在多层前馈网中的应用。BPBP学习算法学习算法可以看成是线性自适应神经元学可以看成是线性自适应神经元学习算法的进一步推广。习算法的进一步推广。BPBP学习算法学习算法=前向计算过程前向计算过程+误差反向传播过程误差反向传播过程前向计算过程:也是网络

    4、应用时的实现过程。前向计算过程:也是网络应用时的实现过程。误差反向传播过程:是误差反向传播过程:是BP网络权值的学习和网络权值的学习和 训练过程。训练过程。5-2-1 BP5-2-1 BP学习算法概述学习算法概述n学习的类型:学习的类型:有导师学习有导师学习n核心思想:核心思想:q将将输出误差输出误差以某种形式以某种形式通过通过隐层隐层向向输入层输入层逐层反传逐层反传n学习的过程:学习的过程:q信号的正向传播信号的正向传播 误差的反向传播误差的反向传播将误差分摊给各层的所有将误差分摊给各层的所有单元各层单元的误单元各层单元的误差信号差信号修正各单元权修正各单元权值值5-2 BP网络的学习算法网

    5、络的学习算法5-2-1 BP5-2-1 BP学习算法概述学习算法概述n正向传播:正向传播:q输入样本输入层各隐层输出层输入样本输入层各隐层输出层n判断是否转入反向传播阶段:判断是否转入反向传播阶段:q若输出层的实际输出与期望的输出(教师信号)不符若输出层的实际输出与期望的输出(教师信号)不符n误差反传误差反传q误差以某种形式在各层表示修正各层单元的权值误差以某种形式在各层表示修正各层单元的权值n网络输出的误差减少到可接受的程度网络输出的误差减少到可接受的程度 或者进行到预先设定的学习次数为止或者进行到预先设定的学习次数为止5-2 BP网络的学习算法网络的学习算法5-2-1 BP5-2-1 BP

    6、学习算法概述学习算法概述n网络结构网络结构 输入层有输入层有n n个神经元,隐含层有个神经元,隐含层有p p个神经元,输出个神经元,输出层有层有q q个神经元。个神经元。n变量定义变量定义q输入向量输入向量;q隐含层输入向量;隐含层输入向量;q隐含层输出向量隐含层输出向量;q输出层输入向量输出层输入向量;q输出层输出向量输出层输出向量;q期望输出向量期望输出向量;12,nxxx=Lx12,phihihi=hi12,pho hoho=ho12,qyiyiyi=yi12,qyo yoyo=yo12,qddd=odL5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描

    7、述学习算法的描述q输入层与中间层的连接权值:q隐含层与输出层的连接权值:q隐含层各神经元的阈值:q输出层各神经元的阈值:q样本数据个数:q激活函数:q误差函数:ihwf()howhb1,2,km=ob211()()2qoooedkyo k=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第一步,网络初始化第一步,网络初始化 给各连接权值分别赋一个区间(给各连接权值分别赋一个区间(-1,1)内的随机)内的随机数,设定误差函数数,设定误差函数e,给定计算精度值,给定计算精度值 和最大学和最大学习次数习次数M。n第二步第二步,随机选取第随机选取

    8、第 个输入样本及对应期望个输入样本及对应期望输出输出 k12()(),(),()nkx k x kx k=x12()(),(),()qkd kdkdk=od5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第三步,计算隐含层各神经元的输入和输出第三步,计算隐含层各神经元的输入和输出1()()1,2,nhihihihi kw x kbhp=-=()f()1,2,hhho khi khp=1()()1,2,pohohohyi kw ho kboq=-=()f()1,2,ooyo kyi koq=5-2 BP网络的学习算法网络的学习算法5-2-2

    9、BP5-2-2 BP学习算法的描述学习算法的描述n第四步,利用网络期望输出和实际输出,计算第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数误差函数对输出层的各神经元的偏导数 。ohoohoyieewyiw=()()()phohoohhhohow ho kbyi kho kww-=211()()2()()()()()f()()qooooooooooood kyo ked kyo k yokyiyid kyo kyi kk=-=-=-()ok5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第五步,利用隐含层到输出层的连

    10、接权值、输第五步,利用隐含层到输出层的连接权值、输出层的出层的 和隐含层的输出计算误差函数对隐和隐含层的输出计算误差函数对隐含层各神经元的偏导数含层各神经元的偏导数 。()()oohhoohoyieek ho kwyiw=-1()()()()()hihhihnihihhiiihihhi keewhi kww x kbhi kx kww=-=()hk()ok5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述21212111()()()2()()()1()f()()2()()1()f()()2()()qooohhhhqooohhhqpohohooh

    11、hhhdkyokhokehikhokhikdkyikhokhokhikdkw hokbhokhokhik=-=-=-=11()()()f()()()f()()qhooohoohqohohhoho kdkyo kyi kwhi kk whi kk=-=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第六步,利用输出层各神经元的第六步,利用输出层各神经元的 和隐含层各和隐含层各神经元的输出来修正连接权值神经元的输出来修正连接权值 。n第七步,利用隐含层各神经元的第七步,利用隐含层各神经元的 和输入层各和输入层各神经元的输入修正连接权。神经元的

    12、输入修正连接权。1()()()()()hoohhoNNhohoohewkk ho kwwwk ho k+=-=+()ok()howk()hk1()()()()()()()hihhiihhihNNihihhihi keewkk x kwhi kwwwk x k+=-=-=+5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第八步,计算全局误差第八步,计算全局误差n第九步,判断网络误差是否满足要求。当误差第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选

    13、取下一个学习样本及对则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学应的期望输出,返回到第三步,进入下一轮学习。习。2111()()2qmookoEdkykm=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述 情况一的直观表达情况一的直观表达 当误差对权值的当误差对权值的偏导数大于零时,权偏导数大于零时,权值调整量为负,实际值调整量为负,实际输出大于期望输出,输出大于期望输出,权值向减少方向调整,权值向减少方向调整,使得实际输出与期望使得实际输出与期望输出的差减少。输出的差减少。whohoewe0,此时,此时

    14、who05-2 BP网络的学习算法网络的学习算法5-2-3 BP5-2-3 BP学习算法的直观解释学习算法的直观解释 情况二的直观表达情况二的直观表达当误差对权值的偏导数当误差对权值的偏导数小于零时,权值调整量小于零时,权值调整量为正,实际输出少于期为正,实际输出少于期望输出,权值向增大方望输出,权值向增大方向调整,使得实际输出向调整,使得实际输出与期望输出的差减少。与期望输出的差减少。hoewe0who5-2 BP网络的学习算法网络的学习算法5-2-3 BP5-2-3 BP学习算法的直观解释学习算法的直观解释nBPBP算法算法手控手控演示演示函函 数数 名名功功 能能newff()生成一个前

    15、馈生成一个前馈BP网络网络tansig()双曲正切双曲正切S型型(Tan-Sigmoid)传输函数传输函数logsig()对数对数S型型(Log-Sigmoid)传输函数传输函数traingd()梯度下降梯度下降BP训练函数训练函数5-3-1 BP5-3-1 BP神经网络的重要函数神经网络的重要函数5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能qnewff()n功能功能 建立一个前向建立一个前向BP网络网络n格式格式 net=newff(PR,S1 S2.SN1,TF1 TF2.TFN1,BTF,BLF,PF)n说明说明 net为创建的新为创建的新BP神经网络;神经网络;

    16、PR为网络输入取向为网络输入取向量取值范围的矩阵;量取值范围的矩阵;S1 S2SNl表示网络隐含层和输表示网络隐含层和输出层神经元的个数;出层神经元的个数;TFl TF2TFN1表示网络隐含层表示网络隐含层和输出层的传输函数,默认为和输出层的传输函数,默认为tansig;BTF表示网络表示网络的训练函数,默认为的训练函数,默认为trainlm;BLF表示网络的权值表示网络的权值学习函数,默认为学习函数,默认为learngdm;PF表示性能数,默认表示性能数,默认为为mse。5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能5-3-2 BP5-3-2 BP神经网络中函数的基本功

    17、能神经网络中函数的基本功能 qtansig()n功能功能 正切正切sigmoid激活函数激活函数n格式格式 a=tansig(n)n说明说明 双曲正切双曲正切Sigmoid函数把神函数把神经元的输入范围从经元的输入范围从(-,+)映射映射到到(-1,1)。它是可导函数,适用。它是可导函数,适用于于BP训练的神经元。训练的神经元。qlogsig()n功能功能 对数对数Sigmoid激活函数激活函数n格式格式 a=logsig(N)n说明对数说明对数Sigmoid函数把神经元函数把神经元的输入范围从的输入范围从(-,+)映射到映射到(0,1)。它是可导函数,适用于。它是可导函数,适用于BP训训练的

    18、神经元。练的神经元。5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能5-3-2 BP5-3-2 BP神经网络中函数的基本功能神经网络中函数的基本功能 下表为某药品的销售情况,现构建一个如下的三层下表为某药品的销售情况,现构建一个如下的三层BP神经网神经网络对药品的销售进行预测:输入层有三个结点,隐含层结点数为络对药品的销售进行预测:输入层有三个结点,隐含层结点数为5,隐含层的激活函数为隐含层的激活函数为tansig;输出层结点数为;输出层结点数为1个,输出层的激活个,输出层的激活函数为函数为logsig,并利用此网络对药品的销售量进行预测,预测方法,并利用此网络对药品的销售

    19、量进行预测,预测方法采用滚动预测方式,即用前三个月的销售量来预测第四个月的销采用滚动预测方式,即用前三个月的销售量来预测第四个月的销售量,如用售量,如用1、2、3月的销售量为输入预测第月的销售量为输入预测第4个月的销售量,用个月的销售量,用2、3、4月的销售量为输入预测第月的销售量为输入预测第5个月的销售量个月的销售量.如此反复直至满足如此反复直至满足预测精度要求为止。预测精度要求为止。月份123456销量205623952600229816341600月份789101112销量1873147819001500204615565-4 一个简单的例子一个简单的例子%以每三个月的销售量经归一化处理

    20、后作为输入以每三个月的销售量经归一化处理后作为输入P=0.51520.81731.0000;0.81731.00000.7308;1.00000.73080.1390;0.73080.13900.1087;0.13900.10870.3520;0.10870.35200.0000;%以第四个月的销售量归一化处理后作为目标向量以第四个月的销售量归一化处理后作为目标向量T=0.7308 0.1390 0.1087 0.3520 0.0000 0.3761;%创建一个创建一个BP神经网络,每个输入向量的取值范围为神经网络,每个输入向量的取值范围为0,1,5个隐层神经元,一个输出层神经元,隐层的激活函

    21、数个隐层神经元,一个输出层神经元,隐层的激活函数tansig,输出层激活函数,输出层激活函数logsig,训练函数为梯度下降函数。,训练函数为梯度下降函数。net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd);net.trainParam.epochs=15000;net.trainParam.goal=0.01;LP.lr=0.1;%设置学习速率为设置学习速率为0.1net=train(net,P,T);5-4 一个简单的例子一个简单的例子 由对比图可以看出由对比图可以看出预测效果与实际存在预测效果与实际存在一定误差,此误差可一定误差,此误差可以通

    22、过增加运行步数以通过增加运行步数和提高预设误差精度和提高预设误差精度业进一步缩小。业进一步缩小。nBP网络应用于药品预测对比图网络应用于药品预测对比图5-4 一个简单的例子一个简单的例子n非线性映射能力非线性映射能力 能学习和存贮大量输入能学习和存贮大量输入-输出模式映射关系,无需输出模式映射关系,无需事先了解描述这种映射关系的数学方程。只要能提供事先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式供网络进行学习训练,它便能完成足够多的样本模式供网络进行学习训练,它便能完成由由n n维输入空间到维输入空间到m m维输出空间的非线性映射。维输出空间的非线性映射。n泛化能力泛化能力 当向

    23、网络输入训练时未曾见过的非样本数据时,网当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。这种络也能完成由输入空间向输出空间的正确映射。这种能力称为泛化能力。能力称为泛化能力。n容错能力容错能力 输入样本中带有较大的误差甚至个别错误对网络的输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响很小。输入输出规律影响很小。5-5 BP网络有关的几个问题网络有关的几个问题5-5 BP网络有关的几个问题网络有关的几个问题 (1)实实现现输输入入/输输出出非非线线性性映映射射 若若输输入入、输输出出节节点点为为n、m 个个,实实现现的的是是n 维维至至m 维维

    24、欧欧式式空空间间的的映映射射:T RRnm:可可知知网网络络的的输输出出是是样样本本输输出出在在L2范范数数意意义义下下的的最最佳佳逼逼近近。BP 网网络络,通通过过若若干干简简单单非非线线性性处处理理单单元元的的复复合合映映射射,可可获获得得复复杂杂的的非非线线性性处处理理能能力力。(2)BP 学学习习算算法法的的数数学学分分析析 BP 算算法法用用了了优优化化算算法法中中的的梯梯度度下下降降法法,把把一一组组样样本本的的I/O 问问题题,变变为为非非线线性性优优化化问问题题,隐隐层层使使优优化化问问题题的的可可调调参参数数增增加加,使使解解更更精精确确。(3)全局逼近网络全局逼近网络由取的

    25、作用函数可知,由取的作用函数可知,BP 网络是全局逼近网络,即网络是全局逼近网络,即f x()在在 x 的相当大的域为非零值。的相当大的域为非零值。(4)学习算子学习算子 称梯度搜索算法的步长称梯度搜索算法的步长(收敛因子、学习算子),(收敛因子、学习算子),10,越大,权值调整的越快,在不导致振荡情况越大,权值调整的越快,在不导致振荡情况下,下,可大一些。可大一些。5-5 BP网络有关的几个问题网络有关的几个问题 具有阻尼项的权值调整算法具有阻尼项的权值调整算法 为使学习速率足够大,又不易产生振荡,在权值调整算为使学习速率足够大,又不易产生振荡,在权值调整算法中,加阻尼项:法中,加阻尼项:w

    26、twtJ twtwtwtijijijijij()()()()()()+=-+-11:阻尼系数:阻尼系数(平滑因子),(平滑因子),01。变步长算法:变步长算法:/t等等。(5)改进的改进的BP算法算法 梯度下降法的不足,是梯度下降法的不足,是BP算法收敛速度慢的原因算法收敛速度慢的原因,有改进的,有改进的BP算法克服其不足,算法克服其不足,如:如:5-5 BP网络有关的几个问题网络有关的几个问题(6)网络的输入网络的输入S 型作用函数型作用函数f x()随随|x|的增大,梯度下降,即的增大,梯度下降,即|fx()|减减小,并小,并 0,不利于权值的调整。,不利于权值的调整。希望希望|x|工作在

    27、较小区域,故网络的输入要予以考虑:工作在较小区域,故网络的输入要予以考虑:若实际问题给以网络的输入量较大,需作归一化处理,若实际问题给以网络的输入量较大,需作归一化处理,则网络输出也要进行相应的处理。则网络输出也要进行相应的处理。5-5 BP网络有关的几个问题网络有关的几个问题)()(1tJtJ 训练样本 t 测试数据 图 2-4-2 泛化能力示意图(7)泛化能力 泛化能力(综合能力、概括能力):用较少的样本进行训练,使网络能在给定的区域内达到要求的精度。故,没有泛化能力的网络无使用价值。BP网络,泛化能力与样本、结构、初始权值等有关。为得到较好的泛化能力,除了要有训练样本集外,还需测试集。从

    28、图可见,随着训练次数的增加,训练集的J t()会减少,测试集的 J t1()可能不减小或增大,说明泛化能力减弱。因此,可取测试集 J1的极小点对应的训练权系,以使网络具有较好的泛化能力。J 全局极小点 局部极小点 图 2-4-3 局部与全局极小点(8)训训练练误误差差网网络络的的训训练练误误差差在在最最后后一一个个样样本本处处最最小小。(9)BP 算算法法已已成成 ANN 的的重重要要模模型型之之一一多多层层前前馈馈网网的的 BP 算算法法,已已成成为为神神经经网网络络的的重重要要模模型型之之一一,很很多多领领域域得得到到应应用用。在在自自动动控控制制中中,也也是是用用得得最最多多的的模模型型

    29、,如如在在非非线线性性系系统统辨辨识识、控控制制及及系系统统故故障障诊诊断断中中的的应应用用。(10)BP 算算法法的的不不足足 由由于于是是非非线线性性优优化化,就就会会存存在在局局部部极极小小问问题题,见见图图 2-4-3。学学习习算算法法的的收收敛敛速速度度慢慢,且且收收敛敛速速度度与与初初始始权权的的选选择择有有关关。网网络络的的结结构构设设计计,即即隐隐层层及及节节点点数数的的选选择择,尚尚无无理理论论指指导导。新新加加入入的的样样本本会会影影响响到到已已学学好好的的样样本本。5-6 改进的改进的BP网络的学习算法网络的学习算法单权值单权值双权值双权值 标准标准BPBP算法的误差算法

    30、的误差空间空间是是NN维空间中一个形状极为复杂维空间中一个形状极为复杂的曲面,该曲面上的每个点的的曲面,该曲面上的每个点的“高度高度”对应于一个误差值,对应于一个误差值,每个点的坐标向量对应着每个点的坐标向量对应着NN个权值个权值5-6-1 5-6-1 问题的描述问题的描述5-6 改进的改进的BP网络的学习算法网络的学习算法nBP网络学习算法存在的问题q存在平坦区域影响-误差下降缓慢,影响收敛速度。原因-误差对权值的梯度变化小接近于零 由各节点的净输入过大而引起。n分析:激活函数为Sigmod函数5-6-1 5-6-1 问题的描述问题的描述5-6 改进的改进的BP网络的学习算法网络的学习算法n

    31、存在平坦区域的原因分析()()()()()()()()(1()()oohhoohoooooooooyieek hokwyiwkdkyokyokdkyokyokyok=-=-=-221()()111()(1)(1)()(1()oyiyiyioyiyiooyokfyieeeyokeeyokyok-=+-=+=-5-6-1 5-6-1 问题的描述问题的描述对应着误差的某个谷点对应着误差的某个谷点 对应着误差的平坦区对应着误差的平坦区 存在平坦区域的原因分析:q第一种可能是 充分接近q第二种可能是 充分接近0q么三种可能是 充分接近1 造成平坦区的原因:各节点的净输入过大。5-6 改进的改进的BP网络

    32、的学习算法网络的学习算法()oyo k()odk()oyo k()oyo k 1.0 0.5 yi 0()oyok5-6-1 5-6-1 问题的描述问题的描述5-6 改进的改进的BP网络的学习算法网络的学习算法n存在多个极小点q影响-易陷入局部最小点。原因:n以误差梯度下降为权值调整原则;n误差曲面上可能存在多个梯度为0的点,多数极小点都是局部极小,即使是全局极小往往也不是唯一的,使之无法辨别极小点的性质q导致的结果:使得训练经常陷入某个局部极小点而不能自拔,从而使训练无法收敛于给定误差。5-6-1 5-6-1 问题的描述问题的描述n BP算法缺陷小结 易形成局部极小而得不到全局最优;训练次数

    33、多使得学习效率低,收敛速度慢;隐节点的选取缺乏理论指导;训练时学习新样本有遗忘旧样本的趋势。针对上述问题,国内外已提出不少有效的改进算法,下面将介绍其中几种较常用的方法。5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-1 5-6-1 问题的描述问题的描述n在线学习方式时,网络受后面输入样本的影响较大,严重时,会影响用户要求的训练精度。为了消除这种样本顺序对结果的影响,可以采用批处理学习方式,即使用一批学习样本产生的总误差来调整权值,用公式表示如下:n解决了因样本输入顺序引起的精度问题和训练的抖动问题。但是,该算法的收敛速度相对来说还是比较慢的。p1()()mijijohkwwk h

    34、o k=5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-2 5-6-2 消除样本输入顺序影响的改进算法消除样本输入顺序影响的改进算法算算法法流程流程图图是是结束结束否否5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-2 5-6-2 消除样本输入顺序影响的改进算法消除样本输入顺序影响的改进算法n在反向传播法的基础上在每一个权值(或阈值)的变化上加上一项正比于上一次权值(或阈值)变化量的值,并根据反向传播法来产生新的权值(或阈值)变化 n带有附加动量因子的权值调节公式为:n可以防止的出现即最后一次权值的变化量为0,有助于使网络从误差曲面的局部极小值中跳出。但对于大多数实际应

    35、用问题,该法训练速度仍然很慢。nMATLAB中的工具函数traingdm()即对应于附加动量法。(1)(1)f()()(1)cckmkmkk+=-+-wwww5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-3 5-6-3 附加动量的改进算法附加动量的改进算法n采用自适应调整参数的改进算法的基本设想是学习率应根据误差变化而自适应调整,以使权系数调整向误差减小的方向变化,其迭代过程可表示为:n在很小的情况下,采用自适应调整参数的改进算法仍然存在权值的修正量很小的问题,致使学习率降低。nMATLAB中的工具函数traingda()即对应于自适应调整参数法。(1)()f()kkk+=-ww

    36、w5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-3 5-6-3 采用自适应调整参数的改进算法采用自适应调整参数的改进算法nBP网络通常采用Sigmoid隐含层。当输入的函数很大时,斜率接近于零,这将导致算法中的梯度幅值很小,可能使网络权值的修正过程几乎停顿下来。弹性方法只取偏导数的符号,而不考虑偏导数的幅值。其权值修正的迭代过程可表示为:n在弹性BP算法中,当训练发生振荡时,权值的变化量将减小;当在几次迭代过程中权值均朝一个方向变化时,权值的变化量将增大。因此,使用弹性方法的改进算法,其收敛速度要比前几种方法快得多(1)()()(1)(f()kkkksignk+=-wwwww5-

    37、6 改进的改进的BP网络的学习算法网络的学习算法5-6-3 5-6-3 使用弹性方法的改进算法使用弹性方法的改进算法n梯度法的缺点是搜索过程收敛速度较慢,牛顿法在搜索方向上比梯度法有改进,它不仅利用了准则函数在搜索点的梯度,而且还利用了它的二次导数,就是说利用了搜索点所能提供的更多信息,使搜索方向能更好地指向最优点。它的迭代方程为:n收敛速度比一阶梯度快,但计算又较复杂,比较典型的有BFGS拟牛顿法和一步正切拟牛顿法。nMATLAB中的工具函数trainbfg()、trainoss()即对应拟牛顿法中的BFGS拟牛顿法和一步正切拟牛顿法。1(1)()f()kkk+=-wwDw5-6 改进的改进

    38、的BP网络的学习算法网络的学习算法5-6-3 5-6-3 使用拟牛顿法的改进算法使用拟牛顿法的改进算法n梯度下降法收敛速度较慢,而拟牛顿法计算又较复杂,共轭梯度法则力图避免两者的缺点。共轭梯度法也是一种改进搜索方向的方法,它是把前一点的梯度乘以适当的系数,加到该点的梯度上,得到新的搜索方向。其迭代方程为:(1)()()()kkk S k+=+ww()f()(1)(1)S kkkS k=-+-wv()k 最佳步 22f()(1)f(1)kkk-=-wvw5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-7 5-6-7 基于共轭梯度法的改进算法基于共轭梯度法的改进算法n共轭梯度法比大多数

    39、常规的梯度下降法收敛快,并且只需增加很少的存储量和计算量。n对于权值很多的网络,采用共轭梯度法不失为一种较好的选择。nMATLAB中的工具函数traincgb()、traincgf()、traincgp()即对应于共轭梯度法。5-6 改进的改进的BP网络的学习算法网络的学习算法5-6-7 5-6-7 基于共轭梯度法的改进算法基于共轭梯度法的改进算法演示演示q梯度下降法与改进算法的几何意义梯度下降法与改进算法的几何意义qBPBP算法在多层前馈网络中的应用算法在多层前馈网络中的应用5-6 改进的改进的BP网络的学习算法网络的学习算法例例 2-4-1 用用 BP 网网络络逼逼近近非非线线性性函函数数

    40、f ueuu()sin().(.)=-+1 90 510取取 BP 网网络络N1 4 1,,隐隐节节点点作作用用函函数数选选对对称称型型 S 函函数数,输输出出节节点点为为线线性性;BP 算算法法,取取=04.;(1)训训练练输输入入样样本本集集 u=-0.5:0.05:0.45,图图 2-4-4(a)*;训训练练输输出出样样本本集集df u=(),图图(b)*,样样本本集集长长度度20=L;(2)测测试试输输入入集集 u1=-0.48:0.05:0.47,图图(a)中中+;测测试试数数据据集集df u11=(),图图(b)中中+;(3)取随机非零初始权系,取随机非零初始权系,t=1 500

    41、次训练,次训练,网络输出网络输出 y(o o)与训练输出样本集)与训练输出样本集d d(*)比较见图)比较见图(c););(4)在测试集在测试集 u1 1 输入时,输入时,网络输出网络输出 y1 1(o o)与测试数据集)与测试数据集 d1 1(+)比较见图)比较见图(d););由图由图(c)知)知:网络的训练误差在第:网络的训练误差在第 L=20 个样本处个样本处(最后一个(最后一个样本)最小。样本)最小。(5)网络泛化能力见图网络泛化能力见图(e),),J t():训练集目标函数:训练集目标函数(实线);(实线);Jt1():测试集目标函数:测试集目标函数(虚线),(虚线),t=11 50

    42、0;由图由图(e)知)知:1 0001 000 次训练后,再训练:次训练后,再训练:网络的网络的J t()已几乎不减小,说明网络的权系值已几乎不调整了。已几乎不减小,说明网络的权系值已几乎不调整了。0 500 1 000 1 500 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 J J1(e)图图2-4-4 BP网络训练例网络训练例n例例2-4-1 2-4-1 用用BPBP网络逼近非线性函数网络逼近非线性函数 手控手控 自控自控演示演示BP网络网络网络结构网络结构 u y 网络结构网络结构 u y u y 网络结构网络结构反向传播反向传播(BP)学习算法学习算法 u y 反向

    43、传播反向传播(BP)(BP)学习算法学习算法n三层前馈网络:三层前馈网络:输入输入/输出样本对:输出样本对:up/dp p=1Lup dp反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法:n 正向传播 输入输出 u y 反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法:正向传播 输入输出 u y 反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法:n 正向传播n 反向传播 调整权系值 u y 反向传播反向传播(BP)(BP)学习算法学习算法反向传播(BP)学习算法:n 正向传播n 反向传播调整权系值 u y n正向传播:由输

    44、入uP 输出yP=Ng(up)反向传播反向传播(BP)(BP)学习算法学习算法 u y up dp反向传播反向传播(BP)(BP)学习算法学习算法 u y n正向传播:由输入uP 输出yP=Ng(up)up dp反向传播反向传播(BP)(BP)学习算法学习算法 u y n正向传播:由输入uP 输出yP=Ng(up)up dp反向传播反向传播(BP)(BP)学习算法学习算法 u y n正向传播:由输入uP 输出yP=Ng(up)up dp反向传播反向传播(BP)(BP)学习算法学习算法n正向传播:由输入uP 输出yP=Ng(up)u y up dp反向传播反向传播(BP)(BP)学习算法学习算法

    45、n正向传播:由输入uP 输出yP=Ng(up)u y up dp反向传播反向传播(BP)(BP)学习算法学习算法n正向传播:由输入uP 输出yP=Ng(up)u y up dp反向传播反向传播(BP)(BP)学习算法学习算法n反向传播:调整权系值 u y 反向传播反向传播(BP)(BP)学习算法学习算法n反向传播:调整权系值 u y 反向传播反向传播(BP)(BP)学习算法学习算法正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 正向正向 u y 反向反向 u y 反向反向 u y 返回返回BP网络例例6-16-1非线

    46、性函数 非线性函数:f ueuu()sin().(.)=-+1 90 510 输入输出样本集输入输出测试集样本集测试集 N1,4,1 网络结构网络学习网络学习0网络学习网络学习1网络学习网络学习2网络学习网络学习3网络学习网络学习4网络学习网络学习5网络学习网络学习6网络学习网络学习7网络学习网络学习8网络学习网络学习9学习结束学习结束 J1梯度下降法梯度下降法与改进算法搜索寻优J(W)J(W)局部极小点全局极小点J(W)初始状态梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索J(W)局部极小点J(W)局部极小点J(W)局部极小点J(W)局部极小点改进算法搜

    47、索J(W)J(W)初始状态梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索梯度下降搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索改进算法搜索全局极小点全局极小点全局极小点返回返回梯度下降法梯度下降法搜索寻优原理由初始状态搜索寻优搜索寻优目标函数曲面J(W)-连续、可微全局极小点局部极小点1局部极小点1局部极小点2局部极小点2目标函数曲面J(W)-连续目标函数曲面J(W)-连续、可微由初始状态1起搜索初始状态1搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降目标函数全局极小点目标函数全局极小点目标函数全局极小点目标函数全局极小点由初始状态2起寻优初始状态2搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降搜索寻优梯度下降目标函数局部极小点2目标函数局部极小点2目标函数局部极小点2目标函数局部极小点2目标函数局部极小点2

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:BP人工神经网络及matlab实现课件.ppt
    链接地址:https://www.163wenku.com/p-5217863.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库