BP人工神经网络及matlab实现课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《BP人工神经网络及matlab实现课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- BP 人工 神经网络 matlab 实现 课件
- 资源描述:
-
1、BP人工神经人工神经网络网络本章的基本内容本章的基本内容nRumelhart,McClelland于于1985年提出了年提出了BP网络的误差网络的误差反向后传反向后传BP(Back Propagation)学习算法学习算法nBP算法基本原理算法基本原理q利用输出后的误差来估计输出层的直接前导层的误差,利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。反传下去,就获得了所有其他各层的误差估计。J.McClelland David Rumelhart BP网络是一种前
2、向映射网络。网络的结构见下一页的图形。其中:u是网络的输入向量,y是网络的输出向量。神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层)。前层节点至后层节点通过权联接。由于这种网络常常用BP学习算法后的网络权值,所以常称BP人工神经网络。5-1 网络结构和模型网络结构和模型5-1 网络结构和模型网络结构和模型 u y u y 5-1 网络结构与模型网络结构与模型 njuuu1 yx nw 1w )(xf 5-1 网络结构和模型网络结构和模型 BP网络的神经元模型是改进了感知器神经元模型得到的。输入层:隐层:输出层:fxex()=+-11fxeexx()=-
3、+-11fxeexx()=-+-11fxex()=+-11()f xkx=1,()ijwf xx=5-2 BP网络的学习算法网络的学习算法 多层前馈网络的反向传播多层前馈网络的反向传播 (BPBP)学习算法,)学习算法,简称简称BPBP学习算法,这是一种有导师的学习算法学习算法,这是一种有导师的学习算法,是是梯度下降法梯度下降法在多层前馈网中的应用。在多层前馈网中的应用。BPBP学习算法学习算法可以看成是线性自适应神经元学可以看成是线性自适应神经元学习算法的进一步推广。习算法的进一步推广。BPBP学习算法学习算法=前向计算过程前向计算过程+误差反向传播过程误差反向传播过程前向计算过程:也是网络
4、应用时的实现过程。前向计算过程:也是网络应用时的实现过程。误差反向传播过程:是误差反向传播过程:是BP网络权值的学习和网络权值的学习和 训练过程。训练过程。5-2-1 BP5-2-1 BP学习算法概述学习算法概述n学习的类型:学习的类型:有导师学习有导师学习n核心思想:核心思想:q将将输出误差输出误差以某种形式以某种形式通过通过隐层隐层向向输入层输入层逐层反传逐层反传n学习的过程:学习的过程:q信号的正向传播信号的正向传播 误差的反向传播误差的反向传播将误差分摊给各层的所有将误差分摊给各层的所有单元各层单元的误单元各层单元的误差信号差信号修正各单元权修正各单元权值值5-2 BP网络的学习算法网
5、络的学习算法5-2-1 BP5-2-1 BP学习算法概述学习算法概述n正向传播:正向传播:q输入样本输入层各隐层输出层输入样本输入层各隐层输出层n判断是否转入反向传播阶段:判断是否转入反向传播阶段:q若输出层的实际输出与期望的输出(教师信号)不符若输出层的实际输出与期望的输出(教师信号)不符n误差反传误差反传q误差以某种形式在各层表示修正各层单元的权值误差以某种形式在各层表示修正各层单元的权值n网络输出的误差减少到可接受的程度网络输出的误差减少到可接受的程度 或者进行到预先设定的学习次数为止或者进行到预先设定的学习次数为止5-2 BP网络的学习算法网络的学习算法5-2-1 BP5-2-1 BP
6、学习算法概述学习算法概述n网络结构网络结构 输入层有输入层有n n个神经元,隐含层有个神经元,隐含层有p p个神经元,输出个神经元,输出层有层有q q个神经元。个神经元。n变量定义变量定义q输入向量输入向量;q隐含层输入向量;隐含层输入向量;q隐含层输出向量隐含层输出向量;q输出层输入向量输出层输入向量;q输出层输出向量输出层输出向量;q期望输出向量期望输出向量;12,nxxx=Lx12,phihihi=hi12,pho hoho=ho12,qyiyiyi=yi12,qyo yoyo=yo12,qddd=odL5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描
7、述学习算法的描述q输入层与中间层的连接权值:q隐含层与输出层的连接权值:q隐含层各神经元的阈值:q输出层各神经元的阈值:q样本数据个数:q激活函数:q误差函数:ihwf()howhb1,2,km=ob211()()2qoooedkyo k=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第一步,网络初始化第一步,网络初始化 给各连接权值分别赋一个区间(给各连接权值分别赋一个区间(-1,1)内的随机)内的随机数,设定误差函数数,设定误差函数e,给定计算精度值,给定计算精度值 和最大学和最大学习次数习次数M。n第二步第二步,随机选取第随机选取
8、第 个输入样本及对应期望个输入样本及对应期望输出输出 k12()(),(),()nkx k x kx k=x12()(),(),()qkd kdkdk=od5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第三步,计算隐含层各神经元的输入和输出第三步,计算隐含层各神经元的输入和输出1()()1,2,nhihihihi kw x kbhp=-=()f()1,2,hhho khi khp=1()()1,2,pohohohyi kw ho kboq=-=()f()1,2,ooyo kyi koq=5-2 BP网络的学习算法网络的学习算法5-2-2
9、BP5-2-2 BP学习算法的描述学习算法的描述n第四步,利用网络期望输出和实际输出,计算第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数误差函数对输出层的各神经元的偏导数 。ohoohoyieewyiw=()()()phohoohhhohow ho kbyi kho kww-=211()()2()()()()()f()()qooooooooooood kyo ked kyo k yokyiyid kyo kyi kk=-=-=-()ok5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第五步,利用隐含层到输出层的连
10、接权值、输第五步,利用隐含层到输出层的连接权值、输出层的出层的 和隐含层的输出计算误差函数对隐和隐含层的输出计算误差函数对隐含层各神经元的偏导数含层各神经元的偏导数 。()()oohhoohoyieek ho kwyiw=-1()()()()()hihhihnihihhiiihihhi keewhi kww x kbhi kx kww=-=()hk()ok5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述21212111()()()2()()()1()f()()2()()1()f()()2()()qooohhhhqooohhhqpohohooh
11、hhhdkyokhokehikhokhikdkyikhokhokhikdkw hokbhokhokhik=-=-=-=11()()()f()()()f()()qhooohoohqohohhoho kdkyo kyi kwhi kk whi kk=-=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第六步,利用输出层各神经元的第六步,利用输出层各神经元的 和隐含层各和隐含层各神经元的输出来修正连接权值神经元的输出来修正连接权值 。n第七步,利用隐含层各神经元的第七步,利用隐含层各神经元的 和输入层各和输入层各神经元的输入修正连接权。神经元的
12、输入修正连接权。1()()()()()hoohhoNNhohoohewkk ho kwwwk ho k+=-=+()ok()howk()hk1()()()()()()()hihhiihhihNNihihhihi keewkk x kwhi kwwwk x k+=-=-=+5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述n第八步,计算全局误差第八步,计算全局误差n第九步,判断网络误差是否满足要求。当误差第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选
13、取下一个学习样本及对则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学应的期望输出,返回到第三步,进入下一轮学习。习。2111()()2qmookoEdkykm=-5-2 BP网络的学习算法网络的学习算法5-2-2 BP5-2-2 BP学习算法的描述学习算法的描述 情况一的直观表达情况一的直观表达 当误差对权值的当误差对权值的偏导数大于零时,权偏导数大于零时,权值调整量为负,实际值调整量为负,实际输出大于期望输出,输出大于期望输出,权值向减少方向调整,权值向减少方向调整,使得实际输出与期望使得实际输出与期望输出的差减少。输出的差减少。whohoewe0,此时,此时
14、who05-2 BP网络的学习算法网络的学习算法5-2-3 BP5-2-3 BP学习算法的直观解释学习算法的直观解释 情况二的直观表达情况二的直观表达当误差对权值的偏导数当误差对权值的偏导数小于零时,权值调整量小于零时,权值调整量为正,实际输出少于期为正,实际输出少于期望输出,权值向增大方望输出,权值向增大方向调整,使得实际输出向调整,使得实际输出与期望输出的差减少。与期望输出的差减少。hoewe0who5-2 BP网络的学习算法网络的学习算法5-2-3 BP5-2-3 BP学习算法的直观解释学习算法的直观解释nBPBP算法算法手控手控演示演示函函 数数 名名功功 能能newff()生成一个前
15、馈生成一个前馈BP网络网络tansig()双曲正切双曲正切S型型(Tan-Sigmoid)传输函数传输函数logsig()对数对数S型型(Log-Sigmoid)传输函数传输函数traingd()梯度下降梯度下降BP训练函数训练函数5-3-1 BP5-3-1 BP神经网络的重要函数神经网络的重要函数5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能qnewff()n功能功能 建立一个前向建立一个前向BP网络网络n格式格式 net=newff(PR,S1 S2.SN1,TF1 TF2.TFN1,BTF,BLF,PF)n说明说明 net为创建的新为创建的新BP神经网络;神经网络;
16、PR为网络输入取向为网络输入取向量取值范围的矩阵;量取值范围的矩阵;S1 S2SNl表示网络隐含层和输表示网络隐含层和输出层神经元的个数;出层神经元的个数;TFl TF2TFN1表示网络隐含层表示网络隐含层和输出层的传输函数,默认为和输出层的传输函数,默认为tansig;BTF表示网络表示网络的训练函数,默认为的训练函数,默认为trainlm;BLF表示网络的权值表示网络的权值学习函数,默认为学习函数,默认为learngdm;PF表示性能数,默认表示性能数,默认为为mse。5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能5-3-2 BP5-3-2 BP神经网络中函数的基本功
17、能神经网络中函数的基本功能 qtansig()n功能功能 正切正切sigmoid激活函数激活函数n格式格式 a=tansig(n)n说明说明 双曲正切双曲正切Sigmoid函数把神函数把神经元的输入范围从经元的输入范围从(-,+)映射映射到到(-1,1)。它是可导函数,适用。它是可导函数,适用于于BP训练的神经元。训练的神经元。qlogsig()n功能功能 对数对数Sigmoid激活函数激活函数n格式格式 a=logsig(N)n说明对数说明对数Sigmoid函数把神经元函数把神经元的输入范围从的输入范围从(-,+)映射到映射到(0,1)。它是可导函数,适用于。它是可导函数,适用于BP训训练的
18、神经元。练的神经元。5-3 BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能5-3-2 BP5-3-2 BP神经网络中函数的基本功能神经网络中函数的基本功能 下表为某药品的销售情况,现构建一个如下的三层下表为某药品的销售情况,现构建一个如下的三层BP神经网神经网络对药品的销售进行预测:输入层有三个结点,隐含层结点数为络对药品的销售进行预测:输入层有三个结点,隐含层结点数为5,隐含层的激活函数为隐含层的激活函数为tansig;输出层结点数为;输出层结点数为1个,输出层的激活个,输出层的激活函数为函数为logsig,并利用此网络对药品的销售量进行预测,预测方法,并利用此网络对药品的销售
19、量进行预测,预测方法采用滚动预测方式,即用前三个月的销售量来预测第四个月的销采用滚动预测方式,即用前三个月的销售量来预测第四个月的销售量,如用售量,如用1、2、3月的销售量为输入预测第月的销售量为输入预测第4个月的销售量,用个月的销售量,用2、3、4月的销售量为输入预测第月的销售量为输入预测第5个月的销售量个月的销售量.如此反复直至满足如此反复直至满足预测精度要求为止。预测精度要求为止。月份123456销量205623952600229816341600月份789101112销量1873147819001500204615565-4 一个简单的例子一个简单的例子%以每三个月的销售量经归一化处理
20、后作为输入以每三个月的销售量经归一化处理后作为输入P=0.51520.81731.0000;0.81731.00000.7308;1.00000.73080.1390;0.73080.13900.1087;0.13900.10870.3520;0.10870.35200.0000;%以第四个月的销售量归一化处理后作为目标向量以第四个月的销售量归一化处理后作为目标向量T=0.7308 0.1390 0.1087 0.3520 0.0000 0.3761;%创建一个创建一个BP神经网络,每个输入向量的取值范围为神经网络,每个输入向量的取值范围为0,1,5个隐层神经元,一个输出层神经元,隐层的激活函
21、数个隐层神经元,一个输出层神经元,隐层的激活函数tansig,输出层激活函数,输出层激活函数logsig,训练函数为梯度下降函数。,训练函数为梯度下降函数。net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd);net.trainParam.epochs=15000;net.trainParam.goal=0.01;LP.lr=0.1;%设置学习速率为设置学习速率为0.1net=train(net,P,T);5-4 一个简单的例子一个简单的例子 由对比图可以看出由对比图可以看出预测效果与实际存在预测效果与实际存在一定误差,此误差可一定误差,此误差可以通
22、过增加运行步数以通过增加运行步数和提高预设误差精度和提高预设误差精度业进一步缩小。业进一步缩小。nBP网络应用于药品预测对比图网络应用于药品预测对比图5-4 一个简单的例子一个简单的例子n非线性映射能力非线性映射能力 能学习和存贮大量输入能学习和存贮大量输入-输出模式映射关系,无需输出模式映射关系,无需事先了解描述这种映射关系的数学方程。只要能提供事先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式供网络进行学习训练,它便能完成足够多的样本模式供网络进行学习训练,它便能完成由由n n维输入空间到维输入空间到m m维输出空间的非线性映射。维输出空间的非线性映射。n泛化能力泛化能力 当向
23、网络输入训练时未曾见过的非样本数据时,网当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。这种络也能完成由输入空间向输出空间的正确映射。这种能力称为泛化能力。能力称为泛化能力。n容错能力容错能力 输入样本中带有较大的误差甚至个别错误对网络的输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响很小。输入输出规律影响很小。5-5 BP网络有关的几个问题网络有关的几个问题5-5 BP网络有关的几个问题网络有关的几个问题 (1)实实现现输输入入/输输出出非非线线性性映映射射 若若输输入入、输输出出节节点点为为n、m 个个,实实现现的的是是n 维维至至m 维维
展开阅读全文