辨识方法人工神经网络教学课件.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《辨识方法人工神经网络教学课件.pptx》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 辨识 方法 人工 神经网络 教学 课件
- 资源描述:
-
1、1参考文献神经网络理论神经网络理论 【俄俄】A.H.A.H.加卢什金著加卢什金著人工神经网络人工神经网络 郑君里郑君里 杨行峻杨行峻神经网络控制技术及其应用神经网络控制技术及其应用 何玉彬何玉彬 李新忠著李新忠著神经网络、模糊系统及其在运动控制中的应用神经网络、模糊系统及其在运动控制中的应用 丛爽著丛爽著神经计算神经计算 原理、语言、设计、应用原理、语言、设计、应用 何明何明 一著一著面向面向MATLABMATLAB工具箱的神经网络理论与应用工具箱的神经网络理论与应用 侯媛彬、汪梅等著侯媛彬、汪梅等著起因电子元器件:纳秒量级 10-9神经细胞:毫秒量级 10-3记忆、计算、判断:1秒范德曼 J
2、.A.Feldman 100步程序长度 新型的信号处理机制新型的信号处理机制23ANNANN研究历史研究历史三个阶段三个阶段初创期(初创期(1943-19691943-1969)19431943年年 McCulloch McCulloch 和和Pitts Pitts 著作著作 第一次提出了神经网络模拟第一次提出了神经网络模拟2 2、19491949年年 Hebb Hebb 研究大脑神经细胞、学习及条件反射研究大脑神经细胞、学习及条件反射提出了提出了HebbianHebbian规则(从心理学角度)规则(从心理学角度)3 3、19571957年年 Frank Resenblant Frank Re
3、senblant(神经元之父)提出了(神经元之父)提出了感知器(感知器(Perceptron)Perceptron),确立了从系统角度研究的基,确立了从系统角度研究的基础。础。(自动学习模式分类的判别函数的一般性方法,推广到自动学习模式分类的判别函数的一般性方法,推广到有多层相互连接的阀值逻辑单元构成的审议机)有多层相互连接的阀值逻辑单元构成的审议机)4 4、19621962年年 BloekBloek用解释器证明了感知器的学习收敛性用解释器证明了感知器的学习收敛性 19691969年年M.MinskyM.Minsky,S.PapertS.Papert证明了感知器的局限证明了感知器的局限性和多层
4、感知器还没有性和多层感知器还没有找到有效的计算方法有效的计算方法4过渡阶段(过渡阶段(1970-19861970-1986)5 5、7070年代,低谷。年代,低谷。M.Minsky M.Minsky的论点极大地影响了的论点极大地影响了神经网络的研究,加之当时串行计算机和人工智神经网络的研究,加之当时串行计算机和人工智能所取得的成就,掩盖了发展新型计算机和人工能所取得的成就,掩盖了发展新型计算机和人工智能新途径的必要性和迫切性,使人工神经网络智能新途径的必要性和迫切性,使人工神经网络的研究处于低潮。的研究处于低潮。6 6、Hopfield Hopfield 于于19821982年和年和19841
5、984年提出年提出HopfieldHopfield神神经网络模型,引入网络能量函数的概念,开创了经网络模型,引入网络能量函数的概念,开创了神经网络用于联想记忆和优化计算的新途径。神经网络用于联想记忆和优化计算的新途径。K.Fukushima K.Fukushima等提出神经认知机网络理论等提出神经认知机网络理论。7 7、1986 Rumelhart1986 Rumelhart等人提出了等人提出了BP BP 网络。网络。19861986年年进行认知微观结构地研究,提出了并行分布处理进行认知微观结构地研究,提出了并行分布处理的理论的理论(74(74年,年,WerbosWerbos博士论文提出博士论
6、文提出)8 8、1987 Kohonen1987 Kohonen提出自组织映射理论。提出自组织映射理论。发展阶段(发展阶段(19861986年之后)年之后)9 9、标志是、标志是19871987年年6 6月在美国圣地亚哥召开月在美国圣地亚哥召开了第一届了第一届 世界神经网络会议世界神经网络会议1010、19881988年前后我国发展起来年前后我国发展起来 19891989年我国第一届神经网络年我国第一届神经网络-信号处理信号处理会议会议5神经细胞功能:产生、处理和传递信号。构成:细胞体、树突和轴突。基本信息:兴奋或抑制。信号量足够大,激活细胞,产生脉冲。67一、基本概念1、定义、定义 ANN是
7、指由大量自然神经系统的神经细胞类似的(人工是指由大量自然神经系统的神经细胞类似的(人工)神经元互联而成的网络。)神经元互联而成的网络。单个人工神经元的功能简单,但大量神经元构成网络,单个人工神经元的功能简单,但大量神经元构成网络,其并行运算的特点使得其行为及其丰富多彩。其并行运算的特点使得其行为及其丰富多彩。神经网络是一个非线性动力学系统,特色:分布式存储神经网络是一个非线性动力学系统,特色:分布式存储和并行协调。和数字计算机相比,神经网络具有集体运和并行协调。和数字计算机相比,神经网络具有集体运算能力和自适应学习能力。算能力和自适应学习能力。人工神经网络是智能控制技术的三大组成部分人工神经网
8、络是智能控制技术的三大组成部分-神经网神经网络、模糊控制和专家系统络、模糊控制和专家系统8智能功能具有两类模拟能力智能功能具有两类模拟能力(1)低级处理能力)低级处理能力 研究生物神经细胞结构,获得生物神研究生物神经细胞结构,获得生物神经细胞的某些特征。经细胞的某些特征。(感知器、(感知器、BP网络)网络)(2)高级处理能力)高级处理能力 利用生物学、数学等手段,提炼利用生物学、数学等手段,提炼ANN应具备的高级智能的能力,设计其基本应具备的高级智能的能力,设计其基本处理单元。处理单元。(LAC的竞争机理、良心机理)的竞争机理、良心机理)92、人工神经元基本模型f(x)X1X2XnW1Wn y
9、 图图 神经元结构模型神经元结构模型多入单出表达式)(1IfyXWInjjj 为阈值f(x)为激发函数103、激发函数22()()xcbfxe阈值型分段线性双曲函数Sigmoid函数高斯函数基本网络结构1114、神经网络模型结构12基本网络结构2135 5、人工神经网络学习方法、人工神经网络学习方法相关规则仅根据连接间的激活水平改变权值。Hebb算法纠错规则依赖于输出节点的外部反馈改变权系数。学习规则、梯度下降法、BP算法无教师学习规则自适应于输入空间的检测规则,有选择地接受输入空间的不同特性。竞争式学习14Winner-Take-all学习规则是一种竞争学习规则mmWXW只有获胜神经元才有权
10、调整其权向量,调整量为 对于一个特定的输入X,竞争层的所有p个神经元均有输出响应,其中响应值最大的神经元为在竞争中获胜的神经元。15分布式存储分布式存储系统信息等式分布存储在网络的各个神经元及其连接权值中,有很强的鲁棒性。并行并行处理及推理的过程具有并行的特点非线性非线性神经网络本质上是非线性系统,能够充分逼近任意复杂的非线性关系。自学习和自适应能力自学习和自适应能力具有高度的自适应性和自组织性,能够学习和适应严重不确定性系统的动态特性。6 6、特、特 点点16二、神经网络学习算法感知器网络BP网络线性神经网络径向基函数RBF网络竞争型神经网络反馈型神经网络输入 输出对神经网络的参数进行初始化
11、误差反向传播:如果输出层得不到期望结果,则转入反向传播,将误差信号沿原来的连接通路返回,通过修改各层神经网络的权值,使过程的输出和神经网络模型的输出之间误差最小为止。(4)网络的隐层节点个数选择尚无理论指导,而是根据经验选取。基本信息:兴奋或抑制。利用生物学、数学等手段,提炼ANN应具备的高级智能的能力,设计其基本处理单元。初创期(1943-1969)(3)权值和阀值的初值选取对结果会有很大的影响,不同的初值会使学习得到的BP网络的权值和阀值也不同,尽管它们都能满足给定的精度。发展阶段(1986年之后)(3)权值和阀值的初值选取对结果会有很大的影响,不同的初值会使学习得到的BP网络的权值和阀值
12、也不同,尽管它们都能满足给定的精度。(1)信息的正向传播各层神经元的输入输出关系神经网络控制技术及其应用 何玉彬 李新忠著自适应和非线性问题:弱信号检测、自适应滤波等。选择时隐层最多不要超过2层。(2)学习速度和惯量因子的配对选择是至关重要的,一般的原则是,或者和都选得比较大,或者都选择比较小。数据后处理函数:恢复被函数premnmx归一化的数据Minsky的论点极大地影响了神经网络的研究,加之当时串行计算机和人工智能所取得的成就,掩盖了发展新型计算机和人工智能新途径的必要性和迫切性,使人工神经网络的研究处于低潮。造成网络的局部收敛,影响系统的精度3、计算各层的输出,完成前向过程:输入 输出1
13、7误差反向传播算法原理(误差反向传播算法原理(BPBP算法)算法)1986年Rumelhart和McCleland提出了多层前馈人工神经网络及其学习算法误差反向传播(Error back-propagation,BP)算法,它是目前在实际中应用最广泛的一种人工神经网络。Back-Propagation Network18图 3 BP网络结构示意图 No Nh Ni 算法的主要思想BP网络是一种正向的、各层相互全连接的网络。正向传播:输入信号要经过输入层,向前传递给隐层节点,经过激发函数作用后,把隐层节点的输出传递到输出节点,再经激发函数后给出输出结果。误差反向传播:如果输出层得不到期望结果,则
14、转入反向传播,将误差信号沿原来的连接通路返回,通过修改各层神经网络的权值,使过程的输出和神经网络模型的输出之间误差最小为止。19BP算法选用的激发函数LOG-Sig函数Tan-Sig函数线性函数201()1xfxe22()tan()11xf xsig xeBP算法过程(1)信息的正向传播各层神经元的输入输出关系输入层第i个节点输入 输出隐层第j个节点输入 输出输出层第k个节点输入 输出211Miiiinetx122tan()11Miiiiixasig nete1Njjiijinetw a()jjaf net1Lkkjjkjnetw a()kkyf net(2)网络权值调整规则 核心是利用梯度下
15、降法调整网络的权值,使其调整量与其对应的负梯度成正比。每一样本的误差函数系统代价函数修正公式22211()2LppkpkkEyapkjkjEww 21111()2PPLppkpkppkEEya01步长pjkkjEaw k反传误差信号反向误差传播公式23(1)()kjkjkkjwkwka 输出层:(1)()kkkpkkyyyy输出层反传误差信号:隐层反传误差信号:1(1)Ljjjkkjkaaw隐层:对sigmoid函数有:(1)()jijijjiwkwka 为提高学习效率,增加一个态势项。其中为惯性因子,其作用是引入权值修正惯性项,减轻振荡效应,加快学习速度。()(1)kkjkjwkwk()(1
16、)jjijiwkwk24图 3 BP网络结构示意图 No Nh Ni 25归纳学习过程1、给数值、阀值赋初值,给定适当的学习速度,惯量因子,误差限值和最大学习次数,并令(0)=0,指数型能量函数参数a2.8,b0.98。2、读入学习样本X(t),Y(t),t=1,2,T3、计算各层的输出,完成前向过程:4、修正权值、阀值、完成反向传播过程:5、计算输出误差和总误差 6、学习次数达到给定限值,则可保存网络并退出,26 图 典型BP网络误差变化曲线.BP网络结构选为351,学习速度=0.7,惯量因子0.9。0200400600800100012000.000.020.040.060.080.10
17、对于不同的研究对象,提出选择合适的神经网络结构,对于多层前馈网络,提出网络层次、隐层节点的选择规则。3、计算各层的输出,完成前向过程:(1)由于Sigmoid函数的输入在0和1之间,只能趋近于0或1,而不能达到0或1。发展阶段(1986年之后)电子元器件:纳秒量级 10-9对神经网络逐层进行初始化采用Nguyen-Widrow方法对网络层进行初始化为提高学习效率,增加一个态势项。选择时隐层最多不要超过2层。BP网络是一种正向的、各层相互全连接的网络。过渡阶段(1970-1986)适宜组成快速实时自适应控制系统:并行分布控制、智能鲁棒控制等数据后处理函数:恢复被函数premnmx归一化的数据6、
18、学习次数达到给定限值,则可保存网络并退出,只有获胜神经元才有权调整其权向量,调整量为(1)信息的正向传播各层神经元的输入输出关系并用改进BP网络对其中的几组数据进行了动态建模.图7 负荷建模用BP网络结构(Y=P或Q)BP网络是一种正向的、各层相互全连接的网络。为提高学习效率,增加一个态势项。27BP网络设计问题:(1)网络层数理论证明:在不限定隐层节点数情况下,两层(只有一个隐层)的BP网络可实现任意非线性映射。选择时隐层最多不要超过2层。(2)输入层节点数n:由输入向量的维数决定。(3)输出层节点数m:由输出向量维数决定。(4)隐层节点数n1:多为凭经验或尝试而定,还没有完善的理论证明。一
19、般可参考一下经验公式:(5)激活函数:LogSig函数;TanSig函数;线性函数Pureline(6)训练方法:最速下降法、动量BP法、学习率可变算法、弹性BP法、变梯度算法、线性搜索路径、拟牛顿法、LM(Levenberg-Marquardt)算法amnn1nn2log1a为110的一个数适合数据压缩28实际应用中,必须注意的问题:(1)由于Sigmoid函数的输入在0和1之间,只能趋近于0或1,而不能达到0或1。因此在训练网络以前,应该对学习样本的期望输出值进行标度(Scale),使其落在区间a,b内,通常可取a=0.1,b=0.9。(2)学习速度和惯量因子的配对选择是至关重要的,一般的
20、原则是,或者和都选得比较大,或者都选择比较小。和的选取问题,可参考有关文献,但目前还有统一的标准。(3)权值和阀值的初值选取对结果会有很大的影响,不同的初值会使学习得到的BP网络的权值和阀值也不同,尽管它们都能满足给定的精度。这说明在用BP网络解决实际问题时,存在多个表达,但其外部特性是一致的。29(4)网络的隐层节点个数选择尚无理论指导,而是根据经验选取。(5)从数学上看,BP算法是一个非线性的优化问题,这就不可避免地存在局部最小问题。BP算法的一种改进BP算法收敛慢BP网络是一种全反传式的前向网络误差反传信号修正全部权值对权值修正增加一个协调器(基于降低网络灵敏度的BP改进算法)当误差较大
展开阅读全文