第七章:人工神经网络课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《第七章:人工神经网络课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第七 人工 神经网络 课件
- 资源描述:
-
1、2003-11-1高等教育出版社1第七章:人工神经网络n7.1 人工神经元及人工神经网络模型n7.2 前向神经网络n7.3 反馈神经网络n7.4 自组织竞争神经网络模型n7.5 基于人工神经网络的数据挖掘n本章小结2003-11-1高等教育出版社2人工神经网络简介n人工神经网络(Artificial Neural Network,简称ANN)是指由简单计算单元组成的广泛并行互联的网络,能够模拟生物神经系统的结构和功能。n组成神经网络的单个神经元的结构简单,功能有限,但是,由大量神经元构成的网络系统可以实现强大的功能。n人工神经网络在模式识别、计算机视觉、智能控制、信号处理、语音识别、知识处理、
2、机器学习、数据挖掘等领域有着广泛的应用前景。 2003-11-1高等教育出版社3历史事件n最早的形式化神经元数学模型是M-P模型,由美国心理学家McCulloch和数理逻辑学家Pitts合作,于1943年提出。 n1949年,心理学家Hebb提出Hebb学习规则。 n1958年,计算机科学家Rosenblatt提出感知器(Perceptron)的概念,掀起人工神经网络研究的第一次高潮。 n1982年,美国加州工学院的生物物理学家Hopfield提出Hopfield网络模型,这标志着神经网络研究高潮的再次兴起。 2003-11-1高等教育出版社4第七章:人工神经网络n7.1 人工神经元及人工神经
3、网络模型n7.2 前向神经网络n7.3 反馈神经网络n7.4 自组织竞争神经网络模型n7.5 基于人工神经网络的数据挖掘n本章小结2003-11-1高等教育出版社5M-P模型nM-P模型如图所示, IN I2 I1 W1 W2 WN Y 2003-11-1高等教育出版社6M-P模型(续)n其中,Ii-1, 1表示输入,Y-1, 1表示输出,权值Wi-1, 1表示输入的连接强度,正数权值表示兴奋性输入,负数权值表示抑制性输入。表示神经元兴奋时的阈值,当神经元输入的加权和大于时,神经元处于兴奋状态。神经元输出通过下式计算,其中,sgn为符号函数 iiIWy sgn2003-11-1高等教育出版社7
4、人工神经元的形式化描述 n人工神经元的数学模型如图所示 1x2xnxiiuisiy2003-11-1高等教育出版社8人工神经元的形式化描述(续)n其中ui为第i个神经元的内部状态,i为神经元阈值,xj为输入信号,wji表示从第j个神经元到第i个神经元连接的权值。si表示第i个神经元的外部输入信号,上述假设可描述为: jiijijiswxfu fghswxhugyjiijijii 2003-11-1高等教育出版社9常用的神经元状态转移函数n阶跃函数 n准线形函数 nSigmoid函数 n双曲正切函数 f (x)=th (x) 0 00 1)(xxxfy0 0 x0 1)(xxxxfy xxfe1
5、12003-11-1高等教育出版社10状态转移函数图像O f(x) x 1 (a) f(x) 1 0 x (b) 1 0 x (c) 0 x 1 -1 f(x) (d) f(x) 2003-11-1高等教育出版社11人工神经网络的学习方式 n死记式学习:网络连接权值根据特殊记忆模式设计而成,其值不变。在网络输入相关模式时,唤起对记忆模式的回忆,对输入模式进行相应处理。 n有监督学习:网络将实际输出和教师指定的输出加以比较,得到在一定范数意义下的误差,由误差函数决定连接权值的调整,目的是使误差函数达到最小值。 n无监督学习:网络的学习是自我调整的过程,不存在教师示教来指示网络输出是否正确。 n有
6、监督与无监督的混合学习:混合学习过程首先采用无监督学习抽取输入模式的特征,然后利用有监督学习方式对其进行处理,形成输入输出的某种映射。 2003-11-1高等教育出版社12第七章:人工神经网络n7.1 人工神经元及人工神经网络模型n7.2 前向神经网络n7.3 反馈神经网络n7.4 自组织竞争神经网络模型n7.5 基于人工神经网络的数据挖掘n本章小结2003-11-1高等教育出版社13感知器 n感知器(Perceptron)是由美国学者Rosenblatt于1957年提出的一个具有单层计算单元的神经网络。单层感知器神经网络如图所示,其中,输入向量为X=(X1, X2, Xn ),输出向量为Y=
7、(Y1, Y2, Ym )。最简单的感知器仅有一个神经元。 12mj1X1X2X2XiXnXnX11W12W1mW21W22W2mWnmW1nW2nW1Y2YmYY1W2WiWnW2003-11-1高等教育出版社14感知器(续)n感知器的输入向量为XRn。权值向量为WRn,可以通过学习训练调整W。单元的输出为Y-1, 1。其中, n若令Wn+1=,Xn+1=-1, 则有: niiiWXfY111niiiWXfY2003-11-1高等教育出版社15单层感知器的学习算法 n初始化权值和阈值:用较小的随机非零值初始化Wi(0)。其中,Wi(t) (1in) 为t时刻第i个输入的权值,Wn+1(t)为
8、t时刻的阈值。 n输入样本:X=(X1, X2, Xn, T ),T称为教师信号(即期望输出)。 n计算网络的实际输出: n修正权值:Wi(t+1)=Wi(t)+ (TY(t)Xi ,i=(1, 2, n, n+1)其中,(0, 1)为学习率,用于控制修正速度。 n转到步骤(2)重复执行,直到W对一切样本均稳定不变为止。 )()(11tWXftYniii2003-11-1高等教育出版社16多层前向神经网络n多层前向神经网络有一个输入层、一个输出层和若干个隐层。输入样本送入输入层后,传递给第一隐层。第一隐层节点对输入信号求加权和后,利用转移函数进行处理。第一隐层的输出传递给下一隐层,各个隐层依次
9、类推,最后一个隐层的输出作为输出层的输入,输出层给出输入样本的网络预测。有两个隐层的前向神经网络如图所示: 31Y3mYlkWjkWijW21Y22nY11Y11nYl k j i x1 x2 xn 2003-11-1高等教育出版社17BP算法的提出n1985年,Rumelhart、Hinton和Williams给出了前向神经网络学习训练的误差后向传播算法(Back Propagation,简称BP算法),成功地解决了多层网络中隐含层神经元连接权值的学习问题。 n基本的BP算法采用有监督学习方式,基于梯度下降算法,极小化误差函数。其主要思想是将学习过程分为信号正向传播过程和误差后向传播过程两个
10、阶段。 2003-11-1高等教育出版社18相关概念 n设(Xp, Tp) 表示输入样本,p1, 2, N,N为输入样本的个数。W表示网络权向量。 n误差函数:E (W)=g ( f (W, Xp, Tp) ),E称为误差(测度)函数。用误差函数来判别网络的实际输出向量Yp与教师信号向量Tp的误差。常采用二乘误差函数加以判别(m为输出向量的维数): NpmiipipNpppNppYTEE112121212121YT2003-11-1高等教育出版社19相关概念 n映射:对于给定的一组数据(Xp, Tp),神经网络通过一组特定的权值W,实现一定精度的映射。训练目的是希望得到的权值能产生最小的误差和
11、最好的精度。从XpRn到YpRm的映射记为: f : XpRnYpRm n误差曲面:若隐层与输出层间的权值数目记为mn2,对于给定的训练样本(Xp, Tp),网络权向量W(W1, W2, Wmn2),通过误差函数E(W)计算出来的映射误差可描述为mn2+1空间的一个曲面,称为误差曲面。不同的E (W)对应不同的误差曲面形状。 2003-11-1高等教育出版社20相关概念 n网络学习:是指按照某种学习规则选取新的W,使E(W)E(W),即使E(W)对应的误差曲面上的点总是向山下移动,最终移到最深的谷底(全局最小)。若曲面有多个谷底,移动的过程可能陷入局部极小。 n移动步长:也称学习率,步长较小时
12、移动轨迹较慢且平滑,易陷入局部极小;步长较大时移动速度快,可能跳过局部极小,也可能跳过全局最小点,易产生振荡。一般情况下,开始时取较大步长,后期取较小步长。 2003-11-1高等教育出版社21相关概念 n梯度下降算法:如果移动是在误差曲面最陡的方向,或梯度下降的方向上进行,这样下山的速度快,称作最速梯度下降法。 2003-11-1高等教育出版社22BP算法权值的修正量nBP算法基于梯度下降算法。在梯度下降算法中,权值的修正量正比于误差函数E(W)对W的负梯度,即: W (t+1)= W (t) +W (t) WWWEt2003-11-1高等教育出版社23BP算法权值修正公式的推导n设有N个学
13、习样本(Xp, Tp),p1, 2, N,对于某个Xp,网络输出为Yp,节点i的输出为Oip,神经元节点i和j的连接权值为Wij,节点j的输入加权和为: n误差函数使用二乘误差函数:n其中, iipijjpOWnetNpppNppEE1212121YT22()()pppjpjpjETYTY2003-11-1高等教育出版社24BP算法权值修正公式的推导(续)n根据netjp定义及求偏导数的链式规则有:n令 ,上式改写为: ipjppijjpjppijpOnetEWnetnetEWE()pjpjpEnetipjpipjppijjpjppijpOOnetEWnetnetEWE2003-11-1高等教
14、育出版社25BP算法权值修正公式的推导(续)n为计算 ,由于使用链式规则有: ()pjpjpEnet()jpjpOf netjpjpjppjppjpnetOOEnetE2003-11-1高等教育出版社26BP算法权值修正公式的推导(续)n若j是输出节点,则Ojp=Yjp,从而有:n若j不是输出节点,则有:n其中 jpjpjpjpjpjppjpnetfYTnetYYE2jpjppjpjpjppjppjpnetfOEnetOOEnetE2003-11-1高等教育出版社27BP算法权值修正公式的推导(续)从而有: mjmmpjpjjpjmmmppjpmpmmppjppWOOWnetEOnetnetE
15、OEmjmmpjpjpWnetf2003-11-1高等教育出版社28BP算法权值修正公式的推导(续)n通过以上讨论,梯度下降算法对权值的修正为: NpipjpijNpijpijijOtWWEtWtW1112003-11-1高等教育出版社29三层前向神经网络n考虑一个三层的前向神经网络,设输入层节点数为n1,中间层节点数为n2,输出层节点数为m。设 为输入层节点i的输出; 为中间层节点j的输出; 为输出层节点k的输出;Tk为输出层节点k对应的教师信号;Wij为节点i和节点j间的连接权值;Wjk为节点j和节点k间的连接权值;j为中间层节点j的阈值;k为输出层节点k的阈值。 1iY2jY3kY200
16、3-11-1高等教育出版社30三层前向神经网络(续)n节点转移函数取为Sigmoid函数: nSigmoid函数是单调递增函数,且处处可导,其导数为:n误差函数取为二乘误差函数: 1011xfexfx)(1)()( xfxfxfNpppE1221YT2003-11-1高等教育出版社31三层前向神经网络BP算法n(1)设定学习次数初值t=0;用小的随机数初始化网络权值和阈值,Wij(t)-1, 1,Wjk(t)-1, 1,j (t)-1, 1,k (t)-1, 1。 n(2)输入一个学习样本(Xp, Tp),其中p1, 2, N、N为样本数,XpRn,TpRm 。 n(3)计算隐层各节点的输出值
17、: 21112, 2 , 1 11njXWfYWfYnijipijnijiijj2003-11-1高等教育出版社32三层前向神经网络BP算法(续)n(4) 计算输出层各节点的输出: n(5) 计算输出层节点和隐层节点之间连接权值的修正量: mkYWfYnjkjjkk, 2 , 1 2123mkYYYTkkkkk, 2 , 1 13332003-11-1高等教育出版社33三层前向神经网络BP算法(续)n(6) 计算隐层节点和输入层节点间连接权值修正量: j1, 2, n2 n(7) 利用下式修正输出层节点k和隐层节点j的连接权值Wkj,修正输出层节点k的阈值。其中k为(5)中求出的误差修正量。
18、mkjkkjjjWYY122)1 ( 21jkjkjkYtWtW kkktt12003-11-1高等教育出版社34三层前向神经网络BP算法(续)n(8) 利用下式修正隐层节点j和输入层节点i的连接权值Wji,修正隐层节点j的阈值。其中j为(6)中求出的误差修正量。 n(9) 如果未取完全部学习样本,则返回步骤(2)。 n(10) 计算误差函数E,并判断E是否小于规定的误差上限,如果E小于误差上限,或学习达到学习次数限制,则算法结束;否则更新学习次数t = t+1,返回步骤(2)。 11ijijijYtWtW jjjtt12003-11-1高等教育出版社35三层前向神经网络BP算法(续)n步骤(
展开阅读全文