神经信息学-课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《神经信息学-课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经 信息学 课件
- 资源描述:
-
1、神经信息学 平行分布式理论框架平行分布式理论框架史忠植史忠植shizzics.ict.acshizzics.ict.ac中科院计算所中科院计算所2022-10-9目目 录录1.神经计算神经计算2.并行分布式理论框架并行分布式理论框架3.交互与竞争神经网络交互与竞争神经网络4.误差反向传播神经网络误差反向传播神经网络5.Hopfield5.Hopfield神经网络神经网络2022-10-9神经神经网络网络l一个神经网络是由简单处理元构成的规模宏大的并行分布处理器。天然具有存储经验知识和使之可用的特性。l神经网络从两个方面上模拟大脑:神经网络获取的知识是从外界环境中学习得来的。内部神经元的连接强度
2、,即突触权值,用于储存获取的知识。2022-10-9发展发展历史历史 l萌芽期(萌芽期(20世纪世纪40年代)年代)人工神经网络的研究最早可以追溯到人类开始人工神经网络的研究最早可以追溯到人类开始研究自己的智能的时期,到研究自己的智能的时期,到1949年止。年止。1943年,心理学家年,心理学家McCulloch和数学家和数学家Pitts建立起了著名的阈值加权和模型,简称为建立起了著名的阈值加权和模型,简称为M-P模型。发表于数学生物物理学会刊模型。发表于数学生物物理学会刊Bulletin of Methematical Biophysics 949年,心理学家年,心理学家D.O.Hebb提出
3、神经元之提出神经元之间突触联系是可变的假说间突触联系是可变的假说Hebb学习律。学习律。2022-10-9发展发展历史历史l第一高潮期(第一高潮期(19501968)以以Marvin Minsky,Frank Rosenblatt,Bernard Widrow等为代表人物,代表作是单等为代表人物,代表作是单级感知器(级感知器(Perceptron)。)。可用电子线路模拟。可用电子线路模拟。人们乐观地认为几乎已经找到了智能的关键。人们乐观地认为几乎已经找到了智能的关键。许多部门都开始大批地投入此项研究,希望尽许多部门都开始大批地投入此项研究,希望尽快占领制高点。快占领制高点。2022-10-9发
4、展发展历史历史l反思期(反思期(19691982)M.L.Minsky和和S.Papert,Perceptron,MIT Press,1969年年 异或异或”运算不可表示运算不可表示 二十世纪二十世纪70年代和年代和80年代早期的研究结果年代早期的研究结果 2022-10-9发展发展历史历史l第二高潮期(第二高潮期(19831990)1982年,年,J.Hopfield提出提出Hopfield网络网络l用用Lyapunov函数函数作为网络性能判定的能量函数,作为网络性能判定的能量函数,建立建立ANNANN稳定性的判别依据稳定性的判别依据l阐明了阐明了ANNANN与动力学的关系与动力学的关系l用
5、非线性动力学的方法来研究用非线性动力学的方法来研究ANNANN的特性的特性l指出信息被存放在网络中神经元的联接上指出信息被存放在网络中神经元的联接上 2022-10-9发展发展历史历史l第二高潮期(第二高潮期(19831990)1984年,年,J.Hopfield设计研制了后来被人们设计研制了后来被人们称为称为Hopfield网网-Tank-Tank 电路。较好地解决了著电路。较好地解决了著名的名的TSP问题,找到了最佳解的近似解,引起问题,找到了最佳解的近似解,引起了较大的轰动。了较大的轰动。1985年,年,UCSD的的Hinton、Sejnowsky、Rumelhart等人所在的并行分布处
6、理(等人所在的并行分布处理(PDP)小组的研究者在小组的研究者在Hopfield网络中引入了随机机网络中引入了随机机制,提出所谓的制,提出所谓的Boltzmann机机。2022-10-9发展发展历史历史 1986年,并行分布处理小组的年,并行分布处理小组的Rumelhart等等研究者重新独立地提出多层网络的学习算法研究者重新独立地提出多层网络的学习算法BP算法算法,较好地解决了多层网络的学习问,较好地解决了多层网络的学习问题。(题。(Paker1982和和Werbos1974年)年)自适应共振理论(ART)自组织特征映射理论2022-10-9发展发展历史历史 Hinton 等人最近提出了 He
7、lmboltz 机 徐雷提出的 Ying-Yang 机理论模型 甘利俊一(S.Amari)开创和发展的基于统计流形的方法应用于人工神经网络的研究,l国内首届神经网络大会国内首届神经网络大会是是1990年年12月在北京举行月在北京举行的的。2022-10-9并行分布式理论框架并行分布式理论框架 1986年,美国加州大学圣地亚哥分校(UCSD)Rumellhart,McClelland,Hinton:Parallel and Distributed Processing,MIT Press,Cambridge2022-10-9并行分布式理论框架并行分布式理论框架PDP模型模型1)一组处理单元一组处
8、理单元(PE或或AN)2)处理单元的处理单元的激活状态激活状态(ai)3)每个处理单元的每个处理单元的输出函数输出函数(fi)4)处理单元之间的连处理单元之间的连接模式接模式5)传递规则传递规则(wijoi)6)把处理单元的输入及当前状态结合起来产生激把处理单元的输入及当前状态结合起来产生激活值的活值的激活规则激活规则(Fi)7)通过经验修改连接强度的通过经验修改连接强度的学习规则学习规则8)系统运行的环境(系统运行的环境(样本样本集合)集合)2022-10-9神经网络的维数神经网络的维数lVarious types of neuronslVarious network architectur
9、eslVarious learning algorithmslVarious applications2022-10-9自组织神经网络的典型结构交互与竞争交互与竞争IACIAC神经网络神经网络竞争层竞争层输入层输入层2022-10-9竞争学习竞争学习)()(iTiiXXXXXX 类 1 类 2 类 1 类 2 T T (a)基 于 欧 式 距 离 的 相 似 性 测 量 (b)基 于 余 弦 法 的 相 似 性 测 量相似性测量相似性测量欧式距离法欧式距离法2022-10-9iiTXXXXcos 类 1 类 2 类 1 类 2 T T (a)基 于 欧 式 距 离 的 相 似 性 测 量 (b
10、)基 于 余 弦 法 的 相 似 性 测 量相似性测量相似性测量余弦法余弦法竞争学习竞争学习2022-10-9竞争学习规则竞争学习规则Winner-Take-All 网络的输出神经元之间相互竞争以求被网络的输出神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元激活,结果在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制,故称神经元,而其它神经元的状态被抑制,故称为为Winner Take All。竞争学习竞争学习原理原理2022-10-9寻找获胜神经元寻找获胜神经元 当网络得到一个输入模式向量时,
11、当网络得到一个输入模式向量时,竞争层的所有神经元对应的内星权向量均与其进行相竞争层的所有神经元对应的内星权向量均与其进行相似性比较,并将最相似的内星权向量判为竞争获胜神似性比较,并将最相似的内星权向量判为竞争获胜神经元。经元。欲使两单位向量最相似,须使其点积最大。即:欲使两单位向量最相似,须使其点积最大。即:)(max,.,2,1*XWXWTjmjTj竞争学习原理竞争学习原理2022-10-9 从上式可以看出,欲使两单位向量的欧式距离从上式可以看出,欲使两单位向量的欧式距离最小,须使两向量的点积最大。即:最小,须使两向量的点积最大。即:)(max,.,2,1*XWXWTjmjTjjmjjWXW
12、Xmin,.,2,1*)()(*jTjjWXWXWXTjTjTjT*2WWXWXX)1(2*XWTj竞争学习原理竞争学习原理2022-10-93.3.网络输出与权值调整网络输出与权值调整*01)1(jjjjtoj)()()()()1(*jjjjjttttWXWWWW)()1(ttjjWW j j j j*步骤步骤3 3完成后回到步骤完成后回到步骤1 1继续训练,直到学习率继续训练,直到学习率衰减到衰减到0 0。竞争学习原理竞争学习原理2022-10-9单层感知器单层感知器模型模型 o1 oj om W1 Wj Wm x1 x2 xi xn前馈神经网络前馈神经网络Tni,.,x,.x,xx)(2
13、1XTmi,.,o,.o,oo)(21OTnjijjjj,.,w,.w,ww)(21W2022-10-9净输入:净输入:niiijjmjxwnet1,.,2,1输出:输出:)()()(XWTjn0iiijjjjsgnxwsgnTnetsgnoojx1-1xn单层感知器单层感知器2022-10-9感知器的功能感知器的功能(1)设输入向量设输入向量X=(x1,x2)T0Txwxw10Txwxw1oj2j21j1j2j21j1j输出:输出:则由方程则由方程 w1jx1+w2jx2-Tj=0 确定了二维平面上的一条分界线。确定了二维平面上的一条分界线。ojx1-1x2单计算节点感知器单计算节点感知器单
14、层感知器单层感知器2022-10-9感知器的功能感知器的功能 x1 *O *O *O O *O x2 *O O O O单层感知器单层感知器2022-10-9感知器的功能感知器的功能(2)设输入向量设输入向量X=(x1,x2,x3)T0101332211332211jjjjjjjjjTxwxwxwTxwxwxwo输出:输出:则由方程则由方程 w1jx1+w2jx2+w3j x3Tj=0 (3.4)确定了三维空间上的一个分界平面确定了三维空间上的一个分界平面。x2ojx1x3-1单层感知器单层感知器2022-10-9 x1 *O *O *O O *O x2 *O O O x3感知器的功能感知器的功
15、能单层感知器单层感知器2022-10-9多层感知器多层感知器x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxnW(1)W(2)W(3)W(L)网络的拓扑结构网络的拓扑结构2022-10-9 o T3 y1 y2 -1 w11 w21 w22 T1 T2 w12 -1 x1 x2 双层感知器双层感知器 x1 S1 O S2 O x2“异或异或”问题分类问题分类用两计算层感知器解决用两计算层感知器解决“异或异或”问题。问题。“异或异或”的真值表的真值表x1x2y1y2o001011100111多层感知器多层感知器2022-10-9 o T3 y1 y2 -1 w11 w21 w22 T1
16、 T2 w12 -1 x1 x2 双层感知器双层感知器 x1 S1 O S2 O x2“异或异或”问题分类问题分类用两计算层感知器解决用两计算层感知器解决“异或异或”问题问题“异或异或”的真值表的真值表x1x2y1y2o001010101111多层感知器多层感知器2022-10-9 o T3 y1 y2 -1 w11 w21 w22 T1 T2 w12 -1 x1 x2 双层感知器双层感知器 x1 S1 O S2 O x2“异或异或”问题分类问题分类用两计算层感知器解决用两计算层感知器解决“异或异或”问题。问题。“异或异或”的真值表的真值表x1x2y1y2o0011011010011111多层
17、感知器多层感知器2022-10-9 o T3 y1 y2 -1 w11 w21 w22 T1 T2 w12 -1 x1 x2 双层感知器双层感知器 x1 S1 O S2 O x2“异或异或”问题分类问题分类例四例四 用两计算层感知器解用两计算层感知器解决决“异或异或”问题。问题。“异或异或”的真值表的真值表x1x2y1y2o00110011011001111110多层感知器多层感知器2022-10-9具有不同隐层数的感知器的分类能力对比具有不同隐层数的感知器的分类能力对比 感知器结构 异或问题 复杂问题 判决域形状 判决域 无隐层 半平面 单隐层 凸 域 双隐层 任意复杂 形状域多层感知器多层
18、感知器2022-10-9基于基于BP算法的多层前馈网络模型算法的多层前馈网络模型 o1 ok ol W1 Wk Wl y1 y2 yj ym V1 Vm x1 x2 xi xn-1 xn误差反向传播(误差反向传播(BPBP)网路)网路2022-10-9基于基于BP算法的多层前馈网络模型算法的多层前馈网络模型输入向量:输入向量:X=(x1,x2,xi,xn)T隐层输出向量:隐层输出向量:Y=(y1,y2,yj,ym)T输出层输出向量:输出层输出向量:O=(o1,o2,ok,ol)T期望输出向量:期望输出向量:d=(d1,d2,dk,dl)T输入层到隐层之间的权值矩阵:输入层到隐层之间的权值矩阵:
19、V=(V1,V2,Vj,Vm)隐层到输出层之间的权值矩阵:隐层到输出层之间的权值矩阵:W=(W1,W2,Wk,Wl)误差反向传播(误差反向传播(BPBP)网路)网路2022-10-93.4.1 基于基于BP算法的多层前馈网络模型算法的多层前馈网络模型)(kknetfo对于输出层:对于输出层:k=1,2,lm0jjjkkywnetk=1,2,l对于隐层:对于隐层:j=1,2,mj=1,2,m)(jjnetfyn0iiijjxvnet误差反向传播(误差反向传播(BPBP)网路)网路2022-10-93.4.1 基于基于BP算法的多层前馈网络模型算法的多层前馈网络模型双极性双极性Sigmoid函数:
20、函数:xxe1e1xf)(单极性单极性Sigmoid函数:函数:xe11xf)(误差反向传播(误差反向传播(BPBP)网路)网路2022-10-9一、网络误差一、网络误差 定义与权值调整思路定义与权值调整思路输出误差输出误差E定义:定义:221E)(Od l1k2kkod21)(将以上误差定义式展开至隐层:将以上误差定义式展开至隐层:l1k2kknetfd21E)(l1k2m0jjjkkywfd21)(BPBP学习算法学习算法2022-10-9一、网络误差与权值调整一、网络误差与权值调整进一步展开至输入层:进一步展开至输入层:l1k2m0jjjkknetfwfd21E)(l1k2m0jn0ii
21、ijjkkxvfwfd21)(BPBP学习算法学习算法2022-10-9BP学习算法学习算法jkjkwEwj=0,1,2,m;k=1,2,lijijvEvi=0,1,2,n;j=1,2,m式中负号表示梯度下降,常数式中负号表示梯度下降,常数(0,1)表示比例系数。表示比例系数。在全部推导过程中,对输出层有在全部推导过程中,对输出层有j=0,1,2,m;k=1,2,l 对隐层有对隐层有 i=0,1,2,n;j=1,2,mBPBP学习算法学习算法2022-10-9对于输出层,式对于输出层,式(3.4.9a)可写为可写为jkkkjkjkwnetnetEwEw对隐层,式对隐层,式(3.4.9b)可写为
22、可写为ijjjijijvnetnetEvEv对输出层和隐层各定义一个误差信号,令对输出层和隐层各定义一个误差信号,令 koknetE(3.4.11a)jyjnetEyjxiBPBP算法推导算法推导2022-10-9初始化 V、W、Emin,、q=1,p=1,E=0输入样本,计算各层输出:m21jfyTjj,.,),(XVl21kfoTjk,.,),(YW计算误差:P1pl1k2kkod21E)(计算各层误差信号:l21koo1odkkkk,.,)(okm21jyy1wjjl1kjkokyj,.,)(调整各层权值:m10jl21kjyokjkwjkw,.,.,n10 xm21jxvviyjiji
23、j,.,.,Y p 增 1,q 增 1 pP?N N E=0,p=1 EEmin Y 结束(1)初始化;初始化;P1ppP1RMEEE(4)计算各层误差信号;计算各层误差信号;(5)调整各层权值;调整各层权值;(6)检查是否对所有样本完成一次检查是否对所有样本完成一次 轮训;轮训;(7)检查网络总误差是否达到精检查网络总误差是否达到精 度要求。度要求。(2)输入训练样本对输入训练样本对X Xp、d dp计算各层输出;计算各层输出;(3)计算网络输出误差;计算网络输出误差;BPBP算法的程序实现算法的程序实现2022-10-9初始化 V、W计数器 q=1,p=1输入第一对样本计算各层输出计算误差
24、:P1pl1k2kkod21E)(Y p 增 1 pP?N用 E 计算各层误差信号 调整各层权值 q 增 1 N ErmsEmin E=0,p=1 Y 结束然后根据总误差计算各层的误差然后根据总误差计算各层的误差信号并调整权值。信号并调整权值。P1pl1k2pkpkod21E)(总 另一种方法是在所有样本输另一种方法是在所有样本输入之后,计算网络的总误差:入之后,计算网络的总误差:BPBP算法的程序实现算法的程序实现2022-10-9(1)非线性映射能力非线性映射能力 多层前馈网能学习和存贮大量输入多层前馈网能学习和存贮大量输入-输出模输出模式映射关系,而无需事先了解描述这种映射关式映射关系,
25、而无需事先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式系的数学方程。只要能提供足够多的样本模式对供对供BP网络进行学习训练,它便能完成由网络进行学习训练,它便能完成由n维输维输入空间到入空间到m维输出空间的非线性映射。维输出空间的非线性映射。多层前馈网多层前馈网(感知器感知器)的主要能力的主要能力2022-10-9(2)泛化能力泛化能力 当向网络输入训练时未曾见过的非样本数据当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确时,网络也能完成由输入空间向输出空间的正确映射。这种能力称为多层前馈网的泛化能力。映射。这种能力称为多层前馈网的泛化能力。(3)
展开阅读全文