遗传算法神经算法退火算法模糊算法课件.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《遗传算法神经算法退火算法模糊算法课件.pptx》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 遗传 算法 神经 退火 模糊 课件
- 资源描述:
-
1、计算智能智能:有效地获取、传递、处理、再生和利用信息,使其在任意环境下成功地达到预定目标的能力。人工智能:研究如何用人工的方法模拟、延伸和扩展智能。计算智能人工智能的三个学派 符号主义学派 以知识为基础,通过推理来进行问题求解,功能模拟的方法。联接主义学派 始于1943年的M-P模型,1982年Hopfiled提出的用硬件模拟神经网络,BP算法,结构-功能模拟的方法。行为主义学派 进化主义或控制论学派,行为模拟的方法。计算智能计算智能 定义一:以数据为基础,以计算为手段来建立功能上的联系(模型),而进行问题求解,以实现对智能的模拟和认识。定义二:用计算科学与技术模拟人的智 能结构和行为。计算智
2、能计算智能与软计算 计算智能是强调通过计算的方法来实现生物内在的智能行为。软计算是受智能行为启发的现代优化计算方法,强调计算和对问题的求解。计算智能软计算方法是指利用所允许的不精确性、不确定性和部分真实性得到易于处理、鲁棒性强和成本较低的解决方案,它区别于用精确、固定和不变的算法表达和解决问题的硬计算。软计算作为一种创建计算智能系统的新颖方法,正在引起人们的关注.目前已经认识到,复杂的实际问题需要智能系统对各种不同来源的知识、技术和方法进行组合.在解决实际计算问题时,协同地而不是互斥地采用几种计算技术通常具有优越性,所产生的系统被称为互补的混合智能系统。计算智能 软计算不是一种单一的方法,而是
3、多种方法的结合与协作,构成软计算的三个主要元素是模糊逻辑、神经计算和进化算法,这三者分别提供不同方面的能力,其中模糊逻辑主要处理非精确性和进行近似推理,神经网络使系统获得学习和适应的能力,进化算法则提供进行随机搜索和优化的能力。1.神经网络1.1 神经网络的发展历史所谓人工神经网络就是基于模仿生物大脑的结构和功能而构成的一种信息处理系统。Nielsen的定义l人工神经网络是一个并行、分布处理结构,它由处理单元及其称为联接的无向讯号通道互连而成。l这些处理单元具有局部内存,可以完成局部操作,即它必须仅仅依赖于经过输入联接到达处理单元的所有输入信号的当前值和存储在处理单元局部内存中的值。l每个处理
4、单元有一个单一的输出联接,输出信号可以是任何需要的数学模型。1.1 神经网络的发展历史初始(萌发)期人工神经网络的兴起l1943年,美国神经生理学家Warren Mcculloch和数学家Walter Pitts合写了一篇关于神经元如何工作的开拓性文章:“A Logical Calculus of Ideas Immanent in Nervous Acitivity”。该文指出,脑细胞的活动像断/通开关,这些细胞可以按各种方式相互结合,进行各种逻辑运算。l1949年,心理学家Donala Hebb写了一本书:“The Organization of Behavior”。在该书中,他强调了心理
5、学和生理学间的联系和沟通,指出脑细胞间的思路每当通过参与某种活动时将被加强,这就是后来的Hebb学习规则。1.1 神经网络的发展历史l到了二十世纪50年代,随着计算机的发展和软硬件的进步,有些神经系统功能的理论开始在计算机上进行模拟,拓宽了研究的路子。lIBM的研究室在Hebb工作的基础上,对神经网络的模型进行了软件模拟,虽然开始时失败了,但在使得模型像人那样适应环境的实验上取得了一定程度的成功。1.1 神经网络的发展历史第一次高潮期 感知器模型和人工神经网络l1957年,计算机专家Frank Rosenblatt开始从事感知器的研究,并制成硬件,通常被认为是最早的神经网络模型。l1959年,
6、两位电机工程师Bernard Widrow和Marcian Haff开发出一种叫作自适应线性单元(ADALINE)的网络模型,并在他们的论文“Adaptive Switching Circuits”中描述了该模型和它的学习算法(Widrow-Haff算法)。该网络通过训练,可以成功用于抵消通信中的回波和噪声,也可用于天气预报,成为第一个用于实际问题的神经网络。1.1 神经网络的发展历史l1962年,Rosenblatt出版了一本书“The Principles of Neurodynamics”,详述了他的感知器模型。该感知器具有输入层、输出层和中间层,通过实验可以模仿人的某些特性,并断言它可
7、以学会任何它可以表示的功能。l1967年,Stephen Grossberg通过对生理学的研究,开发了一种称作雪崩网的神经网络模型,可以控制机器人手臂的运动。l在这一时期,由于感知器的某些进展和对神经网络的宣传,人们乐观地认为几乎已经找到了实现智能的关键。人们夸大了神经网络的潜力(有人甚至担心制造机器人的人类会很快受到机器人的攻击)1.1 神经网络的发展历史反思期 神经网络的低潮l1969年,Marvin Minsky和Seymour Papert合著了一本书“Perception”,分析了当时的简单感知器,指出它有非常严重的局限性,甚至不能解决简单的“异或”问题,为Rosenblatt的感知
8、器判了“死刑”。l此时,批评的声音高涨,导致了停止对人工神经网络研究所需的大量投资。l不少研究人员把注意力转向了人工智能,导致对人工神经网络的研究陷入低潮。1.1 神经网络的发展历史第二次高潮期 Hopfield网络模型的出现和人工神经网络的复苏l1982年,John Hopfield向美国科学院递交了有关神经网络的报告,主要内容就是建议收集和重视以前对神经网络的工作,其中特别强调了每种模型的实用性。lHopfield揭示了以往的网络是如何工作的,可以做些什么,并提出了他自己的模型,能从失真的或不完善的数据图像中获得完整的数据图像,引起了美国军方的兴趣。l当时,人工智能对自动制导车的研究失败,
9、而利用神经网络有可能解决这个问题,从而使人们的注意力重新投向人工神经网络,导致了人工神经网络的第二次高潮。7 Hopfield网络变异运算,是指依据变异概率 Pm 将个体编码串中的某些基因值用其它基因值来替换,从而形成一个新的个体。交叉概率对收敛性的影响利用比例选择算子的公式,计算每个个体被选中遗传到下一代群体的概率;故而在这个算法中要用到各种进化和遗传学的概念。机器2(M2):加工顺序是 O31(2),O12(3),O23(3)通过这些遗传操作,模式逐步向较好的方向进化,最终得到问题的最优解。一层是实际神经元,故而执行对输人信息和权系数乘积求累加和,并由非线性f处理后产生输出信息。即是说在权
10、系数矩阵W中,如果与算法收敛性有关的因素主要包括种群规模、选择操作、交叉概率和变异概率。模糊子集 R 的隶属函数为映射Ac(x)=1-A(x).人工神经网络的拓扑结构而当城市的个数超过30时,最终的结果就不太理想了遗传算法中的变异运算是产生新个体的辅助方法,它决定了遗传算法的局部搜索能力,同时保持种群的多样性。1.1 神经网络的发展历史l1984年,Hopfield设计研制了后来被人们称为Hopfield网的电路,较好地解决了TCP问题,找到了最佳解的近似解,引起了较大轰动。l1985年,Hinton、Sejnowsky、Rumelhart等研究者在Hopfield网络中引入随机机制,提出了所
11、谓的Bolziman机。l1986年,Rumelhart等研究者重新独立地提出多层网络的学习算法BP算法,较好地解决了多层网络的学习问题。l1990年12月,国内首届神经网络大会在北京举行。1.2 神经网络的基本概念生物神经网络:Biological Neural Network(BNN)神经元:neuronl神经元经突触传递信号给其他神经元(胞体或树突)l1011个神经元/人脑l104个连接/神经元神经元基本工作机制:l状态:兴奋与抑制l互联,激励,处理,阈值1.2 神经网络的基本概念人工神经元模型(MP模型):l多输入,单输出,带偏置lR个输入piR,即R维输入矢量pln:net inpu
12、t,n=Wp+b。R个权值wiR,即R维权矢量w阈值bl输出a=f(n)1.2 神经网络的基本概念常用输出函数 (1)阈值函数:1(0)()hardlim()0(0)naf nnn1.2 神经网络的基本概念(2)线性输出函数:()af nn1.2 神经网络的基本概念(3)Sigmoid函数 特性:l值域a(0,1)l非线性,单调性l无限次可微l|n|较小时可近似线性函数l|n|较大时可近似阈值函数1()1naf ne1.2 神经网络的基本概念人工神经网络的拓扑结构(1)前向网络:1.2 神经网络的基本概念层次划分层次划分 l信号只被允许从较低层流向较高层。信号只被允许从较低层流向较高层。l层号
13、确定层的高低:层号较小者,层次层号确定层的高低:层号较小者,层次较低,层号较大者,层次较高。较低,层号较大者,层次较高。l输入层输入层:被记作第:被记作第0层。该层负责接收层。该层负责接收来自网络外部的信息来自网络外部的信息1.2 神经网络的基本概念l第第j层层:第:第j-1层的直接后继层(层的直接后继层(j0),),它直接接受第它直接接受第j-1层的输出。层的输出。l输出层输出层:它是网络的最后一层,具有该:它是网络的最后一层,具有该网络的最大层号,负责输出网络的计算网络的最大层号,负责输出网络的计算结果。结果。l隐藏层隐藏层:除输入层和输出层以外的其它:除输入层和输出层以外的其它各层叫隐藏
14、层。隐藏层不直接接受外界各层叫隐藏层。隐藏层不直接接受外界的信号,也不直接向外界发送信号的信号,也不直接向外界发送信号1.2 神经网络的基本概念约定约定:l输出层的层号为该网络的层数:输出层的层号为该网络的层数:n层网络,或层网络,或n级网络。级网络。l第第j-1层到第层到第j层的联接矩阵为第层的联接矩阵为第j层联接矩阵,层联接矩阵,输出层对应的矩阵叫输出层联接矩阵。今后,输出层对应的矩阵叫输出层联接矩阵。今后,在需要的时候,一般我们用在需要的时候,一般我们用W(j)表示第表示第j层矩层矩阵阵T=100-500,模糊逻辑“取小”:=min (取两个真值中小的一个,对应于二值逻辑中的“与”)机器
15、3(M3):加工顺序是 O13(2),O22(5),O33(3),j*oj;较好地解决了因样本的顺序引起的精度问题和训练的抖动问题7 Hopfield网络简单模糊命题:x是A (A是语言值)。离散Hopfield网络有二种不同的工作方式:确定了一个U上的模糊子集A,映射A(x)称为A的隶属函数,它表示x对A的隶属程度.7 Hopfield网络“中速”为接近70km/h;“”表示:“如果-那么,若-则”直到1983 年由Kirkpatrick et al.45,1,0.1 神经网络的发展历史1.2 神经网络的基本概念(2)反馈互连网络1.2 神经网络的基本概念如果将输出信号反馈到输入端如果将输出
16、信号反馈到输入端,就可构成一个多层就可构成一个多层的循环网络。的循环网络。输入的原始信号被逐步地输入的原始信号被逐步地“加强加强”、被、被“修复修复”。大脑的大脑的短期记忆特征短期记忆特征看到的东西不是一下子看到的东西不是一下子就从脑海里消失的。就从脑海里消失的。稳定稳定:反馈信号会引起网络输出的不断变化。我:反馈信号会引起网络输出的不断变化。我们希望这种变化逐渐减小,并且最后能消失。当们希望这种变化逐渐减小,并且最后能消失。当变化最后消失时,网络达到了平衡状态。如果这变化最后消失时,网络达到了平衡状态。如果这种变化不能消失,则称该网络是不稳定的。种变化不能消失,则称该网络是不稳定的。1.3
17、人工神经网络的训练 人工神经网络最具有吸引力的特点是它的人工神经网络最具有吸引力的特点是它的学习能力。学习能力。人工神经网络的学习过程就是对它的训练人工神经网络的学习过程就是对它的训练过程。过程。有导师学习、无导师学习。有导师学习、无导师学习。1.3 人工神经网络的训练有导师学习有导师学习 有导师学习有导师学习(Supervised Learning)与有导师训练与有导师训练(Supervised Training)相对应。相对应。输入向量与其对应的输出向量构成一个输入向量与其对应的输出向量构成一个“训练训练对对”。有导师学习的训练算法的主要步骤包括:有导师学习的训练算法的主要步骤包括:1)从
18、样本集合中取一个样本(从样本集合中取一个样本(Xi,Yi););2)计算出网络的实际输出计算出网络的实际输出O;3)求求D=Yi-O;4)根据根据D调整权矩阵调整权矩阵W;5 5)对每个样本重复上述过程,直到对整个样本集对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。来说,误差不超过规定范围。1.3 人工神经网络的训练Wij(t+1)=Wij(t)+Wij(t)Wij(t)(t)=jxi(t)(t)j=yj-oj(t)(t)1.3 人工神经网络的训练无导师学习无导师学习Hebb学习律、竞争与协同(学习律、竞争与协同(Competitive and Cooperative)学习
19、、随机联接系统()学习、随机联接系统(Randomly Connected Learning)等。)等。Hebb算法算法D.O.Hebb在在1961年年的核心:的核心:l当两个神经元同时处于激发状态时被加强,否当两个神经元同时处于激发状态时被加强,否则被减弱。则被减弱。l数学表达式表示:数学表达式表示:Wij(t+1)=Wij(t)+xi(t)oj(t)1.3 人工神经网络的训练存储与映射存储与映射CAM方式(方式(Content Addressable Memory)内容内容寻址方式是将数据映射到地址。寻址方式是将数据映射到地址。AM方式(方式(Associative Memory)相联存储
20、方式相联存储方式是将数据映射到数据。是将数据映射到数据。在学习在学习/训练期间,人工神经网络以训练期间,人工神经网络以CAM方式工方式工作;权矩阵又被称为网络的长期存储。作;权矩阵又被称为网络的长期存储。网络在正常工作阶段是以网络在正常工作阶段是以AM方式工作的;神经方式工作的;神经元的状态表示的模式为短期存储。元的状态表示的模式为短期存储。1.4 感知器McCulloch 和和Pitts 1943年,发表第一个系统的年,发表第一个系统的ANN研究研究阈值加权和阈值加权和(M-P)数学模型。数学模型。1.4 感知器 感知器的学习是有导师学习感知器的学习是有导师学习 基本思想:逐步地将样本集中的
21、样本输入到网络中基本思想:逐步地将样本集中的样本输入到网络中,根据输出根据输出结果和理想输出之间的差别来调整网络中的权矩阵结果和理想输出之间的差别来调整网络中的权矩阵 1.4 感知器感知器训练算法感知器训练算法 样本集:样本集:(X,Y)|Y为输入向量为输入向量X对应的输对应的输出出 输入向量:输入向量:X=(x1,x2,xn)理想输出向量:理想输出向量:Y=(y1,y2,ym)激活函数:激活函数:F 权矩阵权矩阵W=(wij)实际输出向量:实际输出向量:O=(o1,o2,om)偏移量:给每一个神经元增加一个偏移量来加快收敛速度M=20-100,交叉运算是遗传算法区别于其他进化算法的重要特征,
22、它在遗传算法中起关键作用,是产生新个体的主要方法。它们的相互关系可用下图表示,语言变量通过模糊等级规则,可以给它赋予不同的语言值以区别不同的程度。wij=joi+wij变异概率对收敛性的影响对于基本遗传算法中用二进制编码符号串所表示的个体,若需要进行变异操作的某一基因座上的原有基因值为0,则变异操作将其变为1;T=100-500,在解决实际计算问题时,协同地而不是互斥地采用几种计算技术通常具有优越性,所产生的系统被称为互补的混合智能系统。软计算不是一种单一的方法,而是多种方法的结合与协作,构成软计算的三个主要元素是模糊逻辑、神经计算和进化算法,这三者分别提供不同方面的能力,其中模糊逻辑主要处理
23、非精确性和进行近似推理,神经网络使系统获得学习和适应的能力,进化算法则提供进行随机搜索和优化的能力。例子:如果西红柿红了,则西红柿熟了;“”表示命题的否定。当时,人工智能对自动制导车的研究失败,而利用神经网络有可能解决这个问题,从而使人们的注意力重新投向人工神经网络,导致了人工神经网络的第二次高潮。而某一部分进行抽象思维特别有效。A(x)=A1(x1)+A2(x2)+An(xn)/n.1.4 感知器1.初始化权矩阵初始化权矩阵W;2.重复下列过程,直到训练完成:重复下列过程,直到训练完成:2.1 对每个样本(对每个样本(X,Y),重复如下过程:),重复如下过程:输入输入X;计算计算O=F(XW
24、););执行如下操作:执行如下操作:wij=wij+(yj-oj)xi1.4 感知器算法思想算法思想:将单输出感知器的处理逐个地:将单输出感知器的处理逐个地用于多输出感知器输出层的每一个神经元用于多输出感知器输出层的每一个神经元的处理。的处理。第第1步,步,权矩阵的初始化权矩阵的初始化:一系列小伪随:一系列小伪随机数。机数。1.4 感知器第第2步,步,循环控制。循环控制。方法方法1:循环次数控制法:循环次数控制法:对样本集执行:对样本集执行规定次数的迭代规定次数的迭代改进改进分阶段迭代控制:设定一个基本分阶段迭代控制:设定一个基本的迭代次数的迭代次数N,每当训练完成,每当训练完成N次迭代后,次
25、迭代后,就给出一个中间结果就给出一个中间结果1.4 感知器方法方法2:精度控制法:精度控制法:给定一个精度控制给定一个精度控制参数参数l精度度量:实际输出向量与理想输出向精度度量:实际输出向量与理想输出向量的对应分量的差的绝对值之和;量的对应分量的差的绝对值之和;l实际输出向量与理想输出向量的欧氏距实际输出向量与理想输出向量的欧氏距离的和离的和l“死循环死循环”:网络无法表示样本所代表:网络无法表示样本所代表的问题的问题1.4 感知器方法方法3:综合控制法:综合控制法:将这两种方法结合将这两种方法结合起来使用起来使用 注意:精度参数的设置。根据实际问题选注意:精度参数的设置。根据实际问题选定;
展开阅读全文