北京交通大学研究生课程(神经网络、模糊控制及专家课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《北京交通大学研究生课程(神经网络、模糊控制及专家课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 北京 交通大学 研究生课程 神经网络 模糊 控制 专家 课件
- 资源描述:
-
1、研究生课程研究生课程. *. *1. 模糊神经网络系统(FNN) 模糊控制利用专家经验建立起来的模糊集、隶属度函数和模糊推理规则等实现了复杂系统的控制。控制器设计是基于人们在操作系统实践中积累的一些经验知识。通过主观的反复实验得到隶属度函数和模糊控制规则。缺点: 当环境发生变化时,缺乏自我调节和自学习的能力。解决方法之一:Sugeno提出将规则的自组织问题转化为参数估计问题。但仍有主观性。 如何把学习机制引入到模糊控制中来?. *1. 模糊神经网络系统(FNN) 神经网络由大量连接的神经处理单元组成的,具有高度的非线性映射能力和自学习能力,能够从样本数据中进行学习和泛化,计算速度快。神经网络具
2、有两大主要特征:分布表示和学习能力缺点: 无法处理语言变量,也不可能将专家的先验控制知识注入到神经网络控制系统中去,使得原本不是“黑箱”结构的系统设计问题只能用“黑箱”系统设计理论来进行。它还存在局部收敛问题。解决方法:利用神经网络的学习功能来优化模糊控制规则和相应的隶属度函数、将一些专家知识预先分布到神经网络中去是提出模糊神经网络理论的两个基本出发点。. *2. 神经网络专家系统 专家系统,是一个智能信息处理系统,它处理现实世界中提出的需要由专家来分析和判断的复杂问题,并采用专家推理方法来解决问题。传统的专家系统采用产生式规则和框架式结构,基于符号的知识的显式表示。缺点: 专家本人无法用这些
3、规则来表达他们的经验。解决方法:利用神经网络专家系统,是符号的隐式表示。它的知识库是分布在大量神经元以及它们之间的连接系数上的。知识获取只是神经网络的简单训练过程。. *. *. *. *1ju2ju3ju4ju5ju. * 12121,11jkkkkkkppkikkiipkkijiijfinetf uuuwwwoutputoa fuwfw uae神经元的输入函数的输出是与其连接的有限个神经元的输出和连接系数的函数,即表示与其连接的神经元的输出,表述相应的连接权系数;最常用的神经元输入函数和激励函数是:二、基本功能和函数关系. * 11111111,2,jjjjjijjfuafwuxjn第一层
4、:将输入变量值直接传送到下层二、基本功能和函数关系. *1ju(1)a. * (2)22(2)(2)(2)(2)(2)(2)22,(),jiijifjjxjijijjijijiijijijiumfMmaemiXjmwS 第二层:用单一节点完成简单的隶属函数,如对一钟形函数:第 个语言变量的第 个语言值隶属函数的中心值和宽度;:一、二层神经元之间的连接权值;:看作是与 函数相类似的一个斜率参数。二、基本功能和函数关系S注:若用一组节点完成一个隶属度函数,则每一个节点的函数可以是标准的形式(如 函数),且整个子网络用标准学习算法(如反传法)进行离线训练实现期望的隶属函数。. *1ju2ju(1)a
5、(2)a. * 3(3)(3)(3)123(3)(3)min,1jpjjjifuuuafw第三层:实现模糊逻辑规则的条件部的匹配,规则节点完成模糊“与”运算(玛达尼推理法)其中二、三层节点之间的连接权值二、基本功能和函数关系. *1ju2ju(1)a(2)a3ju(3)a. * 4(4)(4)(4)12(4)(4)(4)1max,12jpjjjifuuuafw第四层:有两种操作模式从下到上的传输模式中,实现的是模糊逻辑推理运算。在从上到下的传输模式中,此节点实现的是输出变量的模糊化。二、基本功能和函数关系. *1ju2ju(1)a(2)a3ju(3)a4ju(4)a. * 555551,jij
6、ijijijimwmj第五层:执行从下到上的信号传输方式,实现模糊输出的精确化计算。如果设分别表示输出语言变量各语言值的隶属度的中心位置和宽度,模拟重心法的精确化计算方法:则第四层节点与第五层节点之间的连接系数可以看作是,遍及第个输出变量的所有语言值。 5555555555()jjiijijiiiijjjiiifw umufau. *1ju2ju(1)a(2)a3ju(3)a4ju(4)a5ju(5)a. * 55552jjjjfyaf第五层执行从上到下的信号传输方式,实现了把实验数据反馈到神经网络中去的目的,提供模糊神经网络训练的样本数据二、基本功能和函数关系. *22expnetmf ne
7、tnetm基于神经元网络的基本模糊逻辑运算用单个神经元实现钟形隶属度函数,它的激励函数为:式中,是神经元总输入; 是隶属度函数的中心;代表隶属度函数的宽度。二、基本功能和函数关系. * 111 expsgccgXyxwxwwwS例如:用神经网络表示一个在实数轴上的语言变量 的三个语言值“小”,“中”,“大”的隶属度函数,则权值和分别决定了 函数的中心位置和宽度。二、基本功能和函数关系S用常规的 神经元表示隶属度函数。. *二、基本功能和函数关系cwgw 1syx 2myx 3Lyxs11sss1111(a). *二、基本功能和函数关系 mxSS适当地将权值初始化,模糊集合的隶属度函数可配置成如
8、图b所示的论域。拟梯形的隶属度函数是由两个函数组成,两个 函数具有不同的符号(如图c)。10.50 sx mx Lxmin( ) xmax( ) x10 x1x(b)(c). *二、基本功能和函数关系神经元网络实现的基本的模糊逻辑运算:“与”、“或”、“非”1. 直接法:设置神经元的激励函数为“与”、“或”、“非”,如何选取可微函数?举例:Softmin()minkakbabaebeabSoftee,k 变成常规的极小运算. *二、基本功能和函数关系2. 有序加权平均(OWA)法T12121 12212T:()( ,) ,0,1,1,(,),4(0.2,0.3,0.1,0.4) ,(0.6,1
9、,0.3,0.5)(0.2)niniinnninOWAfII Infv= v vvvvf a aavbv bv bba aafnOWAv=f运算:映射:是单位间隔 被称为 维OWA运算,如果 与加权向量且存在关系,使得:式中 是集合中最大的元素。例:假如 是一个维数的运算,令则(1)(0.3)(0.6)(0.1)(0.5)(0.4)(0.3)0.55. *二、基本功能和函数关系2. 有序加权平均(OWA)法*T12*T12T(,)max( ),(1000)(,)min( ),(0001)111()niiniiOWAf a aaavvf a aaavvvvnnnn提供了模糊“或”(极大)运算,模
展开阅读全文