人工神经网络-PPT课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《人工神经网络-PPT课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经网络 PPT 课件
- 资源描述:
-
1、人工神经网络中国科学院自动化研究所吴高巍2016-11-29联结主义学派 又称仿生学派或生理学派 认为人的思维基元是神经元,而不是符号处理过程 认为人脑不同于电脑 核心:智能的本质是联接机制。原理:神经网络及神经网络间的连接机制和学习算法麦卡洛可(McCulloch)皮茨(Pitts)什么是神经网络 所谓的人工神经网络就是基于模仿生物大脑的结构和功能而构成的一种信息处理系统(计算机)。个体单元相互连接形成多种类型结构的图图 循环、非循环 有向、无向 自底向上(Bottom-Up)AI 起源于生物神经系统 从结构模拟结构模拟到功能模拟功能模拟仿生仿生人工神经网络内容 生物学启示 多层神经网络 H
2、opfield网络 自组织网络生物学启示 神经元组成:细胞体,轴突,树突,突触 神经元之间通过突触两两相连。信息的传递发生在突触。突触记录了神经元间联系的强弱。只有达到一定的兴奋程度,神经元才向外界传输信息。生物神经元神经元 神经元特性 信息以预知的确定方向传递一个神经元的树突细胞体轴突突触另一个神经元树突 时空整合性对不同时间通过同一突触传入的信息具有时间整合功能对同一时间通过不同突触传入的信息具有空间整合功能神经元 工作状态 兴奋状态,对输入信息整合后使细胞膜电位升高,当高于动作电位的阈值时,产生神经冲动,并由轴突输出。抑制状态,对输入信息整合后使细胞膜电位降低,当低于动作电位的阈值时,无
3、神经冲动产生。结构的可塑性 神经元之间的柔性连接:突触的信息传递特性是可变的学习记忆的基础神经元模型 从生物学结构到数学模型人工神经元 M-P模型 Xgffyx1x2xny12nInputOutputThresholdMcClloch and Pitts,A logical calculus of the ideas immanent in nervous activity,1943f:激活函数激活函数(Activation Function)g:组合函数组合函数(Combination Function)Weighted Sum Radial Distanceniiixg1X niiixff
4、y1 niiixffy0niiicx12CX niicxffy12组合函数 ThresholdLinearSaturating LinearLogistic SigmoidHyperbolic tangent SigmoidGaussian激活函数)exp(11)(f)tanh()(f人工神经网络 多个人工神经元按照特定的网络结构联接在一起,就构成了一个人工神经网络。神经网络的目标就是将输入转换成有意义的输出。生物系统中的学习 自适应学习 适应的目标是基于对环境信息的响应获得更好的状态 在神经层面上,通过突触强度的改变实现学习 消除某些突触,建立一些新的突触生物系统中的学习 Hebb学习律 神
5、经元同时激活,突触强度增加 异步激活,突触强度减弱 学习律符合能量最小原则 保持突触强度需要能量,所以在需要的地方保持,在不需要的地方不保持。ANN的学习规则 能量最小 ENERGY MINIMIZATION 对人工神经网络,需要确定合适的能量定义;可以使用数学上的优化技术来发现如何改变神经元间的联接权重。ENERGY=measure of task performance error 两个主要问题 结构 How to interconnect individual units?学习方法 How to automatically determine the connection weights
6、 or even structure of ANN?Solutions to these two problems leads to a concrete ANN!人工神经网络 前馈结构(Feedforward Architecture)-without loops -static 反馈/循环结构(Feedback/Recurrent Architecture)-with loops -dynamic(non-linear dynamical systems)ANN结构 侧 抑 制 连 接反 馈 连 接1x2x3xnx1y2y3ynyGeneral structures of feedforw
7、ard networksGeneral structures of feedback networks 通过神经网络所在环境的模拟过程,调整网络中的自由参数 Learning by data 学习模型 Incremental vs.Batch 两种类型 Supervised vs.UnsupervisedANN的学习方法 若两端的神经元同时激活,增强联接权重 Unsupervised Learning txtxttjiijij1学习策略:Hebbrian Learningixijjx 最小化实际输出与期望输出之间的误差(Supervised)-Delta Rule(LMS Rule,Widro
8、w-Hoff)-B-P LearningKkkkeK1*,1minargYDObjective:Solution:学习策略:Error Correction 采用随机模式,跳出局部极小 -如果网络性能提高,新参数被接受.-否则,新参数依概率接受Local MinimumGlobal Minimum学习策略:Stochastic Learning“胜者为王”(Winner-take-all)Unsupervised How to compete?-Hard competition Only one neuron is activated -Soft competition Neurons nei
9、ghboring the true winner are activated.学习策略:Competitive Learning重要的人工神经网络模型 多层神经网络 径向基网络 Hopfield网络 Boltzmann机 自组织网络 多层感知机(MLP)感知机实质上是一种神经元模型 阈值激活函数Rosenblatt,1957感知机)(vfyxviii判别规则 输入空间中样本是空间中的一个点权向量是一个超平面超平面一边对应 Y=1另一边对应 Y=-10 x单层感知机学习调整权值,减少训练集上的误差简单的权值更新规则:初始化对每一个训练样本:Classify with current weight
10、s If correct,no change!If wrong:adjust the weight vector30学习:Binary Perceptron 初始化 对每一个训练样本:Classify with current weights If correct(i.e.,y=y*),no change!If wrong:adjust the weight vector by adding or subtracting the feature vector.Subtract if y*is-1.0 if 10 if 1xxyxy*xy*x多类判别情况 If we have multiple
11、classes:A weight vector for each class:Score(activation)of a class y:Prediction highest score winsyxyxyyymaxargbiggest 1xbiggest 2xbiggest 3x学习:Multiclass Perceptron 初始化 依次处理每个样本 Predict with current weights If correct,no change!If wrong:lower score of wrong answer,raise score of right answerxyyymax
12、argxxyyxyy*感知机特性 可分性:true if some parameters get the training set perfectly correctCan represent AND,OR,NOT,etc.,but not XOR 收敛性:if the training is separable,perceptron will eventually converge(binary case)SeparableNon-Separable感知机存在的问题 噪声(不可分情况):if the data isnt separable,weights might thrash 泛化性:f
13、inds a“barely”separating solution改进感知机线性可分情况 Which of these linear separators is optimal?Support Vector Machines Maximizing the margin:good according to intuition,theory,practice Only support vectors matter;other training examples are ignorable Support vector machines(SVMs)find the separator with ma
14、x marginSVMixyii,1min221优化学习问题描述训练数据目标:发现最好的权值,使得对每一个样本x的输出都符合类别标签样本xi的标签可等价于标签向量采用不同的激活函数平方损失:,.,2,1|),(nicxiimTikiRtt0,.,0,0,.,0,nimkikiktxy112,21)(单层感知机单层感知机单层感知机单层感知机采用线性激活函数,权值向量具有解析解批处理模式一次性更新权重缺点:收敛慢增量模式逐样本更新权值随机近似,但速度快并能保证收敛多层感知机(MLP)层间神经元全连接MLPs表达能力 3 layers:All continuous functions 4 layer
15、s:all functionsHow to learn the weights?waiting B-P algorithm until 1986B-P Network 结构 A kind of multi-layer perceptron,in which the Sigmoid activation function is used.B-P 算法 学习方法 -Input data was put forward from input layer to hidden layer,then to out layer -Error information was propagated backwa
16、rd from out layer to hidder layer,then to input layerRumelhart&Meclelland,Nature,1986B-P 算法 Global Error Measuredesired outputgenerated outputsquared errorThe objective is to minimize the squared error,i.e.reach the Minimum Squared Error(MSE)nydeiii1221eminarg*B-P 算法Step1.Select a pattern from the t
17、raining set and present it to the network.Step2.Compute activation of input,hidden and output neurons in that sequence.Step3.Compute the error over the output neurons by comparing the generated outputs with the desired outputs.Step4.Use the calculated error to update all weights in the network,such
展开阅读全文