机器学习导论-第9章深度学习.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《机器学习导论-第9章深度学习.ppt》由用户(最好的沉淀)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器学习导论-第9章 深度学习 机器 学习 导论 深度
- 资源描述:
-
1、第第9章章 深度学习深度学习n了解人脑神经元的结构及特点,熟悉人工神经元模型。了解人脑神经元的结构及特点,熟悉人工神经元模型。n掌握感知机的基本原理,熟悉前馈神经网络的特征以及反向传播的思想。掌握感知机的基本原理,熟悉前馈神经网络的特征以及反向传播的思想。n熟悉熟悉Sigmoid、Tanh、ReLU、LReLU等激活函数的特点及应用。等激活函数的特点及应用。n熟悉卷积神经网络的基本结构以及局部连接和权重共享等特点,掌握卷积、熟悉卷积神经网络的基本结构以及局部连接和权重共享等特点,掌握卷积、池化操作。池化操作。n熟悉熟悉LSTM中的输入门、遗忘门和输出门的工作机制和作用。中的输入门、遗忘门和输出
2、门的工作机制和作用。n掌握生成式对抗网络的基本原理,熟悉生成器和判别器的作用。掌握生成式对抗网络的基本原理,熟悉生成器和判别器的作用。n了解原始了解原始GAN的优缺点以及各种衍生模型的特点及应用。的优缺点以及各种衍生模型的特点及应用。本章学习目标本章学习目标第第9章章 深度深度学习学习n9.1 人工神经网络基础人工神经网络基础n9.2 卷积神经网络卷积神经网络n9.3 循环神经网络循环神经网络n9.4 生成式对抗网络生成式对抗网络第第9章章 深度深度学习学习n人工神经网络发展史(人工神经网络发展史(第一第一阶段阶段)l1943年年,McCulloch和和Pitts 提出第一个神经元数学模型提出
3、第一个神经元数学模型,即即M-P模型模型,并从原理并从原理上证明了人工神经网络能够计算任何算数和逻辑函数。上证明了人工神经网络能够计算任何算数和逻辑函数。l1949年年,Hebb 发表发表The Organization of Behavior一书一书,提出生物神经元学提出生物神经元学习的机理习的机理,即即Hebb学习规则。学习规则。l1958年年,Rosenblatt 提出提出感知机感知机(Perceptron)模型和其学习规则。)模型和其学习规则。l1960年年,Widrow和和Hoff提出提出自适应线性神经元自适应线性神经元(Adaline)模型和)模型和最小均方学最小均方学习算法。习算
4、法。l1969年年,Minsky和和Papert 发表发表Perceptrons一书一书,指出指出单层神经网路不能解单层神经网路不能解决非线性问题决非线性问题,多层网络的训练算法尚无希望多层网络的训练算法尚无希望。这个论断导致神经网络进入这个论断导致神经网络进入低谷。低谷。9.1 人工神经网络基础人工神经网络基础l1982年年,物理学家物理学家Hopfield提出了一种具有联想记忆、优化计算能提出了一种具有联想记忆、优化计算能力的递归网络模型力的递归网络模型,即即Hopfield网络。网络。l1986年年,Rumelhart 等编辑的著作等编辑的著作Parallel Distributed P
5、rocessing:Explorations in the Microstructures of Cognition报报告了告了反向传播算法反向传播算法l1987年年,IEEE在美国加州圣地亚哥召开第一届神经网络国际会议在美国加州圣地亚哥召开第一届神经网络国际会议(ICNN)。)。l1990年代初年代初,伴随统计学习理论和伴随统计学习理论和SVM的兴起的兴起,神经网络由于理论神经网络由于理论不够清楚不够清楚,试错性强试错性强,难以训练难以训练,再次进入低谷。再次进入低谷。9.1 人工神经网络基础人工神经网络基础n人工神经网络发展史(人工神经网络发展史(第二阶段第二阶段)l2006年年,Hint
6、on提出了深度信念网络提出了深度信念网络(DBN),通过通过“预训练预训练+微调微调”使得使得深度学习深度学习模型的最优化变得相对容易。模型的最优化变得相对容易。l2012年年,Hinton 组参加组参加ImageNet 竞赛竞赛,使用使用 CNN 模型以超过第二模型以超过第二名名10个百分点的成绩夺得当年竞赛的冠军。个百分点的成绩夺得当年竞赛的冠军。l伴随云计算、大数据时代的到来,计算能力的大幅提升,使得伴随云计算、大数据时代的到来,计算能力的大幅提升,使得深度深度学习学习模型在计算机视觉、自然语言处理、语音识别等众多领域都取模型在计算机视觉、自然语言处理、语音识别等众多领域都取得了较大的成
7、功。得了较大的成功。9.1 人工神经网络基础人工神经网络基础n人工神经网络发展史(人工神经网络发展史(第三阶段第三阶段)9.1 人工神经网络基础人工神经网络基础9.1.1 人脑神经元结构及特点人脑神经元结构及特点图9-1 人脑神经元结构9.1 人工神经网络基础人工神经网络基础9.1.2 人人工工神经元神经元模型模型n人工神经元模型人工神经元模型的建立来源于的建立来源于生物神经元结构生物神经元结构的仿生模拟,用来模拟的仿生模拟,用来模拟人工神经网络。人工神经网络。n人们提出的神经元模型有很多,其中最早提出并且影响较大的是由心人们提出的神经元模型有很多,其中最早提出并且影响较大的是由心理学家理学家
8、 W.McCulloch 和数学家和数学家 W.Pitts 于于1943年提出的模型。该模型年提出的模型。该模型称为称为McCulloch-Pitts神经元模型,简称神经元模型,简称MCP 神经元模型神经元模型。nMCP 神经元以人脑神经元为原型,受到了其激活机制的启发和影响。神经元以人脑神经元为原型,受到了其激活机制的启发和影响。nMCP 神经元模型经过不断改进后,形成现在广泛应用的神经元模型经过不断改进后,形成现在广泛应用的BP神经元模神经元模型型。9.1 人工神经网络基础人工神经网络基础n一个简单的人工神经元模型可以表示为一个简单的人工神经元模型可以表示为n一个典型的人工神经元的模型一个
9、典型的人工神经元的模型:图图9-2 人工神经元模型人工神经元模型9.1.2 人人工工神经元神经元模型模型l输入输入:来自其他:来自其他 n 个神经元个神经元传递过来的输入信号传递过来的输入信号l处理处理:输入信号通过带权重的:输入信号通过带权重的连接进行传递,神经元接受到连接进行传递,神经元接受到总输入值将与神经元的阈值进总输入值将与神经元的阈值进行比较行比较l输出输出:通过:通过激活函数激活函数的处理以的处理以得到输出得到输出9.1 人工神经网络基础人工神经网络基础9.1.2 人人工工神经元神经元模型模型9.1 人工神经网络基础人工神经网络基础n1958年,年,Rosenblatt 提出了由
10、提出了由两层两层神经元神经元组成的神经网络,组成的神经网络,称为称为感知感知机(机(Perceptron)。n输入层输入层接受外界输入信号传递给接受外界输入信号传递给输输出层出层,输出层是,输出层是MCP神经元(阈值神经元(阈值逻辑单元)。逻辑单元)。n感知机能够容易地实现逻辑感知机能够容易地实现逻辑“与与”、“或或”、“非非”运算运算 9.1.3 感知机感知机9.1 人工神经网络基础人工神经网络基础n单层感知机只有输出层神单层感知机只有输出层神经元进行激活函数处理,经元进行激活函数处理,即只有一层功能神经元,即只有一层功能神经元,学习能力非常有限,只能学习能力非常有限,只能解决线性可分问题。
11、解决线性可分问题。n可以求解线性可分的逻辑可以求解线性可分的逻辑“与与”、“或或”、“非非”问题,不能求解线性不可问题,不能求解线性不可分的分的“异或异或”问题。问题。n单层单层感知机感知机的局限性的局限性n解决异或问题的多层感知机解决异或问题的多层感知机l输出层与输入层之间的一层神经元,被称之为输出层与输入层之间的一层神经元,被称之为隐层或隐含层隐层或隐含层,隐含层和,隐含层和输出层神经元都是具有激活函数的功能神经元。输出层神经元都是具有激活函数的功能神经元。9.1 人工神经网络基础人工神经网络基础9.1 人工神经网络基础人工神经网络基础n前馈神经网络前馈神经网络(FNN)是一种)是一种单向
12、单向的的多层感知机多层感知机,即信息是从输入层开,即信息是从输入层开始,逐层向一个方向传递,一直到输出层结束。始,逐层向一个方向传递,一直到输出层结束。n所谓的所谓的“前馈前馈”是指输入信号的传播方向为前向,在此过程中并不调整是指输入信号的传播方向为前向,在此过程中并不调整各层神经元连接的权值参数各层神经元连接的权值参数。n反向传播时是将误差逐层向后传递,通过反向传播时是将误差逐层向后传递,通过反向传播反向传播(BP)方法来调整各)方法来调整各层网络中神经元之间连接的权重参数。层网络中神经元之间连接的权重参数。9.1.4 前馈神经网络前馈神经网络9.1 人工神经网络基础人工神经网络基础9.1.
13、4 前馈神经网络前馈神经网络n前向传播过程:前向传播过程:输入已知学习样本,通过设置的网络结构和前一次迭代输入已知学习样本,通过设置的网络结构和前一次迭代的权值和阈值,从网络的第一层向后计算各神经元输出。的权值和阈值,从网络的第一层向后计算各神经元输出。n反向传播过程:反向传播过程:反向传播时,对权值和阈值进行修改:从最后一层向前反向传播时,对权值和阈值进行修改:从最后一层向前计算各权值和阈值对总误差的影响(梯度),据此对各权值和阈值进行计算各权值和阈值对总误差的影响(梯度),据此对各权值和阈值进行修改。修改。以上两个过程反复交替,直到达到收敛为止。以上两个过程反复交替,直到达到收敛为止。由于
14、误差逐层往回传递,以修正层与层间的权由于误差逐层往回传递,以修正层与层间的权值和值和阈值,所以阈值,所以称该算法为称该算法为误差反向传播误差反向传播(Back Propagation,BP)算法,这种误算法,这种误差反传学习算法差反传学习算法可以推广可以推广到有若干个中间层的多层网络,因此该多到有若干个中间层的多层网络,因此该多层网络层网络常常称之为称之为 BP 网络网络。标准的。标准的BP 算法算法,其权值,其权值的修正的修正是沿着误是沿着误差性能函数梯度的反方向进行的。差性能函数梯度的反方向进行的。9.1.4 前馈神经网络前馈神经网络9.1 人工神经网络基础人工神经网络基础9.1 人工神经
15、网络基础人工神经网络基础9.1.5 神经网络的激活函数神经网络的激活函数n激活函数模拟了人脑神经元特性:接受一组输入信号并产生输出。激活函数模拟了人脑神经元特性:接受一组输入信号并产生输出。l理想的激活函数是理想的激活函数是阶跃函数阶跃函数,0表示抑制神经元,表示抑制神经元,1表示激活神经元。表示激活神经元。l阶跃函数具有不连续、不光滑等不好的性质。阶跃函数具有不连续、不光滑等不好的性质。l下面介绍几种较有代表性的激活函数。下面介绍几种较有代表性的激活函数。9.1 人工神经网络基础人工神经网络基础9.1.5 神经网络的激活函数神经网络的激活函数nSigmoid 函数函数:Sigmoid 函数也
16、称为函数也称为Logistic函数函数9.1 人工神经网络基础人工神经网络基础9.1.5 神经网络的激活函数神经网络的激活函数nTanh 函数函数:Tanh 函数是双曲正切函数,其数学表达式为函数是双曲正切函数,其数学表达式为 2Tanhsinhee21coshee1 exxxxxxfxx9.1 人工神经网络基础人工神经网络基础9.1.5 神经网络的激活函数神经网络的激活函数nReLU 函数函数:修正线性单元(修正线性单元(Rectified Linear Unit,ReLU)函数函数,又,又称整流线性单元或称整流线性单元或线性整流函数。线性整流函数。ReLU,00,0max 0,xxfxxx
展开阅读全文