深度学习原理与实践ch04课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《深度学习原理与实践ch04课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 学习 原理 实践 ch04 课件
- 资源描述:
-
1、4.2黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践n多层感知机神经网络 1.多层感知机神经网络原理 n激活函数、损失函数和过拟合径向基函数网络1.激活函数2.损失函数(代价函数)3.防止过拟合n卷积神经网络1.卷积神经网络原理2.卷积神经网络反向传播学习算法的数学推导n循环神经网络(RNN)1.循环神经网络模型原理2.BPTT 算法3.双向循环神经网络4.深度循环神经网络5.长短时记忆网络(LSTM)6.门控循环单元网络(GRU)n深度置信网络(DBN)1.受限玻尔兹曼机原理2.RBM求解算法3.对比散度算法4.深度置信网络n深度学习框架1.TensorFlo
2、w2.Caffe3.Theano4.Keras 4.3黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践多层感知机神经网络原理多层感知机神经网络原理从多层感知机(MLP)神经网络按不同层的位置划分,多层感知机神经网络内部的神经网络层可以分为三类,输入层,隐藏层和输出层,一般来说第一层是输入层,最后一层是输出层,而中间的层数都是隐藏层。4.4黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践多层感知机神经网络原理多层感知机神经网络原理n 多层感知机(MLP)神经网络权重编号4.5黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensor
3、flow实践实践多层感知机反向传播算法-1n 4.6黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践多层感知机反向传播算法-2n 4.7黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践多层感知机反向传播算法-3 4.8黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践激活函数由于线性函数的线性函数仍然是线性函数。我们需要非线性的激活函数(也称激励函数)。激活函数将线性加权值进行变换为输出值。激活函数通常有如下一些性质:l非线性:当激活函数是非线性的时候,一个三层含有一层隐含层的神经网络就可以逼近所有的函数。
4、l可微性:当优化方法是基于梯度下降法的时候,这个性质是必须的。l单调性:当激活函数是单调的时候,单层网络能够保证是凸函数。凸函数能够保证只有一个极小值。当激活函数满足这个性质的时候,神经网络的训练和参数的初始化基本无关。如果不满足这个性质,那么就需要特别地设置初始值,以尽可能找到一个全局最优值。l输出值的范围:当激活函数输出值是有限的时候,基于梯度算的优化方法会更加 稳定,因为特征的表示受有限权值的影响更显著;当激活函数的输出是 无限 的时候,模型的训练会更加高效,不过在这种情况小,一般需要更小的学习步长。4.9黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践激活
5、函数n 4.10黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践激活函数4.11黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践激活函数 多节点激活函数 4.12黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践激活函数Softmax激活函数4.13黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践损失函数(代价函数)二次损失函数n 4.14黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践损失函数(代价函数)二次损失函数 4.15黄理灿黄理灿 201
6、9深度学习原理与深度学习原理与Tensorflow实践实践损失函数(代价函数)交叉熵损失函数n 4.16黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践损失函数(代价函数)交叉熵损失函数n 4.17黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践损失函数(代价函数)交叉熵损失函数n 4.18黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践损失函数(代价函数)对数似然函数n 4.19黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践损失函数(代价函数)对数似然函数n 4.20黄理
7、灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践防止过拟合n在训练数据不够多时,或者过度训练时,常常会导致过拟合(overfitting)。如多项式回归模型,当多项式次数增加时,训练集数据拟合很好,但是和测试数据有较大偏差,随着训练过程的进行,模型复杂度增加,在训练数据集合上的误差渐渐减小,但是在验证集上的误差却反而渐渐增大因为训练出来的网络过拟合了训练集,对训练集外的数据却不工作。4.21黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践防止过拟合-L2 正则化 4.22黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflo
8、w实践实践防止过拟合-L2 正则化n 4.23黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践防止过拟合L1 正则化4.24黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践防止过拟合Dropoutn Dropout 在训练开始时,随机地“删除”一半的隐层单元,视它们为不存在。在第二次迭代中,也用同样的方法,只不过这次删除的那一半隐层单元,跟上一次删除掉的肯定是不一样的,因为我们每一次迭代都是“随机”地去删掉一半。第三次、第四次都是这样,直至训练结束。4.25黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践
9、防止过拟合提前终止训练n提前终止训练便是一种迭代次数截断的方法来防止过拟合的方法,即在模型对训练数据集迭代收敛之前停止迭代来防止过拟合。提前终止训练方法的具体做法是,在每一个迭代(Epoch)结束时(一个Epoch 为对所有的训练数据的一轮遍历)计算验证数据(validation data 如损失函数)的精度(accuracy),当精度不再提高时,就停止训练。一般的做法是,在训练的过程中,记录到目前为止最好的验证数据精度,当连续10次Epoch(或者更多次)没达到最佳精度时,则可以认为精度不再提高了。此时便可以停止迭代了(即提前终止训练)。提前终止训练可以防止过拟合,即在把噪声学习到模型里之前
10、停止学习。4.26黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践防止过拟合 数据集扩增n数据集增加可以防止过拟合产生。在深度学习方法中,更多的训练数据,意味着可以用更深的网络,训练出更好的模型。但是,收集更多的数据意味着需要耗费更多的人力物力。所以,可以在原始数据上做些改动,得到更多的数据。以图片数据集为例,通过各种变换,如将原始图片旋转一个小角度,添加随机噪声,截取原始图片的一部分等等方法增加数据集。4.27黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践卷积神经网络 人脑进行人脸识别示意图4.28黄理灿黄理灿 2019深度学习原
11、理与深度学习原理与Tensorflow实践实践卷积神经网络 人类视觉逐层分级机制4.29黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践卷积神经网络-卷积神经网络原理n卷积神经网络由三部分构成。第一部分是输入层(Input layer)。第二部分由n个卷积计算层+ReLU激励层 (CONV layer+ReLU layer)+池化层(Pooling layer)的组合组成。第三部分由一个全连接层(FC layer)的多层感知机分类器构成。径向基函数网络示例4.30黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践卷积神经网络-卷积神经网
12、络原理n由于深度多层感知机神经网络神经元全连接的特点,当隐含层以及由于深度多层感知机神经网络神经元全连接的特点,当隐含层以及神经元节点数增加时,会出现大量参数的计算。这超出了现今的计神经元节点数增加时,会出现大量参数的计算。这超出了现今的计算能力。算能力。卷积神经网络采取局部感知域和权值共享降低参数数目。卷积神经网络采取局部感知域和权值共享降低参数数目。4.31黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践卷积神经网络-卷积神经网络原理 卷积神经网络卷积计算4.32黄理灿黄理灿 2019深度学习原理与深度学习原理与Tensorflow实践实践卷积神经网络-卷积神
展开阅读全文