深度学习-基于Python语言和Tensorflow平台第15章-优化器的选择与设置课件.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《深度学习-基于Python语言和Tensorflow平台第15章-优化器的选择与设置课件.pptx》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 学习 基于 Python 语言 Tensorflow 平台 15 优化 选择 设置 课件
- 资源描述:
-
1、Email:谢琼优化器的选择与设置第15章深度学习基于Python语言和Tensorflow平台了解优化器的作用了解学习率调节的作用010203target目标了解主流优化器的特点目 录 导 航123优化器在神经网络训练中的作用主流优化器简介优化器的对比与选择Contents优化器的作用优化器在神经网络的训练中具有相当重要的地位,它的主要作用是根据误差函数的计算结果来调节可变参数,使得神经网络的输出越来越符合预期。目前为止,我们用的优化器一直是RMSProp,这是一个优秀的优化器,还有许多其他的优化器可用知识补充:梯度下降算法神经网络调节可变参数是依据反向传播算法的,但其实反向传播算法主要是用
2、于将最终计算出来的误差反向依次传递到神经网络的各层,真正控制参数调节原则的是“梯度下降”(Gradient Descent)算法误差loss是可变参数w的函数,即loss=f(w)调节神经网络的目标是获得loss最小时的w值wmin梯度就是该切线的斜率但误差函数的曲线并非总是如此简单需要避免最终结果在较高的“谷底”知识补充:学习率对训练的影响学习率控制的是调节可变参数的幅度,是优化器的一个参数设置项。形象地说,学习率代表下山的步幅,越大越快,但容易走过头目 录 导 航123优化器在神经网络训练中的作用主流优化器简介优化器的对比与选择Contents普通梯度下降算法普通梯度下降普通梯度下降(Gr
3、adient Gradient DesentDesent,简称,简称GDGD)算法是最基本的也最简单的优化算法,)算法是最基本的也最简单的优化算法,其其特特点是每一步的步长是一定的(点是每一步的步长是一定的(学习率不变学习率不变),每一步),每一步都都计算梯度并保持计算梯度并保持不断不断下降,使下降,使得误差逐步变小,直至梯度变平或再次变大得误差逐步变小,直至梯度变平或再次变大。随机梯度下降算法随机梯度下降(Stochastic Gradient Descent,简称SGD)的方法则是仅随机使用一组数据来进行梯度计算,也就是下山过程中每次走的一步带有一定的随机性,这样可以比普通梯度下降算法节省
展开阅读全文