《深度学习》课件第八章 自编码器.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《《深度学习》课件第八章 自编码器.pptx》由用户(momomo)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度学习 深度学习 课件第八章 自编码器 深度 学习 课件 第八 编码器
- 资源描述:
-
1、8.1欠完备自编码器 概述第八章自编码器8.2正则自编码器8.3随机自编码器of4618.4深度自编码器8.5变分自编码器概述第八章 自编码器of462自动编码器就是一种尽可能复现输入信号的神经网络;自动编码器必须捕捉可以代表输入数据的最重要的因素;类似 PCA,找到可以代表原信息的主要成分。Input:数据的输入;Encoder:编码器;Code:输入的一个表示;Decoder:解码器;Reconstruction:input的重建;Error:重建数据和input的误差。什么是自编码器?概述第八章 自编码器of463什么是自编码器?自编码器是一种用来实现数据编码和解码的神经网络,通过编码器
2、对输入进行编码,通过解码器还原输入。x f h=f(x)g r=g(h)输入隐含层构成的编码函数编码隐含层构成的解码函数解码编码器解码器概述第八章 自编码器of464什么是自编码器?自编码 设法学习到一个函数,使得:即:xx概述第八章 自编码器of4651 很强的数据相关性,即自编码器只能编码与训练数据类似的数据。2 自编码器是有损编码,通过解码器解码无法准确还原原始编码。3 自编码器是一种自我监督学习算法,其输入即是网络的监督信息,因此在编码设计和训练过程中,要尽量避免简单的恒等映射。自编码器的三个特性主要分类深度自编码器变分自编码器欠完备自编码器随机自编码器第八章 自编码器of466概述正
3、则自编码器8.1欠完备自编码器 概述第八章自编码器8.2正则自编码器8.3随机自编码器of4678.4深度自编码器8.5变分自编码器第八章 自编码器of4688.1 欠完备自编码器定义:限制自编码器的编码 h 的维度比输入 x 的小编码器:可看作数据降维或数据压缩解码器:数据还原和数据解压特例:解码器执行线性变换,损失函数设定为均方误差,则编码器相当于PCA编码解码欠完备自编码器的训练将强制自编码器捕捉数据空间最显著的特征。第八章 自编码器of4698.1 欠完备自编码器欠完备自编码器与PCA比较自编码器能够学习数据的非线性分布,而PCA只能学习线性分布。第八章 自编码器of46108.1 欠
4、完备自编码器编码器降维8.1欠完备自编码器 概述第八章自编码器8.2正则自编码器8.3随机自编码器of46118.4深度自编码器8.5变分自编码器第八章 自编码器of46128.2 正则自编码器自编码器会简单的将输入映射为输出,无法学习任何与数据分布有关的信息自编码器中隐藏层输出的维度大于等于输入x的维度不对自编码器的参数做任何约束正则自编码器:给损失函数添加适当的正则项,避免简单的恒等映射。第八章 自编码器of46138.2 正则自编码器1.稀疏自编码器 自动编码器中当隐层节点数过少,隐层节点则需要对原始输入进行压缩,当输入为随机高斯序列的时候,对原始输入提取特征则会变得困难。如果隐藏层节点
5、数量很大,甚至比输入层节点数量还要多时,我们仍然可以使用自编码算法,但是这时需要加入稀疏性限制。这就是稀疏自编码器。核心思想:将隐层进行约束,使其变得稀疏。第八章 自编码器of46148.2 正则自编码器 在正则自编码器中,给损失函数添加稀疏正则项,起到约束模型参数稀疏性的作用。损失函数构造方式自码器的解码损失稀疏正则项 稀疏自编码器通过特征空间转化的方式,来学习训练数据集的数据分布与统计特征。第八章 自编码器of46158.2 正则自编码器是一个稀疏参数,一般取接近于0的值,比如0.05;也就是说,每个隐藏单元 j 的平均激活值接近于0.05。第八章 自编码器of46168.2 正则自编码器
6、即:第八章 自编码器of46178.2 正则自编码器如何对j偏离其中,KL散度公式:的程度进行惩罚?左图中,=0.2当=0.2j时,KL散度值达到最小,其值为0。当j趋于0或1时,KL散度值趋于无穷大。因此,为了使以上惩罚项最小,必须使得:j第八章 自编码器of46188.2 正则自编码器因此,全局损失函数为:其中:第八章 自编码器of46198.2 正则自编码器 在逆向算法更新权值时,假设有一共m个训练样本。对于第一项称为平均平方和误差,第二项为调整项。第二项是为了减少权值的量级以及防止过度拟合。为了使J(w,b)这个包含W和b的函数最小化(误差最小),我们使用梯度下降法来进行求解。第八章
7、自编码器of46208.2 正则自编码器对于每一次迭代其中第八章 自编码器of46218.2 正则自编码器定义:为第 L 层的第i个节点对最终输出值的残差贡献值,称之为残差。计算方法:1.计算前向过程中的节点激活量2.计算最终层的残差,此时 为输出。(L)ilnia第八章 自编码器of46228.2 正则自编码器3.根据上面的算式,让这个式子可以这么理解,对比最终层的节点误差,当 括弧里的算子实际上是逆向算法,是最终层的残差与权重的乘积和即上图中的这个节点产生的总残差.1,.,2,1llnnl1lnl第八章 自编码器of46238.2 正则自编码器4.通过梯度下降法,求得第八章 自编码器of4
展开阅读全文