深度神经网络PPT培训课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《深度神经网络PPT培训课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 神经网络 PPT 培训 课件
- 资源描述:
-
1、深度神经网络深度神经网络内容 深度神经网络发展历史、背景 动机Why Deep Learning? 深度学习常用模型Neural networkBack propagation1986 解决了一般性学习问题 与生物系统相联系Nature历史Neural networkBack propagation1986Nature历史x1x2x3w1w2w3Neural networkBack propagation1986 解决了一般性学习问题 与生物系统相联系Nature历史But it is given up SVM Boosting Decision tree 2006Neural network
2、Back propagation1986Nature历史2006Deep belief netScience Unsupervised & Layer-wised pre-training Better designs for modeling and training (normalization, nonlinearity, dropout) New development of computer architectures GPU Multi-core computer systems Large scale databasesBig Data !Neural networks is c
3、oming back!深度学习浪潮 IT Companies are Racing into Deep LearningNeural networkBack propagation1986 Solve general learning problems Tied with biological systemBut it is given up2006Deep belief netSciencedeep learning resultsSpeech2011NatureObject recognition over 1,000,000 images and 1,000 categories (2
4、GPU)Neural networkBack propagation19862006Deep belief netScienceSpeech20112012NatureA. Krizhevsky, L. Sutskever, and G. E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” NIPS, 2012.Neural networkBack propagation19862006Deep belief netScienceSpeech20112012 ImageNet 2013 im
5、age classification challengeMSRA, IBM, Adobe, NEC, Clarifai, Berkley, U. Tokyo, UCLA, UIUC, Toronto . Top 20 groups all used deep learning ImageNet 2013 object detection challengeNeural networkBack propagation19862006Deep belief netScienceSpeech20112012 ImageNet 2014 Image classification challenge I
6、mageNet 2014 object detection challengeNeural networkBack propagation19862006Deep belief netScienceSpeech20112012 Google and Baidu announced their deep learning based visual search engines (2013) Google “on our test set we saw double the average precision when compared to other approaches we had tri
7、ed. We acquired the rights to the technology and went full speed ahead adapting it to run at large scale on Googles computers. We took cutting edge research straight out of an academic research lab and launched it, in just a little over six months.” BaiduNeural networkBack propagation19862006Deep be
8、lief netScienceSpeech20112012Face recognition2014 Deep learning achieves 99.53% face verification accuracy on Labeled Faces in the Wild (LFW), higher than human performanceY. Sun, X. Wang, and X. Tang. Deep Learning Face Representation by Joint Identification-Verification. NIPS, 2014.Y. Sun, X. Wang
9、, and X. Tang. Deeply learned face representations are sparse, selective, and robust. CVPR, 2015.深度学习浪潮 Deep Learning深度学习浪潮 时代背景-数据爆炸还存在很多没有良好解决的问题,例如图像识别、语音识别、自然语言理解、天气预测、基因表达、内容推荐等。深度学习浪潮 时代背景-计算性能提升动机Why Deep Learning? 深度学习 What is Deep Learning?“Deep learning is a set of algorithms in machine le
10、arning that attempt to learn in multiple levels, corresponding to different levels of abstraction. It typically uses artificial neural networks. The levels in these learned statistical models correspond to distinct levels of concepts, where higher-level concepts are defined from lower-level ones, an
11、d the same lower-level concepts can help to define many higher-level concepts.” (Oct. 2013.)“Deep learning is a set of algorithms in machine learning that attempt to model high-level abstractions in data by using model architectures composed of multiple non-linear transformations.” (Aug. 2014)传统机器学习
12、 解决这些问题的思路 良好的特征表达,对最终算法的准确性起了非常关键的作用,而且系统主要的计算和测试工作都耗在这一大部分。 但实际中一般都是人工完成的。特征表达能不能自动地学习一些特征呢?能!Deep Learning生物学启示 人脑视觉机理 “视觉系统的信息处理”:可视皮层是分级的 神经-中枢-大脑的工作过程,或许是一个不断迭代、不断抽象的过程。 关键词:一个是抽象,一个是迭代。 从原始信号,做低级抽象,逐渐向高级抽象迭代。人类的逻辑思维,经常使用高度抽象的概念。不同水平的抽象 层次化表示脑的深层结构why go deep? 深层结构能够有效被表达 对相同的函数需要更少的计算单元 深层结构可
13、产生层次化特征表达 允许非局部扩展 可解释性 多层隐变量允许统计上的组合共享 深层结构有效(vision, audio, NLP等)!Computer Vision FeaturesAudio FeaturesDeep Learning 基本思想 自动地学习特征 假设有一堆输入I(如图像或者文本),我们设计了一个系统S(有n层),通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,, Sn。 对于深度学习来说,其思想就是堆叠多个层 也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。 可以略微地放松“输出
14、等于输入”的限制深层 vs 浅层神经网络 多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类 深层网络结构中,高层可以综合应用低层信息 低层关注“局部”,高层关注“全局”、更具有语义化 深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wise pre-training)来有效克服。 为自适应地学习非线性处理过程提供了一种可能的简洁、普适的结构模型深层 vs 浅层神经网络 “深度模型”是手段,“特征学习”是目的。 强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点; 明确突出了特征学习的重要性,也就是说,通过逐层特征
15、变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。 与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。BP算法的问题 需要带标签训练数据 几乎所有的数据是无标签的 人脑可以从无标签数据中学习 局部极小 对深层网络远离了最优解 学习时间不适合大数据 梯度消失 Below top few layers, correction signal is minimalniiiiijijjkkjiiiijjidyyyyyxdyyyx1111克服BP的限制 梯度方法对输入的结构建模 建立产生输入的生成式模型,调整参数使得生成式模型的概率最大 Lear
16、n p(image) not p(label | image)What kind of generative model should we learn?Deep learning训练 自下向上的非监督学习(greedy layer-wise training) 自顶向下的监督学习 就是通过带标签的数据去训练,误差自顶向下传输,对网络进行微调 微调特征(中间层),使得与问题更相关。Deep Learning的常用模型 AutoEncoder自动编码器AutoEncoder自动编码器 Deep Learning最简单的一种方法 利用人工神经网络本身的层次结构特点 如果给定一个神经网络,假设其输出
17、与输入是相同的,然后训练调整其参数,得到每一层中的权重。 自然地,就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。 自动编码器就是一种尽可能复现输入信号的神经网络。 为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分AutoEncoder自动编码器 学习过程 无标签数据,用非监督学习学习特征在之前的前向神经网络中,如左图,输入的样本是有标签的,即(input, target),这样根据当前输出和target(label)之间的差去改变前面各层的参数,直到收敛。但现在我们只有无标签数据,也就是右边的图。那么这个
18、误差怎么得到呢?AutoEncoder自动编码器 将input输入一个encoder编码器,就会得到一个code,这个code也就是输入的一个表示 那么我们怎么知道这个code表示的就是input呢? 增加一个decoder解码器 decoder输出的信息 vs 开始的输入信号input 通过调整encoder和decoder的参数,使得重构误差最小,这样就得到输入input信号的一个表示了,也就是编码code。 因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。AutoEncoder自动编码器 网络结构 三层结构 输入层,隐藏层,输出层 神经元模型 限定神经元的数量 输入层神经
19、元数=输出层神经元数 隐层神经元数量输入层神经元数量意义:迫使隐藏层节点学习得到输入数据的压缩表示方法AutoEncoder自动编码器 利用类似神经网络的双隐层的方式,简单粗暴地提取了样本的特征。 Tied Weights (Vincent,2010) W=WT 只训练单组W就可以 若W-1=WT的话,W就是个正交矩阵了,即W是可以训成近似正交阵的。) ()(byWsigmoidzbWxsigmoidyAutoEncoder自动编码器 Deep结构逐层训练 自编码器“栈化” 通过编码器产生特征,然后训练下一层。得到第一层的code,重构误差最小让我们相信这个code就是原输入信号的良好表达了,
展开阅读全文