书签 分享 收藏 举报 版权申诉 / 28
上传文档赚钱

类型深度学习-人脸识别-课件.ppt

  • 上传人(卖家):晟晟文业
  • 文档编号:4673133
  • 上传时间:2022-12-31
  • 格式:PPT
  • 页数:28
  • 大小:1.99MB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《深度学习-人脸识别-课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    深度 学习 识别 课件
    资源描述:

    1、 Related works for feature learning 1.Learning-based descriptors 2.Deep models Network ArchitectureDeep Learning Identity-Preserving Face SpaceXianhao Gan PCA是将分散在一组变量上的信息集中到某几个综合指标(主成分)上的数学方法,实际上起着数据降维的作用,并保证降维过程最大化保留原数据的差异。这对最大化类间差异(即不同人之间的差异)并最小化类内差异(即同一人的不同图像间的差异)很有效用PCA将2维数据降到1维的例子,绿色点表示二维数据,PC

    2、A的目标就是找到这样一条直线,使得所有点在这条直线上的投影点之间的平均距离最大。也就是最大化地保留了原数据的差异性。是人脸识别的基准技术,并已成为事实上的工业标准,该方法基于主成分分析(PCA)如果将本征向量恢复成图像,这些图像很像人脸,因此称为“本征脸”。M.Turk&A.Pentland,JCN91 本征脸法认为图像的全局结构信息对于识别最重要,将图像看做矩阵,计算本征值和对应的本征向量作为代数特征进行识别,具有无需提取眼、嘴、鼻等几何特征的优点,但在单样本时识别率不高,且在人脸模式数较大时计算量大。利用PCA分析眼、鼻、嘴等局部特征,即本征特征方法 R.Brunelli&T.Poggio

    3、,TPAMI93 A.Pentland et al.,CVPR94这实际上相当于:为若干重要的特征建立本征空间,然后将多个本征空间集成起来本征脸利用全局特征,本征特征利用局部特征,二者各有优势待识别图像本征脸识别结果本征特征识别结果 A.Pentland et al.,CVPR94(2)(1)(3)(4)难题能否自动确定:该用哪些特征?(眼睛?鼻子?嘴?)特征的确切位置在哪儿?(从哪儿到哪儿算眼睛?)将二者结合,可以得到更好的识别效果同样,这实际上相当于:为若干重要的特征建立本征空间,然后将多个本征空间集成起来由于嘴部受表情影响很严重,因此未考虑嘴部特征深度模型深度模型(Deep models

    4、)受限波尔兹曼机RBM深度信念网络DBN卷积受限波尔兹曼机CRBM混合神经网络-受限波尔兹曼机CNN-RBM .“深度模型”是手段,“特征学习”是目的!深度学习深度学习1.什么是深度学习?2.深度学习的基本思想3.深度学习的常用方法 1)自动编码机(AutoEncoder)2)稀疏编码(Sparse Coding)3)受限波尔兹曼机(Restrict Boltzmann Machine,RBM)什么是深度学习什么是深度学习?2019年,加拿大多伦多大学教授、机器学习领域的泰斗Geoffrey Hinton和他的学生RuslanSalakhutdinov在科学上发表了一篇文章,开启了深度学习在学

    5、术界和工业界的浪潮。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本,它是无监督学习的一种。深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。深度学习的基本思想深度学习的基本思想 假设我们有一个系统S,它有n层(S1,Sn),它的输入是I,输出是O,形象地表示为:I=S1=S2=.=Sn=O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失。深度学习的常用方法:深度学习的常用方法:1.自动编码机(AutoEncode

    6、r)Deep Learning最简单的一种方法是利用人工神经网络的特点,自动编码器就是一种尽可能复现输入信号的神经网自动编码器就是一种尽可能复现输入信号的神经网络。络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分。1)给定无标签数据,用非监督学习学习特征)给定无标签数据,用非监督学习学习特征2)通过编码器产生特征,然后训练下一层。这样逐层训练:)通过编码器产生特征,然后训练下一层。这样逐层训练:稀疏自动编码器稀疏自动编码器(Sparse AutoEncoder):):如果在AutoEncoder的基础上加上L1的Regula

    7、rity限制(L1主要是约束每一层中的节点中大部分都要为0,只有少数不为0,这就是Sparse名字的来源),我们就可以得到Sparse AutoEncoder法。稀疏自动编码器(Sparse AutoEncoder)Input PatchFiltersFeaturesSparse Coding2.稀疏编码(稀疏编码(Sparse Coding)如果我们把输出必须和输入相等的限制放松,同时利用线性代数中基的概念,即O=a1*1+a2*2+.+an*n,i是基,ai是系数,我们可以得到这样一个优化问题:Min|I O|,其中I表示输入,O表示输出。通过求解这个最优化式子,我们可以求得系数ai和基i

    8、,这些系数和基就是输入的另外一种近似表达。因此,它们可以用来表达输入I,这个过程也是自动学习得到的。如果我们在上述式子上加上L1的Regularity限制,得到:Min|I O|+u*(|a1|+|a2|+|an|)3.受限波尔兹曼机受限波尔兹曼机RBM 假设有一个二部图(二分图),每一层的节点之间没有链接,一层是可视层,即输入数据层(v),一层是隐藏层(h),如果假设所有的节点都是随机二值变量节点(只能取0或者1值),同时假设全概率分布p(v,h)满足Boltzmann 分布,我们称这个模型是Restricted BoltzmannMachine(RBM)。深深度度信信念念网络网络(Deep

    9、 Belief Networks)深度信念网络是一个包含多层隐层(隐层数大于2)的概率模型,每一层从前一层的隐含单元捕获高度相关的关联。DBNs是一个概率生成模型,与传统的判别模型的神经网络相对,生成模型是建立一个观察数据和标签之间的联合分布,对P(Observation|Label)和P(Label|Observation)都做了评估。典型的DNBs,可视数据v和隐含向量h的关系可以用概率表示成如下所示形式:CRBM是为识别二维图像信息而特殊设计的一个多层感知器。概念示范:输入图像通过与m个可训练的滤波器和可加偏置进行卷积,在C1层产生m个特征映射图,然后特征映射图中每组的n个像素再进行求和

    10、,加权值,加偏置,通过一个Sigmoid函数得到m个S2层的特征映射图。这些映射图再进过滤波得到C3层。这个层级结构再和S2一样产生S4。最终,这些像素值被光栅化,并连接成一个向量输入到传统的神经网络,得到输出。卷积波尔兹曼机(Convolutional RBM)权值共享减少参数的方法:减少参数的方法:每个神经元无需对全局图像做感受,只需感受局部区域(Feature Map),在高层会将这些感受不同局部的神经元综合起来获得全局信息。每个神经元参数设为相同,即权值共享,也即每个神经元用同一个卷积核去卷积图像。卷积波尔兹曼机(Convolutional RBM)Fully connected ne

    11、ural netLocally connected neural net卷积波尔兹曼机(Convolutional RBM)多滤波器情形不同的颜色表示不同种类的滤波器p每层隐层神经元的个数按滤波器种类的数量翻倍p每层隐层参数个数仅与滤波器大小、滤波器种类的多少有关例如:隐含层的每个神经元都连接10 x10像素图像区域,同时有100种卷积核(滤波器)。则参数总个数为:(10 x10+1)x100=10100个 卷积波尔兹曼机(Convolutional RBM)隐层神经元数量的确定p神经元数量与输入图像大小、滤波器大小和滤波器的滑动步长有关。例如,输入图像是1000 x1000像素,滤波器大小是

    12、10 x10,假设滤波器间没有重叠,即步长为10,这样隐层的神经元个数就是(1000 x1000)/(10 x10)=10000个 卷积波尔兹曼机(Convolutional RBM)p卷积过程卷积过程:用一个可训练的滤波器:用一个可训练的滤波器fxfx去卷积一个输入的图去卷积一个输入的图像(第一阶段是输入的图像,后面的阶段就是像(第一阶段是输入的图像,后面的阶段就是Feature Map了),然后加一个偏置了),然后加一个偏置bxbx,得到卷积层,得到卷积层CxCx。p子采样过程子采样过程:每邻域:每邻域n n个像素通过个像素通过池化(池化(poolingpooling)步骤变步骤变为一个像

    13、素,然后通过标量为一个像素,然后通过标量W Wx+1x+1加权,再增加偏置加权,再增加偏置b bx+1,然,然后通过一个后通过一个sigmoidsigmoid激活函数,产生一个大概缩小激活函数,产生一个大概缩小n n倍的特倍的特征映射图征映射图S Sx+1x+1。FIP特征脸法特征脸法 FIP(Face Identity-Preserving)特征学习采用的是一种多层深度模型,不像DNB与DBM只利用全局特征,它结合了局部和全局的特征,网络架构类似于CRBM(卷积波尔兹曼机),但FIP是一种有监督的特征学习方式,并且FIP要求能重建恢复正面的人脸,因此这种方法对姿态和光照变量具有更好的鲁棒性。

    14、(a)LBP:Local Binary Pattern(局部二值模式)(b)LE:an unsupervised feature learning method,PCA(c)CRBM:卷积受限波尔兹曼机(d)FIP:Face Identity-PreservingFIP深度模型网络架构(Architecture of the deep network)第一个特征提取层中,X0经过X1层后产生32个特征映射图 ,它是通过一个包含32个子矩阵的权重矩阵W1滤波后,对X0的某个局部特征的稀疏保留。where is the rectified linear function that is feature-intensity-invariant.其中

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:深度学习-人脸识别-课件.ppt
    链接地址:https://www.163wenku.com/p-4673133.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库