《深度学习》课件第五章 卷积神经网络.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《《深度学习》课件第五章 卷积神经网络.pptx》由用户(momomo)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度学习 深度学习 课件第五章 卷积神经网络 深度 学习 课件 第五 卷积 神经网络
- 资源描述:
-
1、第五章卷积神经网络5.1 卷积神经网络的生物机理 5.2 卷积神经网络的原理和结构5.4 池化层5.5 激活函数深度学习of7515.6 空间批量归一化5.7 全连接层5.8 典型的卷积神经网络5.3 卷积层5.9 全卷积神经网络5.10 图神经网络5.1 卷积神经网络的生物机理第五章卷积神经网络of752l 卷积神经网络是基于神经科学的“感受野”(receptive field)这个概念而提出。l 感受野(receptive field)具有局部响应的性质,该特性表明生物视觉神经系统中的神经元只对一定范围内的刺激信号产生响应。视觉皮层对于图像信息的处理都是经过这种局部感受野特性(空间局部性、
2、空间方向性、信息选择性)来进行生物响应的。l 神经网络中卷积层的设计用于模拟视觉皮层中简单细胞的活动。l 复杂细胞的一系列不变性则启发了卷积神经网络中池化单元、跨通道池化策略(如maxout单元)等的设计。深度学习of753第五章卷积神经网络5.2 卷积神经网络的原理与结构5.4 池化层5.5 激活函数5.6 空间批量归一化5.7 全连接层5.8 典型的卷积神经网络5.3 卷积层5.9 全卷积神经网络5.10 图神经网络5.2 卷积神经网络的生物机理第五章卷积神经网络of7545.2 卷积神经网络的原理和结构图 5 1 典型的分类卷积网络结构第五章卷积神经网络of7555.2 卷积神经网络的原
3、理和结构卷积神经网络发展历程第五章卷积神经网络5.1 卷积神经网络的生物机理 5.2 卷积神经网络的原理和结构5.4 池化层5.5 激活函数深度学习of7565.6 空间批量归一化5.7 全连接层5.8 典型的卷积神经网络5.3 卷积层5.9 全卷积神经网络5.10 图神经网络第五章卷积神经网络of7575.3 卷积层 卷积1一维卷积通常用来计算信号处理中信号的延迟累积。此时收到的信号为(卷积):第五章卷积神经网络of7585.3 卷积层 卷积1 二维卷积则通常用于数字图像处理中的特征提取,亦称为特征映射(feature map)。第五章卷积神经网络of7595.3 卷积层 卷积1在神经网络应
4、用中,并不将滤波器进行翻转,而是直接将滤波器与图像进行卷积操作。互相关这样的替代方式被称为互相关函数(cross-correlation)或不翻转卷积。还是沿用卷积这个概念。第五章卷积神经网络of75105.3 卷积层 卷积的变种2零填充(zero padding)改变卷积核的宽度和输出的大小。零填充的种类分为三种:有效(valid)卷积 相同(same)卷积 全(full)卷积。第五章卷积神经网络of75115.3 卷积层 卷积的变种2有效卷积第五章卷积神经网络of75125.3 卷积层 卷积的变种2相同卷积的实现是在输入图的边界进行零填充,该种卷积方式使每一层的输出不因为卷积运算而改变尺寸
5、大小,零填充的尺寸视卷积核的大小决定。相同卷积第五章卷积神经网络of75135.3 卷积层 卷积的变种2相同卷积第五章卷积神经网络of75145.3 卷积层 卷积的其他形式3非共享卷积(称为局部连接层):仍然采用局部连接的网络层结构,但是权重并不共享,即并不横跨位置来共享参数。平铺卷积:将一组不同的卷积核循环使用于每次的卷积操作中。每次在图像上移动后,就依照一组核的排列顺序循环使用不同的卷积核进行卷积运算,在遍历完所有卷积核之后,第一个卷积核又将参与下一次的卷积运算,如此循环,直到遍历完整个输入。第五章卷积神经网络of75155.3 卷积层 卷积的其他形式3转置卷积(transposed co
6、nvolution),也称作反卷积(deconvolution):将低维特征映射到高维特征的卷积操作。(a)表示步长为1,没有零填充的二维卷积;(b)表示和其对应的转置卷积,且步长为1,零填充为2。(a)卷积,s=1,p=0(b)反卷积,s=1,p=2卷积与反卷积只是形式上的转置关系,并不是互为逆运算。第五章卷积神经网络of75165.3 卷积层 卷积的其他形式3 空洞卷积(atrous convolutions)称作膨胀卷积(dilated convolution):卷积形式在不增加参数数量的条件下,扩大输出单元的感受野。膨胀率d=2,卷积核为5 5膨胀率d=3,卷积核为7 7第五章卷积神经
7、网络of75175.3 卷积层 卷积层4卷积层是深度卷积神经网络中重要的组成部分之一,它最主要的作用就是通过卷积操作提取局部区域的图像特征。在每一个卷积层中,往往会有很多个卷积核,不同的卷积核相当于不同的特征提取器,通过该卷积层中的卷积操作,得到输入图像相应的特征映射(feature map)。主要特点:局部连接:卷积网络中,后一卷积层中的每一个神经元都只和前一卷积层中某个局部窗口内的神经元相连,构成一个局部连接网络。大幅度减少网络中参数的数量。权重共享:卷积层中的每个卷积核对该层中所有的神经元都是相同的,即卷积过程中神经元共享卷积核中的参数。第五章卷积神经网络of75185.3 卷积层 卷积
8、层4 一个卷积层通常的结构:第五章卷积神经网络of75195.3 卷积层 第五章卷积神经网络of75205.3 卷积层 第五章卷积神经网络of75215.3 卷积层 卷积层的映射操作第五章卷积神经网络5.1 卷积神经网络的生物机理 5.2 卷积神经网络的原理和结构5.4 池化层5.5 激活函数深度学习of75225.6 空间批量归一化5.7 全连接层5.8 典型的卷积神经网络5.3 卷积层5.9 全卷积神经网络5.10 图神经网络第五章卷积神经网络of75235.4 池化层池化(pooling layer)是一种降采样(down sampling)操作,也称作子采样(subsampling l
9、ayer)作用:对输出的特征映射进行特征选择,降低特征维度,从而减少网络中的参数数量,避免网络出现过拟合的问题。第五章卷积神经网络of75245.4 池化层 第五章卷积神经网络of75255.4 池化层典型的池化操作是将每个输入特征映射划分为大小为2 2的不重叠子区域,然后采用最大池化的方式进行下采样操作,特征映射的大小由4 4缩减为了2 2:2 2的最大池化操作 池化可以看作是一个特殊的卷积,其卷积核大小为m m,步长为m,卷积核为max 函数或者mean 函数。第五章卷积神经网络of75265.4 池化层池化层的设计模仿了人类视觉系统对视觉输入对象进行降维(降采样)和抽象的过程,在深度卷积
10、神经网络中,池化层的作用通常有以下三点:特征不变性(feature invariant)。池化操作使网络模型更加关注是否存在某些特征而不是特征所在的空间位置,使特征学习能一定程度的容忍特征的微小位移。特征降维。池化操作的降采样作用,使输入的特征映射在空间范围内进行了维度约减(spatially dimension reduction),让最终的一个元素对应原输入数据的一个子区域,从而使网络模型可以抽取更加广泛的特征。同时也大大减少了下一层输入的参数数量,减小了网络模型训练的开销。池化操作一定程度上可以防止过拟合(overfitting)。第五章卷积神经网络5.1 卷积神经网络的生物机理 5.2
11、 卷积神经网络的原理和结构5.4 池化层5.5 激活函数深度学习of75275.6 空间批量归一化5.7 全连接层5.8 典型的卷积神经网络5.3 卷积层5.9 全卷积神经网络第五章卷积神经网络of75285.5 激活函数非线性映射层(non-linearity mapping)层又被称作激活函数(activation function)层,其引入的目的是为了增强卷积神经网络的非线性刻画能力,提高表征或挖掘数据中高层语义特性的能力。在神经科学中,通常只有当神经元所获得的输入信号累积效果超过了某个阈值,这个神经元才能被激活并处于兴奋状态,否则就处于抑制状态。为了模拟这一生物过程,在激活层中,最常
12、用Sigmoid型函数和ReLU函数来进行非线性映射。第五章卷积神经网络of75295.5 激活函数 ai为定数是 Leaky ReLU 第五章卷积神经网络5.1 卷积神经网络的生物机理 5.2 卷积神经网络的原理和结构5.4 池化层5.5 激活函数深度学习of75305.6 空间批量归一化5.7 全连接层5.8 典型的卷积神经网络5.3 卷积层5.9 全卷积神经网络5.10 图神经网络第五章卷积神经网络of75315.6 空间批量归一化在深度卷积神经网络中,通常批量读入数据再进行训练,即网络一次性输入多个样本。实际上,低层网络在训练的时候更新了参数,引起了后面层输入数据分布的变化,而该变化会
13、对网络中提取的特征产生负面影响。例如,网络中间某一层提取的特征映射分布在Sigmoid型激活函数的两侧,那么该层学习到的特征值通过激活函数作用后的区分度很小,所以,需要引入了空间批量归一化来减小因数据分布带来的影响。1.批量归一化(Batch Normalization,BN)的提出第五章卷积神经网络of75325.6 空间批量归一化 2.批量归一化模型 BN也属于网络的一层。在网络的每一层输入的时候,先插入了一个归一化层,然后再进入网络的下一层。TanhBNFC/CNN第五章卷积神经网络of75335.6 空间批量归一化 第五章卷积神经网络of75345.6 空间批量归一化 第五章卷积神经网
14、络of75355.6 空间批量归一化 第五章卷积神经网络of75365.6 空间批量归一化 第五章卷积神经网络of75375.6 空间批量归一化 3.BN在CNN中的使用 前面介绍的BN操作,是对于一个神经元进行归一化,而不是对一整层网络的神经元进行归一化。那么在CNN中卷积层,我们怎么进行处理呢?假如某一层卷积层有10个特征图,每个特征图的大小是320320,这样就相当于这一层网络有10320320个神经元,如果直接采用BN,就会有10320320个参数、,这样运算量非常大。因此把一整张特征图当做一个神经元进行处理。第五章卷积神经网络of75385.6 空间批量归一化 对于卷积神经网络某一层
15、特征图,如果min-batch 的批量大小为m,那么网络该层输入数据可以表示为四维张量R mfpq,f为特征图个数,p、q分别为特征图的宽和高。我们可以把每个特征图看成是一个特征处理(一个神经元),因此在使用BN,mini-batch的大小就是m pq,于是对于每个特征图都只有一对可学习参数与。该特征图由原来的z=g(Wu+b)形式变为z=g(BN(Wu)。此处偏置b 的作用已被偏移 替代。第五章卷积神经网络5.1 卷积神经网络的生物机理 5.2 卷积神经网络的原理和结构5.4 池化层5.5 激活函数深度学习of75395.6 空间批量归一化5.7 全连接层5.8 典型的卷积神经网络5.3 卷
展开阅读全文