CNN(卷积神经网络)课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《CNN(卷积神经网络)课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- CNN 卷积 神经网络 课件
- 资源描述:
-
1、卷积神经网络(CNN)汇报人:吴建宝 2017.06.12 目录Contents 1.神经网络计算 2.卷积神经网络 3.CNN实现(tensorflow)目录Contents 1.神经网络计算 1.1.神经网络信息流动1.2.神经网络结点计算1.3.神经网络梯度传播(链式法则)神经网络信息流动解析:(x,y)是给定的带标签数据,通常,x为特征,y为标签,固定不变为权重(网络参数),随机初始化(正态分布),且随时变化一次前向计算过程,通过score function,得到预测结果,与标签数据对比,计算loss值,通常,loss是规则化项(redularization loss)和均方差项(da
2、ta loss)的加权和(见式),其目的是减小权重的幅度,防止过度拟合在反向计算时,使用均方差项更新权重.Notes:式1:神经网络的结点计算前向计算:反向传播:神经网络梯度传播(链式法则)Notes:目录Contents 2.卷积神经网络 2.1.卷积神经网络和深度学习的历史 2.2.卷积神经网络的设计和原理 2.3.卷积神经网络的神经科学基础 卷积神经网络和深度学习的历史卷积神经网络在深度学习的历史中发挥了重要作用它们是将研究大脑获得的深刻理解成功应用于机器学习应用的关键例子,也是第一个表现良好的深度模型之一是第一个解决重要商业应用的神经网络,并且仍然是当今深度学习应用的前沿 在20世纪9
3、0年代,的神经网络研究小组开发了一个用于读取支票的卷积神经网络,到90年代末,NEC部署的这个系统用于读取美国所有支票的10%后来,微软部署了若干个基于卷积神经网络的OCR和手写识别系统(MNIST)卷积神经网络也被用来赢得许多比赛当前对深度学习的商业热潮始于2012年,当时Alex Krizhevsky使用新型卷积神经网络(AlexNet)赢得了当年的ImageNet大赛第一名,TOP-5分类错误率比第二名小约10%,引起轰动 深度学习以及卷积神经网络的适用需要大量的有效训练数据,过去的互联网时代为深度学习提供了大量的训练数据,同时随着几十年来硬件技术的发展,为利用和计算大量数据提供了条件所
4、以,近年来,每一次模型算法的更新,都取得了良好的效果,为深度学习这把火炬增添了燃料卷积神经网络和深度学习的历史卷积神经网络提供了一种方法来专业化神经网络,以处理具有清楚的网络结构的数据,以及将这样的模型放大到非常大的尺寸(加深层数).这种方法在二维图像拓扑上的应用是最成功的同时,卷积神经网络比全连接网络计算效率更高,使用他们运行多个实验并调整它们的实现和超参数更容易,更大的网络也更容易训练为了处理一维序列数据,便有了循环神经网络,以及基于循环神经网络优化而来的lstm,attention机制等 目录Contents 2.卷积神经网络 2.1.卷积神经网络和深度学习的历史 2.2.卷积神经网络的
5、设计和原理 2.3.卷积神经网络的神经科学基础 CNN处理图像 卷积神经网络的计算效率提升,参数量:1012 106 CNN处理图像 边缘检测的效率。右边的图像是通过获得原始图像中的每个像素并减去左边相邻像素的值而形成的。这对目标检测是有用的操作。两个图像都是 280 像素的高度。输入图像宽 320 像素,而输出图像宽 319 像素。这个变换可以通过包含两个元素的卷积核来描述,并且需要 319 280 3=267,960 个浮点运算(每个输出像素需要两次乘法和一次加法)。不使用卷积,需要 320 280 319 280 个或者说超过 80 亿个元素的矩阵,这使得卷积对于表示这种变换更有效 40
6、 亿倍。直接运行矩阵乘法的算法将执行超过 160 亿个浮点运算,这使得卷积在计算上大约有 60,000 倍的效率。将小的局部区域上的相同线性变换应用到整个输入上,卷积是描述这种变换的极其有效的方法。照片来源:Paula Goodfellow。CNN特性权值共享和多卷积核请在这里输入论文答辩的标题2016-08-03权值共享 多通道多卷积核 卷积神经网络之所以计算效率高,对特征提取的效果好,主要是由于卷积神经网络具有以下三个特性:权值共享,多卷积核,池化CNN多通道和多卷积核请在这里输入论文答辩的标题2016-08-03 CS231Nhttp:/cs231n.github.io/convolut
7、ional-networks/CNN中基于权值共享的多卷积核算法 卷积的矩阵转换请在这里输入论文答辩的标题2016-08-03 感受野和卷积核是卷积运算的一种特殊设定和直观表示,卷积核和感受野之间的卷积运算使用向量矩阵的形式实现,提高了计算效率卷积的矩阵运算形式(im2txt)CNN 特性池化池化过程 卷积神经网络池化有最大池化(max_pool)和平均池化(avg_pool),顾名思义,最大池化取区域内最大值,平均池化取区域内平均值其它池化包括L 2 范数以及依靠据中心像素距离的加权平均池化CNN 特性池化为什么要池化?减少参数的量,提高计算效率最大池化能显著增强局部特征,平均池化可减少噪声
8、(最大池化提取轮廓特征,平均池化可模糊图像)提高局部平移不变性(不考虑空间,时间位置张民)局部平移不变性是一个很重要的性质,尤其是当我们关心某个特征是否出现而不关心它出现的具体位置时,这对于图像中的目标检测至关重要,同时,在图像识别中,同一类别的图像往往会有细微的差别,局部平移不变性大大提高了图像分类的准确度CNN 特性局部平移不变性为什么最大池化能做到?上图下半部分的输入像素向右平移一个单位,下图对应位置像素值全部改变,若对输入像素做池化处理,当原始像素平移一个单位后,只有一半的像素值改变CNN 特性局部平移不变性学习不变性的示例。使用分离的参数学得多个特征,再使用池化单元进行池化,可以学得
展开阅读全文