书签 分享 收藏 举报 版权申诉 / 34
上传文档赚钱

类型第四章支持向量机与图像分类课件1.pptx

  • 上传人(卖家):ziliao2023
  • 文档编号:6016196
  • 上传时间:2023-05-21
  • 格式:PPTX
  • 页数:34
  • 大小:801.62KB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《第四章支持向量机与图像分类课件1.pptx》由用户(ziliao2023)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    第四 支持 向量 图像 分类 课件
    资源描述:

    1、支持向量机与图像分类蔡超授课内容1.简介简介2.logistic回归回归3.函数间隔(函数间隔(functional margin)和几何间隔()和几何间隔(geometric margin)4.最优间隔分类器(最优间隔分类器(optimal margin classifier)5.拉格朗日对偶拉格朗日对偶(Lagrange duality)6.最最优间隔分类器(优间隔分类器(optimal margin classifier)7.核函数核函数(Kernels)1.核函数核函数有效性判定有效性判定8.规则化规则化和不可分情况处理(和不可分情况处理(Regularization and the

    2、non-separable case)9.坐标坐标上升法(上升法(Coordinate ascent)10.SMO优化算法(优化算法(Sequential minimal optimization)11.SMO中拉格朗日乘子的启发式选择方法中拉格朗日乘子的启发式选择方法23:52:171 引言引言一一.SVM(Support Vector Machine)的历的历史史 神经网络分类器,Bayes分类器等是基于大样本大样本学习的分类器。Vapnik 等从19601960年开始关于统计学习理论统计学习理论的研究。统计学习理论统计学习理论是关于小样本小样本的机器学习理论。19921992年支持向量机

    3、支持向量机首次被引入。19951995年Vapnik发展了支持向量机支持向量机理论。支持向量机支持向量机是基于统计学统计学习理论习理论的一种实用的机器学习机器学习方法。23:52:17二二.SVM 的发展的发展 SVM理论的发展理论的发展:最小二乘支持向量机(LS SVM)多分类支持向量机(M-SVM)支持向量回归(SVR)支持向量聚类(SVC)SVM与计算智能的融合与计算智能的融合:神经网络+支持向量机 模糊逻辑+支持向量机 遗传算法+支持向量机 小波分析+支持向量机 主分量分析+支持向量机 粗糙集理论+支持向量机23:52:18三三.SVM的应用的应用 数据与文本分类 系统建模及预测 模式

    4、识别(图像及语音识别,生物特征识别)异常检测(入侵检测,故障诊断)时间序列预测23:52:182 logistic回归回归 Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。假设函数其中x是n维特征向量,函数g就是logistic函数。Sigmoid 函数在有个很漂亮的“S”形,可以看到,将无穷映射到了(0,1)。23:52:1823:52:1823:52:18中间这条线是 logisti

    5、c回顾强调所有点尽可能地远离中间线。学习出的结果也就中间这条线。考虑3个点A、B和C。从图中我们可以确定A是类别的,然而C我们是不太确定的,B还算能够确定。这样我们可以得出结论,我们更应该关心靠近中间分割线的点,让他们尽可能地远离中间线,而不是在所有点上达到最优。因为那样的话,要使得一部分点靠近中间线来换取另外一部分点更加远离中间线。这就是支持向量机的思路和logistic回归的不同点,一个考虑局部(不关心已经确定远离的点),一个考虑全局(已经远离的点可能通过调整中间线使其能够更加远离)。23:52:19Notation23:52:1923:52:203 函数函数间隔(间隔(functiona

    6、l margin)几何几何间隔(间隔(geometric margin)23:52:2023:52:21几何间隔23:52:21进一步得到通常,对于训练集 我们定义几何间隔(w,b)为:23:52:21 回想前面我们提到我们的目标是寻找一个超平面,使得离超平面比较近的点能有更大的间距。也就是我们不考虑所有的点都必须远离超平面,我们关心求得的超平面能够让所有点中离它最近的点具有最大间距。形式化表示为:4最最优间隔分类器(优间隔分类器(optimal margin classifier)23:52:2223:52:22然而这个时候目标函数仍然不是凸函数,没法直接代入优化软件里计算。23:52:23

    7、这下好了,只有线性约束了,而且是个典型的二次规划问题(目标函数是自变量的二次函数)。代入优化软件可解。23:52:23 先抛开上面的二次规划问题,先来看看存在等式约束的极值问题求法,比如下面的最优化问题:引入拉格朗日算子,得到拉格朗日公式 这里的称为拉格朗日乘子。5拉格朗日对偶(拉格朗日对偶(Lagrange duality)参考最优化与KKT条件23:52:24 然后分别对w和 求偏导,使得偏导数等于0,然后解出w和。不等式约束的极值问题 定义一般化的拉格朗日公式23:52:24 这里的 i和 i都是拉格朗日乘子。如果按这个公式求解,会出现问题,因为我们求解的是最小值,而这里的 gi(w)0

    8、或者hi(w)0,那么我们总是可以调整 i和 i来使得 P(w)有最大值为正无穷。而只有g和h满足约束时。23:52:25 因此我们可以写作这样我们原来要求的min f(w)可以转换成求如果直接求解,首先面对的是两个参数和 ,然后再在w上求最小值。这个过程不容易做,那么怎么办呢?我们先考虑另外一个问题D的意思是对偶(dual)。该式将问题转化为先求拉格朗日关于w的最小值,将 和 看作是固定值。23:52:25于是我们的对偶优化问题为:这个问题是原问题的对偶问题,相对于原问题只是更换了min和max的顺序,而一般更换顺序的结果是Max Min(X)=MinMax(X)。用 d*来表示对偶问题如下

    9、:然而在一些限定条件下两者相等。23:52:25 成立的条件假设f和g都是凸函数,h是仿射的(affine):并且存在w使得gi(w)0。在这种假设下,一定存在 使得 是原问题的解,是对偶问题的解。还有 并且 满足库恩-塔克条件(Karush-Kuhn-Tucker,KKT condition):(*)23:52:26 所以如果 满足了库恩-塔克条件,那么他们就是原问题和对偶问题的解。公式(*)称作是KKT对偶互补条件(KKT dual complementarity)。这个条件隐含了如果 ,那么 =0 。也就是说,=0 时,w处于可行域的边界上,这时才是起作用的约束。而其他位于可行域内部(的

    10、)点都是不起作用的约束。(1)23:52:266最最优间隔分类器(优间隔分类器(optimal margin classifier)重新回到SVM的优化问题:我们将约束条件改写为:23:52:27从KKT条件得知只有函数间隔是1(离超平面最近的点)的线性约束式前面的系数 ,也就是说这些约束式 =0 ,对于其他的不在线上的点(0),极值不会在他们所在的范围内取得,因此前面的系数 =0。注意每一个约束式实际就是一个训练样本。实线是最大间隔超平面,假设号的是正例,圆圈的是负例。在虚线上的点就是函数间隔是1的点,那么他们前面的系数其他点都是这三个点称作支持向量。23:52:27构造拉格朗日函数如下:注

    11、意到这里只有 i,没有i 是因为原问题中没有等式约束,只有不等式约束。下面我们按照对偶问题的求解步骤来一步步进行,23:52:27首先求解 的最小值,对于固定的i,的最小值只与w和b有关。对w和b分别求偏导数。将上式带回到拉格朗日函数,此时得到的是该函数的最小值(目标函数是凸函数)代入后,化简过程如下:于是(2)(3)23:52:2723:52:27由于公式(3)最后一项是0我们将向量内积表示为:此时的拉格朗日函数只包含了变量。我们求出了i 才能得到w和b。接着是极大化的过程23:52:28前面提到过对偶问题和原问题满足的几个条件,首先由于目标函数和线性约束都是凸函数,而且这里不存在等式约束h

    12、。存在w使得对于所有的i,。因此,一定存在 使得 是原问题的解,是对偶问题的解。在这里,求 就是求 了。即可求出b。即离超平面最近的正的函数间隔要等于离超平面最近的负的函数间隔。关于上面的对偶问题如何求解,将留给下一篇中的SMO算法来阐明23:52:28如果求出了 ,根据 即可求出w(也是 ,原问题的解)。然后考虑另外一个问题,由于前面求解中得到我们通篇考虑问题的出发点是 ,根据求解得到的 ,代入前式得到也就是说,以前新来的要分类的样本首先根据w和b做一次线性运算,然后看求的结果是大于0还是小于0,来判断正例还是负例。现在有了 ,我们不需要求出w,只需将新来的样本和训练数据中的所有样本做内积和即可。那有人会说,与前面所有的样本都做运算是不是太耗时了?其实不然,我们从KKT条件中得到,只有支持向量的 ,其他情况 。因此,我们只需求新来的样本和支持向量的内积,然后运算即可。23:52:28

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:第四章支持向量机与图像分类课件1.pptx
    链接地址:https://www.163wenku.com/p-6016196.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库