支持向量机及其应用课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《支持向量机及其应用课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 支持 向量 及其 应用 课件
- 资源描述:
-
1、Page 2Page 3Page 4Page 5SVM的描述的描述u SVM是一种基于统计学习理论的模式识别方是一种基于统计学习理论的模式识别方法,它是由法,它是由Boser,Guyon,Vapnik在在COLT-92上上首次提出,从此迅速的发展起来,现在已经首次提出,从此迅速的发展起来,现在已经在许多领域(生物信息学,文本,图像处理,在许多领域(生物信息学,文本,图像处理,语言信号处理和手写识别等)都取得了成功语言信号处理和手写识别等)都取得了成功的应用的应用uCOLT(Computational Learning Theory)Page 6SVM的描述的描述u目标:目标:找到一个超平面,使
2、得它能够尽可能多找到一个超平面,使得它能够尽可能多的将两类数据点正确的分开,同时使分开的两的将两类数据点正确的分开,同时使分开的两类数据点距离分类面最远。类数据点距离分类面最远。u解决方法:解决方法:构造一个在约束条件下的优化问题,构造一个在约束条件下的优化问题,具体的说是一个约束二次规划问题具体的说是一个约束二次规划问题(constrained quadratic programing),求解该问题,得到分类器。求解该问题,得到分类器。Page 7模式识别问题的一般描述模式识别问题的一般描述u 已知:已知:n个观测样本,个观测样本,(x1,y1),(x2,y2)(xn,yn)u 求:最优函数
3、求:最优函数y=f(x,w)u 满足条件:期望风险最小满足条件:期望风险最小u 损失函数损失函数),(),(,()(yxdFwxfyLwR),(1),(0),(,(wxfywxfywxfyLPage 8SVM的描述的描述u 期望风险期望风险R(w)要依赖联合概率要依赖联合概率F(x,y)的信息,的信息,实际问题中无法计算。实际问题中无法计算。u 一般用经验风险一般用经验风险Remp(w)代替期望风险代替期望风险R(w)nwxfyLnwRniiiemp错分数1),(,(1)(Page 9一般模式识别方法的问题一般模式识别方法的问题u 经验风险最小不等于期望风险最小,不能保证经验风险最小不等于期望
4、风险最小,不能保证分类器的推广能力分类器的推广能力.u 经验风险只有在样本数无穷大趋近于期望风险,经验风险只有在样本数无穷大趋近于期望风险,需要非常多的样本才能保证分类器的性能。需要非常多的样本才能保证分类器的性能。u 需要找到经验风险最小和推广能力最大的平衡需要找到经验风险最小和推广能力最大的平衡点。点。Page 10一、线性可分的支持向量(分类)机),(,),(),(2211nnyxyxyxD,niyRXximi,1,1,1,0)(bxw首先考虑线性可分情况。设有如下两类样本的训练集:首先考虑线性可分情况。设有如下两类样本的训练集:线性可分情况意味着存在线性可分情况意味着存在超平面超平面使
5、训练点中的正类和使训练点中的正类和负类样本分别位于该超平面的两侧。负类样本分别位于该超平面的两侧。如果能确定这样的参数对(如果能确定这样的参数对(w,bw,b)的话的话,就可以构造就可以构造决策函数决策函数来进行来进行识别新样本。识别新样本。)sgn()(bxwxfPage 11线性可分的支持向量(分类)机nibxwytswiibw,1,1)(.21min2,问题是问题是:这样的参数对(:这样的参数对(w,bw,b)有许多。)有许多。解决的方法是采用最大间隔原则。解决的方法是采用最大间隔原则。最大间隔原则最大间隔原则:选择使得训练集:选择使得训练集D D对于线性函数对于线性函数(wx)+b的几
6、何间隔取最大值的参数对的几何间隔取最大值的参数对(w,b)(w,b),并,并由此构造决策函数。由此构造决策函数。在规范化下,超平面的几何间隔为在规范化下,超平面的几何间隔为于是,找最大于是,找最大几何间隔的超平面几何间隔的超平面表述成如下的最优化问题:表述成如下的最优化问题:w1(1)(1)Page 12线性可分的支持向量(分类)机niiiibxwywbwL12)1)(21),(nTnR),(210),(,0),(bwLbwLwb 为求解问题为求解问题(1),(1),使用使用Lagrange乘子法乘子法将其转化为对偶问题。将其转化为对偶问题。于是引入于是引入Lagrange函数函数:其中,其中
7、,称为称为Lagrange乘子。乘子。首先求首先求Lagrange函数关于函数关于w,bw,b的极小值。由的极小值。由极值条件有:极值条件有:niiiy10niiiixyw1得到:得到:(2)(2)(3)(3)(4)(4)Page 13线性可分的支持向量(分类)机niytsxxyyiniiininjjnjjijiji,1,0,0.)(21min1111niiiixyw1niiiixyw1*将将(3)(3)式代入式代入Lagrange函数,并利用函数,并利用(4)(4)式,则原始的优化问题式,则原始的优化问题转化为如下的转化为如下的对偶问题对偶问题(使用极小形式使用极小形式):这是一个凸二这是一
8、个凸二次规划问题次规划问题有唯一的最优有唯一的最优解解(5)(5)求解问题求解问题(5)(5),得,得。则参数对。则参数对(w,b)(w,b)可由下式计算:可由下式计算:nyiniiiixwb1*1*2Page 14线性可分的支持向量(分类)机0)1)(*bxwyiii支持向量:支持向量:称训练集称训练集D中的样本中的样本xi为支持向量,如为支持向量,如 果它对应的果它对应的i*0。根据原始最优化问题的根据原始最优化问题的KKTKKT条件,有条件,有于是,支持向量正好在间隔边界上于是,支持向量正好在间隔边界上。于是,得到如下的决策函数:于是,得到如下的决策函数:niiiibxxyxf1*)(s
9、gn)(Page 15目录目录u 线性可分的支持向量(分类)机线性可分的支持向量(分类)机u 线性支持向量(分类)机线性支持向量(分类)机u 支持向量(分类)机支持向量(分类)机u 最小二乘支持向量(分类)机最小二乘支持向量(分类)机u 硬硬-带带支持向量(回归)机支持向量(回归)机u 软软-带带支持向量(回归)机支持向量(回归)机u -支持向量(回归)机支持向量(回归)机u 最小二乘支持向量(回归)机最小二乘支持向量(回归)机u 支持向量机应用支持向量机应用Page 16二、线性支持向量(分类)机1)(bxwyiinibxwyiii,1,1)(现在考虑现在考虑线性不可分情况线性不可分情况。对
10、于训练集。对于训练集D D,不存在这样,不存在这样的超平面,使训练集关于该超平面的几何间隔取正值。的超平面,使训练集关于该超平面的几何间隔取正值。如果要用超平面来划分的话,必然有错分的点。如果要用超平面来划分的话,必然有错分的点。但我们任希望使用超平面进行分划,这时应但我们任希望使用超平面进行分划,这时应“软化软化”对间隔的要求,即容许不满足约束条件的样本点存在。对间隔的要求,即容许不满足约束条件的样本点存在。为此,引入松弛变量为此,引入松弛变量并并“软化软化”约束条件:约束条件:i0iPage 17线性支持向量(分类)机为了避免为了避免 i i取太大的值,需要在目标函数中对它们进行取太大的值
11、,需要在目标函数中对它们进行惩罚。于是惩罚。于是原始优化问题原始优化问题变为:变为:ninibxwytsCwiiiiniibw,1,0,1,1)(.21min12,其中其中C0C0称为称为惩罚因子。惩罚因子。(6)(6)Page 18线性支持向量(分类)机niiiniiiiiniirbxwyCwrbwL1112)1)(21),(类似前面,通过引入如下的类似前面,通过引入如下的Lagrange函数:函数:得到如下的对偶问题:得到如下的对偶问题:niCytsxxyyiniiininjjnjjijiji,1,0,0.)(21min1111(7)(7)Page 19线性支持向量(分类)机求解对偶问题求
12、解对偶问题(7),(7),可得如下决策函数:可得如下决策函数:niiiibxxyxf1*)(sgn)(支持向量有下列性质:支持向量有下列性质:(1)(1)界内支持向量一定位于间隔边界上界内支持向量一定位于间隔边界上 的正确划分区;的正确划分区;(2)(2)支持向量不会出现在间隔以外的支持向量不会出现在间隔以外的 正确划分区;正确划分区;(3)(3)非支持向量一定位于带间隔的正确划分区。非支持向量一定位于带间隔的正确划分区。Page 20目录目录u 线性可分的支持向量(分类)机线性可分的支持向量(分类)机u 线性支持向量(分类)机线性支持向量(分类)机u 支持向量(分类)机支持向量(分类)机u
13、最小二乘支持向量(分类)机最小二乘支持向量(分类)机u 硬硬-带带支持向量(回归)机支持向量(回归)机u 软软-带带支持向量(回归)机支持向量(回归)机u -支持向量(回归)机支持向量(回归)机u 最小二乘支持向量(回归)机最小二乘支持向量(回归)机u 支持向量机应用支持向量机应用Page 21三、支持向量(分类)机对于一般的对于一般的非线性可分情况非线性可分情况。对于训练集。对于训练集D D,无法寻找,无法寻找到来如前的超平面来划分。到来如前的超平面来划分。Page 22支持向量(分类)机下面通过下面通过核技术核技术来处理。引入一个来处理。引入一个非线性映射非线性映射 把把输入空间输入空间映
14、射到一个映射到一个(高维的高维的)Hilbert空间空间H,使数据在使数据在H中是线性可分中是线性可分或线性不可分:或线性不可分:)(:xzxHZRXm输入空间输入空间Xi Hilbert空间空间H线性线性可分可分线性线性不可分不可分Page 23在核映射下,在核映射下,D D对应于对应于Hilbert空间空间H的训练集为:的训练集为:支持向量(分类)机),(,),),(),(,),(1111nnnnyxyxyzyzD于是在于是在Hilbert空间空间H中寻找使几何间隔最大的超平中寻找使几何间隔最大的超平面,其原始优化问题面,其原始优化问题为:为:ninibzwytsCwiiiiniibw,1
15、,0,1,1)(.21min12,(8)(8)Page 24问题问题(8)(8)对应的对偶问题为对应的对偶问题为:支持向量(分类)机(9)(9)niCytsxxKyyiniiininjjnjjijiji,1,0,0.)(21min1111求解对偶问题求解对偶问题(9),(9),可得如下决策函数:可得如下决策函数:niiiibxxKyxf1*)(sgn)(Page 25b*问的计算如下问的计算如下:支持向量(分类)机选取选取的一个正分量的一个正分量0j*0或或j*0来计算来计算b:Page 42硬硬-带带支持向量(回归)机支持向量(回归)机bxwxfy)()(支持向量:支持向量:称训练集称训练集
16、D中的样本中的样本xi为支持向量,为支持向量,如果它对应的如果它对应的i*0或i0。把把w的式子代入函数:的式子代入函数:于是,得到如下的回归函数:于是,得到如下的回归函数:niiiibxxxf1*)()(y=(w.x)+b+y=(w.x)+b-y=(w.x)+bPage 43目录目录u 线性可分的支持向量(分类)机线性可分的支持向量(分类)机u 线性支持向量(分类)机线性支持向量(分类)机u 支持向量(分类)机支持向量(分类)机u 最小二乘支持向量(分类)机最小二乘支持向量(分类)机u 硬硬-带带支持向量(回归)机支持向量(回归)机u 软软-带带支持向量(回归)机支持向量(回归)机u -支持
17、向量(回归)机支持向量(回归)机u 最小二乘支持向量(回归)机最小二乘支持向量(回归)机u 支持向量机应用支持向量机应用Page 44软软-带带支持向量(回归)机支持向量(回归)机),(,),(),(2211nnyxyxyxD,niRyRXximi,1,考虑软考虑软-带支持向量带支持向量线性线性回归回归情况。设有如下两类样本的训练集情况。设有如下两类样本的训练集:同样希望使用一个线性函数来同样希望使用一个线性函数来回归回归样本点,且这种情况下,除了样本点,且这种情况下,除了大量样本点在大量样本点在-带内,还有少量的样本带内,还有少量的样本落在落在-带外。这时需要对带外。这时需要对落在落在-带外
18、的样本进行惩罚。于是带外的样本进行惩罚。于是原始优化问题原始优化问题为:为:ninibxwyniybxwtsnCwiiiiiiiniiibw,1,0,1,)(,1,)(.)(121min(*)*1*2,(*)y=(w.x)+b+y=(w.x)+b-y=(w.x)+bPage 45软软-带带支持向量(回归)机支持向量(回归)机niiiiniiiiniiiiiniiibxwybxwynCwbwL1*11*1*2)()()()(21),(0,0(*)(*)0(*)(*)(*)iinCL 为求解上述原始优化问题为求解上述原始优化问题,使用使用Lagrange乘子法乘子法将其转化为对将其转化为对偶问题。
19、于是引入偶问题。于是引入Lagrange函数函数:其中,其中,称为称为Lagrange乘子。乘子。首先求首先求Lagrange函数关于函数关于w,b,w,b,(*)的极小值。由的极小值。由极值条件有:极值条件有:niiibL1*0)(0)(1*niiiiwxwLPage 46软软-带带支持向量(回归)机支持向量(回归)机ninCtsyxxiiniiiniiiininiiinjjijjii,1,0,0)(.)()()()(21min*1*1*11*1*)(niiiixw1*)(将上式代入将上式代入Lagrange函数,则原始的优化问题转化为如下的函数,则原始的优化问题转化为如下的对偶问题对偶问题
展开阅读全文