支持向量机算法的详细推导课件.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《支持向量机算法的详细推导课件.pptx》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 支持 向量 算法 详细 推导 课件
- 资源描述:
-
1、 BP网络及RBF网络解决了模式分类与非线性映射问题。Vapnik提出的支持向世机(Support Vector Machine,SVM),同样可以解决模式分类与非线性映射问题。 从线性可分模式分类角度看,SVM的主要思想是:建立建立一个最优决策超平面,一个最优决策超平面,使得该平面两侧距平面最近的两类使得该平面两侧距平面最近的两类样本之间的距离最大化样本之间的距离最大化,从而对分类问题提供良好的泛化,从而对分类问题提供良好的泛化能力能力。根据cover定理:将复杂的模式分类问题非线性地投射到高维特征空间可能是线性可分的,因此只要特征空间的维数足够高,则原始模式空间能变换为一个新的高维特征空间
2、,使得在特征空间中模式以较高的概率为线性可分的。此时,应用支持向量机算法在特征空间建立分类超平面,即可解决非线性可分的模式识别问题。 支持向量机基于统计学习理论的原理性方法,因此需要较深的数学基础。下面的阐述避免过多抽象的数学概念,推导过程尽量详细。8.1 支持向量机的基本思想 线性可分数据的二值分类机理:系统随机产生一个超平面并移动它,直到训练集中属于不同类别的样本点正好位于该超平面的两侧。显然,这种机理能够解决线性分类问题,但不能够保证产生的超平面是最优超平面是最优的的。支持向量机建立的分类超平面能够在保证分类精在保证分类精度的同时,使超平面两侧的空白区域最大化,从而实度的同时,使超平面两
3、侧的空白区域最大化,从而实现对线性可分问题的最优分类现对线性可分问题的最优分类。 什么叫线性可分线性可分?就是可以用一条或几条直线把属于不同类别的样本点分开。实际上,求解分类问题,实际上,求解分类问题,就是要求出这条或这几条直线!就是要求出这条或这几条直线!问题是:怎么求?进一步理解支持向量机:进一步理解支持向量机:支持向量机(Support Vector Machine,SVM)中的“机(机(machine,机器,机器)”: 实际上是一个算法。在机器学习领域,常把一些实际上是一个算法。在机器学习领域,常把一些算法算法看作是一个机器(又叫看作是一个机器(又叫学习机学习机器,或器,或预测函数预测
4、函数,或或学习函数学习函数)。)。“支持向量支持向量”:则是指训练集中的某些训练点则是指训练集中的某些训练点,这些点这些点最靠近分类决策面,是最难分类的数据点最靠近分类决策面,是最难分类的数据点 。SVM:它是一种有监督(有导师)学习方法,即它是一种有监督(有导师)学习方法,即已知已知训练点的类别训练点的类别,求训练点和类别之间的对应关系求训练点和类别之间的对应关系,以,以便将训练集按照类别分开,或者是预测新的训练点所便将训练集按照类别分开,或者是预测新的训练点所对应的类别。对应的类别。 SVM主要针对主要针对小样本数据进行学习、分类和预测小样本数据进行学习、分类和预测(有时也叫回归)的一种方
5、法,能解决神经网络不能(有时也叫回归)的一种方法,能解决神经网络不能解决的解决的过学习问题过学习问题。类似的根据样本进行学习的方法。类似的根据样本进行学习的方法还有基于案例的推理(还有基于案例的推理(Case-Based Reasoning),),决策树归纳算法等。决策树归纳算法等。 过学习问题:过学习问题:训练误差过小导致推广能力下降,即真实风险的增加。 推广能力:推广能力:generalization ability,也可以说是泛化能泛化能力力,就是对未知样本进行预测时的精确度。下面讨论线性可分情况下支持向量机的分类原理。 8.1.1 最优超平面的概念最优超平面的概念考虑P个线性可分样本(
6、X1,d1),(X2,d2),(Xp,dp),(XP,dP),对于任一输入样本Xp ,期望输出为dp =1(代表两类类别标识)。用于分类的超平面方程为 WT X+b=0 (8.1)式中,X为输入向量,W为权值向量,b为偏置偏置(相当于前述负阈值负阈值),则有 WT XP+b0 dp =+1 WT XP+b0以上为不等式约束的二次函数极值问题不等式约束的二次函数极值问题(Quadratic Programming,QP)。由Kuhn Tucker定理知,式(8.14)的最优解必须满足以下最优化条件(KKT条件)(8.14)上式等号成立的两种情况:一是p为零;另一种是 (WT XP+b) dp=1
7、 。第二种情况仅对应于样本为支持向量对应于样本为支持向量。 设Q()的最优解为01, 02,., 0p ,可通过式(8.12)计算最优权值向量,其中多数样本的Lagrange系数为零,因此即最优超平面的最优超平面的权向量权向量是是训练样本向量的线性组合训练样本向量的线性组合,且,且只有支持向量影响最终的划分结果只有支持向量影响最终的划分结果,如果去掉其他训练,如果去掉其他训练样本重新训练,得到分类超平面相同样本重新训练,得到分类超平面相同。但如果一个支持向量未能包含在训练集内时,最优超平面会被改变。(8.16)利用计算出的最优权值向量和一个正的支持向量,可通过式(8.5)进一步计算出最优偏置计
8、算出最优偏置 b0=1W0T Xs (8.17) 求解线性可分问题得到的最优分类判别函数最优分类判别函数为在上式中的P个输入向量中,只有若干个支持向量的Lagrange系数不为零,因此计算复杂度取决于支持向量的个数。 对于线性可分数据,该判别函数对训练样本的分类误差为零,而对非训练样本具有最佳泛化性能。(8.18)8.1.3 非线性可分数据最优超平面的构建 若将上述思想用于非线性可分模式的分类时,会有一些样本不能满足dp(WT XP+b)1的约束,而出现分类误差。因此需要适当放宽该式的约束,将其变为式中引入了松弛变量松弛变量p0,用于度量一个数据点对线度量一个数据点对线性可分理想条件的偏离程度
9、性可分理想条件的偏离程度。当0 p 1时,数据点数据点落入分离区域的内部落入分离区域的内部,且在分类超平面的正确一侧且在分类超平面的正确一侧;当p 1时,数据点进入分类超平面的错误一侧时,数据点进入分类超平面的错误一侧;当p =0时,相应的数据点即为精确满足式(8.6)的支持向量Xs。(8.19)dp(WT XP+b)1建立非线性可分数据的最优超平面非线性可分数据的最优超平面可以采用与线性可分情况类似的方法,即对于给定的训练样本 (X1,d1),(X2,d2),(Xp,dp),(XP,dP) ,寻找权值W和阈值B的最优值,使其在式(8.19)的约束下,最小化关于权值W和松弛变量 p 的代价函数
10、C是选定的正参数。与前述方法相似,采用Laglange系数方法解决约束最优问题。需要注意的是,在引入Lagrange函数时,使式(8.10)中的1被1-p代替,从而使Lagrange函数变为对式(8.21)采用与前类似推导,得到非线性可分数据非线性可分数据的对偶问题的对偶问题的表示为:给定训练样本,求解使以下目标函数为最大值的Lagrange系数1, 2,., p,并满足以下约束条件(8.21)可以看出在上述目标函数中,松弛变量 p和它们的Lagrange系数都未出现,因此线性可分的目标函数线性可分的目标函数与非线性可分非线性可分的目标函数表达式完全相同目标函数表达式完全相同。不同的只是线性可
展开阅读全文