支持向量机分析课件.ppt(68页)
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《支持向量机分析课件.ppt(68页)》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 支持 向量 分析 课件
- 资源描述:
-
1、第五章 支持向量机内容提要n1 引言n2 统计学习理论n3 线性支持向量机n4 非线性支持向量机n5 支持向量回归n6 支持向量聚类1 引言引言一一. SVM (Support Vector Machine)的历史的历史n神经网络分类器,Bayes分类器等是基于大样本大样本学习的分类器。nVapnik 等从19601960年开始关于统计学习理论统计学习理论的研究。统统计学习理论计学习理论是关于小样本小样本的机器学习理论。n19921992年支持向量机支持向量机首次被引入。19951995年Vapnik发展了支持向量机支持向量机理论。支持向量机支持向量机是基于统计学习理论统计学习理论的一种实用的
2、机器学习机器学习方法。二二. SVM 的发展的发展 SVM理论的发展理论的发展: 最小二乘支持向量机(LS SVM) 多分类支持向量机(M-SVM) 支持向量回归(SVR) 支持向量聚类(SVC) SVM与计算智能的融合与计算智能的融合: 神经网络+支持向量机 模糊逻辑+支持向量机 遗传算法+支持向量机 小波分析+支持向量机 主分量分析+支持向量机 粗糙集理论+支持向量机三三. SVM的应用的应用 数据与文本分类 系统建模及预测 模式识别(图像及语音识别,生物特征识别) 异常检测(入侵检测,故障诊断) 时间序列预测2 统计学习理论统计学习理论 一一. 两两分类问题分类问题n给定 l 个观测值:
3、 , i = 1, 2, ., l Rnn 每个观测值与一个标记相连: , i = 1, 2, ., l 土土1 n对于 (2-类) 分类, 建立一个函数: : 表示函数的参数 使得 f 能正确地分类未学习过的样本iy 1 R :nfixixiy第 2 类第 1 类二二.期望风险与实验风险期望风险与实验风险n期望风险最小化期望风险最小化 其中 x, y的联合概率 P(x, y) 是未知的n实验风险最小化实验风险最小化 实验风险是由在训练集上测得的平均误差所确定的n如果训练样本的个数是有限的,则实验风险最小化的方法不保证有高推广能力 liiiempxfylfR1 21 yxdPxfyfR,21三
4、三. VC理论理论VC (Vapnik-Chervonenkis)维数维数n分类函数 的集合F的VC维数 p=VCdim(F) 定义 (VapnikChervonenkis). 函数 的集合F的VC 维数是p, 当且仅当存在点集 xipi=1 使得这些点能够被所有 2p 种可能的分类方式分开,且不存在集合 xiqi=1 ( q p )满足这一性质。n在 n 维空间中,超平面集合的VC维数等于n + 1 。nVC维数刻画了“可能近似正确”意义上的学习能力。ff例:VC维数四四. 结构风险最小化结构风险最小化 VC 理论引入期望风险的边界, 它依赖于实验风险与 F的能力。n这些边界的最小化导出结构
5、风险最小化原理结构风险最小化原理:实验风险与实验风险与 VC 可信度之和可信度之和为最小为最小其中其中 h 与与VC 维数有关维数有关,是能力概念的一种测度是能力概念的一种测度n支持向量机是基于结构风险最小化原理支持向量机是基于结构风险最小化原理构造的一种学习机构造的一种学习机) 4/(log) 1)/2(log()()(lhlhfRfRemp3 线性支持向量机线性支持向量机一一. 两分类问题两分类问题: 线性分割情形线性分割情形第 1 类第 2 类n许多决策边界可以分割这许多决策边界可以分割这些数据点出为两类些数据点出为两类 n我们选取哪一个我们选取哪一个?坏的决策边界的例子坏的决策边界的例
6、子第 1 类第 2 类第 1 类第 2 类好的决策边界好的决策边界: 间隔大间隔大n决策边界离两类数据应尽可能远 n最大化间隔 m第 1 类第 2 类m二二. 最优化问题最优化问题n设 x1, ., xn 为数据集, yi 1,-1 为xi 的类标记要求决策边界正确地分类所有的点 于是得到一个带有约束的优化问题将上述最优化问题转换成其对偶问题对偶问题:取Lagrange函数 (w,b;)=1/2w2 n i=1 i (yi(w,xi)+b 1)则对偶问题由 max W()=max (minw,b (w,b;)给出。由 minw,b (w,b;) 得 / b=0 n i=1 iyi=0 / w
7、=0 w=n i=1 iyixi于是得到于是得到对偶问题对偶问题n这是一个二次规划二次规划 (QP) 问题问题n i的全局最大值总可以求得nW的计算解得*=argmin 1/2n i=1n i=1 i jyiyj n k =1 k w*=n i=1 iyixi, b *=1/2其中Xr 与xs满足 xr,xs 0, yr= 1,ys=1 则 f(x)= sgn( +b)三三. 解的性质解的性质n许多的许多的 i 为零为零nw 只是少数数据的线性组合n具有非零 i 的 xi 称为支持向量支持向量 (SV)n决策边界仅由SV确定 n设 tj (j=1, ., s) 为支持向量的指标,于是 n为了检
8、测一个新数据为了检测一个新数据 zn计算 如果 WTZ+ b 0, 则 z 属于第一类;否则,属于第二类。6=1.4四四. 几何解释几何解释第1类第2类1=0.82=03=04=05=07=08=0.69=010=04 非线性支持向量机线性支持向量机 一一. 非线性分割问题非线性分割问题n关键思想关键思想: 为了解决非线性分割问题, 将 xi 变换到一个高维空间。 n输入空间: xi 所在的空间n特征空间: 变换后 f(xi) 的空间n如何变换如何变换 ?n利用一个适当的变换f, 使分类变得容易些。 n特征空间中的线性算子等价于输入空间中的非线性算子。 n变换可能出现的问题变换可能出现的问题n
9、难以得到一个好的分类且计算开销大nSVM同时解决这两个问题同时解决这两个问题 n最小化 |w|2 能得到好的分类n利用核函数技巧可以进行有效的计算 f( )f( )f( )f( )f( )f( )f( )f( )f()f( )f( )f( )f( )f( )f( )f( )f( )f( )f( )特征空间输入空间n变换举例变换举例 定义核函数定义核函数 K (x,y) 如下如下 考虑下列变换考虑下列变换n内积可由内积可由 K 计算计算, 不必通过映射不必通过映射 f f()计算计算二二. 核函数技巧核函数技巧n核函数 K 与映射 f(.) 之间的关系是n作为核函数技巧这是已知的n在应用中, 我
10、们指定K, 从而间接地确定 f() ,以代替选取f() 。n直观地, K (x,y) 表示我们对数据 x 和 y 之间相似性的一种描述, 且来自我们的先验知识 。n为了f() 存在, K (x,y) 需要满足 Mercer 条件。n核函数举例核函数举例nd 阶多项式核阶多项式核n具有宽度具有宽度 s s的径向基函数核的径向基函数核n相当接近于径向基函数神经网络n具有参数具有参数 k k and q q 的的Sigmoid 核核n对所有的k 和 q,它不满足 Mercer 条件 三三.非线性非线性SVM算法算法n将所有的将所有的内积改为核函数内积改为核函数 n训练算法训练算法:线性的线性的 非线
展开阅读全文