人工智能之支持向量机课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《人工智能之支持向量机课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 支持 向量 课件
- 资源描述:
-
1、支持向量机支持向量机 Support Vector Machines内容提要内容提要n统计学习方法概述统计学习方法概述n统计学习问题统计学习问题n学习过程的泛化能力学习过程的泛化能力n支持向量机支持向量机nSVMSVM寻优算法算法n应用应用支持向量机支持向量机nSVM是一种基于统计学习理论的机器学习方法,它是由Boser,Guyon,Vapnik在COLT-92上首次提出,从此迅速发展起来nVapnik V N.1995.The Nature of Statistical Learning Theory.Springer-Verlag,New York nVapnik V N.1998.Sta
2、tistical Learning Theory.Wiley-Interscience Publication,John Wiley&Sons,Incn目前已经在许多智能信息获取与处理领域都取得了成功的应用。支持向量机支持向量机 SVMnSVMs are learning systems that nuse a hyperplane of linear functionsnin a high dimensional feature space Kernel functionntrained with a learning algorithm from optimization theory L
3、agrangenImplements a learning bias derived from statistical learning theory Generalisation SVM is a classifier derived from statistical learning theory by Vapnik and Chervonenkis25 线性分类器线性分类器ayestf xf(x,w,b)=sign(w.x-b)denotes+1denotes-1How would you classify this data?26线性分类器线性分类器f xayestdenotes+1d
4、enotes-1f(x,w,b)=sign(w.x-b)How would you classify this data?27线性分类器线性分类器f xayestdenotes+1denotes-1f(x,w,b)=sign(w.x-b)How would you classify this data?28线性分类器线性分类器f xayestdenotes+1denotes-1f(x,w,b)=sign(w.x-b)How would you classify this data?29线性分类器线性分类器f xayestdenotes+1denotes-1f(x,w,b)=sign(w.x-b
5、)How would you classify this data?哪一个分界面是最优的?210分类超平面分类超平面nTraining set:(xi,yi),i=1,2,N;yi+1,-1nHyperplane:wx+b=0nThis is fully determined by(w,b)w1x+b1=0w2x+b2=0w3x+b3=0211最大间隔最大间隔一个超平面,如果它能将训练样本没有错误地分开,并且两类训练样本中离超平面最近的样本与超平面之间的距离是最大的,则把这个超平面称作最优分类 超 平 面(o p t i m a l separating hyperplane),两类样本中离分
6、类面最近的样本到分类面的距离称为分类间隔,最优超平面也可以称作最大间隔超平面。212最大间隔原则最大间隔原则Note1:decision functions(w,b)and(cw,cb)are the sameNote2:but margins as measured by the outputs of the function xwx+b are not the same if we take(cw,cb).Definition:the margin given by the,which is when c=1/|w|Strategy:1)we need to maximise the ge
7、ometric margin!(cf result from learning theory)2)subject to the constraint that training examples are classified correctly wwx+b=0wx+b0wx+b非线性分划代价:2维空间内积6维空间内积非线性分类非线性分类235为此,引进函数有211222222112211221122(,)(1)12 2 2 ijijijijijijijijijK x xxxxxxxxxxxxxxxxx 比较(2)和(3),可以发现2(,)()1)ijijK x xxx(3)2()()(,)()
8、1)ijijijxxK x xx x这是一个重要的等式,提示6维空间中的内积可以通过计算 中2维空间中的内积 得到。()()ijxx(,)ijK x x()ijx x非线性分类非线性分类1122121222221122()()12 2 2 ijijijiijjijijxxxxxxxxxxxxxx236实现非线性分类的思想实现非线性分类的思想给定训练集后,决策函数仅依赖于而不需要再考虑非线性变换如果想用其它的非线性分划办法,则可以考虑选择其它形式的函数 ,一旦选定了函数,就可以求解最优化问题2(,)()1)ijijK x xxx(,)ijK x x()x111l1i1min ,2.0 0,1,l
9、llijijijjijjiiiy yK x xstyC ilaa aaaa*1(,)Tlaaa得 ,而决策函数237*1()sgn(,)liiiif xyK x xba决策函数其中*1(,)|0ljiiijjibyyK x xjjCaa(,)iK x x 核函数实现非线性分类的思想实现非线性分类的思想238n多项式内核n径向基函数内核RBFnSigmoind内核(,)()qiiK x xx xc22|(,)expiixxK x x(,)tanh()iiK x xx xc目前研究最多的核函数主要有三类:得到q 阶多项式分类器每个基函数中心对应一个支持向量,它们及输出权值由算法自动确定包含一个隐层
展开阅读全文