《智能传感器系统》课件第7章.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《《智能传感器系统》课件第7章.ppt》由用户(momomo)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 智能传感器系统 智能 传感器 系统 课件
- 资源描述:
-
1、第7章支持向量机技术在智能传感器系统中的应用 第章支持向量机技术在智能 传感器系统中的应用7.1统计学习理论与支持向量机的基础知识统计学习理论与支持向量机的基础知识7.2支持向量机的训练、检验与测量支持向量机的训练、检验与测量7.3基于基于SVM方法的三传感器数据融合原理方法的三传感器数据融合原理第7章支持向量机技术在智能传感器系统中的应用7.1 统计学习理论与支持向量机的基础知识统计学习理论与支持向量机的基础知识7.1.1 统计学习理论统计学习理论第一种是经典的(参数)统计估计方法。现有机器学习方法共同的重要理论基础之一是统计学。参数方法的基础是传统的统计学,在这种方法中,参数的相关形式是已
2、知的,训练样本用来估计参数的值。第7章支持向量机技术在智能传感器系统中的应用这种方法的局限性在于,首先,它需要已知样本的分布形式,这需要花费很大代价。其次,传统统计学是研究样本数目趋于无穷大时的渐近理论,即研究当样本数量趋于无穷大时的极限特性,现有学习方法有很多也基于此假设。但在实际问题中,样本数目往往是有限的,因此一些理论上很优秀的学习方法往往在实际中的表现却不尽人意。第7章支持向量机技术在智能传感器系统中的应用 第二种方法是经验非线性方法,如人工神经网络(Artificial Neural Network,ANN)。这种方法利用已知样本建立非线性模型,克服了传统参数估计方法的困难。但是,这
3、种方法存在两个方面的问题:首先是到目前为止,缺乏一种统一的数学理论;其次,由于所建立系统模型的性能最终决定于观测数据(样本)的数量与质量,而在实际应用过程中所获得的原始观察数据(样本)数量往往是有限的。第7章支持向量机技术在智能传感器系统中的应用而且是采样(非连续)的,通常这些采样没有统一的格式,同时由于所研究问题本身的高维本质,将会在输入空间中仅仅形成一个稀疏分布,从而导致问题往往接近于Hadamard意义上的病态,造成传统神经网络方法的泛化(generalization)问题,会产生过拟合数据的模型。为了克服这一问题,机器学习产生了两个研究方向:一是参数选择的优化算法;二是选择“最优”模型
4、的统计测量方法。第7章支持向量机技术在智能传感器系统中的应用第三种方法是基于统计学习理论(Statistical Learning Theory,SLT)的学习方法,如支持向量机和基于核的方法。与传统统计学相比,统计学习理论是一种专门研究小样本数据量情况下机器学习规律的理论。该理论针对小样本统计问题建立了一套新的理论体系,在这种体系下的统计推理规则不仅考虑了对渐近性能的要求,而且追求在现有有限信息的条件下得到最优结果。第7章支持向量机技术在智能传感器系统中的应用1.学习问题的一般性表示 设F(z)为定义在空间z上的概率测度,所考虑的函数集合为Q(z,a a),a a=a 1,a 2,a a,是
5、参数集合,学习的目标是在给定了一定数量但概率测度F(z)未知的独立同分布数据:z1,z2,zl (7-1)的条件下,来最小化风险泛函:(7-2)其解记为Q(z,a0)。第7章支持向量机技术在智能传感器系统中的应用 一个经过训练的机器,其测试误差的期望为(7-3)式中,R(a a)被称为期望风险(expected risk),P(x,y)未知。若密度p(x,y)存在,dp(x,y)可以写为p(x,y)dxdy。然而对于概率分布P(x,y)未知的情况,要使得期望风险最小化,就只有样本信息可以利用,这也就导致式(7-3)定义的期望风险是无法直接计算和最小化的。第7章支持向量机技术在智能传感器系统中的
6、应用经验风险Remp(a a)的定义为在一个观测数量有限的训练集上的被测平均误差率:(7-4)从式(7-4)可以看出,在经验风险Remp()的定义中没有概率分布,当给定具体的训练集xi,yi和选定的a a值后,Remp(a a)则为一个固定的数。用经验风险最小化表示期望风险最小化并没有可靠的理论依据,二者之间事实上存在着一个学习的一致性问题。第7章支持向量机技术在智能传感器系统中的应用式(7-3)中的量|yf(x,a)|/2被称为损失,对于二值分类的问题来说,它只能取0(或1)或1两个数。若选取某参数,01,对于损失|yf(x,a)|/2,下面的界以1 概率成立:(7-5)第7章支持向量机技术
7、在智能传感器系统中的应用式中,h是一个非负整数,称为Vapnik Chervonenkis(VC)维,它表征学习机器的复杂性,h越大,学习机器的复杂性越高,能区分的类别越多,相应地,出现所谓的“过拟合”的可能性也越高。式(7-5)右边被称为“风险界”(risk bound),右边第二项被称为“VC置信范围”(VC confidence)。置信范围反映了真实风险和经验风险差值的上界,即结构的复杂性所带来的风险,它与学习机器的VC维h及训练样本数量l有关。第7章支持向量机技术在智能传感器系统中的应用2.VC维 VC维是一个标量值,用于测量函数列的容量,其概念是建立在点集被“打散(shatter)”
8、的概念基础上的。一函数集的VC维是h,当且仅当存在一点列,这些点列能共以2h种方式可分,且当qh时,没有序列满足这个性质。即 VC dim(F)=maxh:N(F,h)=2h式中,N(F,h)定义为h维向量中不同向量的个数。1 ihix1 iqix第7章支持向量机技术在智能传感器系统中的应用图7-1显示平面中的三个点是如何被线性指示函数集分开的,然而四个点的情况则不能区分。对于这两种情况,VC维与自由参数的个数相等,但是在一般情况下,VC维与自由参数的个数不等,如函数A sin(bx)只有两个参数,但有无限的VC维(Vapnik,1995)。n维空间中的线性指示函数序列其VC维等于n+1。第7
9、章支持向量机技术在智能传感器系统中的应用 图7-1 VC维示意图第7章支持向量机技术在智能传感器系统中的应用 3.结构风险最小化结构风险最小化根据式(7-5),如果固定训练样本数目l的大小,那么控制风险R(a a)的参量有两个:Remp(a a)和VC维h。其中,经验风险依赖于学习机器所选定的函数f(x,a a),这样就可以通过控制a a来控制经验风险。而VC维h依赖于学习机器在学习过程中可选函数的集合。第7章支持向量机技术在智能传感器系统中的应用如图7-2所示,设函数Q(z,a a),a a 的集合S具有一定的结构,这个结构是由一系列嵌套的函数子集Sk=Q(z,a a),a a k组成的,满
10、足:S1 S2 Sn其中,结构的元素满足如下两个性质:第7章支持向量机技术在智能传感器系统中的应用 每个函数集Sk的VC维hk是有限的,且有 h1h2hn (结构中的任何元素Sk所包含性质)整个完全有界函数的集合满足:0Q(z,a a)Bk,a a k或者对一定的(p,k),函数集合满足下列不等式:)(d),()(d),(sup/1zFzQzFzQppka aa aa ak,p2第7章支持向量机技术在智能传感器系统中的应用结构风险最小化原则就是在容许结构的嵌套函数集Sk中寻找一个合适的子集S*,使结构风险达到最小,即:emp2ln(1)ln()4min hSlhhRfl(7-6)由式(7-6)
11、可知,学习风险由两个部分组成,即经验风险和置信范围。对于给定的样本数目l,随着VC维h的增加,经验风险逐渐变小,而置信范围逐渐递增。置信范围与经验风险随h的变化趋势如图7-3所示。第7章支持向量机技术在智能传感器系统中的应用图7-3 结构风险最小化原理图第7章支持向量机技术在智能传感器系统中的应用图7-3表明,真实风险的界是经验风险和置信范围之和。随着结构元素序号的增加,经验风险将减少,而置信范围将增加。最小的真实风险的上界是在结构的某个适当的元素上取得的。综合考虑经验风险与置信范围的变化,可以求得最小的风险边界,它所对应的函数集的中间子集S*可作为具有最佳泛化能力的函数集合。第7章支持向量机
12、技术在智能传感器系统中的应用4.建模误差 机器学习中建模的目标就是从假设模型空间中选择一个模型,使其能够最接近于(从一些误差测度的角度上说)目标空间中的基础函数(underlying function)。这种做法产生的误差主要源于两个方面:逼近误差和估计误差。逼近误差的产生是由于假设空间小于目标空间,因此基础函数可能会位于假设空间之外。模型空间的选择不当将会产生很大的逼近误差,这种情况被称为模型失配。第7章支持向量机技术在智能传感器系统中的应用7.1.2 支持向量机支持向量机统计学习理论建立在一套较坚实的数学理论基础之上,并为解决有限样本的学习问题提供了一个统一的框架。它能将很多现有方法纳入其
13、中,有望帮助解决许多原来难以解决的问题(比如神经网络结构选择问题、局部极小点问题、过拟合问题等);同时,在这一理论基础上还发展了一种新的通用学习方法支持向量机(Support Vector Machine,SVM),其已初步表现出很多优于已有方法的性能,并推动着机器学习理论和技术的发展。第7章支持向量机技术在智能传感器系统中的应用1.支持向量机方法的主要优点(1)它是专门针对有限样本情况的,其目标是得到现有信息条件下的最优解而不仅仅是样本数趋于无穷大时的最优值。(2)支持向量机的算法最终将转化成为一个二次型寻优问题,从理论上说,得到的将是全局最优点,解决了在神经网络方法中无法避免的局部极值问题
14、。第7章支持向量机技术在智能传感器系统中的应用(3)支持向量机的算法将实际问题通过非线性变换转换到高维的特征空间,在高维空间中构造线性判别函数来实现原空间中的非线性判别,这种特殊性质能保证机器有较好的推广能力,同时它巧妙地解决了维数问题,使其算法复杂度与样本维数无关。第7章支持向量机技术在智能传感器系统中的应用2.支持向量机的结构支持向量机结构如图7-4所示。图7-4中的变量ai(i=1,2,s)是拉格朗日乘子,s是乘子的数量;b为阈值或偏移量;K(x,xi)为一个支持向量机的核函数;xi(i=1,2,s)为SVM的支持向量;x为训练样本、检验样本或实测样本中的某个向量;y(x)为对应x的输出
15、量。第7章支持向量机技术在智能传感器系统中的应用图7-4 支持向量机结构示意图第7章支持向量机技术在智能传感器系统中的应用在支持向量机结构示意图中,由原始的观测数据构成支持向量机的输入空间,通过某种关系将输入空间的数据映射到高维的特征空间。支持向量机是通过核函数来实现这种映射关系的。在特征空间F中,支持向量机通过线性回归函数 f(x)=wK(x,xi)T+b (7-7)来进行数据分类或拟合。第7章支持向量机技术在智能传感器系统中的应用3.支持向量机的核函数若特征空间的内积与输入空间的核函数等价,即 K(x,x)=j(x),j(x)=j(x),j(x)(7-8)满足Mercer条件,也即核函数K
16、是一个对称正定的函数:mmmmaK)()(),(xxxxjj,am0(7-9)xxxxxxdd)(),(),(ggK0,gL2(7-10)第7章支持向量机技术在智能传感器系统中的应用4.核函数的种类 1)线性核(Linear)线性核的核函数为K(x,xi)=x,xi,x,xi表示两向量的内积,即K(x,xi)=SVM的输出值y为第7章支持向量机技术在智能传感器系统中的应用(7-11)第7章支持向量机技术在智能传感器系统中的应用对于第5章所介绍的压力传感器,当m=3时,上式SVM的输出值为2)多项式核(Polynomal)多项式核的核函数为K(x,xi)=(x,xi+p2)p1,p1和p2为核函
17、数参数,调整这两个参数可以改善支持向量机的预测准确度。SVM的输出值y为第7章支持向量机技术在智能传感器系统中的应用(7-12)第7章支持向量机技术在智能传感器系统中的应用同理,当m=3时,由上式可以获得压力传感器的SVM输出表达式:13211()npPijijijybwx xp3)RBF核高斯型径向基函数(Gaussian Radial Basis Function)RBF核的核函数为表示两个向量x、xi取差后求模。为核函数参数,调整可改善支持向量机的预测准确度。SVM的输出值y为第7章支持向量机技术在智能传感器系统中的应用(7-13)第7章支持向量机技术在智能传感器系统中的应用同理,当m=
18、3时,由上式可以获得压力传感器的SVM输出表达式:式中exp(a)=ea。第7章支持向量机技术在智能传感器系统中的应用4)Sigmoid核(也称为多层感知器核,MultiLayer Perception)Sigmoid核的核函数为K(x,xi)=tanh(p1x,xi+p2),p1和p2为核函数参数,调整这两个参数可以改善支持向量机的预测精度。SVM的输出值y为第7章支持向量机技术在智能传感器系统中的应用(7-14)第7章支持向量机技术在智能传感器系统中的应用当m=3时,由式(7-14)可以获得压力传感器的SVM输出表达式:5)张量积(Tensor Product)核其核函数的表达式为这种核函
19、数对于多维样条核的构建特别有用,可以通过单变量核的积的形式简单地获得。第7章支持向量机技术在智能传感器系统中的应用5.支持向量机的种类1)SVC (1)线性可分情况。线性可分情况不具有一般性。考虑数据集的两类问题:D=(x1,y1),(xl,yl),xRd,y1,1(7-15)如果这些数据是线性可分的,其分割超平面为w,x+b=0(7-16)第7章支持向量机技术在智能传感器系统中的应用如果超平面无误差地将矢量集分离,且距超平面最近的矢量与超平面之间的距离最大,那么就认为矢量集被超平面最优分离。如果式(7-16)没有泛化损失,那么它就是一个规范超平面,其中的参数w、b的约束为(7-17)具体可表
20、述为:权矢量的范数等于训练数据集中的点距超平面最近距离的倒数。图7-5显示距离每个超平面的最近点。第7章支持向量机技术在智能传感器系统中的应用图7-5 规范超平面第7章支持向量机技术在智能传感器系统中的应用一个形式规范的分割超平面必须满足下面的约束:yiw,xi+b1,i=1,2,,l (7-18)那么点x距离超平面(w,b)的距离d(w,b;x)为:(7-19)第7章支持向量机技术在智能传感器系统中的应用最优超平面由最大的间隔(每一类之间最近点之间的距离)给定,并服从于式(7-19)的约束。间隔(w,b)定义为(7-20)第7章支持向量机技术在智能传感器系统中的应用因此,最优分离数据的超平面
21、是通过最小化(7-21)得到的。因为满足式(7-18)(它是一个分离超平面),所以b是独立的。改变b,超平面将沿着最优超平面的法方向移动。因此,间隔保持不变,但是超平面不再是最优的,因为超平面距离一类比另一类更近。需要考虑的是如何最小化方程(7-21),使其等价为实现结构风险最小(SRM)原则(因为前提是线性可分,所以不需要考虑经验风险)。第7章支持向量机技术在智能传感器系统中的应用为此,首先假设下面的界成立:w0,yr=1,ys=1 (7-32)那么,硬分类器为f(x)=sgn(w*,x+b)(7-33)其中sgn(a)表示取符号函数。a0时,sgn(a)=1,a0时,sgn(a)=1。另外
22、,当存在线性内插间隔的时候,会用软分类器(7-34)第7章支持向量机技术在智能传感器系统中的应用软分类器比硬分类器更合适,这是因为当在间隔内部没有训练数据时,分类器能够输出1到1之间的实数值。根据Kuhn-Tucker条件,ai(yiw,xi+b1)=0,i=1,,l(7-35)仅有满足以下条件的点才有非零的拉格朗日乘子:yiw,xi+b=1 (7-36)这些点被称为支持向量(Support Vector,SV)。如果数据被线性分离,那么所有的SV都在间隔上,数目也会比较少。第7章支持向量机技术在智能传感器系统中的应用如果数据是线性可分的,那么下面的等式成立:(7-37)因此,根据方程式(7-
23、24),分类器的VC维的界为(7-38)(7-39)且如果训练数据x被正则化于单位球内,则第7章支持向量机技术在智能传感器系统中的应用(2)线性不可分情况。为了使得最优可分超平面一般化,Cortes和Vapnik(1995)引入了非负变量i0和惩罚函数:()0iiF,常取=1式中,i是错误分类的量测。最优化问题转换为最小化分类器的VC维的同时最小化分类误差,于是式(7-18)在不可分情况下变为 yiwxTi+b1+i0,i=1,2,l (7-40)式中i0。第7章支持向量机技术在智能传感器系统中的应用上式在条件yiwxTi+b1+i0(i=1,2,l)限制下的优化问题的解由Lagrangian
24、的鞍点给定:(7-41)式中a、是Lagrange乘子。Lagrangian对w,b,x最小化,相对于a、最大化。同样地,它可以转换为对偶问题。于是除了得到式(7-27)外,还有:(7-42)第7章支持向量机技术在智能传感器系统中的应用于是对偶问题变成了(7-43)其解为(7-44)约束条件为(7-45)第7章支持向量机技术在智能传感器系统中的应用(3)非线性SVC。在分类的实际应用中,简单的线性分类并不能满足实际需要,更为一般化的分类器必须具有非线性分类能力。如本节的核函数介绍部分所述,如果把输入空间通过非线性函数映射到更高维的特征空间,则可在特征空间用线性分类的方法实现输入空间的非线性分类
25、。因此,直接选取一个合适的核函数取代式(7-44)中的xi,xj,然后把输入向量通过相应的分线性变换映射到特征空间,再代入到特征空间的线性分类器即可。第7章支持向量机技术在智能传感器系统中的应用2)SVR 支持向量回归是指用支持向量的方法描述回归问题。由于损失函数的引入,SVM也可以应用到回归问题(Smola,1996)。修正的损失函数必须包括一个距离的测量。图7-6给出了四个可能的损失函数。第7章支持向量机技术在智能传感器系统中的应用图7-6 各种损失函数第7章支持向量机技术在智能传感器系统中的应用图7-6(a)的损失函数对应着传统的最小二乘误差标准。图7-6(b)的损失函数是拉普拉斯型损失
展开阅读全文