第2章线性判别函数课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《第2章线性判别函数课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 线性 判别函数 课件
- 资源描述:
-
1、v线性判别函数和决策面线性判别函数和决策面v感知准则函数和梯度下降法感知准则函数和梯度下降法v固定增量法及其收敛性固定增量法及其收敛性v最小平方误差准则函数最小平方误差准则函数v多类情况下的线性判别函数多类情况下的线性判别函数v分段线性判别函数分段线性判别函数vFisher 线性判别函数线性判别函数v支持向量机支持向量机第二章第二章 线性判别函数线性判别函数 模式的表示模式的表示 在分类识别方法中,首先应该把代表事物的在分类识别方法中,首先应该把代表事物的那些那些特征特征抽取出来,构成代表这个模式的抽取出来,构成代表这个模式的特征特征向量向量。现在假定已经抽取到模式的若干特征:现在假定已经抽取
2、到模式的若干特征:如果这如果这 个特征能够较好地描述原始的待识个特征能够较好地描述原始的待识别的事物,则可以用别的事物,则可以用 维空间的一个列向量来维空间的一个列向量来代表:代表:1,2,(.,)TnXx xx12,.,nx xxnn1.问题与解决思路问题与解决思路问题:问题:设有由设有由N个待分类的个待分类的两类别两类别模式组成的一模式组成的一个样本集,个样本集,如何实现对样本集中的两类样本分类?如何实现对样本集中的两类样本分类?,21NXXX在一般情况下样本在特征空间的分布情况:在一般情况下样本在特征空间的分布情况:1x2x0(二维两类别模式的例子)(二维两类别模式的例子)二维三类别模式
3、的例子二维三类别模式的例子123边界2x1x可以看出可以看出:不同类别的典型样本在特征空间中明显处于不不同类别的典型样本在特征空间中明显处于不同的区域。同的区域。表明表明:由于相同类别的模式具有由于相同类别的模式具有相似或相近的特征相似或相近的特征,因而一类模式在特征空间中的某一区域分布,而因而一类模式在特征空间中的某一区域分布,而另一类则在另外区域分布。另一类则在另外区域分布。我们可以得到启发我们可以得到启发:用用已知类别的模式样本已知类别的模式样本产生一个代数表示产生一个代数表示的分界面的分界面 ,将特征空间分成两个互,将特征空间分成两个互不重叠的区域,使不同类别的模式样本位于不不重叠的区
4、域,使不同类别的模式样本位于不同的区域,再用同的区域,再用 作为判别函数,对作为判别函数,对待识别的模式进行分类。待识别的模式进行分类。在特征空间可看作一个决策面。在特征空间可看作一个决策面。0)(Xg0)(Xg0)(Xg归纳解决问题的思路归纳解决问题的思路:(1)分类问题分类问题 特征空间的分布特征空间的分布 寻找寻找 子区域的分界面子区域的分界面 确定判别函数确定判别函数(2)待识别模式待识别模式 判别函数判别函数 分类分类解决方法?解决方法?代入代入 判别判别 判别函数判别函数 可以有多种形式,哪种形式可以有多种形式,哪种形式最简单最简单呢?呢?线性函数线性函数 在二维空间是一条直线;在
5、三维空间是一个在二维空间是一条直线;在三维空间是一个平面;在高维空间也是一个平面,由于是非平面;在高维空间也是一个平面,由于是非直观的,称为直观的,称为超平面超平面。)(Xg 线性判别函数是所有模式特征的线性组合。线性判别函数是所有模式特征的线性组合。或或 式中式中 是特征的系数,称为权,是特征的系数,称为权,称为阈值权。称为阈值权。用什么方法来确定用什么方法来确定 呢?呢?1 1220().,nng Xw xw xw xw01()nkkkg Xw xwkw0w)(Xg2.线性判别函数的确定方法线性判别函数的确定方法设有已知类别的两类别样本集,分布如下:设有已知类别的两类别样本集,分布如下:1
6、x2x0线性判别函数可以写成:线性判别函数可以写成:参数参数 决定了决定了 的方向和位置的方向和位置02211)(wxwxwXg021,www)(Xg1x2x0如何根据已知样本确定如何根据已知样本确定?由于要用由于要用 对两类样本在特征空间正确划对两类样本在特征空间正确划分两类模式的区域,我们可以假定一个规则:分两类模式的区域,我们可以假定一个规则:当样本为一个类别时,当样本为一个类别时,使使 当样本为另一个类别时,使当样本为另一个类别时,使 021,www)(Xg0)(Xg0)(Xg 对全部样本都按这个规则来做,不满足时,对全部样本都按这个规则来做,不满足时,调整调整 ,最终可以找到一个,最
7、终可以找到一个 ,使全,使全部样本都满足这个规则。部样本都满足这个规则。这个过程称为这个过程称为训练学习训练学习,已知类别的样本称,已知类别的样本称为为训练样本训练样本。用训练学习的方法确定线性判别函数。用训练学习的方法确定线性判别函数。如何训练学习?如何训练学习?021,www)(Xg3.线性判别函数的一般表示线性判别函数的一般表示 对于对于n维模式向量维模式向量 ,其线性,其线性判别函数是所有模式特征的线性组合,即判别函数是所有模式特征的线性组合,即 可以写成可以写成其中其中,称为权向量。称为权向量。TnxxxX),(2102211)(wxwxwxwXgnn0)(wXWXgTTnwwwW)
8、,(214.在向量空间的几何表示在向量空间的几何表示 取取 作为决策面。作为决策面。如果两个向量如果两个向量 和和 都在决策面上,则有:都在决策面上,则有:或写成或写成 由于由于 和和 是决策面上的任意两点,所以是决策面上的任意两点,所以 也是在决策面上的任意向量。也是在决策面上的任意向量。表明了什么?表明了什么?0)(wXWXgT()0g X 1X2X1020TTW XwW Xw12()0TWXX12()XX1X2X12()0TWXX 两个两个n维维向量向量相互正交的充要条件是两相互正交的充要条件是两向量的内积为零。即向量的内积为零。即 所以所以,表明表明:权向量和决策面上的任一向量正交。所
9、以权权向量和决策面上的任一向量正交。所以权向量的方向就是决策面的法线方向。向量的方向就是决策面的法线方向。0),(BABAT12()0TWXX 在两维模式下,决策面在两维模式下,决策面 把模式空间分成两个子空间,把模式空间分成两个子空间,分别是对分别是对 类的决策域类的决策域 和对和对 类的决策域类的决策域 。如果我们规定:如果我们规定:在在 中,中,;在;在 中,中,决策面的法向量的方向指向决策面的法向量的方向指向 。1x2x0WX0)(Xg1R2R0)(Xg0)(XgHH121R2RX1R0)(Xg2R0)(Xg1R 1x2x0WX0)(Xg1R2R0)(Xg0)(XgHpX我们可以把向量
10、我们可以把向量 表示为:表示为:待求的距离待求的距离 决策面决策面 上一点上一点 与与 有什么样的关系有什么样的关系?X|PWXXWH()g X 则有:则有:或或判别函数值判别函数值 是是 到决策面的距离的度量。到决策面的距离的度量。()|g XWWWWXgWWWWXWWWWXWwXWXgpTpTpTT2000)()()()g XX同理,可以得出:同理,可以得出:从原点到决策面从原点到决策面 的距离为的距离为 。如果如果 ,原点在,原点在 的正面;的正面;如果如果 ,原点在,原点在 的反面;的反面;如果如果 ,判别函数有齐次形式,判别函数有齐次形式 决策面通过原点。决策面通过原点。0|wW00
11、w H00w H00w HXWXgT)(二类模式的线性分类器的决策法则是:二类模式的线性分类器的决策法则是:如果如果 则决策则决策 ,即把,即把 归到归到 类;类;如果如果 则决策则决策 ,即把,即把 归到归到 类;类;对于线性判别函数,关键的问题是求对于线性判别函数,关键的问题是求如何求?如何求?()0,g X X()0,g X X1212TnwwwW),(211.感知准则函数感知准则函数 由前面介绍的知识,我们知道,由前面介绍的知识,我们知道,对于一组两类别样本集:对于一组两类别样本集:我们可以设线性判别函数为:我们可以设线性判别函数为:决策面方程为:决策面方程为:即即 ,21NXXX0)
12、(wXWXgT()0g X 00wXWT 求得权向量求得权向量 ,就可确定决策面方程。,就可确定决策面方程。由数学知识,知由数学知识,知 的齐次形式比较容易。的齐次形式比较容易。能否将能否将 变换成齐次形式呢?变换成齐次形式呢?令令 ,则,则,n维维X空间空间 (n+1)维)维Y空间空间 Y称为增广模式向量,称为增广模式向量,A称为增广权向量称为增广权向量 W00 wXWT0)(wXWXgTTnwwwwA),(210TnxxxY),1(210)(wXWXgTYAYgT)(经过这样的变换,求解的问题就变为:经过这样的变换,求解的问题就变为:设有一组两类模式的增广模式向量样本集,设有一组两类模式的
13、增广模式向量样本集,利用这些样本确定一个线性判别函数利用这些样本确定一个线性判别函数的权向量的权向量 ,使,使 能够对能够对 正确分类。正确分类。,21NYYYYAYgT)(A0)(YgiY训练规则为:训练规则为:对于属于对于属于 类的所有样本,有类的所有样本,有:对于属于对于属于 类的所有样本,有类的所有样本,有:注意到注意到 和和能否使能否使?在属于在属于 类的样本前加上负号,则类的样本前加上负号,则120iTYA1,2,1Ni0jTYA2,2,1Nj0iTYA0jTYA0,jiTYA20)(jTYA这样处理后,问题变为:这样处理后,问题变为:求使对于所有训练样本都满足:求使对于所有训练样
14、本都满足:,的权向量的权向量如何求如何求?是一个线性不等式组,而是一个线性不等式组,而 是是 维的,样本数量为维的,样本数量为 ,一般,一般 比比 大的多,大的多,这样,这样,的解不唯一。的解不唯一。0iTYANi,2,1AA0iTYAY1nNNn0iTYA 为了解线性不等式组为了解线性不等式组 ,需要构造一,需要构造一个准则函数,并希望构造的准则函数有极值的形个准则函数,并希望构造的准则函数有极值的形式。式。是由于使用权向量是由于使用权向量 而被误分类的样本集合。而被误分类的样本集合。当一个样本当一个样本 被误分类时,就有被误分类时,就有 ,所以所以 。仅当。仅当 时,时,达到最小值。达到最
15、小值。0TiA Y()()ATpYyJAA YAyAY0TA Y()0pJ A Ay()pJA我们称我们称为为感知准则函数感知准则函数。有了准则函数之后,我们就可以用最优化方法寻有了准则函数之后,我们就可以用最优化方法寻找使准则函数达到极小值的解权向量找使准则函数达到极小值的解权向量 。如何求如何求?AA()()ATpYyJAA Y2.2.梯度下降法梯度下降法 梯度的定义梯度的定义 梯度是函数梯度是函数 的一阶偏导数组成的向量的一阶偏导数组成的向量,记为记为 二元函数的等值线二元函数的等值线 定义定义:坐标面上函数相等的各点的连线叫等值线坐标面上函数相等的各点的连线叫等值线,也称等高线。也称等
16、高线。f x 12,.,nfffff xxxxx 函数函数 为不同值时,得到一系列的等值线,构为不同值时,得到一系列的等值线,构成成 的等值线族的等值线族 。在极值处的等值线在极值处的等值线聚成一点,并位于等值聚成一点,并位于等值线的中心,当该中心为线的中心,当该中心为极小值时,离开它越远,极小值时,离开它越远,值越大,反之,若值越大,反之,若该中心为极大值时,离开该中心为极大值时,离开它越远,它越远,的值越小。的值越小。fx,a b c d f x f x f x 梯度方向梯度方向 由梯度的定义知,由梯度的定义知,梯度的方向就是函数的法线的方向。梯度的方向就是函数的法线的方向。1x2xTxf
17、xfXf21,)(梯度方向的性质梯度方向的性质:v沿梯度方向,函数值增长最快,为最速沿梯度方向,函数值增长最快,为最速上升方向;上升方向;v沿负梯度方向,函数值下降最快,为最沿负梯度方向,函数值下降最快,为最速下降方向。速下降方向。梯度下降法的基本思想:梯度下降法的基本思想:函数函数 在某点在某点 的梯度的梯度 是一个向量,是一个向量,它的方向与过点它的方向与过点 的等量面的等量面 的法线方的法线方向重合,指向向重合,指向 增加的一方,是准则函数变化率增加的一方,是准则函数变化率最大的方向。反之,负梯度的方向则是函数最大的方向。反之,负梯度的方向则是函数 减减少的最快的方向。所以在求准则函数少
18、的最快的方向。所以在求准则函数 的极小的极小值时,值时,沿负梯度方向搜索有可能最快的找到最小值。沿负梯度方向搜索有可能最快的找到最小值。()pJAkA()pkG JAkA()pkJAC()pkJA()pJA()pJA梯度下降法的实现:梯度下降法的实现:先任意选择一个初始的权向量先任意选择一个初始的权向量 ,计算,计算 上的梯度上的梯度 ,从,从 出发在最陡方向出发在最陡方向(即负梯度方向)上移动一个距离以得到下一(即负梯度方向)上移动一个距离以得到下一个权向量个权向量 。可采用下面的迭代方法从可采用下面的迭代方法从 推出推出 。比例因子,叫做步长或增量比例因子,叫做步长或增量 因为因为 的第的
19、第 个梯度分量是个梯度分量是 。1A1A1()pG JA1A2AkA1kA1()kkkpkAAG JA()pJAj()pjJAA()()ApYyG JAY 所以,可得到梯度下降法的迭代公式:所以,可得到梯度下降法的迭代公式:当第当第 步迭代用权向量步迭代用权向量 来分类时被误分类的样本集合来分类时被误分类的样本集合 这种寻找解权向量的梯度下降法简述如下这种寻找解权向量的梯度下降法简述如下:把第把第 次的权向量加上被误分类的样本的和次的权向量加上被误分类的样本的和与某个常数与某个常数 的乘积,就得到第的乘积,就得到第 次的权次的权向量。向量。1AkkkkYyAAYKkAKk(1)K v 优点:只
20、要二类样本线性可分的,这个算法总可收敛。v 缺点:每次迭代必须遍历全部样本,才能得到当前权向量 下的误分样本集 ,从而再对 的值进行修正。v kAkAykA用用训练样本集训练样本集求线性决策面方法要点:求线性决策面方法要点:v求线性决策面函数v转化成齐次形式v感知准则函数v梯度下降法v迭代公式0)(wXWXgTYAYgT)()()ATpYyJAA Y1AkkkkYyAAY1()kkkpkAAG JA2.3 2.3 固定增量算法及其收敛性固定增量算法及其收敛性 针对梯度下降法的缺点,作以下两点改变,针对梯度下降法的缺点,作以下两点改变,得到固定增量算法:得到固定增量算法:kAkAy(1 1)把全
21、部样本看作是一个序列,每当前)把全部样本看作是一个序列,每当前一步迭代的权向量把某个样本错误分类时,一步迭代的权向量把某个样本错误分类时,就对这一个权向量作一次修正,而不是等当就对这一个权向量作一次修正,而不是等当前权向量前权向量 对全部样本计算后再找出错对全部样本计算后再找出错分类样本集分类样本集 去进行修改。去进行修改。(2 2)考虑每次迭代时)考虑每次迭代时 保持不变。保持不变。kAkkAy二类模式下用固定增量法求解权向量:二类模式下用固定增量法求解权向量:设已知二类模式的样本集设已知二类模式的样本集 和和 ,这些,这些样本都已被变成增广模式向量的形式,要样本都已被变成增广模式向量的形式
22、,要求 用 固 定 增 量 的 方 法 决 定 一 个 超 平求 用 固 定 增 量 的 方 法 决 定 一 个 超 平面面 ,使它能正确划分样本集,使它能正确划分样本集 和和 。开始时可以任意假定开始时可以任意假定 和和 位于决策面位于决策面的哪一边。同样可以任意选择广义向量的哪一边。同样可以任意选择广义向量 的初始值的初始值 。然后把训练集然后把训练集 和和 中的增广模式向量中的增广模式向量 依次取出,计算依次取出,计算 与与 的内积的内积 。*1R*2R0TA Y*1R*2R*1R*2RA1A*1R*2RYAYTA Y假定假定 在在 的正面,的正面,在它的反面在它的反面权向量权向量 用以
23、下规则调整:用以下规则调整:如果如果 ,而,而 ,则用,则用 代替代替 ;如果如果 ,而,而 ,则用,则用 代替代替 ;如果如果 ,而,而 ,则,则 保持不变。保持不变。如果如果 ,而,而 ,则,则 保持不变。保持不变。把属于把属于 和和 的全部模式都用上述方法处理的全部模式都用上述方法处理一遍,称为一次迭代。一遍,称为一次迭代。这个算法重复执行,直至权向量这个算法重复执行,直至权向量 不再变化,不再变化,则则 ,即求得解权向量,即求得解权向量 。A*1YRAYA*2YR0TA Y A YA*1YR0TA Y A*2YR0TA Y A*1R0TA Y*2R*1R*2RA*AA0TA Y*A 2
24、.7 Fisher 2.7 Fisher 线性判别函数线性判别函数 在应用统计方法进行模式识别时,许多问在应用统计方法进行模式识别时,许多问题涉及维数,在低维空间行得通的方法,往往题涉及维数,在低维空间行得通的方法,往往在高维空间行不通。因此,发展了一些降低特在高维空间行不通。因此,发展了一些降低特征空间维数的方法,征空间维数的方法,Fisher线性判别函数就是线性判别函数就是其中之一。其中之一。在介绍在介绍Fisher线性判别函数之前,先补充线性判别函数之前,先补充介绍要用到的介绍要用到的Lagrange乘子法乘子法一种带等一种带等式约束的函数极值求解方法。式约束的函数极值求解方法。Lagr
25、ange乘子法乘子法一一.等式约束最优化问题等式约束最优化问题二二.Lagrange乘子的概念乘子的概念 0mins.t.f x数学模型 g xf(x1,x2)的等值线x2x1s是g(x1,x2)=0的法线方向g(x1,x2)=0极值点必须满足两个条件极值点必须满足两个条件:1.目标函数目标函数 沿约束曲线沿约束曲线 的切的切线方向线方向 的方向导数的方向导数 ,即即2.约束函数约束函数 沿约束曲线沿约束曲线 的切线的切线 方向方向 的方向导数的方向导数 ,即即12,f x x12,0g x xs0fs12120 xxfffsxsxs12,g x x12,0g x xs0gs12120 xxg
展开阅读全文