书签 分享 收藏 举报 版权申诉 / 50
上传文档赚钱

类型《模式识别导论》课件.ppt

  • 上传人(卖家):晟晟文业
  • 文档编号:4458826
  • 上传时间:2022-12-11
  • 格式:PPT
  • 页数:50
  • 大小:408.37KB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《《模式识别导论》课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    模式识别导论 模式识别 导论 课件
    资源描述:

    1、模式识别导论PPT课件2022-12-112 3-1 线性分类器的设计 上一章我们论讨了线性判别函数形式为:g(x)=WTX+Wn+1 其中 X=(X1,X2Xn)n维特征向量 W=(W1,W2 Wn)n维权向量 通常通过特征抽取可以获得n维特征向量,因此n维权向量是要求解的。求解权向量的过程就是分类器的训练过程,使用已知类别的有限的学习样本来获得分类器的权向量被称为有监督的分类。12,()0,()0 xg xxg x分类准则2022-12-113利用已知类别学习样本来获得权向量的训练过程如下已知x1 1,通过检测调整权向量,最终使x1 1已知x2 2,通过检测调整权向量,最终使x2 2这样就

    2、可以通过有限的样本去决定权向量 x1 x2.xn 1 w1 w2 wn wn+1 0 x1 检测(已知类别)W1 X1 W2 X2 Wn Xn Wn+10 -X1dW1-X2dW2-W3 0所以 g(x)=WTX 0 其中W=(W1,W2,W3)T 为各模式增1矩阵 为N*(n+1)矩阵N为样本数,n为特征数111121212121ddccbbaaXXXXXXXXX2022-12-116训练过程就是对已知类别的样本集求解权向量w,这是一个线性联立不等式方程组求解的过程。求解时:只有对线性可分的问题,g(x)=WTX才有解 联立方程的解是非单值,在不同条件下,有不同的解,所以就产生了求最优解的问

    3、题 求解W的过程就是训练的过程。训练方法的共同点是,先给出准则函数,再寻找使准则函数趋于极值的优化算法,不同的算法有不同的准则函数。算法可以分为迭代法和非迭代法。2022-12-117一 梯度下降法迭代法 欲对不等式方程组WTX0求解,首先定义准则函数目标函数)J(W),再求J(W)的极值使W优化。因此求解权向量的问题就转化为对一标量函数求极值的问题。解决此类问题的方法是梯度下降法。方法就是从起始值W1开始,算出W1处目标函数的梯度矢量J(W1),则下一步的w值为:W2=W1-1J(W1)W1为起始权向量 1为迭代步长 J(W1)为目标函数 J(W1)为W1处的目标函数的梯度矢量2022-12

    4、-118在第K步的时候Wk+1=Wk-kJ(Wk)k为正比例因子这就是梯度下降法的迭代公式。这样一步步迭代就可以收敛于解矢量,k取值很重要。k太大,迭代太快,引起振荡,甚至发散。k太小,迭代太慢。应该选最佳k。2022-12-119选最佳选最佳k 目标函数J(W)二阶台劳级数展开式为 J(W)J(Wk)+JT(W-Wk)+(W-Wk)TD(W-Wk)T/2 其中D为当W=Wk时 J(W)的二阶偏导数矩阵 将W=Wk+1=Wk-kJ(Wk)代入式得:J(Wk+1)J(Wk)-k|J|2+k2JT DJ 其中J=J(Wk)对k求导数,并令导数为零有 最佳步长为k=|J|2/JTDJ这就是最佳k的计

    5、算公式,但因二阶偏导数矩阵D的计算量太大,因此此公式很少用。212022-12-1110若令W=Wk+1上式为J(Wk+1)=J(Wk)+JT(Wk+1-Wk)+(Wk+1-Wk)TD(Wk+1-Wk)T/2 对Wk+1求导,并令导数为零可得:最佳迭代公式:Wk+1=Wk-D-1J 牛顿法的迭代公式 D-1是D的逆阵讨论:牛顿法比梯度法收敛的更快,但是D的计算量大并且要计算D-1。当D为奇异时,无法用牛顿法。2022-12-1111二 感知器法感知器的原理结构为:2022-12-1112通过对W的调整,可实现判别函数 g(x)=WTX RT 其中RT为响应阈值定义感知准则函数:只考虑错分样本定

    6、义:其中x0为错分样本当分类发生错误时就有WTX 0,所以J(W)总是正值,错误分类愈少,J(W)就愈小。理想情况为 即求最小值的问题。0)(XXXWWJT0)(WJ2022-12-1113求最小值对W求梯度代入迭代公式中Wk+1=Wk-kJ 由J(W)经第K+1次迭代的时候,J(W)趋于0,收敛于所求的W值0)(XXXWWJJ01XXXWWkkk即感知器迭代公式:2022-12-1114W的训练过程:例如:x1,x2,x31 作 x1,x3的垂直线可得解区(如图)假设起始权向量w1=0 k=1 x1,x2,x3三个矢量相加得矢量2,垂直于矢量2的超平面H将x3错分.x3与矢量2相加得矢量3,

    7、垂直于矢量3的超平面H1,将x1错分.依上法得矢量4,垂直于矢量4做超平面,H2将x3错分 x3与矢量4相加得矢量5,矢量5在解区内,垂直于矢量5的超平面可以把 x1,x2,x3分成一类。x1x2x32H3H14H25W区间2022-12-1115感知器算法:1.错误分类修正wk 如wkTx0并且x1 wk+1=wk+kx 如wkTx0并且x2 wk+1=wk-kx 2.正确分类,wk不修正 如wkTx0并且x1 如wkTx0并且x2 wk+1=wk +-Hwk+1kxwk权值修正过程2022-12-1116k选择准则 固定增量原则 k固定非负数 绝对修正规则 k 部分修正规则 k=02xXx

    8、wTT|xXxwTT|2022-12-1117例题:有两类样本 1=(x1,x2)=(1,0,1),(0,1,1)2=(x3,x4)=(1,1,0),(0,1,0)解:先求四个样本的增值模式 x1=(1,0,1,1)x2=(0,1,1,1)x3=(1,1,0,1)x4=(0,1,0,1)假设初始权向量 w1=(1,1,1,1)k=1第一次迭代:w1Tx1=(1,1,1,1)(1,0,1,1)T=30 所以不修正 w1Tx2=(1,1,1,1)(0,1,1,1)T=30 所以不修正 w1Tx3=(1,1,1,1)(1,1,0,1)T=30 所以修正w1 w2=w1-x3=(0,0,1,0)w2T

    9、x4=(0,0,1,0)T(0,1,0,1)=0 所以修正w2 w3=w2-x4=(0,-1,1,-1)第一次迭代后,权向量w3=(0,-1,1,-1),再进行第2,3,次迭代如下表x1x2x3x1x2x3x41112022-12-1118 直到在一个迭代过程中权向量相同,训练结束。w6=w=(0,-1,3,0)判别函数g(x)=-x2+3x3感知器算法只对线性可分样本有收敛的解,对非线性可分样本集会造成训练过程的振荡,这是它的缺点.训练样本训练样本wkTx修正式修正式修正后的权值修正后的权值wk1迭代次数迭代次数x1 1 0 1 1x2 0 1 1 1x3 1 1 0 1x4 0 1 0 1

    10、+0w1w1w1-x3w2-x41 1 1 11 1 1 10 0 1 00 1 1 -1 1x1 1 0 1 1x2 0 1 1 1x3 1 1 0 1x4 0 1 0 10+0-w3+x1w4w4-x3w51 1 2 01 1 2 00 2 2 10 2 2 -1 2x1 1 0 1 1x2 0 1 1 1x3 1 1 0 1x4 0 1 0 1+-w5w5+x2w6w60 2 2 10 1 3 00 1 3 00 1 3 0 3x1 1 0 1 1x2 0 1 1 1x3 1 1 0 1x4 0 1 0 1+-w6w6w6w60 1 3 00 1 3 00 1 3 00 1 3 0 42

    11、022-12-1119线性不可分样本集的分类解(取近似解)对于线性可分的样本集,可以用上述方法解到正确分类的权向量。当样本集线性不可分时,用上述方法求权值时算法不收敛。如果我们把循环的权向量取平均值作为待求的权向量,或就取其中之一为权向量,一般可以解到较满意的近似结果。例:在样本1:X1=(0,2)X3=(2,0)X5=(-1,-1)2:X2=(1,1)X4=(0,-2)X6=(-2,0)求权向量的近似解x2x1x6x1x32x52x4x211H2022-12-1120解:此为线性不可分问题,利用感知器法求权向量权向量产生循环(-1,2,0),(0,2,2),(-1,1,1),(-1,1,1)

    12、(-1,1,1),(0,0,0),(-1,2,0)因此算法不收敛,我们可以取循环中任一权值,例如取W=(0,2,2)T则判别函数为:g(x)=2x1+2x2判别面方程为:g(x)=2x1+2x20 所以x1+x20由图看出判别面H把二类分开,但其中x2 错分到1类,而x5错分到2类,但大部分分类还是正确的。2022-12-1121作业:已知四个训练样本 w1=(0,0),(0,1)w2=(1,0),(1,1)使用感知器固定增量法求判别函数 设w1=(1,1,1)k=1 要求编写程序上机运行,写出判别函数,并打出图表。2022-12-1122三 最小平方误差准则(MSE法)-非迭代法前面我们研究

    13、了线性不等式方程组g(x)=WTX0的解法。它们共同点是企图找一个权向量W,使错分样本最小。现在我们把不等式组变成如下形式:WTXi=bi0 则有联立方程XW=b 这是矛盾方程组,方程数大于未知数,所以没有精确解的存在。NnNNnNXXXXXXXXXXX.21211121121N.2,1,XXXTX 令每个样本有n个特征?N.2,1,ibbbTb 给定的任意正常数2022-12-1123定义误差向量:e=XW-b0 把平方误差作为目标函数 W的优化就是使J(W)最小。求J(W)的梯度并为0。解上方程得 XTXW=XTb这样把求解XW=b的问题,转化为对XTXW=XTb求解,这一有名的方程,最大

    14、好处是因XTX是方阵且通常是非奇的,所以可以得到W的唯一解。NibiXiWTbXWeWJ1222|)(MSE准则函数 0)(22J(W)1bXWXXbiXiWTTiNi2022-12-1124只要计算出 就可以得到W取:最小平方误差法同Fisher法是一致的。bXbXXXTWT1的伪逆(规范矩阵)称为其中XXXXTXT1221.1/./NNNNNNNNb(MSE 解)其中N/N1有N1个,N/N2有N2个X2022-12-1125 四 韦霍氏法(LMS法)迭代法 上节得到MSE法的W解为:W=X+b在计算X+时,1 要求XTX矩阵为非奇异 2 由于计算量太大而引入比较大误差 所以要用迭代法来求

    15、。求J(W)的梯度J(W)=2XT(XW-b)代入迭代公式 W1任意设定 Wk+1=Wk-kXT(XWk-b)此法可收敛于W值。W满足:XT(XW-b)=0为任意常数其中令11kkXXXTXT1伪逆计算量很大2022-12-1126因此下降算法不论XTX是否奇异,总能产生一个解。若训练样本无限的重复出现,则简化为 W1任意任意 Wk+1=Wk+k(bk-WkTXk)Xk k随迭代次数k而减少,以保证算法收敛于满意的W值k1K取2022-12-1127五 何卡氏法(判断迭代过程中是否线性可分)若训练样本线性可分时,感知器法可求出界面,但对不可分问题不收敛只能取平均。最小平方误差法不论样本是否线性

    16、可分都能给出一加权矢量,但不能保证此矢量就是分界矢量,下面介绍一种方法可以检测迭代过程中是否线性可分。因最小平方误差法的J(W)的解为 因为XW=b b应为正值 c为矫正系数 当(XWk-bk)0 时 当(XWk-bk)0 时bXbXXXTWT1|kkkkkbXWbXWcbb的增量为kkkbbbb 1前后两次迭代后,对的增量为其中bbk0kb2kkkbXWcb2022-12-1128引入误差矢量ek ek=XWk-bk判断是否线性可分所以J(W)的解为 初始条件 W1=X+b1并且b10迭代时检测 如果ek0时,XW b,系统线性可分,迭代收敛 如果ek0时,XW b,系统线性不可分,迭代不收

    17、敛我们用下面的例子来说明ek的作用|kkkeeCb|11kKkkKkKKkeeXcWbXbXbbXbXW因此上式可以写成2022-12-1129例题:1=(0,0)T,(0,1)T 2=(1,0)T,(1,1)T解:正规化 对2取负,有 111101110100X2/12/12/12/311111111211XXXTXTX的规范矩阵为x2x1x1x2x3x42022-12-1130取b1=(1,1,1,1)T c=1 W1=X+b1=(-2,0,1)T 所以W1为所求解 e1=XW1-b1=0 系统线性可分01111102111101110100,1TWX因为2022-12-1131 若四个样

    18、本变成:1=(0,0)T,(1,1)T 2=(0,1)T,(1,0)T解:取b1=(1,1,1,1)T c=1 W1=X+b1=(0,0,0)T e1=XW1-b1=(-1,-1,-1,-1)T0 系统线性不可分 C为校正系数,取0 C 1在算法进行过程中,应在每一次迭代时,检测ek 的值。只要出现ek0 X1 X=-WTX-W0 0 X 1 Y=WTX-W0 0 则X1;Y=WTXWi n(k)lxj i=1,2,M类 j=1,2,Li子类 ij 则权向量Wi 1(k),Wi 2(k),,Wi Li(k)不影响分类,所以权向量不需要修正。若有某个或某几个子类不满足条件即:存在Wi n(k)使

    19、Wj n(k)xj Wi n(k)l xj ij 所以xj 错分类,要修改权向量。设Wi n(k)l xj=max Wi n(k)xj n=1,2,Li ij则修改权向量Wjn(k+1)=Wj n(k)kxj 重复以上迭代,直到收敛,此法类似于固定增量法.2022-12-1140 3.未知子类数目时的设计方法 当每类应分成的子类数也不知 时,这是最一般情况,方法很 多,举例如下。树状分段线性分类器:设两类情况1,2。如图所示 先用两类线性判别函数求 出W1,超平面H1分成两个区 间,每个区间包含两类。再利用二类分类求出W2(H2),W3(H3)。如果每个部分仍包含两类,继续上面的过程。2022

    20、-12-1141 关键是初始权向量W1的选择:一般先选两类中距离最近的两个子类的均值连线做垂直线作为H1(w1)初始值再求最优解。w1Tx0 w4Tx0 w3Tx0 w2Tx0 YNYYNN1 1 22 NY1 树状决策框图2022-12-11423-3 非线性分类器的设计 电位函数分类器,用非线性判别函数区分线性不可分的类别 电位函数分类器:每个特征作为一个点电荷,把特征空间作为能量场.电位分布函数有下面三种形式。为系数 xk为某一特定点上图是这些函数在一维时的图形,第三条是振荡曲线,只有第一周期才是可用范围。|11)K(2.2kkxxXX|sin|)K(3.22kkkxxxxXXxK(x)

    21、x321|exp-)K(1.2kkxxXX2022-12-1143电位函数算法的训练过程是在逐个样本输入时,逐渐积累电位的过程,对于二类问题,经过若干循环后,如积累电位方程的运算结果能以正、负来区分二类样本,则训练就可结束。算法:设初始电位为K0(x)=0 1.输入样本x1计算积累电位K1(x)若x1 K1(x)=K0(x)+K(xx1)若x2 K1(x)=K0(x)-K(xx1)设1为正电荷,2为负电荷 在K0(x)=0时 若x11 K1(x)=K(xx1)若x12 K1(x)=-K(xx1)2022-12-11442.输入样本x2计算积累电荷有以下几种情况 a.若x21 并且K1(x2)0

    22、 若x22 并且K1(x2)0或xk+12 并且Kk(xk+1)0时 rk+1=0 xk+11并且Kk(xk+1)0时 rk+1=1 xk+12并且Kk(xk+1)0 不修正 K2(x)=K1(x)=exp-(x12+x22)输入x3=(1,1)T x32代入 K2(x3)=exp-(12+12)0 所以需要修正 K3(x)=K2(x)-K(xx3)=exp-(x12+x22)-exp-(x1-1)2+(x2-1)2g(x)0g(x)02022-12-1147 输入x4=(1,-1)T x32代入K3(x4)=e-2-e-40 所以需要修正K4(x)=K3(x)-K(xx4)=exp-(x12

    23、+x22)-exp-(x1-1)2+(x2-1)2 -exp-(x1-1)2+(x2+1)2 第二次迭代 输入x5=x1=(0,-0)T x51代入K4(x5)=1-e-2-e-40 K5(x)=K4(x)输入x6=x2=(2,0)T x61代入 K5(x6)=e-4-e-2-e-2=0 所以需要修正 K6(x)=K5(x)+K(xx6)=exp-(x12+x22)-exp-(x1-1)2+(x2-1)2 -exp-(x1-1)2+(x2+1)2+-exp-(x1-2)2+x222022-12-1148 输入x7=x3=(1,1)T x72代入 K6(x7)=e-2-e0-e-4+e-20 所以不需要修正 K7(x)=K6(x)输入x8=x4=(1,-1)T x82代入 K7(x8)=e-2-e-2-e0+e-20 所以不需要修正 K9(x)=K8(x)2022-12-1149同理得到:K10(x)=K9(x)=K8(x)=K7(x)=K6(x),经一个完整的循环可得判别函数为:g(x)=exp-(x12+x22)-exp-(x1-1)2+(x2-1)2 -exp-(x1-1)2+(x2+1)2+exp-(x1-2)2+x22上边的非线性判别函数形成的边界如图所示。虽然它可以把线性不可分的样本分开,但当样本很多时,使方程的项数太多,增大计算量。

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:《模式识别导论》课件.ppt
    链接地址:https://www.163wenku.com/p-4458826.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库