学习问题的表示课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《学习问题的表示课件.ppt》由用户(ziliao2023)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 学习 问题 表示 课件
- 资源描述:
-
1、统计学习理论统计学习理论Chapt 1:学习问题的表示学习问题的表示Outline函数估计模型函数估计模型风险最小化问题风险最小化问题三种主要的学习问题三种主要的学习问题学习问题的一般表示学习问题的一般表示经验风险最小化归纳原则经验风险最小化归纳原则学习理论的四个部分学习理论的四个部分非正式推导和评述非正式推导和评述1outline函数估计模型函数估计模型样本学习的一般模型样本学习的一般模型产生器产生器G,F(x)训练器训练器S,F(yx)学习机器学习机器LM,函数集函数集f(x,a)学习问题的目的学习问题的目的从给定的函数集从给定的函数集f中选出中选出能够最好地逼近训练器能够最好地逼近训练器
2、响应的函数;响应的函数;训练集训练集F(x,y)=F(x)F(yx)由(由(x1y1),),(xmym)组成)组成GSLMxyyoutline风险最小化问题风险最小化问题损失函数损失函数风险泛函风险泛函目的:使得风险泛函最小的函数目的:使得风险泛函最小的函数,L y fx,(,)RL y fdFyxx0,fxoutline三种主要的学习问题三种主要的学习问题模式识别模式识别训练器的输出为训练器的输出为0/1f(x,),为指示函数集为指示函数集损失函数损失函数分类错误分类错误学习问题:在概率测度学习问题:在概率测度F(x,y)未知,但是训练数据未知,但是训练数据已知情况下,寻找使分类错误的概率最
3、小的函数已知情况下,寻找使分类错误的概率最小的函数0(,),(,)1(,)if yfL y fif yfxxx三种主要的学习问题三种主要的学习问题回归估计回归估计训练器的输出实数值训练器的输出实数值f(x,),为实数函数为实数函数回归函数回归函数损失函数损失函数学习问题:在概率测度学习问题:在概率测度F(x,y)未知,但是训练数据未知,但是训练数据已知情况下,已知情况下,对采用平方误差损失函数的风险泛函对采用平方误差损失函数的风险泛函最小化最小化2,(,)(,)L y fyfxx 00,|ffydF yxxx三种主要的学习问题三种主要的学习问题密度估计密度估计密度函数集密度函数集(x,),损失
4、函数损失函数学习问题:在相应的概率测度学习问题:在相应的概率测度F(x,y)未知,但是给未知,但是给出了独立同分布数据出了独立同分布数据x1xl的情况下,使风险泛的情况下,使风险泛函最小化函最小化outline(,)log(,)L pp xx学习问题的一般表示学习问题的一般表示定义在空间定义在空间Z上的概率测度上的概率测度F(z)函数的集合函数的集合Q(z,),独立同分布样本独立同分布样本z1zl风险泛函风险泛函,(),RQ zdF zoutline经验风险最小化归纳原则经验风险最小化归纳原则ERM归纳原则归纳原则经验风险泛函经验风险泛函用使得经验风险最小的函数用使得经验风险最小的函数Q(z,
5、l)来逼近来逼近使风险泛函最小的函数使风险泛函最小的函数Q(z,0)11,lempiiRQ zl经验风险最小化归纳原则经验风险最小化归纳原则ERM原则的体现原则的体现最小二乘方法最小二乘方法最大似然方法(等价)最大似然方法(等价)211,lempiiiRyf xl11ln,lempiiRp xl outline学习理论的四个部分学习理论的四个部分研究的四个问题研究的四个问题一个基于一个基于ERM原则的学习过程具有一致原则的学习过程具有一致性的条件(充分必要条件)是什么?性的条件(充分必要条件)是什么?这个学习过程收敛的速度有多快?这个学习过程收敛的速度有多快?如何控制这个学习过程的收敛速度(推
6、广如何控制这个学习过程的收敛速度(推广能力)?能力)?怎样构造能够控制推广能力的算法?怎样构造能够控制推广能力的算法?学习理论的四个部分学习理论的四个部分四个理论四个理论学习过程一致性理论学习过程一致性理论学习过程收敛速度的非渐近理论学习过程收敛速度的非渐近理论控制学习过程的推广能力的理论控制学习过程的推广能力的理论构造学习算法的理论构造学习算法的理论outline非正式推导和评述非正式推导和评述1解决学习问题的传统模式解决学习问题的传统模式密度估计的非参数方法密度估计的非参数方法用有限数量信息解决问题的基本原则用有限数量信息解决问题的基本原则基于经验数据的风险最小化模型基于经验数据的风险最小
7、化模型随机逼近推理随机逼近推理outline非正式推导和评述1 第一章中给出的学习问题的表示反映了两个主要的要求:第一章中给出的学习问题的表示反映了两个主要的要求:(1)从一个宽的函数集合中估计待求的函数;从一个宽的函数集合中估计待求的函数;(2)在有限数量的例子的基础上估计待求的函数。在有限数量的例子的基础上估计待求的函数。在在(创建于创建于20年代和年代和30年代的年代的)传统理论体系中发展起来的传统理论体系中发展起来的方法没有考虑到这些要求。方法没有考虑到这些要求。因此,在因此,在60年代,人们在两个方向上进行了很大的努力,年代,人们在两个方向上进行了很大的努力,一是把传统的结果推广到范
8、围更宽的函数集合,二是针对一是把传统的结果推广到范围更宽的函数集合,二是针对小样本数目改进已有技术。小样本数目改进已有技术。下面我们将对其中的一些研究进行订论。下面我们将对其中的一些研究进行订论。密度估计密度估计问题(问题(最大似然方法最大似然方法)在传统理论体系的框架中,函数估计在传统理论体系的框架中,函数估计的所有模型都是基于最大似然方法的。的所有模型都是基于最大似然方法的。它成了传统体系下的一个归纳引擎。它成了传统体系下的一个归纳引擎。密度估计密度估计问题(问题(最大似然方法最大似然方法)问题的描述设问题的描述设p(x,),是一个函数密度集合,是一个函数密度集合,设未知的密度设未知的密度
9、p(x,0)属于这个函数集合属于这个函数集合独立同分布数据:独立同分布数据:x1xl最大似然方法最大似然方法在在20年代,年代,Fisher(1952)研究出了估计密度函研究出了估计密度函数的未知参数的最大似然方法,提出用使泛函数的未知参数的最大似然方法,提出用使泛函最大的参数取值来逼近未知的参数最大的参数取值来逼近未知的参数。1ln,liiLpx模式识别(判别分析)问题模式识别(判别分析)问题Fisher的模型的模型-存在两类数据存在两类数据两个不同的密度两个不同的密度p1(x,*),p2(x,*)设第一类数据出现的概率为设第一类数据出现的概率为q1第二类出现的概率为第二类出现的概率为1-q
展开阅读全文