书签 分享 收藏 举报 版权申诉 / 45
上传文档赚钱

类型决策树学习PPT模版(44页)课件.ppt

  • 上传人(卖家):三亚风情
  • 文档编号:2474214
  • 上传时间:2022-04-23
  • 格式:PPT
  • 页数:45
  • 大小:941.50KB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《决策树学习PPT模版(44页)课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    决策树 学习 PPT 模版 44 课件
    资源描述:

    1、机器学习第3讲 决策树学习内容简介决策树原理决策树算法决策树中的过拟合问题决策树的其他问题属性的其他度量简介简介 决策树也称为判定树。在决策树方法中,首先从实例集中构造决策树,这是一种有指导学习的方法。该方法先根据训练集 数据形成决策树。如果该数不能对所有对象给出正确的分类,那么选择一些例外加入到训练集数据中,重复该过程一直到形成正确的决策集。决策树代表着决策集的树性结构。最终结果是一棵树,其叶结点是类名,中间结点是带有分枝的属性,该分枝对应属性的某一可能值。 决策树学习是应用最广的归纳推理算法之一。它是一种逼近离散值函数的方法,对噪声数据有很好的健壮性且能够学习析取表达式。学习得到的决策树能

    2、够被再次表示为多个if-then的规则,提高可读性。这种学习算法是最流行的归纳推理算法之一,被成功的应用到从医学医疗诊断到学习评估贷款申请的信用风险的广阔领域。决策树原理决策树原理 决策树方法首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。 归纳学习归纳学习 决策树技术发现数据模式和规则的核心是归纳算法。归纳算法是从特殊到一般的过程。归纳推理从若干个事实中表征出的特征、特性或属性中,通过比较、总结、概括而得出一个规律性的结论。归纳推理视图从对象的一部分或整体的特定观察中得到一个完备且正确的描述,即从特殊事实得出普遍规律性的结论。归纳对于认识的发展完善具有重

    3、要的意义。 归纳学习的过程就是寻找一般化描述的过程。这种一般化描述能够解释给定的输入数据,并可以用来预测新的数据。归纳学习存在一个基本的假定:任一假设如果能够在足够大的训练样本集中很好的逼近目标函数,则他也能在未见样本中很好地逼近目标函数。这个假定是归纳学习的前提条件。 决策树的表示决策树的表示 决策树的基本组成部分:决策结点、分支和子叶。决策树最上面的结点称为跟结点,是整个决策树的开始。每个分支是一个新的决策结点,或者是树的叶子。每个决策结点代表一个问题或决策,通常对应于待分类对象的属性。每一个叶结点代表一种可能的分类结果。在沿着决策树从上到下遍历的过程中,在每个结点都会遇到一个测试,对每个

    4、节点上问题的不同测试输出导致不同的分支,最后会到达一个叶子结点。这个过程就是利用决策树进行分类的过程,利用若干个变量来判断所属的类别。决策树表示法决策树n通过把实例从根节点排列到某个叶子节点来分类实例;n叶子节点即为实例所属的分类;n树上每个节点说明了对实例的某个属性的测试;n节点的每个后继分支对应于该属性的一个可能值。图3-1 Play tennis决策树此图为典型学习到的决策树,这棵树根据天气情况分类“星期六上午是否适合打网球”,上面的实例沿着这棵决策树的最左分支向下排列,因而被判定为反例(也就是这棵树预测这个实例Play tennis=no)。图3-1对应于一下表达式决策树代表实例属性值

    5、约束的合取的析取式从根结点到叶结点的每一条路径对应一组属性的合取,树本身对应这些合取的析取。决策树学习的适用问题适用问题的特征n实例由“属性-值”对表示n目标函数具有离散的输出值n可能需要析取的描述n训练数据可以包含错误n训练数据可以包含缺少属性值的实例分类问题n核心任务是把样例分类到各可能的离散值对应的类别决策树算法大多数决策树学习算法是一种核心算法的变体采用自顶向下的贪婪搜索遍历可能的决策树空间n贪心算法算法代表: ID3基本的决策树学习算法(2)ID3的思想n自顶向下构造决策树n从“哪一个属性将在树的根节点被测试”开始n使用统计测试来确定每一个实例属性单独分类训练样例的能力ID3的过程n

    6、分类能力最好的属性被选作树的根节点n根节点的每个可能值产生一个分支n训练样例排列到适当的分支n重复上面的过程熵:物理学概念观上:力学定律体系的熵变等于可逆过程吸收或耗散的:量除以它的绝对温度(克劳修斯,1865)观上:熵是大量观观子的的位和和度的分分概概的函数,是描述系统中大量观观子的无序性的观参数(波尔兹曼,1872)结论:熵是描述事物无序性的参数,熵越大则无序性越强,在信息领域定义为“熵越大,不确定性越大”(香浓,1948年)最佳分类属性信息增益n用来衡量给定的属性区分训练样例的能力nID3算法在增长树的每一步使用信息增益从候选属性中选择属性用熵度量样例的均一性n熵刻画了任意样例集的纯度n

    7、给定包含关于某个目标概念的正反样例的样例集S,那么S相对这个分尔型分类的熵为Entropy(S)=n信息论中对熵的一种解释,熵确定了要编码集合S中任意成员的分类所需要的最少二进制的数n更一般地,如果目标属性具有c个不同的值,那么S相对于c个状态的分类的熵定义为 Entropy(S)=ciiipp12log假设S是关于某分尔概念的有14个样例的集合,它包括9个正例和5个反例,(我们采用记号9+,5-来概括这样的数据样例)。那么S相对于这个分尔分类的熵为:注:如果S的所有成员属于一类那么S的熵为0,例:如果所有成员都是正的(p+=1),那么p-=0,于是Entropy(S)=0,集合中正反样例相等

    8、时,熵为1,正反样例不等时,熵介于0,1之间右图显示了分尔型的分类的熵函数随着p+从01的变化曲线。最佳分类属性(2)用信息增益度量期望的熵降低n属性的信息增益,由于使用这个属性分割样例而导致的期望熵降低nGain(S,A)是在知道属性A的值后可以节省的二进制的数n例子)()(|)(),(AValuesvvvSEntropySSSEntropyASGainS:共14个例子,其中9正、5负使用属性Wind(取值为Weak或Strong)对S进行分类:Sweak(6正、2负)、Sstrong(3正、3负)谁是最佳属性?ID3算法一个完整的例子决策树学习中的假设空间搜索ID3的优势和不足n假设空间包

    9、含所有的决策树,它是关于现有属性的有限离散值函数的一个完整空间n维护单一的当前假设(不同于变型空间候选消除算法)n不进行回溯n每一步使用所有的训练样例,不同于基于单独的训练样例递增作出决定,容错性增强决策树学习的归纳偏位ID3的搜索策略n优先选择较短的树n选择那些信息增益高的属性离根节点较近的树n很难准确刻画ID3的归纳偏位近似的ID3的归纳偏位n较短的树比较长的树优先n局部最优实现全局最优n一个精确具有这个归纳偏位的算法,BFS-ID3更贴切近似的归纳偏位n较短的树比较长的树优先,信息增益高的属性更靠近根节点的树优先限定偏位和优选偏位ID3和候选消除算法的比较nID3的搜索范围是一个完整的假

    10、设空间,但不彻底地搜索这个空间n候选消除算法的搜索范围是不完整的假设空间,但彻底地搜索这个空间nID3的归纳偏位完全是搜索策略排序假设的结果,来自搜索策略n候选消除算法完全是假设表示的表达能力的结果,来自对搜索空间的定义限定偏位和优选偏位优选偏位nID3的归纳偏位是对某种假设胜过其他假设的一种优选,对最终可列举的假设没有硬性限制限定偏位n候选消除算法的偏位是对待考虑假设的一种限定通常优选偏位比限定偏位更符合归纳学习的需要为什么短的假设优先思考:ID3算法中优先选择较短决策树的归纳偏位,是不 是从训练数据中泛化的一个可靠基础?ID3的归纳偏位的哲学基础n奥坎姆剃刀w优先选择拟合数据的最简单的假设

    11、n科学上的例子w物理学家优先选择行星运动的简单假设w简单假设的数量远比复杂假设的数量少,找到一个短的同时与训练数据拟合的假设可能性小。w简单假设对训练样例的针对性更小,更像是泛化的规律,而不是训练样例的另一种描述25为什么短的假设优先例如:考虑决策树假设,500个结点的决策树比5个结点 的决策树多得多,如果给定一个20个训练样例的集合, 可以预期能够找到很多500个结点的决策树与训练数据一致,而如果一个5个结点的决策树可以完美地拟合这些数据则是出乎意料的。所以我们会相信5个结点的树不太可能是统计巧合,因而优先选择这个假设 ,而不选择500个结点的。过度拟合数据过度拟合n对于一个假设,当存在其他

    12、的假设对训练样例的拟合比它差,但事实上在实例的整个分分上表现得却更好时,我们说这个假设过度拟合训练样例n定义:给定一个假设空间H,一个假设hH,如果存在其他的假设hH,使得在训练样例上h的错误概比h小,但在整个实例分分上h的错误概比h小,那么就说假设h过度拟合训练数据。在此例中,ID3算法用来学习哪个病人患有糖尿病。横轴表示决策树结点总数,纵轴为决策树做出的预测精度。实线显示决策树在训练样例上的精度,虚线为一套独立的测试样例(没有被包括在训练样例中)上测出的精度。可以看出,随着树的增长,在训练样例上的精度是单调上升的。然而独立的测试样例上测出的精度先上升后下降。当树超过大约25个结点时,对树的

    13、进一步精化尽管可以提高它在训练数据上的精度,却降低了它在测试样例上的精度。避免过度拟合数据(2)导致过度拟合的原因n训练样例含有随机错误或噪声n当训练数据没有噪声时,过度拟合也有可能发生w特别是当少量的样例被关联到叶子节点时,很可能出现巧合的规律性,使得一些属性恰巧可以很好地分割样例,但却与实际的目标函数并无关系。避免过度拟合数据(3)避免过度拟合的方法n及早停止树增长n后修剪法两种方法的特点n第一种方法更直观n第一种方法中,精确地估计何时停止树增长很困难n第二种方法被证明在实践中更成功避免过度拟合数据(4)避免过度拟合的关键n使用什么样的准则来确定最终正确树的规模解决方法n使用与训练样例截然

    14、不同的一套分离的样例,来评估通过后修剪方法从树上修建节点的效用。n使用所有可用数据进行训练,但进行统计测试来估计扩展(或修剪)一个特定的节点是否有可能改善在训练集合外的实例上的性能。n使用一个明确的标准来衡量训练样例和决策树的复杂度,当这个编码的长度最小时停止树增长。避免过度拟合数据(5)方法评述n第一种方法是最普通的,常被称为训练和验证集法。n可用数据分成两个样例集合:w训练集合,形成学习到的假设w验证集合,评估这个假设在后续数据上的精度n方法的动机:即使学习器可能会被训练集合误导,但验证集合不大可能表现出同样的随机波动n验证集合应该足够大,以便它本身可提供具有统计意义的实例样本。n常见的做

    15、法是,样例的三分之二作训练集合,三分之一作验证集合。错误概降低修剪将树上的每一个节点作为修剪得候选对象修剪步骤n删除以此节点为根的子树,使它成为叶结点n把和该节点关联的训练样例的最常见分类赋给它n反复修剪节点,每次总是选取那些删除后可以最大提高决策树在验证集合上的精度的节点继续修剪,直到进一步的修剪是有害的为止(降低了验证集合上的精度)33数据分成3个子集n训练样例,形成决策树n验证样例,修剪决策树n测试样例,精度的无偏估计如果有大量的数据可供使用,那么使用分离的数据集合来引导修剪规则后修剪从训练集合推导出决策树,增长决策树直到尽可能好地拟合训练数据,允许过度拟合发生将决策树转化为等价的规则集

    16、合,方法是为从根节点到叶节点的每一条路径创建一条规则通过删除任何能导致估计精度提高的前件来修剪每一条规则按照修剪过的规则的估计精度对它们进行排序,并按这样的顺序应用这些规则来分类后来的实例规则后修剪(2)例子n最左边一条路径nif (outlook=sunny)(Humidity=High) then PlayTennis=Non考虑删除不会降低估计精度的先行词(outlook=sunny)和(Humidity=High)来修剪规则n选择使估计精度有最大提升的步骤n考虑修剪第二个前件规则后修剪(3)把决策树转化成规则集的好处n可以区分决策节点使用的不同上下文n消除了根节点附近的属性测试和叶节点

    17、附近的属性测试的区别n提高了可读性决策树学习的其他常见问题决策树学习的实际问题n处理连续值的属性n选择一个适当的属性筛选度量标准w信息增益度量存在一个内在偏位,偏向具有较多值的属性n处理属性值不完整的训练数据n处理不同代价的属性n提高计算效概针对这些问题,ID3被扩展成C4.5合并连续值属性ID3被限制为取离散值的属性n学习到的决策树要预测的目标属性必须是离散的n树的决策节点的属性也必须是离散的简单删除上面第2个限制的方法n通过动态地定义新的离散值属性来实现,即先把连续值属性的值域分割为离散的区间集合合并连续值属性(2)例子,Temperature应该定义什么样的基于阈值的分尔属性n选择产生最

    18、大信息增益的阈值n按照连续属性排列样例,确定目标分类不同的相邻实例产生一组候选阈值,它们的值是相应的A值之间的中间值n可以证明产生最大信息增益的c值的于这样的边界中(Fayyad1991)n通过计算与每个候选阈值关联的信息增益评估这些候选值方法的扩展n连续的属性分割成多个区间,而不是单一阈值的两个空间属性选择的其他度量标准信息增益度量存在一个内在偏位,偏向具有较多值的属性避免方法,其他度量,比如增益比概增益比概通过加入一个被称作分裂信息的项来惩罚多值属性,分裂信息用来衡量属性分裂数据的广度和均匀性SplitInformation(S,A)=GainRatio(S,A)=分裂信息项阻碍选择值为均

    19、匀分分的属性问题,当某个SiS。解决方法 :采用一些启发式规则, 比如仅对增益高过平均值的属性应用增益比概测试ciiiSSSS12|log|),(),(ASmationSplitInforASGain属性选择的其他度量标准(2)基于距离的度量n定义了数据划分间的一种距离尺度n计算每个属性产生的划分与理想划分间的距离n选择最接近完美划分的属性nLopez de Mantaras定义了这个距离度量,证明了它不偏向有大量值的属性此外Mingers实验,不同的属性选择度量对最终精度的影响小于后修剪得程度和方法的影响缺少属性值的训练样例例子,医学领域经常需要根据此属性值已知的实例来估计这个缺少的属性值为

    20、了评估属性A是否是决策节点n的最佳测试属性,要计算决策树在该节点的信息增益Gain(S,A)。假定是S中的一个训练样例,并且其属性A的值A(x)未知缺少属性值的训练样例(2)处理缺少属性值的n一种策略是赋给它节点n的训练样例中该属性的最常见值n另一种策略是赋给它节点n的被分类为c(x)的训练样例中该属性的最常见值n更复杂的策略,为A的每个可能值赋予一个概概,而不是简单地将最常见的值赋给A(x) 根据结点n的样例上的不同值出现的频概,这些概概可以被再次估计。1.一个公司不成功,很快会有人知道的,市场上没有瞎子,内部有矛盾,你的对手会很高兴的。而且公司内一个小小的问题,传到市场上就是一个大的问题。

    21、因为会有人在研究你们,你的对手会告诉你一切。2.所以,一个团队,首先要思想一致,才能应对外面市场的残酷战斗,在家里一团糟,意见分歧,人心涣散,出去是打不赢战斗的。3.礼仪是一门综合性较强的行为科学,是指在人际交往中,自始至终地以一定的,约定俗成的程序、方式来表现的律已、敬人的完整行为。4.男士可将双腿分开略向前伸,如长时间端坐,可双腿交叉重叠,但要注意将上面的腿向回收,脚尖向下。5.优雅的蹲姿的基本要领是:一脚在前,一脚在后,两腿向下蹲,前脚全着地,小腿基本垂直于地面,脚后跟提起,脚掌着地,臀部向下。6.标准的行走姿势,要以端正的站立姿态为基础。其要领是:以大关节带动小关节,排除多余的肌肉紧张,要走得轻巧、自如、稳健、大方。7.给予任何人同等的待遇,一视同仁,不卑不亢,这种公平的态度,容易为自己赢得朋友,也有利于公司良好待人接物形象宣传。8.手心向上,介绍时一般应站立,特殊情况下年长者和女士可除外,在宴会或会谈桌上可以不起立,微笑点头示意即可。9.乘汽车时,通常是遵循右为上,左为下,后为上,前为下的原则,故一般情况下,司机后排右侧是上宾席

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:决策树学习PPT模版(44页)课件.ppt
    链接地址:https://www.163wenku.com/p-2474214.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库