机器学习之聚类分析课件.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《机器学习之聚类分析课件.pptx》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 学习 聚类分析 课件
- 资源描述:
-
1、目录什么是聚类距离度量方法几种常见的聚类方法练习第1页/共48页概述监督学习(supervised learning)无监督学习(unsupervised learning)半监督学习(Semi-Supervised Learning)概述第2页/共48页 从给定的训练数据集中学习出一个函数(模型参数),当新的数据到来时,可以根据这个函数预测结果 监督学习就是最常见的分类问题 监督学习的目标往往是让计算机去学习我们已经创建好的分类模型 最典型的算法是KNN和SVM监督学习(supervised learning)第3页/共48页 输入数据没有标记,也没有确定的结果 样本数据类别未知,需要根据样
2、本间的相似性对样本集进行聚类 非监督学习目标不是告诉计算机怎么做,而是让计算机自己去学习怎样做非监督学习(unsupervised learning)第4页/共48页无监督学习的方法分为两大类:基于概率密度函数估计的直接方法 基于样本间相似性度量的简介聚类方法:设法定出不同类别的核心或初始内核,然后依据样本与核心之间的相似性度量将样本聚集成不同的类别非监督学习(unsupervised learning)第5页/共48页“物以聚类,人以群分”所谓聚类,就是将相似的事物聚集在一 起,而将不相似的事物划分到不同的类别的过程,是数据分析之中十分重要的一种手段。什么是聚类?第6页/共48页 在图像分析
3、中,人们希望将图像分割成具有类似性质的区域 在文本处理中,人们希望发现具有相同主题的文本子集 在顾客行为分析中,人们希望发现消费方式类似的顾客群,以便制订有针对性的客户管理方式和提高营销效率这些情况都可以在适当的条件下归为聚类分析什么是聚类?第7页/共48页 聚类就是将数据集中的样本划分为若干个通常不相交的子集,每个子集成为一个“簇”(Cluster)。聚类分析(Clustering Analysis)第8页/共48页聚类的相似性度量 1.欧氏距离(Euclidean Distance)欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。两个n维向量a(x11,x12,x1
4、n)与 b(x21,x22,x2n)间的欧氏距离:第9页/共48页聚类的相似性度量 2.曼哈顿距离(Manhattan Distance)想象你在曼哈顿要从一个十字路口开车到另外一个十字路口,驾驶距离是两点间的直线距离吗?显然不是,除非你能穿越大楼。实际驾驶距离就是这个“曼哈顿距离”,也称为城市街区距离(City Block distance)。两个n维向量a(x11,x12,x1n)与 b(x21,x22,x2n)间的曼哈顿距离第10页/共48页聚类的相似性度量 3.切比雪夫距离(Chebyshev Distance)国际象棋中国王走一步能够移动到相邻的8个方格中的任意一个。那么国王从格子(
5、x1,y1)走到格子(x2,y2)最少需要多少步?你会发现最少步数总是max(|x2-x1|,|y2-y1|)步。有一种类似的一种距离度量方法叫切比雪夫距离。两个n维向量a(x11,x12,x1n)与 b(x21,x22,x2n)间的切比雪夫距离第11页/共48页聚类的相似性度量 4.马氏距离(Mahalanobis Distance)有M个样本向量X1Xm,协方差矩阵记为S,均值记为向量,则其中样本向量X到u的马氏距离表示为:5.汉明距离(Hamming Distance)两个等长字符串s1与s2之间的汉明距离定义为将其中一个变为另外一个所需要作的最小替换次数。例如字符串“1111”与“10
6、01”之间的汉明距离为2。第12页/共48页 要考虑所选择的距离公式在实际应用中有明确的意义。如欧氏距离就有非常明确的空间距离概念。马氏距离有消除量纲影响的作用。距离选择的原则第13页/共48页层次聚类凝聚方法(自底向上):一开始将每个对象作为单独的一组,然后根据同类相近,异类相异的原则,合并对象,直到所有的组合并成一个,或达到一个终止条件为止。分裂方法(自顶向下):一开始将所有的对象置于一类,在迭代的每一步中,一个类不断地分为更小的类,直到每个对象在单独的一个类中,或达到一个终止条件。第14页/共48页层次聚类特点:类的个数不需事先定好 需确定距离矩阵 运算量要大,适用于处理小样本数据 第1
7、5页/共48页层次聚类最短距离法两个类中距离最近的两个样本的距离作为这两个集合的距离第16页/共48页将类Gp与Gq合并为Gr,则Gr与任意一类Gk间的距离为:层次聚类最短距离法第17页/共48页最短距离法进行聚类分析的步骤如下:(1)定义样品之间距离,计算样品的两两距离,得一距离阵记为D(0),开始每个样品自成一类,显然这时Dij=dij。(2)找出距离最小元素,设为Dpq,则将Gp和Gq合并成一个新类,记为Gr,即Gr=Gp,Gq。(3)计算新类与其它类的距离。(4)重复(2)、(3)两步,直到所有元素。并成一类为止。如果某一步距离最小的元素不止一个,则对应这些最小元素的类可以同时合并。层
8、次聚类最短距离法第18页/共48页层次聚类最大距离法最大距离法(complete linkage method),maxipjqpqijXGXGDd第19页/共48页层次聚类最大距离法将类Gp与Gq合并为Gr,则Gr与任意一类Gk间的距离为:第20页/共48页层次聚类中间距离法中间距离法 最短、最长距离定义表示都是极端情况,我们定义类间距离可以既不采用两类之间最近的距离也不采用两类之间最远的距离,而是采用介于两者之间的距离,称为中间距离法。中间距离将类Gp与Gq类合并为类Gr,则任意的类Gk和Gr的距离公式为 (14 0)设DkqDkp,如果采用最短距离法,则Dkr=Dkp,如果采用最长距离法
9、,则Dkr=Dkq。第21页/共48页层次聚类【例】设有六个样品,每个只测量一个指标,分别是1,2,5,7,9,10,试用最短距离法将它们分类。(1)样品采用绝对值距离,计算样品间的距离阵D(0),见表第22页/共48页层次聚类(2)D(0)中最小的元素是D12D561,于是将G1和G2合并成G7,G5和G6合并成G8,并利用式计算新类与其它类的距离D(1),见下表:第23页/共48页层次聚类(3)在D(1)中最小值是D34D482,由于G4与G3合并,又与G8合并,因此G3、G4、G8合并成一个新类G9,其与其它类的距离D(2),见下表:第24页/共48页层次聚类(4)最后将G7和G9合并成
展开阅读全文