机器学习导论-第3章k-最近邻和k-d树算法.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《机器学习导论-第3章k-最近邻和k-d树算法.ppt》由用户(最好的沉淀)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器学习导论-第3章 k-最近邻和k-d树算法 机器 学习 导论 近邻 算法
- 资源描述:
-
1、第第3章章 k-最近邻和最近邻和k-d树算法树算法n掌握掌握k-最近邻法的基本原理。最近邻法的基本原理。n熟悉熟悉k-最近邻法的三个关键要素和优缺点。最近邻法的三个关键要素和优缺点。n熟悉熟悉k的取值对的取值对k-最近邻法的影响因素。最近邻法的影响因素。n熟悉熟悉k-d树的构建过程。树的构建过程。本章学习目标本章学习目标n3.1 k-最最近邻法近邻法n3.2 k-d树树第第3章章 k-最近邻和最近邻和k-d树算法树算法3.1 k-最近邻法最近邻法3.1.1 k-最近邻法最近邻法的基本思想的基本思想n距离距离度量度量,特征空间中样本点的距离是样本点间相似程度的反映。n算法超算法超参数参数 k 的
2、的取值取值。n决策规则决策规则,例如,对于分类任务,采取少数服从多数的“投票法”;对于回归任务,采用取平均值的规则。给定一个训练样本集,对于待预测类别标签的新输入测试实例,可以在特征空间中计算它与所有训练样本的距离,然后在训练样本集中找到与该测试实例最邻近的 k 个训练样本,统计这 k 个样本所属的类别,其中样本数最多的那个类就是该测试实例所属的类别。k-最近邻最近邻(kNN)法涉及到以下三个关键要素:3.1 k-最近邻法最近邻法3.1.2 距离度量距离度量n闵可夫闵可夫斯基距离斯基距离(Minkowski distance)n曼哈顿距离曼哈顿距离(Manhattan distance)3.1
3、 k-最近邻法最近邻法3.1.2 距离度量距离度量n欧欧氏氏距离距离(Euclidean distance)n切比雪夫距离切比雪夫距离(Chebyshev distance)n汉明距离汉明距离(Hamming distance)3.1 k-最近邻法最近邻法3.1.3 k值的选择值的选择3.1 k-最近邻法最近邻法3.1.3 k值的选择值的选择n如果选择较小如果选择较小的的k值值n优点优点:训练误差会训练误差会减小,只有减小,只有与输入的测试实例较近或相似的与输入的测试实例较近或相似的训练样本才会对训练样本才会对预测结果起作用。预测结果起作用。n缺点缺点:泛化误差会泛化误差会增大,预测增大,预测
4、结果会对近邻的训练样本非常结果会对近邻的训练样本非常敏敏感。如果感。如果近邻的近邻的训练样本训练样本恰巧是恰巧是噪声,则噪声,则预测就会预测就会出错。出错。n如果选择较大如果选择较大的的k 值值n优点优点:可以减小泛化误差。可以减小泛化误差。n缺点缺点:训练误差会增大。训练误差会增大。值太大会使模型整体变得值太大会使模型整体变得简单,容简单,容易易发生欠拟合。发生欠拟合。3.1 k-最近邻法最近邻法3.1.4 k-最近邻法最近邻法的的优缺点优缺点n优点优点n算法简单,易于理解,既可以用于分类任务也可以用于回归任务,且算法简单,易于理解,既可以用于分类任务也可以用于回归任务,且适用于多分类和非线
5、性分类问题。适用于多分类和非线性分类问题。n没有显式的训练过程,没有显式的训练过程,k值是唯一的超参数,在确定值是唯一的超参数,在确定k值后,直接进值后,直接进行预测。行预测。n由于由于kNN法并不关注样本的类别数量,因此在处理类别交叉或重叠较法并不关注样本的类别数量,因此在处理类别交叉或重叠较多的待分类样本时,选用多的待分类样本时,选用kNN法比较合适。法比较合适。n缺点缺点n当训练样本集较大、样本的特征向量维数较高时计算量大,耗时长,当训练样本集较大、样本的特征向量维数较高时计算量大,耗时长,时间复杂度高;需要大量的内存,空间复杂度高。时间复杂度高;需要大量的内存,空间复杂度高。n当存在样
展开阅读全文