书签 分享 收藏 举报 版权申诉 / 49
上传文档赚钱

类型常用大数据挖掘算法优化改进课件.pptx

  • 上传人(卖家):晟晟文业
  • 文档编号:4581963
  • 上传时间:2022-12-21
  • 格式:PPTX
  • 页数:49
  • 大小:4.65MB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《常用大数据挖掘算法优化改进课件.pptx》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    常用 数据 挖掘 算法 优化 改进 课件
    资源描述:

    1、第七章常用大数据挖掘算法优化改进of571 随着“信息爆炸”时代的来临,数据挖掘的应用日趋广泛。许多商业决策者利用数据挖掘技术从海量的数据中获取有用的信息,为以后企业更好地决策提供帮助。然而,传统的数据挖掘算法在面对海量数据的时候,由于各种原因,执行效率低下,已经不能够满足人们日益增长的性能需求,需要寻找更加高效的算法或者执行策略。为了解决这一系列效率低下的问题,本章对常用大数据挖掘算法进行优化和改进,并将改进后的算法应用到具体的实例中。More7.1分类算法第七章常用大数据挖掘算法优化改进7.2聚类算法7.3关联规则 习题of572 1.并行算法简介7.1.1 分类算法的并行化of5737.

    2、1 分类算法第7章 常用大数据挖掘算法优化改进 简单的说,算法就是求解问题的方法和步骤。并行算法,就是在并行机上用很多个处理器联合求解问题的方法和步骤。所谓分类,简单来说,就是根据数据的特征或属性,划分到已有的类别中。2.并行算法的常规研究内容 1)并行计算模型 并行计算模型的第一代是共享存储模型,如SIMD-SM和MIMD-SM的一些计算模型,模型参数主要是CPU的单位计算时间。第二代是分布存储模型。在这个阶段,人们逐渐意识到对并行计算机性能带来影响的不仅仅是CPU,还有通信。第三代是分布共享存储模型。of5747.1 分类算法第7章 常用大数据挖掘算法优化改进 简单的说,算法就是求解问题的

    3、方法和步骤。并行算法,就是在并行机上用很多个处理器联合求解问题的方法和步骤。2)并行算法的设计技术 虽然并行算法研究还不是太成熟,但并行算法的设计依然是有章可循的,例如划分法、分治法、平衡树法、倍增法等都是常用的设计并行算法的方法。另外人们还可以根据问题的特性来选择适合的设计方法。3)并行算法分为多机并行和多线程并行 多机并行,如MPI技术;多线程并行,如OpenMP技术。of5757.1 分类算法第7章 常用大数据挖掘算法优化改进 1)并行计算 从处理器的角度看,并行计算可划分为时间并行和空间并行,时间并行即流水线技术,空间并行则是使用多个处理器同时计算。从算法设计的角度来看,并行计算可分为

    4、数据并行和任务并行。从体系结构来说,空间并行导致两类并行机的产生:单指令流多数据流(SIMD)和多指令流多数据流(MIMD)。MIMD类的机器又可分为常见的五类:并行矢量处理机(PVP)、对称多处理机(SMP)、大规模并行处理机(MPP)、工作站集群(COW)和分布式共享存储处理机(DSM)。从访存模型来说,并行计算有以下5种访存模型:均匀访存模型(UMA)、非均匀访存模型(NUMA)、全高速缓存访存模型(COMA)、一致性高速缓存非均匀存储访问模型(CC-NUMA)和非远程存储访问模型(NORMA)。2)并行算法 并行算法是用多台处理机联合求解问题的方法和步骤,其执行过程是将给定问题先分解成

    5、若干个尽量相互独立的子问题,然后使用多台计算机同时进行求解,从而最终求得原问题的解。3.并行计算和并行算法of5767.1 分类算法第7章 常用大数据挖掘算法优化改进 共享内存技术是指开辟一块特殊内存区域,使得多个进程可以共享这块内存进行读写操作。一旦进程将共享内存区映射到它的地址空间,这些进程间数据的传递就不再涉及内核,有利于进程间交换大批量数据。4.共享内存of5777.1 分类算法第7章 常用大数据挖掘算法优化改进 共享内存系统的应用程序开发有多进程和多线程两种方式。多进程程序中的各进程管理各自的计算资源,进程间的数据共享通过消息方式数据传递实现;而多线程程序中的各线程可以分享主进程程序

    6、分配的所有计算资源,直接共享程序中的数据,如下图所示。of5787.1 分类算法第7章 常用大数据挖掘算法优化改进 MapReduce本身就是一个并行计算框架,但是任务可以在 MapReduce 框架下并行计算的前提是,任务所对应的数据集可分,且分割后的各子数据集可以并行地被计算,它们之间并没有依存关系,最终只需要合并它们各自产生的结果为最终结果。在MapReduce框架下,一个任务通常会被分为两个阶段:Map阶段和Reduce阶段,且所有的操作都是基于键值对的。下图为MapReduce任务工作过程。5.MapReduce并行计算框架of5797.1 分类算法第7章 常用大数据挖掘算法优化改进

    7、7.1.2 并行化的决策树算法优化 1.决策树算法的并行策略 关于决策树算法的并行训练策略主要有以下两种实现方式。根据数据划分方式的不同可以分为动态数据划分和静态数据划分;根据程序设计模式的不同可以分为主从模式和对等模式。1)数据划分方式 (1)动态数据划分法。动态数据划分方式就是根据任务进行分片。在构建决策树之前,主处理机上存储着整个训练数据集。假设当前系统中有可供运行的n台处理机,则要将训练数据集划分为n个训练子集,主处理机将划分好的n个训练子集分配给包含自己在内的n台处理机。这n台处理机接收到训练子集后,并行地构建决策树的子树。主处理机重复上面的过程,为完成任务的处理机分配训练集直至所有

    8、的处理机都得到任务。of57107.1 分类算法第7章 常用大数据挖掘算法优化改进 (2)静态数据划分法。为了解决动态数据方式需要各处理机之间大量通信和频繁数据移动的缺点,给出了静态数据划分方式。静态数据划分方式又可以分为横向数据划分和纵向数据划分。横向划分方式。横向数据划分方式是指将训练数据集进行水平分割,各个处理机保存的训练数据子集的大小一样。假设训练数据集为N,处理机的个数为m,则每个处理机处理的数据集大小为N/m。每个处理机按照同样的扩展策略负责统计本地数据,获取并计算每个属性分裂点相关的信息,各个处理机之间需要互相通信,按照算法所采用的最佳属性测试标准,找出最佳属性和分裂点。在划分数

    9、据集到各子节点的过程中,各处理机只对本机数据进行划分。纵向划分方式。纵向划分就是将一个或若干个完整的属性列表分配给一个单独的处理机进行处理,每个处理机并行地完成一个或者多个属性分裂点相关信息的计算过程。of57117.1 分类算法第7章 常用大数据挖掘算法优化改进 2)程序设计模式 (1)主从模式。基于主从模式的并行决策树方法中选择一个处理机运行主进程,其余处理机运行从进程。各从进程之间不相互通信,也不要求进行同步。在主从模式下,主处理机先将训练数据集横向划分后平均分配到N个从处理机上,各从处理机接收数据后并行统计和计算各分裂点的信息;然后,各从处理机把结果信息传送给主处理机,主处理机综合各从

    10、处理机的结果信息,得出最佳分裂属性;最后,主处理机根据最佳分裂属性的分裂结果形成哈希表后发送到各从处理机上,从处理机再根据哈希表分割本机上的数据子集。(2)对等模式。在对等模式下,系统中所有处理机都是对等的,没有主从之分,处理器之间通过相互通信完成决策树的创建。12of57137.1 分类算法第7章 常用大数据挖掘算法优化改进 2.决策树中C4.5算法并行化 对于C4.5决策树分类算法,如果给定数据集和属性集,在构造树的过程中需要计算所有剩余属性各自对应的分裂指标值,此过程就需要对数据集进行划分,耗时最长,此时可以利用MapReduce并行框架,可大大缩短时间。根据划分结果,分别计算各属性对应

    11、的分裂指标值,从中找出最佳的分裂属性,以此属性为节点,再根据此属性的取值,进行分枝,递归地进行即可得到一颗完整的决策树。对于经典的C4.5算法,基于MapReduce的并行算法,在构造决策树时,分裂指标的计算方法相同,所以逻辑上若数据集相同,它们构造的决策树应该相同,只是MapReduce是一并行计算框架,数据集较大时,执行效率高,而经典的决策树算法对大数据却无能为力。基于Hadoop平台的C4.5算法是为了解决传统的C4.5算法不能处理大规模数据的问题。C4.5算法的并行化实现方法见数据挖掘一书的第157页。of57137.1 分类算法第7章 常用大数据挖掘算法优化改进7.1.3 一种新的朴

    12、素贝叶斯改进方法 针对朴素贝叶斯分类方法要求数据集独立性假设的问题,应用统计量分布的方法给出一种 分布加权的贝叶斯分类改进方法,有效地改进了卡方独立性假设对朴素贝叶斯方法独立性假设难以广泛适用的情况。1.属性间的相关关系见数据挖掘一书的第159页。2.算法设计 设分类表T具有n个条件属性和m个决策属性,分别用随机变量Xi(i=1,2,n)和Y表示,则在加权朴素贝叶斯算法分类模型中权值表示为:公式中wi就作为分类表中第i个条件属性的权值系数。基于权值系数的改进朴素贝叶斯算法的实现关键在于求解各条件属性与决策属性之间的相关系数。其算法的具体描述步骤见数据挖掘一书的第159页。22121,1jix

    13、yCRjiixiyfwx YNffof57147.1 分类算法第7章 常用大数据挖掘算法优化改进7.1.4 支持向量机并行优化改进 常见的并行支持向量机设计模式主要有分组式、级联式、反馈式和混合式4种。1)分组式并行支持向量机(GroupedPSVM)设计思路是:将原始训练集TD按照一定原则切分成n个子训练样本集,每个子训练样本集中均匀分布着各类样本,之后利用Map操作在集群各节点上并行训练这n个子训练样本集,训练结果为n个子支持向量集,最后采用Reduce简单地合并n个子支持向量集,从而得到全局最优支持向量集。2)级联式并行支持向量机(CascadePSVM)同样采用数据分割的思想,通过并行

    14、处理样本子集节省大量时间,对子样本集的合并并非像分组式那样全部合并,而是两两合并子集按照分而治之的原则进行再次训练,直至最终得到全局支持向量模型。将原始训练集TD按照一定原则切分成n个子训练样本集(n为偶数,且n=2),SV为训练子样本集所得的支持向量。1.并行支持向量机发展of57157.1 分类算法第7章 常用大数据挖掘算法优化改进 3)反馈式并行支持向量机(FeedbackPSVM)在CascadePSVM的基础上引入反馈,即将最后一步得到的全局支持向量反馈到初始数据子集中进行再次训练,从而避免不合理的数据划分对分类模型性能产生的潜在影响,该策略以迭代的方式进行,通过判断迭代停止条件来终

    15、止迭代,从而提高训练精度。4)混合式并行支持向量机(HybridPSVM)常见的混合式并行SVM是分组式和级联式并行SVM的某种组合,该模型先将原始训练样本集分成n个子集,分别对这些子集进行训练生成各子集的支持向量,这一步与分组式SVM一样。之后根据预设值k,将这些支持向量合并到k个子集,再次并行训练后得到最终结果,k个子集中,每个子集含有n/k个原始训练样本子集,这一步并非像分组SVM整体合并,也不像级联SVM两两合并,而是选取适合的子集数进行合并。最后合并这些支持向量,得到最终的SVM分类模型。of57167.1 分类算法第7章 常用大数据挖掘算法优化改进 反馈式并行支持向量机就是将原始训

    16、练数据集分块,通过并行训练子样本集加速全局支持向量的训练速度,为消除初始数据集划分对分类器性能和训练结果的潜在影响,特地引入迭代反馈机制,通过反馈,将本次迭代的结果返回初始分类器进行调整和更新,从而进一步提高分类准确率。设计和实现基于MapReduce编程框架的反馈式并行支持向量机时,需要格外重视数据集的划分和如何迭代这两个问题。右图给出了FeedBackSVM的流程图。2.反馈式并行支持向量机算法实现7.2聚类算法第七章常用大数据挖掘算法优化改进7.1分类算法7.3关联规则 习题of5718高级大数据人才培养丛书之一,大数据挖掘技术与应用 1.目前聚类分析研究的主要内容7.2.1 聚类分析研

    17、究的主要内容及算法应用of57187.2 聚类算法第7章 常用大数据挖掘算法优化改进 (1)从对传统的聚类分析方法所做的总结来看,不管是k-means方法,还是CURE方法,在进行聚类之前都需要用户事先确定要得到的聚类的数目。然而在现实数据中,聚类的数目是未知的,通常要经过不断的实验来获得合适的聚类数目,得到较好的聚类结果。(2)传统的聚类方法一般都是适合于某种情况的聚类,没有一种方法能够满足各种情况下的聚类。因此如何解决这个问题成为当前的一个研究热点,有学者提出将不同的聚类思想进行融合以形成新的聚类算法,从而综合利用不同聚类算法的优点,在一次聚类过程中综合利用多种聚类方法,能够有效地缓解这个

    18、问题。聚类就是对大量未知标注的数据集,按数据的内在相似性将数据集划分为多个类别,使类别内的数据相似度较大而类别间的数据相似度较小。19of57197.2 聚类算法第7章 常用大数据挖掘算法优化改进 (3)随着信息时代的到来,对大量的数据进行分析处理是一个很庞大的工作,这就关系到一个计算效率的问题。有文献提出了一种基于最小生成树的聚类算法,该算法通过逐渐丢弃最长的边来实现聚类结果,当某条边的长度超过了某个阈值,那么更长边就不需要计算而直接丢弃,这样就极大地提高了计算效率,降低了计算成本。(4)处理大规模数据和高维数据的能力有待于提高。目前许多聚类方法处理小规模数据和低维数据时性能比较好,但是当数

    19、据规模增大,维度升高时,性能就会急剧下降,而现实生活中的数据大部分又都属于规模比较大、维度比较高的数据集。有文献提出了一种在高维空间挖掘映射聚类的方法PCKA,它从多个维度中选择属性相关的维度,去除不相关的维度,沿着相关维度进行聚类,以此对高维数据进行聚类。(5)目前的许多算法都只是理论上的,经常处于某种假设之下,比如聚类能很好地被分离,没有突出的孤立点等,但是现实数据通常是很复杂的,噪声很大,因此如何有效地消除噪声的影响,提高处理现实数据的能力还有待进一步提高。of57207.2 聚类算法第7章 常用大数据挖掘算法优化改进 2.聚类算法的应用 聚类主要应用于模式识别中的语音识别、字符识别等,

    20、机器学习中的聚类算法应用于图像分割和机器视觉,图像处理中聚类用于数据压缩和信息检索。聚类的另一个主要应用是数据挖掘(多关系数据挖掘)、时空数据库应用(GIS等)、序列和异类数据分析等,聚类分析对生物学、心理学、考古学、地质学、地理学以及市场营销等研究也都有重要作用。of57217.2 聚类算法第7章 常用大数据挖掘算法优化改进 典型的聚类过程主要包括数据(或称之为样本或模式)准备、特征选择、特征提取、接近度计算和聚类(或分组)、对聚类结果进行有效性评估等步骤。典型的聚类过程步骤如下:1.数据准备:包括特征标准化和降维。2.特征选择:从最初的特征中选择最有效的特征,并将其存储于向量中。3.特征提

    21、取:通过对所选择的特征进行转换形成新的突出特征。4.聚类(或分组):首先选择合适特征类型的某种距离函数(或构造新的距离函数)进行接近程度的度量;而后执行聚类或分组。5.聚类结果评估:是指对聚类结果进行评估。评估主要有3种:外部有效性评估、内部有效性评估和相关性测试评估。of57227.2 聚类算法第7章 常用大数据挖掘算法优化改进 1.并行聚类相关技术7.2.2 并行聚类相关技术及算法体系结构和模型 并行计算体系结构主要有以下四种:1)集群(Cluster)具有免费、稳定、开源的Unix和Linux操作系统的计算机集群系统,已成为当下最流行的高性能计算平台,在高性能计算方式中占有越来越大的比重

    22、。2)对称多处理(SMP)由高速缓存Cache、处理单元、总线、交叉开头、共享内存以及输入/输出等组成。3)分布式共享存储多处理(DSM)它能够很好改善SMP的可扩展能力,当前主流的高性能计算机很多都采用这种方式。4)大规模并行处理(MPP)它是目前并行计算机发展过程的主要方向,大规模并行处理可在上万台机器上进行并行处理,并可应用多种并行计算框架和文件存储系统等。of57237.2 聚类算法第7章 常用大数据挖掘算法优化改进 2.并行聚类算法体系结构和模型 1)并行算法的基本体系结构 相对于串行计算来说,如果按照划分方式来分,并行计算可以划分为时间上的并行和空间上的并行。空间上的并行主要是利用

    23、多个处理器并发计算执行的,目前主要的研究工作是空间上的并行,而时间上的并行又叫作流水线技术。从程序和算法设计人员的角度看,并行计算按逻辑又可分为数据并行和任务并行,数据并行的方法就是将大的数据任务分割成若干个子任务;任务并行和数据并行相似,就是将大的任务分割成若个子任务,这种方式要比数据并行复杂一些。2)并行计算模型 并行计算模型现在没有一个统一的模型,目前计算采用的都是冯诺伊曼的串行模型,这种模型一直用到今天,其他并行模型没有冯诺伊曼式模型这么成熟和应用广泛。of57247.2 聚类算法第7章 常用大数据挖掘算法优化改进 1.k-means聚类算法的局限性7.2.3 k-means聚类算法的

    24、一种改进方法 k-means聚类算法使用了迭代的方式,后来被称为劳埃德算法。无论是在随机或使用其他一些启发式数据时,劳埃德算法首先将输入点划分成初始值集。然后计算出每个集合的平均点或重心。它通过关联每一个点构造一个新的分区。然后再重新计算出新的集群点,并通过交替应用这两个步骤的算法程序,直到收敛,这是获得当前点不再开关集群,利用coresets原始数据相类似的一种算法设计。在性能方面的算法并不保证返回全局最优。该算法的结果质量在很大程度上依赖于初始集合的数据集,并且在实践中比全局最优要差得多。由于算法的速度非常快,一个常用的方法是运行算法几次迭代并返回最好的解到集群中去。k-means算法的一

    25、个缺点是:数据集的k数目是一个输入参数。如果选择不适合的k值,可能会产生糟糕的结果。该算法还假定了方差集群分散的适当措施。聚类一直以来都是研究最广泛的学科之一。现在基于划分数据的聚类算法已经成为数据挖掘和k-means聚类算法的热点研究对象。然而k-means聚类算法也有很多的不足之处。of57257.2 聚类算法第7章 常用大数据挖掘算法优化改进 2.算法流程描述 k-means聚类算法的主要流程描述步骤见下表。of57267.2 聚类算法第7章 常用大数据挖掘算法优化改进 3.改进算法的主要思想 4.改进算法的基本流程 改进算法的基本流程步骤见数据挖掘一书的第166页。如果第一类n存在于任

    26、何样品中,具有大的第i级中心取得的抽样小于最大欧几里德距离的点,那么第一类和第i类就可以组合起来。实践证明,通过基于改变初始聚类中心的k-means聚类算法比随机选取k-means算法初始聚类中心的聚类结果质量要好得多。of57277.2 聚类算法第7章 常用大数据挖掘算法优化改进7.2.4 基于Spark的k-means算法并行化设计与实现 Spark与Hadoop之间最大相异之处为Spark对所有类簇中心点的全部迭代计算基本都是于内存中计算完成的,当数据处理量远小于节点的内存容量时,计算过程中几乎不需要再与磁盘进行I/O,而Hadoop则不行,基于Spark的k-means算法的并行实现流

    27、程如下图所示。of57287.2 聚类算法第7章 常用大数据挖掘算法优化改进7.2.5 基于Spark的k-means改进算法的并行化 为了提高k-means聚类算法对维度比较高的海量数据集的聚类效率,同时也解决k-means算法类簇初始中心点的选取和k值的选取问题,选取Canopy粗糙聚类算法来对基于Spark分布式框架的k-means并行算法进一步改进。通过Canopy算法优化初始中心点和k值可以降低k-menas算法的迭代次数,从而改进k-means聚类算法在处理大数据集时数据挖掘的效率和实用性,也可以避免局部最优解。1.Canopy算法思想概述 Canopy算法适用于高维度的大数据集预

    28、聚类分析,它使用简单粗糙的距离测量方法可以把数据对象集高效地分割为多个不完全重叠却可以相交的子集Canopy,接着再在各个Canopy中执行精细聚类算法,这样粗细聚类的结合能提高海量数据处理的效率和准确性。29of57307.2 聚类算法第7章 常用大数据挖掘算法优化改进 Canopy算法聚类逻辑过程是这样的,首先从数据对象点集中随机地选择一个数据对象点A作为第一个子集E1的聚类中心点,然后再根据其他数据对象点与A的相似度(一般以欧式距离作为相似度计算准则),将一些数据对象点划分到子集E1中;接着通过子集Canopies的创建,将数据对象集中的所有数据对象划分到各个子集Canopy中,使这些C

    29、anopy 子集必须完全包含全部数据对象。每个数据对象至少要属于其中的任何一个Canopy子集,而且它还有可能同时属于一个以上的Canopy子集。由上述Canopy算法定义可知:任意两个数据对象点如果没有归属于同一个子集Canopy,那么这两个数据对象点就一定不可能是同一类簇的数据对象。of57307.2 聚类算法第7章 常用大数据挖掘算法优化改进 2.Canopy算法流程详述 虽说Canopy算法可以不用如k-means算法那样人为设置聚类的数目,但仍需要设置两个相似性度量标准T1、T2来间接决定聚类后子集Canopy的数目和每个子集Canopy中数据对象点的数目,Canopy算法的详细计算

    30、流程步骤见下表。of57317.2 聚类算法第7章 常用大数据挖掘算法优化改进 3.基于Spark的Canopy_K-means(CKM)算法的并行化设计 CKM算法主要由Canopy和k-means两部分组成,基于Spark的并行化思路就是依据 CKM算法的两部分来执行并行化设计。基于Spark的CKM并行算法与其串行逻辑大致相同,不同之处就在于CKM并行算法在使用DAG并行编程模型的同时也利用了Spark最具特色的RDD。CKM算法基于Spark平台实现其并行化的流程步骤见下表。of57327.2 聚类算法第7章 常用大数据挖掘算法优化改进7.2.6 基于MapReduce的聚类算法并行化

    31、 1.基于MapReduce的k-means并行算法的设计 k-means聚类算法进行MapReduce的基本思路:对串行算法中每1次迭代启动对应的1次MapReduce计算过程,完成数据记录到聚类中心的距离计算以及新的聚类中心的计算。下图描述了k-means聚类算法MapReduce并行化实现方法。of57337.2 聚类算法第7章 常用大数据挖掘算法优化改进 2.Map函数的设计 Map函数的任务是完成每个记录到中心点距离的计算,并重新标记其属于的新聚类类别,其输入为待聚类所有记录数据和上一轮迭代(或初始聚类)的聚类中心,输入数据记录对的形式为。Reduce函数的任务是根据Map函数得到的

    32、中间结果计算出新的聚类中心,供下一轮MapReduce工作使用。判断该聚类是否已收敛:比较上一轮MapReduce工作得到的聚类中心与本轮MapReduce工作聚类中心距离,若变化小于给定阈值,则算法结束;反之,则用本轮的聚类中心文件替换上一轮的中心文件,并启动新一轮的MapReduce工作。of57347.2 聚类算法第7章 常用大数据挖掘算法优化改进7.2.7 谱聚类算法并行化方法 1.谱聚类并行化设计 下图是谱聚类算法并行化的流程图,从图中可以看出第一部分是数据的输入,输入数据作为一个整体上传至HDFS时进行分块,将分好块的数据交给Map进行处理,图中第二部分是中间部分的处理。谱聚类并行

    33、化的MapReduce过程分为两个阶段,一部分是Map阶段,另一个是Reduce阶段。of57357.2 聚类算法第7章 常用大数据挖掘算法优化改进 2.谱聚类并行化过程 1)构建相似矩阵 首先要对原始数据进行处理、构建文本向量,在构建文本向量时要计算每个词在文本中出现的次数,这就要利用TF-IDF算法。2)并行计算对角矩阵 对角矩阵D计算方法很简单,为上一步中求出的相似矩阵每一行相加,这是由对角矩阵的公式所决定的,计算得出的结果再按照相似矩阵的形式将数据放到相应的对角位置上。3)并行化计算Laplacian 矩阵 这一步主要的工作是并行计算规范Laplacian矩阵,Laplacian矩阵有

    34、规范和非规范化之分,非规范化Laplacian矩阵表示为L=D-W,由非规范Laplacian矩阵可以推导出规范的Laplacian矩阵。36of57377.2 聚类算法第7章 常用大数据挖掘算法优化改进 4)并行计算特征向量及特征值 这一步主要计算Laplacian矩阵的最小特征值及特征向量,计算矩阵的最小特征值及特征向量有很多方法,5)并行k-means算法 谱聚类的最后步骤是要选择一个合适的聚类算法,对上几步处理过的数据进行最后的聚类,在此选择了k-means算法对数据进行最后的聚类。并行k-means算法的思想是将每个样本分配给其选定的中心点,重复迭代,这个过程是可以在Hadoop平台

    35、上并行执行的,k-means算法并行化主要工作是Map阶段设计、Combiner函数设计、Reduce函数设计。7.3关联规则第七章常用大数据挖掘算法优化改进7.1分类算法7.2聚类算法 习题of5738高级大数据人才培养丛书之一,大数据挖掘技术与应用 1.各种改进的Apriori算法7.3.1 Apriori算法的一种改进方法of57387.3 关联规则第7章 常用大数据挖掘算法优化改进 (1)基于压缩矩阵的方法是罗丹提出来的,改进的主要思路是,将数据压缩存储在0-1矩阵中,并用两个额外的数组来分别记录矩阵中各行各列中1的总数,减少了扫描矩阵的次数,并且能够减少那些不能连接的项目集,提高了空

    36、间的利益率,增加了结果的准确率。(2)基于划分和压缩矩阵的方法是由胡绿慧提出来的,主要是为了解决处理大规模数据时,效率比较低的问题。(3)基于Spark的方法是由牛海玲提出的,主要是为了使算法能够并行化运行。改进的主要方面是利用Spark技术,将频繁项集的计算引入到内存中,并且利用矩阵存储来减少数据库的扫描,将局部剪枝和全局剪枝结合起来,减少候选项集的生成。关联规则是形如XY的蕴涵式,其中,X和Y分别称为关联规则的先导和后继关联规则XY,存在支持度和信任度。2.基于Hadoop平台的Apriori并行化算法改进of57397.3 关联规则第7章 常用大数据挖掘算法优化改进 1)Apriori算

    37、法并行化 在生成频繁项集的过程中,需要多次扫描事务数据库,算法运行过程需要通过扫描数据库得到每一个阶次的候选项集合中元素的出现次数(即支持度计数),然后决定是要删减还是要保留输出。2)算法改进方向 Apriori算法总体来说思想简单,就是通过不断地迭代找出所有的项集,而且算法易于实现。在运算过程中,通过剪枝操作,在连接生成候选项集的过程中减少不必要项集的生成,从而减少了接下来工作的任务量。of57407.3 关联规则第7章 常用大数据挖掘算法优化改进 3)算法并行化分析 一般情况,每次在执行一个MapReduce任务时,都有一个初始化的过程,这个过程所需要的时间基本上是一定的,每多一次MapR

    38、educe任务,就会多一次初始化时间消耗,所以在算法设计的过程中,应该尽可能地减少MapReduce迭代次数。Apriori算法的核心就是通过逐层的迭代,来生成1-k阶频繁项集。完全地将Apriori算法应用到MapReduce之上,并不能适应其框架特点,对于Apriori算法的并行化改进方法,提出了一种基于幂集的MapReduce改进算法,新的算法基于幂集定义,将每一个事务根据幂集思想进行拆分,将得到的所有子集追加到最初定义的集合中,通过不断地追加计数,得到数据集中所有候选项集的支持度计数,这种算法的好处是,减少了数据集扫描次数,一次得到所有候选项集的同时也获得了各项集对应的支持度计数。这种

    39、改进方式在时间复杂度和空间复杂度上相对于串行算法有一定优势。4)POP-Apriori算法的实现流程见数据挖掘一书的第175页。1.并行Apriori算法实现思路7.3.2 Apriori算法基于Spark的分布式实现of57417.3 关联规则第7章 常用大数据挖掘算法优化改进 Apriori算法分布式实现使用Scala语言进行编程。结合Spark框架和其RDD算子进行综合设计。算法的实现思路主要分为以下两步:步骤1:产生频繁1,项集L1。(1)使用flatMap将事务集以RDD的形式分布到多个机器上。(2)使用reduceByKey累计项目数。(3)使用Filter过滤掉低于支持度的项集。

    40、步骤2:从频繁k项集LK产生频繁k+1项集LK+1。(1)LK自连接,产生CK+1。(2)扫描数据库,比对CK+1(采用步骤1的方法),产生LK+1。右图为分布式Apriori算法的实现流程图。2.并行Apriori算法核心步骤of57427.3 关联规则第7章 常用大数据挖掘算法优化改进 步骤1:得到频繁1项集L1并保存。步骤2:频繁1项集L1自连接产生C1,扫描数据库比对C1,产生fim2,保存。步骤3:循环产生3项集到8项集。mine函数主要包括L自连接和扫描DB过滤。下图为步骤2和步驟3的流程图。1.并行化基本思想7.3.3 并行FP-Growth关联规则算法研究of57437.3 关

    41、联规则第7章 常用大数据挖掘算法优化改进 当处理大规模数据集时,FP-Growth算法的缺点是不能构建基于内存的全局Fp-tree,并且算法递归挖掘条件Fp-tree的时间消耗较大。为了解决算法在时间和空间上的局限性,通常利用“数据分解”的思想来设计并行FP-Growth 算法。数据分解的基本思想是分而治之。对于任意的原始数据集D,当D的大小比可用内存容量M小时,则采用某种基于内存的关联规则算法来挖掘关联规则。当D的大小超过内存时,则采用某种分解策略将D分解为k个子数据集D1,D2,,Dk,然后对每一个Dk递归调用数据分解算法。在上述分解算法中,最重要的是分解策略,它的目的是将大规模数据集划分

    42、为一个个小规模的数据子集。这样的划分可以解决FP-Growth算法在时间和空间上的局限性。2.并行FP-Growth算法的设计of57447.3 关联规则第7章 常用大数据挖掘算法优化改进 并行化算法分为2个阶段:并行化统计频繁1项集列表。并行化挖掘局部Fp-tree上的关联规则。1)频繁1项集的并行化方法 统计频繁1项集的过程类似于计数统计,因此可以利用数据分解中的划分策略进行数据集分解。每个处理节点需要对划分到本地数据集中的数据项进行频数的统计,得到局部的项集计数。然后各个节点之间通信得到每个项目的全局频数,根据最小支持度阈值删除非频繁项集,从而得到频繁1项集。将频繁1项集广播至各个子节点

    43、,保证每个子节点都保存了频繁1项集列表。2)关联规则的并行化方法 从FP-Growth算法可知,在得到频繁1项集列表之后,需要建立全局的Fp-tree才能获得每个项目的条件模式基,当数据集过大时全局Fp-tree无法放入内存。因此,并行化的方法将数据集分解为子集之后,在数据子集上建立Fp-tree,这被称为“局部 Fp-tree”,然后针对局部Fp-tree调用FP-Growth 方法递归挖掘局部的关联规则。1.基于Spark的并行FP-Growth算法的设计思想7.3.4 基于Spark的FP-Growth算法的并行化实现of57457.3 关联规则第7章 常用大数据挖掘算法优化改进 实现算

    44、法的并行化需要考虑任务的划分与结果合并的问题。与Hadoop不同,Spark只需要对其弹性分布式数据集RDD调用相关的转换或动作操作即可,它可以对同一数据集进行多次操作,更易于实现数据挖掘的并行化。因为FP-Growth算法是依靠消耗内存来提高算法效率的,因此目前所实现的并行化算法大都会有内存瓶颈,而Spark是一个基于内存计算的分布式计算框架,采用多线程模型,更适合计算内存密集型的任务。所以,可以结合Spark的优势,实现FP-Growth算法的并行化。在Spark平台上实现的FP-Growth算法的主要思路也分为5步。其算法步骤见数据挖掘一书的第180页。2.基于Spark的FP-Grow

    45、th算法的并行化实现of57467.3 关联规则第7章 常用大数据挖掘算法优化改进 1)并行计算item支持度 在计算item支持度之前,首先,经过转换操作将原始事务集转移到RDD中,以后的挖掘算法完全是基于该RDD,而不需要再重复扫描事务集。2)数据分组 数据分组需要先将F_list中的项进行映射使得频繁项的项名映射成为其在F_list中的位置,得到映射集合F_map,集合中key值为项名,value值为项在F_list中的位置。3)并行化频繁模式挖掘 在对事务集进行分组划分后,需要对每组进行频繁模式的本地挖掘,每组只需挖掘本组的项的频繁模式,这样可以避免重复挖掘,保证结果的正确性。4)聚合

    46、 当每组的挖掘工作完成以后,就需要对各个组的结果进行聚合以得到最终结果了。习题第七章常用大数据挖掘算法优化改进7.1分类算法7.2聚类算法 of5748高级大数据人才培养丛书之一,大数据挖掘技术与应用7.3关联规则习题:48484848484848of49481常用的分类算法有哪些算法?单一的分类方法主要哪些?组合单一分类方法有哪些?并行算法的常规研究内容是哪些?什么叫并行计算?什么叫共享内存?2从体系结构来说,空间并行导致哪两类并行机的产生?多指令流多数据流(MIMD)的机器又可分为常见的哪五类?从访存模型来说,并行计算有哪五种访存模型?并行算法设计最常用的方法是PCAM方法,请阐述PCAM

    47、的具体含义。3常用的分类算法并行化有哪些?根据决策树生成算法的并行机制,它主要有哪两种并行性?按照生成决策树的并行方式划分,可划分为哪四种并行?请阐述。4根据数据划分方式的不同,决策树算法的并行训练策略可为哪两种划分?请阐述。根据程序设计模式的不同,决策树算法的并行训练策略可为哪两种模式?请阐述。5生成决策树是一迭代过程,存在哪几种并行性?请阐述MapReduce任务的工作过程。请阐述C4.5 算法的并行化步骤。请阐述基于权值系数的改进朴素贝叶斯算法步骤。6常见的并行支持向量机设计模式主要有哪4种?请阐述。请阐述FeedBackSVM的流程。请阐述典型的聚类过程主要包括哪些步骤。请阐述并行计算体系结构主要有哪四种。请阐述PRAM模型的思想。7请阐述k-means聚类算法的局限性。请阐述k-means聚类改进算法的主要思想。请阐述k-means聚类改进算法的基本流程。8基于Spark的k-means算法并行化如何实现?基于Spark的Apriori算法分布式如何实现?谱聚类并行化过程有哪些步骤?请阐述基于FP-Growth的并行化方法的基本思想。基于Spark的FP-Growth算法的并行化如何实现?感谢聆听

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:常用大数据挖掘算法优化改进课件.pptx
    链接地址:https://www.163wenku.com/p-4581963.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库