在无监督学习的NLP任务中课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《在无监督学习的NLP任务中课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 监督 学习 NLP 任务 课件
- 资源描述:
-
1、Online EM for Unsupervised ModelsWritten by Percy Liang,Dan KleinPresented by LinzhengACL-2009Outline Introduction Tasks,models and datasets EM algorithms Experiments ConclusionIntroduction 在无监督学习的NLP任务中,比如tagging,parsing,alignment,往往需要引入隐含的语言结构。概率模型是解决这些问题的典范,而EM算法是用于模型学习的驱动力,它简单且直观。Introduction 然而
2、,EM算法存在收敛慢的问题,比如在词性标注问题中,EM迭代大约需要100轮来达到最高性能。EM算法执行慢主要源自它的批特性,即每趟遍历完所有的数据后参数只更新一次。当参数估计仍然粗糙或者数据存在高冗余时,计算全部数据后更新一次参数显然是浪费的。Introduction 在这篇文章中作者调研了两种在线EM算法incremental EM and stepwise EM.即在每个样本或者一小批样本后更新参数,在线学习算法通过频繁更新来实现加速收敛。文章主要研究stepwise EM,发现选择合适的stepsize和mini-batch size非常重要。stepwise EM可以和 batch E
3、M达到相同效果并且速度更快,此外,stepwise EM甚至可以超越batch EM的性能。Tasks,models and datasets 定义一个概率模型 其中x是输入变量,z是隐含输出变量,是参数。给定一组没有标记的样本x1,.xn,训练目标是最大化这些样本的对数似然:(,;)p x zTasks,models and datasets 文章对四个任务进行了实验,分别是:词性标注(Part-of-speech tagging)文档分类(Document classification)分词(Word segmentation)词对齐(Word alignment)Tasks,models
展开阅读全文