书签 分享 收藏 举报 版权申诉 / 55
上传文档赚钱

类型深度学习在自然语言处理的应用v课件.ppt

  • 上传人(卖家):三亚风情
  • 文档编号:3400493
  • 上传时间:2022-08-27
  • 格式:PPT
  • 页数:55
  • 大小:3.84MB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《深度学习在自然语言处理的应用v课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    深度 学习 自然语言 处理 应用 课件
    资源描述:

    1、1深度学习在自然语言处理的应用张俊林畅捷通股份有限公司2014.10.32大纲深度学习简介基础问题:语言表示问题 Word Embedding 不同粒度语言单元的表示 字符/单字/单词/短语/句子/文档值得重点关注的模型 RAE/Tensor Network/卷积网络NLP的应用 语言模型 中文分词 知识挖掘 情感计算 机器翻译 Paraphrase IR探讨与思考3深度学习(表示学习)4深度学习(表示学习)5Layer-Wise Pre-Training6Denoising Autoencoder7自然语言交互的时代8大纲深度学习简介基础问题:语言表示问题 Word Embedding 不同

    2、粒度语言单元的表示 字符/单字/单词/短语/句子/文档值得重点关注的模型 RAE/Tensor Network/卷积网络NLP的应用 语言模型 中文分词 知识挖掘 情感计算 机器翻译 Paraphrase IR探讨与思考9One-Hot 表示 One Hot表示在传统NLP中很常用Similarity(dog,cat)=010Word Embedding 词向量:单词的分布向量表示(Distributional Representation)词向量表征了单词使用上下文中的句法语义特征 One-Hot的字面匹配到DR的语义匹配Similarity(dog,cat)Similarity(dog,t

    3、he)Similarity(“the dog smiles.”,“one cat cries.”)11无监督训练获得单词的WE-word2vec单词:苹果12无监督训练获得单词的WE-word2vec单词:长颈鹿13无监督训练获得单词的WE-word2vec单字:张14无监督训练获得单词的WE-word2vec单字:雯15无监督训练获得单词的WE-word2vec单字:葱16Word2vecCBOW:17word2vecSkip-Gram:18word2vecCBOW+Hierarchical Softmax19word2vecCBOW+Negative Sampling最大化:st:正例负例

    4、20不同粒度语言单元的表示-字符/单字字符上下文向量 英文:捕获构词法中文:捕获字搭配 英文拓展:字符N-Gram 中文拓展:单字N-Gram?21不同粒度语言单元的表示-短语/句子/文档方法一:单词词向量取和(Summrization)很多情况都做此种简化处理过于简单,但是仔细思考有一定道理方法二:单词词向量加权求和Huangs Work权重:类似于IDF方法三:RNN22不同粒度语言单元的表示-短语/句子/文档方法四:Matrix-Vector NN23不同粒度语言单元的表示-短语/句子/文档方法五:卷积神经网络24大纲深度学习简介基础问题:语言表示问题 Word Embedding 不同

    5、粒度语言单元的表示 字符/单字/单词/短语/句子/文档值得重点关注的模型 RAE/Tensor Network/卷积网络NLP的应用 语言模型 中文分词 知识挖掘 情感计算 机器翻译 Paraphrase IR探讨与思考25RAE(Recursive AutoEncoders)推导短语及句子级别的Word Embedding表示26Neural Tensor Networks 表达多个实体之间的关系/两个单词之间某种操作27Neural Tensor Networks28卷积网络(Convolutional Deep Neural Network)全局特征选择与融合/不定长转换为定长表示29大

    6、纲深度学习简介基础问题:语言表示问题 Word Embedding 不同粒度语言单元的表示 字符/单字/单词/短语/句子/文档值得重点关注的模型 RAE/Tensor Network/卷积网络NLP的应用 语言模型 中文分词 知识挖掘 情感计算 机器翻译 Paraphrase IR探讨与思考30语言模型31语言模型Bilinear-LM32语言模型RNNLM33深度学习用于中文分词-思路134深度学习用于中文分词-思路235深度学习用于中文分词 两者思路基本相同 基于字的Word Embedding+三层神经网络+BEMS标记序列分类 思路2引入全局的Viterbi解码(分类后处理)效果:和主

    7、流分词算法效果接近 CRF/Maxent+二元特征 类似思路同样可以套用到POS/NER/Parser等场景 这是利用Word Embedding解决NLP问题最直观的NLP应用思路 考虑探索下非标准三层神经网络结构的复杂模型36深度学习用于知识挖掘 两大类问题 现有知识库的新知识推理 CYC,WordNet,FreeNet 目前的文献做法大思路基本一致已知实体用Word Embedding表示实体关系用Tensor Network建模后向传播+SGD训练 从自由文本中挖掘结构化知识37现有知识库的新知识推理38现有知识库的新知识推理最小化目标函数:正例:负例:39从自由文本中挖掘结构化知识整

    8、体结构词法级特征40从自由文本中挖掘结构化知识句子级特征抽取:卷积网络41机器翻译(通用模型)最常见的通用模型:Encoder-Decoder ModelEncoderDecoder语义向量42机器翻译(Encoder-Decoder具体例子)ACL2014 Best Paper:Fast and Robust Neural Network Joint Models Joint Models for Statistical Machine Translation网络结构语言模型翻译模型43机器翻译-很多地方可以引入DL 单词对齐 短语对齐 短语重排序 语言模型 翻译模型 联合模型 翻译结果重排

    9、序 单词对齐44情感计算 核心的两个问题 句子级的Word Embedding表示 前面讲过这个问题 如何将情感倾向编码到各级Word Embedding中 半监督或者监督学习:通过训练过程将情感倾向编码到WE结构中45Paraphrase(整体框架)S1:The judge also refused to postpone the trial date of Sept.29.S2:Obus also denied a defense motion to postpone the September trial date.Paraphrase的问题:Semantic(S1)=Semantic(

    10、S2)?46Paraphrase(RAE)Darling!Im here!Darling!Im here!47Paraphrase(Dynamic Pooling)应用拓展:很明显这个方法可以照搬不动放到应用拓展:很明显这个方法可以照搬不动放到QA问题匹配中问题匹配中(一篇灌水论文就此诞生了!)(一篇灌水论文就此诞生了!)欧式距离:越小越好48DL for IR一种直观的方法49DL for IR一种没那么直观的方法50大纲深度学习简介基础问题:语言表示问题 Word Embedding 不同粒度语言单元的表示 字符/单字/单词/短语/句子/文档值得重点关注的模型 RAE/Tensor Net

    11、work/卷积网络NLP的应用 语言模型 中文分词 知识挖掘 情感计算 机器翻译 Paraphrase IR探讨与思考51探讨与思考 与传统方法比较DL的优势所在 抛掉特征选择步骤 简洁地融入语义级特征 很多应用可以直接绕过NLP的中间场景比如POS,句法,减少错误累加 语言长程依赖容易建模:词向量+卷积网络 可以解决语言模型的数据稀疏问题:15-Gram 很多场景如果优化速度非常快,方便应用的工程化实用化52探讨与思考 目前研究模式中最基础和重要的问题 短语、句子、段落、文档级别的有效Word Embedding表示 文档级别表示很多应用直接受益:分类,IR等 问题:文档级别采用低维表示,是

    12、否丢失细节信息?只能作为辅助手段?句子级别的低维表示很有意义,最关键。如何更能体现“深度”的思想 目前还说不上很Deep:WE为主 是否有除了“Word Embedding”外更Deep的模式?目前看DL在NLP哪些方面好哪些一般?涉及语义处理的应用:表现好 不涉及太多语义的应用:State-of-the-art 说明什么?Word Embedding已经把传统ML方法使用特征融合进去了 语义级别特征效果体现明显53探讨与思考 与CRF的比较及区别与联系 CRF:线性 VS DL:非线性 CRF:高维离散特征 VS:DL:低维连续特征 结论:非线性模型对于低维连续特征有效,对高维离散特征无效 DL在推荐系统方面应用方法的思考 不成熟的初步思路 我个人看好DL在NLP方面的作用 与传统方法比有明显优点 发展初期:机会多、挑战大 NLP方向博士生的黄金时代 非常容易想到很多New Idea 一把新的锤子,很多钉子可以去敲54广告时间55Thanks!

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:深度学习在自然语言处理的应用v课件.ppt
    链接地址:https://www.163wenku.com/p-3400493.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库