神经机器翻译前沿进展课件.pptx
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《神经机器翻译前沿进展课件.pptx》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经 机器翻译 前沿 进展 课件
- 资源描述:
-
1、神经机器翻译前沿进展机器翻译 目标:利用计算机实现自然语言的自动翻译2布什与沙龙举行了会谈BushheldatalkwithSharon发展历史 趋势:让机器更“自主”地学习如何翻译3规则机器翻译统计机器翻译神经机器翻译198019902013数据驱动机器翻译1990数据驱动的机器翻译 核心问题:如何为翻译过程建立概率模型?4布什与沙龙举行了会谈BushheldatalkwithSharon统计机器翻译 隐变量对数线性模型:在隐式语言结构上设计特征5布什与沙龙举行了会谈BushheldatalkwithSharon(Och and Ney,2002)基于短语的统计机器翻译 短语翻译模型:以隐结
2、构短语为基本翻译单元6布什与沙龙举行了会谈布什与 沙龙举行 了 会谈Bushwith Sharonheld a talkBushwith Sharonheld a talkBushheldatalkwithSharon(Koehn et al.,2003)统计机器翻译的优缺点 优点 隐结构可解释性高 利用局部特征和动态规划处理指数级结构空间 缺点 线性模型难以处理高维空间中线性不可分的情况 需要人类专家设计隐式结构及相应的翻译过程 需要人类专家设计特征 离散表示带来严重的数据稀疏问题 难以处理长距离依赖7难点:长距离调序8BushPresidentheldatalkwithIsraeliPri
3、meMinisterSharonattheWhiteHouse如何用上述词语拼成合理的译文?统计机器翻译示例9深度学习带来新思路10Yann LeCunYoshua BengioGeoffrey Hinton(LeCun et al,2015)机器翻译方法对比11英国爱丁堡大学在WMT英德评测数据上的BLEU值。NMT 2015年结果来自蒙特利尔大学。来源:Rico Sennrich报告和斯坦福ACL 2016 Tutorial。神经机器翻译 利用神经网络实现自然语言的映射12布什与沙龙举行了会谈BushheldatalkwithSharon(Sutskever et al,2014)编码器-
4、解码器框架 利用递归神经网络实现源语言的编码和目标语言的解码13布什与沙龙举行了会谈BushheldatalkwithSharon(Sutskever et al.,2014)递归神经网络的优缺点 优点 适合处理变长线性序列 理论上能够利用无限长的历史信息 缺点“梯度消失”或“梯度爆炸”14(Pascanu et al.,2013)长短时记忆 通过门阀技术缓解“梯度消失”和“梯度爆炸”15(Hochreiter and Schmidhuber,1997)神经网络学到了什么?16(Sutskever et al.,2014)编码器-解码器架构的优缺点 优点:利用长短时记忆处理长距离依赖 缺点:任
5、意长度的句子都编码为固定维度的向量17(Sutskever et al.,2014)基于注意力的神经机器翻译 利用注意力机制动态计算源语言端相关上下文18(Bahdanau et al.,2015)布什与沙龙举行了会谈BushheldatalkwithSharon注意力 思想:集中关注影响当前词的上下文19(Cheng et al.,2016a)神经机器翻译中的注意力 源语言词语目标语言词的关联强度20(Bahdanau et al.,2015;Cheng et al.,2016b)注意力机制提升长句翻译效果21(Bahdanau et al.,2015)RNNenc:固定源语言上下文,RNN
展开阅读全文