书签 分享 收藏 举报 版权申诉 / 56
上传文档赚钱

类型统计机器翻译简介ppt课件-.ppt

  • 上传人(卖家):三亚风情
  • 文档编号:3157160
  • 上传时间:2022-07-24
  • 格式:PPT
  • 页数:56
  • 大小:203.50KB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《统计机器翻译简介ppt课件-.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    统计 机器翻译 简介 ppt 课件
    资源描述:

    1、NLP课题组例会报告2002-12-6 统计机器翻译简介刘群NLP课题组例会报告2002-12-6统计机器翻译方法的特点利用语料库作为知识来源l区别于规则方法:无需人工编写规则建立完整完整的统计模型l区别于实例方法或模板方法:必须为整个翻译过程建立统计模型NLP课题组例会报告2002-12-6统计机器翻译的分类基于平行概率语法的统计机器翻译模型基于信源信道思想的统计机器翻译模型lIBM的Peter Brown等人首先提出l目前影响最大l几乎成为统计机器翻译的同义词基于最大熵的统计机器翻译模型l源于基于特征的自然语言理解lOch提出,获ACL2019最佳论文NLP课题组例会报告2002-12-6

    2、统计机器翻译的优缺点优点l无需人工编写规则,利用语料库直接训练得到机器翻译系统;(但可以使用语言资源)l系统开发周期短;l鲁棒性好;l译文质量好;缺点l时空开销大;l数据稀疏问题严重;l对语料库依赖性强;l算法研究不成熟。NLP课题组例会报告2002-12-6基于平行概率语法的统计机器翻译模型基本思想l两种语言建立一套平行的语法规则,l规则一一对应l两套规则服从同样的概率分布l句法分析的过程决定了生成的过程主要模型lAlshawi的基于Head Transducer的MT模型l吴德恺的Inverse Transduction Grammar(ITG)lTakeda的Pattern-based

    3、CFG for MT NLP课题组例会报告2002-12-6Head Transducer MT(1)Head Transducer(中心词转录机)是一种Definite State Automata(有限状态自动机)与一般的有限状态识别器的区别:l每一条边上不仅有输入,而且有输出;l不是从左至右输入,而是从中心词往两边输入NLP课题组例会报告2002-12-6Head Transducer MT(2)a:a 0:0 0:0 b:b a:a-1:+1 b:b-1:+1 例子:一个可以将任何a,b组成的串倒置的Head TransducerNLP课题组例会报告2002-12-6Head Tran

    4、sducer MT(3)所有的语言知识(词典、规则)都表现为Head Transducer;Head Transducer可以嵌套:一个Head Transducer的边是另一个的识别结果;纯统计的训练方法;对齐的结果是依存树:不使用词性和短语类标记;Chart句法分析器。NLP课题组例会报告2002-12-6Inversion Transduction Grammar(1)比赛星期三开始。The game will start on Wednesday。NLP课题组例会报告2002-12-6Inversion Transduction Grammar(2)规则形式:l A B C l A l

    5、 A x/y产生源语言和目标语言串分别为:lBC BC:词序相同lBC CB:词序交换lx y:词典NLP课题组例会报告2002-12-6Pattern-based CFG for Pattern-based CFG for MT(1)MT(1)每个翻译模板由一个源语言上下文无关规则和一个目标语言上下文无关规则(这两个规则称为翻译模板的骨架),以及对这两个规则的中心词约束和链接约束构成;举例:S:2 NP:1 岁:MP:2 了S:be NP:1 be year:NP:2 oldNLP课题组例会报告2002-12-6Pattern-based CFG for Pattern-based CFG

    6、for MT(2)MT(2)中心词约束:对于上下文无关语法规则中右部(子结点)的每个非终结符,可以指定其中心词;对于规则左部(父结点)的非终结符,可以直接指定其中心词,也可以通过使用相同的序号规定其中心词等于其右部的某个非终结符的中心词;链接约束:源语言骨架和目标语言骨架的非终结符子结点通过使用相同的序号建立对应关系,具有对应关系的非终结符互为翻译。NLP课题组例会报告2002-12-6信源信道模型假设目标语言文本T是由一段源语言文本S经过某种奇怪的编码得到的,那么翻译的目标就是要将T 还原成S,这也就是就是一个解码的过程。注意,源语言S是噪声信道的输入语言,目标语言T是噪声信道的输出语言,与

    7、整个机器翻译系统的源语言和目标语言刚好相反。P(S)P(TS)NLP课题组例会报告2002-12-6统计机器翻译基本方程式P.Brown称上式为统计机器翻译基本方程式l语言模型:P(S)l翻译模型:P(T|S)语言模型反映“S 像一个句子”的程度:流利度翻译模型反映“T像S”的程度:忠实度联合使用两个模型效果好于单独使用翻译模型,因为后者容易导致一些不好的译文。)|()(maxargSTPSPSSNLP课题组例会报告2002-12-6语言模型与翻译模型考虑汉语动词“打”的翻译:有几十种对应的英语词译文:打人,打饭,打鱼,打毛衣,打猎,打草稿,如果直接采用翻译模型,就需要根据上下文建立复杂的上下

    8、文条件概率模型如果采用信源信道思想,只要建立简单的翻译模型,可以同样达到目标词语选择的效果:l翻译模型:不考虑上下文,只考虑单词之间的翻译概率l语言模型:根据单词之间的同现选择最好的译文词NLP课题组例会报告2002-12-6统计机器翻译的三个问题三个问题:l语言模型P(S)的参数估计l翻译模型P(T|S)的参数估计l解码(搜索)算法NLP课题组例会报告2002-12-6语言模型把一种语言理解成是产生一个句子的随机事件语言模型反映的是一个句子在一种语言中出现的概率语言模型lN元语法P(S)=p(s0)*p(s1|s0)*p(Sn|Sn-1Sn-N)l链语法:可以处理长距离依赖lPCFG(要使用

    9、句法标记)NLP课题组例会报告2002-12-6引入隐含变量:对齐A翻译模型与对齐ASATPSTP)|,()|(P(T|S)的计算转化为P(T,A|S)的估计对齐:建立源语言句子和目标语言句子的词与词之间的对应关系NLP课题组例会报告2002-12-6IBM Model对P(T,A|S)的估计IBM Model 1仅考虑词对词的互译概率IBM Model 2加入了词的位置变化的概率IBM Model 3加入了一个词翻译成多个词的概率IBM Model 4IBM Model 5NLP课题组例会报告2002-12-6IBM Model 3对于句子中每一个英语单词e,选择一个产出率,其概率为n(|e

    10、);对于所有单词的产出率求和得到m-prime;按照下面的方式构造一个新的英语单词串:删除产出率为0的单词,复制产出率为1的单词,复制两遍产出率为2的单词,依此类推;在这m-prime个单词的每一个后面,决定是否插入一个空单词NULL,插入和不插入的概率分别为p1和p0;0为插入的空单词NULL的个数。设m为目前的总单词数:m-prime+0;根据概率表t(f|e),将每一个单词e替换为外文单词f;对于不是由空单词NULL产生的每一个外语单词,根据概率表d(j|i,l,m),赋予一个位置。这里j是法语单词在法语串中的位置,i是产生当前这个法语单词的对应英语单词在英语句子中的位置,l是英语串的长

    11、度,m是法语串的长度;如果任何一个目标语言位置被多重登录(含有一个以上单词),则返回失败;给空单词NULL产生的单词赋予一个目标语言位置。这些位置必须是空位置(没有被占用)。任何一个赋值都被认为是等概率的,概率值为1/0。最后,读出法语串,其概率为上述每一步概率的乘积。NLP课题组例会报告2002-12-6翻译模型的参数训练Viterbi Training(对比:EM Training)给定初始参数;用已有的参数求最好(Viterbi)的对齐;用得到的对齐重新计算参数;回到第二步,直到收敛为止。IBM Model 1:存在全局最优1.IBM Model 25:不存在全局最优,初始值取上一个模型

    12、训练的结果NLP课题组例会报告2002-12-6统计机器翻译的解码借鉴语音识别的搜索算法:堆栈搜索参数空间极大,搜索不能总是保证最优从错误类型看,只有两种:l模型错误:概率最大的句子不是正确的句子l搜索错误:没有找到概率最大的句子后一类错误只占总错误数的5%(IBM)搜索问题不是瓶颈NLP课题组例会报告2002-12-6IBM公司的Candide系统 1基于统计的机器翻译方法分析转换生成l中间表示是线性的l分析和生成都是可逆的分析(预处理):1.短语切分 2.专名与数词检测3.大小写与拼写校正4.形态分析 5.语言的归一化NLP课题组例会报告2002-12-6IBM公司的Candide系统 2

    13、转换(解码):基于统计的机器翻译解码分为两个阶段:l第一阶段:使用粗糙模型的堆栈搜索l输出140个评分最高的译文l语言模型:三元语法l翻译模型:EM算法l第二阶段:使用精细模型的扰动搜索l对第一阶段的输出结果先扩充,再重新评分l语言模型:链语法l翻译模型:最大熵方法NLP课题组例会报告2002-12-6IBM公司的Candide系统 3ARPA的测试结果:FluencyFluencyAdequacyAdequacyTime RatioTime Ratio199219921993199319921992199319931992199219931993SystranSystran.466.466.

    14、540.540.686.686.743.743CandideCandide.511.511.580.580.575.575.670.670TransmanTransman.819.819.838.838.837.837.850.850.688.688.625.625ManualManual.833.833.840.840NLP课题组例会报告2002-12-6JHU的2019年夏季研讨班由来lIBM的实验引起了广泛的兴趣lIBM的实验很难重复:工作量太大目的l构造一个统计机器翻译工具(EGYPT)并使它对于研究者来说是可用的(免费传播);l在研讨班上用这个工具集构造一个捷克语英语的机器翻译系统;

    15、l进行基准评价:主观和客观;l通过使用形态和句法转录机改进基准测试的结果;l在研讨班最后,在一天之内构造一个新语对的翻译器。JHU夏季研讨班大大促进了统计机器翻译的研究 NLP课题组例会报告2002-12-6EGYPT工具包EGYPT的模块lGIZA:这个模块用于从双语语料库中抽取统计知识(参数训练)lDecoder:解码器,用于执行具体的翻译过程(在信源信道模型中,“翻译”就是“解码”)lCairo:整个翻译系统的可视化界面,用于管理所有的参数、查看双语语料库对齐的过程和翻译模型的解码过程lWhittle:语料库预处理工具1.EGYPT可在网上免费下载,成为SMT的基准NLP课题组例会报告2

    16、002-12-6EGYPT工具包的性能 “当解码器的原形系统在研讨班上完成时,我们很高兴并惊异于其速度和性能。1990年代早期在IBM公司举行的DARPA机器翻译评价时,我们曾经预计只有很短(10个词左右)的句子才可以用统计方法进行解码,即使那样,每个句子的解码时间也可能是几个小时。在早期IBM的工作过去将近10年后,摩尔定律、更好的编译器以及更加充足的内存和硬盘空间帮助我们构造了一个能够在几秒钟之内对25个单词的句子进行解码的系统。为了确保成功,我们在搜索中使用了相当严格的阈值和约束,如下所述。但是,解码器相当有效这个事实为这个方向未来的工作预示了很好的前景,并肯定了IBM的工作的初衷,即强

    17、调概率模型比效率更重要。”引自JHU统计机器翻译研讨班的技术报告NLP课题组例会报告2002-12-6对IBM方法的改进IBM方法的问题l不考虑结构:能否适用于句法结构差别较大的语言?l数据稀疏问题严重后续的改进工作l王野翊的改进lYamada和Knight的改进lOch等人的改进NLP课题组例会报告2002-12-6王野翊的改进(1)背景:德英口语翻译系统l语法结构差异较大l数据稀疏(训练数据有限)改进:两个层次的对齐模型l粗对齐:短语之间的对齐l细对齐:短语内词的对齐NLP课题组例会报告2002-12-6王野翊的改进(2)文法推导l词语聚类:基于互信息的方法l短语归并l规则学习优点l机器翻

    18、译的正确率提高:错误率降低了11%l提高了整个系统的效率:搜索空间更小l缓解了因口语数据缺乏导致的数据稀疏问题NLP课题组例会报告2002-12-6Yamada和Knight的改进(1)基于语法的翻译模型(Syntax-based TM):l输入是源语言句法树l输出是目标语言句子翻译的过程:l每个内部结点的子结点随机地重新排列:排列概率l在每一个结点的左边或右边随机插入一个单词l左、右插入和不插入的概率取决于父结点和当前结点标记l插入哪个词的概率只与被插入词有关,与位置无关 l对于每一个叶结点进行翻译:词对词的翻译概率l输出译文句子NLP课题组例会报告2002-12-6Yamada和Knigh

    19、t的改进(2)NLP课题组例会报告2002-12-6Yamada和Knight的改进(3)NLP课题组例会报告2002-12-6Yamada和Knight的改进(4)NLP课题组例会报告2002-12-6Yamada和Knight的改进(5)训练l英日词典例句2121对,平均句长日9.7和英6.9l词汇量:英语3463,日语3983,大部分词只出现一次lBrills POS Tagger和Collins Parserl用中心词词性标记取得短语标记l压扁句法树:中心词相同的句法子树合并lEM训练20遍迭代:IBM Model 5用20遍迭代NLP课题组例会报告2002-12-6Yamada和Kn

    20、ight的改进(6)困惑度Perplexity:Our Model:15.70IBM Model:9.84(Over-fitting)Alignmentave.scorePerfectsentsOurModel0.58210IBMModel50.4310结果NLP课题组例会报告2002-12-6Och等人的改进(1)著名语音翻译系统VerbMobil的一个模块对IBM方法的改进l基于类的模型:词语自动聚类:各400个类l语言模型:基于类的五元语法,回退法平滑l翻译模型:基于对齐模板的方法l短语层次对齐l词语层次对齐l短语划分:动态规划NLP课题组例会报告2002-12-6Och等人的改进(2)

    21、对齐模板NLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(1)Och等人提出,思想来源于Papineni提出的基于特征的自然语言理解方法不使用信源信道思想,直接使用统计翻译模型,因此是一种直接翻译模型是一个比信源信道模型更具一般性的模型,信源信道模型是其一个特例与一般最大熵方法的区别:使用连续量作为特征NLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(2)假设e、f是机器翻译的目标语言和源语言句子,h1(e,f),hM(e,f)分别是e、f上的M个特征,1,M是与这些特征分别对应的M个参数,那么直接翻译概率可以用以下公式模拟:11.),(exp),(exp

    22、)|()|Pr(1eMmmmMmmmfehfehfepfeMNLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(3)对于给定的f,其最佳译文e可以用以下公式表示:Mmmmeefehfee1),(maxarg)|Pr(maxargNLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(4)取以下特征和参数时等价于信源信道模型:l仅使用两个特征lh1(e,f)=log p(e)lh2(e,f)=log p(f|e)l121 NLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(5)参数训练最优化后验概率准则:区别性训练这个判断准则是凸的,存在全局最优考虑多

    23、个参考译文:NLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(6)Och等人的实验(1):方案l首先将信源信道模型中的翻译模型换成反向的翻译模型,简化了搜索算法,但翻译系统的性能并没有下降;l调整参数1和2,系统性能有了较大提高;l再依次引入其他一些特征,系统性能又有了更大的提高。NLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(7)Och等人的实验(2):其他特征l句子长度特征(WP):对于产生的每一个目标语言单词进行惩罚;l附件的语言模型特征(CLM):一个基于类的语言模型特征;l词典特征(MX):计算给定的输入输出句子中有多少词典中存在的共现词对。NL

    24、P课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(8)Och等人的实验(2):实验结果NLP课题组例会报告2002-12-6基于最大熵的统计机器翻译模型(9)经典的信源信道模型只有在理想的情况下才能达到最优,对于简化的语言模型和翻译模型,取不同的参数值实际效果更好;最大熵方法大大扩充了统计机器翻译的思路;特征的选择更加灵活。NLP课题组例会报告2002-12-6统计机器翻译的应用传统机器翻译的应用领域跨语言检索l聂建云使用IBM Model 1进行CLIR机器翻译系统的快速开发l针对未知语言l快速开发NLP课题组例会报告2002-12-6总结IBM当年的工作是有一定超前性的虽然很

    25、多人怀疑统计方法在机器翻译中能否取得成功,但现在这已不再是问题基于平行语法的机器翻译方法总体上不成功基于最大熵的方法为统计机器翻译方法开辟了一个新天地NLP课题组例会报告2002-12-6我的工作设想采用基于最大熵的统计机器翻译模型;提出基于模板的统计翻译模型:l句法树对齐l抽取翻译模板l基于模板翻译模型其它特征l汉语词法分析l汉语句法分析NLP课题组例会报告2002-12-6参考文献(1)Al-Onaizan 2019 Yaser Al-Onaizan,Jan Curin,Michael Jahr,Kevin Knight,John Lafferty,Dan Melamed,Franz-Jo

    26、sef Och,David Purdy,Noah A.Smith and David Yarowsky(2019).Statistical Machine Translation:Final Report,Johns Hopkins University 2019 Summer Workshop on Language Engineering,Center for Speech and Language Processing,Baltimore,MD.Alshawi 2019 Alshawi,H.,Bangalore,S.and Douglas,S.Automatic Acquisition

    27、of Hierarchical transduction models for machine translation,Proc.36th Conf.Association of Computational Linguistics,Montreal,Canada,2019.Berger 1994 Berger,A.,P.Brown,S.Della Pietra,V.Della Pietra,J.Gillett,J.Lafferty,R.Mercer,H.Printz,L Ures,The Candide System for Machine Translation,Proceedings of

    28、 the DARPA Workshop on Human Language Technology(HLT)Berger 2019 A.L.Berger,S.A.Della Pietra,and V.J.Della Pietra.A maximum entropy approach to natural language processing.Computational Linguistics,22(1):39-72,March 2019.Brown 1990 Peter F.Brown,John Cocke,Stephen A.Della Pietra,Vincent J.Della Piet

    29、ra,Fredrick Jelinek,John D.Lafferty,Robert L.Mercer,Paul S.Roossin,A Statistical Approach to Machine Translation,Computational Linguistics,1990 NLP课题组例会报告2002-12-6参考文献(2)Brown 1993 Peter.F.Brown,Stephen A.Della Pietra,Vincent J.Della Pietra,Robert L.Mercer,The Mathematics of Statistical Machine Tran

    30、slation:Parameter Estimation,Computational Linguistics,Vol 19,No.2,1993 Ker 2019 Sue J.Ker,Jason S.Chang,A Class-based Approach to Word Alignment,Computational Linguistics,Vol.23,No.2,Page 313-343,2019Knight 2019 Kevin Knight,A Statistical Machine Translation Tutorial Workbook.unpublished,prepared i

    31、n connection with the JHU summer workshop,August 2019.(available at clsp.jhu.edu/ws99/projects/mt/wkbk.rtf).Och 2019 Franz Josef Och and Hans Weber.Improving statistical natural language translation with categories and rules.In Proc.Of the 35th Annual Conf.of the Association for Computational Lingui

    32、stics and the 17th Int.Conf.on Computational Linguistics,pages 985-989,Montreal,Canada,August 2019.Och 2019 F.J.Och,C.Tillmann,and H.Ney.Improved alignment models for statistical machine translation.In Proc.of the Joint SIGDAT Conf.On Empirical Methods in Natural Language Processing and Very Large C

    33、orpora,pages 20-28,University of Maryland,College Park,MD,June 2019.NLP课题组例会报告2002-12-6参考文献(3)Och 2019 Franz Josef Och,Hermann Ney.What Can Machine Translation Learn from Speech Recognition?In:proceedings of MT 2019 Workshop:Towards a Road Map for MT,pp.26-31,Santiago de Compostela,Spain,September 2

    34、019.Och 2019 Franz Josef Och,Hermann Ney,Discriminative Training and Maximum Entropy Models for Statistical Machine Translation,ACL2019Papineni 2019 K.A.Papineni,S.Roukos,and R.T.Ward.2019.Feature-based language understanding.In European Conf.on Speech Communication and Technology,pages 1435-1438,Rh

    35、odes,Greece,September.Papineni 2019 K.A.Papineni,S.Roukos,and R.T.Ward.2019.Maximum likelihood and discriminative training of direct translation models.In Proc.Int.Conf.on Acoustics,Speech,and Signal Processing,pages 189-192,Seattle,WA,May.Takeda 2019 Koichi Takeda,Pattern-Based Context-Free Grammar

    36、s for Machine Translation,Proc.of 34th ACL,pp.144-151,June 2019Wang 2019a Y.Wang and A.Waibel.Modeling with Structures in Statistical Machine Translation.In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Ling

    37、uistics Montreal,Canada.August 2019.NLP课题组例会报告2002-12-6参考文献(4)Wang 2019b Ye-Yi Wang,Grammar Inference and Statistical Machine Translation,Ph.D Thesis,Carnegie Mellon University,2019Wu 2019 Dekai Wu.Stochastic Inversion Transduction Grammars,with Application to Segmentation,Bracketing,and Alignment o

    38、f Parallel Corpora.14th Intl.Joint Conf.On Atifical Intelligence,pp1328-1335,Montreal,Aug,2019.IJCAI-95Wu 2019 Dekai Wu,Stochastic Inversion Transduction Grammars and Bilingual Parsing of Parallel Corpora,Computational Linguistics Vol.23 No.3 2019.Yamada 2019 K.Yamada and K.Knight,A Syntax-Based Statistical Translation Model,in Proc.of the Conference of the Association for Computational Linguistics(ACL),2019NLP课题组例会报告2002-12-6谢谢

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:统计机器翻译简介ppt课件-.ppt
    链接地址:https://www.163wenku.com/p-3157160.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库