隐马尔可夫模型课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《隐马尔可夫模型课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 隐马尔可夫 模型 课件
- 资源描述:
-
1、Ch 04. 参数模型Part 1 隐马尔可夫模型马尔可夫链 状态状态 t时刻的状态 长度为T的离散时间上的状态序列例如: 转移概率转移概率(矩阵) 为从状态 到 的转移概率,1,2,iiij马尔可夫链 状态转移图 马尔可夫链 j-阶马尔可夫过程阶马尔可夫过程 下一时刻为某个状态的概率仅与最近的j个状态有关 一阶马尔可夫过程一阶马尔可夫过程 任一时刻为某状态的概率仅与上一时刻的状态相关仅与最近的j个状态有关仅与上一个状态有关隐马尔可夫模型 隐马尔可夫模型隐马尔可夫模型(Hidden Markov Model,缩写,缩写为为HMM) 状态不可见不可见 在t时刻,隐藏的状态以一定的概率激发出可见的
2、可见的符号符号 ,其取值表示为 长度为T的离散时间上的可见符号序列例如: 观察到可见符号的概率(1), (2), ( )Txxx TX6511523,v v v v v vX( ( )|( )jkkjbP x tvt1jkkb( )x t123,v v v 隐马尔可夫模型 状态转移图一个例子 盒子编号不可见 每次从任一盒子中取出一个小球 隐藏状态隐藏状态:盒子编号 可见符号可见符号:小球 盒子i中取出各种小球的概率 得到某个特定小球序列的概率?离散HMM的符号表示隐藏状态集隐藏状态集可见符号集可见符号集状态序列状态序列观察序列观察序列状态转移概率状态转移概率观察到可见符号的概率观察到可见符号的
3、概率初始状态概率初始状态概率完整的完整的HMM参数向量参数向量HMM三大核心问题 估值问题估值问题 已知已知 观察到特定符号序列X HMM模型参数向量 求求 似然函数 解码问题解码问题 已知已知 观察到特定符号序列X HMM模型参数向量 求 最有可能产生X的隐状态序列HMM三大核心问题 学习(或参数估计)问题学习(或参数估计)问题 已知已知 观察到特定符号序列X 求求 模型参数向量 的估计值例如:ML估计估值问题 直接计算直接计算HMM模型产生可见长度为T的符号序列X的概率其中, 表示状态 的初始概率假设HMM中有c个隐状态,则计算复杂度为 !例如:c=10,T=20,基本运算1021次!(1
4、)()TO c T估值问题 解决方案 递归计算t时刻的计算仅涉及上一步的结果,以及 , ,和 HMM向前算法向前算法 HMM向后算法向后算法( ) t(1)t( )x t估值问题 HMM向前算法向前算法定义 :t时刻在状态时刻在状态i,并且已观察到,并且已观察到x(1),x(2), x(t)的概率的概率 初始化初始化对每一个隐状态i,计算 递归递归for t=2 to T对每一个隐状态j,计算end 最后最后2()()TO c TO c T计算复杂度计算复杂度( )it估值问题 HMM向前算法向前算法估值问题 HMM向后算法向后算法(向前算法的(向前算法的时间反演时间反演版本)版本)定义 :t
5、时刻在状态时刻在状态i,并且已,并且已逆向逆向观察到观察到x(T),x(T-1), x(t)的概率的概率 初始化初始化对每一个隐状态i,计算 (假设T时刻每个状态的概率相同) 递归递归for t=T-1 to 1对每一个隐状态i,计算end 最后最后2()()TO c TO c T计算复杂度计算复杂度( )( )ix TibTc( )it( )1( )(1)ciijjix tjtatb1(| )(1)ciiiP X 例子 HMM为 :吸收状态吸收状态,即序列结束时的必然状态。该状态产生唯一的特殊可见符号v0,表示HMM过程结束例子 已知t=0时状态为 ,即 现观测到的序列为 计算HMM产生这个
6、特定观测序列的概率?10101112123130.2,0.3,0.1,0.4aaaa41320V ,v v v v例子 解HMM用于分类 为每一个类别建立一个HMM 每个HMM有自己的参数向量 ,该参数向量可以从属于类别i的样本中学习(估计)得到。 贝叶斯决策 决策结果i1(|) ()(|)(|) ()iiiciiiPPPPPX XX *argmax( (|) ()iiiiPPX HMM用于语音识别 “从左到右”(left-to-right)HMM 为每个单词发音建立一个HMM,其参数为 用向前算法计算发音序列X的类条件概率 取决于语言本身和上下文语义 用贝叶斯公式计算X的后验概率 最大后验概
7、率指示语音内容发音“viterbi”的“从左到右”HMM(|)iP X i()iP (|)iP X解码问题 已知一个观察序列XT,寻找最可能的隐状态序列 穷举法 把所有可能的隐状态序列的概率都计算一遍 计算复杂度()TO c T解码问题 Viterbi算法算法 初始化初始化对每个隐状态i,计算 递归递归for t=2 to T:对每一个隐状态j,计算end 最后最后for t=T-1 to 1(路径回溯):end2()()TO c TO c T计算复杂度计算复杂度例子 HMM为例子 已知t=0时状态为 ,即 现观测到的序列为 计算最可能的隐状态序列?10101112123130.2,0.3,0
8、.1,0.4aaaa41320V ,v v v v例子 解.00271(2)1练习:练习:把此图填写完整,并回溯最佳状态路径把此图填写完整,并回溯最佳状态路径解码问题 对于较长的序列,Viterbi算法可能导致计算机下下溢出溢出 改进改进:基于对数的Viterbi算法 优点 变乘为加 避免下溢出 结果与Viterbi算法一样解码问题 对数对数Viterbi算法算法 初始化初始化对每个隐状态i,计算 递归递归for t=2 to T:对每一个隐状态j,计算end 最后最后for t=T-1 to 1(路径回溯):end学习问题 从一组训练样本D=X1, X2, Xn 中,学习HMM的参数向量 不
9、存在根据训练集确定HMM最优参数的算法 常用算法向前向后算法向前向后算法(forward-backward algorithm)又称Baum-Welch重估计算法重估计算法(Baum-Welch re-estimation algorithm) 核心思想核心思想 通过递归方式更新HMM中的参数,以得到能够最好解释训练样本的HMM参数学习问题 Baum-Welch重估计公式重估计公式 已知X和 的情况下,t时刻为状态i,t+1时刻为状态j的后验概率(1)( )( )(| )iijjkjijTta bttPX向前向前向后向后1( )1( )( )kTjltlv tvjkTjltltbt 学习问题
10、向前向后算法向前向后算法 初始化 repeat基于 和X,利用Baum-Welch重估计公式计算 until 收敛 返回参数估计结果Part 2 贝叶斯置信网特征相关性 某些情况下,关于分布的先验知识并非直接是概率分布的形式,而是有关各个特征分量之间的统计相关性(或独立性)关系x1和x3统计独立,而其他特征对不独立相关性例子 汽车的状态 发动机温度 油温 油压 轮胎内气压 相关性 油压与轮胎内气压相互独立独立 油温与发动机温度相关相关贝叶斯置信网 用图的形式来表示特征之间的因果依赖性 贝叶斯置信网(贝叶斯置信网(Bayesian belief net) 因果网(因果网(causal netwo
11、rk) 置信网(置信网(belief net) 有向无环图 节点间的连线具有方向性方向性 图中无循环无循环路径 仅讨论离散情况贝叶斯置信网 每个节点节点A, B, C,代表一个系统变量(特征) 每个节点可能的离散取值 A的值:a1, a2, a3, 例如 A表示灯的状态 a1=开, a2=关,P(a1)=0.7,P(a2)=0.3 节点之间的有向连接连接表示变量之间的依赖关系 从A到C的连接表示 ,或 任意节点的状态可通过与其相连的节点的状态推断(|)ijP ca( | )P c a联合概率 线性链( , , , )( ) ( | ) ( | ) ( | )P a b c dP a P b a
12、 P c b P d c( , , )( | ) ( | )( ) ( | )aP b c dP c b P d cP a P b a( , )( | )( ) ( | ) ( | )abP c dP d cP a P b a P c b联合概率 简单回路( , , , )( ) (| ) (| ) ( |, )P e f g hP e P f e P g e P h f g( , , )( |, )( ) (| ) (| )eP f g hP h f gP e P f e P g e( , )( ) (| ) (| ) ( |, )efP g hP e P f e P g e P h f g
展开阅读全文