电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

HMM的理论基础

HMM的理论基础_第1页
1/7
HMM的理论基础_第2页
2/7
HMM的理论基础_第3页
3/7
HM M 的理论基础 一、 HMM 定义 1. N:模型中状态的数目,记t 时刻Markov 链所处的状态为 2. M:每个状态对应的可能的观察数目,记t 时刻观察到的观察值为 3. :初始状态概率矢量,,, 4. A:状态转移概率矩阵,,, 5. B :观察值概率矩阵(适用于离散HMM ),,,;对于连续分布的HMM,记t 时刻的观察值概率为 一个离散型的HMM 模型可以简约的记为。 二、关于语音识别的 HMM 的三个基本问题 1. 已知观察序列和模型参数,如何有效的计算。 a. 直接计算 2-1 当N=5,T=100 时大概需进行次乘法! b. 前向算法 定义t 时刻的前向变量(forward variable),可以通过迭代的方法来计算各个时刻的前向变量: 1) 初始化(Initialization) 当t=1 时 2-2 2) 递归(Induction) 当时 即: 2-3 3) 终结(Termination) 2-4 乘法次数大约为:N2T c. 后向算法 定义t 时刻的后向变量(backward variable),可以通过迭代的方法来计算各个时刻的后向变量: 1) 初始化(Initialization) 当t=T 时 , 2-5 2) 递归(Induction) 当 时 即:, 2-6 3) 终结(Termination) 2-7 乘法计算次数约为:N2T 2 . 已知观察序列和模型参数,在最佳意义上确定一个状态序列。 定义一个后验概率变量(posteriori probability variable) 2-7 则最优序列可以通过, 2-7 求得。不过,这样求得的最优序列有些问题。如果,那么这个最优序列本身就不存在。这里讨论的最佳意义上的最优序列,是使最大化时的确定的状态序列。即,使最大化时确定的状态序列。 定义为 t 时刻沿一条路径,且,输出观察序列的最大概率,即: 2-8 下面介绍迭代计算的 Viterbi 算法: 1) 初始化(Initialization) , 回溯变量:, 2) 递归(Induction) 即: 2-8 2-9 3) 终结(Termination) 2-10 2-11 4) 回溯状态序列 , 2-12 3 . 已知观察序列和模型参数,如何调整模型参数使最大。 定义 3.1 给定训练序列和模型,时刻 Markov 链处在状态和时刻处在状态的概率定义如下 3-1 定义 3.2 给定训练序列和模型,时刻 Markov 链处在状态的概率定义如下 3-2 定义 3.3 给定训练序列和模型,从状态转移出去的概率为 定义 3.4 给定训练序列和模型,从状态转移到状态的概率为 利用 Bau m-Welch 重估算法可以得到使 局部最大时的参数更新公式。 1. Baum-Welch 重估...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

HMM的理论基础

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部