HMM的理论基础一、HMM定义1
N:模型中状态的数目,记t时刻Markov链所处的状态为2
M:每个状态对应的可能的观察数目,记t时刻观察到的观察值为3
:初始状态概率矢量,,,4
A:状态转移概率矩阵,,,5
B:观察值概率矩阵(适用于离散HMM),,,;对于连续分布的HMM,记t时刻的观察值概率为一个离散型的HMM模型可以简约的记为
二、关于语音识别的HMM的三个基本问题1
已知观察序列和模型参数,如何有效的计算
直接计算2-1当N=5,T=100时大概需进行次乘法
前向算法定义t时刻的前向变量(forwardvariable),可以通过迭代的方法来计算各个时刻的前向变量:1)初始化(Initialization)当t=1时2-22)递归(Induction)当时即:2-33)终结(Termination)2-4乘法次数大约为:N2Tc
后向算法定义t时刻的后向变量(backwardvariable),可以通过迭代的方法来计算各个时刻的后向变量:1)初始化(Initialization)当t=T时,2-52)递归(Induction)当时即:,2-63)终结(Termination)2-7乘法计算次数约为:N2T2
已知观察序列和模型参数,在最佳意义上确定一个状态序列
定义一个后验概率变量(posterioriprobabilityvariable)2-7则最优序列可以通过,2-7求得
不过,这样求得的最优序列有些问题
如果,那么这个最优序列本身就不存在
这里讨论的最佳意义上的最优序列,是使最大化时的确定的状态序列
即,使最大化时确定的状态序列
定义为t时刻沿一条路径,且,输出观察序列的最大概率,即:2-8下面介绍迭代计算的Viterbi算法:1)初始化(Initialization),回溯变量:,2)递归(Induction)即:2-82-93)终结(Ter