数字语音识别的基本步骤
数字语音识别的基本模型如下图所示。首先对语音进行处理之后,使用声学模型进行解码,之后将音节与词表进行匹配得到词序列,最后再使用语言模型得到语句。
在中间的过程中,通过解码后的音学信号序列得到词语序列。常规的方法是使用贝叶斯来计算词语的概率值。
假设X是声学信号序列,W是词语序列,那么贝叶斯公式为PΛ(W∣X)=PλX(X∣W)P(X)PλW(W)。在训练的过程中是要最大化maxΛPΛ(W∣X),在语音解码得到词语序列的时候则是最大化maxWPΛ(W∣X)。
语音识别模型
语音识别常用的模型包括动态时间规整(Dyanmic Time Warping)、矢量量化(Vector Quantization)、隐马尔可夫模型(Hidden Markov Models)。
隐马尔可夫模型
高斯混合密度分布刻画了语音状态(例如音素)以及语音状态之间的时序变迁的统计规律。基本的过程包含三步。
- 评估:给定观测向量Y和模型,利用前向后向算法计算得分;
- 匹配:给定观测向量Y,用Viterbi算法确定一个优化的状态序列;
- 训练:用Baum-Welch算法(类似于EM)重新估计参数,使得得分最大。
已知一个有限的离散状态序列S={q1,q2,…,qN−1,qN},从时间t到时间t+1,保持当前状态或迁移到另一个状态。从时刻t状态为qi迁移到时刻t+1状态为qj,概率为aij=P(qt+1=j∣qt=i),1≤i,j≤N。这样就可以得到状态之间的迁移概率矩阵。
A=⎣⎢⎢⎡a11a21…aN1a12a22…aN2…………a1Na2N…aNN⎦⎥⎥⎤
在矩阵A中,aij满足aij≥0,∀ij,且∑j=1Naij=1,∀i。
马尔可夫有两个基本假设:一是过程是无记忆的,即P(qt+1=j∣qt=i,qt−1=k,…)=P(qt+1=j∣qt=i);二是马尔可夫过程是时间同质(homogeneous)的,即P(qt+1=j∣qt=i)=P(qt+1+k=j∣qt+k=i)。
在计算某个序列的概率的时候,可以利用马尔可夫的链式规则来计算。例如,计算序列q1,q2,⋯,qT的概率,
P(q1,q2,…,qT)=P(qT∣q1,q2,…,qT−1)P(q1,q2,…,qT−1)=P(qT∣qT−1)P(q1,q2,…,qT−1)=⋯=P(qT∣qT−1)P(qT−1∣qT−2)⋯P(q2∣q1)P(q1)
上面都是离散状态的隐马尔可夫模型,对于连续的马尔可夫模型,观察值是连续的随机变量X。某个状态j对应的观察值统计特性由一个观察值概率密度函数bj(X)表示。
前向后向算法
前向后向算法用来计算一个给定观察值序列O=O1,O2,…,OT以及一个模型λ=(π,A,B),P(O∣λ)的概率。
设问题为计算P(O1,O2,…,OT∣λ),状态序列为q=(q1,q2,…,qT),假设观察值之间是相互独立的,则P(O∣q,λ)=Πi=1TP(Ot∣qt,λ)=bq1(O1)bq2(O2)…bqT(OT)。如果目标是计算出概率最大的那个序列,直接用这个公式一一计算,则需要计算NT个状态序列。因此,使用前向后向算法相比之下更为高效。前向后向算法类似于动态规划过程。定义前向过程变量αt(i)=P(O1,O2,…,Ot,qt=θi∣λ),1≤t≤T,αt(i)是从时刻1至当前时刻t的观察序列的概率(不是全部序列的概率)。
前向算法计算过程包括三个步骤。初始时刻的步骤为α1(i)=πibi(oi),之后就是逐时刻递推αt+1(j)=[∑i=1Nαt(i)αij]bj(oi+1)。在最终的结束时刻,P(O∣λ)=∑i=1NαT(i)。后向算法与前向算法类似,计算顺序上是从后向前计算。
维特比算法
- 初始化:δ1(i)=πibi(O1),1≤i≤N, ψ1(i)=0
- 递推过程:δt(j)=max1≤i≤N[δt−1(i)αij]bi(Ot),2≤t≤T,1≤j≤N,
ψt(j)=argmax1≤i≤N[δt−1(i)αij],2≤t≤T,1≤j≤N
- 终止:P∗=max1≤i≤N[δT(i)],
qT∗=argmax1≤i≤N[δT(i)]
最终反向递推得到最佳序列 qt∗=ψt+1(qt+1∗),t=T−1,T−2,…,1。
隐马尔可夫模型可以固定的使用某个语料库得到初始概率分布以及转移矩阵等参数。同样,该模型能够进行训练,从而能够更好的标注特定语料下的语句。
设模型表示为λ(A,B,π),目标是最大化P(O∣λ)。训练的过程可以描述如下:
- 初始化模型参数 λ0;
- 使用观测序列O和模型参数λ得到新的模型λ;
-
λ←λ;
- 重复步骤2-3,直到 logP(O∣λ)−logP(O∣λ0)<d