我打算将使用Kevin Murphy工具包的MATLAB脚本重写成Python。
我知道Python中有一些HMM算法的实现(Viterbi、Baum Welch、Backward Forward),所以我认为我已经具备了将MATLAB转换为Python所需的一切。
我的MATLAB脚本使用了learn_dhmm.m中编写的过程:
function [LL, prior, transmat, obsmat, gamma] = learn_dhmm(data, prior, transmat, obsmat, max_iter, thresh, verbose, act, adj_prior, adj_trans, adj_obs, dirichlet)% LEARN_HMM 使用EM算法寻找具有离散输出的HMM的最大似然参数。%% [LL, PRIOR, TRANSMAT, OBSMAT] = LEARN_HMM(DATA, PRIOR0, TRANSMAT0, OBSMAT0) % 计算以下参数的最大似然估计,其中,对于每个时间t,Q(t)是隐藏状态,% Y(t)是观测值% prior(i) = Pr(Q(1) = i)% transmat(i,j) = Pr(Q(t+1)=j | Q(t)=i)% obsmat(i,o) = Pr(Y(t)=o | Q(t)=i)% 它使用PRIOR0作为PRIOR的初始估计,等等。
我不明白这个过程实际上做了什么。
抱歉,我只是刚开始接触机器学习
回答:
我认为注释已经解释得很清楚了:使用EM算法寻找具有离散输出的HMM的最大似然参数。
你可以阅读这篇经典论文来理解HMM:隐藏马尔可夫模型及其在语音识别中的选定应用教程,L. Rabiner,1989年,Proc. IEEE 77(2):257–286。
上面的函数解决了论文中第264页的问题3。