我使用Baum-Welch算法构建了几种隐马尔可夫模型,状态数量逐渐增加。我注意到在超过8个状态后,验证分数开始下降。因此我想知道,隐马尔可夫模型的准确率是否可能由于某种过拟合而随着状态数量的增加而下降?
提前感谢!
回答:
为了清晰起见,我在这里提出一个非常简化的现象说明。
假设你用数据序列(A-B-A-B)训练你的隐马尔可夫模型。你使用一个2状态的隐马尔可夫模型。自然地,状态1会优化自己来表示A,状态2会表示B(或者相反)。然后,你有一个新的序列(A-B-A-B)。你想知道这个序列相对于你的隐马尔可夫模型的可能性。Viterbi算法会发现最可能的状态序列是(1-2-1-2),而Baum-Welch算法会给这个序列一个高可能性,因为状态序列和新序列的“值”(如果处理的是连续数据)明显与你的训练序列匹配。
现在假设你用相同的训练序列(A-B-A-B)训练一个3状态的隐马尔可夫模型。你数据的初始聚类很可能将隐马尔可夫模型的前两个状态分配给符号A的表示,最后一个状态分配给符号B(或者再次相反)。
所以现在,查询序列(A-B-A-B)可以表示为状态序列(1-3-1-3)或(2-3-2-3)或(1-3-2-3)或(2-3-1-3)!这意味着对于这个3状态的隐马尔可夫模型,两个相同的序列(A-B-A-B)可能对隐马尔可夫模型来说相似度很低。这就是为什么对于任何隐马尔可夫模型和任何数据集,超过一定数量的状态后,性能会下降的原因。
你可以使用贝叶斯信息准则、赤池信息准则、最小消息长度准则等标准来估计最佳状态数量,或者如果你只是想得到一个模糊的概念,可以使用k-means聚类结合解释的方差百分比。前三个标准很有趣,因为它们包括一个与模型参数数量相关的惩罚项。
希望这对你有帮助!:)