在语言学课程中,我们使用隐马尔可夫模型实现了词性 (POS) 标注,其中隐藏变量是词性。我们使用一些标注数据训练了系统,然后对其进行了测试,并将结果与黄金数据进行了比较。
是否有可能在没有标注训练集的情况下训练 HMM?
回答:
理论上你可以做到。 在这种情况下,你将使用 Baum-Welch 算法。《Rabiner 的 HMM 教程》对此有非常好的描述。
但是,如果将 HMM 应用于词性标注,使用标准形式获得的误差将不会令人满意。 它是一种期望最大化方法,仅收敛到局部最大值。 如果我没记错的话,基于规则的方法远胜过 HMM。
我相信 Python 的自然语言工具包 NLTK 具有专门用于此目的的 HMM 实现。