我已经阅读了这个问题中链接的论文。我部分理解了。能有人帮我弄清楚如何实现它吗?
我假设特征是由某种启发式方法生成的。以词性标注器为例;也许通过查看训练数据发现'bird'
在所有情况下都被标记为NOUN
,所以生成特征f1(z_(n-1),z_n,X,n)
如下:
(if x_n = 'bird' and z_n = NOUN then 1 else 0)
其中X
是输入向量,Z
是输出向量。在训练权重时,我们发现这个f1
从未被违反,因此对应的权重\1
(\
代表lambda)在训练后会变为正值且相对较大。猜测特征和训练似乎都具有挑战性,但其他方面似乎直观明了。
我对如何将模型应用于未标记数据感到困惑。是否应该用一些任意标签初始化输出向量,然后在增加所有\ * f
的总和的地方更改标签?
任何帮助都将不胜感激。
回答:
我不完全确定我是否正确理解了你的意思,但确实,在输出端,每个向量都增加了开始和结束符号。
你关于特征函数由某种启发式方法生成的说法也是正确的。通常的启发式方法是考虑所有可能的组合。在你的例子中,每对(单词,标签)都会有一个特征函数,导致特征数量非常多。一种常见的表达这些特征的方法是使用特征模板。
在评估模型时,你不需要关心归一化,所以你寻找的是给你最大分子项的序列。通常使用维特比算法来实现这一点,除非标签集非常大——或者在你的例子中是可能的标签数量很大——在这种情况下会使用近似方法。
条件随机场上的维特比算法与隐马尔可夫模型非常相似。你从序列的开始处开始,计算以手头单词结束的最大概率,即每个单词在所有前驱中的最大值,或者,由于只有一个前驱,即START符号。在下一步中,你遍历所有可能的标签,这些标签是你的预测的第二个元素,即z_2。未归一化概率的最大值可以从前驱节点的值计算得出,即你在第一步中计算的值和你的模型。特别是,你结合前驱的潜力、到所讨论节点的转换以及节点本身的潜力,并在所有前驱中找到最大值。是的,因为特征函数不限制对源端的依赖,你可以从中获取任何信息。
当你到达末尾时,你可以回溯以确定最大值是如何达到的。
我推荐阅读Rahul Gupta的报告以获取更多信息。