我可以在我的机器上使用SciPy对文本进行分类,但我想对HTTP POST请求中的字符串对象进行分类,要求接近实时处理。我的目标是高并发、接近实时的输出和小内存占用,我应该研究哪些算法?我考虑使用Go语言中的支持向量机(SVM)实现,但这是否是我用例的最佳算法?
回答:
是的,SVM(使用线性核)应该是一个很好的起点。你可以使用scikit-learn(我认为它封装了liblinear)来训练你的模型。模型学习完成后,模型只是一个你想要分类的每个类别的feature:weight
列表。假设你只有3个类别,可能会像这样:
class1[feature1] = weight11class1[feature2] = weight12...class1[featurek] = weight1k ------- 对于类别1... 不同的<feature, weight> ------ 对于类别2... 不同的<feature, weight> ------ 对于类别3,等等
在预测时,你完全不需要scikit-learn,你可以使用服务器后端的任何语言来进行线性计算。假设一个特定的POST请求包含特征(feature3, feature5),你需要做的是这样:
linear_score[class1] = 0linear_score[class1] += 查找class1中feature3的权重linear_score[class1] += 查找class1中feature5的权重linear_score[class2] = 0linear_score[class2] += 查找class2中feature3的权重linear_score[class2] += 查找class2中feature5的权重..... 对class3做同样的事情选择linear_score最高的class1, class2或class3
更进一步:如果你能以某种方式定义特征权重(例如,使用标记的tf-idf分数),那么你的预测可以变成:
linear_score[class1] += class1[feature3] x feature_weight[feature3]依此类推。
注意feature_weight[feature k]
通常对于每个请求都是不同的。由于对于每个请求,活跃特征的总数必须远小于考虑的特征总数(考虑50个标记或特征与你整个100万个标记的词汇量相比),预测应该非常快。我可以想象,一旦你的模型准备好,预测的实现可以基于一个键值存储(例如,redis)来编写。