大家好,我尝试搜索过这个话题,但没有找到满意的答案,所以希望有人能帮助我。假设我正在使用scikit-learn和Python创建一个机器学习模型。我的数据集如下所示:
| Features | Topic | Sub-Topic |
|----------|---------|------------------|
| ... | Science | Space |
| ... | Science | Engineering |
| ... | History | American History |
| ... | History | European History |
我的特征列表仅由一些文章中的小段落组成。现在我想使用机器学习来预测这些文本的主题和子主题是什么。
我知道我需要使用某种NLP来分析文本,比如spaCy。让我感到困惑的是如何处理两个输出变量:主题和子主题。我读到scikit-learn有一个叫做MultiOutputClassifier的东西,但也有MultiClass分类,所以我有点迷惑该选择哪条路。
能否有人指导我该使用哪种回归器或者如何实现这个目标?
回答:
所以MultiClass只是说在一个目标变量中有多个类别。MultiOutput意味着我们有多个目标变量。这里我们有一个MultiClass-MultiOutput
问题。
scikit-learn原生支持以下分类器的MultiClass-MultiOutput
:
sklearn.tree.DecisionTreeClassifiersklearn.tree.ExtraTreeClassifiersklearn.ensemble.ExtraTreesClassifiersklearn.neighbors.KNeighborsClassifiersklearn.neighbors.RadiusNeighborsClassifiersklearn.ensemble.RandomForestClassifier
我建议选择RandomForest,因为大多数情况下它能直接给出很好的结果。
为了展示RandomForestClassifier
用于多个目标的API,下面是一个虚构的示例:
### 仅用于测试功能的虚构示例np.random.seed(0)X = np.random.randn(10,2)y1 = (X[:,[0]]>.5).astype(int) # 制作虚构的y1y2 = (X[:,[1]]<.5).astype(int) # 制作虚构的y2y = np.hstack([y1,y2]) # y有两列print("X = ",X,sep="\n",end="\n\n")print("y = ",y,sep="\n",end="\n\n")rfc = RandomForestClassifier().fit(X, y) # 对多列y使用相同的API!out = rfc.predict(X)print("Output = ",out,sep="\n")
输出
X = [[ 1.76405235 0.40015721] [ 0.97873798 2.2408932 ] [ 1.86755799 -0.97727788] [ 0.95008842 -0.15135721] [-0.10321885 0.4105985 ] [ 0.14404357 1.45427351] [ 0.76103773 0.12167502] [ 0.44386323 0.33367433] [ 1.49407907 -0.20515826] [ 0.3130677 -0.85409574]]y = [[1 1] [1 0] [1 1] [1 1] [0 1] [0 0] [1 1] [0 1] [1 1] [0 1]]Output = [[1 1] [1 0] [1 1] [1 1] [0 1] [0 0] [1 1] [0 1] [1 1] [0 1]]
顺便说一句,由于您正在做一个与NLP相关的模型,我建议使用Keras的多输出神经网络API来训练一个神经网络,以获得更好的输出!