我有204567个单词,其中21010个是唯一的。每个单词都与一个独特的标签相关联。总共有46个独特的标签。
我使用特征哈希将204567个单词映射到了HashingVectorizer()
上。我对标签进行了独热编码,并使用Perceptron()
模型来解决这个多类分类问题。
from keras.utils import np_utilsfrom sklearn.feature_extraction.text import HashingVectorizer from sklearn.linear_model import Perceptronfrom sklearn.preprocessing import LabelEncodervect = HashingVectorizer(decode_error='ignore', n_features=2**15, preprocessor=None)X = vect.transform(X_train)encoder = LabelEncoder()y = encoder.transform(y_train)target = np_utils.to_categorical(y)ppn = Perceptron(n_iter=40, eta0=0.1, random_state=0)ppn.fit(X, target)
然而,我收到了以下错误:ValueError: bad input shape (204567, 46)
有没有更好的方法来编码标签?
P.S. 请解释错误和可能的解决方案
回答:
我修改了代码如下,现在它可以工作了:
from sklearn.feature_extraction.text import HashingVectorizerfrom sklearn.neural_network import MLPClassifierfrom sklearn.preprocessing import OneHotEncoder, LabelEncoderfrom keras.models import Sequentialfrom keras.layers import Densefrom keras.utils import np_utilsfrom numpy import array vec = HashingVectorizer(decode_error = 'ignore', n_features = 2**15)X = vec.fit_transform(X_train) values = array(y_train)label_encoder = LabelEncoder()integer_encoded = label_encoder.fit_transform(values)encoded = np_utils.to_categorical(integer_encoded)print(X.shape)print(encoded.shape)clf = MLPClassifier(activation = 'logistic', solver = 'adam', batch_size = 100, learning_rate = 'adaptive', max_iter = 20, random_state = 1, verbose = True )clf.fit(X, encoded)print('Accuracy: %.3f' %clf.score(X, encoded))
我将模型从Perceptron改成了多层感知器分类器,尽管我不是完全确定这是如何工作的。欢迎解释。现在我需要使用n-gram模型来解决相同的问题并比较结果。