我不确定这里是否合适,但我的测试准确率一直大约是0.40,而我的训练集准确率可以达到1.0。我正在尝试对特朗普的推文进行情感分析,我为每条推文标注了正面、负面或中性的极性。我希望能够基于我的模型预测新数据的极性。我尝试了不同的模型,但SVM似乎能给我带来最高的测试准确率。我不确定为什么我的数据模型准确率这么低,但会非常感激任何帮助或指导。
trump = pd.read_csv("trump_data.csv", delimiter = ";")#drop all nan valuestrump = trump.dropna()trump = trump.rename(columns = {"polarity,,,":"polarity"})#print(trump.columns)def tokenize(text): ps = PorterStemmer() return [ps.stem(w.lower()) for w in word_tokenize(text) X = trump.texty = trump.polarityX_train, X_test, y_train, y_test = train_test_split(X,y, test_size = .2, random_state = 42)svm = Pipeline([('vectorizer', TfidfVectorizer(stop_words=stopwords.words('english'), tokenizer=tokenize)), ('svm', SGDClassifier(loss='hinge', penalty='l2',alpha=1e-3, random_state=42,max_iter=5, tol=None))])svm.fit(X_train, y_train)model = svm.score(X_test, y_test)print("The svm Test Classification Accuracy is:", model )print("The svm training set accuracy is : {}".format(naive.score(X_train,y_train)))y_pred = svm.predict(X)
这是数据集中文本列的一个字符串示例
“.@*** congress must step up and overturn president trump’s discriminatory #eo banning #immigrants & #refugees #oxfam4refugees”
回答:
你为什么使用naive.score
?我认为这是一个复制粘贴
错误。以下是你可以遵循的几个步骤。
- 确保你有足够的数据点并清理数据。在数据科学中,
清理
数据集是一个不可避免的过程。 - 在使用TfidfVectorizer或CountVectorizer对文本进行特征提取时,利用
ngram_range, max_df, min_df, max_features
等参数。你也可以尝试使用Word2Vec进行嵌入。 - 对
alpha, penalty
和其他变量进行超参数调整,使用GridSearch或RandomizedSearchCV。确保你目前在进行CV
。请参考文档获取更多信息 - 如果数据集是
不平衡
的,那么尝试使用其他矩阵,如对数损失、精确度、召回率、F1分数等
。参考这里获取更多信息。 - 通过检查训练误差和测试误差,确保你的模型既不
过拟合
也不欠拟合
。
除了SVM
,还可以尝试传统模型如逻辑回归
、NV
、RF
等。如果你有大量数据点,你可以尝试深度学习模型。