情感分析的最佳预处理技术有哪些?

我正在尝试将一组评论数据集分类为两个类别,假设为类别A和类别B。我使用LightGBM进行分类。

我多次更改了分类器的参数,但结果没有显著差异。

我认为问题出在预处理步骤上。我定义了一个函数来处理预处理,如下所示。我使用了Stemming并移除了stopwords。我不知道还缺少什么。我尝试过LancasterStemmerPorterStemmer

stops = set(stopwords.words("english"))def cleanData(text, lowercase = False, remove_stops = False, stemming = False, lemm = False):    txt = str(text)    txt = re.sub(r'[^A-Za-z0-9\s]',r'',txt)    txt = re.sub(r'\n',r' ',txt)    if lowercase:        txt = " ".join([w.lower() for w in txt.split()])    if remove_stops:        txt = " ".join([w for w in txt.split() if w not in stops])    if stemming:        st = PorterStemmer()        txt = " ".join([st.stem(w) for w in txt.split()])    if lemm:        wordnet_lemmatizer = WordNetLemmatizer()        txt = " ".join([wordnet_lemmatizer.lemmatize(w) for w in txt.split()])    return txt

还有哪些预处理步骤可以提高准确性?

数据集的URL:数据集

编辑:

我使用的参数如下所示。

params = {'task': 'train',    'boosting_type': 'gbdt',    'objective': 'binary',    'metric': 'binary_logloss',    'learning_rate': 0.01,     'max_depth': 22,     'num_leaves': 78,    'feature_fraction': 0.1,     'bagging_fraction': 0.4,     'bagging_freq': 1}

我调整了depthnum_leaves参数以及其他参数。但准确率似乎卡在某个水平上…


回答:

需要考虑几件事。首先,您的训练集不平衡 – 类别分布大约是70%/30%。您需要在训练时考虑到这一事实。您使用的是什么类型的特征?使用正确的特征集可能会提高您的性能。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注