nltk.TweetTokenizer与nltk.word_tokenize有何不同?

我无法理解这两者之间的区别。虽然我了解到word_tokenize使用Penn-Treebank进行分词,但关于TweetTokenizer却找不到相关信息。我应该在哪种类型的数据上使用TweetTokenizer而不是word_tokenize呢?


回答:

实际上,这两个分词器的工作方式几乎相同,都是将给定的句子分割成单词。但是你可以将TweetTokenizer视为word_tokenize的一个子集。TweetTokenizer会保持标签(hashtags)完整,而word_tokenize则不会。

我希望下面的示例能解答你的所有疑问…

from nltk.tokenize import TweetTokenizerfrom nltk.tokenize import  word_tokenizett = TweetTokenizer()tweet = "This is a cooool #dummysmiley: :-) :-P <3 and some arrows < > -> <-- @remy: This is waaaaayyyy too much for you!!!!!!"print(tt.tokenize(tweet))print(word_tokenize(tweet))# output# ['This', 'is', 'a', 'cooool', '#dummysmiley', ':', ':-)', ':-P', '<3', 'and', 'some', 'arrows', '<', '>', '->', '<--', '@remy', ':', 'This', 'is', 'waaaaayyyy', 'too', 'much', 'for', 'you', '!', '!', '!']# ['This', 'is', 'a', 'cooool', '#', 'dummysmiley', ':', ':', '-', ')', ':', '-P', '<', '3', 'and', 'some', 'arrows', '<', '>', '-', '>', '<', '--', '@', 'remy', ':', 'This', 'is', 'waaaaayyyy', 'too', 'much', 'for', 'you', '!', '!', '!', '!', '!', '!']

你可以看到,word_tokenize#dummysmiley分割成了'#''dummysmiley',而TweetTokenizer则没有,将其保持为'#dummysmiley'TweetTokenizer主要是为分析推文而设计的。你可以通过这个链接了解更多关于分词器的信息

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注