nltk.TweetTokenizer与nltk.word_tokenize有何不同?

我无法理解这两者之间的区别。虽然我了解到word_tokenize使用Penn-Treebank进行分词,但关于TweetTokenizer却找不到相关信息。我应该在哪种类型的数据上使用TweetTokenizer而不是word_tokenize呢?


回答:

实际上,这两个分词器的工作方式几乎相同,都是将给定的句子分割成单词。但是你可以将TweetTokenizer视为word_tokenize的一个子集。TweetTokenizer会保持标签(hashtags)完整,而word_tokenize则不会。

我希望下面的示例能解答你的所有疑问…

from nltk.tokenize import TweetTokenizerfrom nltk.tokenize import  word_tokenizett = TweetTokenizer()tweet = "This is a cooool #dummysmiley: :-) :-P <3 and some arrows < > -> <-- @remy: This is waaaaayyyy too much for you!!!!!!"print(tt.tokenize(tweet))print(word_tokenize(tweet))# output# ['This', 'is', 'a', 'cooool', '#dummysmiley', ':', ':-)', ':-P', '<3', 'and', 'some', 'arrows', '<', '>', '->', '<--', '@remy', ':', 'This', 'is', 'waaaaayyyy', 'too', 'much', 'for', 'you', '!', '!', '!']# ['This', 'is', 'a', 'cooool', '#', 'dummysmiley', ':', ':', '-', ')', ':', '-P', '<', '3', 'and', 'some', 'arrows', '<', '>', '-', '>', '<', '--', '@', 'remy', ':', 'This', 'is', 'waaaaayyyy', 'too', 'much', 'for', 'you', '!', '!', '!', '!', '!', '!']

你可以看到,word_tokenize#dummysmiley分割成了'#''dummysmiley',而TweetTokenizer则没有,将其保持为'#dummysmiley'TweetTokenizer主要是为分析推文而设计的。你可以通过这个链接了解更多关于分词器的信息

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注