我无法理解这两者之间的区别。虽然我了解到word_tokenize
使用Penn-Treebank进行分词,但关于TweetTokenizer
却找不到相关信息。我应该在哪种类型的数据上使用TweetTokenizer
而不是word_tokenize
呢?
回答:
实际上,这两个分词器的工作方式几乎相同,都是将给定的句子分割成单词。但是你可以将TweetTokenizer
视为word_tokenize
的一个子集。TweetTokenizer
会保持标签(hashtags)完整,而word_tokenize
则不会。
我希望下面的示例能解答你的所有疑问…
from nltk.tokenize import TweetTokenizerfrom nltk.tokenize import word_tokenizett = TweetTokenizer()tweet = "This is a cooool #dummysmiley: :-) :-P <3 and some arrows < > -> <-- @remy: This is waaaaayyyy too much for you!!!!!!"print(tt.tokenize(tweet))print(word_tokenize(tweet))# output# ['This', 'is', 'a', 'cooool', '#dummysmiley', ':', ':-)', ':-P', '<3', 'and', 'some', 'arrows', '<', '>', '->', '<--', '@remy', ':', 'This', 'is', 'waaaaayyyy', 'too', 'much', 'for', 'you', '!', '!', '!']# ['This', 'is', 'a', 'cooool', '#', 'dummysmiley', ':', ':', '-', ')', ':', '-P', '<', '3', 'and', 'some', 'arrows', '<', '>', '-', '>', '<', '--', '@', 'remy', ':', 'This', 'is', 'waaaaayyyy', 'too', 'much', 'for', 'you', '!', '!', '!', '!', '!', '!']
你可以看到,word_tokenize
将#dummysmiley
分割成了'#'
和'dummysmiley'
,而TweetTokenizer
则没有,将其保持为'#dummysmiley'
。TweetTokenizer
主要是为分析推文而设计的。你可以通过这个链接了解更多关于分词器的信息