Keras Tokenizer的num_words参数似乎不起作用

>>> t = Tokenizer(num_words=3)>>> l = ["Hello, World! This is so&#$ fantastic!", "There is no other world like this one"]>>> t.fit_on_texts(l)>>> t.word_index{'fantastic': 6, 'like': 10, 'no': 8, 'this': 2, 'is': 3, 'there': 7, 'one': 11, 'other': 9, 'so': 5, 'world': 1, 'hello': 4}

我原本期望t.word_index只包含前三个词。我做错了什么吗?


回答:

你做的事情没有任何问题。word_index的计算方式与你稍后将使用的最高频词的数量无关(你可以在这里看到)。因此,当你调用任何转换方法时,Tokenizer只会使用三个最常见的词,同时它会保留所有词的计数器——即使显然它以后不会使用这些计数器。

Related Posts

如何从数据集中移除EXIF数据?

我在尝试从数据集中的图像中移除EXIF数据(这些数据将…

用于Python中的“智能点”游戏的遗传算法不工作

过去几天我一直在尝试实现所谓的“智能点”游戏。我第一次…

哪个R平方得分更有帮助?

data.drop(‘Movie Title’, ax…

使用线性回归预测GRE分数对录取率的影响

我正在学习线性回归,并尝试在Jupyter笔记本中用P…

使用mlrMBO贝叶斯优化进行SVM超参数调优时出现错误

我试图针对一个分类任务优化SVM,这个方法在许多其他模…

Keras模型的二元交叉熵准确率未发生变化

我在网上看到了很多关于这个问题的提问,但没有找到明确的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注