Keras Tokenizer的num_words参数似乎不起作用

>>> t = Tokenizer(num_words=3)>>> l = ["Hello, World! This is so&#$ fantastic!", "There is no other world like this one"]>>> t.fit_on_texts(l)>>> t.word_index{'fantastic': 6, 'like': 10, 'no': 8, 'this': 2, 'is': 3, 'there': 7, 'one': 11, 'other': 9, 'so': 5, 'world': 1, 'hello': 4}

我原本期望t.word_index只包含前三个词。我做错了什么吗?


回答:

你做的事情没有任何问题。word_index的计算方式与你稍后将使用的最高频词的数量无关(你可以在这里看到)。因此,当你调用任何转换方法时,Tokenizer只会使用三个最常见的词,同时它会保留所有词的计数器——即使显然它以后不会使用这些计数器。

Related Posts

crfsuite中文本特征的数值转换

我在查看crfsuite-python文档中提供的示例…

可以将AWS FindMatch转换应用于数据框架吗?如果可以,如何操作?

我想了解是否可以在AWS Glue的Spark数据框架…

如何在Keras中创建自定义回调以在VAE训练中生成样本图像?

我正在训练一个简单的VAE模型,处理64*64的图像,…

二元交叉熵和分类交叉熵的不同结果

我进行了一项实验,比较了binary_crossent…

sklearn中的LinearSVC是SVM还是SVC?

我在观看一个YouTube视频来学习支持向量机(SVM…

Google Cloud Platform 对加载 2G 数据集收取 10 美元费用

我为一个机器学习任务启动了一个虚拟机实例,该任务需要在…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注