Keras LSTM输入维度与单热文本嵌入

我有70,000个文本样本,使用Keras的’one hot’预处理进行了嵌入。这给我一个数组[40, 20, 142...],然后我将其填充到长度28(最长的样本长度)。我所要做的就是预测这些值到某个分类标签(假设是0到5)。当我训练模型时,我无法获得超过-0.13%的准确率(目前我的错误是这个,我已经尝试了许多方法来传递输入)。

这是我的数据,我目前只是试图创建一个简单的LSTM。再说一次,我的数据是X -> [长度为28的整数值,嵌入] 和 Y -> [长度为3的一个整数,(100, 143等)]。你知道我哪里做错了么?我问了很多人,没有人能帮到我。这是我模型的代码…有什么想法吗?:(

optimizer = RMSprop(lr=0.01) #在网上看到的,不知道为什么model = Sequential()model.add(Embedding(input_dim=28,output_dim=1,init='uniform')) #28个特征,1维输出?model.add(LSTM(150)) #只是添加我的LSTM节点model.add(Dense(1)) #因为我想要的输出是一个整数值model.compile(loss='sparse_categorical_crossentropy', optimizer=optimizer, metrics=['accuracy'])print(model.summary())

编辑:

使用model.add(Embedding(input_dim=900,output_dim=8,init='uniform'))似乎有效,但准确率仍然没有提高,我不知道该怎么办了。


回答:

我有两个建议。

  1. 对目标变量(y)也使用单热表示。如果你将Y作为整数给出,它将成为一个回归问题。只有当你给出单热编码时,它才成为一个分类问题。
  2. 当你有大量文本时,尝试使用word2vec嵌入,而不是单热嵌入。
optimizer = RMSprop(lr=0.01) embedding_vecor_length = 32max_review_length = 28nb_classes= 8model = Sequential()model.add(Embedding(input_dim=900, output_dim=embedding_vecor_length,                    input_length=max_review_length)) model.add(LSTM(150))#output_dim是一个具有8个类别的分类变量model.add(Dense(output_dim=nb_classes, activation='softmax'))model.compile(loss='categorical_crossentropy', optimizer=optimizer, metrics=['accuracy'])print(model.summary())model.fit(X_train, y_train, nb_epoch=3, batch_size=64)# 模型的最终评估scores = model.evaluate(X_test, y_test, verbose=0)print("Accuracy: %.2f%%" % (scores[1]*100))

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注