理解这个DNN模型及其在多标签分类中为何不起作用

我对Keras和DNN的了解还比较浅薄,刚开始通过一些教程,我设法创建了一个用于分类句子的模型。下方展示了这个模型。老实说,我并不完全明白其背后的直觉和为何它会有效。所以这是我的问题。

def create_model():    embedding_layer = Embedding(input_dim=100, output_dim=300,                                input_length=100)    model = Sequential()    model.add(embedding_layer)    model.add(Dropout(0.2))    model.add(Conv1D(filters=100, kernel_size=4, padding='same', activation='relu'))    model.add(MaxPooling1D(pool_size=4))    model.add(LSTM(units=100, return_sequences=True))    model.add(GlobalMaxPooling1D())    #model.add(Dense(1, activation='sigmoid'))    ###### multiclassification #########    model.add(Dense(3, activation='sigmoid')) #我想用这行替换上面那行以进行多类别分类,但这不起作用    model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

这是我的理解:模型从在语料库(句子)上训练词嵌入开始,并将每个句子表示为词向量的向量(embedding_layer)。然后,dropout层迫使模型不依赖于特定词语。卷积层的作用类似于识别短语/n-gram,而不仅仅是单个词;接着是一个LSTM,用于学习可能有用的短语/n-gram序列特征;然后GlobalMaxPooling1D层将LSTM的输出“展平”为最终分类(dense层)的特征。

这有道理吗?我还不太理解MaxPooling1D层和lstm层之间的交互。lstminput_shape是什么?输出是什么样子的?


回答:

所以,你的直觉是对的。你说的都成立。关于MaxPooling1D – 它是一种对Conv1D输出的降采样方式。这层的输出将是Conv1D原始输出的四分之一大小(因此LSTM的输入长度将为25,特征数量相同)。为了向你展示它的工作原理:

Conv1D的输出:

0, 1, 1, 0, -1, 2, 3, 5, 1, 2, 1, -1

LSTM的输入:

1 (来自0, 1, 1, 0的最大值), 5 (来自-1, 2, 3, 5的最大值), 2 (来自1, 2, 1, -1的最大值)

编辑我之前没有注意到categorical_crossentropy和激活函数。所以:

  1. 如果你的输出是三类中的一个,你可以使用categorical_crossentropysigmoid,但这样你的输入不能被解释为概率分布,而是作为类别得分(预测等于得分最高的类别)。更好的选择是使用softmax,它会生成类别上的概率分布。

  2. 在预测三个类别(非互斥)的情况下,由于Keras的实现,你应该使用binary_crossentropy,尽管它在数学上与categorical_crossentropy等价。这是由于keras会对最后一层的输出进行归一化,使它们总和为1。这可能会严重影响你的训练过程。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注