我在进行情感分析的数据集中有三列(类别为0
、1
、2
):
text thing sentiment
但问题是我只能基于text
或thing
中的一个来训练数据,并预测sentiment
。有没有一种方法可以同时基于text
和thing
来训练数据,然后预测sentiment
?
问题案例(例如):
|text thing sentiment0 | t1 thing1 0. |. |54| t1 thing2 2
这个例子告诉我们,情感应也取决于thing
。如果我尝试将这两列拼接在一起然后进行训练,那将是错误的,因为我们没有向模型提供这两列之间的任何关系。
另外,我的测试集包含test
和thing
两列,我需要根据在两列上训练的模型来预测情感。
目前我使用的是tokenizer
,然后是下面的模型:
model = Sequential()model.add(Embedding(MAX_NB_WORDS, EMBEDDING_DIM, input_length=X.shape[1]))model.add(SpatialDropout1D(0.2))model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2))model.add(Dense(3, activation='softmax'))model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])print(model.summary())
关于如何继续进行,或者使用哪种模型或代码操作,有什么建议吗?
回答:
您可能需要转向Keras的函数式API,并训练一个多输入模型。
根据Keras的创建者,François CHOLLET,在他的书《Deep Learning with Python [Manning, 2017]》(第7章,第1节)中提到:
一些任务需要多模态输入:它们合并来自不同输入源的数据,使用不同类型的神经层处理每种类型的数据。想象一个深度学习模型,试图预测二手衣物的最可能市场价格,使用以下输入:用户提供的元数据(例如物品的品牌、年龄等)、用户提供的文本描述以及物品的图片。如果只有元数据可用,您可以对其进行独热编码,并使用密集连接网络来预测价格。如果只有文本描述可用,您可以使用RNN或1D卷积网络。如果只有图片,您可以使用2D卷积网络。但是,如何同时使用这三者呢?一种 naive 的方法是训练三个独立的模型,然后对它们的预测进行加权平均。但这可能不是最优的,因为模型提取的信息可能是冗余的。更好的方法是通过使用能够同时看到所有可用输入模式的模型来共同学习更准确的数据模型:一个具有三个输入分支的模型。