Seq2Seq模型是否适合我的数据?有例子吗?

我正在尝试训练一个模型来预测网页上的设计模式。我使用的是一组元素分组的边界矩形的坐标。模式看起来像这样:

 [[elementId, width, height, x, y]]

所以我的目标是根据[[elementId, width, height]]预测[[x,y]]

具体来说:

 [[5, 1.0, 1.0], [4, 1.0, 1.0], [2, 175.0, 65.0], [2, 1.0, 1.0], [4, 1.0, 1.0]] -> [[0.0, 0.0], [0.0, 10.0], [3.0, 0.0], [0.0, 68.0], [0.0, 10.0]] [[2, 14.0, 14.0], [2, 14.0, 14.0], [2, 14.0, 14.0]]   -> [[0.0, 3.0], [0.0, 3.0], [0.0, 3.0]]

模式大小不一,所以我用[[0,0,0]]填充它们。目前我有大约15k个这样的模式,但可以获取更多。

有人告诉我,对于这项任务,带有注意力机制的seq2seq是合适的模型。我从https://machinelearningmastery.com/develop-encoder-decoder-model-sequence-sequence-prediction-keras/开始,结果非常糟糕。

我能找到的所有seq2seq示例(搜索keras或pytorch)都用于分类任务的翻译,我很难找到一个好的基于回归的示例。

所以我的问题是:

  1. 这种模型(编码器/解码器LSTM)是否适合我正在尝试做的事情?

  2. 如果是,有没有例子?


回答:

Seq2Seq/LSTM在输入/输出长度可变时使用。

你的输入大小为3,输出大小为2(至少在给定的例子中是这样)。因此,你可以使用一个简单的单层或双层前馈模型,并使用L2/L1损失(用于回归)。任何优化器(SGD/Adam)都可以,但实际上Adam表现很好。

此外,我认为你不应该直接使用坐标,你可以对其进行缩放,使最高坐标为1,这样输入/输出的范围将在0到1之间。这样做的额外好处是,这将帮助你直观地适应不同的屏幕尺寸。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注