我正在尝试训练一个模型来预测网页上的设计模式。我使用的是一组元素分组的边界矩形的坐标。模式看起来像这样:
[[elementId, width, height, x, y]]
所以我的目标是根据[[elementId, width, height]]
预测[[x,y]]
。
具体来说:
[[5, 1.0, 1.0], [4, 1.0, 1.0], [2, 175.0, 65.0], [2, 1.0, 1.0], [4, 1.0, 1.0]] -> [[0.0, 0.0], [0.0, 10.0], [3.0, 0.0], [0.0, 68.0], [0.0, 10.0]] [[2, 14.0, 14.0], [2, 14.0, 14.0], [2, 14.0, 14.0]] -> [[0.0, 3.0], [0.0, 3.0], [0.0, 3.0]]
模式大小不一,所以我用[[0,0,0]]
填充它们。目前我有大约15k个这样的模式,但可以获取更多。
有人告诉我,对于这项任务,带有注意力机制的seq2seq是合适的模型。我从https://machinelearningmastery.com/develop-encoder-decoder-model-sequence-sequence-prediction-keras/开始,结果非常糟糕。
我能找到的所有seq2seq示例(搜索keras或pytorch)都用于分类任务的翻译,我很难找到一个好的基于回归的示例。
所以我的问题是:
-
这种模型(编码器/解码器LSTM)是否适合我正在尝试做的事情?
-
如果是,有没有例子?
回答:
Seq2Seq/LSTM在输入/输出长度可变时使用。
你的输入大小为3,输出大小为2(至少在给定的例子中是这样)。因此,你可以使用一个简单的单层或双层前馈模型,并使用L2/L1损失(用于回归)。任何优化器(SGD/Adam)都可以,但实际上Adam表现很好。
此外,我认为你不应该直接使用坐标,你可以对其进行缩放,使最高坐标为1,这样输入/输出的范围将在0到1之间。这样做的额外好处是,这将帮助你直观地适应不同的屏幕尺寸。