我在查看这个例子:https://github.com/fchollet/keras/blob/master/examples/conv_lstm.py
这个RNN实际上是在预测电影的下一帧,因此输出也应该是一部电影(根据输入的测试数据)。我想知道是否由于带有填充的卷积层导致信息丢失。例如,底层的Tensorflow在右下角进行填充,如果填充很大(n代表数字):
n n n n 0 0 0
n n n n 0 0 0
n n n n 0 0 0
n n n n 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
当我们进行第二次卷积时,右下角总是会是0,这意味着反向传播永远无法捕捉到那里的任何信息。在这种情况下(一个方块在整个屏幕上移动的电影),当验证标签位于右下角时,是否会丢失信息?
回答:
在询问了一位从事AI研究的博士后,答案是肯定的。