我的CNN的输出层应该使用RBF函数,其描述为“每个神经元输出其输入向量与其权重向量之间的欧几里得距离的平方”。我已经实现了这个功能,代码如下:
dense2 = tf.square(tf.norm(dense1 - tf.transpose(dense2_W)))
其中dense1
是一个形状为(?, 84)
的张量。我尝试将dense2_W
(权重)声明为形状为(84, 10)
的变量,因为它用于数字分类,应该有10个输出。使用100个批次运行代码时,我得到了以下错误:InvalidArgumentError: Incompatible shapes: [100,84] vs. [10,84]
。我认为这是由于减法操作引起的。
我通过迭代以下代码来训练网络:
x_batch, y_batch = mnist.train.next_batch(100)x_batch = tf.pad(x_batch, [[0,0],[2,2],[2,2],[0,0]]).eval() # Pad 28x28 -> 32x32sess.run(train_step, {X: x_batch, Y: y_batch})
然后使用整个测试集来测试它,因此网络中的批次大小必须是动态的。
我该如何解决这个问题?批次大小必须像dense1
的情况一样是动态的,但我不知道如何创建一个动态大小的变量并对其进行转置(dense2_W
)。
回答:
您需要使两个张量的形状匹配。假设您希望在批次中共享权重,并且为每个输出类别有一组独立的权重,您可以重塑这两个张量以正确地进行广播,例如:
# 广播将输入复制到每个输出类别神经元input_dense = tf.expand_dims(dense1, axis=2)# 此处的广播将权重复制到整个批次weights = tf.expand_dims(tf.transpose(dense2_W), axis=0)dense2 = tf.square(tf.norm(input_dense - weights, axis=1))
结果张量dense2
应该具有[batch_size, num_classes]
的形状,在您的案例中为[100, 10]
(因此它将为每个数据实例在输出类别数量上保存logits)。
编辑:在tf.norm
调用中添加了axis
参数,以便在隐藏维度上计算距离(而不是在整个矩阵上)。