在全连接层中使用单一共享偏置

我正在尝试从一篇论文中提到的方法[1],该方法要求全连接层的所有神经元共享一个共同的偏置项,而不是每个神经元都有各自的偏置。

如何在Tensorflow中实现这一点呢?

是否可以创建一个没有偏置的全连接层,最后再添加tf.nn.bias_add()?这是正确的做法吗?
如果是的话,tf.nn.bias_add()没有设置为trainable的标志。这样做会有效吗?

或者有其他建议吗?


参考文献:

[1]: 使用双重Q学习的深度强化学习(页面6右侧)


回答:

tf.nn.bias_add(value, bias)要求一个大小与value的最后一个维度匹配的一维张量,所以只需使用tf.add即可:

X = tf.placeholder(tf.float32, [None, 32])W = tf.Variable(tf.truncated_normal([32, 16]))#所有16个输出共享一个偏置bias = tf.Variable(tf.truncated_normal([1]))#按预期工作y =  tf.add(tf.matmul(X,W), bias)#ValueError: 维度必须相等,但实际是16和1,针对'BiasAdd'z =  tf.nn.bias_add(tf.matmul(X,W), bias)

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注