我有一个神经网络,输入为一组one-hot的m*n向量,其中行表示类别,列表示位置。
我想训练一个网络,使其在输出层输出另一个(随机的)具有相同m*n形状的向量,每列的概率之和为1。想法是使用softmax作为最终层,但我是否需要分别构建每一列然后像这里一样拼接?还是在Keras中有更简单的方式实现(例如一行代码)?
回答:
如果你的模型的输出形状为(None, m, n)
,并且你想在第二个轴上计算softmax,你可以简单地使用softmax
激活方法,并传递axis
参数(在你的情况下应为axis=1
):
from keras import activationsdef the_softmax(axis): def my_softmax(x): return activations.softmax(x, axis=axis) return my_softmax# 顺序模型model.add(Dense(..., activation=the_softmax(1)))# 函数式模型output = Dense(..., activation=the_softmax(1))(prev_layer_output)
或者,如果你想将其作为独立的层使用,你可以使用Lambda
层和后端的softmax
函数:
from keras import backend as Kdef the_softmax(axis): def my_softmax(x): return K.softmax(x, axis=axis) return my_softmax# 顺序模型model.add(Lambda(the_softmax(1)))# 函数式模型output = Lambda(the_softmax(1))(prev_layer_output)