我是Keras的新手,正在尝试在训练过程中修改层的输出。我想编写一个函数,该函数接收层的输出,并在学习过程中将修改后的输出传递给下一层。我尝试使用lambda函数,但没有真正掌握它。
def fun(x): a = min(x) y = np.round(x*(2**a))return ylayer_1 = Dense(32, activation='relu')(input)layer_2 = Dense(12, activation='relu')(layer_1)lambda_layer = Lambda(fun, output_shape=(12,))(layer_2)layer_3 = dense(32, activation='relu')(lambda_layer)
如何获取层的输出并在传递给下一层之前修改它们?
回答:
使用lambda函数是解决您问题的好方法。然而,请记住,lambda函数将成为计算图的一部分,并且在训练过程中需要计算整个图的梯度。
例如,您不应该像您那样使用min()
函数,而应该使用Keras后端的一部分函数。将所有操作替换为它们在Keras后端的等效操作,结果如下:
import keras.backend as Kdef fun(x): a = K.min(x) y = K.round(K.dot(x, (K.pow(2, a)))) return y
您的最终模型(以及所有Lambda
层)应该只包含原生Keras函数,以便在训练过程中安全地执行所有计算。