我正在尝试实现一个INN(可逆神经网络),其结构如这篇论文中所述。
我想知道是否可以创建一个块(如论文中提出的)作为自定义的Keras层,并包含两个不同的调用函数。
基本结构如下所示:
import tensorflow as tfimport tensorflow.keras.layers as layersclass INNBlock(tf.keras.Model):#继承自模型而不是keras.layers.Layer,因为我想管理底层的层 def __init__(self, size): super(INNBlock, self).__init__(name='innblock') #定义层 self.denseL1 = layers.Dense(size,activation='relu') def call(self, inputs): #定义层之间的前向调用关系 out = self.denseL1(inputs) return out def inverse_call(self, inputs): #定义层之间的逆向关系 out = -self.denseL1(inputs) #使用与前向调用相同的权重 return outclass INN(tf.keras.Model): def __init__(self,kenel_size,input_dim,min_clip,max_clip): super(INN, self).__init__() self.block_1 = INNBlock(size) self.block_2 = INNBlock(size) def call(self, inputs): x = self.block_1(inputs) x = self.block_2.inverse_call(y) x = self.block_1.inverse_call(x) return (y,x)
我已经考虑过一些解决方案(但不是特别喜欢):
-
为逆向调用创建新的层,并为它们分配与前向调用中相同的权重。
-
为输入添加另一个维度,并在其中包含一个变量,用于确定是执行逆向调用还是前向调用(但我不知道Keras是否允许这样做)
希望有人知道是否有实现这种方法的途径。提前感谢 🙂
回答:
你的代码没有任何问题。你可以尝试运行,它会正常工作。
call
方法是当你简单地执行model_instance(input_tensor)
或layer_instance(input_tensor)
时使用的标准方法。
但是,如果你定义了另一个方法并在模型的call
方法中使用它,这也没有任何问题。发生的情况将是:
- 如果你使用
the_block(input_tensor)
,它将使用the_block.call(input_tensor)
。 - 如果你在层/模型之外使用
the_block.inverse_call(input_tensor)
,它将无法构建Keras模型(没有任何东西可以位于层之外)。 - 如果你在层/模型内部使用
the_block.inverse_call(input_tensor)
(你正在这样做),这与直接编写操作是完全相同的。你只是将它包装在另一个函数中。
对于Keras/Tensorflow来说,inverse_call
没有任何特殊之处。你可以在任何可以使用其他Keras/Tensorflow函数的地方使用它。
梯度会更新两次吗?
不完全是两次,但操作肯定会被计算在内。当系统计算损失相对于权重的梯度时,如果损失是通过inverse_call
构建的,那么它将参与梯度计算。
但更新将如常,每批次一次。