我想了解如何在Tensorflow中使用Python为神经网络定义具有两个可学习参数的自定义激活函数。
任何参考资料或案例研究都会有所帮助?
谢谢
回答:
如果您在模型中创建一个tf.Variable
,Tensorflow会跟踪其状态,并像调整其他参数一样对其进行调整。这样的tf.Variable
可以作为您的激活函数的参数。
让我们从一些玩具数据集开始。
import numpy as npimport tensorflow as tffrom tensorflow.keras.layers import Denseimport matplotlib.pyplot as pltfrom tensorflow.keras import Modelfrom sklearn.datasets import load_irisiris = load_iris(return_X_y=True)X = iris[0].astype(np.float32)y = iris[1].astype(np.float32)ds = tf.data.Dataset.from_tensor_slices((X, y)).shuffle(25).batch(8)
现在,让我们创建一个tf.keras.Model
,并制作一个带有可学习斜率的参数化ReLU函数,同时还有一个最小值(通常对于经典ReLU为0)。我们先从斜率/最小值为0.1的PReLU开始。
slope_values = list()min_values = list()class MyModel(Model): def __init__(self): super(MyModel, self).__init__() self.prelu_slope = tf.Variable(0.1) self.min_value = tf.Variable(0.1) self.d0 = Dense(16, activation=self.prelu) self.d1 = Dense(32, activation=self.prelu) self.d2 = Dense(3, activation='softmax') def prelu(self, x): return tf.maximum(self.min_value, x * self.prelu_slope) def call(self, x, **kwargs): slope_values.append(self.prelu_slope.numpy()) min_values.append(self.min_value.numpy()) x = self.d0(x) x = self.d1(x) x = self.d2(x) return xmodel = MyModel()
现在,让我们训练模型(在急切模式下,以便我们可以保留斜率值)。
model.compile(loss='sparse_categorical_crossentropy', optimizer='adam', run_eagerly=True)history = model.fit(ds, epochs=500, verbose=0)
让我们看看斜率。Tensorflow正在调整它以适应此任务的最佳斜率。正如您将看到的,它接近于斜率为1的非参数ReLU。
plt.plot(slope_values, label='斜率值')plt.plot(min_values, label='最小值')plt.legend()plt.title('参数化ReLU参数随时间变化')plt.show()