我在想是否有Python中预构建的MLP实现,可以将我的目标函数、损失函数和容差作为输入,并返回我的函数的最优参数。我已经查看了Tensorflow和scikit-learn中的MLP,但似乎没有这种实现。欢迎任何建议。
提前感谢
回答:
只要你的目标函数是可微分的,这正是神经网络设计的目的。你可以在TF中编写任何函数作为目标,然后使用SGD等方法训练你的MLP。这是一个理解事物如何运作的问题,或者接受“预构建”不会像一个名为“解决我的问题”的函数那样简单,它需要一些额外的命令,但最终你所要求的实际上是任何NN实现,无论是TF、Keras等。
例如,你可以使用Keras并实现你的自定义损失
def my_loss_fn(y_true, y_pred): squared_difference = tf.square(y_true - y_pred) return tf.reduce_mean(squared_difference, axis=-1) # 注意`axis=-1`model.compile(optimizer='adam', loss=my_loss_fn)