我正在使用Keras(Python,后端:TensorFlow)训练一个神经网络作为回归模型。因此,我的输出层不包含激活函数,我使用均方误差作为损失函数。
我的问题是:我想确保所有输出估计的总和(几乎)等于所有实际标签的总和。
我的意思是:我想确保不仅对于每个训练样本i,(y_real)^i ~ (y_predict)^i,而且还要保证sum(y_real) = sum(y_predict),在所有i上求和。常规的线性回归可以很容易地添加这个限制,但我没有看到神经网络中有类似的方法。我可以简单地将最终结果乘以sum(y_real) / sum(y_predict),但我担心这不是理想的方法,如果我不想损害个别预测的话。
我还有哪些其他选择?
(我无法分享我的数据,也无法轻易用不同的数据重现这个问题,但这是按要求使用的代码:)
from keras.models import Sequentialfrom keras.layers import Densemodel = Sequential()model.add(Dense(128, activation = 'relu', input_dim = 459))model.add(Dense(32, activation = 'relu'))model.add(Dense(1))model.compile(loss = 'mean_squared_error', optimizer = 'adam')model.fit(X_train, Y_train, epochs = 5, validation_data = (X_val, Y_val), batch_size = 128)
回答:
从优化角度来看,你希望对问题引入一个等式约束。你正在寻找网络权重,使预测y1_hat, y2_hat和y3_hat
相对于标签y1, y2, y3
最小化均方误差。此外,你还希望满足以下条件:
sum(y1, y2, y3) = sum(y1_hat, y2_hat, y3_hat)
因为你使用的是神经网络,你希望以一种仍然可以使用反向传播来训练网络的方式施加这个约束。
一种方法是通过在损失函数中添加一个项来惩罚sum(y1, y2, y3)
和sum(y1_hat, y2_hat, y3_hat)
之间的差异。
最小工作示例:
import numpy as npimport keras.backend as Kfrom keras.layers import Dense, Inputfrom keras.models import Model# 一些随机的训练数据和标签features = np.random.rand(100, 20)labels = np.random.rand(100, 3)# 带有三个输出的简单神经网络input_layer = Input((20,))hidden_layer = Dense(16)(input_layer)output_layer = Dense(3)(hidden_layer)# 模型model = Model(inputs=input_layer, outputs=output_layer)# 编写自定义损失函数def custom_loss(y_true, y_pred): # 正常的MSE损失 mse = K.mean(K.square(y_true-y_pred), axis=-1) # 惩罚预测总和与标签总和之间差异的损失 sum_constraint = K.square(K.sum(y_pred, axis=-1) - K.sum(y_true, axis=-1)) return(mse+sum_constraint)# 使用自定义损失编译model.compile(loss=custom_loss, optimizer='sgd')model.fit(features, labels, epochs=1, verbose=1)
请注意,这是一种“软”方式施加约束,而不是硬约束。你仍然会得到偏差,但网络应该会以一种使这些偏差很小的方式学习权重。