我定义的基本铰链损失函数如下:
def hinge(y_true, y_pred): return tf.maximum(0., 1- y_true*y_pred)
我正在训练一个支持向量机(SVM)来预测一个事件。我的y
值在属于该类别时为1
,在不属于该类别时为-1
。我的类别分布不平衡,-1
的样本远多于+1
的样本。
因此,我想对+1
的损失施加更高的惩罚。但我不知道具体如何修改我的铰链损失函数。我能想到的最好方法是,
X = (# of non event samples) / (# of event samples)if(y_true*y_pred > 0): return tf.maximum(0., 1- y_true*y_pred)*X
这意味着,如果我有100个非事件样本和10个事件样本,那么X
= 100/10 = 10。如果y_true = 1
,那么损失就是hingeloss*10
。
这样做对吗?还是有更好的方法?
回答:
考虑这样做:
def hinge(y_true, y_pred): return tf.multiply((11/9+y_true)*9/2,tf.maximum(0., 1- y_true*y_pred))
这里的逻辑是,如果y_true
是1,我们希望乘以10,如果是-1,则乘以1。你可以验证,当y_true
是-1时,(11/9+y_true)*9/2
的值为1,当它是1时,值为10。如果你对如何得出表达式中的11/9感兴趣,这是通过解线性方程得到的,所需的偏移量s为:
10(s + (-1))=1(s+1)。