是否有方法可以使用tanh运行sklearn的逻辑回归?
我知道当标签为{-1,1}时tanh更好,而当标签为{0,1}时sigmoid更好
如果我无法实现逻辑回归,将标签从{-1,1}转换为{0,1}是否能改善使用sigmoid激活函数的逻辑回归性能?
回答:
并没有所谓的当标签为{-1,1}时tanh更好,而当标签为{0,1}时sigmoid更好的说法。
最终,模型并不知道标签及其含义。它只是学习二元分类的概率分布。tanh(x)
将输入映射到区间[-1, 1]
,而sigmoid(x)
将输入映射到区间[0, 1]
。你所做的基本上是,将其视为概率,并说,如果输出大于0.5,则属于类1,否则属于0。(在使用sigmoid的情况下)
所以,是的,你可以将你的标签{-1,1}转换为{0,1},甚至转换为{9,10}