逻辑回归和线性回归是否是神经网络的特殊情况?
回答:
神经网络可以配置为执行逻辑回归或线性回归。
在任何一种情况下,神经网络都只有一个可训练层(输出层),并且该层只有一个神经元(执行W * x + b
仿射计算和激活的操作符)。它们的区别在于激活函数。
对于逻辑回归,输出层有一个Sigmoid激活函数,产生一个在[0.0, 1.0]范围内的浮点数。您可以通过对该值应用0.5的阈值来做出二元决策。
对于线性回归,输出层通常没有激活函数,因此得到一个不受限制的浮点数。
一般来说,您可以在神经网络中添加隐藏层(增加非线性和更多的学习能力),只要输出层的激活函数按上述方式配置,仍可以执行二元分类和回归。