我理解使用前向传播和反向传播通过梯度下降训练神经网络的所有计算步骤,但我试图理解为什么它们比逻辑回归表现得更好。
目前我能想到的只有:
A) 神经网络可以学习自己的参数
B) 与简单的逻辑回归相比,神经网络有更多的权重,因此可以允许更复杂的假设
能有人解释一下为什么神经网络总体上表现得如此出色吗?我是一个相对初学者。
回答:
神经网络可以拥有大量的自由参数(即相互连接单元之间的权重和偏置),这使得它们在正确训练时具有适应高度复杂数据的灵活性,而其他模型则过于简单,无法适应。这种模型的复杂性带来了训练如此复杂网络的问题,并确保所得模型能泛化到它所训练的例子上(通常神经网络需要大量的训练数据,这是其他模型所不需要的)。
传统上,逻辑回归一直被限制在使用线性分类器进行二元分类(尽管可以通过一对多、一对一等方法轻松实现多类分类,并且有核化的逻辑回归变体允许进行非线性分类任务)。因此,一般来说,逻辑回归通常应用于更简单的、线性可分的分类任务,这些任务可用的训练数据量较少。
像逻辑回归和线性回归这样的模型可以被视为简单的多层感知器(查看这个网站以了解一种解释方式)。
总之,正是模型的复杂性使得神经网络能够解决更复杂的分类任务,并具有更广泛的应用(特别是当应用于原始数据如图像像素强度等时),但它们的复杂性意味着需要大量的训练数据,并且训练它们可能是一项艰巨的任务。