为什么我们不能直接使用阶跃函数,然后在计算权重时使用,
weightChange = n * (t-o) * iWhere, n: 学习率;t: 目标输出;o: 实际输出;i: 输入
这在单层网络中是可行的。我听说Sigmoid函数是用来处理非线性问题的,但为什么呢?
回答:
严格来说,你并不需要使用Sigmoid激活函数。你需要的是一个可微分的函数,作为阶跃函数的近似。作为Sigmoid的替代,你可以使用双曲正切函数。
对于多层感知器网络,简单的感知器学习规则无法提供一种方法来确定离输出层有几层的一个权重应该如何调整,基于给定的输出误差。反向传播学习规则依赖于Sigmoid函数是可微分的这一事实,这使得可以表征输出层误差相对于特定权重变化的变化率(即使该权重离输出层有多个层)。请注意,当Sigmoid的k
参数趋向于无穷大时,Sigmoid函数会接近阶跃函数,这是基本感知器中使用的激活函数。