我在Python中实现了如下所示的感知器学习算法。即使进行了500,000次迭代,它仍然无法收敛。
我有一个训练数据矩阵X和目标向量Y,以及一个需要优化的权重向量w。
我的更新规则是:
while(exist_mistakes): # 用点积检查错误 output = [np.sign(np.dot(X[i], w)) == Y[i] for i in range(0, len(X))] # 找到错误的索引。(随机选择以避免重复相同的索引。) n = random.randint(0, len(X)-1) while(output[n]): # 如果这里的输出为真,则重新选择 n = random.randint(0, len(X)-1) # 一旦找到错误,就进行更新 w = w + Y[n]*X[n]
这是错误的吗?还是为什么即使经过500,000次迭代它仍然不收敛?
回答:
Minsky和Papert的《感知器》在1969年(臭)名昭著地证明了,对于非线性可分的数据集,感知器学习算法并不能保证收敛。
如果你确定你的数据集是线性可分的,你可以尝试为每个数据向量添加一个偏置,如问题中所述:感知器学习算法未收敛到0 —— 添加偏置可以帮助建模不通过原点的决策边界。
或者,如果你想使用一种保证收敛到指定宽度边缘的感知器学习算法变体,即使对于非线性可分的数据集也是如此,可以参考平均感知器 —— PDF。平均感知器是对投票感知器的近似,据我所知,投票感知器是在Freund和Schapire的一篇很好的论文中引入的,“使用感知器算法进行大边界分类” —— PDF。
使用平均感知器,你会在训练过程中每次展示训练样本后复制参数向量。最终的分类器使用所有参数向量的平均值。