XOR神经网络,损失不下降

我在使用Mxnet训练一个XOR神经网络,但损失值没有下降,始终保持在0.5以上。

以下是我在Mxnet 1.1.0;Python 3.6;OS X El Capitan 10.11.6上的代码

我尝试了两种损失函数 – 平方损失和softmax损失,两者都不起作用。

from mxnet import ndarray as ndfrom mxnet import autogradfrom mxnet import gluonimport matplotlib.pyplot as pltX = nd.array([[0,0],[0,1],[1,0],[1,1]])y = nd.array([0,1,1,0])batch_size = 1dataset = gluon.data.ArrayDataset(X, y)data_iter = gluon.data.DataLoader(dataset, batch_size, shuffle=True)plt.scatter(X[:, 1].asnumpy(),y.asnumpy())plt.show()net = gluon.nn.Sequential()with net.name_scope():    net.add(gluon.nn.Dense(2, activation="tanh"))    net.add(gluon.nn.Dense(1, activation="tanh"))net.initialize()softmax_cross_entropy = gluon.loss.SigmoidBCELoss()#SigmoidBinaryCrossEntropyLoss()square_loss = gluon.loss.L2Loss()trainer = gluon.Trainer(net.collect_params(), 'sgd', {'learning_rate': 0.3})train_losses = []for epoch in range(100):    train_loss = 0    for data, label in data_iter:        with autograd.record():            output = net(data)            loss = square_loss(output, label)        loss.backward()        trainer.step(batch_size)        train_loss += nd.mean(loss).asscalar()    train_losses.append(train_loss)plt.plot(train_losses)plt.show()

回答:

我在其他地方找到了这个问题的解决方案,所以我将在这里发布答案。

基本上,我原始代码中的问题是多方面的。

  1. 权重初始化。请注意,我使用了默认初始化

net.initialize()

实际上执行的是

net.initialize(initializer.Uniform(scale=0.07))

显然,这些初始权重太小,网络无法跳出这些权重。因此,解决方法是

net.initialize(mx.init.Uniform(1))

这样做后,网络可以使用sigmoid/tanh作为激活函数,并使用L2Loss作为损失函数来收敛。并且它可以与sigmoidSigmoidBCELoss一起工作。然而,它仍然无法与tanhSigmoidBCELoss一起工作,这可以通过下面的第二项来解决。

  1. SigmoidBCELoss必须在输出层使用这两种情况。

    2.1. 线性激活SigmoidBCELoss(from_sigmoid=False)

    2.2. 非线性激活SigmoidBCELoss(from_sigmoid=True),其中非线性函数的输出落在(0, 1)之间。

在我原始的代码中,当我使用SigmoidBCELoss时,我使用了全部sigmoid或全部tanh。所以只需将输出层的激活函数从tanh更改为sigmoid,网络就能收敛。我仍然可以在隐藏层中使用tanh

希望这对你有帮助!

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注