单层神经网络实现与逻辑门(Python)

我尝试使用以下神经网络来实现一个简单的与门,但似乎没有工作。以下是我的代码:

import numpy as npdef sigmoid(x,derivative=False):    if(derivative==True):        return x*(1-x)    return 1/(1+np.exp(-x))np.random.seed(1)weights = np.array([0,0,0])training = np.array([[[1,1,1],1],                    [[1,1,0],0],                    [[1,0,1],0],                    [[1,0,0],0]])for iter in xrange(training.shape[0]):#forwardPropagation:        a_layer1 = training[iter][0]        z_layer2 = np.dot(weights,a_layer1)        a_layer2 = sigmoid(z_layer2)        hypothesis_theta = a_layer2#backPropagation:        delta_neuron1_layer2 = a_layer2 - training[iter][1]        Delta_neuron1_layer2 = np.dot(a_layer2,delta_neuron1_layer2)        update = Delta_neuron1_layer2/training.shape[0]        weights = weights-updatex = np.array([1,0,1])print weightsprint sigmoid(np.dot(weights,x))

上面的程序一直返回奇怪的值,输入X返回的值高于数组[1,1,1]。每个训练/测试’输入’的第一个元素代表偏置单元。代码是基于Andrew Ng在Coursera的机器学习课程视频改编的: https://www.coursera.org/learn/machine-learning

提前感谢您的帮助。


回答:

几点建议:

  1. 神经网络需要大量数据。你不能只传递几个样本就期望它学到很多东西。
  2. 你使用的是列表和一维数组而不是二维数组。这在使用numpy时是危险的,因为它会在没有指定形状的情况下盲目地进行广播,这在某些情况下可能是危险的。
  3. 你在反向传播中没有使用sigmoid的导数,这是不正确的。

我已经重新调整了你的数组,并且增加了你的输入量。

输出:

[[ 0.34224604]][[ 0.19976054]][[ 0.52710321]]

这还不完美,还有改进的空间。但至少,你现在有了一些成果。预期输出理论值为0的输入,其结果比预期输出理论值为1的输入更接近0。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注