我已经创建了一个简单的NN来决定输入层中两个二进制值的XNOR值。我有所有可能组合的Numpy数组和标签。
代码:
from keras.models import Sequentialfrom keras.layers import Denseimport numpydata = numpy.array([[0.,0.,1.],[0.,1.,0.],[1.,0.,0.],[1.,1.,1.]])train = data[:,:-1] # 使用相同的数据进行训练test = data[:,:-1] train_l = data[:,-1]test_l = data[:,-1]train_label = []test_label = []for i in train_l: train_label.append([i])for i in test_l: test_label.append([i]) # 将标签转换为单元素...train_label = numpy.array(train_label)test_label = numpy.array(test_label) # 转换为Numpy数组model = Sequential()model.add(Dense(2,input_dim = 2,activation = 'relu'))model.add(Dense(2,activation = 'relu'))model.add(Dense(1,activation = 'relu'))model.compile(loss = "binary_crossentropy" , metrics = ['accuracy'], optimizer = 'adam')model.fit(train,train_label, epochs = 10, verbose=2)model.predict_classes(test)
即使使用相同的数据集进行训练和测试…它也无法正确预测…我哪里做错了?
我故意使用了整个数据集,因为它无法用两个值进行预测…
回答:
你的架构对于这个函数来说太简单了。如果你使用下面的架构并训练100个周期,你将得到准确度=1。
model = Sequential()model.add(Dense(20,input_dim = 2,activation = 'relu'))model.add(Dense(20,activation = 'relu'))model.add(Dense(1,activation = 'sigmoid'))
更新:为什么简单的模型效果不佳?
一个原因是,使用ReLU激活函数,如果某个神经元在每个数据点上都变为负数,其梯度变为零,其权重就不会再训练。你开始时只有少数神经元,如果其中一些以这种方式“死亡”,剩下的神经元可能不足以逼近该函数。
另一个问题是,较少的神经元更容易使模型陷入局部最小值。
然而,你说的没错,理论上,只需要少数几个神经元就应该足够了。下面的模型即使只有一层也能工作。我用LeakyReLU替换了ReLU来解决第一个问题。它大多数时候都能工作,但有时会陷入局部最小值。
model = Sequential()model.add(Dense(2,input_dim = 2,activation = LeakyReLU(alpha=0.3)))model.add(Dense(1,activation = 'sigmoid'))optimizer = Adam(lr=0.01)model.compile(loss = "binary_crossentropy" , metrics = ['accuracy'], optimizer=optimizer)model.fit(train,train_label, epochs = 500, verbose=2)