在另一个问题中,问者有一个批量归一化层,但在本例中没有使用批量归一化层。
model.fit(training_data, training_targets, batch_size=16, epochs=1)
第1轮/共1轮 33350/33350 [==============================] – 18秒 – 损失: 0.0926 – 准确率: 0.9703 Out[708]:
model.evaluate(training_data, training_targets)
33248/33350 [============================>.] – 预计剩余时间: 0秒 Out[709]: >[0.027722493904928553, 0.99157421289355319]
model = Sequential([ LocallyConnected2D(10, kernel_size=(20, 20), strides=4, padding='valid', activation='relu', input_shape=(50, 110, 1)) , Dropout(0.3), Flatten(), Dense(1, activation='sigmoid')])model.compile(loss='binary_crossentropy', optimizer='adam', metrics='accuracy'])
回答:
你在进度条中看到的损失是每批次的损失,并不是在整个训练集上评估的。当你使用model.evaluate
时,你是在整个训练集上进行评估,因此损失值不同是预料之中的事。
另外,正如评论中人们提到的,Dropout在测试时的评估过程中会被禁用,这也会影响结果。