我创建了一个代码来训练我的CNN,它将判断一张图片属于哪一个类别(”pdr或nonPdr”)
这是我的Keras模型:
model = Sequential()model.add(Conv2D(input_shape=(605,700,3), filters=64, kernel_size=(3,3), padding="same",activation="tanh"))model.add(MaxPooling2D((2, 2)))model.add(Flatten())model.add(Dense(32, activation='tanh', input_dim=100))model.add(Dense(1, activation='sigmoid'))model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['accuracy'])data, labels = ReadImages(TRAIN_DIR)model.fit(np.array(data), np.array(labels), epochs=10, batch_size=16)model.save('model.h5')
这是我的测试预测文件:
model = load_model('model.h5')model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['accuracy'])test_image = cv2.imread("test_data/im0203.ppm") test_image = test_image.reshape(1,605,700,3).astype('float')test_image = np.array(test_image)test_image2 = cv2.imread("test_data/im0001.ppm") test_image2 = test_image2.reshape(1,605,700,3).astype('float')#predict the resultprint(model.predict(test_image))print(model.predict(test_image2))
运行下面的代码后,我得到了两张图片(一张是pdr,另一张是nonPdr)的相同值
[[0.033681]][[0.033681]]
我该如何修复并改进我的CNN。感谢您的帮助。
更新我尝试删除了一个Dense层,并将最后一层更改为(2, activation=’sigmoid’),但这也不起作用..我真的不知道该怎么办**
回答:
这可能是由多种原因引起的。最可能的原因包括:
-
网络输入和预测时输入的图片可能没有经过相同的预处理步骤。
-
模型过拟合,当它遇到稍微不同的预测图片时,它倾向于基于其训练数据来偏向其决策。
-
模型效果不好
为了避免此类问题,可能的未来解决方案包括:1. 在训练和测试时仅输入标准化或缩放后的图像。
- 不要使用过多的Dense层(特别是对于图像分类),因为Dense层擅长学习空间信息,而要正确分类图像,模型需要以二维矩阵而不是一维空间矩阵的形式查看图像(因为Dense层会将二维矩阵展平为一维矩阵)。
即使你想使用Dense层,我建议仅在最后一层使用Dense层,用于最终的类别数量。一个更好的架构可能是
[ Conv后面跟几个过渡块和瓶颈层 ] x 2flattenDense(number_of_classes)