我正在尝试使用神经网络来近似对数正态分布的概率密度函数(仅作为练习)。然而,model.predict()
总是返回1。以下是我的代码:
import tensorflow as tfimport numpy as npfrom scipy.stats import lognormfrom tensorflow import kerasmu = 5sig =1data = np.linspace(0,600,10000)labels =lognorm.pdf(data,sig,0,np.exp(mu))model = keras.Sequential()model.add(keras.layers.Dense(64,input_shape=(1,),activation='sigmoid'))model.add(keras.layers.Dense(64, activation='sigmoid'))model.add(keras.layers.Dense(1, activation='softmax'))model.compile(optimizer=tf.train.AdamOptimizer(0.001), loss='mse', metrics=['accuracy'])model.fit(data, labels, epochs=1)# Now testx = np.random.lognormal(mu, sig, 100)y =lognorm.pdf(x,sig,0,np.exp(mu))score = model.evaluate(x, y)# score = [0.9951245284080505, 0.0]# Now try predictionnewx = np.linspace(600,1000,50)newy = model.predict(newx)score2 = model.evaluate(newx, newy)# score2 = [0.0, 1.0]
score2
的值为0,但不应该是这样。能有人帮我找出我哪里做错了么?
回答:
你的最后一层使用了softmax,它会尝试将最高的输出字段调整到1的值,同时调整其他输出。
Softmax主要用于分类问题,你希望明确地将一个潜在输出标记为“正确”。
在这种情况下,你只有一个输出,旨在表示0到1之间的值,所以我建议在最后一层使用另一个sigmoid激活函数。