为什么我的GradientDescentOptimizer会产生NaN?

我目前正在重新编写Andrew Ng教授在Coursera上的“机器学习”课程作业,并且在逻辑回归部分遇到了困难。

filename = 'data/ex2data1.txt'data = np.loadtxt(filename, delimiter = ",", unpack = True)# Data matricesxtr = np.transpose(np.array(data[:-1]))ytr = np.transpose(np.array(data[-1:]))# Initial weightsW = tf.Variable(tf.zeros([2,1], dtype = tf.float64))# Biasb = tf.Variable(tf.zeros([1], dtype = tf.float64))# Cost functiony_ = tf.nn.sigmoid(tf.matmul(xtr,W) + b)cost = -tf.reduce_mean(ytr*tf.log(y_) + (1-ytr)*tf.log(1-y_))optimize = tf.train.GradientDescentOptimizer(0.01).minimize(cost)corr = tf.equal(tf.argmax(ytr,1), tf.argmax(y_,1))acc = tf.reduce_mean(tf.cast(corr, tf.float64))init = tf.initialize_all_variables()with tf.Session() as sess:    sess.run(init)    print(sess.run(cost))    for _ in range(3):        sess.run(optimize)        print(sess.run(cost))

这会产生以下结果:

0.69314718056nannannan

成本函数的第一个结果是正确的,但接下来的结果应该是:

3.01331.52070.7336

而我得到了一堆NaN。我尝试过降低学习率,但都没有效果。我做错了什么?是否有可能在TensorFlow中重现这个作业?

附注:其他Python解决方案似乎使用了scipy.optimize,但我不知道如何将它与TensorFlow值一起使用,如果可能的话,我希望只使用TensorFlow。

编辑:我也尝试过将偏置设为tf.ones而不是tf.zeros,但这也没有效果。


回答:

你的对数函数没有对输入进行清理。很可能你有负值输入,这会很快使任何浮点数运算变成NaN。

我在Java代码中处理类似领域大量使用对数时所做的操作如下:

  • 检查NaN或Infinity,并假设输出为零
  • 如果输入为负数,将输出裁剪到某个静态数值,例如log(1e-5) ≈ -11.51
  • 否则直接取对数

在Java中,这段代码看起来像这样,应该不难翻译成tf:

public static double guardedLogarithm(double input) {    if (Double.isNaN(input) || Double.isInfinite(input)) {      return 0d;    } else if (input <= 0d || input <= -0d) {      // 假设一个相当低的值log(1e-5) ≈ -11.51      return -10d;    } else {      return FastMath.log(input);    }  }

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注