为什么我的GradientDescentOptimizer会产生NaN?

我目前正在重新编写Andrew Ng教授在Coursera上的“机器学习”课程作业,并且在逻辑回归部分遇到了困难。

filename = 'data/ex2data1.txt'data = np.loadtxt(filename, delimiter = ",", unpack = True)# Data matricesxtr = np.transpose(np.array(data[:-1]))ytr = np.transpose(np.array(data[-1:]))# Initial weightsW = tf.Variable(tf.zeros([2,1], dtype = tf.float64))# Biasb = tf.Variable(tf.zeros([1], dtype = tf.float64))# Cost functiony_ = tf.nn.sigmoid(tf.matmul(xtr,W) + b)cost = -tf.reduce_mean(ytr*tf.log(y_) + (1-ytr)*tf.log(1-y_))optimize = tf.train.GradientDescentOptimizer(0.01).minimize(cost)corr = tf.equal(tf.argmax(ytr,1), tf.argmax(y_,1))acc = tf.reduce_mean(tf.cast(corr, tf.float64))init = tf.initialize_all_variables()with tf.Session() as sess:    sess.run(init)    print(sess.run(cost))    for _ in range(3):        sess.run(optimize)        print(sess.run(cost))

这会产生以下结果:

0.69314718056nannannan

成本函数的第一个结果是正确的,但接下来的结果应该是:

3.01331.52070.7336

而我得到了一堆NaN。我尝试过降低学习率,但都没有效果。我做错了什么?是否有可能在TensorFlow中重现这个作业?

附注:其他Python解决方案似乎使用了scipy.optimize,但我不知道如何将它与TensorFlow值一起使用,如果可能的话,我希望只使用TensorFlow。

编辑:我也尝试过将偏置设为tf.ones而不是tf.zeros,但这也没有效果。


回答:

你的对数函数没有对输入进行清理。很可能你有负值输入,这会很快使任何浮点数运算变成NaN。

我在Java代码中处理类似领域大量使用对数时所做的操作如下:

  • 检查NaN或Infinity,并假设输出为零
  • 如果输入为负数,将输出裁剪到某个静态数值,例如log(1e-5) ≈ -11.51
  • 否则直接取对数

在Java中,这段代码看起来像这样,应该不难翻译成tf:

public static double guardedLogarithm(double input) {    if (Double.isNaN(input) || Double.isInfinite(input)) {      return 0d;    } else if (input <= 0d || input <= -0d) {      // 假设一个相当低的值log(1e-5) ≈ -11.51      return -10d;    } else {      return FastMath.log(input);    }  }

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注