将欧几里得距离转换为曼哈顿距离

下面的计算是在spark mlib库中用来计算欧几里得距离的

private[mllib] def fastSquaredDistance(      v1: Vector,      norm1: Double,      v2: Vector,      norm2: Double,      precision: Double = 1e-6): Double = {    val n = v1.size    require(v2.size == n)    require(norm1 >= 0.0 && norm2 >= 0.0)    val sumSquaredNorm = norm1 * norm1 + norm2 * norm2    val normDiff = norm1 - norm2    var sqDist = 0.0    val precisionBound1 = 2.0 * EPSILON * sumSquaredNorm / (normDiff * normDiff + EPSILON)    if (precisionBound1 < precision) {      sqDist = sumSquaredNorm - 2.0 * dot(v1, v2)    } else if (v1.isInstanceOf[SparseVector] || v2.isInstanceOf[SparseVector]) {      val dotValue = dot(v1, v2)      sqDist = math.max(sumSquaredNorm - 2.0 * dotValue, 0.0)      val precisionBound2 = EPSILON * (sumSquaredNorm + 2.0 * math.abs(dotValue)) /        (sqDist + EPSILON)      if (precisionBound2 > precision) {        sqDist = Vectors.sqdist(v1, v2)      }    } else {      sqDist = Vectors.sqdist(v1, v2)    }    sqDist  }

我对机器学习非常新手。我的问题是如何通过修改上面的代码来计算曼哈顿距离。


回答:

在没有额外背景的情况下,我建议以最简单的方式实现L1距离:

d_manhatten(u,v) = sum( abs(u[i] - v[i]), i)     // 伪代码

我没有仔细看你的代码,但看起来大部分内容是(1)关注精度(对于L1来说,这比L2的问题要少,因为没有平方)和(2)使用L2范数作为输入(据我所知,这些在计算L1时没有用)。所以修改当前的方法可能不是很有用。

另外,我听说过过早优化是万恶之源,所以先尝试最简单的方法,如果不可接受,再尝试混淆优化:)

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注