下面的计算是在spark mlib库中用来计算欧几里得距离的
private[mllib] def fastSquaredDistance( v1: Vector, norm1: Double, v2: Vector, norm2: Double, precision: Double = 1e-6): Double = { val n = v1.size require(v2.size == n) require(norm1 >= 0.0 && norm2 >= 0.0) val sumSquaredNorm = norm1 * norm1 + norm2 * norm2 val normDiff = norm1 - norm2 var sqDist = 0.0 val precisionBound1 = 2.0 * EPSILON * sumSquaredNorm / (normDiff * normDiff + EPSILON) if (precisionBound1 < precision) { sqDist = sumSquaredNorm - 2.0 * dot(v1, v2) } else if (v1.isInstanceOf[SparseVector] || v2.isInstanceOf[SparseVector]) { val dotValue = dot(v1, v2) sqDist = math.max(sumSquaredNorm - 2.0 * dotValue, 0.0) val precisionBound2 = EPSILON * (sumSquaredNorm + 2.0 * math.abs(dotValue)) / (sqDist + EPSILON) if (precisionBound2 > precision) { sqDist = Vectors.sqdist(v1, v2) } } else { sqDist = Vectors.sqdist(v1, v2) } sqDist }
我对机器学习非常新手。我的问题是如何通过修改上面的代码来计算曼哈顿距离。
回答:
在没有额外背景的情况下,我建议以最简单的方式实现L1距离:
d_manhatten(u,v) = sum( abs(u[i] - v[i]), i) // 伪代码
我没有仔细看你的代码,但看起来大部分内容是(1)关注精度(对于L1来说,这比L2的问题要少,因为没有平方)和(2)使用L2范数作为输入(据我所知,这些在计算L1时没有用)。所以修改当前的方法可能不是很有用。
另外,我听说过过早优化是万恶之源,所以先尝试最简单的方法,如果不可接受,再尝试混淆优化:)