我对Tensorflow中dim
具体指代哪个实际维度感到困惑,特别是当使用tf.metrics.mean_cosine_distance时
已知
x = [ [1, 2, 3, 4, 5], [0, 2, 3, 4, 5],]
我想按列计算距离。换句话说,哪个维度对应于(伪代码):
mean([ cosine_distance(x[0][0], x[1][0]), cosine_distance(x[0][1], x[1][1]), cosine_distance(x[0][2], x[1][2]), cosine_distance(x[0][3], x[1][3]), cosine_distance(x[0][4], x[1][4]),])
回答:
对于你的输入x
,它是沿着dim 0
。一旦你将输入x
构造为numpy数组,这一点就很直观了。
In [49]: x_arr = np.array(x, dtype=np.float32)In [50]: x_arrOut[50]: array([[ 1., 2., 3., 4., 5.], [ 0., 2., 3., 4., 5.]], dtype=float32)# 计算`x[0]`与`x[1]`之间的(平均)余弦距离# 其中`x[0]`可以被视为`labels`# 而`x[1]`可以被视为`predictions`In [51]: cosine_dist_axis0 = tf.metrics.mean_cosine_distance(x_arr[0], x_arr[1], 0)
这个dim
在NumPy术语中对应于axis
名称。例如,可以沿着axis 0
进行简单的sum
操作,如下所示:
In [52]: x_arrOut[52]: array([[ 1., 2., 3., 4., 5.], [ 0., 2., 3., 4., 5.]], dtype=float32)In [53]: np.sum(x_arr, axis=0)Out[53]: array([ 1., 4., 6., 8., 10.], dtype=float32)
当你计算tf.metrics.mean_cosine_distance
时,如果你的输入形状为(n, )
,其中n
是每个向量的长度(即labels/prediction中的条目数),你实际上是在沿着dim 0
计算labels
和predictions
向量之间的余弦距离(然后取平均值)。
但是,如果你将labels
和predictions
作为列向量传递,那么tf.metrics.mean_cosine_distance
必须沿着dim 1
计算。
示例:
如果你的输入label
和prediction
是列向量,
# 如果你的`label`是列向量In [66]: (x_arr[0])[:, None]Out[66]: array([[ 1.], [ 2.], [ 3.], [ 4.], [ 5.]], dtype=float32)# 如果你的`prediction`是列向量In [67]: (x_arr[1])[:, None]Out[67]: array([[ 0.], [ 2.], [ 3.], [ 4.], [ 5.]], dtype=float32)
那么,tf.metrics.mean_cosine_distance
必须沿着dim 1
计算
# 输入In [68]: labels = (x_arr[0])[:, None]In [69]: predictions = (x_arr[1])[:, None]# 计算它们之间的平均余弦距离In [70]: cosine_dist_dim1 = tf.metrics.mean_cosine_distance(labels, predictions, 1)
这个tf.metrics.mean_cosine_distance
大体上与scipy.spatial.distance.cosine
做的是相同的事情,但它也取mean
。
对于你的示例情况:
In [77]: xOut[77]: [[1, 2, 3, 4, 5], [0, 2, 3, 4, 5]]In [78]: import scipyIn [79]: scipy.spatial.distance.cosine(x[0], x[1])Out[79]: 0.009132