矩阵块的点积运算在TensorFlow中的实现

我有两个相同大小的方阵和一个方块的维度。我希望计算每对块之间的点积。本质上我想实现以下操作:

def patch_dot(A, B, patch_dim):    res_dim = A.shape[0] - patch_dim + 1    res = np.zeros([res_dim, res_dim, res_dim, res_dim])    for i in xrange(res_dim):        for j in xrange(res_dim):            for k in xrange(res_dim):                for l in xrange(res_dim):                    res[i, j, k, l] = (A[i:i + patch_dim, j:j + patch_dim] *                                       B[k:k + patch_dim, l:l + patch_dim]).sum()    return res

显然,这将是一个极其低效的实现。TensorFlow的tf.nn.conv2d看起来像是解决这个问题的天然选择,因为我本质上是在进行卷积操作,然而我的滤波矩阵并不是固定的。在TensorFlow中是否有自然的解决方案,或者我应该开始考虑实现自己的tf-op?


回答:

解决这个问题的自然方法是首先使用tf.extract_image_patches从矩阵B中提取重叠的图像块,然后使用tf.map_fn对A和每个B子块应用tf.nn.conv2D函数。

请注意,在使用tf.extract_image_patchestf.nn.conv2D之前,您需要使用tf.reshape将您的矩阵重塑为形状为[1, width, height, 1]的4D张量。

此外,在使用tf.map_fn之前,您还需要使用tf.transpose操作,以便B的子块由您用作tf.map_fnelems参数的张量的第一维度来索引。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注