张量点积:用Python进行深度学习

我目前正在阅读《用Python进行深度学习》,在第42页上不太确定作者想要表达什么。链接在这里这里

更一般地,你可以按照之前为二维情况概述的形状兼容性规则,在高维张量之间进行点积运算:

(a, b, c, d) . (d,) -> (a, b, c)(a, b, c, d) . (d, e) -> (a, b, c, e)

我不太确定他在这里想要表达什么。我确实理解矩阵乘法是如何工作的,但上面这两行代码并不清楚。


回答:

按照这种表示法,矩阵乘法是

(a, b) * (b, c) -> (a, c)

当第二个矩阵是一个向量时,它简化为

(a, b) * (b, ) -> (a, )

现在,书中的公式只是简单地解释了当第一个或第二个矩阵有额外维度时,如何扩展这种操作。重要的是两者必须有一个匹配的维度(最后一个维度等于第一个维度,不需要重塑),沿着这个维度可以进行张量乘法,消除这个维度。因此,结果形状的公式为:

(a, b, c, d) * (d, e) -> (a, b, c, e)

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注