在学习Andrew Ng的机器学习MOOC课程时,他理论上解释了theta'*X
给出了假设,但在课程作业中我们使用theta*X
。这是为什么呢?
回答:
在数学中,’向量’总是被定义为垂直堆叠的数组,例如,它表示三维空间中的一个单一点。
一个’水平’向量,通常表示一组观测值,例如是一个包含三个标量观测值的元组。
同样,矩阵可以被视为向量的集合。例如,以下是一个包含四个三维向量的集合:
标量可以被视为1×1大小的矩阵,因此它的转置与原矩阵相同。
更一般地,一个n行m列的矩阵W
也可以被视为从m维向量x
到n维向量y
的变换,因为将该矩阵与m维向量相乘会产生一个新的n维向量。如果你的’矩阵’W
是’1xn’,那么这表示从n维向量到标量的变换。
因此,从符号上讲,通常会从数学符号的角度引入问题,例如y = Wx
。
然而,出于计算原因,有时进行“向量乘以矩阵”的计算比“矩阵乘以向量”更有意义。由于(Wx)' === x'W'
,有时我们会以这种方式解决问题,并将x'
视为水平向量。此外,如果W
不是矩阵,而是一个标量,那么Wx
表示标量乘法,因此在这种情况下Wx === xW
。
我不了解你提到的练习,但我的假设是在课程中他将theta
介绍为一个正确的垂直向量,但随后为了进行正确的计算而对其进行了转置,即从n维向量到标量的变换(这是你的预测)。
然后在练习中,大概你要么处理的是一个标量’theta’,因此没有必要对其进行转置,并为了方便起见保留为theta,要么,theta一开始就被定义为水平(即转置)向量,出于某种原因(例如打印方便),然后在进行必要的变换时保持这种状态。