这可能有点冒险,但我想请教一下,有人能看看这个吗?我在这里正确地执行了批量梯度下降的线性回归吗?它对于单个独立变量和截距给出了预期的答案,但对于多个独立变量则不行。
/** * (使用Colt矩阵库) * @param alpha 学习率 * @param thetas 当前的Thetas * @param independent * @param dependent * @return 新的Thetas */public DoubleMatrix1D descent(double alpha, DoubleMatrix1D thetas, DoubleMatrix2D independent, DoubleMatrix1D dependent ) { Algebra algebra = new Algebra(); // ALPHA*(1/M) 合为一体. double modifier = alpha / (double)independent.rows(); //我认为这里可以跳过theta的转置. //这是每个Xi通过theta(假设函数)运行的结果 //所以每个Xj特征都乘以其对应的Theata,以获得假设的结果 DoubleMatrix1D hypothesies = algebra.mult( independent, thetas ); //假设 - Y //现在我们有了每个Xi,假设预测与实际Yi之间的差异 hypothesies.assign(dependent, Functions.minus); //转置示例(MxN)为NxM,以便我们可以与假设Nx1进行矩阵乘法 DoubleMatrix2D transposed = algebra.transpose(independent); DoubleMatrix1D deltas = algebra.mult(transposed, hypothesies ); //按1/m和学习率alhpa缩放deltas. (alpha/m) deltas.assign(Functions.mult(modifier)); //Theta = Theta - Deltas thetas.assign( deltas, Functions.minus ); return( thetas );}
回答:
你的实现没有问题,根据你的评论,问题出在生成x2
时引入了共线性
,这在回归估计中是有问题的。
为了测试你的算法,你可以生成两列独立的随机数。选择w0
、w1
和w2
的值,即截距
、x1
和x2
的系数。计算依赖值y
。
然后看看你的随机/批量梯度下降算法是否能恢复w0
、w1
和w2
的值