我正在尝试实现一个多类逻辑回归分类器,用于区分k
个不同的类别。
这是我的代码。
我可以验证成本和梯度函数返回的值维度是正确的(成本函数返回标量,梯度函数返回一个1乘n的行向量),但我得到了以下错误
RuntimeWarning: divide by zero encountered in log J = (np.dot(-(y.T),np.log(expit(np.dot(X,theta))))-np.dot((np.ones((m,1))-y).T,np.log(np.ones((m,1)) - (expit(np.dot(X,theta))).reshape((m,1))))) / m + (regTerm / (2 * m)) * np.linalg.norm(theta[1:])
为什么会发生这种情况?我该如何避免这种错误?
回答:
你可以通过适当使用广播、使用*
运算符进行向量点积、使用@
运算符进行矩阵乘法,并按照评论中建议的分解公式来清理公式。
这是你的成本函数:
def cost(X, y, theta, regTerm): m = X.shape[0] # 或者y.shape,或者在下一行之后的p.shape,训练集的数量 p = expit(X @ theta) log_loss = -np.average(y*np.log(p) + (1-y)*np.log(1-p)) J = log_loss + regTerm * np.linalg.norm(theta[1:]) / (2*m) return J
你可以按照同样的思路清理你的梯度函数。
顺便问一下,你确定要使用np.linalg.norm(theta[1:])
吗?如果你想进行L2正则化,这个项应该是np.linalg.norm(theta[1:]) ** 2
。