反向传播中的矩阵维度不匹配

我正在尝试实现一个带有单隐藏层的 neural network 来分类两个训练样本。这个网络使用 sigmoid 激活函数。

层的维度和权重如下:

X : 2X4w1 : 2X3l1 : 4X3w2 : 2X4Y : 2X3

我在反向传播中遇到了一个问题,矩阵维度不正确。以下代码:

import numpy as npM = 2learning_rate = 0.0001X_train = np.asarray([[1,1,1,1] , [0,0,0,0]])Y_train = np.asarray([[1,1,1] , [0,0,0]])X_trainT = X_train.TY_trainT = Y_train.TA2_sig = 0;A1_sig = 0;def sigmoid(z):    s = 1 / (1 + np.exp(-z))      return sdef forwardProp() :     global A2_sig, A1_sig;    w1=np.random.uniform(low=-1, high=1, size=(2, 2))    b1=np.random.uniform(low=1, high=1, size=(2, 1))    w1 = np.concatenate((w1 , b1) , axis=1)    A1_dot = np.dot(X_trainT , w1)    A1_sig = sigmoid(A1_dot).T    w2=np.random.uniform(low=-1, high=1, size=(4, 1))    b2=np.random.uniform(low=1, high=1, size=(4, 1))    w2 = np.concatenate((w2 , b2) , axis=1)    A2_dot = np.dot(A1_sig, w2)    A2_sig = sigmoid(A2_dot)def backProp() :     global A2_sig;    global A1_sig;    error1 = np.dot((A2_sig - Y_trainT).T, A1_sig / M)    print(A1_sig)    print(error1)    error2 = A1_sig.T - error1forwardProp()backProp()

返回错误:

ValueError                                Traceback (most recent call last)<ipython-input-605-5aa61e60051c> in <module>()     45      46 forwardProp()---> 47 backProp()     48      49 # dw2 = np.dot((Y_trainT - A2_sig))<ipython-input-605-5aa61e60051c> in backProp()     42     print(A1_sig)     43     print(error1)---> 44     error2 = A1_sig.T - error1     45      46 forwardProp()ValueError: operands could not be broadcast together with shapes (4,3) (2,4) 

如何计算上一层的误差?

更新:

返回错误:

ValueError                                Traceback (most recent call last)<ipython-input-664-25e99255981f> in <module>()     47      48 print(forwardProp())---> 49 print(backProp())<ipython-input-664-25e99255981f> in backProp()     42      43     error1 = np.dot((A2_sig - Y_trainT.T).T , A1_sig / M)---> 44     error2 = error1.T - A1_sig     45      46     return(error1)ValueError: operands could not be broadcast together with shapes (2,3) (2,2) 

是否错误设置了矩阵维度?


回答:

代码审查

我已经检查了你最新的版本,并发现了以下错误:

  • (小问题) 在前向传递中,A1_sig 从未被使用过,可能是打字错误。
  • (重大问题) 在反向传递中,我不确定你打算使用什么作为损失函数。从代码来看,看起来是 L2 损失:

    error1 = np.dot((A2_sig - Y_trainT.T).T , A1_sig / M)

    关键表达式是这个:A2_sig - Y_trainT.T(虽然可能是我没理解你的想法)。

    然而,你提到你在做多标签分类,很可能是有限二元分类。在这种情况下,L2 损失是一个糟糕的选择(如果你有兴趣了解原因,请查看这个帖子)。相反,应该使用逻辑回归损失,也称为交叉熵。在你的情况下,是二元的。

  • (关键问题) 在反向传递中,你跳过了 sigmoid 层。以下行将损失误差传递到线性层:

    error1 = np.dot((A2_sig - Y_trainT.T).T , A1_sig / M)

    … 而前向传递在线性层之后通过 sigmoid 激活函数(这是正确的)。此时,error1 没有任何意义,其维度也不重要。

解决方案

我不喜欢你的变量命名,很容易混淆。所以我改了名字并重新组织了代码。这里是收敛的 NN:

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注