隐藏层的训练不起作用

我一个月前开始自学机器学习,特别是深度学习,并且在这方面付出了很多努力。在掌握了所有数学概念后,我决定自己用Python编写一个神经元网络,运行效果很好(超高精度)。

现在我决定使用一个包含2个神经元的隐藏层、1个输出神经元和2个输入来进行尝试,但这不起作用……实际上,成本没有下降,精度也没有提高。但程序是可以运行的(输出如下)

(代码内容保持不变)

这段代码效率不高,因为我试图一步一步地做,以便理解所有内容。我知道问题出在隐藏层的训练上,但它们遵循了我在网上看到的公式(神经元输入 * (预测 – 目标) * sigmoid’(预测) * (下一层权重)),这就是为什么我真的不理解。

这是我的输出(开始和结束时的精度,以及中间的成本),精度没有提高,成本也没有下降:

(代码内容保持不变)

如果你们能帮我解决这个问题,那就太棒了!


回答:

可能是你的导数函数有一些错误。

(代码内容保持不变)

假设你在最后一层输出层有 out_F = sigmod(in_F),其中 out_F 是你的 predictionin_F 是最后一个节点的输入。
这里,对于这个函数,正如你的函数名所暗示的,可能指的是对 in_F 进行求导。所以应该是 d{out_F}/d{in_F} = out_F * (1 - out_F)

试试这个:

(代码内容保持不变)

Related Posts

通用句子编码器,降低向量维度

我成功地使用TensorFlow hub上这个模块转换…

在R中将XGBoost应用于类别变量缺失值的数据

您如何应对在R中应用XGBoost的问题?我遇到了一个…

在Colab上进行图像分类模型训练时,我的训练总是无错误地停止

当我设置Colab环境来训练图像分类模型时,训练过程会…

R中用于生存结果的SuperLearner

我最近开始阅读关于SuperLearner的内容,并尝…

如何使用NumPy数组列表训练机器学习算法?

我正在尝试开发一个使用LinearSVC和另一个使用卷…

使用Keras训练的回归模型对所有测试特征集预测相同输出

我正在尝试构建一个回归模型,使用数据集https://…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注