梯度下降:我们是否在每次GD步骤中迭代整个训练集?还是针对每个训练集改变GD?

我通过一些在线资源自学了机器学习,但关于梯度下降有一个…

梯度下降的收敛性 如何判断收敛?

我通过在线资源(特别是Coursera上的机器学习课程…

如何处理机器学习中的大量特征

我开发了一个图像处理程序,能够识别给定数字图像中的数字…

如何确定梯度下降算法中的学习率和方差?

我上周开始学习机器学习。当我想编写一个梯度下降脚本来估…

为什么使用函数的导数来计算局部最小值而不是实际函数本身?

在机器学习的回归问题中,为什么要计算导数函数的局部最小…

梯度下降与fminunc的比较

我在尝试运行梯度下降算法,但使用完全相同的数据时,无法…

带约束的梯度下降法(拉格朗日乘数法)

我正在尝试使用梯度下降法在N个参数中找到一个函数的最小…

梯度下降与牛顿梯度下降的区别是什么?

我了解梯度下降的作用。基本原理是通过沿着曲线缓慢移动来…

梯度下降似乎失败了

我使用Octave实现了一个梯度下降算法,以最小化成本…

DEoptim包中步长参数的解释

我在阅读小册子“使用DEoptim进行大规模投资组合优…

直观理解Adam优化器

根据Adam的伪代码: 我编写了一些代码: from …

PyTorch `torch.no_grad` 与 `torch.inference_mode` 的对比

PyTorch 从 v1.9 版本开始引入了新的功能 …

如何在我的代码中检查PyTorch中每一层的输出梯度?

我正在学习使用PyTorch。 我有一个问题,如何在我…

Java神经网络反向传播失败

我编写了一个神经网络的代码,但在训练网络时无法产生预期…

在Octave/Matlab中实现神经网络

我正在尝试构建一个由三层组成的简单神经网络,以解决二元…

梯度下降本身能解决ANN中的非线性问题吗?

我最近在研究神经网络的理论。对ANN中梯度下降和激活函…

Pytorch – 获取中间变量/张量的梯度

作为在Pytorch框架(0.4.1版)中的一个练习,…

在Python中实现梯度下降并遇到溢出错误

梯度下降与溢出错误 我目前正在Python中实现向量化…

为什么RMSProp被认为是“泄漏”的?

decay_rate = 0.99 # RMSProp…

SGD(随机梯度下降) vs 反向传播

请问您能告诉我随机梯度下降(SGD)和反向传播之间的区…

线性回归的梯度下降法不起作用

我尝试使用梯度下降法为一些样本数据编写一个线性回归程序…

参数theta更新后如何引导决策边界

这学期我在学习机器学习算法,但我不太明白在运行梯度下降…

Java中的梯度下降算法

我最近在Coursera上开始了AI课程,我想请教一个…

反向传播,所有输出趋向于1

我在MATLAB中实现了反向传播算法,但在训练过程中遇…

ANN: 如何正确选择初始权重以避免局部最小值?

在反向传播训练中,沿着误差曲面进行梯度下降时,隐藏层中…