RNN: 时间上的反向传播仅在最后时间步输出时

在Denny Britz关于循环神经网络的博客中。enter image description here作者提到,”上图在每个时间步都有输出,但根据任务的不同,这可能不是必要的。例如,在预测句子情感时,我们可能只关心最终的输出,而不在意每个词后的情感。同样,我们可能不需要在每个时间步输入数据。

当我们仅在最后时间步获取输出时:如果没有每个时间步的输出,只有最后一个输出,反向传播会如何改变?我们需要在每个时间步定义损失,但没有输出该如何定义呢?


回答:

并不是说你“需要在每个时间步定义输出”,实际上,当只有一个输出时,时间上的反向传播比图中展示的要简单。如果只有一个输出,只需“将你的网络旋转90度”,它就会变成一个普通的前馈网络(只是有一些信号直接进入隐藏层)——反向传播像往常一样工作,将偏导数推过系统。当我们在每个步骤都有输出时,情况变得更加复杂,通常你会定义真实损失为所有“小损失”的总和,因此你必须将所有梯度相加。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注