Hebbian学习

我之前已经问过另一个关于Hebbian学习的问题,我认为我得到了一个不错的答案并接受了它,但是,现在我意识到我对Hebbian学习的理解完全错了,我有点困惑。

那么,你能解释一下它有什么用处吗?因为维基百科和其他一些页面对它的描述似乎不太合理!为什么当输入和输出神经元同时激活时,我们要不断增加它们之间的权重呢?它能用来解决什么样的问题,因为当我在脑海中模拟时,它显然无法完成基本的AND、OR等操作(假设你将权重初始化为零,输出神经元永远不会激活,权重也永远不会增加!)


回答:

你的问题似乎更偏向理论,我不确定它是否适合SO,但由于它直接与神经网络相关,我会尝试回答。

当输入和输出神经元同时激活时,我们增加它们之间的权重,因为同时激活意味着它们之间存在某种关联。

让我们以逻辑函数为例。在AND函数中,你会有两个输入神经元。如果你的输入数据是(0, 0),这意味着两个输入神经元都没有激活,输出也不会激活。因此,在这种情况下,你不需要强连接。

现在考虑输入(1, 1)。两个输入神经元都激活,输出也激活。为了学习这种对应关系,网络应该增加连接输入和输出的权重(记住,这基本上是将输入和偏置神经元相加的问题)。

最后,当输出是(1, 0)(0, 1)时,由于输出是0,这告诉网络没有一个连接应该足够强到独自激活输出神经元。

希望这能解释清楚。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注