什么是NEAT与强化学习之间的关系?

据我所知,NEAT(增强拓扑的神经进化)是一种利用进化概念来训练神经网络的算法。另一方面,强化学习是一种机器学习类型,其概念是“奖励”更成功的节点。

这两个领域看起来相当相似,它们之间的区别是什么?还是NEAT是从强化学习中衍生出来的?


回答:

简而言之,它们几乎没有什么共同点。

NEAT是一种进化方法。这是一种优化函数的黑盒方法。在这种情况下 – 神经网络的性能(可以轻松测量)相对于其架构(在进化过程中进行更改)。

强化学习是关于代理,学习在环境中表现良好的策略。因此,它们解决了不同、更复杂的问题。理论上,你可以使用RL来学习NEAT,因为你可以提出这样的问题:“给定一个神经网络作为状态,学习如何随着时间的推移修改它以获得更好的性能”。关键的区别在于 – NEAT的输出是一个网络,RL的输出是一个策略、策略、算法。可以多次使用的东西,以在某个环境中工作,采取行动并获得奖励。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注