在神经网络理论中,设置隐藏层的规模似乎是一个非常重要的问题。选择隐藏层中神经元数量的标准是什么?
回答:
是的,这确实是一个非常重要的问题。基本上,有两种方法可以做到这一点:
- 尝试不同的拓扑结构并选择最佳的:由于神经元和层的数量是离散参数,你无法通过这些参数来对损失函数进行微分以使用梯度下降方法。因此,最简单的方法是设置不同的拓扑结构,并使用交叉验证或将训练集划分为训练/测试/验证部分来比较它们。你也可以使用网格/随机搜索方案来做到这一点。像
scikit-learn
这样的库有适当的模块来实现这一点。 - Dropout:一种称为dropout的训练框架也可能有帮助。在这种情况下,你设置相对较多的节点在你的层中,并尝试调整每一层的dropout参数。在这种情况下,例如,假设你有一个两层网络,隐藏层有
100
个节点,dropout_parameter = 0.6
,你正在学习模型的混合——其中每个模型是一个神经网络,大小为40
(大约60
个节点被关闭)。这也可以被视为为你的任务找出最佳拓扑结构的方法。