我目前正在为一个包含387个特征和3000个样本的数据集构建神经网络。输出有3个类别。我配置的网络结构如下:
输入->200->{300->100}->50->输出
我选择的节点数和层数是否正确?如何确定每层的节点数(输入层、隐藏层和输出层)?有没有什么规则?
回答:
规则?想要多少规则都可以,也可以没有规则。以下是神经网络常见问题解答中的一段摘录,这是一个很好的页面,可以用来咨询基本问题:
问:我应该使用多少个隐藏单元? ==========================================
仅凭输入和输出的数量无法确定一个好的网络拓扑结构。这取决于训练样本的数量和你试图学习的分类的复杂性。有些问题只有一个输入和一个输出,却需要数百万个隐藏单元,而有些问题有一百万个输入和一百万个输出,却只需要一个隐藏单元,甚至一个也不需要。
一些书籍和文章提供了选择拓扑结构的“经验法则”——输入数加上输出数除以二,可能还涉及到某个地方的平方根——但这些规则完全是垃圾。其他规则与可用样本的数量有关:网络中的权重数乘以10应小于样本数。这些规则只关注过拟合问题,且同样不可靠。
然而,在你的情况下,可以肯定地说,这个网络过于复杂(即使你应用了强烈的正则化)。为什么要使用这么多隐藏层?从一个隐藏层开始——尽管深度学习引起了极大的热情——并使用最少的隐藏节点。增加隐藏节点的数量,直到获得良好的性能。如果不行,再考虑增加更多的层。此外,使用交叉验证和适当的正则化方法。