我正在使用Keras处理MNIST和Boston_Housing数据集,我想知道如何确定每层的Optimal层数和激活函数。我不是在询问最佳层数/激活函数具体是什么,而是在问确定这些参数的过程是什么。
我使用均方误差和平均绝对误差来评估我的模型。以下是我的当前模型的结构:
model = models.Sequential() model.add(layers.Dense(64, activation='relu')) model.add(layers.Dense(64, init='glorot_uniform', activation=layers.Activation('selu'))) model.add(layers.Dense(64,activation = 'softplus'))model.add(layers.Dense(1))model.compile(optimizer = 'rmsprop', loss='mse', metrics=['mae'])
我的均方误差为3.5,平均绝对误差为27。
回答:
关于选择激活函数,
- 现代神经网络在隐藏层主要使用ReLU或leakyReLU。
- 对于分类问题,输出层使用softmax激活函数。
- 对于回归问题,输出层使用线性激活函数。
关于选择层数,
- 完全取决于你的问题。
- 当数据复杂时,更多的层有助于有效地逼近输入和输出之间的函数关系。
- 有时候,对于较小的问题,比如MNIST,仅有2个隐藏层的网络就能很好地工作。