我正在使用以下LSTM结构:
layers = [ ... sequenceInputLayer(1) bilstmLayer(100,'OutputMode','last') fullyConnectedLayer(2) softmaxLayer classificationLayer ];options = trainingOptions('adam', ... 'MaxEpochs',30, ... 'MiniBatchSize', 150, ... 'InitialLearnRate', 0.01, ... 'GradientThreshold', 1, ... 'plots','training-progress', ... 'Verbose',false);
以及 net = trainNetwork(XTrain,Ytrain,layers,options);
其中
-
Xtrain
是一个1×100的单元数组(Xtrain{1,1}
提供一个大小为1000×1的数据数组,Xtrain{1,2}
是另一个大小为1000×1的数据数组,等等)。这意味着我有100个特征向量示例,每个示例的维度为1000。 -
Ytrain
是响应变量0/1,大小为100×1的数组。响应类型为双精度数。
我简单地将MiniBatchSize
参数设为150。我也尝试了其他值,比如50、60、70…似乎都没有影响性能。所以我不完全明白这个参数的含义,以及如何为它找到一个合适的值。能有人帮助解释一下这是什么意思,以及理想情况下应该是什么吗?谢谢
回答:
该参数的解释可以在Mathworks文档页面上找到:
用于每次训练迭代的迷你批量大小,指定为由
MiniBatchSize
和正整数组成的逗号分隔对。迷你批量是用于评估损失函数梯度和更新权重的训练集的子集。参见随机梯度下降法。
关于它的含义,网络上有几个答案,既有Stackexchange网站上的这里和这里,也有网络上的其他地方。一般来说,它应该影响你的优化算法的收敛,以及计算过程中使用的内存量。
请注意,现在普遍认为使用较小的批量大小更好,只要你的训练数据不是太多。