我正在进行一个需要识别面部特征的项目,给定一个人的脸部。我将这个问题设定为回归问题,并希望从一个简单的卷积网络开始,并定义了下面的网络结构。
我注意到预测的输出始终相同,经过进一步调试后,我发现评分层的权重和梯度在迭代过程中没有变化。我使用了约5e-2的固定学习率来生成下面的示例。训练损失随着迭代的进行似乎在减少,但我无法理解这是为什么。我还记录了其他层:'conv1'
、'conv2'
、'fc1'
,并观察到它们在迭代过程中保持不变。由于损失似乎在减少,肯定有什么东西在变化,我的猜测是我的记录方式可能有问题。
您能给我一些检查的建议吗?如果您需要更多信息,请告诉我。
修改后的LeNet网络:
# 修改后的LeNet。添加了relu1, relu2和dropout。损失函数是欧几里得距离
def lenet(hdf5_list, batch_size=64, dropout_ratio=0.5, train=True):
# 我们的LeNet版本:一系列线性和简单的非线性变换
n = caffe.NetSpec()
n.data, n.label = L.HDF5Data(batch_size=batch_size, source=hdf5_list, ntop=2)
n.conv1 = L.Convolution(n.data, kernel_size=5, num_output=20, weight_filler=dict(type='xavier'), bias_filler=dict(type='constant', value=0.1))
n.relu1 = L.ReLU(n.conv1, in_place=False, relu_param=dict(negative_slope=0.1))
n.pool1 = L.Pooling(n.relu1, kernel_size=2, stride=2, pool=P.Pooling.MAX)
n.conv2 = L.Convolution(n.pool1, kernel_size=5, num_output=50, weight_filler=dict(type='xavier'), bias_filler=dict(type='constant', value=0.1))
n.relu2 = L.ReLU(n.conv2, in_place=False, relu_param=dict(negative_slope=0.1))
n.pool2 = L.Pooling(n.relu2, kernel_size=2, stride=2, pool=P.Pooling.MAX)
if train:
n.drop3 = fc1_input = L.Dropout(n.pool2, in_place=True, dropout_param = dict(dropout_ratio=dropout_ratio) )
else:
fc1_input = n.pool2
n.fc1 = L.InnerProduct(fc1_input, num_output=500, weight_filler=dict(type='xavier'), bias_filler=dict(type='constant', value=0.1))
n.relu3 = L.ReLU(n.fc1, in_place=True, relu_param=dict(negative_slope=0.1))
n.score = L.InnerProduct(n.relu3, num_output=30, weight_filler=dict(type='xavier'))
n.loss = L.EuclideanLoss(n.score, n.label)
return n.to_proto()
求解器循环:
# 自定义求解器循环
for it in range(niter):
solver.step(1)
train_loss[it] = solver.net.blobs['loss'].data
score_weights.append(solver.net.params['score'][0].data)
score_biases.append(solver.net.params['score'][1].data)
score_weights_diff.append(solver.net.params['score'][0].diff)
score_biases_diff.append(solver.net.params['score'][1].diff)
if (it % val_interval) == 0 or (it == niter - 1):
val_error_this = 0
for test_it in range(niter_val_error):
solver.test_nets[0].forward()
val_error_this += euclidean_loss(solver.test_nets[0].blobs['score'].data , solver.test_nets[0].blobs['label'].data) / niter_val_error
val_error[it // val_interval] = val_error_this
打印分数:
print score_weights_diff[0].shape
for i in range(10):
score_weights_i = score_weights_diff[i]
print score_weights_i[0:30:10,0]
print score_biases_diff[0].shape
for i in range(5):
score_biases_i = score_biases_diff[i]
print score_biases_i[0:30:6]
输出:
(30, 500)
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
[ -3.71852257e-05 7.34565838e-05 2.61445384e-04]
(30,)
[ 3.22921231e-04 5.66378840e-05 -5.15143370e-07 -1.51118627e-04 2.30352176e-04]
[ 3.22921231e-04 5.66378840e-05 -5.15143370e-07 -1.51118627e-04 2.30352176e-04]
[ 3.22921231e-04 5.66378840e-05 -5.15143370e-07 -1.51118627e-04 2.30352176e-04]
[ 3.22921231e-04 5.66378840e-05 -5.15143370e-07 -1.51118627e-04 2.30352176e-04]
[ 3.22921231e-04 5.66378840e-05 -5.15143370e-07 -1.51118627e-04 2.30352176e-04]
回答:
从您的代码中有点难以看出,但有可能score_weights_diff
、score_biases_diff
和其他列表存储的是solver.net.params['score'][0].diff
的引用,因此列表中的所有条目实际上是相同的,并且在每次迭代时一起变化。
-
尝试保存一个副本:
score_weights_diff.append(solver.net.params['score'][0].diff[...].copy())
- 尝试在每次迭代后打印权重/偏置,看看它们是否有变化。