我正在尝试通过谷歌的教程学习使用TensorFlow Estimator来训练和识别图像:https://www.tensorflow.org/tutorials/estimators/cnn
我在教程中看到的数据有:train_data, train_labels, eval_data, eval_labels:
((train_data,train_labels),(eval_data,eval_labels)) = tf.keras.datasets.mnist.load_data();
在卷积层中,应该有特征滤波器图像数据与输入图像数据相乘?但是我在代码中没有看到它们。
根据这个指南,输入图像数据与滤波器图像数据进行矩阵乘法以检查低级特征(曲线、边缘等),所以也应该有滤波器图像数据(如下图中的右矩阵)?https://adeshpande3.github.io/A-Beginner%27s-Guide-To-Understanding-Convolutional-Neural-Networks
回答:
滤波器是模型中Conv2d
层的权重矩阵,而不是像您在例子中提到的“臀部曲线”那样的预加载图像。如果是那样的话,我们需要向CNN提供所有可能的形状、曲线、颜色类型,并希望我们输入给模型的任何未见数据中包含这些有限图像集中的某一个,模型可以识别出来。
相反,我们允许CNN从数据本身学习它需要的滤波器,并希望它能够泛化到新的数据。通过大量的迭代和数据(它们需要很多),模型迭代地构建最佳的滤波器集,以便成功分类图像。训练开始时的随机初始化确保了每层的所有滤波器都能学会识别输入图像中的不同特征。
早期层通常对应于颜色和边缘(如上所述)这一事实并不是预定义的,而是网络意识到在输入中寻找边缘是创建图像其余部分上下文的唯一方法,从而进行分类(人类最初也是这样做的)。
网络在早期层使用这些原始滤波器在更深的层生成更复杂的解释。这就是分布式学习的力量:通过多次应用更简单的函数来表示复杂的函数。