我试图重现原始出版物中对ImageNet数据集进行的数据预处理,详见“Deep Residual Learning for Image Recognition”。在他们的论文第3.4节中提到:“我们的ImageNet实现遵循[21, 41]中的做法。图像的短边被随机采样在[256,480]范围内进行尺度增强[41]。从图像或其水平翻转中随机裁剪224×224的区域,并减去每个像素的均值[21]。使用了[21]中的标准颜色增强。”
我已经弄清楚了如何随机裁剪原始图像或其水平翻转,裁剪尺寸为224×224。其余两部分我还没有解决。这两部分是图像的短边被随机采样在[256,480]范围内进行尺度增强和使用了[21]中的标准颜色增强。
对于第一部分,我在torch transforms中找不到“随机调整大小”的功能。对于第二部分,根据[21]的引用,是“对ImageNet训练集中所有RGB像素值进行主成分分析”。请参阅ImageNet Classification with Deep Convolutional Neural Networks中的“数据增强”部分了解详细解释。
我该如何重现这种类型的预处理?
回答:
第一部分需要组合三个变换,RandomChoice
,Resize
和RandomCrop
。
transforms.Compose([transforms.RandomChoice([transforms.Resize(256), transforms.Resize(480)]), transforms.RandomCrop(224) ])
对于第二部分,这个是你要找的,但官方Pytorch(以及几乎所有其他人)简单地使用这个。
transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
如果你觉得这太简单,标准的Tensorflow预处理只是
x /= 127.5x -= 1.