我正在处理一个TFRecord数据集,该数据集包含多个3D对象横截面的灰度图像,最终的形状为[32, 256, 256]。其中的32维度代表横截面的数量,并且显著小于其他维度。
因此,我在考虑是否可以将数据视为具有32个通道的2D数据,而不是将其视为具有一个通道的3D数据,这样做特别有助于节省计算资源。我目前使用的是TensorFlow,在Google Colab中使用TPU,选择tf.layers.conv2d
而不是tf.layers.conv3d
可以大大节省由于填充较少而占用的内存。
这两种方法之间是否有显著差异,或者是否有我应该遵循的惯例?使用conv2d
会不会以任何方式损害我的准确性?
回答:
卷积层相对于全连接2D层的主要优势之一是,权重局限于一个2D区域,并且在所有2D位置上共享,即一个滤波器。这意味着即使图像中某个判别模式多次出现或出现在不同位置,也只需学习一次。也就是说,它对平移具有一定的不变性。
对于3D信号,你需要确定是否需要滤波器输出对深度不变,即判别特征可能出现在图像的任何或多个深度,或者特征的深度位置相对固定。前者需要3D卷积,后者你可以使用具有大量通道的2D卷积来应对。
例如(这是我编的——我没有在这一领域工作过),假设你有一个某人肺部的3D扫描,并且你试图判断是否存在肿瘤。对于这种情况,你需要3D卷积,因为表示“肿瘤”的滤波器组合需要对肿瘤在X、Y和Z位置上的不变性。如果在这种情况下使用2D卷积,训练集必须包含肿瘤在所有不同Z位置的例子,否则网络将对Z位置非常敏感。
顺便说一句:CNN与LSTM结合是处理3D数据的另一种方法。