我对(C)NNs在分类问题上的一般工作原理(2D图像 -> 1个类别)比较熟悉,但我不知道如何构建一个网络,使其能够接受2D图像并输出一个分类值的2D矩阵。
实际上,我有一组NxN的图像(1个通道),我想在“逐像素”的基础上进行分类。我希望输出是一个NxN的类别集合,这样对于位置(a,b)的像素,结果将是输入图像中像素(a,b)的分类结果。
有关于模型架构的帮助吗?
附注:我听说过基于补丁的方法来做这件事,但我希望将整个NxN图像输入到网络中,而不进行“补丁处理”。
谢谢!@隐藏人名
回答:
一般来说,这项任务并没有什么特别之处。深度神经网络可以同时执行多个分类或回归任务。由于权重共享,你可以确保在对每个像素进行分类时,某个像素与所有其他像素之间存在某种联系。
长话短说,解决这个问题的可能算法如下:
1) 确保你有一个训练集,输入是NxN的图像,输出是NxN的目标类别标签矩阵(每个像素的类别标签)
2) 构建一个通常用于图像分类的深度神经网络架构。比如几个带有最大池化的卷积层,后跟2-3个全连接的ReLU层。
3) 确保你的输出层大小为NxN,并且不是softmax层(再次使用ReLU)
4) 进行训练!
这应该完全可行。我也可以向你保证,从深度神经网络中获得几个半独立的输出并不少见。例如这里使用同一个网络同时定位所有面部关键点(眼睛、嘴巴、鼻子等)。