我按照这个教程进行了操作:https://www.pyimagesearch.com/2017/09/11/object-detection-with-deep-learning-and-opencv/我修改了将图像转换为灰度后再输入神经网络的部分
frame = vs.read()frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)frame = imutils.resize(frame, width=400)(h, w) = frame.shape[:2]blob = cv2.dnn.blobFromImage(cv2.resize(frame, (300, 300)), 0.007843, (300, 300), 127.5)net.setInput(blob)detections = net.forward()
然而出现了以下错误:
OpenCV(3.4.1) Error: Assertion failed (ngroups > 0 && inpCn % ngroups == 0 && outCn % ngroups == 0) in cv::dnn::ConvolutionLayerImpl::getMemoryShapes, file D:\Build\OpenCV\opencv-3.4.1\modules\dnn\src\layers\convolution_layer.cpp, line 234 Traceback (most recent call last): File "C:/Users/Toshiba/PycharmProjects/real-time-object-detection/study7ver2.py", line 75, in <module> detections = net.forward() cv2.error: OpenCV(3.4.1) D:\Build\OpenCV\opencv-3.4.1\modules\dnn\src\layers\convolution_layer.cpp:234: error: (-215) ngroups > 0 && inpCn % ngroups == 0 && outCn % ngroups == 0 in function cv::dnn::ConvolutionLayerImpl::getMemoryShapes
第75行是:detections = net.forward()
为什么我要将图像转换为灰度?因为我需要在将图像输入神经网络之前进行直方图均衡化,这样夜间图像输入会更清晰。
回答:
这些模型中的绝大多数都需要彩色,即3通道图像;通过转换为灰度,您得到的是单通道图像,代码会崩溃。
让我们快速查看一下以确认这一点;链接的博客文章中的脚本运行如下
python deep_learning_object_detection.py \ --prototxt MobileNetSSD_deploy.prototxt.txt \ --model MobileNetSSD_deploy.caffemodel --image images/example_01.jpg
深入研究MobileNetSSD_deploy.prototxt.txt
文件,即这里使用的MobileNet-SSD Github仓库的实现,我们看到输入层被定义为
name: "MobileNet-SSD"input: "data"input_shape { dim: 1 dim: 3 dim: 300 dim: 300}
这里的第二个dim
参数正是图像所期望的通道数(3)。它对单通道图像,例如灰度图像,简单地拒绝工作。
在类似情况下,一个技巧,只是为了让您继续玩下去(尽管我在医学和卫星成像中经常看到这种用法,那里的图像通常也不是彩色的),就是将您的单通道复制成3个相同的通道,并将它们组合成一个“3通道”图像…