使用Tensorflow和Inception V3进行对象定位

我看到这篇博客文章,它描述了如何使用Google的图像分类模型Inception V3在图像中定位对象的方法。

“我们可以将8x8x2048的表示解释为特征网格,将图像分解为8个水平和8个垂直的网格方块。”

谁能解释一下如何在Python中访问Inception的8x8x2048层?然后使用1×1卷积将这些向量中的每一个映射到类标签上?

谢谢!


回答:

Tensorflow仓库中的Inception模型调用了inception.slim.inception_v3函数,你需要在这里修改网络以添加一个用于1×1卷积的额外层。

修改非常简单,你可以按照它构造其他层的相同方式进行操作。简而言之,这个层将是这样的:

net = ops.conv2d(net, 2048, [1, 1])

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注