卷积核是预定义的还是由CNN在训练过程中定义的

我理解卷积核的工作原理及其在神经网络中的功能。然而,我不确定在典型的CNN中,是否需要预定义卷积核,还是由CNN自己“找出”。例如,在构建CNN时,是否只需定义一个5×5的卷积核,如下所示:

kernel = [[ 0,  1, -2,  1,  0]          [ 0,  2, -1,  2,  1]          [ 1,  0,  1,  0,  0]          [-1, -1,  0, -3, -1]          [-3, -2,  0,  1,  1]]

还是只需告诉CNN寻找一个5×5的卷积核,训练后它会找到一个好的5×5卷积核?


回答:

对于CNN来说,卷积核是在优化过程中训练的,因此矩阵中的每个数字都是一个自由参数,根据损失函数对该特定变量的偏导数进行调整。

所以回答

还是只需告诉CNN寻找一个5×5的卷积核,训练后它会找到一个好的5×5卷积核?

你会告诉模型使用给定大小的K个卷积核,具有给定的间隔,可能在多个层中,之后进行其他操作,它会自己找到所有卷积核。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注