我在以下两篇论文中发现了“高容量卷积神经网络”这一术语:
我在谷歌上搜索过,但似乎找不到一个好的定义。
回答:
这通常指的是神经网络能够学习的底层模式的复杂性。通常,通过增加深度
来增加神经网络的容量,这意味着增加模型参数的数量,从而能够拟合更复杂的函数。然而,通过增加深度来提高容量也会增加过拟合的风险,因此正则化等问题变得重要。通常,这也意味着你需要增加训练样本的数量。
我在以下两篇论文中发现了“高容量卷积神经网络”这一术语:
我在谷歌上搜索过,但似乎找不到一个好的定义。
回答:
这通常指的是神经网络能够学习的底层模式的复杂性。通常,通过增加深度
来增加神经网络的容量,这意味着增加模型参数的数量,从而能够拟合更复杂的函数。然而,通过增加深度来提高容量也会增加过拟合的风险,因此正则化等问题变得重要。通常,这也意味着你需要增加训练样本的数量。