改变输出变量的数量会降低模型的准确性,尽管神经网络的架构保持不变(即输入和隐藏层神经元的数量相同,激活函数相同,用于学习的数据也相同)。
你好,我运行了一个形状为(22,20,8)的神经网络,得到了rms值为5.048和R2值为0.925,其中一个输出变量在新数据上的预测准确率达到了98%。然而,我决定我并不需要所有8个输出(只有4个是有用的),所以我再次运行了模型,形状为(22,20,4),得到了rms值为8.20,R2值为0.62,一个变量的准确率为75%。
如果我只是改变了输出,这如何影响我已经创建的模型的准确性?我使用的是相同的数据,所以模型学到的关系应该是一样的,因此对剩余4个变量的预测也应该是一样的?为什么改变输出会对模型产生这么大的影响?谢谢
回答:
如果我只是改变了输出,这如何影响我已经创建的模型的准确性?
从你的问题来看,你一定已经意识到模型的准确性发生了变化。这种行为是预期之中的,因为你改变了模型本身。
当你将模型重新训练为4个输出
而不是8个输出
时,所学到的关系与具有8个输出的模型是不同的。
即使是像初始权重和偏置、各种初始化的随机状态以及任何其他可调整参数这样的小因素的改变,也肯定会导致准确性的变化。
在你的情况下,架构的改变(一个大的改变)确实对结果产生了重大影响。