我编写了一个非常基础的TensorFlow模型,用于预测一个数字:
上面的代码运行得很好。但如果我在Dense层添加激活函数,预测结果就会变得奇怪。我尝试过’relu’、’sigmoid’、’tanh’等函数。
我的问题是,为什么会这样?激活函数在单层中到底做了什么导致预测出错?我使用的是TensorFlow 2.0
回答:
目前,你正在学习一个线性函数。由于它可以由一个神经元描述,你只需要一个神经元来学习这个函数。另一方面,激活函数是:
用于学习和理解非常复杂的非线性复杂函数映射,即输入与响应变量之间的关系。它为我们的网络引入了非线性特性。它们的主要目的是将人工神经网络中一个节点的输入信号转换为输出信号。现在,这个输出信号将用作堆栈中下一层的输入。
因此,由于你这里只有一个神经元(一个特定情况),你不需要将值传递到下一层。换句话说,所有的隐藏层、输入层和输出层都合并在一起。因此,激活函数对你的情况没有帮助。除非你想根据神经元的输出做出决策。