能否用一种简单且不那么数学化的方式向我解释什么是Hessian
矩阵,以及在优化神经网络学习过程时它是如何工作的?
回答:
要理解Hessian矩阵,首先需要理解Jacobian矩阵,而要理解Jacobian矩阵,你需要理解导数的概念
- 导数是衡量函数值随自变量变化速度的指标。因此,如果你有一个函数f(x)=x^2,你可以计算它的导数,从而了解f(x+t)在足够小的t值下的变化速度。这让你了解函数的基本动态。
- 梯度在多维函数中显示了最大值变化的方向(基于方向导数),因此对于一个函数如g(x,y)=-x+y^2,你会知道最好是尽量减小x的值,同时大幅增加y的值。这是基于梯度的方法的基础,如最速下降技术(用于传统的反向传播方法)。
- Jacobian矩阵是进一步的推广,因为你的函数可能有多个值,如g(x,y)=(x+1, x*y, x-z),因此你现在有2*3个偏导数,每个输出值(每个2个值)有一个梯度,从而形成一个2*3=6个值的矩阵。
现在,导数显示了函数本身的动态。但是,如果你能利用这种动态来找到函数的最优值,你可以更进一步,如果你能找出这种动态的动态,也就是计算二阶导数呢?这正是Hessian矩阵的作用,它是你的函数的二阶导数矩阵。它捕捉了导数的动态,即变化的变化速度有多快(在哪个方向)。这乍一看可能有点复杂,但如果你仔细想一想,就会变得相当清晰。你想沿着梯度的方向前进,但你不知道“走多远”(正确的步长是多少)。因此,你定义了一个新的、更小的优化问题,你在问“好的,我有这个梯度,我怎么知道该往哪里走?”并以类似的方式解决它,使用导数(以及导数的导数形成Hessian矩阵)。
你也可以从几何角度来看待这个问题——基于梯度的优化用直线近似你的函数。你只是试图找到一条在当前点最接近你的函数的直线,从而定义变化的方向。现在,直线相当原始,也许我们可以使用一些更复杂的形状,比如…抛物线?二阶导数,Hessian方法只是试图将抛物线(二次函数,f(x)=ax^2+bx+c)拟合到你当前的位置。并基于这种近似——选择有效的步长。