提高以下计算Softmax导数代码性能的建议

编辑:添加了函数头

function backward(l::SoftMax, DLDY::Array{Float64}; kwargs...)    # credits: https://stats.stackexchange.com/questions/79454/softmax-layer-in-a-neural-network?newreg=d1e89b443dd346ae8bccaf038a944221    m,n =size(l.x)    ly = Array{Float64}(n)    for batch=1:m      ly = l.y[batch,:]      for i=1:n        li = ly[i]        l.jacobian[:,i] = -li * ly        l.jacobian[i,i] = li*(1-li)      end      # l.jacobian = ly'.*repmat(ly, 1, n)      # for i=1:n      #   li = l.y[batch,i]      #   l.jacobian[i,i] = li*(1.0-li)      # end      # # n x 1 = n x n * n x 1      l.dldx[batch,:] = l.jacobian * DLDY[batch,:]    end    return l.dldxend

以上是我Softmax层反向传播函数的代码。计算Softmax导数的方法在这个讨论中得到了很好的描述 https://stats.stackexchange.com/questions/79454/softmax-layer-in-a-neural-network?newreg=d1e89b443dd346ae8bccaf038a944221。这里,我正在寻找一种更有效的方法来计算导数,因为上面的代码在评估1000×100的矩阵时需要0.05~6秒,而之前的Softmax+交叉熵组合层仅需0.002秒。

因此,我正在寻找一种方法来加速代码的运行。我不确定我计算雅可比矩阵的方式是否是最有效的,但我尝试了另一种方法,即使用repmat(ly,1,n)然后与ly进行点乘。这似乎更糟,因为显然Julia的repmat需要太多的内存分配。

本质上,我正在寻找一种高效的方法来将数组与数组中的每个元素相乘,并将结果连接成一个方阵。有什么Julia大师对此有想法吗?谢谢!


回答:

在抱怨可运行代码后(抱怨仍然有效),我将尝试一个更具建设性的评论。替换循环:

 for i=1:n    li = ly[i]    l.jacobian[:,i] = -li * ly    l.jacobian[i,i] = li*(1-li) end

用(无需循环):

 l.jacobian .= -ly .* ly' l.jacobian[diagind(jacobian)] .= ly.*(1.0.-ly)

结果l.jacobian应该是相同的,而且更有效率。

至于解释,使用到的关键特性包括:broadcast的点符号和diagind

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注