如何在Python中实现Softmax函数?

根据Udacity的深度学习课程y_i的Softmax函数只是指数除以整个Y向量的指数和:

enter image description here

其中S(y_i)y_i的Softmax函数,e是指数,j是输入向量Y的列数。

我尝试了以下方法:

import numpy as npdef softmax(x):    """Compute softmax values for each sets of scores in x."""    e_x = np.exp(x - np.max(x))    return e_x / e_x.sum()scores = [3.0, 1.0, 0.2]print(softmax(scores))

返回结果为:

[ 0.8360188   0.11314284  0.05083836]

但建议的解决方案是:

def softmax(x):    """Compute softmax values for each sets of scores in x."""    return np.exp(x) / np.sum(np.exp(x), axis=0)

尽管第一个实现明确地取每个列与最大值的差,然后除以总和,但它产生了与第一个实现相同的输出

能否有人从数学上解释为什么?一个是正确的,另一个是错误的吗?

这两个实现的代码和时间复杂度是否相似?哪个更有效?


回答:

它们都是正确的,但从数值稳定性的角度来看,你的实现更受欢迎。

你从以下开始:

e ^ (x - max(x)) / sum(e^(x - max(x))

利用a^(b – c) = (a^b)/(a^c)的事实,我们有

= e ^ x / (e ^ max(x) * sum(e ^ x / e ^ max(x)))= e ^ x / sum(e ^ x)

这正是另一个答案所说的。你可以用任何变量替换max(x),它都会抵消掉。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注