嵌入层的初始值是什么?

我正在研究词表示的嵌入。在许多深度神经网络库中,它们都支持嵌入层。这是一个非常好的教程。

词嵌入:编码词义

但我仍然不确定如何计算嵌入值。在下面的例子中,即使在任何训练之前,它也输出了某个值。它是否使用了一些随机权重?我理解Embedding(2, 5)的目的,但不确定其初始计算方法。而且我也不确定如何学习其嵌入的权重。

word_to_ix = {"hello": 0, "world": 1}embeds = nn.Embedding(2, 5)  # 词汇表中有2个词,嵌入维度为5lookup_tensor = torch.LongTensor([word_to_ix["hello"]])hello_embed = embeds(autograd.Variable(lookup_tensor))print(hello_embed)--------Variable containing:-2.9718  1.7070 -0.4305 -2.2820  0.5237[torch.FloatTensor of size 1x5]

为了确保我理解正确,我把我的想法分解开来。首先,上面的Embedding(2, 5)是一个形状为(2, 5)的矩阵。

Embedding(2, 5) =  [[0.1,-0.2,0.3,0.4,0.1], [-0.2,0.1,0.8,0.2,0.3]] # 通过某种函数初始化,例如随机正态分布

然后,hello[1, 0]。然后hello的表示是通过[1, 0].dot(Embedding(2, 5)) = [0.1,-0.2,0.3,0.4,0.1]计算的。这实际上是嵌入的第一行。我理解得对吗?


更新

我找到了一个使用正态分布来初始化其值的嵌入代码。是的,但这只是默认值,我们可以为嵌入层设置任意权重。https://github.com/chainer/chainer/blob/adba7b846d018b9dc7d19d52147ef53f5e555dc8/chainer/links/connection/embed_id.py#L58


回答:

是的。你从随机权重开始。我认为使用截断正态分布比使用普通正态分布更为常见。但这可能没有太大区别。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注