word2vec中的负采样概念是什么?

我在阅读2014年的论文《word2vec解释:推导Mikolov等人提出的负采样词嵌入方法》(注意:直接下载链接),其中提到了“负采样”的概念:

Mikolov等人提出负采样方法作为一种更有效的推导词嵌入的方式。虽然负采样基于skip-gram模型,但实际上它优化的是不同的目标。

我对负采样的概念有些困惑。

https://arxiv.org/pdf/1402.3722v1.pdf

有谁能用通俗的语言解释一下负采样是什么吗?


回答:

word2vec的理念是最大化在文本中彼此接近(在上下文中)的词向量之间的相似性(点积),并最小化不相关的词的相似性。在您链接的论文的方程(3)中,暂时忽略指数运算。您有

      v_c . v_w -------------------   sum_i(v_ci . v_w)

分子基本上是词c(上下文)和词w(目标词)之间的相似性。分母计算所有其他上下文ci与目标词w的相似性。最大化这个比率可以确保在文本中更接近的词具有比不相关的词更相似的向量。然而,计算这个过程可能非常慢,因为有许多上下文ci。负采样是解决这个问题的几种方法之一——只随机选择几个上下文ci。最终结果是,如果cat出现在food的上下文中,那么food的向量与cat的向量(通过它们的点积来衡量)的相似度会比与几个其他随机选择的词(例如democracygreedFreddy)的向量更高,而不是与语言中的所有其他词相比。这使得word2vec的训练速度大大加快。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注