贝叶斯网络采样中的随机数为何必要

我正在尝试理解贝叶斯网络中的采样(目前是简单的未优化先验采样)。据我所知,目的是生成有限数量的样本,并观察它们如何在网络中传播。我不明白为什么这个过程需要随机数生成器。

假设你有一个随机变量节点,其条件概率分布(CPD)如下:

| Color | P(Color) ||------------------|| Red   | 0.1      || Green | 0.2      || Blue  | 0.7      |

然后,我找到的介绍说,对于你想要获取的每个样本,你应该调用一个random()函数,生成例如在[0.0, 1.0)之间的数值,然后检查它落在哪个子区间,Red:[0.0, 0.1)Green:[0.1, 0.3)还是Blue: [0.3, 1.0)

我的问题是,为什么还要调用随机数生成器呢?毕竟,你的概率就在眼前。如果你事先决定要创建n个样本,你不能简单地让0.1*n个样本是红色,0.2*n个样本是绿色,0.7*n个样本是蓝色吗?对于具有其条件概率分布的子节点,你可以根据各自的条件概率再次分割所有红色、绿色和蓝色样本,同样不需要使用随机数生成器。

这仍然是一种近似,因为你仍然没有对完整的联合概率分布进行推理。而且在极限情况下,当n –> 无穷大时,这应该仍然会接近正确的条件概率,对吗?


回答:

以下是Hernan C. Vazquez的评论,摘自他在回答我的第一个问题时的交流。在这次交流中,他的评论回答了我的原始问题,所以我想在这里作为答案发布出来。

你需要随机数,因为如果样本不是随机选择的,它可能会以某种方式产生偏差。你需要确保数据代表总体,而实现这一点的方法是通过随机数生成器。

换句话说,你可以有正面或反面各0.5的概率。如果我想取2个样本(n = 2),并且我使用0.5 * n,那么每次出现正面或反面时,接下来的结果将是相反的,P(正面 | 反面)= 1,反之亦然。这不是一个有代表性的样本,因为P(正面 | 反面)= 0.5。你改变了游戏规则。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注