在Pig中reduce与存储函数之间的关系

我刚刚阅读了这篇关于Twitter上大规模机器学习的论文

在论文中,他们提到了一张图表,显示每个reduce都有自己的存储函数(见论文第5页的图1)。

他们还提到了以下代码(我做了简化,但基本相同):

training = load `/tables/statuses/$DATE' using TweetLoader() as (id: long, uid: long, text: chararray);training = foreach training generate $0 as label, $1 as text, RANDOM() as random;training = order training by random parallel $PARTITIONS;training = foreach training generate label, text;store training into `$OUTPUT' using TextLRClassifierBuilder();

据我理解,parallel $PARTITIONS会触发Pig创建两个reducer,但我没有理解它与存储函数之间的关系。如果我将$PARTITIONS设置为2,每个存储模型的名称会是什么?假设我想让每个存储函数获得50%的训练数据,我该怎么做?所有的训练数据都在内存中吗?有没有办法让reduce获得50%的训练数据?


回答:

正如你提到的,PARALLEL控制reducer的数量。在Hadoop框架中,每个reducer会生成自己的输出文件(在使用MultipleOutputs的情况下会生成多个输出文件)。

每个输出文件通常命名为part-r-00000part-r-00372,其中的数字表示由哪个reducer生成。如果你有100个reducer,你将得到文件part-r-00000part-r-00001、…、part-r-00099

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注