实际上,我正在尝试实现一个机器学习算法,该算法要求我在文件中写入reducer的输出,然后在下一个mapper中读取该文件。问题是我在文件中写入的是在reducer中创建的MapWritable对象,但现在当我想要访问该对象时,它只以字符串形式出现。有没有办法将这个对象org.apache.hadoop.io.MapWritable@72d01691
在从文件中读取时转换为实际的MapWritable对象?
我在mapper中的部分代码如下:
DoubleWritable[][] Tdata = new DoubleWritable[T.numRows()][T.numColumns()];for (int k = 0; k < Tdata.length; k++) { for (int j = 0; j < Tdata[k].length; j++) { Tdata[k][j] = new DoubleWritable(T.get(k, j)); }}DoubleArrayWritable t = new DoubleArrayWritable();t.set(Tdata);DoubleWritable[][] Hdata = new DoubleWritable[H.numRows()][H.numColumns()];for (int k = 0; k < Hdata.length; k++) { for (int j = 0; j < Hdata[k].length; j++) { Hdata[k][j] = new DoubleWritable(H.get(k, j)); }}DoubleArrayWritable h = new DoubleArrayWritable();h.set(Hdata);mw.put(new IntWritable(0), h);mw.put(new IntWritable(1), t);context.write(new Text(splitId), mw);
在JavaScript中,我们使用eval来处理这种情况,有没有类似的快捷方式?
回答:
你可能使用TextOutputFormat
来输出数据,这是默认设置或者你可能已经设置了它。
为了正确获取实际的对象,你应该使用SequenceFileOutputFormat
来写入输出,并在下一个作业中使用SequenceFileInputFormat
来读取。
你可以使用类似下面的代码来设置输入/输出格式:
job.setInputFormat(SequenceFileInputFormat.class);job.setOutputFormat(SequenceFileOutputFormat.class);
在接收的mapper中,你需要设置传入的对象以匹配前一个reducer输出的类型。