当前位置:  开发笔记 > 大数据 > 正文

Hadoop一个Map和多个Reduce

如何解决《Hadoop一个Map和多个Reduce》经验,为你挑选了1个好方法。

我们有一个大型数据集来分析多个reduce函数.

所有reduce算法都在同一个map函数生成的同一数据集工作.读取大型数据集每次都要花费太多,最好只读取一次并将映射数据传递给多个reduce函数.

我可以用Hadoop做到这一点吗?我搜索过这些例子和intarweb,但我找不到任何解决方案.



1> Binary Nerd..:

也许一个简单的解决方案是编写一个没有reduce函数的作业.因此,您可以将所有映射数据直接传递给作业的输出.您只需将作业的减速器数量设置为零.

然后,您将为每个处理该数据的不同reduce函数编写一个作业.这意味着将所有映射数据存储在HDFS上.

另一种选择可能是将所有reduce函数组合成一个Reducer,它输出到多个文件,为每个不同的函数使用不同的输出.本文为hadoop 0.19提到了多个输出.我很确定在使用0.20.1发布的新mapreduce API中这个功能已被破坏,但你仍然可以在旧的mapred API中使用它.

推荐阅读
Gbom2402851125
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有