当前位置:  开发笔记 > 运维 > 正文

如何以编程方式有效地将文件从HDFS复制到S3

如何解决《如何以编程方式有效地将文件从HDFS复制到S3》经验,为你挑选了1个好方法。

我的hadoop作业在HDFS上生成大量文件,我想编写一个单独的线程,将这些文件从HDFS复制到S3.

任何人都可以指向任何处理它的Java API.

谢谢



1> Joe Stein..:

"支持S3块文件系统已添加到Hadoop 0.11.0中的$ {HADOOP_HOME}/bin/hadoop distcp工具中(参见HADOOP-862).distcp工具设置MapReduce作业来运行副本.使用distcp,a许多成员的集群可以快速复制大量数据.映射任务的数量是通过计算源中文件的数量来计算的:即每个映射任务负责复制一个文件.源和目标可以指不同的文件系统类型.例如,source可能引用本地文件系统或以S3为目标的hdfs."

在这里查看运行批量复制进出S3 http://wiki.apache.org/hadoop/AmazonS3

推荐阅读
臭小子
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有