当前位置:  开发笔记 > 大数据 > 正文

如何使用hadoop fs -copyToLocal命令覆盖现有文件

如何解决《如何使用hadoopfs-copyToLocal命令覆盖现有文件》经验,为你挑选了3个好方法。

我们有什么方法可以覆盖现有文件,同时HDFS使用:

hadoop fs -copyToLocal  

小智.. 41

fs -copyFromLocal -f $LOCAL_MOUNT_SRC_PATH/yourfilename.txt your_hdfs_file-path

所以-f选项可以帮到你.

它也适用-copyToLocal.



1> 小智..:
fs -copyFromLocal -f $LOCAL_MOUNT_SRC_PATH/yourfilename.txt your_hdfs_file-path

所以-f选项可以帮到你.

它也适用-copyToLocal.


它不适用于copyToLocal.

2> smttsp..:

你可以先删除,然后再写.

hadoop fs -rmr 删除hdfs中给定路径下的所有内容,包括路径本身

rm -rf 在本地文件系统中删除.

确保目录中没有其他文件.


“ hadoop fs -rmr <路径>”此命令不仅会删除此路径下的文件,还会删除此目录。如果只想删除文件而不是目录,则应使用“ hadoop fs -rm <path> / *”

3> 小智..:

我使用下面的命令,它有助于:

hadoop fs -put -f <> <>

但是从put docs:

将单个src或多个srcs从本地文件系统复制到目标文件系统.

推荐阅读
U友50081205_653
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有