当前位置:  开发笔记 > 编程语言 > 正文

使用python脚本从hdfs(hadoop)目录获取文件列表

如何解决《使用python脚本从hdfs(hadoop)目录获取文件列表》经验,为你挑选了1个好方法。

如何使用python脚本从hdfs(hadoop)目录中获取文件列表?

我试过以下行:

dir = sc.textFile(“ hdfs://127.0.0.1:1900 / directory”).collect()

该目录具有文件“ file1,file2,file3 .... fileN”的列表。通过使用该行,我仅获得了所有内容列表。但是我需要获取文件名列表。

谁能帮我找出这个问题?

提前致谢。



1> Rahul Kaduka..:

使用子流程

import subprocess
p = subprocess.Popen("hdfs dfs -ls  |  awk '{print $8}'",
    shell=True,
    stdout=subprocess.PIPE,
    stderr=subprocess.STDOUT)

for line in p.stdout.readlines():
    print line

编辑:没有python的答案。第一个选项也可用于递归打印所有子目录。可以根据您的要求省略或更改最后一个重定向语句。

hdfs dfs -ls -R  | awk '{print $8}' > output.txt
hdfs dfs -ls  | awk '{print $8}' > output.txt

编辑:更正awk命令中缺少的引号。

推荐阅读
周扒pi
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有