我在用Hadoop在$ HADOOP_LOG_DIR产生太多的日志文件的问题/ userlogs(Ext3文件系统只允许32000子目录),它看起来像这个问题,同样的问题:在Hadoop中的MapReduce错误
我的问题是:有没有人知道如何配置Hadoop滚动日志目录或以其他方式防止这种情况?我试图避免只设置"mapred.userlog.retain.hours"和/或"mapred.userlog.limit.kb"属性,因为我想实际保留日志文件.
我也希望在log4j.properties中配置它,但是看看Hadoop 0.20.2源代码,它直接写入日志文件而不是实际使用log4j.也许我不明白它是如何完全使用log4j的.
任何建议或澄清将不胜感激.
我有同样的问题.在启动Hadoop之前设置环境变量"HADOOP_ROOT_LOGGER = WARN,console".
export HADOOP_ROOT_LOGGER="WARN,console" hadoop jar start.jar